DE102009017177B4 - Spracherkennungsanordnung und Verfahren zur akustischen Bedienung einer Funktion eines Kraftfahrzeuges - Google Patents
Spracherkennungsanordnung und Verfahren zur akustischen Bedienung einer Funktion eines Kraftfahrzeuges Download PDFInfo
- Publication number
- DE102009017177B4 DE102009017177B4 DE102009017177.0A DE102009017177A DE102009017177B4 DE 102009017177 B4 DE102009017177 B4 DE 102009017177B4 DE 102009017177 A DE102009017177 A DE 102009017177A DE 102009017177 B4 DE102009017177 B4 DE 102009017177B4
- Authority
- DE
- Germany
- Prior art keywords
- board
- recognition system
- meaning
- motor vehicle
- voice recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 10
- 238000004891 communication Methods 0.000 claims abstract description 17
- 230000005540 biological transmission Effects 0.000 claims abstract description 5
- 230000006870 function Effects 0.000 description 18
- 230000003993 interaction Effects 0.000 description 6
- 230000004044 response Effects 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 238000013518 transcription Methods 0.000 description 2
- 230000035897 transcription Effects 0.000 description 2
- 241001136792 Alle Species 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000002485 combustion reaction Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/30—Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Navigation (AREA)
Abstract
Spracherkennungsanordnung (1) zur akustischen Bedienung einer Funktion eines Kraftfahrzeuges (2), wobei die Spracherkennungsanordnung (1) ein in dem Kraftfahrzeug (2) angeordnetes Mikrofon zur Eingabe eines Sprachbefehls, eine in dem Kraftfahrzeug (2) angeordnete Datenbasis (270), in der phonetischen Repräsentationen von Sprachbefehlen jeweils zumindest eine Bedeutung zugeordnet ist, und ein in dem Kraftfahrzeug (2) angeordnetes on-board-Spracherkennungssystem (27) zur Ermittlung einer Bedeutung des Sprachbefehls unter Verwendung einer in der Datenbasis (270) gespeicherten Bedeutung einer phonetischen Repräsentation eines Sprachbefehls umfasst, wobei die Spracherkennungsanordnung (1) zudem ein räumlich von dem Kraftfahrzeug (2) getrenntes off-board-Spracherkennungssystem (10) zur Ermittlung einer Bedeutung des Sprachbefehls und ein Kommunikationssystem zur Übertragung eines Sprachbefehls von dem Kraftfahrzeug (2) an das off-board-Spracherkennungssystem (10) und zur Übertragung der von dem off-board-Spracherkennungssystem (10) ermittelten Bedeutung des an das off-board-Spracherkennungssystem (10) übertragenen Sprachbefehls sowie einer dem Sprachbefehl zugeordneten phonetischen Repräsentation von dem off-board-Spracherkennungssystem (10) an das Kraftfahrzeug (2) aufweist, und wobei die Spracherkennungsanordnung (1) dazu ausgestaltet ist, die phonetische Repräsentation des an das off-board-Spracherkennungssystem (10) übertragenen Sprachbefehls zusammen mit seiner von dem off-board-Spracherkennungssystem (10) ermittelten Bedeutung in der Datenbasis (270) einander zugeordnet zu speichern,dadurch gekennzeichnet, dass das off-board-Spracherkennungssystem (10) dazu ausgestaltet ist,empfangene Audiodaten hinsichtlich einer Worterkennung zu verarbeiten und extrahierte Wortbedeutungen zu Informationsabrufdiensten, Information Retrieval Services, weiterzuleiten, um Information im Internet selbst zu suchen, wobei die Bedeutung des Sprachbefehls das Ergebnis der durch die Bedeutung im engeren Sinne angestoßenen Suche ist, undeine der Bedeutung des Sprachbefehls zugeordnete Position von dem off-board-Spracherkennungssystem (10) an das Kraftfahrzeug (2) zu übertragen, und die Spracherkennungsanordnung (1) dazu ausgestaltet ist, die phonetische Repräsentation des an das off-board-Spracherkennungssystem (10) übertragenen Sprachbefehls zusammen mit seiner von dem off-board-Spracherkennungssystem (10) ermittelten Bedeutung und der der Bedeutung zugeordneten Position in der Datenbasis (270) zu speichern, wobeidie Spracherkennungsanordnung (1) ein in dem Kraftfahrzeug (2) angeordnetes Navigationssystem zur Bestimmung der Position des Kraftfahrzeuges (2) umfasst und dazu ausgestaltet ist, die Bedeutung des Sprachbefehls mittels des on-board-Spracherkennungssystems in Abhängigkeit der Position des Kraftfahrzeuges (2) oder einer gewählten Position zu ermitteln, indemdie Spracherkennungsanordnung (1) dazu ausgestaltet ist, zunächst die Einträge aus der Datenbasis (270) zu laden, die derselben Position zugeordnet sind, wobei die jeweilige Position eine Stadt oder einen Bundesstaat oder ein Gebiet einer bestimmten Postleitzahl oder ein mehrere Städte umfassendes Gebiet oder ein Gebiet, das durch einen Kreis mit einem vorbestimmten Radius um einen bestimmten Punkt definiert ist, umfasst,sodass, wenn zukünftige Anfragen mit der Spracherkennungsdarstellung einer zuvor in der Datenbasis (270) gespeicherten Anfrage übereinstimmen und sich auf den gleichen Suchort beziehen wie die zuvor gespeicherte Anfrage, das on-Board-Spracherkennungssystem (27) diese kontextspezifischen Ergebnisse für diese Anfrage zurücksendet, ohne dass das off-board-Spracherkennungssystem (10) erforderlich ist.
Description
- Die Erfindung betrifft eine Spracherkennungsanordnung zur akustischen Bedienung einer Funktion eines Kraftfahrzeuges.
- Die
DE 199 42 869 A1 offenbart eine Einrichtung zum Betrieb einer sprachgesteuerten Einrichtung bei Kraftfahrzeugen, wobei Sprachbefehle über Sprachmustervergleich einer Gerätefunktion im Kraftfahrzeug zugewiesen werden, wobei zusätzlich zu vorgegebenen sprachbefehlsauslösbaren Funktionen durch Ad-hoc-Generierungen und -Zuweisungen von neuen Sprachmustern ad hoc neue Funktionen ermöglicht werden, und wobei diese Ad-hoc-Generierungen durch adaptive Transkription vorgenommen werden. Dabei kann in einer Ausgestaltung vorgesehen sein, dass Sprachmuster von extern, beispielsweise über die Telematikdienste oder World Wide Web, gesendet und im Fahrzeug empfangen werden können, so dass das bordeigene System durch den besagten Zugriff nach Extern „hinzulernen“ kann. - Die
DE 10 2006 006 551 A1 offenbart ein System zum Bereitstellen von Sprachdialoganwendungen auf mobilen Endgeräten mit einem Server zum Erzeugen mindestens einer Sprachdialoganwendung, die eine in einer Beschreibungssprache programmierte formale Beschreibung eines Sprachdialogs und Sprachmodelle für Dialogschritte des Sprachdialogs aufweist und einem Rundfunksender, welcher die erzeugten Sprachdialoganwendungen digital am Rundfunkempfänger von mobilen Endgeräten, die sich in seinem Sendegebiet befinden, ausstrahlt. - Die
DE 10 2004 059 372 A1 offenbart ein Navigationssystem mit einer Fahrzeugeinbaueinheit, einem Sprachkonversationsdokument-Erzeugungsserver und einem Informationsauffindeserver. - Die
EP 1 417 456 B1 offenbart ein Telekommunikationsdienstportal, welches mit zumindest einem Mobiltelekommunikationsnetz verbunden ist, und welches zumindest einen Streckennavigationsserver aufweist, der an eine Spracherkennungsschnittstelle angeschlossen ist, um Realzeitführungsinformationen in Antwort auf einen Zielort zu liefern, der ihm durch den Benutzer mit Hilfe eines an das Netz angeschlossenen Telekommunikationsterminals mitgeteilt worden ist, wobei der Navigationsserver Vorrichtungen zur akustischen Analyse des empfangenen Signals aufweist. - Die
GB 2 368 441 A - Die
EP 1 341 363 A1 offenbart ein System als Schnittstelle zwischen einem in einem Fahrzeug angeordneten on-board-Gerät und einem extern vom Fahrzeug angeordneten Sprachportalserver mit einem Sprachkommunikator und einem Datenkommunikator, die im Fahrzeug angeordnet sind, wobei das on-board-Gerät elektronisch mit dem Sprachkommunikator und/oder dem Datenkommunikator kommuniziert, die dazu geeignet sind, drahtlos mit einer Basisstation zu kommunizieren, und wobei die Basisstation elektronisch mit dem Sprachportalserver kommuniziert. - Die
EP 1 739 546 A2 offenbart ein Kraftfahrzeugsystem zum Bereitstellen einer integrierten Benutzerschnittstelle für Steuer- und Kommunikationsfunktionen in einem Automobil oder einem andersartigen Fahrzeug, wobei die Benutzerschnittstelle sprachaktivierte Wechselwirkungen sowie andersartige Wechselwirkungen unterstützt, wie beispielsweise manuelle Wechselwirkungen unter Verwendung von Steuerungen, wie beispielsweise armaturenbrett- oder lenkradmontierte Steuerungen, wobei das System außerdem Schnittstellen zu Geräten im Fahrzeug aufweist, z.B. drahtlose Schnittstellen zu mobilen Geräten, die in das Fahrzeug eingebracht werden, und wobei das System außerdem Schnittstellen zu Informationsquellen bereitstellt, z.B. zu einem abgesetzten Server, um einen Zugriff auf Information zu ermöglichen. - Aus der US 2004 / 0 010 409 A1 ist bekannt, dass ein Spracherkenner in einem mobilen Gerät sukzessive mit weiterem Vokabular erweitert werden kann, wann immer festgestellt wird, dass ein aktuell eingegebener Sprachbefehlt nicht erkannt werden konnte.
- Aus der
JP 2004 - 117 063 A - Aus dem Buch „Grundkurs Spracherkennung“ von Stephen Euler (Vieweg Verlag, 2006, ISBN 3-8348-0003-1) ist eine Beschreibung eines Vokabulars für einen Spracherkenner bekannt.
- Es ist Aufgabe der Erfindung, die Spracherkennung in einem Kraftfahrzeug zu verbessern. Es ist weiterhin Aufgabe der Erfindung, die Leistung einer Spracherkennung in einem Kraftfahrzeug bei beschränkt verfügbarem Zugang zu einer drahtlosen Kommunikationsverbindung zu verbessern. Es ist weiterhin Aufgabe der Erfindung, die Bandbreite einer drahtlosen Kommunikationsverbindung zu einem Kraftfahrzeug effizienter zu nutzen.
- Vorgenannte Aufgabe wird durch eine Spracherkennungsanordnung zur akustischen Bedienung einer Funktion eines Kraftfahrzeuges gelöst, wobei die Spracherkennungsanordnung ein in dem Kraftfahrzeug angeordnetes Mikrofon zur Eingabe eines Sprachbefehls, eine in dem Kraftfahrzeug angeordnete Datenbasis, in der phonetischen Repräsentationen von Sprachbefehlen jeweils zumindest eine Bedeutung zugeordnet ist, und ein in dem Kraftfahrzeug angeordnetes on-board-Spracherkennungssystem zur von der Position des Kraftfahrzeuges oder einer gewählten Position abhängigen Ermittlung einer Bedeutung des Sprachbefehls unter Verwendung einer in der Datenbasis gespeicherten Bedeutung einer phonetischen Repräsentation eines Sprachbefehls umfasst, wobei die Spracherkennungsanordnung zudem ein räumlich von dem Kraftfahrzeug getrenntes off-board-Spracherkennungssystem zur Ermittlung einer Bedeutung des Sprachbefehls und ein Kommunikationssystem zur Übertragung eines Sprachbefehls von dem Kraftfahrzeug an das off-board-Spracherkennungssystem und zur Übertragung der von dem off-board-Spracherkennungssystem ermittelten Bedeutung des an das off-board-Spracherkennungssystem übertragenen Sprachbefehls sowie insbesondere einer dem Sprachbefehl zugeordneten phonetische Repräsentation von dem off-board-Spracherkennungssystem an das Kraftfahrzeug aufweist, und wobei die phonetische Repräsentation des an das off-board-Spracherkennungssystem übertragenen Sprachbefehls zusammen mit seiner von dem off-board-Spracherkennungssystem ermittelten Bedeutung in der Datenbasis speicherbar ist.
- Eine Funktion eines Kraftfahrzeuges ist im Sinne der Erfindung insbesondere eine Auswahl und/oder Suche eines (Ziel)Ortes und/oder einer Information.
- Eine Bedeutung eines Sprachbefehls ist im Sinne der Erfindung ein der Bedeutung des Sprachbefehls im engeren Sinne zugeordnetes Ergebnis. So kann z. B. die Bedeutung des Sprachbefehls „Indisches Restaurant“ unter anderem „Indisches Restaurant Satkar“ sein. In diesem Sinne kann eine phonetische Repräsentation eines Sprachbefehls im Sinne der Erfindung eine phonetische Repräsentation des eigentlichen Sprachbefehls und/oder eine phonetische Repräsentation des dem Sprachbefehl zugeordneten Ergebnisses sein. Die phonetische Repräsentation des an das off-board-Spracherkennungssystem übertragenen Sprachbefehls kann eine von dem off-board-Spracherkennungssystem ermittelte und an das Kraftfahrzeug übertragene phonetische Repräsentation sein.
- Zusammen gespeichert bzw. zusammen speicherbar soll im Sinne der Erfindung bedeuten, dass die entsprechenden Daten einander zugeordnet gespeichert sind.
- In der Erfindung ist eine der Bedeutung des Sprachbefehls zugeordnete Position von dem off-board-Spracherkennungssystem an das Kraftfahrzeug übertragbar. Eine Position im Sinne der Erfindung kann eine Position im engeren Sinne sein. Eine Position im Sinne der Erfindung kann jedoch insbesondere ein bestimmtes Gebiet umfassen, dem eine Bedeutung oder ein Suchergebnis zugeordnet ist. So kann eine Position im Sinne der Erfindung eine Stadt oder einen Bundesstaat umfassen. Eine Position im Sinne der Erfindung kann jedoch auch ein Gebiet einer bestimmten Postleitzahl oder ein mehrere Städte umfassendes Gebiet umfassen. Eine Position im Sinne der Erfindung kann jedoch auch ein Gebiet umfassen, das durch einen Kreis (insbesondere mit einem vorbestimmten Radius) um einen bestimmten Punkt definiert ist. In Bezug auf ein Restaurant kann zum Beispiel eine Position im Sinne der Erfindung eine Stadt umfassen, in der das Restaurant liegt. Eine zugeordnete Position im Sinne der Erfindung ist insbesondere ein als Position bezeichnetes Gebiet, in dem das Ergebnis einer Suche liegt.
- In der Erfindung ist die phonetische Repräsentation des an das off-board-Spracherkennungssystem übertragenen Sprachbefehls zusammen mit seiner von dem off-board-Spracherkennungssystem ermittelten Bedeutung und der oder einer der Bedeutung zugeordneten Position in der Datenbasis speicherbar. In einer weiteren Ausgestaltung der Erfindung umfasst die Spracherkennungsanordnung ein in dem Kraftfahrzeug angeordnetes Navigationssystem zur Bestimmung der Position des Kraftfahrzeuges.
- Vorgenannte Aufgabe wird zudem durch ein Verfahren zur akustischen Bedienung einer Funktion eines Kraftfahrzeuges gelöst, wobei ein Sprachbefehl mittels eines in dem Kraftfahrzeug angeordneten Mikrofons eingegeben wird, wobei mittels eines in dem Kraftfahrzeug angeordneten on-board-Spracherkennungssystems versucht wird, eine Bedeutung des Sprachbefehls unter Verwendung einer in dem Kraftfahrzeug angeordneten Datenbasis zu ermitteln, in der phonetischen Repräsentationen von Sprachbefehlen jeweils zumindest eine Bedeutung zugeordnet ist, wobei der Sprachbefehl von dem Kraftfahrzeug an ein off-board-Spracherkennungssystem übertragen wird, jedoch insbesondere nur dann, wenn die Bedeutung des Sprachbefehls nicht mittels des on-board-Spracherkennungssystems ermittelt werden konnte, wobei eine von dem off-board-Spracherkennungssystem ermittelte Bedeutung des an das off-board-Spracherkennungssystem übertragenen Sprachbefehls sowie insbesondere eine dieser Bedeutung zugeordnete Position von dem off-board-Spracherkennungssystem an das Kraftfahrzeug übertragen werden, wobei die phonetische Repräsentation des an das off-board-Spracherkennungssystem übertragenen Sprachbefehls zusammen mit seiner von dem off-board-Spracherkennungssystem ermittelten Bedeutung in der Datenbasis gespeichert werden, und wobei die Funktion des Kraftfahrzeuges gemäß der ermittelten Bedeutung des Sprachbefehls bedient bzw. ausgeführt wird.
- In der Erfindung wird die phonetische Repräsentation des an das off-board-Spracherkennungssystem übertragenen Sprachbefehls zusammen mit seiner von dem off-board-Spracherkennungssystem ermittelten Bedeutung und der oder einer der Bedeutung zugeordneten Position in der Datenbasis gespeichert. In einer weiteren Ausgestaltung der Erfindung wird die Position des Kraftfahrzeuges bestimmt. In einer weiteren Ausgestaltung der Erfindung wird die Bedeutung des Sprachbefehls mittels des on-board-Spracherkennungssystems in Abhängigkeit der Position des Kraftfahrzeuges ermittelt.
- Vorgenannte Aufgabe wird zudem durch ein Kraftfahrzeug mit einem Mikrofon zur Eingabe eines Sprachbefehls gelöst, wobei das Kraftfahrzeug eine Datenbasis, in der phonetischen Repräsentationen von Sprachbefehlen jeweils zumindest eine Bedeutung und eine Position zugeordnet ist, und ein on-board-Spracherkennungssystem zur, insbesondere von der Position des Kraftfahrzeuges abhängigen, Ermittlung einer Bedeutung des Sprachbefehls unter Verwendung einer in der Datenbasis gespeicherten Bedeutung einer phonetischen Repräsentation eines Sprachbefehls umfasst.
- In der Erfindung weist das Kraftfahrzeug eine Schnittstelle für einen drahtlosen Zugriff auf ein räumlich von dem Kraftfahrzeug getrenntes off-board-Spracherkennungssystem auf. In der Erfindung ist die phonetische Repräsentation eines an das off-board-Spracherkennungssystem übertragenen Sprachbefehls zusammen mit seiner von dem off-board-Spracherkennungssystem ermittelten Bedeutung und einer der Bedeutung zugeordneten Position in der Datenbasis gespeichert. In einer weiteren Ausgestaltung der Erfindung ist eine Funktion des Kraftfahrzeuges gemäß der mittels des off-board-Spracherkennungssystems ermittelten Bedeutung des Sprachbefehls bedienbar bzw. ausführbar.
- Kraftfahrzeug im Sinne der Erfindung ist insbesondere ein individuell im Straßenverkehr benutzbares Landfahrzeug. Kraftfahrzeuge im Sinne der Erfindung sind insbesondere nicht auf Landfahrzeuge mit Verbrennungsmotor beschränkt.
- Weitere Vorteile und Einzelheiten ergeben sich aus der nachfolgenden Beschreibung von Ausführungsbeispielen. Dabei zeigen:
-
1 ein Ausführungsbeispiel einer Spracherkennungsanordnung zur akustischen Bedienung einer Funktion eines Kraftfahrzeuges, -
2 ein Ausführungsbeispiel eines Kraftfahrzeuges, -
3 ein Ausführungsbeispiel einer Datenbasis und -
4 ein Ausführungsbeispiel eines Verfahrens zur Bedienung eines Kraftfahrzeuges. -
1 zeigt ein Ausführungsbeispiel einer Spracherkennungsanordnung 1 zur akustischen Bedienung einer Funktion eines Kraftfahrzeuges 2. Die Spracherkennungsanordnung 1 umfasst ein außerhalb des Kraftfahrzeuges 2 angeordnetes off-board-Spracherkennungssystem 10 zur Ermittlung einer Bedeutung eines Sprachbefehls. Die Spracherkennungsanordnung 1 umfasst ferner eine drahtlose Internetverbindung zwischen dem Kraftfahrzeug 2 und dem off-board-Spracherkennungssystem 10, über die ein Sprachbefehl von dem Kraftfahrzeug 2 an das off-board-Spracherkennungssystem 10 und eine von dem off-board-Spracherkennungssystem 10 ermittelten Bedeutung des an das off-board-Spracherkennungssystem 10 übertragenen Sprachbefehls von dem off-board-Spracherkennungssystem 10 an das Kraftfahrzeug 2 übertragen wird. Zur Implementierung der drahtlosen Internetverbindung ist eine drahtlose Kommunikationsverbindung 7 zwischen dem Kraftfahrzeug 2 und einem Kommunikationsknoten 12 zur Verbindung ins Internet 15 vorgesehen. Die drahtlose Kommunikationsverbindung 7 ist insbesondere ein WLAN. Es kann aber auch vorgesehen sein, dass eine drahtlose Kommunikationsverbindung 7 als WIFI-Verbindung, WIMAXI-Verbindung, RFI-Verbindung, Mobilfunk-Verbindung etc. implementiert ist. Es kann auch vorgesehen sein, dass - abhängig von bestimmten Kriterien - (automatisch) zwischen alternativen drahtlosen Kommunikationsverbindungen gewählt wird. Diese Kriterien sind z. B. Kosten, Verfügbarkeit und/oder Bandbreite etc. -
2 zeigt ein Ausführungsbeispiel einer beispielhaften Implementierung des Kraftfahrzeuges 2 in einer Prinzipdarstellung. Das Kraftfahrzeug 2 umfasst eine z. B. als Touchscreen mit einem Display ausgestaltete Mensch-Maschine-Schnittstelle 21. Dazu ist der Touchscreen 21 mittels einer Anzeigesteuerung 20 ansteuerbar, die mittels eines Bussystems 30 mit einer Internetschnittstelle 22 für die drahtlose Kommunikationsverbindung 7 verbunden ist. Die als Touchscreen ausgestaltete Mensch-Maschine-Schnittstelle 21 kann - gemäß dem vorliegenden Ausführungsbeispiel - auch zur Bedienung eines Infotainmentsystems 24, eines Telefons 25 oder einer Klimaautomatik 26 genutzt werden. - Das Kraftfahrzeug 2 umfasst ein in ein Navigationssystem 23 integriertes Ortungssystem zur Bestimmung der Position des Kraftfahrzeuges 2, zur Bestimmung der Ausrichtung des Kraftfahrzeuges 2 und/oder zur Bestimmung der on-board-Zeit in Abhängigkeit von von in
1 mit Bezugszeichen 3 bezeichneten Satelliten gesendeten Signalen. Mittels des Navigationssystems 23 ist ein Routenvorschlag für das Kraftfahrzeug 2 zu einem Ziel ermittelbar. Das Kraftfahrzeug 2 umfasst zudem ein Mikrofon 29 zur Eingabe von Sprachbefehlen, das über eine Sprachschnittstelle 28 mit dem Bussystem 30 gekoppelt ist, eine Datenbasis 270, in der - wie ausschnittsweise beispielhaft in3 dargestellt - phonetischen Repräsentationen von Sprachbefehlen jeweils zumindest eine Bedeutung und eine Position zugeordnet ist, sowie ein on-board-Spracherkennungssystem 27 zur Ermittlung einer Bedeutung eines Sprachbefehls unter Verwendung einer in der Datenbasis 270 gespeicherten Bedeutung einer phonetischen Repräsentation eines Sprachbefehls. Es kann ferner ein Lautsprecher vorgesehen sein, der ebenfalls über die Sprachschnittstelle 28 mit dem Bussystem 30 gekoppelt sein kann. -
4 zeigt ein Ausführungsbeispiel eines Verfahrens zum Betrieb des Kraftfahrzeuges 2 bzw. der Spracherkennungsanordnung 1. Dabei werden zunächst in einem Schritt 41 die Einträge aus der Datenbasis 270 geladen, die derselben Position, also zum Beispiel der Position 1 zugeordnet sind. Dem Schritt 41 folgte eine Abfrage 42, ob ein Sprachbefehl eingegangen ist. Ist kein Sprachbefehl eingegangen, so erfolgt erneut Schritt 41. Ist jedoch ein Sprachbefehl eingegangen, so folgt der Abfrage 42 ein Schritt 43, in dem versucht wird, den Sprachbefehl mittels des on-board-Spracherkennungssystems 27 zu erkennen. - Dem Schritt 43 folgt eine Abfrage 44, ob der Sprachbefehl mittels des on-board-Spracherkennungssystems 27 erkannt wurde (auswertbar war). Wurde der Sprachbefehl mittels des on-board-Spracherkennungssystems 27 erkannt, so folgt der Abfrage 44 ein Schritt 45, in dem eine dem Sprachbefehl entsprechende Funktion des Kraftfahrzeuges ausgeführt wird. Dies kann zum Beispiel das Anzeigen oder Ausgeben einer Information (wie eines Zielortes) oder das Übertragen eines Zielortes in das Navigationssystem 23 umfassen. Dem Schritt 45 folgt wiederum der Schritt 41. Wurde der Sprachbefehl dagegen nicht mittels des on-board-Spracherkennungssystems 27 erkannt, so folgt der Abfrage 44 eine Abfrage 46, ob die Kommunikationsverbindung 7 verfügbar ist.
- Ist die Kommunikationsverbindung 7 nicht verfügbar, so folgt der Abfrage 46 Schritt 41. Ist die Kommunikationsverbindung 7 dagegen verfügbar, so wird der Sprachbefehl an das off-board-Spracherkennungssystem 10 übertragen und von diesem in einem Schritt 47 ausgewertet. Das Ergebnis dieser Auswertung ist eine Bedeutung des Sprachbefehls, wobei die Bedeutung das Ergebnis einer durch die Bedeutung im engeren Sinne angestoßenen Suche ist. Die Bedeutung des Sprachbefehls (also das Ergebnis) werden zusammen mit einer phonetischen Präsentation des Sprachbefehls und einer der Bedeutung zugeordneten Position, wie zum Beispiel einem Städtenamen und/oder einer Postleitzahl, an das Kraftfahrzeug 2 übertragen.
- Es folgt ein Schritt 48, in dem der die Bedeutung des Sprachbefehls (also die Bedeutung im engeren Sinne bzw. das Ergebnis), die phonetische Präsentation des Sprachbefehls und der der Bedeutung zugeordneten Position umfassende Datensatz der Datenbasis 270 hinzugefügt wird. Darüber hinaus wird eine dem Sprachbefehl entsprechende Funktion des Kraftfahrzeuges ausgeführt.
- Die Erfindung wird anhand der folgenden Beispiele näher erläutert: Es wird vorausgesetzt, dass ein Benutzer das Spracherkennungssystem aktiviert und die Phrase „Indian Restaurant“ spricht, wobei das Audiosignal im fahrzeugeigenen System erfasst und codiert und dann für eine Übertragung über ein IP-Netzwerk formatiert wird. Beispielhafte Verbindungsverfahren sind sitzungsorientierte TCP- oder HTTP-Anfragen in einem Webdienstmodell. Am off-Board-Spracherkennungssystem 10 empfangene Audiodaten werden dann hinsichtlich verschiedenartiger Informationsteile verarbeitet, z.B. Worterkennung, Sprachverständnis und datengetriebene (data driven) Anpassung oder Abstimmung. Außerdem können die extrahierten Wortbedeutungen, um das Nachschlagen und Suchen von Information im Internet selbst zu ermöglichen, zu Informationsabrufdiensten (Information Retrieval Services) weitergeleitet werden (die im Sinn der Ansprüche Teil des off-Board-Spracherkennungssystems sind).
- Schließlich wird eine Antwort in Form von Daten an das Fahrzeug übertragen. Die Antwort beinhaltet: (1) Spracherkennungsdarstellungen der Anfrage selbst, (2) den Ort der Suche, und (3) die gemäß der Suche erhaltenen kontextspezifischen Ergebnisse. Das lokale, fahrzeugeigene Spracherkennungssystem interpretiert diese Informationen, führt gegebenenfalls Formatumwandlungen aus und speichert alle drei Informationsteile in seinem lokalen Cache-Speicher (Datenbank 270). Wenn zukünftige Anfragen mit der Spracherkennungsdarstellung einer zuvor (in der Datenbank 270) gespeicherten Anfrage übereinstimmen und sich auf den gleichen Suchort beziehen wie die zuvor gespeicherte Anfrage, kann das System (on-board-Spracherkennungssystem 27) die kontextspezifischen Ergebnisse für diese Anfrage zurücksenden, ohne dass irgendwelche Information über das Netzwerk übertragen wird, und ohne dass das off-Board-Spracherkennungssystem 10 erforderlich ist. Dies kann nützlich sein, wenn das Netzwerk außer Betrieb ist, so dass das vernetzte Sprachsystem vorübergehend deaktiviert ist. Es ist auch nützlich, wenn schnellere Suchläufe, eine Bandbreiteneinsparung und/oder ein verminderter Serververarbeitungsaufwand erwünscht sind.
- Eine in Tabelle 1 dargestellte beispielhafte Ergebnissatzdatendatei würde aufweisen: die phonetische Darstellung von „Indian Restaurant“ (die Anfrage), die Stadt „Palo Alto, California“ (den Ort) und eine Liste mit indischen Restaurants in Palo Alto, Kalifornien (den kontextspezifischen Ergebnissatz).
- Im vorstehenden Beispiel wird die Aussprache von „Indian Restaurant“ der Grammatik des lokalen Spracherkennungssystems zusammen mit dem Ausdruck „Palo Alto, California“ hinzugefügt, der den Ort bezeichnet, in dem die Suche ausgeführt wurde. Das nächste Mal, wenn eine Suche ausgeführt wird, die mit der Aussprache „Indian Restaurant“ übereinstimmt und sich auf den Ort „Palo Alto, California“ bezieht (wenn sich das Fahrzeug beispielsweise in Palo Alto befindet), muss das System lediglich die gespeicherten kontextspezifischen Ergebnisse (von der Datenbank 270) zurücksenden.
- Gemäß einem anderen Beispiel würde ein Benutzer das Spracherkennungssystem aktivieren und die Phrase „Indian Food“ sprechen. Das Audiosignal wird im fahrzeugeigenen System erfasst und codiert und dann für eine Übertragung über ein IP-Netzwerk formatiert. Beispielhafte Verbindungsverfahren sind sitzungsorientierte TCP- oder HTTP-Anfragen in einem Webdienstmodell. Am off-Board-Spracherkennungssystem 10 empfangene Audiodaten werden dann hinsichtlich verschiedenartiger Informationsteile verarbeitet, z.B. Worterkennung, Sprachverständnis und datengetriebene (data driven) Anpassung oder Abstimmung. Außerdem können die extrahierten Wortbedeutungen, um das Nachschlagen und Suchen von Information im Internet selbst zu ermöglichen, zu Informationsabrufdiensten (Information Retrieval Services) weitergeleitet werden. Schließlich werden die Ergebnisse als Daten an das Fahrzeug übertragen (wie vorstehend erläutert wurde).
- Die Ergebnisse beinhalten kontextspezifische Spracherkennungsdarstellungen von Wörtern und Phrasen vom Ergebnissatz. Das lokale fahrzeugeigene Spracherkennungssystem (on-board-Spracherkennungssystem 27) interpretiert diese Information, führt gegebenenfalls Formatumwandlungen aus und fügt die spezifischen Wort- und Phrasendarstellungen für eine verfeinerte Suche seiner Grammatik hinzu. Das fahrzeugeigene System kann dann weitere Spracherkennungsfunktionen für eine verfeinerte Suche ausführen, die es dem Benutzer beispielsweise ermöglicht, kontextspezifische Wörter und Phrasen auszusprechen. Schließlich wird dem Benutzer die Gesamtergebnisinformation präsentiert. Eine beispielhafte Ergebnissatzdatendatei würde eine Liste indischer Restaurants und kontextspezifische Spracherfassungsdarstellungen geeigneter Namen vom Ergebnissatz aufweisen. Tabelle 2 zeigt ein Auflistungsbeispiel innerhalb des Ergebnissatzes.
- Der Abschnitt „<phonetic_format>basic</phonetic_format>“ beschreibt das Format der phonetischen Darstellungen von Ergebniswörtern und -phrasen, die durch das off-Board-Spracherkennungssystem 10 erzeugt werden. Die Abschnitte
- - „<phonetic string=„satkar“ var=„1“>S AH T K AO R</phonetic>“
- - „<phonetic string=„satkar“ var=„2“>S AA T K AA R</phonetic>“ and
- - „<phonetic string=„los altos“ var=„1“>L AA S | AE L T OW S</phonetic>“
- Die folgende exemplarische Ausführungsform zeigt eine Gesamtübersicht einer Ende-zu-Ende-Suchaufgabe. Nach dem ersten Wechselwirkungsschritt, bei dem eine Sprachsuche bezüglich des IP-adressierbaren Servers ausgeführt wird, wird eine Grammatik in das lokale eingebettete Spracherkennungssystem geladen, die zum Erkennen von Sprachbefehlen für eine verfeinerte Suchaufgabe verwendet wird. Diese Grammatik beinhaltet nun kontextspezifische Wörter und Phrasen, wie beispielsweise „Indische Küche Satkar“ und „Los Altos“. Sie könnte auch andere geeignete Namen und geeignete Teilnamen beinhalten, die mit einem Straßenort, einer Stadt und damit in Beziehung stehenden „Schlüsselwörtern“ in Beziehung stehen. Beim nächsten Wechselwirkungsschritt des Benutzers mit dem kombinierten Spracherkennungssystem kann das eingebettete System dann die aufgezeichnete Sprache unter Verwendung kontextspezifischer Wörter und Phrasen analysieren (bei mit der Liste übereinstimmenden Ergebnissen durch eine eingebettete G2P-Funktion oder Vernetzung), ohne dass für Sprachdienste eine erneute Kommunikation über das Netzwerk erforderlich ist.
- Bezugszeichenliste
-
- 1
- Spracherkennungsanordnung
- 2
- Kraftfahrzeug
- 3
- Satellit
- 7
- Kommunikationsverbindung
- 10
- off-board-Spracherkennungssystem
- 12
- Kommunikationsknoten
- 15
- Internet
- 16
- Terminal
- 20
- Anzeigesteuerung
- 21
- Mensch-Maschine-Schnittstelle
- 22
- Internetschnittstelle
- 23
- Navigationssystem
- 24
- Infotainmentsystem
- 25
- Telefon
- 26
- Klimaautomatik
- 27
- on-board-Spracherkennungssystem
- 28
- Sprachschnittstelle
- 29
- Mikrofon
- 30
- Bussystem
- 41, 43, 45, 47, 48
- Schritt
- 42, 44, 46
- Abfrage
- 270
- Datenbasis
Claims (2)
- Spracherkennungsanordnung (1) zur akustischen Bedienung einer Funktion eines Kraftfahrzeuges (2), wobei die Spracherkennungsanordnung (1) ein in dem Kraftfahrzeug (2) angeordnetes Mikrofon zur Eingabe eines Sprachbefehls, eine in dem Kraftfahrzeug (2) angeordnete Datenbasis (270), in der phonetischen Repräsentationen von Sprachbefehlen jeweils zumindest eine Bedeutung zugeordnet ist, und ein in dem Kraftfahrzeug (2) angeordnetes on-board-Spracherkennungssystem (27) zur Ermittlung einer Bedeutung des Sprachbefehls unter Verwendung einer in der Datenbasis (270) gespeicherten Bedeutung einer phonetischen Repräsentation eines Sprachbefehls umfasst, wobei die Spracherkennungsanordnung (1) zudem ein räumlich von dem Kraftfahrzeug (2) getrenntes off-board-Spracherkennungssystem (10) zur Ermittlung einer Bedeutung des Sprachbefehls und ein Kommunikationssystem zur Übertragung eines Sprachbefehls von dem Kraftfahrzeug (2) an das off-board-Spracherkennungssystem (10) und zur Übertragung der von dem off-board-Spracherkennungssystem (10) ermittelten Bedeutung des an das off-board-Spracherkennungssystem (10) übertragenen Sprachbefehls sowie einer dem Sprachbefehl zugeordneten phonetischen Repräsentation von dem off-board-Spracherkennungssystem (10) an das Kraftfahrzeug (2) aufweist, und wobei die Spracherkennungsanordnung (1) dazu ausgestaltet ist, die phonetische Repräsentation des an das off-board-Spracherkennungssystem (10) übertragenen Sprachbefehls zusammen mit seiner von dem off-board-Spracherkennungssystem (10) ermittelten Bedeutung in der Datenbasis (270) einander zugeordnet zu speichern, dadurch gekennzeichnet, dass das off-board-Spracherkennungssystem (10) dazu ausgestaltet ist, empfangene Audiodaten hinsichtlich einer Worterkennung zu verarbeiten und extrahierte Wortbedeutungen zu Informationsabrufdiensten, Information Retrieval Services, weiterzuleiten, um Information im Internet selbst zu suchen, wobei die Bedeutung des Sprachbefehls das Ergebnis der durch die Bedeutung im engeren Sinne angestoßenen Suche ist, und eine der Bedeutung des Sprachbefehls zugeordnete Position von dem off-board-Spracherkennungssystem (10) an das Kraftfahrzeug (2) zu übertragen, und die Spracherkennungsanordnung (1) dazu ausgestaltet ist, die phonetische Repräsentation des an das off-board-Spracherkennungssystem (10) übertragenen Sprachbefehls zusammen mit seiner von dem off-board-Spracherkennungssystem (10) ermittelten Bedeutung und der der Bedeutung zugeordneten Position in der Datenbasis (270) zu speichern, wobei die Spracherkennungsanordnung (1) ein in dem Kraftfahrzeug (2) angeordnetes Navigationssystem zur Bestimmung der Position des Kraftfahrzeuges (2) umfasst und dazu ausgestaltet ist, die Bedeutung des Sprachbefehls mittels des on-board-Spracherkennungssystems in Abhängigkeit der Position des Kraftfahrzeuges (2) oder einer gewählten Position zu ermitteln, indem die Spracherkennungsanordnung (1) dazu ausgestaltet ist, zunächst die Einträge aus der Datenbasis (270) zu laden, die derselben Position zugeordnet sind, wobei die jeweilige Position eine Stadt oder einen Bundesstaat oder ein Gebiet einer bestimmten Postleitzahl oder ein mehrere Städte umfassendes Gebiet oder ein Gebiet, das durch einen Kreis mit einem vorbestimmten Radius um einen bestimmten Punkt definiert ist, umfasst, sodass, wenn zukünftige Anfragen mit der Spracherkennungsdarstellung einer zuvor in der Datenbasis (270) gespeicherten Anfrage übereinstimmen und sich auf den gleichen Suchort beziehen wie die zuvor gespeicherte Anfrage, das on-Board-Spracherkennungssystem (27) diese kontextspezifischen Ergebnisse für diese Anfrage zurücksendet, ohne dass das off-board-Spracherkennungssystem (10) erforderlich ist.
- Verfahren zur akustischen Bedienung einer Funktion eines Kraftfahrzeuges (2), wobei ein Sprachbefehl mittels eines in dem Kraftfahrzeug (2) angeordneten Mikrofons eingegeben wird, wobei mittels eines in dem Kraftfahrzeug (2) angeordneten on-board-Spracherkennungssystems versucht wird, eine Bedeutung des Sprachbefehls unter Verwendung einer in dem Kraftfahrzeug (2) angeordneten Datenbasis (270) zu ermitteln, in der phonetischen Repräsentationen von Sprachbefehlen jeweils zumindest eine Bedeutung zugeordnet ist, wobei der Sprachbefehl von dem Kraftfahrzeug (2) an ein off-board-Spracherkennungssystem (10) übertragen wird, jedoch nur dann, wenn die Bedeutung des Sprachbefehls nicht mittels des on-board-Spracherkennungssystems ermittelt werden konnte, wobei eine von dem off-board-Spracherkennungssystem (10) ermittelte Bedeutung des an das off-board-Spracherkennungssystem (10) übertragenen Sprachbefehls sowie eine dieser Bedeutung zugeordnete Position von dem off-board-Spracherkennungssystem (10) an das Kraftfahrzeug (2) übertragen werden, wobei die phonetische Repräsentation des an das off-board-Spracherkennungssystem (10) übertragenen Sprachbefehls zusammen mit seiner von dem off-board-Spracherkennungssystem (10) ermittelten Bedeutung einander zugeordnet in der Datenbasis (270) gespeichert werden, und wobei die Funktion des Kraftfahrzeuges (2) gemäß der ermittelten Bedeutung des Sprachbefehls bedient oder ausgeführt wird, dadurch gekennzeichnet, dass durch das off-board-Spracherkennungssystem (10) die empfangene Audiodaten hinsichtlich einer Worterkennung verarbeitet und extrahierte Wortbedeutungen zu Informationsabrufdiensten, Information Retrieval Services, weitergeleitet werden, um Information im Internet selbst zu suchen, wobei die Bedeutung des Sprachbefehls das Ergebnis der durch die Bedeutung im engeren Sinne angestoßenen Suche ist, und die phonetische Repräsentation des an das off-board-Spracherkennungssystem (10) übertragenen Sprachbefehls zusammen mit seiner von dem off-board-Spracherkennungssystem (10) ermittelten Bedeutung und der oder einer der Bedeutung zugeordneten Position in der Datenbasis (270) gespeichert wird und die Position des Kraftfahrzeuges (2) bestimmt wird und die Bedeutung des Sprachbefehls mittels des on-board-Spracherkennungssystems in Abhängigkeit der Position des Kraftfahrzeuges (2) oder einer gewählten Position ermittelt wird, indem die Spracherkennungsanordnung (1) zunächst die Einträge aus der Datenbasis (270) lädt, die derselben Position zugeordnet sind, wobei die jeweilige Position eine Stadt oder einen Bundesstaat oder ein Gebiet einer bestimmten Postleitzahl oder ein mehrere Städte umfassendes Gebiet oder ein Gebiet, das durch einen Kreis mit einem vorbestimmten Radius um einen bestimmten Punkt definiert ist, umfasst, sodass, wenn zukünftige Anfragen mit der Spracherkennungsdarstellung einer zuvor in der Datenbasis (270) gespeicherten Anfrage übereinstimmen und sich auf den gleichen Suchort beziehen wie die zuvor gespeicherte Anfrage, das on-Board-Spracherkennungssystem (27) diese kontextspezifischen Ergebnisse für diese Anfrage zurücksendet, ohne dass das off-board-Spracherkennungssystem (10) erforderlich ist.
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/108,264 | 2008-04-23 | ||
US12/108,264 US20090271106A1 (en) | 2008-04-23 | 2008-04-23 | Navigation configuration for a motor vehicle, motor vehicle having a navigation system, and method for determining a route |
US12/410,430 | 2009-03-24 | ||
US12/410,430 US20090271200A1 (en) | 2008-04-23 | 2009-03-24 | Speech recognition assembly for acoustically controlling a function of a motor vehicle |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102009017177A1 DE102009017177A1 (de) | 2009-10-29 |
DE102009017177B4 true DE102009017177B4 (de) | 2022-05-05 |
Family
ID=41112094
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102009017176A Pending DE102009017176A1 (de) | 2008-04-23 | 2009-04-09 | Navigationsanordnung für ein Kraftfahrzeug |
DE102009017177.0A Active DE102009017177B4 (de) | 2008-04-23 | 2009-04-09 | Spracherkennungsanordnung und Verfahren zur akustischen Bedienung einer Funktion eines Kraftfahrzeuges |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102009017176A Pending DE102009017176A1 (de) | 2008-04-23 | 2009-04-09 | Navigationsanordnung für ein Kraftfahrzeug |
Country Status (2)
Country | Link |
---|---|
US (1) | US20090271200A1 (de) |
DE (2) | DE102009017176A1 (de) |
Families Citing this family (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8423353B2 (en) * | 2009-03-25 | 2013-04-16 | Microsoft Corporation | Sharable distributed dictionary for applications |
US8909683B1 (en) | 2009-07-17 | 2014-12-09 | Open Invention Network, Llc | Method and system for communicating with internet resources to identify and supply content for webpage construction |
US8868427B2 (en) * | 2009-12-11 | 2014-10-21 | General Motors Llc | System and method for updating information in electronic calendars |
DE102009058151B4 (de) * | 2009-12-12 | 2020-08-20 | Volkswagen Ag | Verfahren zum Betreiben eines Sprachdialogsystems mit semantischer Bewertung und Sprachdialogsystem dazu |
US20110184740A1 (en) * | 2010-01-26 | 2011-07-28 | Google Inc. | Integration of Embedded and Network Speech Recognizers |
US20150279354A1 (en) * | 2010-05-19 | 2015-10-01 | Google Inc. | Personalization and Latency Reduction for Voice-Activated Commands |
US10115392B2 (en) * | 2010-06-03 | 2018-10-30 | Visteon Global Technologies, Inc. | Method for adjusting a voice recognition system comprising a speaker and a microphone, and voice recognition system |
US9786268B1 (en) * | 2010-06-14 | 2017-10-10 | Open Invention Network Llc | Media files in voice-based social media |
US9263058B2 (en) * | 2010-06-24 | 2016-02-16 | Honda Motor Co., Ltd. | Communication system and method between an on-vehicle voice recognition system and an off-vehicle voice recognition system |
US9953643B2 (en) | 2010-12-23 | 2018-04-24 | Lenovo (Singapore) Pte. Ltd. | Selective transmission of voice data |
KR20130016644A (ko) * | 2011-08-08 | 2013-02-18 | 삼성전자주식회사 | 음성인식장치, 음성인식서버, 음성인식시스템 및 음성인식방법 |
DE102012213668A1 (de) * | 2012-08-02 | 2014-05-22 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und Vorrichtung zum Betreiben eines sprachgesteuerten Informationssystems für ein Fahrzeug |
FR2996344B1 (fr) * | 2012-10-03 | 2014-10-03 | Peugeot Citroen Automobiles Sa | Reconnaissance vocale multi-peripheriques integres en vehicule |
KR20140089863A (ko) * | 2013-01-07 | 2014-07-16 | 삼성전자주식회사 | 디스플레이 장치, 및 이의 제어 방법, 그리고 음성 인식 시스템의 디스플레이 장치 제어 방법 |
DE102013006173A1 (de) * | 2013-04-10 | 2014-10-16 | Audi Ag | Verfahren und Vorrichtung zur proaktiven Dialogführung |
US9997160B2 (en) | 2013-07-01 | 2018-06-12 | Toyota Motor Engineering & Manufacturing North America, Inc. | Systems and methods for dynamic download of embedded voice components |
DE102013012453B3 (de) * | 2013-07-26 | 2014-10-16 | Audi Ag | Verfahren zum Betreiben eines Infotainment-Systems eines Kraftwagens und Infotainment-System für einen Kraftwagen |
DE102013216427B4 (de) * | 2013-08-20 | 2023-02-02 | Bayerische Motoren Werke Aktiengesellschaft | Vorrichtung und Verfahren zur fortbewegungsmittelbasierten Sprachverarbeitung |
DE102013219649A1 (de) * | 2013-09-27 | 2015-04-02 | Continental Automotive Gmbh | Verfahren und System zum Erstellen oder Ergänzen eines benutzerspezifischen Sprachmodells in einem mit einem Endgerät verbindbaren lokalen Datenspeicher |
KR102246893B1 (ko) | 2013-12-11 | 2021-04-30 | 삼성전자주식회사 | 대화형 시스템, 이의 제어 방법, 대화형 서버 및 이의 제어 방법 |
DE102014200570A1 (de) * | 2014-01-15 | 2015-07-16 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und System zur Erzeugung eines Steuerungsbefehls |
US10310808B2 (en) | 2014-09-08 | 2019-06-04 | Google Llc | Systems and methods for simultaneously receiving voice instructions on onboard and offboard devices |
US9628415B2 (en) * | 2015-01-07 | 2017-04-18 | International Business Machines Corporation | Destination-configured topic information updates |
DE102015211101A1 (de) | 2015-06-17 | 2016-12-22 | Volkswagen Aktiengesellschaft | Spracherkennungssystem sowie Verfahren zum Betreiben eines Spracherkennungssystems mit einer mobilen Einheit und einem externen Server |
CN105387862A (zh) * | 2015-10-29 | 2016-03-09 | 桂林信通科技有限公司 | 一种车辆导航的方法和*** |
US9619202B1 (en) | 2016-07-07 | 2017-04-11 | Intelligently Interactive, Inc. | Voice command-driven database |
US20180270343A1 (en) * | 2017-03-20 | 2018-09-20 | Motorola Mobility Llc | Enabling event-driven voice trigger phrase on an electronic device |
US10900800B2 (en) * | 2017-04-18 | 2021-01-26 | Garmin Switzerland Gmbh | Mobile application interface device for vehicle navigation assistance |
US10679620B2 (en) * | 2018-03-06 | 2020-06-09 | GM Global Technology Operations LLC | Speech recognition arbitration logic |
KR20200072907A (ko) * | 2018-12-13 | 2020-06-23 | 현대자동차주식회사 | 대화 시스템이 구비된 차량 및 그 제어 방법 |
US11593447B2 (en) * | 2019-01-25 | 2023-02-28 | Ford Global Technologies, Llc | Pre-fetch and lazy load results of in-vehicle digital assistant voice searches |
Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19709518C1 (de) | 1997-03-10 | 1998-03-05 | Daimler Benz Aerospace Ag | Verfahren und Vorrichtung zur Spracheingabe einer Zieladresse in ein Zielführungssystem im Echtzeitbetrieb |
US5752232A (en) | 1994-11-14 | 1998-05-12 | Lucent Technologies Inc. | Voice activated device and method for providing access to remotely retrieved data |
DE19942869A1 (de) | 1999-09-08 | 2001-03-15 | Volkswagen Ag | Verfahren und Einrichtung zum Betrieb einer sprachgesteuerten Einrichtung bei Kraftfahrzeugen |
GB2368441A (en) | 2000-10-26 | 2002-05-01 | Coles Joseph Tidbold | Voice to voice data handling system |
EP1341363A1 (de) | 2002-03-01 | 2003-09-03 | Robert Bosch Gmbh | Verfahren und Vorrichtung für ein Fahrerauskunftsystem mittels eines Sprachportalservers |
US20040010409A1 (en) | 2002-04-01 | 2004-01-15 | Hirohide Ushida | Voice recognition system, device, voice recognition method and voice recognition program |
EP1403618A2 (de) | 2002-09-27 | 2004-03-31 | Robert Bosch Gmbh | Eingabevorrichtung |
JP2004117063A (ja) | 2002-09-24 | 2004-04-15 | Seiko Epson Corp | ナビゲーション装置 |
DE60003971T2 (de) | 1999-04-20 | 2004-05-27 | Matsushita Electric Industrial Co., Ltd., Kadoma | Verteilte Architektur zum Trainieren eines Spracherkennungssystems |
DE60015531T2 (de) | 1999-03-26 | 2005-03-24 | Scansoft, Inc., Peabody | Client-server spracherkennungssystem |
EP1417456B1 (de) | 2001-07-23 | 2005-05-11 | France Telecom | Telekommunikationsdienstportal mit einem spracherkennungsserver und navigations- und führungsgeräte, die das portal benutzen |
DE102004059372A1 (de) | 2003-12-26 | 2005-07-28 | Mitsubishi Denki K.K. | Fahrzeugeinbaueinheit, Sprachkonversationsdokumenterzeugungs-Server und diese verwendendes Navigationssystem |
DE102004012148A1 (de) | 2004-03-12 | 2005-10-06 | Siemens Ag | Spracherkennung unter Berücksichtigung einer geografischen Position |
DE60111775T2 (de) | 2000-12-14 | 2006-05-04 | Telefonaktiebolaget Lm Ericsson (Publ) | Sprachgesteuertes tragbares endgerät |
EP1739546A2 (de) | 2005-07-01 | 2007-01-03 | Bose Corporation | Automobilschnittstelle |
DE102006006551A1 (de) | 2006-02-13 | 2007-08-16 | Siemens Ag | Verfahren und System zum Bereitstellen von Sprachdialoganwendungen |
DE112004001539B4 (de) | 2003-08-21 | 2009-08-27 | General Motors Corp. (N.D.Ges.D. Staates Delaware), Detroit | Spracherkennung bei einem Fahrzeugradiosystem |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6185535B1 (en) * | 1998-10-16 | 2001-02-06 | Telefonaktiebolaget Lm Ericsson (Publ) | Voice control of a user interface to service applications |
US6650997B2 (en) * | 2001-09-28 | 2003-11-18 | Robert Bosch Gmbh | System and method for interfacing mobile units using a cellphone |
US7328155B2 (en) * | 2002-09-25 | 2008-02-05 | Toyota Infotechnology Center Co., Ltd. | Method and system for speech recognition using grammar weighted based upon location information |
US20050171685A1 (en) * | 2004-02-02 | 2005-08-04 | Terry Leung | Navigation apparatus, navigation system, and navigation method |
US20060129311A1 (en) * | 2004-12-09 | 2006-06-15 | Jason Bauman | Remote navigation server interface |
DE102005019591A1 (de) * | 2005-04-27 | 2006-11-09 | Siemens Ag | Vorrichtung zum Navigieren eines Fahrzeugs und Server-System |
TWI270488B (en) * | 2005-12-06 | 2007-01-11 | Sin Etke Technology Co Ltd | Vehicular remote audio support service system and method |
KR100819234B1 (ko) * | 2006-05-25 | 2008-04-02 | 삼성전자주식회사 | 네비게이션 단말의 목적지 설정 방법 및 장치 |
US8423362B2 (en) * | 2007-12-21 | 2013-04-16 | General Motors Llc | In-vehicle circumstantial speech recognition |
WO2009098154A1 (en) * | 2008-02-04 | 2009-08-13 | Tele Atlas North America Inc. | Method for map matching with sensor detected objects |
-
2009
- 2009-03-24 US US12/410,430 patent/US20090271200A1/en not_active Abandoned
- 2009-04-09 DE DE102009017176A patent/DE102009017176A1/de active Pending
- 2009-04-09 DE DE102009017177.0A patent/DE102009017177B4/de active Active
Patent Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5752232A (en) | 1994-11-14 | 1998-05-12 | Lucent Technologies Inc. | Voice activated device and method for providing access to remotely retrieved data |
DE19709518C1 (de) | 1997-03-10 | 1998-03-05 | Daimler Benz Aerospace Ag | Verfahren und Vorrichtung zur Spracheingabe einer Zieladresse in ein Zielführungssystem im Echtzeitbetrieb |
DE60015531T2 (de) | 1999-03-26 | 2005-03-24 | Scansoft, Inc., Peabody | Client-server spracherkennungssystem |
DE60003971T2 (de) | 1999-04-20 | 2004-05-27 | Matsushita Electric Industrial Co., Ltd., Kadoma | Verteilte Architektur zum Trainieren eines Spracherkennungssystems |
DE19942869A1 (de) | 1999-09-08 | 2001-03-15 | Volkswagen Ag | Verfahren und Einrichtung zum Betrieb einer sprachgesteuerten Einrichtung bei Kraftfahrzeugen |
GB2368441A (en) | 2000-10-26 | 2002-05-01 | Coles Joseph Tidbold | Voice to voice data handling system |
DE60111775T2 (de) | 2000-12-14 | 2006-05-04 | Telefonaktiebolaget Lm Ericsson (Publ) | Sprachgesteuertes tragbares endgerät |
EP1417456B1 (de) | 2001-07-23 | 2005-05-11 | France Telecom | Telekommunikationsdienstportal mit einem spracherkennungsserver und navigations- und führungsgeräte, die das portal benutzen |
EP1341363A1 (de) | 2002-03-01 | 2003-09-03 | Robert Bosch Gmbh | Verfahren und Vorrichtung für ein Fahrerauskunftsystem mittels eines Sprachportalservers |
US20040010409A1 (en) | 2002-04-01 | 2004-01-15 | Hirohide Ushida | Voice recognition system, device, voice recognition method and voice recognition program |
JP2004117063A (ja) | 2002-09-24 | 2004-04-15 | Seiko Epson Corp | ナビゲーション装置 |
EP1403618A2 (de) | 2002-09-27 | 2004-03-31 | Robert Bosch Gmbh | Eingabevorrichtung |
DE112004001539B4 (de) | 2003-08-21 | 2009-08-27 | General Motors Corp. (N.D.Ges.D. Staates Delaware), Detroit | Spracherkennung bei einem Fahrzeugradiosystem |
DE102004059372A1 (de) | 2003-12-26 | 2005-07-28 | Mitsubishi Denki K.K. | Fahrzeugeinbaueinheit, Sprachkonversationsdokumenterzeugungs-Server und diese verwendendes Navigationssystem |
DE102004012148A1 (de) | 2004-03-12 | 2005-10-06 | Siemens Ag | Spracherkennung unter Berücksichtigung einer geografischen Position |
EP1739546A2 (de) | 2005-07-01 | 2007-01-03 | Bose Corporation | Automobilschnittstelle |
DE102006006551A1 (de) | 2006-02-13 | 2007-08-16 | Siemens Ag | Verfahren und System zum Bereitstellen von Sprachdialoganwendungen |
Non-Patent Citations (1)
Title |
---|
EULER, Stephen: Grundkurs Spracherkennung: Vom Sprachsignal zum Dialog - Grundlagen und Anwendung verstehen - Mit praktischen Übungen. Wiesbaden : Vieweg, 2006. - ISBN 3-8348-0003-1 |
Also Published As
Publication number | Publication date |
---|---|
US20090271200A1 (en) | 2009-10-29 |
DE102009017176A1 (de) | 2009-10-29 |
DE102009017177A1 (de) | 2009-10-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102009017177B4 (de) | Spracherkennungsanordnung und Verfahren zur akustischen Bedienung einer Funktion eines Kraftfahrzeuges | |
DE19709518C1 (de) | Verfahren und Vorrichtung zur Spracheingabe einer Zieladresse in ein Zielführungssystem im Echtzeitbetrieb | |
DE102018128006B4 (de) | Verfahren zum erzeugen von ausgaben natürlichsprachlicher generierung basierend auf dem benutzersprachstil | |
DE19533541C1 (de) | Verfahren zur automatischen Steuerung eines oder mehrerer Geräte durch Sprachkommandos oder per Sprachdialog im Echtzeitbetrieb und Vorrichtung zum Ausführen des Verfahrens | |
EP1176395B1 (de) | Verfahren zur Auswahl einer Ortsbezeichnung in einem Navigationssystem durch Spracheingabe | |
DE102019111529A1 (de) | Automatisierte spracherkennung unter verwendung einer dynamisch einstellbaren hörzeitüberschreitung | |
DE102007033472A1 (de) | Verfahren zur Spracherkennung | |
DE19742054A1 (de) | Eingabesystem wenigstens für Orts- und/oder Straßennamen | |
DE102019105269A1 (de) | Spracherkennungs-arbitrierungslogik | |
EP1721245B1 (de) | Verfahren zur auswahl eines listeneintrags und informations- oder unterhaltungssystem, insbesondere für kraftfahrzeuge | |
DE102015213722B4 (de) | Verfahren zum Betreiben eines Spracherkennungssystems in einem Fahrzeug und Spracherkennungssystem | |
DE102010034433B4 (de) | Verfahren zum Erkennen von Sprache | |
DE102006029251B4 (de) | Verfahren und System für einen Telefonbuchtransfer | |
EP3095114B1 (de) | Verfahren und system zur erzeugung eines steuerungsbefehls | |
DE102006006551A1 (de) | Verfahren und System zum Bereitstellen von Sprachdialoganwendungen | |
DE102018128003A1 (de) | Neuronales netzwerk zum anwenden bei der spracherkennungsarbitrierung | |
EP3152753B1 (de) | Assistenzsystem, das mittels spracheingaben steuerbar ist, mit einer funktionseinrichtung und mehreren spracherkennungsmodulen | |
DE102015117380A1 (de) | Selektive Geräuschunterdrückung während automatischer Spracherkennung | |
DE102015205044A1 (de) | Eingabe von Navigationszieldaten in ein Navigationssystem | |
DE102017211447B4 (de) | Verfahren zum Auswählen eines Listeneintrags aus einer Auswahlliste einer Bedienvorrichtung mittels Sprachbedienung sowie Bedienvorrichtung | |
DE102006051331A1 (de) | Verfahren zur Auswahl eines Fahrziels | |
DE102009058151B4 (de) | Verfahren zum Betreiben eines Sprachdialogsystems mit semantischer Bewertung und Sprachdialogsystem dazu | |
DE102016008862A1 (de) | Verfahren zum Konfigurieren einer sprachgesteuerten Bedienvorrichtung, Bedienvorrichtung mit Sprachsteuerung und Kraftfahrzeug | |
DE102015226408A1 (de) | Verfahren und Vorrichtung zum Durchführen einer Spracherkennung zum Steuern zumindest einer Funktion eines Fahrzeugs | |
DE102015014206B4 (de) | Verfahren und Vorrichtung zum Auswählen eines Navigationsziels aus einer von mehreren Sprachregionen mittels Spracheingabe |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OR8 | Request for search as to paragraph 43 lit. 1 sentence 1 patent law | ||
8105 | Search report available | ||
R012 | Request for examination validly filed | ||
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: G10L0015220000 Ipc: G10L0015300000 |
|
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final | ||
R082 | Change of representative |