DE102019115685A1 - Sprachaktivierter fahrzeugalarm - Google Patents

Sprachaktivierter fahrzeugalarm Download PDF

Info

Publication number
DE102019115685A1
DE102019115685A1 DE102019115685.8A DE102019115685A DE102019115685A1 DE 102019115685 A1 DE102019115685 A1 DE 102019115685A1 DE 102019115685 A DE102019115685 A DE 102019115685A DE 102019115685 A1 DE102019115685 A1 DE 102019115685A1
Authority
DE
Germany
Prior art keywords
vehicles
user
home
processor
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102019115685.8A
Other languages
English (en)
Inventor
Richard L. Elswick
Aditya S. KAMINI
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102019115685A1 publication Critical patent/DE102019115685A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q5/00Arrangement or adaptation of acoustic signal devices
    • B60Q5/005Arrangement or adaptation of acoustic signal devices automatically actuated
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B7/00Signalling systems according to more than one of groups G08B3/00 - G08B6/00; Personal calling systems according to more than one of groups G08B3/00 - G08B6/00
    • G08B7/06Signalling systems according to more than one of groups G08B3/00 - G08B6/00; Personal calling systems according to more than one of groups G08B3/00 - G08B6/00 using electric transmission, e.g. involving audible and visible signalling through the use of sound and light sources
    • G08B7/064Signalling systems according to more than one of groups G08B3/00 - G08B6/00; Personal calling systems according to more than one of groups G08B3/00 - G08B6/00 using electric transmission, e.g. involving audible and visible signalling through the use of sound and light sources indicating houses needing emergency help, e.g. with a flashing light or sound
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/16Actuation by interference with mechanical vibrations in air or other fluid
    • G08B13/1654Actuation by interference with mechanical vibrations in air or other fluid using passive vibration detection systems
    • G08B13/1672Actuation by interference with mechanical vibrations in air or other fluid using passive vibration detection systems using sonic detecting means, e.g. a microphone operating in the audio frequency range
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/01Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
    • G08B25/016Personal emergency signalling and security systems
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B27/00Alarm systems in which the alarm condition is signalled from a central station to a plurality of substations
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/40Indexing codes relating to other road users or special conditions
    • B60Q2300/47Direct command from other road users, i.e. the command for switching or changing the beam is sent by other vehicles or road devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2900/00Features of lamps not covered by other groups in B60Q
    • B60Q2900/30Lamps commanded by wireless transmissions
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/14Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1822Parsing for meaning understanding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Mechanical Engineering (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Computer Security & Cryptography (AREA)
  • Telephonic Communication Services (AREA)
  • Traffic Control Systems (AREA)

Abstract

Ein allgemeiner Aspekt schließt ein Verfahren zum Fernaktivieren eines Fahrzeugalarms über einen Sprachbefehl ein, wobei das Verfahren Folgendes einschließt: Empfangen, über einen Prozessor, eines Sprachbefehls zum Aktivieren einer Haus-Notfallsequenz von einem Systembenutzer; basierend auf dem Sprachbefehl, über den Prozessor, Bestimmen, ob sich ein oder mehrere Fahrzeuge in der Nähe einer Wohnstätte des Systembenutzers befinden, und wenn sich das eine oder die mehreren Fahrzeuge in der Nähe der Wohnstätte befinden, Übertragen, über den Prozessor, einer Fahrzeugalarmmeldung an das eine oder die mehreren Fahrzeuge, wobei die Fahrzeugalarmmeldung konfiguriert ist, um ein Hupensystem und ein Lichtsystem des einen oder der mehreren Fahrzeuge in einer geordneten Sequenz zu aktivieren.

Description

  • EINLEITUNG
  • Ein Einbruch kann ein ernsthaftes Problem darstellen, insbesondere wenn sich das Opfer des Hausbesitzers in seinem Haus befindet, während der Hauseinbruch stattfindet. Hausbesitzer müssen sich oft irgendwo in ihrem Haus verstecken, ohne dass sie sich Hilfe holen können. Schlimmer noch, wenn der Hausbesitzer versucht, um Hilfe zu rufen oder anderweitig die Aufmerksamkeit von möglichen Rettungshelfern zu erregen, riskiert er sehr, seinen Versteckstandort preiszugeben und sich noch mehr in Gefahr zu bringen. Es ist daher wünschenswert, ein System und ein Verfahren bereitzustellen, das es einem Hausbesitzer ermöglicht, während einer Hauseinbruchssituation einen Notfallalarm zu generieren, der die Aufmerksamkeit von Nachbarn und Fußgängern in der Nähe oder von allen anderen potenziellen Rettungshelfern erregen kann. Darüber hinaus ist es wünschenswert, dass dieser Notfallalarm von einem Fahrzeug erzeugt wird, das sich direkt außerhalb des einbrechenden Hauses befindet, um die Aufdeckung des Verstecks des Hausbesitzers während dieses unerfreulichen Ereignisses zu verhindern. Darüber hinaus werden sich weitere wünschenswerte Merkmale und Eigenschaften der vorliegenden Erfindung aus der anschließenden detaillierten Beschreibung der Erfindung und der beiliegenden Ansprüche in Verbindung mit den begleitenden Zeichnungen und diesem Hintergrund der Erfindung ergeben.
  • KURZDARSTELLUNG
  • Ein System mit einem oder mehreren Computern kann konfiguriert sein, um bestimmte Operationen oder Aktionen durch eine auf dem System installierte Software, Firmware, Hardware oder eine Kombination davon, auszuführen, die im Betrieb bewirkt oder bewirken, dass das System die Aktionen ausführt. Ein oder mehrere Computerprogramme können konfiguriert sein, um bestimmte Arbeitsvorgänge oder Aktionen durch Einschließen von Anweisungen auszuführen, die, wenn sie von einer Datenverarbeitungseinrichtung ausgeführt werden, bewirken, dass die Vorrichtung die Aktionen ausführt. Ein allgemeiner Aspekt schließt ein Verfahren zum Fernaktivieren eines Fahrzeugalarms über einen Sprachbefehl ein, wobei das Verfahren Folgendes einschließt: Empfangen, über einen Prozessor, eines Sprachbefehls zum Aktivieren einer Haus-Notfallsequenz von einem Systembenutzer; basierend auf dem Sprachbefehl, über den Prozessor, Bestimmen, ob sich ein oder mehrere Fahrzeuge in der Nähe einer Wohnstätte des Systembenutzers befinden, und wenn sich das eine oder die mehreren Fahrzeuge in der Nähe der Wohnstätte befinden, Übertragen, über den Prozessor, einer Fahrzeugalarmmeldung an das eine oder die mehreren Fahrzeuge, wobei die Fahrzeugalarmmeldung konfiguriert ist, um ein Hupensystem und ein Lichtsystem des einen oder der mehreren Fahrzeuge in einer geordneten Sequenz zu aktivieren. Weitere Ausführungsformen dieses Aspekts schließen entsprechende Computersysteme, eine Einrichtung und Computerprogramme ein, die auf einer oder mehreren Computerspeichervorrichtungen aufgezeichnet sind, wobei sie jeweils konfiguriert sind, um Aktionen der Verfahren auszuführen.
  • Implementierungen können eines oder mehrere der folgenden Merkmale einschließen. Das Verfahren schließt ferner Folgendes ein: Empfangen, über den Prozessor, einer Anzeige, dass die Hupen- und Lichtsysteme des einen oder der mehreren Fahrzeuge aktiviert wurden; und als Reaktion auf das Empfangen der Anzeige über den Prozessor, Senden einer ersten hörbaren Benachrichtigung an den Benutzer, wobei die erste hörbare Benachrichtigung konfiguriert ist, um den Benutzer darüber in Kenntnis zu setzen, dass die Hupen- und Lichtsysteme des einen oder der mehreren Fahrzeuge aktiviert wurden. Das Verfahren schließt ferner Folgendes ein: wobei die erste hörbare Benachrichtigung ferner konfiguriert ist, um abzufragen, ob der Benutzer einen Notdienstanbieter informieren möchte; und wenn der Benutzer den Notdienstanbieter über den Prozessor informieren möchte, Senden einer Notdienstbenachrichtigung an den Notdienstanbieter, wobei die Notdienstbenachrichtigung konfiguriert ist, um den Notdienstanbieter zu benachrichtigen, dass ein Notfallereignis an der Wohnstätte des Benutzers möglicherweise vorliegt. Das Verfahren schließt ferner ein, wenn sich das eine oder die mehreren Fahrzeuge außerhalb der Nähe der Wohnstätte befinden, Senden, über den Prozessor, einer zweiten hörbaren Benachrichtigung an den Benutzer, wobei die zweite hörbare Benachrichtigung konfiguriert ist, um den Benutzer darüber in Kenntnis zu setzen, dass sich das eine oder die mehreren Fahrzeuge jenseits der Nähe der Wohnstätte befinden. Das Verfahren schließt ferner Folgendes ein: Empfangen, über den Prozessor, von Fahrzeugstandortdaten des einen oder der mehreren Fahrzeugen; und wobei die Bestimmung, ob sich das eine oder die mehreren Fahrzeuge in der Nähe der Wohnstätte des Systemnutzers befinden, auf den Fahrzeugstandortdaten basiert. Das Verfahren schließt ferner Folgendes ein: Empfangen, über den Prozessor, einer virtuellen Karte von einer entfernten Entität; Ermitteln, über den Prozessor, der Wohnstätte des Systembenutzers innerhalb der virtuellen Karte; und wobei das Bestimmen, ob sich das eine oder die mehreren Fahrzeuge in der Nähe der Wohnstätte des Systembenutzers befinden, auf der Wohnstätte des Systembenutzers innerhalb der virtuellen Karte basiert. Das Verfahren schließt ferner Folgendes ein: Empfangen, über den Prozessor, einer virtuellen Karte von einer entfernten Entität; Ermitteln, über den Prozessor, der Wohnstätte des Systembenutzers innerhalb der virtuellen Karte; Empfangen, über den Prozessor, von Fahrzeugstandortdaten von dem einen oder den mehreren Fahrzeugen; Ermitteln, über den Prozessor, einer virtuellen geografischen Grenze um die Wohnstätte des Systembenutzers innerhalb der virtuellen Karte; und wobei ein Fahrzeug des einen oder der mehreren Fahrzeuge als in der Nähe der Wohnstätte des Systembenutzers gelegen betrachtet wird, wenn die Fahrzeugstandortdaten zeigen, dass das Fahrzeug innerhalb der ermittelten virtuellen geografischen Grenze ist. Implementierungen der beschriebenen Techniken können Hardware, ein Verfahren oder einen Prozess oder Computersoftware auf einem computerzugänglichen Medium einschließen.
  • Ein allgemeiner Aspekt schließt ein System zum Fernaktivieren eines Fahrzeugalarms über einen Sprachbefehl ein, wobei das System Folgendes einschließt: einen Speicher, der konfiguriert ist, um eine oder mehrere ausführbare Anweisungen einzuschließen, und einen Prozessor, der konfiguriert ist, um die ausführbaren Anweisungen auszuführen, wobei die ausführbaren Anweisungen dem Prozessor Folgendes ermöglichen: Empfangen eines Sprachbefehls zum Aktivieren einer Haus-Notfallsequenz von einem Systembenutzer; basierend auf dem Sprachbefehl, Bestimmen, ob sich ein oder mehrere Fahrzeuge in der Nähe einer Wohnstätte des Systembenutzers befinden, und wenn sich das eine oder die mehreren Fahrzeuge in der Nähe der Wohnstätte befinden, Senden einer Fahrzeugalarmmeldung an das eine oder die mehreren Fahrzeuge, wobei die Fahrzeugalarmmeldung konfiguriert ist, um ein Hupensystem und ein Lichtsystem des einen oder der mehreren Fahrzeuge in einer geordneten Sequenz zu aktivieren. Weitere Ausführungsformen dieses Aspekts schließen entsprechende Computersysteme, Vorrichtungen und Computerprogramme ein, die auf einer oder mehreren Computerspeichervorrichtungen aufgezeichnet sind, wobei sie jeweils konfiguriert sind, um Aktionen der Verfahren auszuführen.
  • Implementierungen können eines oder mehrere der folgenden Merkmale einschließen. System, bei dem die ausführbaren Anweisungen es dem Prozessor ferner Folgendes ermöglichen: Empfangen einer Anzeige, dass die Hupen- und Lichtsysteme des einen oder der mehreren Fahrzeuge aktiviert wurden; und als Reaktion auf das Empfangen der Anzeige, Senden einer ersten hörbaren Benachrichtigung an den Benutzer, wobei die erste hörbare Benachrichtigung konfiguriert ist, um den Benutzer darüber in Kenntnis zu setzen, dass die Hupen- und Lichtsysteme des einen oder der mehreren Fahrzeuge aktiviert wurden. System, bei dem die ausführbaren Anweisungen dem Prozessor ferner Folgendes ermöglichen: wobei die erste hörbare Benachrichtigung ferner konfiguriert ist, um abzufragen, ob der Benutzer einen Notdienstanbieter informieren möchte; und wenn der Benutzer den Notdienstanbieter informieren möchte, Senden einer Notdienstbenachrichtigung an den Notdienstanbieter, wobei die Notdienstbenachrichtigung konfiguriert ist, um den Notdienstanbieter zu informieren, dass ein Notfallereignis an der Wohnstätte des Benutzers möglicherweise vorliegt. System, bei dem die ausführbaren Anweisungen ferner dem Prozessor ermöglichen, wenn sich das eine oder die mehreren Fahrzeuge jenseits der Nähe der Wohnstätte befinden, eine zweite hörbare Benachrichtigung an den Benutzer zu senden, wobei die zweite hörbare Benachrichtigung konfiguriert ist, um den Benutzer darüber in Kenntnis zu setzen, dass sich das eine oder die mehreren Fahrzeuge jenseits der Nähe der Wohnstätte befinden. System, bei dem die ausführbaren Anweisungen dem Prozessor ferner Folgendes ermöglichen: Empfangen von Fahrzeugstandortdaten von dem einen oder mehreren Fahrzeugen; und wobei die Bestimmung, ob sich das eine oder die mehreren Fahrzeuge in der Nähe der Wohnstätte des Systemnutzers befinden, auf den Fahrzeugstandortdaten basiert. System, bei dem die ausführbaren Anweisungen dem Prozessor ferner Folgendes ermöglichen: Empfangen einer virtuellen Karte von einer entfernten Entität; Ermitteln der Wohnstätte des Systembenutzers innerhalb der virtuellen Karte; und wobei die Bestimmung, ob sich das eine oder die mehreren Fahrzeuge in der Nähe der Wohnstätte des Systembenutzers befinden, auf der Wohnstätte des Systembenutzers innerhalb der virtuellen Karte basiert. System, bei dem die ausführbaren Anweisungen dem Prozessor ferner Folgendes ermöglichen: Empfangen einer virtuellen Karte von einer entfernten Entität; Ermitteln der Wohnstätte des Systembenutzers innerhalb der virtuellen Karte; Empfangen von Fahrzeugstandortdaten des einen oder der mehreren Fahrzeuge; Ermitteln einer virtuellen geografischen Grenze um die Wohnstätte des Systembenutzers innerhalb der virtuellen Karte; und wobei ein Fahrzeug des einen oder der mehreren Fahrzeuge als in der Nähe der Wohnstätte des Systembenutzers gelegen betrachtet wird, wenn die Fahrzeugstandortdaten zeigen, dass das Fahrzeug innerhalb der ermittelten virtuellen geografischen Grenze liegt. Implementierungen der beschriebenen Techniken können Hardware, ein Verfahren oder einen Prozess oder Computersoftware auf einem computerzugänglichen Medium einschließen.
  • Ein allgemeiner Aspekt schließt ein nichttransitorisches und maschinenlesbares Medium ein, auf dem ausführbare Anweisungen gespeichert sind, die angepasst sind, um einen Fahrzeugalarm über einen Sprachbefehl fernzuaktivieren, der, wenn er einem Prozessor bereitgestellt und dadurch ausgeführt wird, den Prozessor veranlasst zum: Empfangen eines Sprachbefehls zum Aktivieren einer Haus-Notfallsequenz von einem Systembenutzer; basierend auf dem Sprachbefehl, Bestimmen, ob sich ein oder mehrere Fahrzeuge in der Nähe einer Wohnstätte des Systembenutzers befinden, und wenn sich das eine oder die mehreren Fahrzeuge in der Nähe der Wohnstätte befinden, Senden einer Fahrzeugalarmmeldung an das eine oder die mehreren Fahrzeuge, wobei die Fahrzeugalarmmeldung konfiguriert ist, um ein Hupensystem und ein Lichtsystem des einen oder der mehreren Fahrzeuge in einer geordneten Sequenz zu aktivieren. Weitere Ausführungsformen dieses Aspekts schließen entsprechende Computersysteme, eine Einrichtung und Computerprogramme ein, die auf einer oder mehreren Computerspeichervorrichtungen aufgezeichnet sind, wobei sie jeweils konfiguriert sind, um Aktionen der Verfahren auszuführen.
  • Implementierungen können eines oder mehrere der folgenden Merkmale einschließen. Nichttransitorischer und maschinenlesbarer Speicher, der den Prozessor ferner veranlasst zum: Empfangen einer Anzeige, dass die Hupen- und Lichtsysteme des einen oder der mehreren Fahrzeuge aktiviert wurden; und als Reaktion auf das Empfangen der Anzeige, Senden einer ersten hörbaren Benachrichtigung an den Benutzer, wobei die erste hörbare Benachrichtigung konfiguriert ist, um den Benutzer darüber in Kenntnis zu setzen, dass die Hupen- und Lichtsysteme des einen oder der mehreren Fahrzeuge aktiviert wurden. Nichttransitorischer und maschinenlesbarer Speicher, der den Prozessor ferner veranlasst zum: wobei die erste hörbare Benachrichtigung ferner konfiguriert ist, um abzufragen, ob der Benutzer einen Notdienstanbieter informieren möchte; und wenn der Benutzer den Notdienstanbieter informieren möchte, Senden einer Notdienstbenachrichtigung an den Notdienstanbieter, wobei die Notdienstbenachrichtigung konfiguriert ist, um den Notdienstanbieter darüber zu informieren, dass ein Notfallereignis an der Wohnstätte des Benutzers möglicherweise vorliegt. Nichttransitorischer und maschinenlesbarer Speicher, der den Prozessor ferner veranlasst zum, wenn sich das eine oder die mehreren Fahrzeuge jenseits der Nähe der Wohnstätte befinden, Senden einer zweiten hörbaren Benachrichtigung an den Benutzer, wobei die zweite hörbare Benachrichtigung konfiguriert ist, um den Benutzer darüber in Kenntnis zu setzen, dass sich das eine oder die mehreren Fahrzeuge jenseits der Nähe der Wohnstätte befinden. Nichttransitorischer und maschinenlesbarer Speicher, der den Prozessor ferner veranlasst zum: Empfangen von Fahrzeugstandortdaten von dem einen oder den mehreren Fahrzeugen; und wobei die Bestimmung, ob sich das eine oder die mehreren Fahrzeuge in der Nähe der Wohnstätte des Systemnutzers befinden, auf den Fahrzeugstandortdaten basiert. Nichttransitorischer und maschinenlesbarer Speicher, der den Prozessor ferner veranlasst zum: Empfangen einer virtuellen Karte von einer entfernten Entität; Ermitteln der Wohnstätte des Systembenutzers innerhalb der virtuellen Karte; Empfangen von Fahrzeugstandortdaten von dem einen oder den mehreren Fahrzeugen; Ermitteln einer virtuellen geografischen Grenze um die Wohnstätte des Systembenutzers innerhalb der virtuellen Karte; und wobei ein Fahrzeug des einen oder der mehreren Fahrzeuge als in der Nähe der Wohnstätte des Systembenutzers gelegen betrachtet wird, wenn die Fahrzeugstandortdaten zeigen, dass sich das Fahrzeug innerhalb der ermittelten virtuellen geografischen Grenze befindet. Implementierungen der beschriebenen Techniken können Hardware, ein Verfahren oder einen Prozess oder Computersoftware auf einem computerzugänglichen Medium einschließen.
  • Die obigen Merkmale und Vorteile und andere Merkmale und Vorteile der vorliegenden Lehren werden aus der folgenden detaillierten Beschreibung zum Ausführen der Lehren in Verbindung mit den beigefügten Zeichnungen leicht ersichtlich.
  • Figurenliste
  • Die offenbarten Beispiele werden im Folgenden in Verbindung mit den folgenden Zeichnungsfiguren beschrieben, wobei gleiche Bezugszeichen gleiche Elemente bezeichnen, und wobei:
    • 1 ein Blockdiagramm ist, das ein Ausführungsbeispiel eines Kommunikationssystems darstellt, das in der Lage ist, das hierin offenbarte System und Verfahren zu nutzen;
    • 2 ein Blockdiagramm ist, das eine Ausführungsform eines automatischen Spracherkennungssystems (ASR-System) darstellt, das in der Lage ist, das hierin offenbarte System und Verfahren zu nutzen;
    • 3 ein Flussdiagramm eines beispielhaften Prozesses zum Fernaktivieren eines Fahrzeugalarms über einen Sprachbefehl ist;
    • 4 eine Anwendung eines beispielhaften Aspekts des Prozesses von 3 gemäß einem oder mehreren Ausführungsbeispielen darstellt; und
    • 5 eine Anwendung eines beispielhaften Aspekts des Prozesses von 3 gemäß einem oder mehreren Ausführungsbeispielen darstellt.
  • DETAILLIERTE BESCHREIBUNG
  • Ausführungsformen der vorliegenden Offenbarung sind hierin beschrieben. Es versteht sich jedoch, dass die offenbarten Ausführungsformen lediglich Beispiele sind und andere Ausführungsformen verschiedene und alternative Formen annehmen können. Die Figuren sind nicht notwendigerweise maßstabsgetreu; manche Merkmale könnten übertrieben oder minimiert sein, um Details bestimmter Komponenten zu zeigen. Daher sind hier offenbarte spezifische strukturelle und funktionale Details nicht als einschränkend zu interpretieren, sondern lediglich als repräsentative Basis, um einem Fachmann zu lehren, das vorliegende System und/oder Verfahren verschiedenartig einzusetzen. Wie der Fachmann verstehen wird, können verschiedene Merkmale, die unter Bezugnahme auf eine beliebige der Figuren veranschaulicht und beschrieben sind, mit Merkmalen kombiniert werden, die in einer oder mehreren anderen Figuren veranschaulicht sind, um Ausführungsformen herzustellen, die nicht explizit veranschaulicht oder beschrieben sind. Die Kombinationen von veranschaulichten Merkmalen stellen repräsentative Ausführungsformen für übliche Anwendungen bereit. Verschiedene Kombinationen und Modifikationen der Merkmale, die mit den Lehren dieser Offenbarung in Einklang stehen, könnten jedoch für bestimmte Anwendungen oder Implementierungen erwünscht sein.
  • Mit Bezug auf 1 wird eine Betriebsumgebung gezeigt, die neben anderen Merkmalen ein mobiles Fahrzeugkommunikationssystem 10 einschließt und die verwendet werden kann, um das hierin offenbarte Verfahren zu implementieren. Das Kommunikationssystem 10 schließt allgemein ein Fahrzeug 12, ein oder mehrere drahtlose Trägersysteme 14, ein Landkommunikationsnetzwerk 16, einen Computer 18 und ein Datenzentrum 20 ein. Es sollte verstanden werden, dass das offenbarte Verfahren mit einer beliebigen Reihe verschiedener Systeme verwendet werden kann und nicht speziell auf die hier gezeigte Betriebsumgebung beschränkt ist. Auch die Architektur, die Konstruktion, die Einrichtung und der Betrieb des Systems 10 und seiner einzelnen Komponenten sind im Stand der Technik allgemein bekannt. Die folgenden Absätze geben somit nur einen kurzen Überblick über ein solches Kommunikationssystem 10; andere hier nicht gezeigte Systeme könnten jedoch auch das offenbarte Verfahren einsetzen.
  • Das Fahrzeug 12 ist in der veranschaulichten Ausführungsform als Personenkraftwagen dargestellt, aber es sollte beachtet werden, dass jedes andere Fahrzeug, einschließlich, aber nicht beschränkt auf, Motorräder, Lastkraftwagen, Busse, Geländewagen (SUVs), Freizeitfahrzeuge (RVs), Baufahrzeuge (z. B. Planierraupen), Züge, Trolleys, Seeschiffe (z. B. Boote), Flugzeuge, Hubschrauber, Freizeitparkfahrzeuge, Landmaschinen, Golfwagen, Straßenbahnen usw., auch verwendet werden kann. Ein Teil der Fahrzeugelektronik 28 ist allgemein in 1 dargestellt und schließt eine Telematikeinheit 30, ein Mikrofon 32, einen oder mehrere Druckknöpfe oder andere Steuereingabeeinrichtungen 34, ein Audiosystem 36, eine visuelle Anzeige 38 und ein GPS-Modul 40 sowie eine Anzahl von Fahrzeugsystemmodulen (VSMs) 42 ein. Einige dieser Vorrichtungen können direkt mit der Telematikeinheit 30 verbunden sein, wie zum Beispiel das Mikrofon 32 und der Druckknopf/die Druckknöpfe 34, während andere indirekt unter Verwendung eines oder mehrerer Netzwerkverbindungen, wie etwa eines Kommunikationsbusses 44 oder eines Unterhaltungsbusses 46, verbunden sind. Beispiele geeigneter Netzverbindungen schließen ein Controller Area Network (CAN), WIFI, Bluetooth und Bluetooth Low Energie, einen Media Oriented System Transfer (MOST), ein lokales Verbindungsnetz (LIN), ein lokales Netz (LAN) und andere geeignete Verbindungen wie etwa Ethernet oder solche, die mit bekannten ISO- (Internationale Organisation für Normung), SAE- (Society of Automotive Engineers) und/oder IEEE- (Institute of Electrical and Electronics Engineers) Standards und Spezifikationen konform sind, nur um einige zu nennen.
  • Die Telematikeinheit 30 kann eine OEM-installierte (integrierte) Einrichtung oder Aftermarket-Sende-Empfänger-Vorrichtung sein, die im Fahrzeug installiert ist und die eine drahtlose Sprach- und/oder Datenkommunikation über das drahtlose Trägersystem 14 und über drahtlose Netzwerke ermöglicht. Dies ermöglicht es dem Fahrzeug, mit dem Datenzentrum 20, anderen telematikfähigen Fahrzeugen oder einer anderen Entität oder Vorrichtung zu kommunizieren. Die Telematikeinheit 30 verwendet vorzugsweise Funkübertragungen, um einen Kommunikationskanal (einen Sprachkanal und/oder einen Datenkanal) mit einem drahtlosen Trägersystem 14 aufzubauen, sodass sowohl Sprachals auch Datenübertragungen über den Kanal gesendet und empfangen werden können. Durch Bereitstellen von sowohl Sprach- als auch Datenkommunikation ermöglicht die Telematikeinheit 30 dem Fahrzeug, eine Anzahl von verschiedenen Diensten anzubieten, einschließlich derjenigen in Bezug auf Navigation, Telefonie, Notfallunterstützung, Diagnose, Infotainment usw. Die Daten können entweder über eine Datenverbindung, wie etwa über eine Paketdatenübertragung über einen Datenkanal, oder über einen Sprachkanal unter Verwendung von im Stand der Technik bekannten Techniken gesendet werden. Für kombinierte Dienste, die sowohl eine Sprachkommunikation (z. B. mit einem menschlichen Berater 86 oder einer Sprachausgabeeinheit an dem Datenzentrum 20) als auch eine Datenkommunikation (z. B. um GPS-Ortsdaten oder Fahrzeugdiagnosedaten für das Datenzentrum 20 bereitzustellen) einbeziehen, kann das System einen einzelnen Anruf über einen Sprachkanal verwenden und nach Bedarf zwischen einer Sprach- und einer Datenübertragung über den Sprachkanal umschalten, und dies kann unter Verwendung von den Fachleuten bekannten Techniken erfolgen.
  • Gemäß einer Ausführungsform verwendet die Telematikeinheit 30 die zellulare Kommunikation gemäß Standards wie etwa LTE oder 5G und schließt somit einen standardisierten zellularen Chipsatz 50 für Sprachkommunikation wie Freisprechanrufe, ein Drahtlosmodem für eine Datenübertragung (d. h. Sender-Empfänger), eine elektronische Verarbeitungsvorrichtung 52, mindestens eine digitale Speichervorrichtung 54 und ein Antennensystem 56 ein. Es sollte beachtet werden, dass das Modem entweder durch eine Software implementiert sein kann, die in der Telematikeinheit gespeichert ist und vom Prozessor 52 ausgeführt wird, oder dass es eine separate Hardware-Komponente sein kann, die sich innerhalb oder außerhalb der Telematikeinheit 30 befindet. Das Modem kann unter Verwendung jeder Anzahl von verschiedenen Standards oder Protokollen wie etwa WCDMA, LTE und 5G, aber nicht beschränkt auf diese, arbeiten. Die drahtlose Netzwerkverbindung zwischen dem Fahrzeug 12 und anderen vernetzten Vorrichtungen kann auch unter Verwendung der Telematikeinheit 30 ausgeführt werden. Zu diesem Zweck kann die Telematikeinheit 30 konfiguriert sein, um gemäß einem oder mehreren drahtlosen Protokollen, wie etwa einem beliebigen der IEEE 802.11-Protokolle, WiMAX oder Bluetooth, drahtlos zu kommunizieren. Bei einer Verwendung für eine paketvermittelte Datenkommunikation, wie etwa TCP/IP, kann die Telematikeinheit mit einer statischen IP-Adresse konfiguriert sein oder kann aufgebaut sein, um automatisch eine zugeordnete IP-Adresse von einer anderen Vorrichtung an dem Netzwerk wie etwa einem Router oder von einem Netzadressenserver zu empfangen.
  • Eine der vernetzten Vorrichtungen, die mit der Telematikeinheit 30 kommunizieren können, ist eine mobile Rechenvorrichtung 57, wie etwa ein Smartphone, ein Personal-Laptop-Computer, eine intelligente tragbare Vorrichtung oder ein Tablet-Computer mit bidirektionalen Kommunikationsfähigkeiten, ein Netbook-Computer oder eine geeignete Kombination davon. Die mobile Rechenvorrichtung 57 kann eine Rechenverarbeitungsfähigkeit, einen Transceiver, der mit dem drahtlosen Trägersystem 14 kommunizieren kann, und/oder ein GPS-Modul einschließen, das GPS-Satellitensignale empfangen und GPS-Koordinaten basierend auf diesen Signalen erzeugen kann. Beispiele der mobilen Rechenvorrichtung 57 schließen das iPhone™, das von Apple, Inc. hergestellt wird, und Pixel™, das von HTC, Inc. hergestellt wird, sowie andere ein. Auch wenn die mobile Rechenvorrichtung 57 die Fähigkeit zur Kommunikation über Mobilfunk unter Verwendung des drahtlosen Trägersystems 14 einschließen kann, ist dies nicht immer der Fall. So stellt Apple beispielsweise Vorrichtungen wie etwa die verschiedenen Modelle des iPad™ und iPod Touch™ her, die die Verarbeitungsfähigkeit und die Möglichkeit der Kommunikation über eine drahtlose Nahbereichskommunikation wie etwa, aber nicht beschränkt auf, WIFI und Bluetooth einschließen. Der iPod Touch™ und einige iPads™ weisen jedoch keine zellularen Kommunikationsfähigkeiten auf. Gleichwohl können diese und andere ähnliche Vorrichtungen für die Zwecke des hierin beschriebenen Verfahrens verwendet oder als eine Art von drahtloser Vorrichtung, wie etwa der mobilen Rechenvorrichtung 57, betrachtet werden.
  • Die mobile Vorrichtung 57 kann innerhalb oder außerhalb eines Fahrzeugs 12 verwendet werden und kann drahtgebunden oder drahtlos mit dem Fahrzeug gekoppelt sein. Die mobile Vorrichtung kann auch konfiguriert sein, um Dienste gemäß einem Abonnementvertrag mit einer Drittpartei oder einem drahtlosen/Telefondienstanbieter bereitzustellen. Es sollte beachtet werden, dass verschiedene Dienstanbieter das drahtlose Trägersystem 14 verwenden können und dass der Dienstanbieter der Telematikeinheit 30 nicht notwendigerweise der gleiche wie der Dienstanbieter der mobilen Vorrichtungen 57 ist.
  • Bei Verwendung eines SRWC-Protokolls (Short Range Wireless Connection) (z. B. Bluetooth/Bluetooth Low Energy oder Wi-Fi) können sich die mobile Rechenvorrichtung 57 und die Telematikeinheit 30 innerhalb eines drahtlosen Bereichs (z. B. vor einer Trennung vom drahtlosen Netzwerk) miteinander paaren/verbinden. Um eine Paarung durchzuführen, können die mobile Rechenvorrichtung 57 und die Telematikeinheit 30 in einem BEACON- oder DISCOVERABLE-Modus mit einer allgemeinen Identifikation (ID) fungieren; die SRWC-Paarung ist Fachleuten bekannt. Der allgemeine Identifikator (ID) kann z. B. den Vorrichtungsnamen, den eindeutigen Identifikator (z. B. Seriennummer), die Klasse, verfügbare Dienste und andere geeignete technische Informationen einschließen. Die mobile Rechenvorrichtung 57 und die Telematikeinheit 30 können auch über einen Nicht-Beacon-Modus paaren. In diesen Fällen kann das Call-Center 20 an der Paarung der mobilen Rechenvorrichtung 57 und der Telematikeinheit 30 teilnehmen. Das Call-Center 20 kann beispielsweise das Abfrageverfahren zwischen der Telematikeinheit 30 und der mobilen Rechenvorrichtung 57 einleiten. Und das Call-Center 20 kann die mobile Rechenvorrichtung 57 als dem Benutzer des Fahrzeugs 12 zugehörig identifizieren und dann von der mobilen Rechenvorrichtung 57 deren eindeutigen Identifikator für die mobile Vorrichtung empfangen und die Telematikeinheit 30 über das drahtlose Kommunikationssystem 14 autorisieren, eine Paarung mit dieser speziellen ID vorzunehmen.
  • Sobald die SRWC hergestellt ist, können, wie die Fachleute erkennen werden, die Vorrichtungen als zusammengeführt betrachtet werden (d. h. sie können einander erkennen und/oder sich automatisch verbinden, wenn sie sich in einer vorgegebenen Nähe oder einem vorgegebenen Bereich voneinander befinden. Mit anderen Worten - sie können mindestens temporär Netzteilnehmer werden). Das Call-Center 20 kann die SRWC auch auf individueller Basis vor der Fertigstellung autorisieren.
  • Die Telematiksteuereinheit 52 (Prozessor) kann jede Art von Vorrichtung sein, die in der Lage ist, elektronische Anweisungen zu verarbeiten, einschließlich der Mikroprozessoren, Mikrocontroller, Host-Prozessoren, Steuereinheiten, Fahrzeugkommunikationsprozessoren und anwendungsspezifische integrierte Schaltkreise (ASICs). Er kann ein dedizierter Prozessor sein, der nur für die Telematikeinheit 30 verwendet wird oder der von anderen Fahrzeugsystemen gemeinsam genutzt werden kann. Die Telematiksteuereinheit 52 führt verschiedene Arten von digital gespeicherten Anweisungen aus, wie etwa Software- oder Firmware-Programme, die in dem Speicher 54 gespeichert sind und die es der Telematikeinheit ermöglichen, eine große Vielzahl von Diensten bereitzustellen. Zum Beispiel kann die Steuereinheit 52 Programme ausführen oder Daten verarbeiten, um mindestens einen Teil des hierin erläuterten Verfahrens auszuführen.
  • Die Telematikeinheit 30 kann verwendet werden, um einen vielseitigen Bereich von Fahrzeugdiensten bereitzustellen, die eine drahtlose Kommunikation zu und/oder von dem Fahrzeug einbeziehen. Solche Dienste schließen folgende ein: Tum-by-Tum-Anweisungen und andere navigationsbezogene Dienste, die in Verbindung mit dem GPS-basierten Fahrzeugnavigationsmodul 40 bereitgestellt werden; eine Airbag-Einsatzbenachrichtigung und andere Notfall- oder Pannenhilfedienste, die in Verbindung mit einem oder mehreren Fahrzeugsystemmodulen 42 (VSM) bereitgestellt werden; eine Diagnoseberichterstattung unter Verwendung eines oder mehrerer Diagnosemodule; und Infotainment-bezogene Dienste, bei denen Musik, Webseiten, Filme, Fernsehprogramme, Videospiele und/oder andere Informationen durch ein Infotainment-Modul (nicht gezeigt) heruntergeladen werden und für eine sofortige oder spätere Wiedergabe gespeichert werden. Die oben angeführten Dienste sind keineswegs eine erschöpfende Liste aller Fähigkeiten der Telematikeinheit 30, sondern sind einfach eine Aufzählung einiger der Dienste, welche die Telematikeinheit 30 anbieten kann. Darüber hinaus sollte verstanden werden, dass mindestens einige der vorstehend genannten Module in Form von Software-Anweisungen implementiert sein könnten, die innerhalb oder außerhalb der Telematikeinheit 30 gespeichert sind, dass sie Hardware-Komponenten sein könnten, die sich innerhalb oder außerhalb der Telematikeinheit 30 befinden, oder dass sie miteinander oder mit anderen Systemen, die sich im ganzen Fahrzeug befinden, integriert sein könnten und/oder gemeinsam genutzt werden könnten, nur um einige Möglichkeiten zu nennen. In dem Fall, dass die Module als VSMs 42 implementiert sind, die sich außerhalb der Telematikeinheit 30 befinden, könnten sie den Fahrzeugbus 44 verwenden, um Daten und Befehle mit der Telematikeinheit auszutauschen.
  • Das GPS-Modul 40 empfängt Funksignale von einer Konstellation 60 von GPS-Satelliten. Aus diesen Signalen kann das Modul 40 die Fahrzeugposition ermitteln, die verwendet wird, um navigations- und andere positionsbezogene Dienste für den Fahrzeugführer bereitzustellen. Navigationsinformationen können auf einer Anzeige 38 (oder einer anderen Anzeige im Fahrzeug) angezeigt werden oder können verbal dargestellt werden, wie es bei der Zurverfügungstellung von Tum-by-Tum-Navigation geschieht. Die Navigationsdienste können unter Verwendung eines speziellen Fahrzeugnavigationsmoduls (das Teil des GPS-Moduls 40 sein kann) bereitgestellt werden, oder einige oder alle Navigationsdienste können über die Telematikeinheit 30 durchgeführt werden, wobei die Positionsinformationen zu einem entfernten Ort gesendet werden, um dem Fahrzeug Navigationskarten, Kartenerläuterungen (Punkte von Interesse, Restaurants usw.), Routenberechnungen und dergleichen bereitzustellen. Die Positionsinformationen können dem Datenzentrum 20 oder einem anderen entfernten Computer-System, wie etwa einem Computer 18, zu anderen Zwecken, wie etwa einer Flottenverwaltung, bereitgestellt werden. Es können auch neue oder aktualisierte Kartendaten von dem Datenzentrum 20 über die Telematikeinheit 30 auf das GPS-Modul 40 heruntergeladen werden.
  • Abgesehen von dem Audiosystem 36 und dem GPS-Modul 40 kann das Fahrzeug 12 andere VSMs 42 in Form von elektronischen Hardware-Komponenten einschließen, die sich im ganzen Fahrzeug befinden und in der Regel einen Eingang von einem oder mehreren Sensoren empfangen und den erfassten Eingang verwenden, um Diagnose-, Überwachungs-, Steuerungs-, Berichterstattungs- und/oder andere Funktionen durchzuführen. Jedes der VSMs 42 ist vorzugsweise durch den Kommunikationsbus 44 mit den anderen VSMs sowie mit der Telematikeinheit 30 verbunden und kann programmiert sein, um Fahrzeugsystem- und -teilsystemdiagnosetests auszuführen.
  • Zum Beispiel kann ein VSM 42 ein Motorsteuermodul (ECM) sein, das verschiedene Aspekte des Motorbetriebs steuert, wie etwa Kraftstoffzündung und Zündzeitpunkt, ein anderes VSM 42 kann ein Antriebsstrangsteuermodul sein, das den Betrieb einer oder mehrerer Komponenten des Fahrzeugantriebsstrangs reguliert, und ein anderes VSM 42 kann ein Karosseriesteuermodul sein, das verschiedene elektrische Komponenten regelt, die sich im ganzen Fahrzeug befinden, wie die Zentralverriegelung und die Scheinwerfer des Fahrzeugs. Gemäß einer Ausführungsform ist das Motorsteuermodul mit On-Bord-Diagnose (OBD)-Merkmalen ausgestattet, die unzählige Echtzeitdaten bereitstellen, wie sie von verschiedenen Sensoren, einschließlich Fahrzeugemissionssensoren, empfangen werden, und eine standardisierte Serie von Diagnosefehlercodes (DTCs) bereitstellen, die es einem Techniker ermöglichen, Fehlfunktionen innerhalb des Fahrzeugs schnell zu identifizieren und zu beheben. Wie von den Fachleuten erkannt wird, sind die oben erwähnten VSMs nur Beispiele einiger der Module, die im Fahrzeug 12 verwendet werden können, da zahlreiche andere Module ebenfalls möglich sind.
  • Die Fahrzeugelektronik 28 schließt auch eine Anzahl von Fahrzeugbenutzerschnittstellen ein, die Fahrzeuginsassen ein Mittel zum Bereitstellen und/oder Empfangen von Informationen bereitstellen, einschließlich eines Mikrofons 32, eines Druckknopfs/Druckknöpfen 34, eines Audiosystems 36 und einer visuellen Anzeige 38. Wie hierin verwendet, schließt der Begriff „Fahrzeugbenutzerschnittstelle“ breit jede geeignete Form von elektronischer Vorrichtung ein, die sowohl Hardware- als auch Software-Komponenten einschließt und sich am Fahrzeug befindet und es einem Fahrzeugbenutzer ermöglicht, mit einer oder über eine Komponente des Fahrzeugs zu kommunizieren. Das Mikrofon 32 stellt einen Audioeingang für die Telematikeinheit bereit, um dem Fahrer oder einem anderen Insassen zu ermöglichen, Sprachbefehle bereitzustellen und über das drahtlose Trägersystem 14 Freisprechanrufe auszuführen. Zu diesem Zweck kann es mit einer fahrzeugeigenen automatisierten Sprachverarbeitungseinheit verbunden sein, die eine im Stand der Technik bekannte Mensch-Maschine-Schnittstellentechnologie (HMI-Technologie) verwendet.
  • Der Druckknopf/Die Druckknöpfe 34 ermöglichen eine manuelle Benutzereingabe in die Telematikeinheit 30, um drahtlose Telefonanrufe zu initiieren und andere Daten, eine Antwort oder einen Steuereingang bereitzustellen. Es können separate Druckknöpfe verwendet werden, um im Gegensatz zu regulären Dienstunterstützungsanrufen an das Datenzentrum 20 Notrufe zu initiieren. Das Audiosystem 36 stellt einen Audioausgang für einen Fahrzeuginsassen bereit und kann ein dediziertes, unabhängiges System oder ein Teil des primären Fahrzeugaudiosystems sein. Gemäß der bestimmten hier gezeigten Ausführungsform ist das Audiosystem 36 betriebsmäßig mit sowohl dem Fahrzeugbus 44 als auch dem Unterhaltungsbus 46 gekoppelt und kann eine MW-, UKW-, Medienstreaming-Dienst- (z. B. PANDORA RADIO™, SPOTIFY™ usw.), Satellitenradio-, CD-, DVD- und eine andere Multimediafunktionalität bereitstellen. Diese Funktionalität kann in Verbindung mit oder unabhängig von dem oben beschriebenen Infotainment-Modul bereitgestellt werden. Die visuelle Anzeige 38 ist vorzugsweise eine Graphikanzeige, wie etwa ein Touchscreen an dem Armaturenbrett oder eine Head-Up-Anzeige, die an der Windschutzscheibe reflektiert wird, und kann verwendet werden, um eine Vielzahl von Eingabe- und Ausgabefunktionen (d. h. geeignet für die GUI-Implementierung) bereitzustellen. Das Audiosystem 36 kann auch mindestens eine Audiobenachrichtigung erzeugen, um anzukündigen, dass solche Kontaktinformationen von Drittanbietern auf der Anzeige 38 angezeigt werden, und/oder eine Audiobenachrichtigung erzeugen, die unabhängig die Kontaktinformationen von Drittanbietern ankündigt. Es können auch verschiedene andere Fahrzeugbenutzerschnittstellen verwendet werden, da die Schnittstellen von 1 nur ein Beispiel einer bestimmten Implementierung sind.
  • Das drahtlose Trägersystem 14 ist vorzugsweise ein Mobiltelefonsystem, das eine Vielzahl von Funkmasten 70 (nur einer gezeigt), eine oder mehrere zellulare Netzinfrastrukturen (CNI) 72 sowie beliebige andere Netzkomponenten einschließt, die erforderlich sind, um das drahtlose Trägersystem 14 mit dem Festnetz 16 zu verbinden. Jeder Sendemast 70 schließt Sende- und Empfangsantennen und eine Basisstation ein, wobei die Basisstationen verschiedener Sendemasten entweder direkt oder über Zwischengeräte, wie etwa eine Basisstationsteuereinheit, mit der CNI 72 verbunden sind. Das Zellularsystem 14 kann jede geeignete Kommunikationstechnologie implementieren, einschließlich zum Beispiel analoger Technologien, wie etwa AMPS, oder der neueren digitalen Technologien, wie etwa, aber nicht beschränkt auf, 4G, LTE und 5G. Fachleute werden erkennen, dass verschiedene Sendemast-/Basisstation/CNI-Anordnungen möglich sind und mit dem drahtlosen System 14 verwendet werden könnten. So könnten beispielsweise die Basisstation und der Sendemast an ein und dem gleichen Standort zusammengelegt oder entfernt voneinander aufgestellt werden, wobei jede Basisstation für einen einzelnen Sendemast verantwortlich sein könnte oder eine einzelne Basisstation verschiedene Sendemasten bedienen könnte und verschiedene Basisstationen mit einer einzelnen MSC gekoppelt werden könnten, um nur einige der möglichen Anordnungen zu nennen. Abgesehen von der Verwendung des drahtlosen Trägersystems 14 kann ein anderes drahtloses Trägersystem in Form eines Satellitenkommunikationssystems verwendet werden, um eine unidirektionale oder bidirektionale Kommunikation mit dem Fahrzeug bereitzustellen. Dies kann mit einem oder mehreren Kommunikationssatelliten 62 und einer Uplink-Sendestation 64 erfolgen. Unidirektionale Kommunikation können beispielsweise Satellitenradio-Dienste sein, wobei Programminhalte (Nachrichten, Musik usw.) von der Sendestation 64 empfangen, für den Upload verpackt und dann an den Satelliten 62 gesendet werden, der das Programm an die Teilnehmer sendet. Bidirektionale Kommunikation können beispielsweise Satelliten-Telefoniedienste sein, die den Satelliten 62 nutzen, um die Telefonkommunikation zwischen dem Fahrzeug 12 und der Station 64 weiterzuleiten. Bei einer Verwendung kann diese Satellitentelefonie entweder zusätzlich oder anstelle des drahtlosen Trägersystems 14 genutzt werden.
  • Das Festnetz 16 kann ein herkömmliches landgestütztes Telekommunikationsnetz sein, das mit einem oder mehreren Festnetztelefonen verbunden ist und das drahtlose Trägersystem 14 mit dem Datenzentrum 20 sowie Notdienstanbieter 75 verbindet (d. h. einer Feuerwehr, einem Krankenhaus oder einer Polizeistation mit uniformierten oder anderweitig identifizierten Mitarbeitern oder Vertragsnehmern). So kann beispielsweise das Festnetz 16 ein öffentliches Telefonnetzwerk (PSTN) einschließen, wie es zur Bereitstellung von Festnetztelefonie, paketvermittelter Datenkommunikation und der Internetinfrastruktur (d. h. einem Netzwerk von miteinander verbundenen Rechenvorrichtungsknoten) verwendet wird. Ein oder mehrere Segmente des Festnetzes 16 können durch die Verwendung eines standardmäßigen verdrahteten Netzes, einer Faser oder eines anderen optischen Netzes, eines Kabelnetzes, Stromleitungen, anderer drahtloser Netze, wie etwa drahtloser lokaler Netze (WLANs) oder Netzwerke, die drahtlosen Breitbandzugang (BWA) bereitstellen, oder irgendeiner Kombination davon, implementiert sein. Darüber hinaus muss das Datenzentrum 20 nicht über das Festnetz 16 verbunden sein, sondern könnte drahtlose Telefonieeinrichtungen einschließen, sodass es direkt mit einem drahtlosen Netzwerk, wie etwa dem drahtlosen Trägersystem 14, kommunizieren kann.
  • Der Computer 18 kann einer von einer Anzahl von Computern sein, auf die über ein privates oder öffentliches Netz, wie etwa das Internet, zugegriffen werden kann. Jeder solche Computer 18 kann für einen oder mehrere Zwecke, wie etwa einen Web-Server, verwendet werden, auf den durch das Fahrzeug über die Telematikeinheit 30 und den drahtlosen Träger 14 zugegriffen werden kann. Andere solche Computer 18, auf die zugegriffen werden kann, können beispielsweise folgende sein: ein Computer einer Dienstzentrale (z. B. ein SIP-Präsenzserver), an dem Diagnoseinformationen und andere Fahrzeugdaten von dem Fahrzeug über die Telematikeinheit 30 hochgeladen werden können; ein Client-Computer, der durch den Fahrzeughalter oder einen anderen Teilnehmer zu Zwecken wie etwa Zugreifen auf oder Empfangen von Fahrzeugdaten oder Einstellen oder Konfigurieren von Teilnehmervorlieben oder Steuern von Fahrzeugfunktionen verwendet wird; oder ein Drittanbieter-Speicher, für den oder von dem Fahrzeugdaten oder andere Service-Informationen bereitstellt werden, entweder durch Kommunizieren mit dem Fahrzeug 12 oder Datenzentrum 20, einem Drittdienstanbieter oder einer Kombination davon. Der Computer 18 kann beispielsweise eine Web-Mapping-Service-Anwendung 61 (z. B. GOOGLE MAPS™, APPLE MAPS™ usw.) speichern, die Satellitenbilder, Straßenkarten, 360°-Panorama-Ansichten von Straßen (Street View), Echtzeit-Verkehrsbedingungen (z. B. GOOGLE TRAFFIC™) und Routenplanung für Reisen zu Fuß, mit dem Auto, Fahrrad oder öffentlichen Verkehrsmitteln bietet. Beispielsweise kann die Mapping-Anwendung 61 interaktive virtuelle Kartendaten für die Telematikeinheit 30 bereitstellen, die auf der Anzeige 38 angezeigt werden sollen. Die interaktiven Kartendaten können darüber hinaus die Unterstützung von Nahbereichsinformationen und die Einrichtung einer Geofence für einen bestimmten Ort (z. B. die Wohnstätte des Benutzers) bereitstellen. Wie der Fachmann verstehen wird, kann die Geofence GPS- oder RFID-Technologie verwenden, um eine virtuelle geografische Grenze zu erstellen (d. h. einen virtuellen Umkreis für ein geografisches Gebiet der realen Welt, z. B. ein Radius um einen eine Wohnstätte oder ein vordefinierter Satz von Grenzen um die Wohnstätte herum), was eine Reaktion ermöglicht, wenn eine Vorrichtung oder ein Objekt (z. B. Fahrzeug 12) innerhalb dieser virtuellen geografischen Grenze ermittelt wird. Ein Computer 18 kann auch zum Bereitstellen einer Internet-Konnektivität, wie etwa von DNS-Diensten, oder als ein Netzadressenserver, der DHCP oder ein anderes geeignetes Protokoll verwendet, um dem Fahrzeug 12 eine IP-Adresse zuzuordnen, verwendet werden.
  • Das Datenzentrum 20 ist entwickelt, um der Fahrzeugelektronik 28 eine Anzahl von unterschiedlichen System-Backend-Funktionen bereitzustellen und schließt gemäß dem hier gezeigten Ausführungsbeispiel allgemein einen oder mehrere Switches 80, Server 82, Datenbanken 84, menschliche Berater 86 sowie ein automatisiertes Sprachausgabesystem (VRS) 88 ein, von denen alle im Stand der Technik bekannt sind. Diese verschiedenen Datenzentrum-Komponenten sind vorzugsweise über ein drahtgebundenes oder drahtloses lokales Netzwerk 90 miteinander gekoppelt. Der Schalter 80, der ein Nebenstellenanlagenschalter (PBX-Schalter) sein kann, leitet eingehende Signale derart weiter, dass Sprachübertragungen für gewöhnlich entweder durch ein normales Telefon, einen Backend-Computer an den menschlichen Berater 86 oder unter Verwendung von VoIP an das automatisierte Sprachausgabesystem 88 gesendet werden. Der Server 82 kann eine Datensteuereinheit 81 enthalten, die im Wesentlichen die Arbeitsvorgänge des Servers 82 steuert. Der Server 82 kann Dateninformationen steuern und als ein Transceiver fungieren, um Dateninformationen (d. h. Datenübertragungen) von einer oder mehreren Datenbanken 84, der Telematikeinheit 30 und der mobilen Rechenvorrichtung 57 zu senden und/oder empfangen.
  • Die Steuereinheit 81 ist darüber hinaus in der Lage, ausführbare Anweisungen zu lesen, die in einem nichttransitorischen maschinenlesbaren Medium gespeichert sind, und kann einen oder mehrere von einem Prozessor, einem Mikroprozessor, einer zentralen Verarbeitungseinheit (CPU), einem Grafikprozessor, anwendungsspezifischen integrierten Schaltungen (ASICs), Field Programmable Gate Arrays (FPGAs), Zustandsmaschinen und einer Kombination aus Hardware-, Software- und Firmwarekomponenten einschließen. Das Telefon des menschlichen Beraters kann auch VoIP verwenden, wie es durch die gestrichelte Linie in 1 angegeben ist. VoIP und andere Datenkommunikation über den Schalter 80 werden über ein Modem (d. h. einen Transceiver) implementiert, das zwischen dem Landkommunikationsnetzwerk 16 und dem lokalen Netzwerk 90 verbunden ist.
  • Die Datenübertragungen werden über das Modem an den Server 82 und/oder die Datenbank 84 weitergeleitet. Die Datenbank 84 kann Kontoinformationen speichern, wie etwa Fahrzeugdynamikinformationen und andere relevante Teilnehmerinformationen. Datenübertragungen können auch durch drahtlose Systeme, wie etwa 802.11x, GPRS und dergleichen, ausgeführt werden. Obwohl die veranschaulichte Ausführungsform als in Verbindung mit einem mit Personal besetzten Datenzentrum 20 unter Verwendung des menschlichen Beraters 86 verwendet beschrieben wurde, sei angemerkt, dass das Datenzentrum stattdessen das VRS 88 als einen automatisierten Berater verwenden kann oder eine Kombination aus dem VRS 88 und dem menschlichen Berater 86 verwendet werden kann.
  • Wie oben erwähnt, kann der Notdienstanbieter 75 ein Notdienstauftrag für ein Krankenhaus, eine Polizeistation, eine Feuerwehr oder irgendeine andere Art von medizinischer Rettungsgruppe sein. Wie folgt verfügt der Notdienstanbieter 75 über uniformierte oder anderweitig identifizierte Mitarbeiter oder Vertragsnehmer, die speziell dafür geschult sind, hilflose Opfer aus unglücklichen Situationen zu retten. Der Notdienstanbieter 75 kann beispielsweise über eine gemeinsame, der allgemeinen Öffentlichkeit bekannte Notrufhummer (z. B. 9-1-1 in den Vereinigten Staaten) kontaktiert werden.
  • Automatisches Spracherkennungssystem
  • Nun Bezug nehmend auf 2, wird eine veranschaulichende Architektur für ein ASR-System 210 gezeigt, die verwendet werden kann, um das gegenwärtig offenbarte Verfahren zu ermöglichen. Im Allgemeinen interagiert ein Fahrzeuginsasse mündlich mit einem automatischen Spracherkennungssystem (ASR) zu einem oder mehreren der folgenden wesentlichen Zwecke: Trainieren des Systems, um die jeweilige Stimme eines Fahrzeuginsassen zu verstehen; Speichern von diskreter Sprache, wie etwa eines gesprochenen Namenträgers oder eines gesprochenen Steuerungsworts als Zahl oder Schlüsselwort; oder Erkennen der Sprache des Fahrzeuginsassen zu jedem geeigneten Zweck, wie etwa Sprachwahl, Menünavigation, Transkription, Serviceanfragen, Fahrzeugvorrichtungs- oder Gerätefunktionssteuerung oder dergleichen. Im Allgemeinen extrahiert ASR akustische Daten aus menschlicher Sprache, vergleicht und kontrastiert die akustischen Daten mit gespeicherten Subwortdaten, wählt ein geeignetes Subwort aus, das mit anderen ausgewählten Subwörtern verkettet werden kann, und gibt die verketteten Subwörter oder Wörter zur Nachbearbeitung aus, wie etwa Diktieren oder Transkription, Adressbuchwahl, Speicherung im Speicher, Trainieren der ASR-Modelle oder Anpassungsparameter oder dergleichen.
  • ASR-Systeme und -Vorrichtungen sind dem Fachmann allgemein bekannt und 2 veranschaulicht nur ein spezifisches beispielhaftes ASR-System 210. Das System 210 schließt eine Vorrichtung zum Empfangen von Sprache, wie etwa ein Mikrofon 32, und eine akustische Schnittstelle 33, wie etwa eine Soundkarte mit einem Analog-DigitalWandler zum Digitalisieren der Sprache in akustische Daten, ein. Das System 210 schließt auch einen Speicher wie etwa oder ähnlich dem Telematikspeicher 54, dem Speicher für mobile Vorrichtungen 57, dem Speicher 84 und dem Speicher des Computers 18 zum Speichern der akustischen Daten und zum Speichern von Spracherkennungssoftware und Datenbanken ein, und einen Prozessor wie etwa oder ähnlich dem Telematikprozessor 52, dem Prozessor für mobile Vorrichtungen 57, der Datensteuereinheit 81 und dem Computer 18 zum Verarbeiten der akustischen Daten. Der Prozessor arbeitet mit dem Speicher und in Verbindung mit den folgenden Modulen: einem oder mehreren Frontend-Prozessoren oder Vorprozessor-Softwaremodulen 212 zum Parsen von Strömen der akustischen Daten der Sprache in parametrische Darstellungen, wie etwa akustische Merkmale; einem oder mehreren Dekoder-Softwaremodulen 214 zum Dekodieren der akustischen Merkmale, um digitale Subwort- oder Wortausgabedaten entsprechend den eingegebenen Sprachäußerungen zu erhalten; und einem oder mehreren Postprozessor-Softwaremodulen 216 zur Verwendung der Ausgabedaten der Dekodermodule 214 für jeden geeigneten Zweck.
  • Das System 210 kann auch Sprache von jeder anderen geeigneten Audioquelle(n) 31 empfangen, die direkt mit dem/den Vorprozessor-Softwaremodul(en) 212 wie in der durchgezogenen Linie dargestellt oder indirekt über die akustische Schnittstelle 33 mit ihr verbunden werden kann. Die Audioquelle(n) 31 können beispielsweise eine telefonische Audioquelle, wie etwa ein Voicemail-System, oder andere telefonische Dienste jeglicher Art einschließen.
  • Ein oder mehrere Module oder Modelle können als Eingabe in das/die Dekodermodul(e) 214 verwendet werden. Erstens können Grammatik- und/oder Lexikonmodelle 218 Regeln bereitstellen, die regeln, welche Wörter logisch auf andere Wörter folgen können, um gültige Sätze zu bilden. In weiteren Sinne kann eine Grammatik ein Universum von Vokabeln definieren, die das System 210 zu einem bestimmten Zeitpunkt in einem bestimmten ASR-Modus erwartet. Wenn sich das System 210 beispielsweise in einem Trainingsmodus für Trainingsbefehle befindet, dann kann das/die Grammatikmodell(e) 218 alle Befehle einschließen, die dem System 210 bekannt sind und von ihm verwendet werden. In einem weiteren Beispiel, wenn sich das System 210 in einem Hauptmenümodus befindet, kann/können dann das/die aktive(n) Grammatikmodell(e) 218 alle vom System 210 erwarteten Hauptmenübefehle, wie etwa Anruf, Wählen, Verlassen, Löschen, Verzeichnis oder dergleichen einschließen. Zweitens unterstützen das/die akustische(n) Modell(e) 220 die Auswahl der wahrscheinlichsten Subwörter oder Wörter, die der Eingabe aus dem/den Vorprozessormodul(en) 212 entsprechen. Drittens stellen Wortmodell(e) 222 und Satz-/Sprachmodell(e) 224 Regeln, Syntax und/oder Semantik bereit, um die ausgewählten Subwörter oder Wörter in Wort- oder Satzkontext zu setzen. Außerdem können das/die Satz-/Sprachmodell(e) 224 ein Universum von Sätzen definieren, die das System 210 zu einem bestimmten Zeitpunkt in einem bestimmten ASR-Modus erwartet, und/oder Regeln usw. bereitstellen, die regeln, welche Sätze logisch auf andere Sätze folgen können, um eine gültige erweiterte Sprache zu bilden.
  • Gemäß einer alternativen veranschaulichenden Ausführungsform kann ein Teil oder das gesamte ASR-System 210 auf einer Rechenausrüstung untergebracht und mit dieser verarbeitet werden, die in geeigneter Weise in einem Gehäusemodul verpackt ist, um eine virtuelle Assistenzvorrichtung 53 zu erstellen (z. B. AMAZON ECHO™, GOOGLE HOME™, APPLE HOMEPOD™ usw.), die in eine mobile Rechenvorrichtung 57 oder an einem vom Mikrofon 32 entfernten Ort, wie etwa aber nicht beschränkt auf das Call-Center 20 integriert ist. Zum Beispiel kann Spracherkennungssoftware unter Verwendung von Prozessoren eines der Server 82 in dem Call-Center 20 verarbeitet werden. Mit anderen Worten kann das ASR-System 210 im Gehäusemodul, in der mobilen Rechenvorrichtung 57 und/oder im Call-Center 20 auf jede gewünschte Weise untergebracht sein.
  • Zuerst werden akustische Daten aus menschlicher Sprache extrahiert, wobei ein Benutzer des ASR-Systems in das Mikrofon 32 spricht, das die Äußerungen in elektrische Signale umwandelt und diese Signale an die akustische Schnittstelle 33 übermittelt. Ein schallansprechendes Element im Mikrofon 32 erfasst die Sprachäußerungen des Benutzers als Luftdruckschwankungen und wandelt die Äußerungen in entsprechende Variationen analoger elektrischer Signale wie etwa Gleichstrom oder Spannung um. Die akustische Schnittstelle 33 empfängt die analogen elektrischen Signale, die zunächst derart abgetastet werden, dass Werte des analogen Signals zu diskreten Zeitpunkten erfasst werden, und dann so quantisiert werden, dass die Amplituden der analogen Signale zu jedem Abtastzeitpunkt in einen kontinuierlichen Strom von digitalen Sprachdaten umgewandelt werden. Mit anderen Worten wandelt die akustische Schnittstelle 33 die analogen elektrischen Signale in digitale elektronische Signale um. Die digitalen Daten sind binäre Bits, die in dem Telematikspeicher 54 gepuffert und dann vom Telematikprozessor 52 verarbeitet werden oder verarbeitet werden können, wie sie anfänglich vom Prozessor 52 in Echtzeit empfangen werden.
  • Zweitens wandeln das/die Vorprozessormodul(e) 212 den kontinuierlichen Strom von digitalen Sprachdaten in diskrete Sequenzen von akustischen Parametern um. Insbesondere führt der Prozessor 52 das/die Vorprozessormodul(e) 212 aus, um die digitalen Sprachdaten in überlappende phonetische oder akustische Frames von beispielsweise 10-30 Dauer zu unterteilen. Die Frames entsprechen akustischen Subwörtern wie etwa Silben, Halbsilben, Phone, Diphone, Phoneme oder dergleichen. Das/die Vorprozessormodul(e) 212 führen auch phonetische Analysen durch, um akustische Parameter aus der Sprache des Insassen zu extrahieren, wie etwa zeitvariable Merkmalsvektoren, die innerhalb jedes Frames liegen. Äußerungen in der Sprache des Benutzers können als Sequenzen dieser Merkmalsvektoren dargestellt werden. Beispielsweise und wie den Fachleuten bekannt, können Merkmalsvektoren extrahiert werden und können beispielsweise Stimmlage, Energieprofile, spektrale Attribute und/oder Cepstral-Koeffizienten einschließen, die durch die Durchführung von Fourier-Transformationen der Frames und die Dekorrelation akustischer Spektren unter Verwendung von Cosinustransformationen erhalten werden können. Akustische Frames und entsprechende Parameter, die eine bestimmte Sprechzeit abdecken, werden zu einem unbekannten Testmuster der zu dekodierenden Sprache verkettet.
  • Drittens führt der Prozessor das/die Dekodermodul(e) 214 aus, um die eingehenden Merkmalsvektoren jedes Testmusters zu verarbeiten. Das/Die Dekodermodul(e) 214 sind auch als Erkennungsmaschine oder Klassifizierer bekannt und verwendet gespeicherte bekannte Referenzmuster von Sprache. Wie die Testmuster sind auch die Referenzmuster definiert als eine Verkettung von verwandten akustischen Frames und entsprechenden Parametern. Das/Die Dekodermodul(e) 214 vergleicht und kontrastiert die akustischen Merkmalsvektoren eines zu erkennenden Subword-Testmusters mit gespeicherten Subword-Referenzmustern, bewertet die Größe der Unterschiede oder Ähnlichkeiten dazwischen und verwendet schließlich die Entscheidungslogik, um ein am besten passendes Subword als das erkannte Subword auszuwählen. Im Allgemeinen ist das am besten passende Subwort dasjenige, das dem gespeicherten bekannten Referenzmuster entspricht, das eine minimale Unähnlichkeit oder höchste Wahrscheinlichkeit aufweist, das Testmuster zu sein, wie es durch eine der verschiedenen Techniken, die den Fachleuten bekannt sind, bestimmt wird, um Subwörter zu analysieren und zu erkennen. Solche Techniken können Dynamic Time Warping-Klassifikatoren, Techniken der künstlichen Intelligenz, neuronale Netze, freie Phonem-Erkenner und/oder probabilistische Musterübereinstimmungen wie etwa Hidden Markov Model (HMM)-Maschinen einschließen.
  • HMM-Maschinen sind den Fachleuten für die Erzeugung mehrerer Spracherkennungsmodellhypothesen der akustischen Eingabe bekannt. Die Hypothesen werden bei der endgültigen Identifizierung und Auswahl der Erkennungsausgabe berücksichtigt, welche die wahrscheinlichste korrekte Dekodierung der akustischen Eingabe via Merkmalsanalyse der Sprache darstellt. Insbesondere erzeugt eine HMM-Maschine statistische Modelle in Form einer „N-best“-Liste von Subwortmodellhypothesen, die gemäß HMM-berechneten Vertrauenswerten oder Wahrscheinlichkeiten einer beobachteten Sequenz von akustischen Daten, die einem oder anderen Subwort gegeben sind, geordnet sind, wie etwa durch die Anwendung des Bayes-Theorems.
  • Ein Bayesscher HMM-Prozess identifiziert eine beste Hypothese, die der wahrscheinlichsten Äußerung oder Subwortsequenz für eine gegebene Beobachtungssequenz von akustischen Merkmalsvektoren entspricht, und seine Vertrauenswerte können von einer Vielzahl von Faktoren abhängen, einschließlich akustischer Signal-Rausch-Verhältnisse, die mit eingehenden akustischen Daten assoziiert sind. Das HMM kann auch eine statistische Verteilung einschließen, die als Mischung aus diagonalen Gaussfunktionen bezeichnet wird, die ein Wahrscheinlichkeitsmaß für jeden beobachteten Merkmalsvektor jedes Subworts ergibt, der verwendet werden kann, um die N-Best Liste der Hypothesen neu zu ordnen. Die HMM-Maschine kann auch ein Subwort identifizieren und auswählen, dessen Modellwahrscheinlichkeitsmaß am höchsten ist.
  • In ähnlicher Weise können einzelne HMMs für eine Sequenz von Subwörtern miteinander verkettet werden, um eine Einzel- oder Mehrwort-HMM aufzubauen. Danach kann eine N-Best Liste von Einzel- oder Mehrwortreferenzmustern und zugeordneten Parameterwerten erstellt und weiter ausgewertet werden.
  • In einem Beispiel verarbeitet der Spracherkennungsdekoder 214 die Merkmalsvektoren unter Verwendung der entsprechenden akustischen Modelle, Grammatiken und Algorithmen, um eine N-best-Liste von Referenzmustern zu generieren. Wie hierin verwendet, ist der Ausdruck Referenzmuster mit Modellen, Wellenformen, Vorlagen, Rich-Signal-Modellen, Exemplaren, Hypothesen oder anderen Arten von Referenzen austauschbar. Ein Referenzmuster kann eine Reihe von Merkmalsvektoren einschließen, die für ein oder mehrere Wörter oder Subwörter repräsentativ sind, und kann auf bestimmten Sprechern, Sprechweisen und hörbaren Umgebungsbedingungen basieren. Fachleute werden erkennen, dass Referenzmuster durch geeignetes Referenzmustertraining des ASR-Systems erzeugt und im Speicher gespeichert werden können. Fachleute werden auch erkennen, dass gespeicherte Referenzmuster manipuliert werden können, wobei Parameterwerte der Referenzmuster basierend auf Unterschieden in Spracheingabesignalen zwischen Referenzmustertraining und tatsächlicher Nutzung des ASR-Systems angepasst werden. Beispielsweise kann ein Satz von Referenzmustern, die für einen Benutzer trainiert wurden, oder bestimmte akustische Bedingungen angepasst und als ein anderer Satz von Referenzmustern für einen anderen Benutzer oder verschiedene akustische Bedingungen gespeichert werden, basierend auf einer begrenzten Menge von Trainingsdaten des anderen Benutzers oder den verschiedenen akustischen Bedingungen. Mit anderen Worten sind die Referenzmuster nicht notwendigerweise fest und können während der Spracherkennung angepasst werden.
  • Der Spracherkennungsdekoder 214 kann auch ein oder mehrere gesprächskontextspezifische Sprachmodelle enthalten, um einen Gesprächskontext zu identifizieren, der den Merkmalsvektoren entspricht. Auch kann der Gesprächskontext „Humor“ für eine humorvolle Konversation oder „Abendessen“ für eine Konversation über Abendessenpläne, oder „romantisch“ für eine romantische Konversation, oder „Klatsch“ für einen klatschsüchtigen Chat, oder „Einladung“ für Einladungen und damit verbundene Antworten, oder „Begrüßungen“ für einleitende Konversationstypen einschließen. Der Konversationskontext kann eines oder mehrere der vorstehend genannten Beispiele und/oder beliebige andere Arten von Konversationskontexten einschließen. Jedes der gesprächskontextspezifischen Sprachmodelle kann auch einem Gesprächskontext entsprechen und kann von einer Vielzahl von Sprechern vor der Spracherkennungslaufzeit auf geeignete Weise entwickelt und trainiert werden.
  • Der Spracherkennungsdekoder 214 kann ferner ein oder mehrere emotionale kontextspezifische Sprachmodelle enthalten, um einen emotionalen Kontext zu identifizieren, der den Merkmalsvektoren entspricht. Auch der emotionale Kontext kann „Wut“ für feindselige Konversationen oder „glücklich“ für fröhliche Konversationen oder „traurig“ für traurige Konversationen oder „verwirrt“ oder dergleichen einschließen. Der emotionale Kontext kann eines oder mehrere der vorstehend genannten Beispiele und/oder beliebige andere geeignete Arten von emotionalen Kontexten einschließen. In einer Ausführungsform entspricht jedes der emotionalen kontextspezifischen Sprachmodelle einem emotionalen Kontext und kann von einer Vielzahl von Sprechern vor der Spracherkennungslaufzeit in jeder geeigneten Weise entwickelt und trainiert werden. Es ist zu verstehen, dass diese Sprachmodelle eine Permutationsmatrix von Konversations- und Emotionsmodellen einschließen können. Die Modelle können beispielsweise ein „Abendessen“/„glücklich“-Modell, ein „Abendessen“/„wütend“-Modell, ein „Klatsch“/„verwirrt“-Modell und dergleichen einschließen.
  • Unter Verwendung der im Wortschatz enthaltenen Grammatik und eines geeigneten Dekoderalgorithmus (-algorithmen) und akustischen Modells (-modelle) greift der Prozessor aus dem Speicher auf mehrere Referenzmuster zu, die das Testmuster interpretieren. Beispielsweise kann der Prozessor eine Liste der N-best-Vokabelergebnisse oder Referenzmuster zusammen mit den entsprechenden Parameterwerten generieren und speichern. Veranschaulichende Parameterwerte können Konfidenzmaße jedes Referenzmusters in der N-best-Liste von Vokabeln und zugeordnete Segmentdauern, Wahrscheinlichkeitsmaße, Signal-Rausch-Verhältnis (SNR)-Werte und/oder dergleichen einschließen. Die N-beste-Liste des Vokabulars kann nach der absteigenden Größe der Parameterwerte geordnet werden. Zum Beispiel ist das Vokabular-Referenzmuster mit dem höchsten Vertrauensmaß das erste beste Referenzmuster und so weiter. Sobald eine Kette von erkannten Subwörtern aufgebaut ist, können sie verwendet werden, um Wörter mit Eingaben aus den Wortmodellen 222 zu konstruieren und Sätze mit den Eingaben aus den Sprachmodellen 224 zu konstruieren.
  • Schließlich empfangen das/die Postprozessor-Softwaremodul(e) 216 die Ausgabedaten vom/von den Dekodermodul(en) 214 für jeden geeigneten Zweck. In einem Beispiel können das/die Postprozessor-Softwaremodul(e) 216 eines der Referenzmuster aus der N-best-Liste der Einzel- oder Mehrwortreferenzmuster als erkannte Sprache identifizieren oder auswählen. In einem anderen Beispiel können das/die Postprozessormodul(e) 216 verwendet werden, um akustische Daten in Text oder Ziffern umzuwandeln, die mit anderen Aspekten des ASR-Systems oder anderen Fahrzeugsystemen verwendet werden. In einem weiteren Beispiel können das/die Postprozessormodul(e) 216 verwendet werden, um dem Dekoder 214 oder dem Vorprozessor 212 Trainingsfeedback bereitzustellen. Insbesondere kann der Postprozessor 216 verwendet werden, um akustische Modelle für das/die Dekodermodul(e) 214 zu trainieren oder Anpassungsparameter für das/die Vorprozessormodul(e) 212 zu trainieren.
  • Verfahren
  • Das Verfahren oder Teile davon können in einem Computerprogrammprodukt (z. B. einer virtuellen Assistenzvorrichtung 53, einem Server 82, einer mobilen Rechenvorrichtung 57, einer Telematikeinheit 30 usw.) implementiert werden, das in einem computerlesbaren Medium verkörpert ist und Anweisungen einschließt, die von einem oder mehreren Prozessoren eines oder mehrerer Computer eines oder mehrerer Systeme eines oder mehrerer Systeme verwendet werden können, um das/die System(e) zu veranlassen, einen oder mehrere der Verfahrensschritte durchzuführen. Das Computerprogrammprodukt kann ein oder mehrere Softwareprogramme, die aus Programmanweisungen im Quellcode, Objektcode, ausführbarem Code oder anderen Formaten bestehen; ein oder mehrere Firmwareprogramme; oder Hardwarebeschreibungssprachendateien (HDL-Dateien); und beliebige programmbezogene Daten einschließen. Die Daten können Datenstrukturen, Nachschlagetabellen oder Daten in jedem anderen geeigneten Format einschließen. Die Programmanweisungen können Programmmodule, Routinen, Programme, Objekte, Komponenten und/oder dergleichen einschließen. Das Computerprogramm kann auf einem Computer oder auf mehreren Computern in Kommunikation miteinander ausgeführt werden.
  • Das/Die Programm(e) können auf computerlesbaren Medien verkörpert sein, die nichttransitorisch sein können und eine oder mehrere Speichervorrichtungen, Herstellungsartikel oder dergleichen einschließen können. Beispielhafte computerlesbare Medien schließen Computersystemspeicher ein, z. B. RAM (Random Access Memory), ROM (Read Only Memory); Halbleiterspeicher, z. B. EPROM (löschbares, programmierbares ROM), EEPROM (elektrisch löschbares, programmierbares ROM), Flash-Speicher; magnetische oder optische Platten oder Bänder; und/oder dergleichen. Das computerlesbare Medium kann auch Computer-zu-Computer-Verbindungen einschließen, beispielsweise wenn Daten über ein Netzwerk oder eine andere Kommunikationsverbindung (entweder drahtgebunden, drahtlos oder eine Kombination davon) übertragen oder bereitgestellt werden. Jede Kombination(en) der vorgenannten Beispiele ist ebenfalls innerhalb des Schutzumfangs der computerlesbaren Medien eingeschlossen. Es versteht sich daher, dass das Verfahren zumindest teilweise von beliebigen elektronischen Artikeln und/oder Vorrichtungen durchgeführt werden kann, die in der Lage sind, Anweisungen auszuführen, die einem oder mehreren Schritten des offenbarten Verfahrens entsprechen.
  • Nun Bezug nehmend auf 3, wird ein Verfahren 300 gezeigt, das mit einer geeigneten Programmierung des automatischen Spracherkennungssystems 210 von 2 mit geeigneter Hardware und Programmierung sowie weiteren geeigneten Komponenten durchgeführt werden kann, die in den 1 und 2 gezeigt sind. Beispielsweise können Spracherkennungshardware, -firmware und -software des ASR-Systems 210 in einer virtuellen Assistenzvorrichtung 53 (wie zum Beispiel einem Echo™ von Amazon™), auf dem Computer 18, auf einem der Server 82 im Datenzentrum 20 oder auf einer mobilen Rechenvorrichtung 57 untergebracht sein.
  • Eine solche Programmierung und Verwendung der vorstehend beschriebenen Hardware wird für den Fachmann basierend auf der vorgenannten Systembeschreibung und der Erörterung des nachstehend beschriebenen Verfahrens in Verbindung mit den verbleibenden Figuren ersichtlich. Die Fachleute werden auch erkennen, dass die Verfahren unter Verwendung anderer ASR-Systeme 210 in anderen Betriebsumgebungen durchgeführt werden können. Die Verfahrensschritte können sequentiell verarbeitet werden oder nicht, und die Erfindung(en) können eine Sequenzierung, Überlappung oder Parallelverarbeitung solcher Schritte umfassen.
  • Das Verfahren 300 beginnt mit 301, worin das Mikrofon 32 konfiguriert ist, um auf Sprache zu hören und in eine virtuelle Assistenzvorrichtung 53 integriert ist. In 301 stehen darüber hinaus die virtuelle Assistenzvorrichtung 53 und die Telematikeinheit 30 in ständiger Kommunikation mit dem Datenzentrum 20, zum Beispiel über das drahtlose Trägersystem 14. Somit wird jede erkannte Spracheingabe, die vom Mikrofon 32 als akustische Daten aufgenommen wird, über das Trägersystem 14 an das Datenzentrum 20 weitergegeben/übertragen. Beispielsweise können die Daten über Paketdatenübertragungen via Data-over-Voice-Protokoll und/oder auf andere geeignete Weise übertragen werden. Es sollte verstanden werden, dass das Mikrofon 32 alternativ auf der mobilen Rechenvorrichtung 57 installiert werden kann und hören kann, während sich diese Vorrichtung in Reichweite des Benutzers befindet. Somit kann die mobile Rechenvorrichtung 57 auch in ständiger Kommunikation mit dem Datenzentrum 20 stehen.
  • In Schritt 310 werden die Eingaben der Benutzersprachanfrage erkannt und durch das Mikrofon 32 erhalten. Die Sprachanfrage kann ein Wake-Up-Wort direkt oder indirekt einschließen, gefolgt von einer Anfrage nach Dienstleistungen. Ein Wake-Up-Wort ist beispielsweise ein vom Benutzer eingegebener Sprachbefehl, der es dem Sprachassistenten ermöglicht, die Aktivierung auszuführen (d. h. das System im Schlafmodus aufzuwecken). Beispielsweise kann ein Wake-up-Wort in verschiedenen Ausführungsformen „HELLO SIRI/ALEXA/GOOGLE“ oder spezieller das Wort „HELLO“ sein (d. h. wenn das Wake-up-Wort in englischer Sprache ist). Darüber hinaus ist die Anfrage nach Dienstleistungen eine Anfrage zur Aktivierung einer Haus-Notfallsequenz durch das Fahrzeug 12. Beispielsweise kann in verschiedenen Ausführungsformen eine Anfrage zur Aktivierung einer Haus-Notfallsequenz „ICH HABE EINEN NOTFALL ZU HAUSE“ oder spezieller das Wort „SAG CHEVROLET™, DASS ICH EINEN NOTFALL ZU HAUSE HABE“ lauten (d. h. wenn ein Fahrzeug 12 oder ein Benutzerkonto mit der virtuellen Assistenzvorrichtung 53 assoziiert wurde). Die Haus-Notfallsequenz kann beispielsweise darin bestehen, das bekannte Hupensystem und die Scheinwerfer des Fahrzeugs 12 in einer bestimmten Reihenfolge zu aktivieren (nachstehend erläutert).
  • Das ASR-System 210 verarbeitet dann die Sprachdaten und erkennt, ob die Sprachdaten eine Haus-Notfallsequenzanfrage enthalten. Das ASR-System 210 stellt beispielsweise akustische Daten bereit, welche die Stimmtöne, Stimmbeugungen und Sprachmuster des Benutzers repräsentieren. Wenn solche Sprachdaten zeigen, dass sie die Haus-Notfallsequenzanfrage einschließen, wechselt das Verfahren zu Schritt 320. In einer alternativen Ausführungsform hört das Mikrofon 32 eine in seiner Umgebung vorkommende Sprache ab und sendet sie an das ASR-System 210, das auf einer mobilen Rechenvorrichtung 57 oder einem Computer 18 installiert ist.
  • In Schritt 320 sendet die virtuelle Assistenzvorrichtung die Haus-Notfallsequenzanfrage über das drahtlose Trägersystem 14 an den Server 82. In Schritt 330, wie man mit weiterem Bezug auf 4 sehen kann, ruft der Server 82, nachdem die Anfrage ordnungsgemäß vom Server 82 empfangen wurde, eine virtuelle Karte 400 aus der Mapping-Anwendung 61 auf (z. B. auf dem Computer 18 untergebracht). Server 82 ruft auch die Wohnstättenadresse des Systembenutzers aus einer oder mehreren in der Datenbank 84 gespeicherten Nachschlagetabellen ab und ermittelt einen Wohnstättenstandort (dargestellt als Stecknadel) auf der virtuellen Karte 400. Diese Informationen können zuvor bereitgestellt und in die Datenbank 84 aufgenommen worden sein, wenn der Benutzer ein Fahrzeugbenutzerkonto im Datenzentrum 20 einrichtet (und sie können auch die Identifikationsnummer der virtuellen Assistenzvorrichtung 53 diesem Benutzerkonto zugeordnet haben). Darüber hinaus wird der Server 82 in diesem Schritt eine virtuelle geografische Grenze 404 (z. B. Geofence) um den auf der virtuellen Karte ermittelten Wohnsitz ermitteln. Die virtuelle geographische Grenze 404 kann beispielsweise einen Radius von 50 Metern um den Wohnstättestandort darstellen. In einer weiteren Ausführungsform kann die geographische Grenze die Grundstückslinie der Wohnstätte des Benutzers darstellen.
  • In Schritt 330 erhält der Server 82 die GPS-Koordinaten des Fahrzeugs 12 (Fahrzeugstandortinformationen) durch Kommunikation mit der Telematikeinheit 30 und dem GPS-Modul 40. Zusätzlich errichtet der Server 82 einen virtuellen Fahrzeugstandort 406 auf der virtuellen Karte 400. Fachleute werden erkennen, dass die Errichtung von Standorten auf virtuellen Karten 400 im Stand der Technik bekannt ist.
  • In Schritt 340 bestimmt der Server 82, ob der virtuelle Fahrzeugstandort 406 innerhalb der virtuellen geographischen Grenze 404 liegt. Wenn davon ausgegangen wird, dass sich der virtuelle Fahrzeugstandort 406 innerhalb der virtuellen geographischen Grenze 404 befindet (d. h. das Fahrzeug befindet sich in der Nähe der Wohnstätte des Systembenutzers), geht das Verfahren 300 zu Schritt 350 über. Andernfalls, wenn jedoch davon ausgegangen wird, dass sich der virtuelle Fahrzeugstandort 406' außerhalb der virtuellen geografischen Grenze 404 befindet (d. h. das Fahrzeug befindet sich jenseits der Nähe der Wohnstätte des Benutzers), geht das Verfahren 300 zu Schritt 370 über.
  • In Schritt 350 sendet der Server 82 eine Fahrzeugalarmmeldung an das Fahrzeug 12. Wie unter Bezugnahme auf 5 zu verstehen ist, führt diese Alarmmeldung nach Empfang durch das Fahrzeug 12 außerdem dazu, dass die Telematikeinheit 30 (oder ein anderes Fahrzeugcomputersystem) das Hupensystem 502 des Fahrzeugs sowie das Lichtsystem 504 (d. h. die Fahrzeug-Scheinwerfer und Rückleuchten) in einer geordneten Sequenz aktiviert. Folglich kann diese sequentielle Aktivierung der Fahrzeughupen- und Lichtsysteme ähnlich der Aktivierung eines bekannten Fahrzeugdiebstahlalarmsystems sein. Beispielsweise können die Hupen- und Lichtsysteme 502, 504 so aktiviert werden, als ob ein Fahrzeugführer in der Nähe seine ferngesteuerte Paniktaste gedrückt hätte (d. h. um die Hupe intermittierend abzuspielen und die Lichter intermittierend zu erhellen). Darüber hinaus kann die Aktivierung dieser Systeme 502, 504 in einer geordneten Sequenz auch die Aufmerksamkeit der Fußgänger und Nachbarn in der Nähe auf sich ziehen, sodass sie auf einen Notfall am Wohnort des Systembenutzers aufmerksam gemacht werden können (z. B. Einbruch oder häuslicher Überfall). Fachleute werden erkennen, dass die Fahrzeugalarmmeldung an alle Fahrzeuge gesendet werden kann, die mit der Benutzer- und/oder Wohnadresse verbunden sind und sich innerhalb der virtuellen geografischen Grenze befinden 404.
  • Im optionalen Schritt 355 sendet das Fahrzeug 12 nach der Aktivierung des Hupen- und Lichtsystems 502, 504 eine Aktivierungsanzeige an den Server 82 zurück. Als Reaktion auf das Empfangen dieser Anzeige sendet der Server 82 eine Bestätigungsnachricht, die an einem Lautsprecher (nicht dargestellt) der virtuellen Assistenzvorrichtung 53 abgespielt werden soll. Diese Bestätigung soll den Benutzer darüber in Kenntnis setzen, dass die Hupen- und Lichtsysteme des Fahrzeugs aktiviert wurden. Beispielsweise kann die Bestätigung in verschiedenen Ausführungsformen wie folgt sein: „[BENUTZERNAME], IHR(E) FAHRZEUGALARMSYSTEM(E) WURDE(N) AKTIVIERT.“
  • Im optionalen Schritt 360 schließt die Bestätigungsnachricht auch eine Abfrage, ob der Systembenutzer einen Notdienstanbieter 75 darüber informieren möchte, dass ein Notfall möglicherweise an seiner Wohnadresse vorliegt. Zum Beispiel kann die Abfrage in verschiedenen Ausführungsformen wie folgt sein: „[BENUTZERNAME], SOLLEN WIR FÜR SIE AUCH DIE POLIZEI VERSTÄNDIGEN?“ Wenn der Systembenutzer positiv auf die Abfrage reagiert (d. h. indem er „ja“ oder dergleichen sagt), dann geht das Verfahren 300 zu optionalem Schritt 375 über; andernfalls geht das Verfahren 300 zum Abschluss 302 über. Im optionalen Schritt 365 sendet der Server 82 eine Notdienstbenachrichtigung an den Notdienstanbieter 75. Beispielsweise kann die Notdienstbenachrichtigung in verschiedenen Ausführungsformen wie folgt lauten „ES BESTEHT EINE POTENZIELLE NOTFALLSITUATION IN [343 SCOTTSDALE DRIVE] Diese Benachrichtigung kann auch eine Textnachricht, die auf einem Computerbildschirm des Zentralenbetreibers innerhalb des Notdienstanbieters 75 angezeigt wird, oder ein automatischer Anruf an den Zentrale-Betreiber beim Notdienstanbieter 75 sein. Die Notdienstanbieter können darüber hinaus anhand der empfangenen Notdienstbenachrichtigung dazu veranlassen, die Situation an der Wohnstätte des Servicenutzers zu untersuchen. Nach dem optionalen Schritt 365 geht das Verfahren 300 zum Abschluss 302 über.
  • In Schritt 370 sendet der Server 82 eine Zurückweisungsmeldung zur Wiedergabe an einen Lautsprecher der virtuellen Assistenzvorrichtung 53 (nicht dargestellt). Diese Bestätigung soll den Benutzer darüber in Kenntnis setzen, dass sich das Fahrzeug 12 jenseits der Nähe der Wohnstätte des Benutzers befindet. Beispielsweise kann die Bestätigung in verschiedenen Ausführungsformen wie folgt sein „[BENUTZERNAME], KEIN(E) FAHRZEUG(E) AN IHREM WOHNSITZ VORHANDEN“
  • Im optionalen Schritt 375 schließt die Zurückweisungsmeldung auch eine Abfrage ein, ob der Systemnutzer einen Notdienstanbieter 75 informieren möchte, dass ein Notfall möglicherweise an seiner Wohnadresse vorliegt. Beispielsweise kann diese Abfrage in verschiedenen Ausführungsformen wie folgt sein „[BENUTZERNAME], MÖCHTEN SIE STATTDESSEN DIE POLIZEI VERSTÄNDIGEN?“ Wenn der Systemnutzer positiv auf die Anfrage reagiert (d. h. mit „ja“ oder dergleichen), dann geht das Verfahren 300 zu optionalem Schritt 380 über; andernfalls geht das Verfahren 300 zum Abschluss 302 über. Im optionalen Schritt 380 sendet der Server 82 eine Notdienstbenachrichtigung an den Notdienstanbieter 75. Wie vorstehend ausgeführt, kann die Notdienstbenachrichtigung wie folgt lauten „ES BESTEHT EINE POTENZIELLE NOTFALLSITUATION IN [343 SCOTTSDALE DRIVE]“ und kann eine Textnachricht sein, die auf einem Computer des Notdienstanbieters 75 angezeigt wird, oder es kann sich um einen automatischen Anruf beim Notdienstanbieter 75 handeln. Nach dem optionalen Schritt 380 geht das Verfahren 300 zum Abschluss 302 über.
  • Die hier offenbarten Prozesse, Verfahren oder Algorithmen können an eine Verarbeitungsvorrichtung, eine Steuereinheit oder einen Computer, der irgendeine bestehende programmierbare elektronische Steuereinheit oder eine dedizierte elektronische Steuereinheit einschließen kann, geliefert/implementiert werden. In ähnlicher Weise können die Prozesse, Verfahren oder Algorithmen als Daten und Anweisungen gespeichert werden, die durch eine Steuereinheit oder einen Computer in vielen Formen ausführbar sind, einschließlich aber nicht beschränkt auf Informationen, die dauerhaft auf nicht beschreibbaren Speichermedien wie ROM-Vorrichtungen gespeichert sind, und Informationen, die veränderlich auf beschreibbaren Speichermedien wie etwa Disketten, Magnetbändern, CDs, RAM-Vorrichtungen und anderen magnetischen und optischen Medien gespeichert sind. Die Prozesse, Verfahren oder Algorithmen können auch in einem von einer Software ausführbaren Objekt implementiert werden. Alternativ können die Prozesse, Verfahren oder Algorithmen gänzlich oder teilweise unter Verwendung geeigneter Hardwarekomponenten integriert werden, wie etwa anwendungsspezifische integrierte Schaltungen (ASIC), Field Programmable Gate Arrays (FPGA), Zustandsmaschinen, Steuereinheiten oder andere Hardwarekomponenten oder -vorrichtungen, oder einer Kombination von Hardware-, Software- und Firmware- Komponenten.
  • Während Ausführungsbeispiele oben beschrieben sind, ist es nicht beabsichtigt, dass diese Ausführungsformen alle möglichen Formen beschreiben, die die Ansprüche beinhalten. Die in der Beschreibung verwendeten Wörter sind eher Wörter der Beschreibung als der Einschränkung, und es versteht sich, dass verschiedene Änderungen vorgenommen werden können, ohne vom Geist und Schutzumfang der Offenbarung abzuweichen. Wie zuvor beschrieben, können die Merkmale verschiedener Ausführungsformen kombiniert werden, um weitere Ausführungsformen des Systems und/oder Verfahrens zu bilden, die möglicherweise nicht explizit beschrieben oder veranschaulicht sind. Während verschiedene Ausführungsformen beschrieben worden sein können, um Vorteile bereitzustellen oder gegenüber anderen Ausführungsformen oder Implementierungen des Stands der Technik in Bezug auf eine oder mehrere gewünschte Eigenschaften bevorzugt zu sein, erkennen Fachleute an, dass bezuüglich eines oder mehrerer Merkmale oder Eigenschaften ein Kompromiss eingegangen werden kann, um gewünschte Gesamtsystemattribute zu erzielen, die von der spezifischen Anwendung und Implementierung abhängen. Diese Attribute können Folgendes einschließen, sind aber nicht beschränkt darauf: Kosten, Festigkeit, Haltbarkeit, Lebenszykluskosten, Marktfähigkeit, Erscheinungsbild, Verpackung, Größe, Wartungsfreundlichkeit, Gewicht, Herstellbarkeit, Einfachheit des Zusammenbaus usw. Von daher sind Ausführungsformen, die als weniger vorteilhaft als andere Ausführungsformen oder Implementierungen des Standes der Technik mit Bezug auf eine oder mehrere Eigenschaften beschrieben sind, nicht außerhalb des Schutzumfangs der Offenbarung und können für bestimmte Anwendungen wünschenswert sein.
  • Räumlich bezogene Begriffe, wie zum Beispiel „innere“, „äußere“, „unterhalb“, „unter“, „untere“, „oben“, „oberen“ und dergleichen, können hierin zur Erleichterung der Beschreibung verwendet werden, um die Beziehung eines Elements oder eines Merkmals mit einem anderen Element(en) oder Merkmal(en), wie in den Figuren dargestellt, zu beschreiben. Raumbezogene Ausdrücke sollen verschiedene Ausrichtungen der Vorrichtung im Gebrauch oder Betrieb zusätzlich zu der in den Figuren abgebildeten Ausrichtung einbeziehen. Wenn die Vorrichtung in den Figuren beispielsweise umgedreht ist, würden Elemente, die als „unter“ oder „unterhalb“ von anderen Elementen oder Merkmalen beschrieben werden, dann„über“ den anderen Elementen oder Merkmalen ausgerichtet sein. Daher kann der Beispielausdruck „unter“ sowohl eine Ausrichtung über als auch unter umfassen. Die Vorrichtung kann anderweitig ausgerichtet sein (gedreht um 90 Grad oder in einer anderen Ausrichtung), sodass die hierin verwendeten raumbedingten Ausdrücke entsprechend auszulegen sind.
  • Keines der in den Ansprüchen wiedergegebenen Elemente soll ein Mittel-Plus-Funktionselement im Rahmen der Bedeutung von 35 U.S.C. §112(f) sein, es sei denn, ein Element wird ausdrücklich unter Verwendung des Ausdrucks „Mittel für“ oder im Falle eines Verfahrensanspruchs unter Verwendung des Ausdrucks „Arbeitsvorgang für“ oder „Schritt für“ in dem Anspruch angegeben.

Claims (10)

  1. Verfahren zum Fernaktivieren eines Fahrzeugalarms über einen Sprachbefehl, wobei das Verfahren Folgendes umfasst: Empfangen, über einen Prozessor, eines Sprachbefehls, um eine Haus-Notfallsequenz von einem Systembenutzer zu aktivieren; basierend auf dem Sprachbefehl, über den Prozessor, Bestimmen, ob sich ein oder mehrere Fahrzeuge in der Nähe einer Wohnstätte des Systembenutzers befinden; und wenn sich das eine oder die mehreren Fahrzeuge in der Nähe der Wohnstätte befinden, über den Prozessor, Senden einer Fahrzeugalarmmeldung an das eine oder die mehreren Fahrzeuge, wobei die Fahrzeugalarmmeldung konfiguriert ist, um eine Hupensystem und ein Lichtsystem des einen oder der mehreren Fahrzeuge in einer geordneten Sequenz zu aktivieren.
  2. Verfahren nach Anspruch 1, ferner umfassend: Empfangen, über den Prozessor, einer Anzeige, dass die Hupen- und Lichtsysteme des einen oder der mehreren Fahrzeuge aktiviert worden sind; und als Reaktion auf das Empfangen der Anzeige, über den Prozessor, Übertragen einer ersten hörbaren Benachrichtigung an den Benutzer, wobei die erste hörbare Benachrichtigung konfiguriert ist, um den Benutzer darüber in Kenntnis zu setzen, dass die Hupen- und Lichtsysteme des einen oder der mehreren Fahrzeuge aktiviert wurden, wobei die erste hörbare Benachrichtigung ferner konfiguriert ist, um abzufragen, ob der Benutzer einen Notdienstanbieter informieren möchte; und wenn der Benutzer den Notdienstanbieter informieren möchte, über den Prozessor, Senden einer Notdienstbenachrichtigung an den Notdienstanbieter, wobei die Notdienstbenachrichtigung konfiguriert ist, um den Notdienstanbieter darüber zu informieren, dass ein Notfallereignis an der Wohnstätte des Benutzers möglicherweise vorliegt.
  3. Verfahren nach Anspruch 1, ferner umfassend, wenn sich das eine oder die mehreren Fahrzeuge jenseits der Nähe der Wohnstätte befinden, über den Prozessor, Übertragen einer zweiten hörbaren Benachrichtigung an den Benutzer, wobei die zweite hörbare Benachrichtigung konfiguriert ist, um den Benutzer darüber in Kenntnis zu setzen, dass sich das eine oder die mehreren Fahrzeuge jenseits der Nähe der Wohnstätte befinden.
  4. Verfahren nach Anspruch 1, ferner umfassend: Empfangen, über den Prozessor, von Fahrzeugstandortdaten von dem einen oder den mehreren Fahrzeugen; und wobei die Bestimmung, ob sich das eine oder die mehreren Fahrzeuge in der Nähe der Wohnstätte des Systemnutzers befinden, auf den Fahrzeugstandortdaten basiert.
  5. Verfahren nach Anspruch 1, ferner umfassend: Empfangen, über den Prozessor, einer virtuellen Karte von einer entfernten Entität; Ermitteln, über den Prozessor, der Wohnstätte des Systemnutzers innerhalb der virtuellen Karte; Empfangen, über den Prozessor, von Fahrzeugstandortdaten von dem einen oder den mehreren Fahrzeugen; Ermitteln, über den Prozessor, einer virtuellen geographischen Grenze um die Wohnstätte des Systembenutzers innerhalb der virtuellen Karte; und wobei ein Fahrzeug des einen oder der mehreren Fahrzeuge als in der Nähe der Wohnstätte des Systembenutzers gelegen betrachtet wird, wenn die Fahrzeugstandortdaten zeigen, dass sich das Fahrzeug innerhalb der ermittelten virtuellen geografischen Grenze befindet.
  6. System zum Fernaktivieren eines Fahrzeugalarms über einen Sprachbefehl, wobei das System Folgendes umfasst: einen Speicher, der konfiguriert ist, um eine oder mehrere ausführbare Anweisungen zu umfassen und einen Prozessor, der konfiguriert ist, um die ausführbaren Anweisungen auszuführen, wobei die ausführbaren Anweisungen dem Prozessor Folgendes ermöglichen: Empfangen eines Sprachbefehls, um eine Haus-Notfallsequenz von einem Systembenutzer zu aktivieren; basierend auf dem Sprachbefehl, Bestimmen, ob sich ein oder mehrere Fahrzeuge in der Nähe einer Wohnstätte des Systembenutzers befinden, und wenn sich das eine oder die mehreren Fahrzeuge in der Nähe der Wohnstätte befinden, Senden einer Fahrzeugalarmmeldung an das eine oder die mehreren Fahrzeuge, wobei die Fahrzeugalarmmeldung konfiguriert ist, um ein Hupensystem und ein Lichtsystem des einen oder der mehreren Fahrzeuge in einer geordneten Sequenz zu aktivieren.
  7. System nach Anspruch 6, wobei die ausführbaren Anweisungen dem Prozessor ferner Folgendes ermöglichen: Empfangen einer Anzeige, dass die Hupen- und Lichtsysteme des einen oder der mehreren Fahrzeuge aktiviert wurden; und als Reaktion auf das Empfangen der Anzeige, Senden einer ersten hörbaren Benachrichtigung an den Benutzer, wobei die erste hörbare Benachrichtigung konfiguriert ist, um den Benutzer darüber in Kenntnis zu setzen, dass die Hupen- und Lichtsysteme des einen oder der mehreren Fahrzeuge aktiviert wurden, wobei die erste hörbare Benachrichtigung ferner konfiguriert ist, um abzufragen, ob der Benutzer einen Notdienstanbieter informieren möchte; und wenn der Benutzer den Notdienstanbieter informieren möchte, Senden einer Notdienstbenachrichtigung an den Notdienstanbieter, wobei die Notdienstbenachrichtigung konfiguriert ist, um den Notdienstanbieter darüber zu informieren, dass ein Notfallereignis an der Wohnstätte des Benutzers möglicherweise vorliegt.
  8. System nach Anspruch 6, wobei die ausführbaren Anweisungen ferner dem Prozessor ermöglichen, wenn sich das eine oder die mehreren Fahrzeuge jenseits der Nähe der Wohnstätte befinden, eine zweite hörbare Benachrichtigung an den Benutzer zu senden, wobei die zweite hörbare Benachrichtigung konfiguriert ist, um den Benutzer darüber in Kenntnis zu setzen, dass sich das eine oder die mehreren Fahrzeuge jenseits der Nähe der Wohnstätte befinden.
  9. System nach Anspruch 6, wobei die ausführbaren Anweisungen dem Prozessor ferner Folgendes ermöglichen: Empfangen von Fahrzeugstandortdaten von dem einen oder den mehreren Fahrzeugen; und wobei die Bestimmung, ob sich das eine oder die mehreren Fahrzeuge in der Nähe der Wohnstätte des Systemnutzers befinden, auf den Fahrzeugstandortdaten basiert.
  10. System nach Anspruch 6, wobei die ausführbaren Anweisungen dem Prozessor ferner Folgendes ermöglichen: Empfangen einer virtuellen Karte von einer entfernten Entität; Ermitteln der Wohnstätte des Systembenutzers innerhalb der virtuellen Karte; Empfangen von Fahrzeugstandortdaten von dem einen oder den mehreren Fahrzeugen; Ermitteln einer virtuellen geografischen Grenze um die Wohnstätte des Systembenutzers innerhalb der virtuellen Karte; und wobei ein Fahrzeug des einen oder der mehreren Fahrzeuge als in der Nähe der Wohnstätte des Systembenutzers gelegen betrachtet wird, wenn die Fahrzeugstandortdaten zeigen, dass sich das Fahrzeug innerhalb der ermittelten virtuellen geografischen Grenze befindet.
DE102019115685.8A 2018-11-20 2019-06-10 Sprachaktivierter fahrzeugalarm Withdrawn DE102019115685A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/196,648 US20200156537A1 (en) 2018-11-20 2018-11-20 Voice activated vehicle alarm
US16/196,648 2018-11-20

Publications (1)

Publication Number Publication Date
DE102019115685A1 true DE102019115685A1 (de) 2020-05-20

Family

ID=70470246

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019115685.8A Withdrawn DE102019115685A1 (de) 2018-11-20 2019-06-10 Sprachaktivierter fahrzeugalarm

Country Status (3)

Country Link
US (1) US20200156537A1 (de)
CN (1) CN111199621A (de)
DE (1) DE102019115685A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021119682A1 (de) 2021-07-29 2023-02-02 Audi Aktiengesellschaft System und Verfahren zur Sprachkommunikation mit einem Kraftfahrzeug
DE102021132306A1 (de) 2021-12-08 2023-06-15 Audi Aktiengesellschaft Kollektives Verfahren zum Betreiben einer Außenleuchte eines Fahrzeugs

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113555017A (zh) * 2021-07-08 2021-10-26 苏州宇慕汽车科技有限公司 基于ai智能语音车载氛围灯控制***及方法
FR3137629A1 (fr) * 2022-07-07 2024-01-12 Psa Automobiles Sa Système d’activation à distance de fonctionnalités disponibles dans des véhicules automobiles stationnés sur la voie publique.

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5117217A (en) * 1987-01-21 1992-05-26 Electronic Security Products Of California Alarm system for sensing and vocally warning a person to step back from a protected object
US6112116A (en) * 1999-02-22 2000-08-29 Cathco, Inc. Implantable responsive system for sensing and treating acute myocardial infarction
US8654936B1 (en) * 2004-02-24 2014-02-18 At&T Intellectual Property I, L.P. Home control, monitoring and communication system using remote voice commands
US7869824B2 (en) * 2006-09-06 2011-01-11 Byung Woo Min Cell phone with remote control system
US8818325B2 (en) * 2011-02-28 2014-08-26 Ford Global Technologies, Llc Method and system for emergency call placement
US10719785B2 (en) * 2012-03-13 2020-07-21 Zipcar, Inc. System for improved vehicle late return prediction and detection
EP2831858B1 (de) * 2012-03-31 2018-08-15 Intel Corporation Nähebasierter dienst für notfallereignisse
CN103383809A (zh) * 2013-07-21 2013-11-06 熊国顺 车辆紧急救助以及身份识别的***和应用方法
RU2704070C1 (ru) * 2015-10-21 2019-10-23 ФОРД ГЛОУБАЛ ТЕКНОЛОДЖИЗ, ЭлЭлСи Система обнаружения нахождения в пределах границ с использованием беспроводных сигналов
US20180075842A1 (en) * 2016-09-14 2018-03-15 GM Global Technology Operations LLC Remote speech recognition at a vehicle
US10325592B2 (en) * 2017-02-15 2019-06-18 GM Global Technology Operations LLC Enhanced voice recognition task completion
CN206664768U (zh) * 2017-04-11 2017-11-24 应鸿峰 一种具有家用防盗功能的车辆报警器
CN107958573A (zh) * 2017-12-25 2018-04-24 芜湖皖江知识产权运营中心有限公司 一种应用于智能车辆中的行车控制方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021119682A1 (de) 2021-07-29 2023-02-02 Audi Aktiengesellschaft System und Verfahren zur Sprachkommunikation mit einem Kraftfahrzeug
DE102021132306A1 (de) 2021-12-08 2023-06-15 Audi Aktiengesellschaft Kollektives Verfahren zum Betreiben einer Außenleuchte eines Fahrzeugs

Also Published As

Publication number Publication date
US20200156537A1 (en) 2020-05-21
CN111199621A (zh) 2020-05-26

Similar Documents

Publication Publication Date Title
DE102018128006B4 (de) Verfahren zum erzeugen von ausgaben natürlichsprachlicher generierung basierend auf dem benutzersprachstil
DE102019105269B4 (de) Verfahren zur spracherkennung mit spracherkennungs-arbitrierungslogik
DE102018103188B4 (de) Verfahren zur spracherkennung in einem fahrzeug zur verbesserung der aufgabenerledigung
DE102018125966A1 (de) System und verfahren zur erfassung von stichworten in einer unterhaltung
DE102012218938B4 (de) Verfahren zur Bereitstellung von Freihanddiensten unter Verwendung einer Mobilvorrichtung, die einen drahtlosen Zugriff auf computerbasierte Dienste aufweist
DE102019111529A1 (de) Automatisierte spracherkennung unter verwendung einer dynamisch einstellbaren hörzeitüberschreitung
DE102019115685A1 (de) Sprachaktivierter fahrzeugalarm
DE102017102392A1 (de) Automatische spracherkennung bei stockender sprechweise
DE102008034143B4 (de) Verfahren zur Umgebungsgeräuscheinkopplung für eine Spracherkennung in einem Serienfahrzeug
US10083685B2 (en) Dynamically adding or removing functionality to speech recognition systems
DE102012220796B4 (de) Verfahren zum Initiieren eines Freisprechkonferenzgesprächs
DE102017121059A1 (de) Identifikation und erzeugung von bevorzugten emoji
DE102016123616B4 (de) Bestimmen eines Standorts eines Fahrzeugbenutzers nach einem Kollisionsereignis sowie Verfahren zum Herstellen einer Kommunikation mit einem Fahrzeugbenutzer nach einem Kollisionsereignis
CN106816149A (zh) 车辆自动语音识别***的优先化内容加载
DE102017121054A1 (de) Remote-spracherkennung in einem fahrzeug
DE102012217160B4 (de) Verfahren zum Korrigieren unverständlicher synthetischer Sprache
DE102014111816A1 (de) Fahrzeugtelematikeinheit und Verfahren zum Bedienen dieser
DE102018128003A1 (de) Neuronales netzwerk zum anwenden bei der spracherkennungsarbitrierung
DE102018125564A1 (de) Reaktionsschnelle aktivierung eines fahrzeugmerkmals
DE102008062542A1 (de) Fahrzeuginterne die Umstände berücksichtigende Spracherkennung
DE102015117380B4 (de) Selektive Geräuschunterdrückung während automatischer Spracherkennung
CN105609109A (zh) 混合式自动语音识别
DE102015105876A1 (de) Verfahren zum Bereitstellen einer Betreiberunterstützung unter Verwendung eines Telematikdienstsystems eines Fahrzeugs
DE102012219020A1 (de) Architektur für mobile stimmplattform
DE102015111863A1 (de) Ergänzen kompakter fahrzeuginterner Informationsanzeigen

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: MANITZ FINSTERWALD PATENT- UND RECHTSANWALTSPA, DE

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee