DE102016103160B4 - Verfahren und Vorrichtung für eine Sprachsteuerungsbenutzerschnittstelle mit diskretem Betriebsmodus - Google Patents

Verfahren und Vorrichtung für eine Sprachsteuerungsbenutzerschnittstelle mit diskretem Betriebsmodus Download PDF

Info

Publication number
DE102016103160B4
DE102016103160B4 DE102016103160.7A DE102016103160A DE102016103160B4 DE 102016103160 B4 DE102016103160 B4 DE 102016103160B4 DE 102016103160 A DE102016103160 A DE 102016103160A DE 102016103160 B4 DE102016103160 B4 DE 102016103160B4
Authority
DE
Germany
Prior art keywords
electronic device
mode
user
processors
predefined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102016103160.7A
Other languages
English (en)
Other versions
DE102016103160A1 (de
Inventor
Boby Iyer
Kevin O. Foy
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Motorola Mobility LLC
Original Assignee
Motorola Mobility LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Motorola Mobility LLC filed Critical Motorola Mobility LLC
Publication of DE102016103160A1 publication Critical patent/DE102016103160A1/de
Application granted granted Critical
Publication of DE102016103160B4 publication Critical patent/DE102016103160B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/162Interface to dedicated audio devices, e.g. audio drivers, interface to CODECs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/22Interactive procedures; Man-machine interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/60Substation equipment, e.g. for use by subscribers including speech amplifiers
    • H04M1/6033Substation equipment, e.g. for use by subscribers including speech amplifiers for providing handsfree use or a loudspeaker mode in telephone sets
    • H04M1/6041Portable telephones adapted for handsfree use
    • H04M1/605Portable telephones adapted for handsfree use involving control of the receiver volume to provide a dual operational mode at close or far distance from the user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72454User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/225Feedback of the input speech

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • General Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Computational Linguistics (AREA)
  • Environmental & Geological Engineering (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Abstract

Verfahren, umfassend:den Betrieb einer Sprachsteuerungsschnittstellen-Engine eines elektronischen Geräts in einem ersten Modus, der wirksam ist für den Empfang eines Sprachbefehls aus einer ersten Entfernung über ein Mikrophon des elektronischen Geräts und, in Reaktion auf den Sprachbefehl, für die Erzeugung einer akustischen Ausgabe mit einem ersten Ausgabepegel, wobei in dem ersten Modus das Mikrophon mit einer ersten Verstärkungsempfindlichkeit betrieben wird;das Erfassen einer vordefinierten Benutzereingabe mit einem oder mehreren Prozessoren des elektronischen Geräts;das Veranlassen mit dem einen oder den mehreren Prozessoren, dass die Sprachsteuerungsschnittstellen-Engine in einen zweiten Modus wechselt,der wirksam ist für den Empfang des Sprachbefehls aus einer zweiten Entfernung über das Mikrophon und, in Reaktion auf den Sprachbefehl, für die Erzeugung der akustischen Ausgabe mit einem zweiten Ausgabepegel, wobei in dem zweiten Modus das Mikrophon mit einer zweiten Verstärkungsempfindlichkeit betrieben wird, wobei die zweite Verstärkungsempfindlichkeit geringer als die ersteVerstärkungsempfindlichkeit ist, wobei die zweite Entfernung kürzer ist als die erste Entfernung und wobei der zweite Ausgabepegel niedriger ist als der erste Ausgabepegel; unddas Rücküberführen der Sprachsteuerungsschnittstellen-Engine mit dem einen oder den mehreren Prozessoren in den ersten Modus, in Reaktion auf die Identifizierung einer vordefinierten Bedingung, die einen Ablauf eines Timers umfasst.

Description

  • HINTERGRUND
  • TECHNISCHES GEBIET
  • Die Erfindung betrifft allgemein elektronische Geräte und entsprechende Verfahren und insbesondere elektronische Geräte mit Spracherkennungssystemen.
  • TECHNISCHER HINTERGRUND
  • Millionen von Menschen nutzen mobile elektronische Kommunikationsgeräte wie Mobiltelefone, Smartphones, Spiele-Konsolen und dergleichen. Die Besitzer von mobilen Kommunikationsgeräten nutzen diese für viele verschiedene Zwecke, unter anderem für Sprachkommunikation und Datenkommunikation für Textmitteilungen, zum Surfen im Internet, für Geschäfte wie Banking und für die soziale Vernetzung.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Der technologische Fortschritt bei diesen Vorrichtungen bzw. Geräten geht einher mit einem Fortschritt ihrer Funktionsgruppen. Vor nicht allzu langer Zeit hatten sämtliche elektronischen Geräte zum Beispiel noch Tastaturen, während man heute sehr viel öfter berührungsempfindliche Displays als Benutzerschnittstellenvorrichtungen sieht. Ähnlich war die einzige Möglichkeit für eine Benutzereingabe in ein Gerät eine Berührung - entweder über eine Tastatur oder über ein berührungsempfindliches Display. Heutige Geräte sind zum Teil mit einer Spracherkennung ausgestattet, die es dem Benutzer erlaubt, Befehle einzusprechen statt einzutippen.
  • Aus der WO 2014/163284 A1 ist ein Verfahren zum Steuern der Ausgabe von Audioinformationen bei einem Mobilterminal unter Verwendung von Spracherkennung bekannt, wobei die Audioausgabe in Abhängigkeit von der Nähe eines Benutzers zu dem Mobilterminal und der empfangenen Lautstärke von dessen Stimme unterdrückt wird oder nicht.
  • Die US 6 925 296 B2 offenbart ein Verfahren zum Bestimmen der Entfernung zwischen einem Mobiltelefon und einem Benutzer, wobei in dem Verfahren ein Lautsprecher des Mobiltelefons ein akustisches Steuersignal aussendet und ein Mikrophon des Mobiltelefons das unmittelbare oder reflektierte Steuersignal empfängt. Je nachdem, wo sich der Benutzer befindet, wird die Lautstärke der Lautsprecher angepasst.
  • Die JP 2014 - 21 425 A betrifft eine Vorrichtung zum Erfassen eines Abstandes eines Lautsprechers von einem Mikrofon des Geräts.
  • Dennoch ist der technologische Fortschritt gelegentlich mit unvorhergesehenen Problemen verbunden. Als zum Beispiel drahtlose Nahfeldgeräte wie Freisprech-Headsets aufgekommen sind, begannen die Menschen, ihre Telefongespräche über kleine Ohrhörer zu führen, während sich ihr Mobiltelefon in der Tasche oder in einer Handtasche befand. Der ahnungslose Beobachter musste den Eindruck haben, als seien diese technologisch fortschrittlichen Menschen verrückt, weil sie - wie es schien - Selbstgespräche führten. Einige derjenigen, die diese Technologie als erste übernommen hatten, hielten ihr Mobilgerät überflüssigerweise weiter in der Hand, nur um zu demonstrieren, dass sie telefonierten und nicht mit der Luft sprachen.
  • Es wäre vorteilhaft, für solch unvorhergesehene Probleme, die als Ergebnis des technologischen Fortschritts bei elektronischen Geräten auftreten, über zusätzliche Lösungen in Form eines verbesserten Geräts, eines verbesserten Verfahrens oder über beides zu verfügen.
  • KURZE BESCHREIBUNG DER ZEICHUNGEN
    • 1 zeigt einen Benutzer, der mit einem elektronischen Gerät gemäß dem Stand der Technik interagiert, das über eine Spracherkennungsmöglichkeit verfügt;
    • 2 zeigt in einem schematischen Blockdiagramm ein beispielhaftes elektronisches Gerät gemäß einer oder mehreren Ausführungsformen der Erfindung;
    • 3 zeigt ein beispielhaftes Verfahren gemäß einer oder mehreren Ausführungsformen der Erfindung;
    • 4 zeigt einen alternativen Verfahrensschritt, der für die Anwendung in beispielhaften Verfahren gemäß einer oder mehreren Ausführungsformen der Erfindung geeignet ist;
    • 5 zeigt einen alternativen Verfahrensschritt, der für die Anwendung in beispielhaften Verfahren gemäß einer oder mehreren Ausführungsformen der Erfindung geeignet ist;
    • 6 zeigt ein weiteres beispielhaftes Verfahren gemäß einer oder mehreren Ausführungsformen der Erfindung;
    • 7 zeigt ein weiteres beispielhaftes Verfahren gemäß einer oder mehreren Ausführungsformen der Erfindung;
  • Der Fachmann wird erkennen, dass Elemente in den Figuren im Hinblick auf eine einfache und deutliche Darstellung und deshalb nicht notwendigerweise maßstabsgetreu gezeigt sind. Es können daher einige Elemente im Vergleich zu anderen Elementen übertrieben dargestellt sein. Dies soll helfen, vorliegende Erfindung besser zu verstehen.
  • DETAILBESCHREIBUNG DER ZEICHNUNGEN
  • Bevor Ausführungsformen der vorliegenden Erfindung im Detail beschrieben werden, ist anzumerken, dass die Ausführungsformen hauptsächlich in Kombinationen von Verfahrensschritten und Vorrichtungskomponenten liegen, die sich auf den Wechsel einer Sprachsteuerungsschnittstellen-Engine eines elektronischen Geräts von einem ersten Modus, in dem Sprachbefehle aus einer ersten Entfernung empfangen werden und mit einer akustischen Ausgabe mit einem ersten Ausgabepegel erwidert werden, in einen zweiten Modus, in dem Sprachbefehle nur aus einer zweiten, kürzeren Entfernung empfangen werden und eine akustische Ausgabe mit einem zweiten, niedrigeren Ausgabepegel geliefert wird. Ablaufbeschreibungen oder Blöcke in einem Flussdiagramm können Module, Segmente oder Abschnitte eines Codes sein, die spezifische logische Funktionen einer Maschine oder Schritte in einem Prozess implementieren oder die alternativ spezifische Hardwarekomponenten in verschiedene Betriebszustände oder Betriebsmoden überführen. Es sind auch alternative Implementierungen eingeschlossen, und es versteht sich, dass Funktionen in einer anderen als der dargestellten oder erläuterten Reihenfolge ausgeführt werden können, wobei die Reihenfolge im Wesentlichen übereinstimmend oder umgekehrt sein kann, abhängig von der eingebundenen Funktionalität.
  • Es versteht sich, dass Ausführungsformen der beschriebenen Erfindung aus einem oder mehreren üblichen Prozessoren und einmalig gespeicherten Programmbefehlen bestehen können, die den einen oder die mehreren Prozessoren steuern, um in Verbindung mit Nichtprozessorschaltkreisen einige, die meisten oder alle Funktionen des Übergangs einer Sprachsteuerungsschnittstellen-Engine eines elektronischen Geräts zwischen einem ersten Modus und einem zweiten Modus zu implementieren, wie vorliegend beschrieben. Die Nichtprozessorschaltkreise können Mikrophone, Lautsprecher, Akustikverstärker, Digital-Analog-Wandler, Signaltreiber, Taktschaltungen, Stromversorgungsschaltungen und Benutzereingabevorrichtungen umfassen, sind jedoch nicht auf diese beschränkt. Solchermaßen können diese Funktionen als Schritte eines Verfahrens zum Durchführen des Wechsels einer Sprachsteuerungsschnittstellen-Engine zwischen einem ersten Betriebsmodus und einem zweiten Betriebsmodus interpretiert werden. Alternativ könnten einige oder alle Funktionen durch eine Zustandsmaschine, die keine gespeicherten Programmbefehle enthält, oder in einer oder mehreren anwendungsspezifischen integrierten Schaltungen (ASICs) implementiert sein, in denen jede Funktion oder manche Kombinationen von bestimmten dieser Funktionen als maßgeschneiderte Logik implementiert sind. Es könnte aber auch eine Kombination von beiden Ansätzen verwendet werden. Aus diesem Grund sind vorliegend Verfahren und Mittel für diese Funktionen beschrieben. Ferner wird erwartet, dass der Durchschnittsfachmann trotz eines möglichen bedeutenden Aufwands und trotz vieler Wahlmöglichkeiten für die Ausgestaltung, die zum Beispiel durch die verfügbare Zeit, die aktuelle Technologie und durch wirtschaftliche Überlegungen motiviert sind, ohne weiteres in der Lage ist, bei minimalem Experimentieren solche Softwarebefehle und Programme und ICs zu generieren.
  • Ausführungsformen der Erfindung werden nunmehr im Detail beschrieben. Dabei wird auf die Zeichnungen Bezug genommen, in denen gleiche Elemente durchgehend mit gleichen Bezugszeichen gekennzeichnet sind. Die in der Beschreibung und in den Ansprüchen verwendeten Begriffe haben ausdrücklich die ihnen zugeordnete Bedeutung, sofern der Kontext nichts anderes vorschreibt. Die Bedeutung von „ein/e/r“ und „der/die/das“ umfasst auch den Pluralbezug. Die Bedeutung von „in“ umfasst auch „in“ und „bei“. Relationale Begriffe wie „erste/r/s“ und „zweite/r/s“, „oben“ und „unten“ und dergleichen werden lediglich verwendet, um eine Einheit von einer weiteren Einheit oder Aktion zu unterscheiden, ohne notwendigerweise eine solche Beziehung oder Reihenfolge zwischen solchen Einheiten oder Aktionen zu erfordern oder zu implizieren. In der vorliegenden Beschreibung können Komponenten „wirkverbunden“ sein, wenn Informationen zwischen solchen Komponenten auch übertragen werden können, wenn gegebenenfalls eine oder mehrere Komponenten auf dem Verbindungweg oder entlang des Verbindungsweges zwischengeschaltet sind. Außerdem weisen Bezugszeichen, die in Klammern gesetzt sind, darauf hin, dass Komponenten in einer anderen Figur als der soeben erläuterten Figur dargestellt sind. Wird bei der Erläuterung von Figur A zum Beispiel eine Vorrichtung (10) erwähnt, würde sich diese auf ein Element 10 beziehen, das in einer anderen Figur als Figur A gezeigt ist.
  • Ausführungsformen der Erfindung stellen Verfahren und Vorrichtungen für den Wechsel einer Sprachsteuerungsschnittstellen-Engine, die in einem elektronischen Gerät wirksam ist, zwischen einem normalen Betriebsmodus und einem diskreten bzw. vertraulichen Betriebsmodus dar. In einer Ausführungsform ist eine Sprachsteuerungsschnittstellen-Engine wirksam für den Empfang von Sprachbefehlen und für die Lieferung von akustischen Antworten an einen Benutzer. Zum Beispiel kann die Sprachsteuerungsschnittstellen-Engine einen Sprachbefehl empfangen, in welchem der Benutzer eine Frage stellt. Das elektronische Gerät kann dann in Reaktion auf den Empfang dieses Sprachbefehls das Internet nach einer Antwort durchsuchen und dem Benutzer die Antwort als akustische Ausgabe präsentieren.
  • In Ausführungsformen der Erfindung wird berücksichtigt, dass eine unvorhergesehene Folge eines Spracherkennungssystems ist, dass ein Benutzer gegebenenfalls nicht möchte, dass die akustische Ausgabe von Passanten mitgehört wird. Dies gilt insbesondere, wenn die akustische Ausgabe persönliche Informationen enthält. Im Hinblick auf dieses unvorhergesehene Problem werden durch Ausführungsformen der Erfindung in vorteilhafter Weise ein Verfahren und eine Vorrichtung bereitgestellt, das/die veranlasst, dass die Sprachsteuerungsschnittstellen-Engine in einen „diskreten“ Betriebsmodus wechselt.
  • In einer Ausführungsform ist eine Sprachsteuerungsschnittstellen-Engine, die in einem elektronischen Gerät wirksam ist, in einem ersten Modus wirksam. In einer Ausführungsform ist der erste Modus ein normaler Betriebsmodus oder Standardbetriebsmodus. Wenn die Sprachsteuerungsschnittstellen-Engine in diesem Modus arbeitet, ist diese wirksam für den Empfang eines Sprachbefehls aus einer ersten Entfernung über ein Mikrophon. Die Sprachsteuerungsschnittstellen-Engine erzeugt anschließend in Reaktion auf den Sprachbefehl eine akustische Ausgabe mit einem ersten Ausgabepegel über einen Lautsprecher. Beispielsweise kann die Sprachsteuerungsschnittstellen-Engine wirksam sein für den Empfang von Sprachbefehlen von einem Benutzer, der sich in einer Entfernung von 60 cm, 90 cm oder mehr (1 Fuß, 2 Fuß oder mehr) befindet, und für die anschließende Lieferung einer akustischen Ausgabe an einen Lautsprecher mit einem Pegel, der ausreicht, damit der Benutzer die Ausgabe aus derselben Entfernung hören kann.
  • In dem elektronischen Gerät arbeiten auch ein oder mehrere Prozessoren, die mit einem oder mehreren Sensoren betrieben werden können. In einer Ausführungsform können ein oder mehrere Prozessoren mit dem einen oder den mehreren Sensoren arbeiten, um eine vordefinierte Benutzereingabe zu erfassen. Beispiele der vordefinierten Benutzereingabe umfassen ein vordefiniertes Bewegen des elektronischen Geräts, eine vordefinierte Gesteneingabe, die Detektion des sich unmittelbar am Kopf des Benutzers befindenden elektronischen Geräts oder die Betätigung eines Benutzer-Betätigungsziels des elektronischen Geräts. Wenn dies der Fall ist, sind die Prozessoren in einer Ausführungsform wirksam für die Überführung der Sprachsteuerungsschnittstellen-Engine in einen zweiten Modus, der wirksam ist für den Empfang des Sprachbefehls aus einer zweiten Entfernung und für die Erzeugung einer akustischen Ausgabe mit dem zweiten Ausgabepegel in Reaktion auf den Sprachbefehl. In einer Ausführungsform ist die zweite Entfernung kürzer als die erste Entfernung und der zweite Ausgabepegel niedriger als der erste Ausgabepegel. Dieser zweite Betriebsmodus, d.h. der diskrete bzw. vertrauliche Modus, ermöglicht dem Benutzer die Erteilung von Sprachbefehlen mit einer wesentlich geringeren Lautstärke und den Empfang der Antwort mit einem Pegel, bei dem andere nicht mithören können. Im diskreten Betriebsmodus kann der Benutzer zum Beispiel Sprachbefehle in das Mikrophon flüstern und hört die akustische Antwort über Ohrhörer-Lautsprecher und nicht über einen Lautsprecher.
  • Es wird auf 1 Bezug genommen. Hier ist ein elektronisches Gerät 100 gemäß dem Stand der Technik gezeigt, das mit einer sprachgesteuerten Benutzerschnittstelle ausgebildet ist. Ein Beispiel eines solchen elektronischen Geräts 100 ist in der veröffentlichten US-Patentanmeldung US 2014 / 0 278 443 A1 von Gunn et al. beschrieben, auf deren Inhalt hiermit verwiesen wird. Im Wesentlichen hat das elektronische Gerät 100 gemäß dem Stand der Technik eine sprachgesteuerte Benutzerschnittstelle für den Empfang einer Sprachbefehl-Phrase, für die Identifizierung des Sprachbefehl-Phrasensegments und für die Durchführung eines Steuerungsvorgangs in Reaktion auf das Segment. In einer Ausführungsform ist der Steuerungsvorgang die Ausgabe einer akustischen Antwort.
  • 1 zeigt einen Benutzungsfall, der ein unvorhergesehenes Problem aufzeigt, das mit der ansonsten äußerst vorteilhaften Funktionalität verbunden ist, über die man durch die sprachgesteuerte Benutzerschnittstelle verfügt. Ein Benutzer 101 erteilt in normaler Konversationslautstärke einen Sprachbefehl 102, der fragt: „Wie hoch ist der Sears Tower?“ Das elektronische Gerät 100 gemäß dem Stand der Technik, das seine sprachgesteuerte Benutzerschnittstelle und eine oder mehrere weitere Anwendungen nutzt, holt die Antwort aus einer entfernten Quelle und sagt die Antwort in einer akustischen Ausgabe 103 an. In diesem Fall erfolgt die Ansage der Antwort in einer ausreichenden Lautstärke, so dass der Benutzer 101 die Ansage aus mehren Metern (Fuß) Entfernung hören kann: „Vierhundertzweiundvierzig Meter“ (vierzehnhunderteinundfünzig Fuß).
  • Bezüglich 1 sind zwei Dinge anzumerken. Durch die Bequemlichkeit, die durch die sprachgesteuerte Benutzerschnittstelle geboten wird, war der Benutzer 101 erstens in der Lage, eine Quizfrage einfach durch Sprechen zu erurieren. Der Benutzer 101 musste weder eine Buch noch einen Computer oder eine andere Person befragen. Das elektronische Gerät 100 hat die Antwort einfach gefunden und bereitgestellt.
  • Zweitens ist die akustische Ausgabe 103 mit einem Pegel erfolgt, der ausreichte, damit der Benutzer 101 die Antwort aus der Distanz hören konnte. In Ausführungsformen wird jedoch berücksichtigt, dass die Antwort, wenn sie der Benutzer 101 aus einigen Metern Entfernung hören konnte, auch von einem Passanten oder einem Lauscher gehört werden kann. In Ausführungsformen der Erfindung wird berücksichtigt, dass es den Benutzer 101 gegebenenfalls nicht tangiert, wenn einer dritter bei der Antwort auf die Frage: „Wie hoch ist der Sears Tower“, mithört. Wenn der Benutzer allerdings den Sprachbefehl eingegeben hat: „Spiele mir meine Sprachmitteilung vor“, möchte der Benutzer gegebenenfalls nicht, dass ein Dritter mithört, wenn sein Arzt ihm die Diagnose mitteilt. Ähnlich möchte der Benutzer 101 vielleicht auch nicht, dass Dritte zuhören, wenn er eine Beziehung beendet oder wenn Kraftausdrücke fallen, weil zum Beispiel ein Geburtstag vergessen wurde. Ausführungsformen der Erfindung stellen in vorteilhafter Weise eine Vorrichtung und ein Verfahren bereit, die/das einen Wechsel einer Sprachsteuerungsschnittstellen-Engine in einen zweiten, diskreten bzw. vertraulichen Betriebsmodus veranlasst, in dem Vertrauliches wie die Mitteilung einer medizinischen Diagnose, das Beenden einer Beziehung oder Kraftausdrücke nur von der Person gehört wird, für die diese Mitteilung etc. bestimmt ist.
  • Es wird auf 2 Bezug genommen, in der ein erläuterndes elektronisches Gerät 200 dargestellt ist, das gemäß einer oder mehreren Ausführungsformen der Erfindung konfiguriert ist. Das elektronische Gerät 200 von 2 ist ein tragbares elektronisches Gerät und ist zu Darstellungszwecken ein Smartphone. Der Fachmann wird jedoch erkennen, dass das Smartphone von 1 auch durch andere elektronische Geräte bzw. Vorrichtungen ersetzt werden kann. Zum Beispiel könnte das elektronische Gerät 200 ebenso gut ein Palmtop-Computer, ein Tablet-Computer, eine Spielekonsole, ein Mediaplayer oder ein sonstiges Gerät sein.
  • Dieses erläuternde elektronische Gerät 200 hat ein Display 202, das optional berührungsempfindlich sein kann. In einer Ausführungsform, in der das Display 202 berührungsempfindlich ist, kann das Display als primäre Benutzerschnittstelle 211 des elektronischen Geräts 200 dienen. Die Benutzer können Benutzereingaben in das Display 202 einer solchen Ausführungsform vornehmen, indem sie für die Berührungseingabe den Finger, einen Stift oder einen anderen in der Nähe des Displays verfügbaren Gegenstand benutzen. In einer Ausführungsform ist das Display 202 ein organisches Leuchtdioden-Display (AMOLED = engl. active matrix organic light emitting diode). Es können aber auch andere Arten von Displays verwendet werden, unter anderem zum Beispiel Flüssigkristallanzeigen, wie sich das dem Fachmann aus vorliegender Offenbarung erschließen würde.
  • Das erläuternde elektronische Gerät 200 von 2 hat ein Gehäuse 201. In einer Ausführungsform hat das Gehäuse 201 zwei Gehäuseelemente. Ein frontseitiges Gehäuseelement 227 ist in einer Ausführungsform rund um die Peripherie des Displays 202 angeordnet. Ein rückseitiges Gehäuseelement 228 bildet die Rückseite des elektronischen Geräts 200 in dieser erläuternden Ausführungsform und definiert eine rückseitige Hauptfläche des elektronischen Geräts. In die Gehäuseelemente 227, 228 können Features integriert sein. Beispiele solcher Features sind unter anderem eine optionale Kamera 229 oder ein optionaler Lautsprecher-Port 232, der oben auf einem Lautsprecher angeordnet ist. In dieser Ausführungsform sind diese Features auf der rückseitigen Hauptfläche des elektronischen Geräts 200 angeordnet dargestellt, könnten jedoch auch an einer anderen Stelle liegen. In dieser erläuternden Ausführungsform kann eine Benutzerschnittstellenkomponente, die eine Taste 214 oder eine berührungsempfindliche Fläche sein kann, auch entlang des rückseitigen Gehäuseelements 228 angeordnet sein.
  • In einer Ausführungsform hat das elektronische Gerät 200 einen oder mehrere Anschlüsse 212, 213, die einen Analoganschluss, einen Digitalanschluss oder eine Kombination derselben umfassen können. In dieser erläuternden Ausführungsform ist der Anschluss 212 ein Analoganschluss, der an einer ersten Kante, d.h. an einer Oberkante des elektronischen Geräts 200, angeordnet ist, während der Anschluss 213 ein Digitalanschluss ist, der an der zweiten Kante angeordnet ist, die der ersten Kante gegenüberliegt und die in dieser Ausführungsform die Unterkante ist.
  • 2 zeigt auch ein schematisches Blockdiagramm 215 des elektronischen Geräts 200. In einer Ausführungsform hat das elektronische Gerät 200 einen oder mehrere Prozessoren 216. In einer Ausführungsform können der eine oder die mehreren Prozessoren 216 einen Anwendungsprozessor und optional einen oder mehrere Hilfsprozessoren umfassen. Der Anwendungsprozessor oder der(die) Hilfsprozessor(en) oder beide können einen oder mehrere Prozessoren umfassen. Der Anwendungsprozessor oder der(die) Hilfsprozessor(en) oder beide können ein Mikrocomputer, eine Gruppe von Verarbeitungskomponenten, eine oder mehrere ASICs, eine programmierbare Logik oder eine andere Art einer Verarbeitungsvorrichtung sein. Der Anwendungsprozessor oder der(die) Hilfsprozessor(en) können mit den verschiedenen Komponenten des elektronischen Geräts 200 betrieben werden. Der Anwendungsprozessor und der(die) Hilfsprozessor(en) können jeweils konfiguriert sein für die Verarbeitung und Ausführung eines ausführbaren Softwarecodes, um die verschiedenen Funktionen des elektronischen Geräts 200 auszuführen. Eine Speichereinrichtung wie ein Speicher 218 kann den ausführbaren Softwarecode, der während des Betriebs von dem einen oder den mehreren Prozessoren 216 verwendet wird, optional speichern.
  • In dieser erläuternden Ausführungsform enthält das elektronische Gerät 200 auch eine Kommunikationsschaltung 225, die für eine drahtgebundene oder drahtlose Kommunikation mit einer oder mehreren anderen Geräten/Vorrichtungen oder Netzwerken konfiguriert sein kann. Die Netzwerke können ein Weitverkehrsnetz, ein lokales Netz und/oder ein persönliches Netz umfassen. Beispiele von Weitverkehrsnetzen sind unter anderem GSM, CDMA, W-CDMA, CDMA-2000, iDEN, TDMA, 3GPP GSM-Netze der 2,5. Generation, 3GPP WCDMA-Netze der 3. Generation, 3GPP Long Term Evolution-(LTE)-Netze und 3GPP2 CDMA-Kommunikationsnetze, UMTS-Netze, E-UTRA-Netze, GPRS-Netze, iDEN-Netze und andere Netze.
  • Die Kommunikationsschaltung 225 kann für die Kommunikation auch die drahtlose Technologie nutzen, unter anderem zum Beispiel eine Peer-to-Peer oder Ad-hoc-Kommunikation wie HomeRF, Bluetooth und IEEE 802.11 (a, b, g oder n), ohne hierauf beschränkt zu sein; und andere Formen von drahtloser Kommunikation wie die Infrarot-Technologie. Die Kommunikationsschaltung 225 kann drahtlose Kommunikationsschaltkreise, einen Empfänger oder einen Sender oder einen Sendeempfänger und eine oder mehrere Antennen 226 umfassen.
  • In einer Ausführungsform können der eine oder die mehreren Prozessoren 216 verantwortlich sein für die Ausführung der primären Funktionen der elektronischen Vorrichtung 200. Zum Beispiel können der eine oder die mehreren Prozessoren 216 in einer Ausführungsform eine oder mehrere Schaltungen aufweisen, die mit einer oder mehreren Benutzerschnittstellenvorrichtungen betätigt werden können, die das Display 202 enthalten können, um dem Benutzer Informationen zu präsentieren. Der ausführbare Softwarecode, der von dem einen oder den mehreren Prozessoren 216 verwendet wird, kann in Form eines oder mehrerer Module 220 konfiguriert sein, die mit dem einen oder den mehreren Prozessoren 216 betrieben werden können. Solche Module 220 können Befehle, Steueralgorithmen logische Schritte usw. speichern.
  • In einer Ausführungsform können ein oder mehrere Näherungssensoren 208 mit dem einen oder den mehreren Prozessoren 216 betrieben werden. In einer Ausführungsform umfassen der eine oder die mehreren Näherungssensoren 208 einen oder mehrere Signalempfänger und Signalsender. Die Signalsender emittieren elektromagnetische oder Infrarotsignale, die von Objekten zu den Signalempfängern reflektiert werden, wodurch ein Objekt erfasst wird, das sich in der Nähe des elektronischen Geräts 200 befindet. Es ist anzumerken, dass jeder der Näherungssensoren 208 einem beliebigen Näherungssensortyp entsprechen kann, unter anderem zum Beispiel einem kapazitiven, magnetischen, induktiven, optisch/photoelektrischen Näherungssensor, Laser-Näherungssensor, akustischen/Schall-Näherungssensor, auf Radar oder Doppler basierenden Näherungssensor, thermischen und auf Strahlung basierenden Näherungssensor, ohne hierauf beschränkt zu sein. Weitere Arten von Sensoren erschließen sich dem Fachmann aus der vorliegenden Offenbarung.
  • In einer Ausführungsform können einer oder mehrere Näherungssensoren 208 Infrarot-Näherungssensoren sein, die einen Infrarotlichtstrahl übertragen, der von einem nahen Objekt reflektiert wird und der von einem entsprechenden Signalempfänger empfangen wird. Die Näherungssensoren 208 können zum Beispiel verwendet werden, um die Entfernung zu einem nahen Objekt anhand der den reflektierten Signalen zugeordneten Charakteristiken zu berechnen. Die reflektierten Signale werden durch den entsprechenden Signalempfänger erfasst. Hier kann es sich um eine Infrarot-Photodiode handeln, die verwendet wird, um das von einer Leuchtdiode (LED) reflektierte Licht zu erfassen, um auf modulierte Infrarotsignale zu antworten und/oder um eine Triangulation von empfangenen Infrarotsignalen durchzuführen. Die reflektierten Signale können auch verwendet werden für den Empfang einer Benutzereingabe in das elektronische Gerät 200 durch Berührung oder durch Gesten des Benutzers.
  • In einer Ausführungsform können der eine oder die mehreren Prozessoren 216 auf der Basis von Informationen, die von einem oder mehren Näherungssensoren 208 empfangen werden, Befehle generieren. Der eine oder die mehreren Prozessoren 216 können die Befehle auf der Basis von Informationen generieren, die von dem einen oder den mehreren Näherungssensoren 208 in Kombination mit einem oder mehreren weiteren Sensoren 209 empfangen werden. Alternativ können der eine oder die mehreren Prozessoren 216 Befehle auf der Basis von Informationen generieren, die alleine von dem einen oder den mehreren weiteren Sensoren 209 empfangen werden. Auf diese Weise können der eine oder die mehreren Prozessoren 216 die empfangenen Informationen alleine oder in Kombination mit anderen Daten wie beispielsweise in dem Speicher 218 gespeicherten Informationen verarbeiten.
  • Der eine oder die mehreren Sensoren 209 können ein Mikrophon 240, einen Ohrhörer-Lautsprecher 241, einen zweiten Lautsprecher (der unter dem Lautsprecher-Port 232 angeordnet ist) und eine mechanische Eingabekomponente wie eine Taste 214 umfassen. Der eine oder die mehreren Sensoren 209 können auch Tastenwahlsensoren, einen Touchpad-Sensor, einen Touchscreen-Sensor und einen oder mehrere Schalter umfassen. Touchscreen-Sensoren können verwendet werden zum Anzeigen, ob eines der Benutzer-Betätigungsziele 204, 205, 206, 207, die auf dem Display 207 vorhanden sind, gerade betätig wird. Alternativ können Berührungssensoren in dem Gehäuse 201 verwendet werden zum Bestimmen, ob das elektronische Gerät 200 an den Seitenkanten berührt wird, wodurch angezeigt wird, ob der Benutzer das elektronische Gerät 200 in einer gewissen Weise ausrichtet oder bewegt. Die weiteren Sensoren 209 können auch kapazitive Oberflächen/Gehäuse-Sensoren, Audiosensoren und Videosensoren (wie beispielsweise eine Kamera) umfassen.
  • Die weiteren Sensoren 209 können auch Bewegungsdetektoren 242 wie Beschleunigungsmesser oder Gyroskope umfassen. Zum Beispiel kann ein Beschleunigungsmesser in die elektronische Schaltung des elektronischen Geräts 200 eingebaut sein, um eine vertikale Orientierung, eine konstante Neigung und/oder einen stationären Zustand des Geräts anzuzeigen. Die Bewegungsdetektoren 242 sind auch wirksam für die Detektion einer Bewegung des elektronischen Geräts 200 durch den Benutzer. In einer oder in mehreren Ausführungsformen können die weiteren Sensoren 209 und die Bewegungsdetektoren 242 als Gestendetektor verwendet werden. In einer Ausführungsform kann ein Benutzer zum Beispiel eine Eingabe durch eine Geste vornehmen, indem er in unmittelbarer Nähe des elektronischen Geräts 200 eine Hand oder einen Arm in einer vorgegebenen Weise bewegt. In einer weiteren Ausführungsform kann die Gesteneingabe durch Berührung des Displays 202 erfolgen. In einer noch weiteren Ausführungsform kann die Gesteneingabe erfolgen, indem das elektronische Gerät 200 geschüttelt oder auf andere Weise gezielt bewegt wird. Weitere Arten einer Gesteneingabe erschließen sich dem Fachmann aus der vorliegenden Offenbarung.
  • Weitere Komponenten, die mit dem einen oder den mehreren Prozessoren 216 betrieben werden können, können Ausgabekomponenten 243 wie Videoausgänge, Audioausgänge 244 und/oder mechanische Ausgänge umfassen. Beispiele von Ausgabekomponenten umfassen Audioausgänge 244 wie einen Lautsprecher-Port 232, Ohrhörer-Lautsprecher 241 oder weitere Alarmeinrichtungen und/oder Summer und/oder mechanische Ausgabekomponenten wie einen Vibrationsmechanismus oder auf Bewegung basierende Mechanismen.
  • In einer Ausführungsform sind der eine oder die mehreren Prozessoren 216 wirksam für eine Änderung der Verstärkung an dem Mikrophon 240, so dass die Spracheingabe eines Benutzers aus verschiedenen Entfernungen erfolgen kann. In einer Ausführungsform sind der eine oder die mehreren Prozessoren 216 zum Beispiel wirksam für den Betrieb des Mikrophons 240 in einem ersten Modus mit einer ersten Verstärkungsempfindlichkeit, so dass das Gerät Sprachbefehle eines Benutzers aus einer Entfernung von mehr als 0,3 m (1 Fuß) empfangen kann. Wenn das elektronische Gerät 200 zum Beispiel ein Smartphone ist, können der eine oder die mehreren Prozessoren 216 das Mikrophon 240 in einem ersten Modus mit einer ersten Verstärkungsempfindlichkeit betreiben, damit eine Spracheingabe eines Benutzers zum Beispiel im Lautsprechermikrophon-Betriebsmodus empfangen werden kann. Ähnlich können der eine oder die mehreren Prozessoren 216, wenn das elektronische Gerät 200 mit einer Sprachsteuerungsschnittstellen-Engine 245 ausgebildet ist, das Mikrophon 240 in einem ersten Modus mit einer ersten Verstärkungsempfindlichkeit betreiben, um eine Spracheingabe eines Benutzers zu empfangen, der mehrere Meter (Fuß) entfernt ist. Dies würde bewirken, dass das Mikrophon 240 arbeitet wie das Mikrophon des elektronischen Geräts (100) von 1 gemäß dem Stand der Technik, bei dem Sprachbefehle (102) aus mehreren Metern (Fuß) Entfernung empfangen werden konnten.
  • In einer Ausführungsform können der eine oder die mehreren Prozessoren 216 ferner wirksam sein für den Betrieb des Mikrophons 240 in einem zweiten Modus mit einer zweiten Verstärkungsempfindlichkeit für den Empfang einer Spracheingabe eines Benutzers. In einer Ausführungsform ist die zweite Verstärkungsempfindlichkeit geringer als die erste Verstärkungsempfindlichkeit. Das Ergebnis ist, dass Spracheingaben aus kürzeren Entfernungen mit niedrigeren Pegeln empfangen werden. Ist das elektronische Gerät 200 ein Smartphone, können zum Beispiel der eine oder die mehreren Prozessoren 216 das Mikrophon in einem zweiten Modus mit einer zweiten Verstärkungsempfindlichkeit für den Empfang von Spracheingaben eines Benutzers betreiben, wenn der Benutzer das elektronische Gerät 200 an sein Gesicht hält. Da sich das Mikrophon 240 nahe an dem Mund des Benutzers befindet, kann diese zweite, geringere Verstärkungsempfindlichkeit verwendet werden, um Spracheingaben des Benutzers einzufangen, deren Lautstärke geringer ist. Wenn das elektronische Gerät 200 mit einer Sprachsteuerungsschnittstellen-Engine 245 ausgebildet ist, können der eine oder die mehreren Prozessoren 216 das Mikrophon 240 ähnlich in einem zweiten Modus mit einer zweiten Verstärkungsempfindlichkeit betreiben, um Spracheingaben des Benutzers zum empfangen, dessen Mund nur 2,5 cm oder weniger (ein Inch oder weniger) von dem Mikrophon 240 entfernt ist. Dies trägt nicht nur dazu bei, dritte Personen und Lauscher am Mithören einer Konversation im diskreten Betriebsmodus zu hindern, sondern ist auch hilfreich in einer lauten Umgebung, da der Benutzer seine Befehle in direkter Nähe des Mikrophons in das Mikrophon spricht.
  • Ähnlich können der eine oder die mehreren Prozessoren 216 einen oder beide Ohrhörer-Lautsprecher 241 und/oder die Lautsprecher unter dem Lautsprecher-Port 232 entweder in einem ersten Modus oder in einem zweiten Modus betreiben. In einer Ausführungsform sind der eine oder die mehreren Prozessoren 216 wirksam für die Änderung einer Verstärkung beider Lautsprecher, so dass ein Benutzer die akustische Ausgabe aus dem elektronischen Gerät 200 in verschiedenen Entfernungen hören kann. In einer Ausführungsform zum Beispiel sind der eine oder die mehreren Prozessoren 216 wirksam für den Betrieb eines oder beider Ohrhörer-Lautsprecher 241 und/oder des Lautsprechers unter dem Lautsprecher-Port 232 in einem ersten Modus mit einer ersten Verstärkung, so dass die akustische Ausgabe mit einem ersten Pegel erzeugt wird. In einer Ausführungsform ist der erste Ausgabepegel eine Lautstärke, die ausreicht, damit die akustische Ausgabe mehr als 0,30 m (1 Fuß) von dem Gerät entfernt gehört werden kann. Wenn das elektronische Gerät 200 ein Smartphone ist, können der eine oder die mehreren Prozessoren 216 zum Beispiel einen oder beide Ohrhörer-Lautsprecher 241 und/oder den Lautsprecher unter dem Lautsprecher-Port 232 in einem ersten Modus mit einer ersten Verstärkung betreiben, um eine größere Lautstärke zu erzeugen, wenn das Gerät zum Beispiel in einem Lautsprechermikrophon-Modus arbeitet. Wenn das elektronische Gerät 200 mit einer Sprachsteuerungsschnittstellen-Engine 245 ausgebildet ist, können der eine oder die mehreren Prozessoren 216 den einen oder beide Ohrhörer-Lautsprecher 241 und/oder den Lautsprecher unter dem Lautsprecher-Port 232 in einem ersten Modus mit einer ersten Verstärkung betreiben, um eine akustische Ausgabe mit einem ersten Ausgabepegel zu erzeugen, so dass ein Benutzer die akustische Ausgabe aus mehreren Metern (Fuß) Entfernung hören kann. Dies würde bewirken, dass einer oder beide Ohrhörer-Lautsprecher 241 und/oder der Lautsprecher unter dem Lautsprecher-Port 232 arbeiten wie der Lautsprecher des elektronischen Geräts (100) von 1 gemäß dem Stand der Technik, bei dem die akustische Ausgabe (103) in mehreren Metern (Fuß) Entfernung gehört werden konnte.
  • In einer Ausführungsform können der eine oder die mehreren Prozessoren 216 ferner einen oder beide Ohrhörer-Lautsprecher 241 und/oder den Lautsprecher unter dem Lautsprecher-Port 232 in einem zweiten Modus mit einer zweiten Verstärkung betreiben, um eine akustische Ausgabe mit dem zweiten Ausgabepegel zu erzeugen. In einer Ausführungsform ist die zweite Verstärkung geringer als die erste Verstärkung, so dass der zweite Ausgabepegel eine geringere Lautstärke ist als der erste Ausgabepegel. Das Ergebnis ist, dass die akustische Ausgabe wegen der niedrigeren Ausgabepegel nur in kürzeren Entfernungen zu hören ist. Wenn das elektronische Gerät 200 ein Smartphone ist, können der eine oder die mehreren Prozessoren 216 einen oder beide Ohrhörer-Lautsprecher 241 und/oder den Lautsprecher unter dem Lautsprecher-Port 232 in einem zweiten Modus mit einer zweiten Verstärkung betreiben, um eine für einen Benutzer vernehmbare Ausgabe zu liefern, wenn der Benutzer das elektronische Gerät 200 an sein Gesicht hält. Da sich der Ohrhörer-Lautsprecher 241 sehr nahe am Ohr des Benutzers befindet, kann die zweite, geringere Verstärkung verwendet werden zum Liefern einer akustischen Ausgabe mit einer geringeren Lautstärke, um das Trommelfell des Benutzers nicht zu überreizen. Ähnlich können der eine oder die mehreren Prozessoren 216, wenn das elektronische Gerät 200 mit einer Sprachsteuerungsschnittstellen-Engine 245 konfiguriert ist, einen oder beide Ohrhörer-Lautsprecher 241 und/oder den Lautsprecher unter dem Lautsprecher-Port 232 in einem zweiten Modus mit einer zweiten Verstärkung betreiben, um an dem Ohr eines Benutzers eine akustische Ausgabe zu liefern, wenn der Ohrhörer-Lautsprecher 241 nur 2,54 cm (1 Inch) von dem Ohrhörer-Lautsprecher 241 entfernt ist. In einer Ausführungsform ist dieser zweite Betriebsmodus, d.h. der Betriebsmodus, in dem der zweite Ausgabepegel schwächer ist als der erste Ausgabepegel, als „diskreter“ Betriebsmodus bekannt.
  • In einer Ausführungsform müssen der eine oder die mehreren Prozessoren 216 bei Betrieb in dem ersten Modus und in dem zweiten Modus zwischen dem Ohrhörer-Lautsprecher 241 und dem Lautsprecher unter dem Lautsprecher-Port 232 wechseln. Zum Beispiel kann der Ohrhörer-Lautsprecher 241 einen schwachen Treiber haben, der eine akustische Ausgabe über nur wenige Millimeter liefert. Der Lautsprecher unter dem Lautsprecher-Port 232 hingegen kann einen stärkeren Treiber haben, der eine akustische Ausgabe über größere Entfernungen liefern kann. Wenn dies der Fall ist, können der eine oder die mehreren Prozessoren 216 bei Betrieb im ersten Modus alle Audioausgaben über den Lautsprecher-Port 232 liefern. Bei Betrieb im zweiten Modus können der eine oder die mehreren Prozessoren 216 die gesamte akustische Ausgabe über den Ohrhörer-Lautsprecher 241 liefern. Daher ist die Sprachsteuerungsschnittstellen-Engine 245 in einer oder in mehreren Ausführungsformen im zweiten Modus wirksam für die Ausgabe der akustischen Ausgabe über einen zweiten Lautsprecher, z.B. einen Ohrhörer-Lautsprecher 241, der sich von dem in dem ersten Modus wirksamen Lautsprecher, d.h. dem Lautsprecher-Port 232, unterscheidet.
  • In einer Ausführungsform können die Ausgabekomponenten 243 Analog-Digital-Wandler (ADCs), Digital-Analog-Wandler (DACs), Echounterdrückung, Hochpassfilter, Tiefpassfilter, Bandpassfilter, einstellbare Bandpassfilter, Rauschunterdrückungsfilter, eine automatische Verstärkungssteuerung (AGC) und eine weitere Audioverarbeitung umfassen, die zum Filtern von Audiogeräuschen verwendet bzw. angewendet werden können. Diese Einrichtungen können beispielsweise verwendet werden, um Geräusche zu filtern, die von dem Mikrophon 240 empfangen werden. Die Ausgabekomponenten 243 können eine Einzelkomponente sein, wie in 2 dargestellt, oder können zum Teil in Hardware und zum Teil in Software oder Firmware implementiert sein, die durch den einen oder die mehreren Prozessoren 216 ausgeführt werden. In manchen Ausführungsformen können die Ausgabekomponenten 243 mit Hilfe verschiedener Hardwarekomponenten implementiert sein und können auch eine oder mehrere Softwarekomponenten oder Firmwarekomponenten in verschiedenen Kombinationen nutzen. Die Ausgabekomponenten 243 können wirksam sein für die Steuerung eines oder beider Ohrhörer-Lautsprecher 241 und/oder des Lautsprechers unter dem Lautsprecher-Port 232 und/oder zum wahlweisen Anschalten oder Abschalten diese Ausgabeeinrichtungen. Zusätzlich können die Ausgabekomponenten 243 für die vorstehend beschriebenen verschiedenen Zwecke die Filterung oder Verstärkung eines oder beider Ohrhörer-Lautsprecher 241 und/oder des Lautsprechers unter dem Lautsprecher-Port 232 einstellen/anpassen.
  • In einer oder in mehreren Ausführungsformen enthält das elektronische Gerät 200 eine Sprachsteuerungsschnittstellen-Engine 245. Die Sprachsteuerungsschnittstellen-Engine 245 kann in einer Ausführungsform Hardware, einen ausführbaren Code und einen ausführbaren Sprachmonitor-Code umfassen. Diese Sprachsteuerungsschnittstellen-Engine 245 kann in dem Speicher 218 gespeichert enthalten: Basissprachmuster, antrainierte Sprachmuster oder andere Module, die von der Sprachsteuerungsschnittstellen-Engine 245 verwendet werden, um Sprachbefehle zu empfangen und zu identifizieren. In einer Ausführungsform kann die Sprachsteuerungsschnittstellen-Engine 245 eine Spracherkennungs-Engine enthalten. Ungeachtet der speziellen Implementierung in den verschiedenen Ausführungsformen kann die Sprachsteuerungsschnittstellen-Engine 245 auf verschiedene Sprachmuster zugreifen, um die Sprachbefehle zu identifizieren.
  • In einer Ausführungsform ist die Sprachsteuerungsschnittstellen-Engine 245 konfiguriert für die Implementierung eines Sprachsteuerungsmerkmals, das es einem Benutzer erlaubt, ein spezielles auslösendes Stichwort zu sprechen, auf welches dann ein Befehl folgt, um zu veranlassen, dass der eine oder die mehreren Prozessoren 216 eine Operation ausführen. Als auslösendes Stichwort könnte der Benutzer sagen: „Okay, Telefon, Fertig, Los!“ Danach kann der Benutzer einen Befehl bzw. ein Kommando sprechen, z.B.: „Wie hoch ist der Sears Tower?“ Diese Kombination eines auslösenden Stichworts mit einem Befehl kann bewirken, dass der eine oder die mehreren Prozessoren 216 auf ein Anwendungsmodul 247, z.B. auf einen Web Browser, zugreifen, um nach der Antwort zu suchen und diese dann über eine Ausgabekomponente 243 als akustische Ausgabe zu präsentieren. In dem ersten Betriebsmodus zum Beispiel können der eine oder die mehreren Prozessoren 216 die Antwort über den Lautsprecher 232 als akustische Ausgabe mit einem ersten Ausgabepegel liefern. In dem diskreten Betriebsmodus können der eine oder die mehreren Prozessoren 216 über den Ohrhörer-Lautsprecher 241 die Antwort als akustische Ausgabe mit einem zweiten, leiseren Ausgabepegel liefern. Kurz zusammengefasst: In einer Ausführungsform horcht die Sprachsteuerungsschnittstellen-Engine 245 nach Sprachbefehlen, verarbeitet die Befehle und antwortet mit einer akustischen Ausgabe, die das Ergebnis des Vorhabens des Benutzers ist.
  • In einer oder in mehreren Ausführungsformen sind der eine oder die mehreren Prozessoren 216 wirksam für den Wechsel der Sprachsteuerungsschnittstellen-Engine 245 zwischen dem ersten und dem zweiten Modus oder diskreten Modus in Reaktion auf die Erfassung einer vordefinierten Benutzereingabe. In einer Ausführungsform ist die vordefinierte Benutzereingabe eine Gesteneingabe, die durch die Näherungssensoren 208 ermittelt wird. In einer weiteren Ausführungsform ist die vordefinierte Benutzereingabe eine Bewegung des elektronischen Geräts 200, die durch die Bewegungsdetektoren 242 oder die weiteren Sensoren 209 detektiert wird. In einer weiteren Ausführungsform ist die vorgegebene Benutzereingabe, dass ein Benutzer das Display 202 des elektronischen Geräts 200 an sein Gesicht hält, was durch die Näherungssensoren 208 festgestellt wird. In einer noch weiteren Ausführungsform ist die vordefinierte Benutzereingabe eine Betätigung eines Betätigungsziels 204, 205, 206, 207 mit dem Finger oder mit einem Stift. Viele dieser Beispiele werden nachstehend mit Bezug auf die 3 bis 5 näher erläutert. Weitere bzw. andere Beispiele erschließen sich dem Fachmann aus der vorliegenden Offenbarung.
  • In einer oder in mehreren Ausführungsformen ist die Sprachsteuerungsschnittstellen-Engine 245 in einem ersten Modus wirksam für den Empfang eines Sprachbefehls aus einer ersten Entfernung über das Mikrophon 240 und für die Erzeugung einer akustischen Ausgabe mit einem ersten Ausgabepegel in Reaktion auf den Sprachbefehl. In einer Ausführungsform wird die akustische Ausgabe einem Benutzer über den Lautsprecher-Port 232 präsentiert.
  • Der eine oder die mehreren Prozessoren 216 sind dann wirksam für die Erfassung einer vordefinierten Benutzereingabe. In einer Ausführungsform umfasst die vordefinierte Benutzereingabe eine vordefinierte Bewegung des elektronischen Geräts 200 durch den Einsatz der Bewegungsdetektoren 242 zum Bestimmen einer räumlichen Orientierung des elektronischen Geräts 200 in dem dreidimensionalen Raum durch die Detektion einer Schwerkraftrichtung. Ähnlich können die Bewegungsdetektoren 242 oder weitere Sensoren 209 ein oder mehrere Gyroskope für die Detektion einer Drehbewegung des elektronischen Geräts umfassen. Das Gyroskop kann eingesetzt werden zum Bestimmen der räumlichen Drehung des elektronischen Geräts in dem dreidimensionalen Raum. Jedes derselben lässt sich für die Erfassung einer Gesteneingabe verwenden.
  • In einer oder in mehreren Ausführungsformen sind der eine oder die mehreren Prozessoren 216 nicht nur für die Erfassung einer Gesteneingabe, sondern auch einer vorgegebenen Charakteristik einer Gesteneingabe ausgebildet. Beispiele solcher Charakteristiken sind unter anderem die Dauer, Intensität, Nähe, Genauigkeit, Kontaktkraft der Gesten oder Kombinationen dieser Eigenschaften. Wenn der eine oder die mehreren Prozessoren 216 eine solche vorgegebene Charakteristik erfassen, kann diese zum Steuern der Sprachsteuerungsschnittstellen-Engine 245 und zu deren Umschalten zwischen einem ersten Betriebsmodus und einem zweiten Betriebsmodus verwendet werden.
  • In einer Ausführungsform sind der eine oder die mehreren Prozessoren 216 wirksam für einen Wechsel der Sprachsteuerungsschnittstellen-Engine 245 in einen zweiten Betriebsmodus, welcher in einer Ausführungsform der diskrete Betriebsmodus ist, wenn eine Erfassung einer vordefinierten Benutzereingabe stattfindet. Im diskreten Betriebsmodus ist die Sprachsteuerungsschnittstellen-Engine 245 wirksam für den Empfang von Sprachbefehlen aus einer zweiten Entfernung, die kürzer ist als die dem ersten Modus zugeordnete erste Entfernung. Ferner kann die Sprachsteuerungsschnittstellen-Engine 245 wirksam sein für die Erzeugung einer akustischen Ausgabe mit einem zweiten Ausgabepegel, der niedriger ist als der erste Ausgabepegel, in Reaktion auf die empfangenen Sprachbefehle. In einer Ausführungsform werden diese leiseren Ausgabekommandos dem Benutzer über den Ohrhörer-Lautsprecher 241 präsentiert.
  • Indem ein Benutzer zum Bewirken eines Wechsels der Sprachsteuerungsschnittstellen-Engine 245 die vordefinierte Benutzereingabe macht, kann dieser den Vorteil des sprachgesteuerten Betriebs nutzen, ohne dass dritte Personen oder Lauscher die in Form einer akustischen Ausgabe bereitgestellte Information hören. Dadurch wird das in 1 gezeigte unvorhergesehene Problem gelöst, dass Zuschauer die akustische Antwort mithören konnten. Wenn der Benutzer vorhat, eine vertrauliche Voicemail abzuhören, gibt der Benutzer ganz einfach die vordefinierte Benutzereingabe in das elektronische Gerät 200 ein, um zu bewirken, dass der eine oder die mehreren Prozessoren 216 die Sprachsteuerungsschnittstellen-Engine 245 in den diskreten Betriebsmodus schalten, wie nachstehend mit Bezug auf 3 erläutert. Wie bereits ausgeführt wurde, kann die vordefinierte Benutzereingabe beliebig eine Gesteneingabe, eine Eingabe durch Berührung, ein vorgegebenes Bewegen des elektronischen Geräts 200 oder eine andere vordefinierte Geste sein.
  • Es versteht sich, dass das elektronische Gerät 200 und die Architektur von 2 lediglich Beispielzwecken und der Darstellung von Komponenten des elektronischen Geräts 200 gemäß Ausführungsformen der Erfindung dienen und nicht als eine vollständige schematische Darstellung der für ein elektronisches Gerät benötigten verschiedenen Komponenten gedacht sind. Daher können andere elektronische Geräte gemäß Ausführungsformen der Erfindung verschiedene andere Komponenten enthalten, die in 2 nicht dargestellt sind, oder sie können zwei oder drei Komponenten in Kombination oder eine Aufteilung einer bestimmten Komponente in zwei oder mehr separate Komponenten umfassen, ohne den Rahmen der vorliegenden Erfindung zu verlassen.
  • Es wird nunmehr auf 3 Bezug genommen, in der ein Verfahren 300 zum Benutzen eines elektronischen Geräts 200 gemäß einer oder mehreren Ausführungsformen der Erfindung dargestellt ist. In Schritt 301 ist ein Benutzer 305 gezeigt, der das elektronische Gerät 200 in der Hand hält. In Schritt 301 arbeitet das elektronische Gerät 200 in einem Standard-Betriebsmodus, welcher der erste Betriebsmodus ist, in welchem die Sprachsteuerungsschnittstellen-Engine (245) wirksam ist für den Empfang eines Sprachbefehls aus einer ersten Entfernung und, in Reaktion auf den Sprachbefehl, für die Erzeugung einer akustischen Ausgabe mit einem ersten Ausgabepegel. Solchermaßen würde das elektronische Gerät 200 exakt wie das elektronische Gerät (100) von 1 gemäß dem Stand der Technik funktionieren, wenn dieses sich in dem ersten Betriebsmodus befindet. Der Benutzer 305 könnte in einer normalen Konversationslautstärke einen Sprachbefehl eingeben und fragen: „Wie hoch ist der Sears Tower?“, und das elektronische Gerät 200 würde mit einer akustischen Ausgabe antworten, die der Benutzer 305 in einigen Metern (Fuß) Entfernung hören könnte.
  • In 3 jedoch möchte der Benutzer 305 vertrauliche Informationen hören, die dritte Personen nicht hören sollen. Dementsprechend macht der Benutzer 305 in Schritt 301 eine vordefinierte Benutzereingabe 306, wozu er das elektronische Gerät 200, das er auf Höhe seiner Taille 307 hält, zu seinem Kopf 308 führt. Die vordefinierte Benutzereingabe 306 dieses erläuternden Schritts 301 umfasst also das Bewegen des elektronischen Geräts 200 von einer ersten Höhe 309 in eine zweite Höhe 310, die größer ist als die erste Höhe 309.
  • In Schritt 302 erfassen, 311, der eine oder die mehreren Prozessoren (216) die vordefinierte Benutzereingabe 306. In Schritt 303 veranlassen, 312, der eine oder die mehreren Prozessoren (216), dass die Sprachsteuerungsschnittstellen-Engine (245) in einen zweiten Modus wechselt. Wie in Schritt 304 dargestellt ist, ist die Sprachsteuerungsschnittstellen-Engine (245) in dem zweiten Modus wirksam für den Empfang des Sprachbefehls 313 aus einer zweiten Entfernung und, in Reaktion auf den Sprachbefehl, für die Erzeugung einer akustischen Ausgabe mit einem zweiten Ausgabepegel. Hier fragt der Benutzer 305: „Um welche Uhrzeit bin ich mit Buster verabredet?“ Die akustische Ausgabe 314, die wegen der geringeren Lautstärke von keinem Lauscher mitgehört werden kann, lautet: „Um 19.00 in Mac's Restaurant.“
  • In einer Ausführungsform ist die zweite Entfernung kürzer als die erste Entfernung in dem ersten Modus. Ferner ist der Ausgabepegel niedriger als der erste Ausgabepegel. Dies ist in den Zeichnungen anhand des Vergleichs zwischen 1 und 3 dargestellt. In 1 befindet sich der Benutzer 101 in einer ersten Entfernung 104 von dem elektronischen Gerät 100 gemäß dem Stand der Technik. In 3 befindet sich der Benutzer 305 in einer zweiten Entfernung 315 von dem elektronischen Gerät 200, die kürzer ist als die erste Entfernung (104). Der zweite Ausgabepegel ist durch den kleiner gedruckten Text der akustischen Ausgabe 314 von 3 dargestellt, während der Text der akustischen Ausgabe (103) von 1 größer gedruckt dargestellt ist.
  • In einer weiteren Ausführungsform ist die vordefinierte Benutzereingabe 306 nicht ein Bewegen des elektronischen Geräts 200 von einer Höhe 309 zu einer nächsten Höhe 310. Stattdessen wird in einer weiteren Ausführungsform die vordefinierte Benutzereingabe 306 durch die Näherungssensoren (208) detektiert, die mit dem einen oder den mehreren Prozessoren (216) betrieben werden können. In einer weiteren Ausführungsform können die Näherungssensoren (208) in Schritt 304 zum Beispiel detektieren, dass sich das elektronische Gerät etwa am Kopf 308 des Benutzers befindet. Ist dies der Fall, können der eine oder die mehreren Prozessoren (216) bewirken, dass die Sprachsteuerungsschnittstellen-Engine (245) in einen zweiten Modus wechselt, der wirksam ist für den Empfang von Sprachbefehlen 313 aus einer zweiten Entfernung 315 und, in Reaktion auf den Sprachbefehl 313, für die Erzeugung der akustischen Ausgabe mit dem zweiten Ausgabepegel, wie vorstehend erläutert.
  • Es wird auf 4 Bezug genommen, in der eine weitere vordefinierte Benutzereingabe 406 dargestellt ist. In dieser Ausführungsform umfasst die vordefinierte Benutzereingabe 406 eine Geste in der Luft, die benutzt werden kann, um den Wechsel der Sprachsteuerungsschnittstellen-Engine (245) in einen zweiten Modus zu bewirken, der wirksam ist für den Empfang von Sprachbefehlen aus einer zweiten Entfernung und, in Reaktion auf den Sprachbefehl, für die Erzeugung der akustischen Ausgabe mit dem zweiten Ausgabepegel, wie vorstehend erläutert.
  • In einigen Ausführungsformen können die Näherungssensoren (208) und/oder die weiteren Sensoren (209) konfiguriert sein für die Detektion einer solch vordefinierten Gesteneingabe. Zum Beispiel können die Näherungssensoren (208) in einer Ausführungsform einen Infrarotdetektor umfassen. Eine Gesteneingabe in der Luft kann anhand von Infrarotsignal-Reflexionen von einem Benutzer erfasst werden, während letzterer in nächster Nähe zu den Näherungssensoren (208) Gesten macht. In einer weiteren Ausführungsform umfassen die Näherungssensoren (208) eine Abbildungsvorrichtung wie eine Kamera. In einer solchen Ausführungsform kann die Eingabe einer Geste in der Luft durch die Aufnahme von aufeinanderfolgenden Bildern von einem Benutzer, der diese Gesten in unmittelbarer Nähe der Abbildungsvorrichtung macht, erfasst werden. In einer noch weiteren Ausführungsform wird die Eingabe der Geste in der Luft durch Licht erfasst. Die Näherungssensoren (208) können einen Lichtsensor umfassen, der konfiguriert ist für Erfassung von Änderungen der optischen Intensität, der Farbe, des Lichts oder des Schattens in der Nähe des elektronischen Geräts 200. Der Lichtsensor kann aufeinanderfolgende Ablesewerte der Leuchtstärke, der Farbe oder anderer räumlicher Abweichungen zwischen Abbildungen vergleichen, um eine Bewegung oder die Anwesenheit eines Objekts in der Nähe des elektronischen Geräts 200 zu erfassen. In einer noch weiteren Ausführungsform können die Näherungssensoren (208) eine oder mehrere Einrichtungen umfassen, die ein elektromagnetisches oder elektrostatisches Feld emittieren, wobei ein Empfänger dann die Reflexionen des Feldes von dem nahegelegenen Objekt empfängt. Die Näherungssensoren (208) erfassen Änderungen des empfangenen Feldes, um Positionsänderungen von nahegelegenen Objekten auf der Basis von Änderungen des elektromagnetischen oder elektrostatischen Feldes zu detektieren, die das Ergebnis dessen sind, dass das Objekt eine Lage in der Nähe eines Sensors einnimmt.
  • In 4 macht der Benutzer 305 in einigen Zentimetern (Inches) Höhe über dem Display 402 eines elektronischen Geräts 400 eine winkende Handbewegung, um die Geste in der Luft zu generieren. Eine Benutzerschnittstelle enthält einen Gestendetektor und kann innerhalb eines Bereichs von etwa 13 cm (etwa 5 Inches) von dem elektronischen Gerät 400 Gesten in der Luft erfassen. Indem also der Benutzer 305 seine Hand hin und her bewegt, kann er bewirken, dass die Sprachsteuerungsschnittstellen-Engine (245) in einen zweiten Modus wechselt, der wirksam ist für den Empfang von Sprachbefehlen aus einer zweiten Entfernung und, in Reaktion auf den Sprachbefehl 313, für die Erzeugung einer akustischen Ausgabe mit einem zweiten Ausgabepegel.
  • Es sollte beachtet werden, dass in einer Ausführungsform die Geste in der Luft in zwei Dimensionen um das elektronische Gerät 400 möglich ist. In einer weiteren Ausführungsform sind die Bewegungen bzw. Gesten in der Luft in drei Dimensionen um das elektronische Gerät 400 möglich. Wenn die vordefinierte Gesteneingabe Bewegungen in drei Dimensionen um das elektronische Gerät 400 umfasst, ist eine größere Anzahl von Gesten als vordefinierte Benutzereingabe verfügbar. Ein einfaches Beispiel einer dreidimensionalen Eingabe könnte eine winkende Geste, d.h. Bewegungen in in der Luft, sein, auf die eine Bewegung nach oben folgt, als eine Bewegung in einer dritten Dimension. Weitere vordefinierte Bewegungen erschließen sich dem Fachmann aus der vorliegenden Offenbarung.
  • Es wird auf 5 Bezug genommen. In dieser Ausführungsform erfolgt die vordefinierte Benutzereingabe, indem der Benutzer 305 ein Betätigungsziel 206 berührt. Auf diese Weise wird eine direktere Methode zum Eingeben einer vordefinierten Benutzereingabe in das elektronische Gerät 200 bereitgestellt, um zu bewirken, dass die Sprachsteuerungsschnittstellen-Engine (245) in einen zweiten Modus wechselt, der wirksam ist für den Empfang des Sprachbefehls aus einer zweiten Entfernung und, in Reaktion auf den Sprachbefehl, für die Erzeugung der akustischen Ausgabe mit einem zweiten Ausgabepegel.
  • Weitere Beispiele einer vordefinierten Benutzereingabe erschließen sich dem Fachmann aus der vorliegenden Offenbarung. In dem in 1 gezeigten Beispiel gemäß dem Stand der Technik ist das Gerät 100 gemäß dem Stand der Technik ein Gerät (200), das gemäß Ausführungsformen der vorliegenden Erfindung konfiguriert ist. Ein weiteres Beispiel einer vordefinierten Benutzereingabe wäre, das elektronische Gerät (200) von einer ersten Position, die von dem Benutzer 101 entfernt ist, zum Beispiel eine Position auf dem Tisch 105, in eine zweite Position nahe an einem Benutzer 101, d.h. nahe an den Kopf 106 oder an das Gesicht 107 des Benutzers, zu bewegen. In einem der vorgenannten Beispiele sind der eine oder die mehreren Prozessoren (216), die mit den Näherungssensoren (208) und/oder mit weiteren Sensoren (209) arbeiten, wirksam für die Identifizierung der vordefinierten Gesteneingabe und für die Veranlassung der Sprachsteuerungsschnittstellen-Engine (245), in den zweiten Modus zu wechseln, der wirksam ist für den Empfang des Sprachbefehls aus einer zweiten Entfernung und, in Reaktion auf den Sprachbefehl, für die Erzeugung der akustischen Ausgabe mit dem zweiten Ausgabepegel.
  • Ausführungsformen der Erfindung berücksichtigen, dass das elektronische Gerät (200), nachdem die Sprachsteuerungsschnittstellen-Engine (245) einmal in den zweiten Modus gebracht wurde, in den ersten Betriebsmodus rücküberführt werden soll, damit das elektronische Gerät wie in 1 dargestellt benutzt werden kann. Es gibt vielfältige Möglichkeiten, dies zu bewerkstelligen. Es wird nunmehr auf 6 Bezug genommen, in der eine solche Ausführungsform dargestellt ist.
  • In Schritt 601 arbeitet das elektronische Gerät 200 in dem zweiten Modus, in welchem Sprachbefehle 313 mit einer geringeren Lautstärke empfangen und akustische Antworten mit dem zweiten, leiseren Ausgabepegel bereitgestellt werden. In diesem Beispiel setzt der Benutzer 305 die Konversation ab Schritt (304) in 3 fort, da der Sprachbefehl lautet, den Benutzer an die Verabredung mit Buster um 18.00 Uhr zu erinnern. Die generierte akustische Ausgabe 314 lautet „Erinnerung eingestellt.“
  • Der diskrete Betriebsmodus ist damit für den Benutzer 305 beendet. Dementsprechend kann der Benutzer 305 in einer Ausführungsform die Sprachsteuerungsschnittstellen-Engine (245) in den ersten Betriebsmodus rücküberführen, wenn das Vorliegen einer vordefinierten Bedingung identifiziert wird. In 6 ist die vordefinierte Bedingung, dass das elektronische Gerät 200 umgekehrt bewegt wird, was in Schritt 605 durch einen oder beide Näherungssensoren (208) und/oder durch weitere Sensoren (209) identifiziert wird, 605. Ist dies der Fall, sind der eine oder die mehreren Prozessoren (216) in einer Ausführungsform in Schritt 603 wirksam für die Rückführung, 606, der Sprachsteuerungsschnittstellen-Engine (245) in den ersten Betriebsmodus.
  • Ebenso wie die vordefinierte Benutzereingabe, die den Wechsel der Sprachsteuerungsschnittstellen-Engine (245) in den zweiten Modus bewirkt, kann auch die vordefinierte Bedingung in beliebiger Anzahl vorhanden sein. In einer weiteren Ausführungsform zum Beispiel kann die vordefinierte Bedingung eine Gesteneingabe sein, wie diese beispielsweise in 4 gezeigt ist. In einer noch weiteren Ausführungsform kann die vordefinierte Bedingung die Betätigung eines Betätigungsziels des Benutzers sein, wie in 5 gezeigt. Wenn der Benutzer 305 zum Beispiel eine Taste (214) oder ein Benutzer-Betätigungsziel (206) berührt, um das elektronische Gerät 200 in den Energiesparmodus oder den Schlafmodus zu setzen, können der eine oder die mehreren Prozessoren (216) die Sprachsteuerungsschnittstellen-Engine (245) in einer oder in mehreren Ausführungsformen in den ersten Betriebsmodus rücküberführen, welcher der Standard-Betriebsmodus ist.
  • Das elektronische Gerät 200 enthält ferner einen Timer (246). Sobald die Interaktion mit dem Benutzer abgeschlossen ist, z.B. wenn der Benutzer 305 die Eingabe seines Sprachbefehls 313 in Schritt 601 beendet hat, können der eine oder die mehreren Prozessoren (216) den Timer (246) starten. Wenn der Timer (246) abgelaufen ist, können der eine oder die mehreren Prozessoren (216) die Sprachsteuerungsschnittstellen-Engine (245) in den ersten Betriebsmodus rücküberführen, indem der Ablauf des Timers (246) als vordefinierte Bedingung identifiziert bzw. erkannt wird.
  • Es wird auf 7 Bezug genommen, in der ein Verfahren 700 gemäß einer oder mehreren Ausführungsformen der Erfindung dargestellt ist. In Schritt 701 enthält das Verfahren 700 den Betrieb einer Sprachsteuerungsschnittstellen-Engine eines elektronischen Geräts in einem ersten Modus. In einer Ausführungsform ist das elektronische Gerät, wenn es in Schritt 701 in dem ersten Modus arbeitet, wirksam für den Empfang eines Sprachbefehls aus einer ersten Entfernung und, in Reaktion auf den Sprachbefehl, für die Erzeugung einer akustischen Ausgabe mit dem ersten Ausgabepegel.
  • Bei Entscheidung 702 erfasst das Verfahren 700 eine vordefinierte Benutzereingabe. In einer Ausführungsform erfolgt die Entscheidung 702 durch einen oder mehrere Prozessoren des elektronischen Geräts. In einer Ausführungsform umfasst die vordefinierte Benutzereingabe in Entscheidung 702 eine vordefinierte Gesteneingabe. Zum Beispiel kann die vordefinierte Gesteneingabe enthalten, dass das elektronische Gerät von einer ersten in eine zweite Höhe bewegt wird. In einer Ausführungsform ist die zweite Höhe größer als die erste Höhe. In einer weiteren Ausführungsform umfasst die vordefinierte Gesteneingabe, dass das elektronische Gerät von einer ersten Position, die von einem Benutzer entfernt ist, in eine zweite Position nahe dem Benutzer bewegt wird. In einer Ausführungsform befindet sich die zweite Position am Kopf des Benutzers, wie durch einen oder mehrere Näherungssensoren erfasst.
  • In einer Ausführungsform umfasst die vordefinierte Benutzereingabe in Entscheidung 702 das Ausführen einer vordefinierten Bewegung um das elektronische Gerät. In einer weiteren Ausführungsform umfasst die vordefinierte Benutzereingabe in Entscheidung 702 eine Betätigung eines Benutzer-Betätigungsziels des elektronischen Geräts. Weitere Beispiele von vordefinierten Benutzereingaben erschließen sich dem Fachmann aus der vorliegenden Offenbarung.
  • In Schritt 703 identifiziert das Verfahren 700 die in dem Entscheidungsschritt 702 empfangene vordefinierte Benutzereingabe. In Schritt 704 veranlasst das Verfahren 700 den Wechsel der Sprachsteuerungsschnittstellen-Engine in einen zweiten Modus, der wirksam ist für den Empfang des Sprachbefehls aus einer zweiten Entfernung und, in Reaktion auf den Sprachbefehl, für die Erzeugung der akustischen Ausgabe mit dem zweiten Ausgabepegel. In einer Ausführungsform ist die zweite Entfernung in Schritt 704 kürzer als die erste Entfernung in Schritt 701. In einer Ausführungsform ist der zweite Ausgabepegel in Schritt 704 niedriger als der erste Ausgabepegel in Schritt 701. In dem optionalen Schritt 705 umfasst das Verfahren 700 die Umleitung der akustischen Ausgabe auf einen Ohrhörer-Lautsprecher des elektronischen Geräts.
  • In Entscheidung 706 erfasst das Verfahren 700 eine vordefinierte Bedingung, die einen Ablauf eines Timers umfasst. In einer Ausführungsform umfasst die vordefinierte Bedingung den Ablauf des Timers nach Abschluss der Interaktion des Benutzers mit dem elektronischen Gerät. Sobald die Interaktion des Benutzers abgeschlossen ist, z.B. wenn der Benutzer fertig ist mit der Eingabe des Sprachbefehls, kann ein Timer gestartet werden. Nach Ablauf des Timers kann das Verfahren 700 die Sprachsteuerungsschnittstellen-Engine in den ersten Betriebsmodus rücküberführen, indem der Ablauf des Timers als vordefinierte Bedingung identifiziert bzw. erkannt wird. Ist die vordefinierte Bedingung gegeben, setzt das Verfahren 700 die Sprachsteuerungsschnittstellen-Engine in Reaktion auf die Identifizierung der vordefinierten Bedingung in Schritt 707 zurück in den ersten Modus.
  • Vorstehend wurden bestimmte Ausführungsformen der vorliegenden Erfindung beschrieben. Der Fachmann wird jedoch erkennen, dass verschiedene Modifikationen und Änderungen möglich sind, ohne den Rahmen der Erfindung zu verlassen, der durch die anliegenden Ansprüche definiert ist. Wenngleich die Erfindung anhand von bevorzugten Ausführungsformen beschrieben wurde, ist die Erfindung nicht auf diese Ausführungsformen beschränkt. Zahlreiche Modifikationen, Änderungen, Variationen, Substitutionen und Äquivalente erschließen sich dem Fachmann, ohne den Rahmen der Erfindung zu verlassen, der durch die anliegenden Ansprüche definiert ist. Die Beschreibung und die Figuren dienen allein dem Zweck der Darstellung und sind nicht als Einschränkung gedacht. Sämtliche Modifikationen sind in dem Rahmen der vorliegenden Offenbarung erfasst. Nutzen, Vorteile und Lösungen von Problemen sowie jedes Element oder jegliche Elemente, das/die zu einem solchen Nutzen, Vorteil und einer solchen Lösung führen oder stärker hervortreten, sind nicht als entscheidende, notwendige oder wesentliche Merkmale oder Elemente eines oder sämtlicher Ansprüche zu interpretieren.

Claims (14)

  1. Verfahren, umfassend: den Betrieb einer Sprachsteuerungsschnittstellen-Engine eines elektronischen Geräts in einem ersten Modus, der wirksam ist für den Empfang eines Sprachbefehls aus einer ersten Entfernung über ein Mikrophon des elektronischen Geräts und, in Reaktion auf den Sprachbefehl, für die Erzeugung einer akustischen Ausgabe mit einem ersten Ausgabepegel, wobei in dem ersten Modus das Mikrophon mit einer ersten Verstärkungsempfindlichkeit betrieben wird; das Erfassen einer vordefinierten Benutzereingabe mit einem oder mehreren Prozessoren des elektronischen Geräts; das Veranlassen mit dem einen oder den mehreren Prozessoren, dass die Sprachsteuerungsschnittstellen-Engine in einen zweiten Modus wechselt, der wirksam ist für den Empfang des Sprachbefehls aus einer zweiten Entfernung über das Mikrophon und, in Reaktion auf den Sprachbefehl, für die Erzeugung der akustischen Ausgabe mit einem zweiten Ausgabepegel, wobei in dem zweiten Modus das Mikrophon mit einer zweiten Verstärkungsempfindlichkeit betrieben wird, wobei die zweite Verstärkungsempfindlichkeit geringer als die erste Verstärkungsempfindlichkeit ist, wobei die zweite Entfernung kürzer ist als die erste Entfernung und wobei der zweite Ausgabepegel niedriger ist als der erste Ausgabepegel; und das Rücküberführen der Sprachsteuerungsschnittstellen-Engine mit dem einen oder den mehreren Prozessoren in den ersten Modus, in Reaktion auf die Identifizierung einer vordefinierten Bedingung, die einen Ablauf eines Timers umfasst.
  2. Verfahren nach Anspruch 1, wobei das Erfassen das Identifizieren einer vordefinierten Gesteneingabe mit einem oder mehreren Sensoren umfasst, die mit dem einen oder den mehreren Prozessoren betrieben werden können.
  3. Verfahren nach Anspruch 2, wobei die vordefinierte Gesteneingabe umfasst, dass das elektronische Gerät von einer ersten Höhe in eine zweite Höhe bewegt wird, wobei die zweite Höhe größer ist als die erste Höhe.
  4. Verfahren nach Anspruch 2, wobei die vordefinierte Gesteneingabe umfasst, dass das elektronische Gerät von einer ersten Position, die von einem Benutzer entfernt ist, in eine zweite Position nahe dem Benutzer bewegt wird.
  5. Verfahren nach Anspruch 4, wobei die zweite Position dem Kopf des Benutzers benachbart ist.
  6. Verfahren nach Anspruch 2, wobei die vordefinierte Gesteneingabe eine vordefinierte Bewegung um das elektronische Gerät umfasst.
  7. Verfahren nach Anspruch 1, wobei das Erfassen das Identifizieren der Betätigung eines Benutzer-Betätigungsziels mit einer Benutzerschnittstelle umfasst.
  8. Verfahren nach einem der Ansprüche 1 bis 7, ferner umfassend das Umleiten der akustischen Ausgabe auf einen Ohrhörer-Lautsprecher des elektronischen Geräts.
  9. Vorrichtung, umfassend: eine Sprachsteuerungsschnittstellen-Engine, die in einem ersten Modus wirksam ist für den Empfang eines Sprachbefehls aus einer ersten Entfernung über ein Mikrophon und, in Reaktion auf den Sprachbefehl, für die Erzeugung einer akustischen Ausgabe mit einem ersten Ausgabepegel über einen Lautsprecher, wobei in dem ersten Modus das Mikrophon mit einer ersten Verstärkungsempfindlichkeit betrieben wird; einen oder mehrere Prozessoren, die mit einem oder mehreren Sensoren betrieben werden können, wobei der eine oder die mehreren Prozessoren wirksam sind für: das Erfassen einer vordefinierten Benutzereingabe; und die Überführung der Sprachsteuerungsschnittstellen-Engine in einen zweiten Modus, der wirksam ist für den Empfang eines Sprachbefehls aus einer zweiten Entfernung über das Mikrophon und, in Reaktion auf den Sprachbefehl, für die Erzeugung der akustischen Ausgabe mit dem zweiten Ausgabepegel, wobei in dem zweiten Modus das Mikrophon mit einer zweiten Verstärkungsempfindlichkeit betrieben wird, wobei die zweite Verstärkungsempfindlichkeit geringer als die erste Verstärkungsempfindlichkeit ist, wobei die zweite Entfernung kürzer ist als die erste Entfernung und wobei der zweite Ausgabepegel niedriger ist als der erste Ausgabepegel; wobei die Vorrichtung ferner einen Timer umfasst, der mit dem einen oder den mehreren Prozessoren betrieben werden kann, wobei der eine oder die mehreren Prozessoren ferner wirksam sind für: das Rücküberführen der Sprachsteuerungsschnittstellen-Engine in den ersten Modus, in Reaktion auf die Identifizierung einer vordefinierten Bedingung, die einen Ablauf des Timers umfasst.
  10. Vorrichtung nach Anspruch 9, wobei die vordefinierte Benutzereingabe eine Gesteneingabe umfasst.
  11. Vorrichtung nach Anspruch 9, wobei die vordefinierte Benutzereingabe eine Eingabe durch Berührung umfasst.
  12. Vorrichtung nach Anspruch 9, wobei die vordefinierte Benutzereingabe ein vordefiniertes Bewegen der Vorrichtung umfasst.
  13. Vorrichtung nach einem der Ansprüche 9 bis 12, wobei die Sprachsteuerungsschnittstellen-Engine in dem zweiten Modus wirksam ist für die Bereitstellung der akustischen Ausgabe über einen sich von dem Lautsprecher unterscheidenden zweiten Lautsprecher.
  14. Vorrichtung nach einem der Ansprüche 9 bis 13, wobei die Vorrichtung ein elektronisches Gerät umfasst und wobei die vordefinierte Bedingung umfasst, dass das elektronische Gerät in den Energiesparmodus oder Schlafmodus gesetzt wird.
DE102016103160.7A 2015-02-26 2016-02-23 Verfahren und Vorrichtung für eine Sprachsteuerungsbenutzerschnittstelle mit diskretem Betriebsmodus Active DE102016103160B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/631,924 US9489172B2 (en) 2015-02-26 2015-02-26 Method and apparatus for voice control user interface with discreet operating mode
US14/631,924 2015-02-26

Publications (2)

Publication Number Publication Date
DE102016103160A1 DE102016103160A1 (de) 2016-09-01
DE102016103160B4 true DE102016103160B4 (de) 2024-03-21

Family

ID=55753117

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016103160.7A Active DE102016103160B4 (de) 2015-02-26 2016-02-23 Verfahren und Vorrichtung für eine Sprachsteuerungsbenutzerschnittstelle mit diskretem Betriebsmodus

Country Status (5)

Country Link
US (1) US9489172B2 (de)
CN (1) CN105929934A (de)
BR (1) BR102016004328B1 (de)
DE (1) DE102016103160B4 (de)
GB (1) GB2537468B (de)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD794590S1 (en) * 2014-10-15 2017-08-15 Motorola Mobility, Llc Communication device
US9804681B2 (en) * 2015-11-10 2017-10-31 Motorola Mobility Llc Method and system for audible delivery of notifications partially presented on an always-on display
US10074359B2 (en) * 2016-11-01 2018-09-11 Google Llc Dynamic text-to-speech provisioning
US10459687B2 (en) 2017-03-28 2019-10-29 Wipro Limited Method and system for controlling an internet of things device using multi-modal gesture commands
US10872607B2 (en) 2017-11-14 2020-12-22 Thomas STACHURA Information choice and security via a decoupled router with an always listening assistant device
US11100913B2 (en) 2017-11-14 2021-08-24 Thomas STACHURA Information security/privacy via a decoupled security cap to an always listening assistant device
US10999733B2 (en) 2017-11-14 2021-05-04 Thomas STACHURA Information security/privacy via a decoupled security accessory to an always listening device
US10867623B2 (en) * 2017-11-14 2020-12-15 Thomas STACHURA Secure and private processing of gestures via video input
US10867054B2 (en) 2017-11-14 2020-12-15 Thomas STACHURA Information security/privacy via a decoupled security accessory to an always listening assistant device
US10397394B1 (en) 2018-04-19 2019-08-27 Motorola Mobility Llc Electronic device with adjustable depth imager and corresponding methods
US11172293B2 (en) * 2018-07-11 2021-11-09 Ambiq Micro, Inc. Power efficient context-based audio processing
JP2020052145A (ja) * 2018-09-25 2020-04-02 トヨタ自動車株式会社 音声認識装置、音声認識方法、及び音声認識プログラム
SE543574C2 (en) * 2018-11-26 2021-03-30 Crunchfish Proximity Ab C/O Crunchfish Ab Triggering a proximity-based digital action with a mobile device and a base device
WO2020160683A1 (en) * 2019-02-07 2020-08-13 Thomas Stachura Privacy device for smart speakers

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6925296B2 (en) 2000-12-28 2005-08-02 Telefonaktiebolaget L M Ericsson (Publ) Sound-based proximity detector
US20120108300A1 (en) 2010-10-28 2012-05-03 Nxp B.V. Audio amplifier
JP2014021425A (ja) 2012-07-23 2014-02-03 Seiko Epson Corp 音声認識システム及び集積回路装置
US20140278443A1 (en) 2012-10-30 2014-09-18 Motorola Mobility Llc Voice Control User Interface with Progressive Command Engagement
WO2014163284A1 (en) 2013-04-03 2014-10-09 Lg Electronics Inc. Terminal and control method thereof

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060085183A1 (en) 2004-10-19 2006-04-20 Yogendra Jain System and method for increasing recognition accuracy and modifying the behavior of a device in response to the detection of different levels of speech
WO2006121704A2 (en) 2005-05-10 2006-11-16 Garratt Reginald G Voice activated distance measuring device
US20070172083A1 (en) * 2006-01-25 2007-07-26 Cheng-Te Tseng Method and apparatus for controlling a gain of a voice signal
US20080243281A1 (en) 2007-03-02 2008-10-02 Neena Sujata Kadaba Portable device and associated software to enable voice-controlled navigation of a digital audio player
US8918146B2 (en) * 2010-05-10 2014-12-23 Microsoft Corporation Automatic gain control based on detected pressure
US8296151B2 (en) * 2010-06-18 2012-10-23 Microsoft Corporation Compound gesture-speech commands
CN102541325B (zh) * 2010-12-14 2017-08-25 联想(北京)有限公司 一种输入识别方法和输入装置
US9183806B2 (en) * 2011-06-23 2015-11-10 Verizon Patent And Licensing Inc. Adjusting font sizes
EP2737762B1 (de) * 2011-07-25 2018-05-30 Telefonaktiebolaget LM Ericsson (publ) Funkrufempfang bei drahtlosen kommunikationsgeräten mit dual-sim
WO2013022222A2 (en) 2011-08-05 2013-02-14 Samsung Electronics Co., Ltd. Method for controlling electronic apparatus based on motion recognition, and electronic apparatus applying the same
EP2610862B1 (de) 2011-12-30 2015-07-08 Samsung Electronics Co., Ltd. Elektronisches Gerät und Steuerverfahren dafür
EP2624116B1 (de) * 2012-02-03 2017-09-06 EchoStar Technologies L.L.C. Mittels Nähenerkennung gesteuertes Anzeigezoom
US20130260839A1 (en) * 2012-03-30 2013-10-03 Research In Motion Limited Apparatus, and associated method, for controlling volumetric output level of a handset receiver
CN103945048A (zh) * 2013-01-23 2014-07-23 中兴通讯股份有限公司 一种通话调整方法及装置
CN104125325A (zh) * 2013-04-29 2014-10-29 深圳富泰宏精密工业有限公司 通话音量控制方法及***
CN103491230B (zh) * 2013-09-04 2016-01-27 三星半导体(中国)研究开发有限公司 能够自动调节音量和字体的移动终端及其自动调节方法
US9535505B2 (en) * 2013-11-08 2017-01-03 Polar Electro Oy User interface control in portable system
KR102115186B1 (ko) * 2013-11-22 2020-05-27 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
US10789041B2 (en) * 2014-09-12 2020-09-29 Apple Inc. Dynamic thresholds for always listening speech trigger
US9520128B2 (en) * 2014-09-23 2016-12-13 Intel Corporation Frame skipping with extrapolation and outputs on demand neural network for automatic speech recognition

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6925296B2 (en) 2000-12-28 2005-08-02 Telefonaktiebolaget L M Ericsson (Publ) Sound-based proximity detector
US20120108300A1 (en) 2010-10-28 2012-05-03 Nxp B.V. Audio amplifier
JP2014021425A (ja) 2012-07-23 2014-02-03 Seiko Epson Corp 音声認識システム及び集積回路装置
US20140278443A1 (en) 2012-10-30 2014-09-18 Motorola Mobility Llc Voice Control User Interface with Progressive Command Engagement
WO2014163284A1 (en) 2013-04-03 2014-10-09 Lg Electronics Inc. Terminal and control method thereof

Also Published As

Publication number Publication date
US20160253149A1 (en) 2016-09-01
US9489172B2 (en) 2016-11-08
GB201603200D0 (en) 2016-04-06
CN105929934A (zh) 2016-09-07
GB2537468B (en) 2019-11-06
GB2537468A (en) 2016-10-19
BR102016004328B1 (pt) 2023-01-24
BR102016004328A2 (pt) 2017-05-02
DE102016103160A1 (de) 2016-09-01

Similar Documents

Publication Publication Date Title
DE102016103160B4 (de) Verfahren und Vorrichtung für eine Sprachsteuerungsbenutzerschnittstelle mit diskretem Betriebsmodus
DE102016121208A1 (de) Verfahren und System zur hörbaren Lieferung von Benachrichtigungen, die teilweise auf einem ständig aktiven Display präsentiert werden
DE102016103162A1 (de) Verfahren und Vorrichtung zur Gestenerfassung in einem elektronischen Gerät
EP2911149B1 (de) Bestimmung einer Betriebsanweisung mindestens teilweise auf Basis einer räumlichen Klangeigenschaft
DE112014000709B4 (de) Verfahren und vorrichtung zum betrieb eines sprachtriggers für einen digitalen assistenten
DE102018130115B4 (de) Vorrichtung und Verfahren zur kontextbasierten Unterdrückung und Verstärkung von Akustiksignalen in akustischen Umgebungen
DE102015107903A1 (de) Intelligente Freisprecheinrichtung
US20170318374A1 (en) Headset, an apparatus and a method with automatic selective voice pass-through
DE112008001600T5 (de) Verfahren und Systeme zum Bereitstellen von Sensorinformation an Vorrichtungen und Peripheriegeräte
US20130190041A1 (en) Smartphone Speakerphone Mode With Beam Steering Isolation
DE102016100360A1 (de) Tragbare elektronische Vorrichtung mit doppelten diagonalen Näherungssensoren und Modusschaltfunktionialität
CN108900694A (zh) 耳纹信息获取方法和装置、终端、耳机及可读存储介质
CN107222391A (zh) 群组提醒方法、装置及设备
CN108259659A (zh) 一种拾音控制方法、柔性屏终端及计算机可读存储介质
CN103744592A (zh) 一种信息处理的方法及终端
CN108063873A (zh) 一种应用程序权限配置方法、移动终端及存储介质
CN106157952A (zh) 声音识别方法及装置
CN106055960A (zh) 一种解锁控制方法及终端设备
CN109451158B (zh) 一种提醒方法和装置
CN110970015B (zh) 一种语音处理方法、装置和电子设备
DE102021109684A1 (de) Verfahren und Systeme zur Steuerung des Betriebsmodus von Features bei einem elektronischen Gerät
US20170171727A1 (en) Automatically answering an incoming voice-call on a mobile device with no-touch user interface interaction
WO2020173283A1 (zh) 提醒任务处理方法、终端及计算机可读存储介质
CN110213439B (zh) 一种消息处理方法和终端
CN107809692B (zh) 一种耳机控制方法、设备及计算机可读存储介质

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division