DE112017005377T5 - Vorrichtung, verfahren und programm zur informationsverarbeitung - Google Patents

Vorrichtung, verfahren und programm zur informationsverarbeitung Download PDF

Info

Publication number
DE112017005377T5
DE112017005377T5 DE112017005377.3T DE112017005377T DE112017005377T5 DE 112017005377 T5 DE112017005377 T5 DE 112017005377T5 DE 112017005377 T DE112017005377 T DE 112017005377T DE 112017005377 T5 DE112017005377 T5 DE 112017005377T5
Authority
DE
Germany
Prior art keywords
information processing
sensor
information
input
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112017005377.3T
Other languages
English (en)
Inventor
Kei Takahashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of DE112017005377T5 publication Critical patent/DE112017005377T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/28Supervision thereof, e.g. detecting power-supply failure by out of limits supervision
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3206Monitoring of events, devices or parameters that trigger a change in power modality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • G06F1/3293Power saving characterised by the action undertaken by switching to a less power-consuming processor, e.g. sub-CPU
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1041Mechanical or electronic switches, or control elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1636Sensing arrangement for detection of a tap gesture on the housing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1008Earpieces of the supra-aural or circum-aural type

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)
  • Position Input By Displaying (AREA)

Abstract

Eine Informationsverarbeitungseinheit dieser Informationsverarbeitungsvorrichtung detektiert eine Auslöseoperation gemäß dem Typ von ersten Sensorinformationen, wenn die ersten Sensorinformationen eingegeben werden, erkennt eine Gestenoperation, die von einem Benutzer ausgeführt wird, als eine Operationseingabe auf der Basis von zweiten Sensorinformationen und bestimmt die Operationseingabe auf der Basis einer Kombination der detektieren Auslöseoperation und der Gestenoperation. Diese Informationsverarbeitungsvorrichtung ermöglicht Diversifizierung der Operationseingabe, ohne den Benutzer zu belasten.

Description

  • Technisches Gebiet
  • Die vorliegende Technologie betrifft eine Verbesserung der Bedienbarkeit einer menschlichen Schnittstelle.
  • Stand der Technik
  • Als eine menschliche Schnittstelle zur Operationseingabe haben sich in der Vergangenheit eine Taste und ein Berührungsbildschirm etabliert.
  • In Patentliteratur 1 wird die Bedienung einer elektronischen Vorrichtung ohne Taste beschrieben, und Patentliteratur 1 offenbart, dass Erfassung einer Berührungseinrichtung mit einem elektrostatischen Schalter erst startet, wenn ein Näherungssensor anspricht.
  • Zitationsliste
  • Patentliteratur
  • Patentliteratur 1: Japanische Patent-Auslegeschrift Nr. 2016-018432
  • Offenbarung der Erfindung
  • Technisches Problem
  • Eine komplexe Operation durch die Taste oder die Berührungseinrichtung ist jedoch manchmal, insbesondere bei einer kleinen Vorrichtung, schwer durchzuführen, so dass eine einfachere menschliche Schnittstelle erwünscht ist.
  • Angesichts der zuvor erwähnten Umstände besteht eine Aufgabe der vorliegenden Technologie darin, eine Informationsverarbeitungsvorrichtung bereitzustellen, die zum Diversifizieren einer Operationseingabe in der Lage ist, ohne einen Benutzer zu belasten.
  • Problemlösung
  • Eine Seitenfläche der vorliegenden Technologie, welche die Aufgabe erfüllt, ist eine Informationsverarbeitungsvorrichtung, die eine Steuereinheit umfasst.
  • Die Steuereinheit detektiert eine Auslöseoperation gemäß einem Typ von ersten Sensorinformationen.
  • Außerdem erkennt die Steuereinheit eine Gestenoperation, die von einem Benutzer durchgeführt wird, als eine Operationseingabe auf der Basis von zweiten Sensorinformationen.
  • Zudem bestimmt die Steuereinheit die Operationseingabe auf der Basis einer Kombination der detektierten Auslöseoperation und der erkannten Gestenoperation.
  • Gemäß der Informationsverarbeitungsvorrichtung ist die Anzahl von Operationseingaben, die der einen Gestenoperationen entsprechen, nicht auf eine beschränkt, sondern es kann eine Mehrzahl von Operationen durchgeführt werden. Daher kann die Operationseingabe diversifiziert werden, ohne den Benutzer zu belasten.
  • Die Steuereinheit kann die Gestenoperation auf der Basis der zweiten Sensorinformationen erkennen, die innerhalb einer vorbestimmten Zeit nach dem Detektieren der Auslöseoperation eingegeben werden.
  • Gemäß der Informationsverarbeitungsvorrichtung wird eine Wirkung bereitgestellt, wobei eine falsche Operationseingabe nicht durchgeführt wird, falls ein Auslöser sich versehentlich in Gang setzt.
  • Die Steuereinheit kann eine einzelne Auslöseoperation detektieren, falls eine Dauer einer Zeit, in welcher die ersten Sensorinformationen kontinuierlich eingegeben werden, kürzer als eine vorbestimmte Schwelle ist, sie kann eine kontinuierliche Auslöseoperation detektieren, falls die Dauer der Zeit, in welcher die ersten Sensorinformationen kontinuierlich eingegeben werden, länger als die vorbestimmte Schwelle ist, wenn die ersten Sensorinformationen eingegeben werden, und sie kann die Operationseingabe auf der Basis einer Kombination der detektierten einzelnen Auslöseoperation oder der detektierten kontinuierlichen Auslöseoperation und der erkannten Gestenoperation bestimmen.
  • Gemäß der Informationsverarbeitungsvorrichtung können die beiden Typen von Auslöseoperationen, die einzelne Auslöseoperation und die kontinuierliche Auslöseoperation, auf die eine Auslöseoperation festgelegt werden, und die Variation der Operationseingaben kann erweitert werden.
  • Falls die Steuereinheit die kontinuierliche Auslöseoperation detektiert, kann die Steuereinheit bewirken, dass die Informationen, die durch die Operationseingabe eingegeben werden, einen Wert gemäß einer Dauer einer Zeit der detektierten kontinuierlichen Auslöseoperation umfassen.
  • In diesem Fall kann die Steuereinheit einen Zeitpunkt, zu welchem die Eingabe der ersten Sensorinformationen endet, als einen Endpunkt der Zeitdauer der kontinuierlichen Auslöseoperation bestimmen.
  • In diesem Fall kann die Steuereinheit einen Zeitpunkt, zu welchem die Eingabe der ersten Sensorinformationen startet, als einen Startpunkt der Dauer der Zeit der kontinuierlichen Auslöseoperation bestimmen. Alternativ kann die Steuereinheit einen Zeitpunkt, zu welchem die kontinuierliche Auslöseoperation detektiert wird, als einen Startpunkt der Dauer der Zeit der kontinuierlichen Auslöseoperation bestimmen.
  • Alternativ kann die Steuereinheit einen Zeitpunkt, zu welchem die Gestenoperation erkannt wird, als einen Startpunkt der Dauer der Zeit der kontinuierlichen Auslöseoperation bestimmen.
  • In der Informationsverarbeitungsvorrichtung kann ein Sensor, der die ersten Sensorinformationen ausgibt, auf einem Gehäuse angeordnet sein, das so strukturiert ist, dass es vom Benutzer physisch am Körper getragen werden kann.
  • In diesem Fall kann der Sensor in einer Position angeordnet sein, in welcher der Sensor zum Detektieren einer Operation durch eine Hand des Benutzers in der Lage ist.
  • In diesem Fall kann die Position, in welcher der Sensor angeordnet ist, eine Position sein, die außerhalb eines Sichtfeldes des Benutzers ist, der das Gehäuse am Körper trägt.
  • Gemäß der Informationsverarbeitungsvorrichtung kann eine Operationseingabeschnittstelle eines am Körper tragbaren Geräts, beispielsweise einer auf den Kopf aufsetzbaren Anzeige oder eines am Körper tragbaren Computers, vorgesehen sein.
  • Die Informationsverarbeitungsvorrichtung kann einen ersten Leistungsmodus und einen zweiten Leistungsmodus als Leistungsverbrauchsmodi der Informationsverarbeitungsvorrichtung aufweisen, und eine Leistungsverbrauchsmenge des ersten Leistungsmodus kann geringer als eine Leistungsverbrauchsmenge des zweiten Leistungsmodus sein.
  • In diesem Fall kann die Steuereinheit, wenn die Informationsverarbeitungsvorrichtung im ersten Leistungsmodus ist und die Steuereinheit die Auslöseoperation detektiert, den Leistungsverbrauchsmodus der Informationsverarbeitungsvorrichtung in den zweiten Leistungsmodus umschalten.
  • Gemäß der Informationsverarbeitungsvorrichtung kann die Auslöseoperation als ein Auslöser zum Wechseln eines Betriebsmodus mit höherem Leistungsverbrauch sein und ist es möglich, dass der Leistungsverbrauch der Vorrichtung unterbunden wird.
  • Zudem ist eine andere Seitenfläche der vorliegenden Technologie ein Informationsverarbeitungsverfahren, das die Schritte umfasst, die im Folgenden beschrieben werden.
  • Einen Schritt des Detektierens einer Auslöseoperation gemäß einem Typ von ersten Sensorinformationen.
  • Einen Schritt des Erkennens einer Gestenoperation, die von einem Benutzer durchgeführt wird, als eine Operationseingabe auf der Basis von zweiten Sensorinformationen.
  • Einen Schritt des Bestimmens der Operationseingabe auf der Basis einer Kombination der detektierten Auslöseoperation und der erkannten Gestenoperation.
  • Außerdem ist eine andere Seitenfläche der vorliegenden Technologie ein Programm, das einen Computer zum Ausführen von Schritten veranlasst, die im Folgenden beschrieben werden.
  • Einen Schritt des Detektierens einer Auslöseoperation gemäß einem Typ von ersten Sensorinformationen.
  • Einen Schritt des Erkennens einer Gestenoperation, die von einem Benutzer durchgeführt wird, als eine Operationseingabe auf der Basis von zweiten Sensorinformationen.
  • Einen Schritt des Bestimmens der Operationseingabe auf der Basis einer Kombination der detektierten Auslöseoperation und der erkannten Gestenoperation.
  • Vorteilhafte Wirkungen der Erfindung
  • Wie bereits erwähnt, ist es gemäß der vorliegenden Technologie möglich, eine Informationsverarbeitungsvorrichtung bereitzustellen, die zum Diversifizieren einer Operationseingabe in der Lage ist, ohne einen Benutzer zu belasten.
  • Es ist zu erwähnen, dass die zuvor beschriebenen Wirkungen nicht einschränkend sind, sondern mit den oder anstelle der Wirkungen jede in der vorliegenden Offenbarung beschriebene Wirkung oder andere Wirkungen, die durch die vorliegende Spezifikation erfassbar sind, erzielt werden können.
  • Figurenliste
    • [1] Grafische Darstellung zur Veranschaulichung eines Überblicks über eine Ausführungsform der vorliegenden Erfindung.
    • [2] Grafische Darstellung, die ein Beispiel eines äußeren Erscheinungsbildes einer Struktur einer Informationsverarbeitungsvorrichtung gemäß der Ausführungsform darstellt.
    • [3] Blockdiagramm, das ein Beispiel einer inneren Struktur der Informationsverarbeitungsvorrichtung gemäß der Ausführungsform darstellt.
    • [4] Grafische Darstellung, die ein anderes Beispiel der inneren Struktur die Informationsverarbeitungsvorrichtung gemäß der Ausführungsform darstellt.
    • [5] Grafische Darstellung, die ein anderes Beispiel der inneren Struktur die Informationsverarbeitungsvorrichtung gemäß der Ausführungsform darstellt.
    • [6] Flussdiagramm (1), das ein einen Verarbeitungsfluss der Informationsverarbeitungsvorrichtung gemäß der Ausführungsform darstellt.
    • [7] Flussdiagramm (2), das den Verarbeitungsfluss der Informationsverarbeitungsvorrichtung gemäß der Ausführungsform darstellt.
    • [8] Zeitdiagramm (1) zur Veranschaulichung der Verarbeitung der Informationsverarbeitungsvorrichtung gemäß der Ausführungsform.
    • [9] Zeitdiagramm (2) zur Veranschaulichung der Verarbeitung der Informationsverarbeitungsvorrichtung gemäß der Ausführungsform.
    • [10] Grafische Darstellung, die ein Beispiel eines äußeren Erscheinungsbildes einer Struktur in einem modifizierten Beispiel der Ausführungsform darstellt.
  • Ausführungsform(en) der Erfindung
  • Im Folgenden wird eine bevorzugte Ausführungsform der vorliegenden Technologie unter Bezugnahme auf die beiliegenden Zeichnungen ausführlich beschrieben. Es ist zu erwähnen, dass in der vorliegenden Spezifikation und den Zeichnungen Strukturkomponenten mit den im Wesentlichen gleichen Funktionsstrukturen mit den gleichen Bezugszeichen versehen sind und Beschreibungen davon unterlassen werden.
  • Außerdem werden Beschreibungen in der folgenden Reihenfolge durchgeführt.
    1. 1. Überblick über die Informationsverarbeitungsvorrichtung gemäß einer Ausführungsform der vorliegenden Technologie
    2. 2. Struktur
      • 2-1. Äußeres Erscheinungsbild der Struktur
      • 2-2. Innere Struktur
    3. 3. Funktionsweise
    4. 4. Kurzdarstellung
    5. 5. Modifiziertes Beispiel
    6. 6. Ergänzende Anmerkungen
  • <Überblick über die Informationsverarbeitungsvorrichtung gemäß einer Ausführungsform der vorliegenden Technologie>
  • Eine Informationsverarbeitungsvorrichtung gemäß der vorliegenden Ausführungsform umfasst ein am Körper tragbares Gerät. Das am Körper tragbare Gerät der vorliegenden Ausführungsform ist nicht besonders eingeschränkt, solange das am Körper tragbare Gerät einen Raum aufweist, in welchem eine im Folgenden beschriebene Sensorgruppe montiert werden kann. Beispiele dafür umfassen einen Kopfhörer und eine auf den Kopf aufsetzbare Anzeige. Außerdem ist das am Körper tragbare Gerät der vorliegenden Ausführungsform auch als ein am Körper tragbares Gerät vom Armbandtyp, ein am Körper tragbares Gerät vom Kleidungstyp, beispielsweise eine Jacke, und dergleichen anwendbar. Hierin wird im Folgenden ein Kopfhörer als das am Körper tragbare Gerät der vorliegenden Ausführungsform eingesetzt. Ferner kann ein am Körper tragbares Gerät vom Ohrhörertyp anstelle des Kopfhörers eingesetzt werden.
  • Die Informationsverarbeitungsvorrichtung 1 gemäß der vorliegenden Ausführungsform umfasst eine Benutzerschnittstelle, die eine Operationseingabe durch einen Benutzer empfängt. Ein Zweck, für welchen die Operationseingabe durch den Benutzer verwendet wird, ist in keinerlei Hinsicht eingeschränkt, und kann eine Nachrichtenleseanwendung sein. Hierin wird im Folgenden ein Beispiel beschrieben, in welchem die Operationseingabe durch den Benutzer zum Betätigen eines Musikabspielgeräts verwendet wird, das Musikinhalt wiedergibt.
  • 1 ist eine grafische Darstellung zur Veranschaulichung eines Überblicks über die vorliegende Ausführungsform. Die Informationsverarbeitungsvorrichtung 1 gemäß der vorliegenden Ausführungsform weist eine Gestenerkennungsfunktion zum Erkennen einer Bewegung des Benutzers auf. Es ist zu erwähnen, dass, falls der Benutzer die Auslöseoperation durchführt, und die Informationsverarbeitungsvorrichtung 1 die Auslöseoperation detektiert, Gestenerkennung durchgeführt wird. In der vorliegenden Ausführungsform gibt es eine Mehrzahl von Auslöseoperationen, und ein Verfahren zum Erreichen von Detektion der Mehrzahl von Auslöseoperationen ist es, Sensoren vorzubereiten, die den Auslöseoperationen eins zu eins entsprechen. Die Informationsverarbeitungsvorrichtung 1 interpretiert Gestenerkennung in Abhängigkeit von Typen der Auslöseoperationen und Typen von Gestenerkennung.
  • Es ist zu erwähnen, dass in der vorliegenden Ausführungsform unter „interpretieren“ ein Bestimmen einer Reihe von Auslöseoperationen und Operationseingabe durch eine Gestenoperation zu verstehen ist, die durch einen Verarbeitungsbefehl an die Informationsverarbeitungsvorrichtung 1 ersetzt werden soll.
  • In 1 ist ein Beispiel der drei Typen von Gestenoperationen, d. h. „Nicken“, „Hals nach rechts und zurück in die Ausgangsposition drehen“ und „Hals nach links und zurück in die Ausgangsposition drehen“, dargestellt. In der vorliegenden Ausführungsform wird eine Interpretation einer jeden der Gestenoperationen in Abhängigkeit von der Auslöseoperation differenziert, die vor dem Durchführen der drei Typen von Gestenoperationen durchgeführt wird. Zum Beispiel zeigt 1 (a) einen Fall, dass eine erste Auslöseoperation durchgeführt wird, und 1 (b) zeigt einen Fall, dass eine zweite Auslöseoperation durchgeführt wird.
  • Obwohl die gleiche Gestenoperation von „Nicken“ durchgeführt wird, interpretiert die Informationsverarbeitungsvorrichtung 1 die Gestenoperation als „Wiedergeben/Stoppen“ des Musikabspielgeräts, falls vorab die erste Auslöseoperation durchgeführt wird (1 (a)). Andererseits interpretiert die Informationsverarbeitungsvorrichtung 1 die gleiche Gestenoperation als „Musikalbum auswählen“, falls vorab die zweite Auslöseoperation durchgeführt wird. In Bezug auf die Gestenoperation des Nach-rechts-Drehens und die Gestenoperation des Nach-links-Drehens wird eine ähnliche Informationsverarbeitung durchgeführt.
  • Ein spezifisches Beispiel der Auslöseoperation ist nicht beschränkt. Zum Beispiel sind, falls die Auslöseoperation durch Näherungssensoren detektiert wird, die Näherungssensoren auf der rechten Seite bzw. der linken Seite des Kopfhörers angeordnet. Falls der Benutzer die Hand nahe am linken Kopfhörer hält, wird die erste Auslöseoperation detektiert ( 1(a)), und falls der Benutzer die Hand nahe am rechten Kopfhörer hält, wird die zweite Auslöseoperation detektiert (1 (b)).
  • Falls der Benutzer sowohl Ansprechen des rechten als auch des linken Näherungssensors bewirkt, wird eine dritte Auslöseoperation detektiert. In Bezug auf die dritte Auslöseoperation wird jeder Satz der Operationseingaben entsprechend den Gestenoperationen festgelegt ( 1 (c)).
  • Die Geste des Nickens, Nach-rechts-Drehens oder dergleichen ist eine Geste, die sich jeder leicht merkt. Wenn andererseits alle täglichen Bewegungen als die Operationseingaben in die Informationsverarbeitungsvorrichtung 1 interpretiert werden, sind die Operationseingaben Eingaben, die der Benutzer nicht beabsichtigt. In der vorliegenden Ausführungsform wird Gestenerkennung jedoch erst dann durchgeführt, wenn die Auslöseoperation vor der Gestenerkennung detektiert wird, so dass die Eingabe, die der Benutzer nicht beabsichtigt, verhindert werden kann. Wie außerdem in 1 dargestellt, wird eine Variation der Operationseingaben, die in die Informationsverarbeitungsvorrichtung 1 durch die gleiche Geste eingegeben werden können, in Abhängigkeit von den Typen der Auslöseoperation diversifiziert. Daher kann gemäß der vorliegenden Ausführungsform die Operationseingabe diversifiziert werden, ohne den Benutzer zu belasten.
  • Vorstehend wurde der Überblick über die vorliegende Ausführungsform beschrieben. Im Folgenden werden eine äußere Struktur und eine innere Struktur dargestellt und Einzelheiten eines Flusses von Informationsverarbeitung offenbart, die in der Informationsverarbeitungsvorrichtung 1 ausgeführt wird.
  • <Äußeres Erscheinungsbild der Struktur>
  • 2 ist eine grafische Darstellung, die ein Beispiel eines äußeren Erscheinungsbildes einer Struktur der Informationsverarbeitungsvorrichtung 1 gemäß der vorliegenden Ausführungsform darstellt, und 3 ist ein Blockdiagramm, das ein Beispiel einer inneren Struktur davon darstellt.
  • Wie in 2 dargestellt, kann die Informationsverarbeitungsvorrichtung 1 gemäß der vorliegenden Ausführungsform zum Beispiel einen Kopfhörer 2 und ein tragbares Endgerät 3 in Bezug auf eine Hardwarekonfiguration umfassen. Das Kopfhörer 2 umfasst eine Sensorgruppe 10. Anstelle des Hardwarekonfigurationsbeispiels in 2 kann, wenn ein Gerät ein Gehäuse 20 umfasst, das durch den Benutzer am Körper getragen werden kann und auf dem die Sensorgruppe 10 angeordnet ist, jede Form wie beispielsweise ein Gerät vom Ohrhörertyp, ein Gerät vom Armbandtyp und ein Gerät vom Jackentyp verwendet werden. Außerdem wird solch ein Gerät als ein am Körper tragbares Gerät bezeichnet. Es ist zu erwähnen, dass, obwohl „Gehäuse“ manchmal die Konnotation einer Kastenform hat, mit „Gehäuse“ einfach gemeint ist, dass ein äußerer Körper vorhanden ist, und dessen Form ist hierin nicht beschränkt.
  • Der Kopfhörer 2 und das tragbare Endgerät 3 umfassen eine drahtlose Kommunikationseinheit 19 bzw. eine drahtlose Kommunikationseinheit 39 und können miteinander kommunizieren. Eine spezifische Kommunikationsform davon ist jedoch nicht beschränkt, und es kann auch eine drahtgebundene Kommunikation sein. In der vorliegenden Ausführungsform umfasst jede der drahtlosen Kommunikationseinheiten eine Antenne und eine Drahtloskommunikationsschaltung und kommuniziert über einen Drahtloskommunikationsstandard, wie beispielsweise Bluetooth (eingetragene Handelsmarke), und Detektionsinformationen der Sensorgruppe 10 werden an das tragbare Endgerät 3 weitergegeben. Es kann zum Beispiel ein Smartphone als das tragbare Endgerät 3 verwendet werden.
  • Die Sensorgruppe 10 in 2 umfasst einen rechten Näherungssensor 11R, einen linken Näherungssensor 11L, einen Bewegungssensor 12 und ein Mikrofon 13 als Rauschunterdrücker. Außerdem kann ein Schalter (nicht dargestellt), der zum Kurzschließen des Mikrofons angeschlossen ist, als einer der Sensoren verwendet werden, die in der Sensorgruppe 10 enthalten sind.
  • Der rechte Näherungssensor 11R und der linke Näherungssensor 11L können Infrarotstrahlensysteme oder andere Systeme sein. Der rechte Näherungssensor 11R und der linke Näherungssensor 11L geben während des Erfassens kontinuierlich Detektionssignale aus. Der rechte Näherungssensor 11R und der linke Näherungssensor 11L werden zum Detektieren der Auslöseoperation des Benutzers verwendet.
  • Der Bewegungssensor 12 ist ein Bewegungssensor zum Detektieren einer dreiachsigen Beschleunigung und einer dreiachsigen Winkelgeschwindigkeit. Der Bewegungssensor 12 wird zum Erkennen der Gestenoperation des Benutzers verwendet. Alternativ kann der Bewegungssensor 12 zum Erkennen der Auslöseoperation verwendet werden.
  • Das Mikrofon 13 als Rauschunterdrücker sammelt Schall rund um den Kopfhörer 2 und ist ein Mikrofon, das den Umgebungsschall durch eine Rauschunterdrückungstechnologie sammelt, die Schall mit der entgegengesetzten Phase ausgibt und Rauschen verringert. Falls der Benutzer das Mikrofon 13 als den Rauschunterdrücker mit einem Finger leicht antippt, wird die Operation als eine Auslöseoperation detektiert.
  • In der vorliegenden Ausführungsform werden Sensorinformation, die zum Detektieren der Auslöseoperation benötigt werden, als erste Sensorinformationen bezeichnet, und Sensorinformationen, die zum Erkennen der Gestenoperation benötigt werden, werden als zweite Sensorinformationen bezeichnet. Die Sensorinformationen sind ein Bündel von Sensorsignalen, die bei Durchführung von Erfassung durch mindestens einen der in der Sensorgruppe 10 enthaltenen Sensoren gesendet werden. Die ersten Sensorinformationen und die zweiten Sensorinformationen können einander teilweise überlappen.
  • Im Folgenden sind die Sensorinformationen von mindestens dem rechten Näherungssensor 11R oder dem linken Näherungssensor 11L die ersten Sensorinformationen. Außerdem sind die Sensorinformationen vom Bewegungssensoren12 die zweiten Sensorinformationen. Es ist zu erwähnen, dass dies ein Beispiel zur Beschreibung ist, zum Beispiel können die Sensorinformationen vom Bewegungssensor 12 ein Teil oder die Gesamtheit der ersten Sensorinformationen sein.
  • <Innere Struktur>
  • Wie in 3 dargestellt, weist die Informationsverarbeitungsvorrichtung 1 gemäß der vorliegenden Ausführungsform eine Struktur auf, in welcher das tragbare Endgerät 3 eine Informationsverarbeitungseinheit zusätzlich zur Struktur in 2 umfasst. Die Informationsverarbeitungseinheit 31 kann mindestens eine von arithmetischen Verarbeitungsvorrichtungen im tragbaren Endgerät 3 sein und zum Beispiel die zentrale Verarbeitungseinheit (CPU - Central Processing Unit), einen digitalen Signalprozessor (DSP - Digital Signal Processor) und einen Systemchip (SoC - System on Chip) umfassen. Die Informationsverarbeitungseinheit 31 kann so konzipiert sein, dass sie eine Kombination einer oder mehrerer arithmetische Verarbeitungseinrichtungen umfasst.
  • Die Informationsverarbeitungseinheit 31 ist so konfiguriert, dass sie ein Softwareprogramm ausführt, das durch einen Speicher, wie beispielsweise einen RAM 21 (22) gelesen wird, und eine Auslöserdetektionseinheit 32, eine Gestenerkennungseinheit 33 und eine Operationseingabesignalerzeugungseinheit 34 umfasst. Im Folgenden wird hierin die Funktionsweise jedes Teils beschrieben.
  • Wenn die ersten Sensorinformationen in die Auslöserdetektionseinheit 32 eingegeben werden, detektiert die Auslöserdetektionseinheit 32 eine Auslöseoperation gemäß einem Typ der eingegebenen ersten Sensorinformationen. Falls es sich bei den ersten Sensorinformationen zum Beispiel um ein Signal handelt, das Erfassung des rechten Näherungssensors 11R anzeigt, wird eine Auslöseoperation von „Benutzer hebt rechte Hand und hält sie auf der rechten Seite von Kopfhörer 2“ detektiert. Falls es sich bei den ersten Sensorinformationen dagegen um ein Signal handelt, das Erfassung des linken Näherungssensors 11L anzeigt, wird eine Auslöseoperation von „Benutzer hebt linke Hand und hält sie auf der linken Seite von Kopfhörer 2“ detektiert.
  • Obwohl nicht darauf beschränkt, können, falls die ersten Sensorinformationen als fünfstellige digitale Daten im binären Zahlensystem ausgedrückt werden, als ein Beispiel die ersten Sensorinformationen der Erfassung des rechten Näherungssensors 11R als (00001) ausgedrückt werden, die ersten Sensorinformationen der Erfassung des linken Näherungssensors 11L können als (00010) ausgedrückt werden, und die ersten Sensorinformationen können als (00011) ausgedrückt werden, wenn beide Näherungssensoren ansprechen. Die Auslöserdetektionseinheit 32 detektiert die Auslöseoperation gemäß allen der digitalen Daten.
  • Die Gestenerkennungseinheit 33 erkennt die Gestenoperation durch den Benutzer als die Operationseingabe auf der Basis der zweiten Sensorinformationen. Die Gestenoperation wird gemäß einem Zeichen des am Körper tragbaren Geräts und Typen verwendbarer Sensoren vorab bestimmt. In der vorliegenden Ausführungsform wird der Kopfhörer als das am Körper tragbare Gerät eingesetzt, und der Bewegungssensor 12 wird zur Gestenerkennung verwendet. Daher sind Gestenoperationen, die vorab bestimmt werden, zum Beispiel „Nicken“ sowie „Nach-rechts-Schwenken“ und „Nach-links-Schwenken“ des Halses.
  • Die Gestenerkennungseinheit 33 führt Gestenerkennung auf der Basis der zweiten Sensorinformationen durch, die innerhalb einer vorbestimmten Zeit eingegeben werden, nachdem der Auslöseoperation durch die Auslöserdetektionseinheit 32 detektiert. Die Gestenerkennungseinheit 33 kann derart strukturiert sein, dass die zweiten Sensorinformationen erst dann an die Informationsverarbeitungseinheit 31 gesendet werden, wenn die Auslöserdetektionseinheit 32 die Auslöseoperation detektiert. Alternativ kann die Gestenerkennungseinheit 33 auch derart strukturiert sein, dass der Bewegungssensor 12 nicht in Betrieb ist oder in einem Energiesparmodus funktioniert, bis die Auslöserdetektionseinheit 32 die Auslöseoperation detektiert. Die Gestenerkennungseinheit 33 erkennt die Gestenoperation kontinuierlich durch Time-out.
  • Die Operationseingabesignalerzeugungseinheit 34 interpretiert eine Operationseingabe, die der Benutzer durch die Gestenoperation einzugeben beabsichtigt, auf der Basis einer Kombination der durch die Auslöserdetektionseinheit 32 detektierten Auslöseoperation und der durch die Gestenerkennungseinheit 33 erkannten Gestenoperation. Dies bedeutet, dass, wie zuvor unter Bezugnahme auf 1 beschrieben, die Operationseingabesignalerzeugungseinheit 34 die Absicht der Operationseingabe durch den Benutzer auf der Basis der Kombination der Auslöseoperation und der Gestenoperation interpretiert. Die Operationseingabesignalerzeugungseinheit 34 interpretiert die Operationseingabe unter Bezugnahme auf eine Nachschlagetabelle, die nicht dargestellt ist.
  • Auf der Basis der Interpretation erzeugt die Operationseingabesignalerzeugungseinheit 34 ein Signal eines erhaltenen Befehls. Das erzeugte Signal wird als ein Operationseingabesignal an die letztere Einheit ausgegeben.
  • Vorstehend wurde das Strukturbeispiel der vorliegenden Ausführungsform beschrieben. Es ist zu erwähnen, dass die innere Struktur der Informationsverarbeitungsvorrichtung 1 nicht auf das Beispiel in 3 beschränkt ist, und in der Struktur in 3 kann ein Teil oder die Gesamtheit der Strukturkomponenten, die im tragbaren Endgerät 3 enthalten sind, in dem am Körper tragbaren Gerät enthalten sein. 4 und 5 stellen innere Strukturen in diesem Fall dar.
  • 4 ist ein modifiziertes Beispiel der vorliegenden Ausführungsform, wobei die Auslöseoperation und die Gestenerkennung in dem am Körper tragbaren Gerät ausgeführt werden. Im vorliegenden, modifizierten Beispiel umfasst das tragbare Endgerät 3 eine CPU 38 und den RAM 22,die CPU 38 führt das Softwareprogramm aus, das durch den RAM 22 gelesen wird, und die Operationseingabesignalerzeugungseinheit 34 wird erzeugt. Es ist notwendig, dass Ausgabewerte der Sensoren (Sensorinformationen), welche die Sensorgruppe 10 ausgibt, drahtlos an das tragbare Endgerät 3 gesendet werden. Daher kann eine Batterie geschont werden.
  • 5 ist ebenfalls ein modifiziertes Beispiel der vorliegenden Ausführungsform, wobei alle der Auslöseoperation, der Gestenoperation und der Erzeugung des Operationseingabesignals in dem am Körper tragbaren Gerät ausgeführt werden. Bei der Informationsverarbeitungsvorrichtung 1 ist das tragbare Gerät 3 nicht als die Strukturkomponente notwendig. Wie in 5 dargestellt, ist es möglich, dass die Informationsverarbeitungsvorrichtung 1 derart strukturiert ist, dass die gesamte Informationsverarbeitung in Bezug auf die vorliegende Technologie in dem am Körper tragbaren Gerät abgewickelt wird.
  • <Funktionsweise>
  • 6 und 7 sind Flussdiagramme, welche die Verarbeitungsflüsse in der Informationsverarbeitungsvorrichtung 1 gemäß der vorliegenden Ausführungsform darstellen. 8 und 9 sind Zeitdiagramme, welche die Verarbeitungsflüsse in der Informationsverarbeitungsvorrichtung 1 gemäß der vorliegenden Ausführungsform darstellen. Im Folgenden werden Beschreibungen unter Bezugnahme auf die Zeichnungen durchgeführt.
  • Die Informationsverarbeitungsvorrichtung 1 wartet, bis die ersten Sensorinformationen durch die Auslöserdetektionseinheit 32 detektiert werden (ST100). In diesem Zustand können Funktionen der Gestenerkennungseinheit 33 und des Bewegungssensor 12 durch einen ersten Leistungsverbrauchsmodus, beispielsweise den Energiesparmodus, dessen Leistungsverbrauch gering ist, eingeschränkt sein.
  • Wenn die ersten Sensorinformationen eingegeben werden, detektiert die Auslöserdetektionseinheit 32 die Auslöseoperation (ST100, Ja). In Abhängigkeit vom Typ der eingegebenen ersten Sensorinformationen erkennt die Auslöserdetektionseinheit 32 einen Typ der Auslöseoperation und speichert den Typ in einem in der Informationsverarbeitungsvorrichtung 31 enthaltenen Register oder dergleichen (ST101). Auf den Typ der Auslöseoperation wird in ST105 Bezug genommen.
  • Beispiele für die ersten Sensorinformationen umfassen eine Mehrzahl von Typen von Informationen, wie beispielsweise Erfassungsinformationen des rechten Näherungssensors 11R, Erfassungsinformationen des linken Näherungssensors 11L und Informationen, die das Mikrofon 13 sendet, wenn das Mikrofon 13 angetippt wird. Ein Typ der Auslöseoperation gemäß jedem der Typen wird in der Auslöserdetektionseinheit 32 detektiert. Zum Beispiel wird im Falle der Erfassungsinformationen des rechten Näherungssensors 11R die Auslöseoperation des Haltens der rechten Hand detektiert, im Falle der Erfassungsinformationen des linken Näherungssensors 11L wird die Auslöseoperation des Haltens der linken Hand detektiert, im Falle von Erfassungsinformationen beider Näherungssensoren die Auslöseoperation der beiden Hände, und im Falle der Informationen, die das Mikrofon 13 sendet, wenn das Mikrofon 13 angetippt wird, wird die Auslöseoperation des Antippens detektiert.
  • Als Nächstes wird bestimmt, ob die ersten Sensorinformationen kontinuierlich detektiert werden oder nicht (ST102). Die Bestimmung wird durch die Operationseingabesignalerzeugungseinheit 34 durchgeführt. Falls zum Beispiel der rechte Näherungssensor 11R die Erfassungsinformationen in ST100 sendet, wird bestimmt, ob die Erfassungsinformationen kontinuierlich eingegeben werden oder nicht. Die Operationseingabesignalerzeugungseinheit 34 bestimmt, ob die Erfassungsinformationen kontinuierlich über einer vorbestimmten Schwelle eingegeben werden oder nicht, und bestimmt, ob die Auslöseoperation eine Kontinuität aufweist.
  • Falls die Eingabe der ersten Sensorinformationen innerhalb einer vorbestimmten Zeit ansteigt und abfällt, wird bestimmt, dass die Auslöseoperation keine Kontinuität aufweist (ST102, Nein). Als Nächstes aktiviert die Informationsverarbeitungseinheit 31 den Sensor zum Detektieren der Gestenoperation (ST103). In der vorliegenden Ausführungsform wird der Bewegungssensor 12 aktiviert. Ein Betriebsmodus der Informationsverarbeitungsvorrichtung 1 nach dem Aktivieren des Sensors zum Detektieren der Gestenoperation wird als Normalbetriebsmodus (zweiter Leistungsverbrauchsmodus) bezeichnet, und es kann Umschaltung vom Energiesparmodus in den Normalbetriebsmodus durchgeführt werden. Die Informationsverarbeitungseinheit 31 kann die Umschaltung ausführen.
  • Als Nächstes wartet die Gestenerkennungseinheit 33 auf die zweiten Sensorinformationen, die innerhalb einer vorbestimmten Zeit durch Time-out eingegeben werden können (ST104). Falls die Gestenoperation durch den Benutzer durch die Erfassungsinformationen des Bewegungssensors 12 (ein Beispiel für zweite Sensorinformationen) innerhalb der vorbestimmten Zeit nicht erkannt werden kann (ST104, Nein), endet die Verarbeitung.
  • Falls die Gestenoperation durch den Benutzer durch die Erfassungsinformationen des Bewegungssensors 12 (ein Beispiel für zweite Sensorinformationen) innerhalb der vorbestimmten Zeit erkannt werden kann (ST104, Ja), interpretiert die Operationseingabesignalerzeugungseinheit 34 die Operationseingabe, die der Benutzer zu tun beabsichtigt, durch die in ST104 erkannte Gestenoperation auf der Basis einer Kombination des Typs der seit ST101 aufgezeichneten Auslöseoperation und der in ST104 erkannten Gestenoperation (ST105).
  • Wie zuvor in Bezug auf 1 beschrieben, werden die gleichen Gestenoperationen durch die Verarbeitung in ST105 zu einem Befehl von „Vergrößern“ (ein Beispiel für eine Operationseingabe), einem Befehl von „Lautstärke reduzieren“ (ein Beispiel für eine Operationseingabe) oder einem Befehl von „Zurück zur vorhergehenden Seite“ (ein Beispiel für eine Operationseingabe).
  • Als Nächstes führt die Informationsverarbeitungseinheit 31 oder das tragbare Endgerät 3 die in ST105 interpretierte Operationseingabe aus (ST106). Gemäß dem Inhalt der Operationseingabe können alle von dem Kopfhörer 2 oder der Informationsverarbeitungsvorrichtung 1 die Operationseingabe ausführen.
  • Unter Bezugnahme auf 8 wird das Time-out in ST104 beschrieben. Im Zeitdiagramm von 8 stellt die obere jeder der Sensorinformationen dar, dass die Sensorinformationen eingegeben werden, und die untere jeder der Sensorinformationen stellt dar, dass die Sensorinformationen nicht eingegeben werden. Die horizontalen Achsen stellen die Zeit dar.
  • Wie in 8 (a) dargestellt, legt die Gestenerkennungseinheit 22 die vorbestimmte Zeit durch Time-out fest, wenn die Eingabe der ersten Sensorinformationen existiert und die Auslöseoperation detektiert wird. In 8 ist ein Startpunkt der vorbestimmten Zeit auf einen Zeitpunkt festgelegt, zu welchem Detektion der ersten Sensorinformationen endet. Alternativ kann der Startpunkt der vorbestimmten Zeit auf einen Zeitpunkt festgelegt sein, zu welchem Erkennung der ersten Sensorinformationen beginnt.
  • Wie in 8 (b) dargestellt, bestimmt die Gestenerkennungseinheit 33, dass die Gestenoperation und die Operationseingabe durch den Benutzer nicht existieren, wenn die Eingabe der ersten Sensorinformationen innerhalb der vorbestimmten Zeit nicht existiert. Selbst wenn daher die Auslöseoperation keine Auslöseoperation ist, die der Benutzer nicht beabsichtigt, kann die falsche Eingabe durch die Informationsverarbeitungsvorrichtung 1 unterbunden werden.
  • Wie ferner durch die gestrichelten Linien in 8 dargestellt, wird nur innerhalb einer vorbestimmten Zeit ab der Zeit, zu welcher die Auslöseoperation detektiert wird, bestimmt, ob die zweiten Sensorinformationen eingegeben werden oder nicht. Wenn der Benutzer die Operationseingabe durchführt, muss der Benutzer daher die Gestenoperation nach expliziter Durchführung der Auslöseoperation durchführen. Ähnlich kann in der Struktur die falsche Eingabe durch die Informationsverarbeitungsvorrichtung 1 unterbunden werden.
  • Falls außerdem die Eingabe der zweiten Sensorinformationen existiert (8 (a)), wird durch die Gestenerkennungseinheit 33 erkannt, ob dies die Gestenoperation ist oder nicht.
  • Das Detail der Verarbeitung in ST102, in welchem bestimmt wird, dass die Auslöseoperation Kontinuität aufweist, wird unter Bezugnahme auf 7 beschrieben. Die Verarbeitung in diesem Fall, die ähnlich der Verarbeitung in 6 ist, wird durch die gleichen Bezugszeichen angegeben und eine Beschreibung davon wird unterlassen.
  • Wie in 7 dargestellt, wird die Ausführung der Operationseingabe in ST106 kontinuierlich durchgeführt, bis die Auslöseoperation endet (ST107, Ja). Falls zum Beispiel die Auslöseoperation die Operation des Haltens der rechten Hand bei Ansprechen des rechten Näherungssensors 11R ist, wird die Operationseingabe, die durch die Kombination des Typs der Auslöseoperation und der Gestenoperation interpretiert wird, kontinuierlich durchgeführt, während die rechte Hand gehalten wird.
  • Kontinuität der Auslöseoperation wird unter Bezugnahme auf 9 beschrieben. Das Zeitdiagramm von 9 ähnelt dem Zeitdiagramm von 8, und die obere jeder der Sensorinformationen stellt dar, dass die Sensorinformationen eingegeben werden, und die untere jeder der Sensorinformationen stellt dar, dass die Sensorinformationen nicht eingegeben werden. Die horizontalen Achsen stellen die Zeit dar.
  • Die Bestimmung von Kontinuität der Auslöseoperation in ST102 in 6 wird durch Verwenden der vorbestimmten Schwelle in 9 durchgeführt. Die Operationseingabesignalerzeugungseinheit 34 bestimmt Kontinuität der Auslöseoperation auf der Basis dessen, ob die ersten Sensorinformationen kontinuierlich über der vorbestimmten Schwelle zum Bestimmen der Kontinuität der Auslöseoperation eingegeben werden oder nicht, falls ein Zeitpunkt, zu welchem die Eingabe der ersten Sensorinformationen ansteigen, ein Startpunkt ist. Falls die ersten Sensorinformationen nicht kontinuierlich über der vorbestimmten Schwelle in 9 (a) eingegeben werden, wird bestimmt, dass die Auslöseoperation eine einzelne Auslöseoperation ist. Falls die ersten Sensorinformationen kontinuierlich über der vorbestimmten Schwelle in 9 (b) und (c) eingegeben werden wird bestimmt, dass die Auslöseoperation eine Auslöseoperation mit Kontinuität, das heißt, eine kontinuierliche Auslöseoperation ist.
  • Obwohl Sensorgeräte, welche die ersten Sensorinformationen ausgeben, gleich sind, werden die Typen der ersten Sensorinformationen in Abhängigkeit vom Vorhandensein oder Nichtvorhandensein von Kontinuität der Auslöseoperation als verschieden voneinander betrachtet. Obwohl zum Beispiel die Sensorinformationen, die durch jeden der gleichen rechten Näherungssensoren 11R ausgegeben werden, werden die einzelne Auslöseoperation und die kontinuierliche Auslöseoperation als voneinander verschiedene Typen von Sensorinformationen betrachtet.
  • Daher kann bei der Interpretation der Operationseingabe (Bestimmung des Verarbeitungsbefehls) in ST105 in 6 oder 7 jeder von der einzelnen Auslöseoperation und der kontinuierlichen Auslöseoperation in Bezug auf die gleichen Gestenoperationen eine unterschiedliche Interpretation der Operationseingabe zugeteilt werden.
  • Vorstehend wurde das Verfahren beschrieben, in welchem die verschiedenen Typen von Operationseingaben der jeweiligen Geräte, welche die Auslöseoperationen detektieren, oder die jeweiligen Kombinationen der Geräten in Bezug auf die gleichen Gesteneingaben. Zudem wurde vorstehend auch das Verfahren beschrieben, in welchem die Operationseingaben in Bezug auf die Auslöseoperationen der einzelnen Auslöseoperation und der kontinuierlichen Auslöseoperation als verschieden betrachtet werden. Als Nächstes wird im Anschluss ein Verfahren beschrieben, in welchem durch Verwenden der kontinuierlichen Auslöseoperation ein kontinuierlicher Wert in die Operationseingabe einbezogen wird.
  • Falls ein Musikabspielgerät als eine Anwendung ausgeführt ist, kann es sein, dass die zuvor beschriebene Operationseingabe allein nicht die Gesamtheit einer für das Musikabspielgerät erforderliche Benutzerschnittstelle umfasst. Zum Beispiel werden verschiedene Operationen benötigt, beispielsweise Einstellen von Lautstärke, Einlegen eines Albums, Überspringen von kontinuierlicher Musik und Umschalten auf zufällige Wiedergabe. Darüber hinaus ist es wünschenswert, dass ein kontinuierlicher Wert festgesetzt werden kann, wenn die Lautstärke eingestellt wird.
  • In Bezug auf eine einzige Tastenbetätigung ist es möglich, dass der kontinuierliche Wert zum Beispiel durch Drücken und Gedrückthalten einer Taste festgesetzt wird. Wenn es jedoch eine Einschränkung bei der zur Eingabe verwendeten menschlichen Schnittstelle, beispielsweise einem am Körper tragbaren Gerät, gibt, können einige Probleme verursacht werden. Falls ein am Körper tragbares Gerät keine Taste aufweist, ist es vorstellbar, dass das am Körper tragbare Gerät durch eine Gestenoperation eingibt. Es ist jedoch schwierig, dass ein kontinuierlicher Wert durch die Gestenoperation festgesetzt wird. Dies rührt von Unterschieden von natürlichen Sinnen der Benutzer her.
  • In der vorliegenden Ausführungsform wird daher ein Wert gemäß einer Dauer einer Zeit der detektierten kontinuierlichen Operation als der kontinuierliche Wert verwendet, falls eine kontinuierliche Auslöseoperation in Bezug auf eine Operationseingabe detektiert wird, die einen kontinuierlichen Wert benötigt. Die Dauer der Zeit der kontinuierlichen Auslöseoperation wird so extrahiert, wie im Folgenden beschrieben.
  • Es wird auf 9 (b) und (c) Bezug genommen. Es ist vorzuziehen, dass eine Endperiode, das heißt, ein Endpunkt der Dauer der Zeit der kontinuierlichen Auslöseoperation ein Zeitpunkt ist, zu welchem die kontinuierliche Auslöseoperation endet. Mit anderen Worten wird der Endpunkt auf einen Zeitpunkt festgelegt, zu welchem die Eingabe der ersten Sensorinformationen gestoppt wird oder dergleichen. Falls zum Beispiel der Benutzer eine Gestenoperation, wie beispielsweise Nicken bei gehaltener Hand durchführt, und Ansprechen des Näherungssensors bewirkt wird, wird ein Zeitpunkt, zu welchem das Halten der Hand gestoppt wird, der Endzeitpunkt der kontinuierlichen Auslöseoperation.
  • Ein Startpunkt der Dauer der Zeit der kontinuierlichen Auslöseoperation ist nicht begrenzt, und es gibt zum Beispiel drei Muster, einen Zeitpunkt, zu welchem die Eingabe der ersten Sensorinformationen gestartet wird, einen Zeitpunkt, zu welchem bestimmt wird, dass die Auslöseoperation Kontinuität aufweist, und einen Zeitpunkt, zu welchem die Gestenoperation erkannt wird. Es kann jedes Muster ausgewählt werden.
  • Die Operationseingabesignalerzeugungseinheit 34 erzeugt den Befehl auf der Basis der interpretierten Operationseingabe und gibt den Befehl an den späteren Verarbeitungsblock weiter. Falls der kontinuierliche Wert durch das oben beschriebene Verfahren aus der kontinuierlichen Auslöseoperation extrahiert wird, wird ein Befehl erzeugt, in welchem der kontinuierliche Wert oder ein Wert gemäß dem kontinuierlichen Wert ein Faktor ist. Der Wert gemäß dem kontinuierlichen Wert ist zum Beispiel ein zum kontinuierlichen Wert proportionaler Wert, ein auf einem Standard basierter Quantenwert, ein auf der Basis einer vorbestimmten Funktion (zum Beispiel Sigmoidfunktion oder dergleichen) berechneter Wert oder dergleichen. Gemäß einem Ziel der Operationseingabe kann ein gewünschtes Verfahren ausgewählt werden, in welchem der Wert gemäß dem kontinuierlichen Wert erhalten wird.
  • <Kurzdarstellung>
  • Der Hauptzweck der vorstehend beschriebenen Ausführungsform ist es, dem Benutzer zu ermöglichen, eine komplexe Operationseingabe durchzuführen, ohne den Benutzer zu belasten. Leichtigkeit und kleine Größe werden in Bezug auf ein am Körper tragbares Gerät angestrebt, und eine Größe einer menschlichen Schnittstelle, die in das am Körper tragbaren Gerät eingefügt sein kann, ist manchmal ungefähr eine Taste. Die komplexe Operation kann jedoch nicht nur durch die Taste durchgeführt werden.
  • Folglich ist es vorstellbar, dass zum Beispiel Erfassung des Näherungssensors als ein Ersatz für Detektion eines Drückens der Taste verwendet wird. In diesem Fall ist es jedoch möglich, dass die Anzahl von Eingaben, die der Benutzer nicht beabsichtigt, erhöht wird. Eine Berührungseinrichtung, die einen elektrostatischen Schalter verwendet, benötigt eine Region mit einer gewissen Fläche, und es ist zu befürchten, dass Miniaturisierung, die für die menschliche Schnittstelle des am Körper tragbaren Geräts wichtig ist, unmöglich ist.
  • In Patentliteratur 1 in der Vergangenheit wird die sogenannte „Berührungsgeste“ als die Operationseingabe verwendet. Ein Typ einer „Berührungsgeste“, die der Benutzer aufzeichnen kann, ist jedoch beschränkt, und es besteht das Problem, dass eine Variation der Operationseingaben schwer zu erweitern ist. Es gab solch ein technisches Problem in der Vergangenheit. Dagegen ist gemäß der vorliegenden Ausführungsform, die oben beschrieben wurde, die Anzahl von Operationseingaben, die der einen Gestenoperationen entsprechen, nicht auf eine beschränkt, sondern es kann eine Mehrzahl von Operationen durchgeführt werden. Mit anderen Worten kann gemäß der vorliegenden Ausführungsform die Operationseingabe diversifiziert werden, ohne den Benutzer zu belasten.
  • Wie zudem unter Bezugnahme auf 8 beschrieben, kann, falls die Gestenerkennung durch Time-out nicht existiert, gemäß der Struktur der vorliegenden Ausführungsform, in welcher der Verarbeitungsbefehl gemäß der Operationseingabe nicht bestimmt wird, die Eingabe, die der Benutzer nicht beabsichtigt, verhindert werden, und die falsche Operationseingabe wird nicht durchgeführt, wenn der Auslöser sich versehentlich in Gang setzt.
  • Außerdem wird in der vorliegenden Ausführungsform eine einzelne Auslöseoperation detektiert, falls die Dauer der Zeit, in welcher die ersten Sensorinformationen kontinuierlich eingegeben werden, kürzer als die vorbestimmte Schwelle ist, und die kontinuierliche Auslöseoperation wird detektiert, falls die Dauer der Zeit, in welcher die ersten Sensorinformationen kontinuierlich eingegeben werden, länger als die vorbestimmte Schwelle ist, wenn die ersten Sensorinformationen eingegeben werden. Dann wird die Operationseingabe auf der Basis der Kombination der detektierten einzelnen Auslöseoperation oder der detektierten kontinuierlichen Auslöseoperation und der erkannten Gestenoperation interpretiert. Daher können die beiden Typen von Auslöseoperationen, die einzelne Auslöseoperation und die kontinuierliche Auslöseoperation, auf die eine Auslöseoperation festgelegt werden, und die Variation der Operationseingaben kann erweitert werden.
  • Darüber hinaus wird in der vorliegenden Ausführungsform, falls die kontinuierliche Auslöseoperation detektiert wird, der Wert gemäß der Dauer der Zeit der detektierten kontinuierlichen Auslöseoperation in die Informationseingabe durch die Operationseingabe einbezogen. Aufgrund dessen kann die Operationseingabe, die den kontinuierlichen Wert verwendet, ohne einen Unterschied zwischen verschiedenen Gestenoperationen durch die jeweiligen Individuen robust erkannt werden, und sie kann durch eine einfache Operation des Hebens der Hand und Bewirken eines Ansprechens des Näherungssensors und anschließendes Entfernen der Hand und Stoppen des Ansprechens des Näherungssensors durchgeführt werden.
  • <Modifiziertes Beispiel>
  • Außerdem kann die vorliegende Ausführungsform modifiziert werden, wie im Folgenden beschrieben.
  • Zum Beispiel ist der Kopfhörer 2 als das am Körper tragbare Gerät in der Ausführungsform dargestellt. Das am Körper tragbare Gerät ist jedoch nicht darauf beschränkt. Andere Beispiele für ein am Körper tragbares Gerät umfassen ein Headset und ein Endgerät vom Halsbandtyp, das zum Beispiel physisch auf der Schulter getragen werden kann. Die oben beschriebene Ausführungsform kann bei solch einer Vorrichtung modifiziert werden.
  • Außerdem kann die Ausführungsform auf eine auf den Kopf aufsetzbare Anzeige angewendet werden. 10 ist eine grafische Darstellung, die ein Beispiel eines äußeren Erscheinungsbildes der Informationsverarbeitungsvorrichtung 1 in der modifizierten Ausführungsform darstellt, in welcher die vorliegende Technologie auf eine auf den Kopf aufsetzbare Anzeige angewendet wird.
  • Wie in 10 dargestellt, wird im vorliegenden modifizierten Beispiel eine auf den Kopf aufsetzbare Anzeige vom Brillentyp 2a als das Gehäuse 20 eingesetzt, das so strukturiert ist, dass es durch den Benutzer physisch am Körper getragen werden kann. Die auf den Kopf aufsetzbare Anzeige vom Brillentyp 2a umfasst elektrostatische Berührungseinrichtungen 14.
  • Die Anordnungsposition der Berührungseinrichtung 14 ist nicht beschränkt, und sie kann eine Position sein, in welcher die Operation durch die Hand des Benutzers detektierbar ist, wenn die auf den Kopf aufsetzbare Anzeige vom Brillentyp 2a vom Benutzer getragen wird. Wie zum Beispiel in 10 dargestellt, sind die Berührungseinrichtungen 14 derart strukturiert, dass die Berührungseinrichtungen 14 um Schläfen des Benutzers angeordnet sind, der die auf den Kopf aufsetzbare Anzeige vom Brillentyp 2a trägt.
  • Im vorliegenden modifizierten Beispiel stellen die Berührungseinrichtungen 14 die Funktion bereit, die der Funktion ähnelt, die durch den rechten Näherungssensor 11R und den linken Näherungssensor 11L im Strukturbeispiel in 2 bereitgestellt wird. Mit anderen Worten erzeugen die Berührungseinrichtungen 14 die ersten Sensorinformationen, die zum Detektieren der Auslöseoperation durch Erfassung nötig sind, und geben die ersten Sensorinformationen in die Informationsverarbeitungsvorrichtung 1 ein.
  • Die Berührungseinrichtung 14 kann eine Berührungseinrichtung sein, die zum Detektieren von Berührung des Fingers des Benutzers nicht nur an einem einzigen Punkt, sondern an mehreren Punkten in der Lage ist. Die Mehrpunkt-Berührungseinrichtung ist die Berührungseinrichtung 14, die zum Erfassen eines oder mehrerer Berührungspunkte in der Lage ist. In diesem Fall können eine Auslöseoperation durch Berührung des einen Fingers und eine Auslöseoperation durch Berührung der zwei Finger als verschiedene Auslöseoperationen betrachtet werden. Außerdem ist die Auslöserdetektionseinheit 32 in Abhängigkeit von den Berührungspunkten, die durch die Berührungseinrichtung 14 erfasst werden, so strukturiert, dass sie verschiedene Typen von Auslöseoperationen detektiert.
  • Die Anordnungsposition der Berührungseinrichtung 14 ist nicht darauf beschränkt, um die Schläfe des Benutzers zu sein, sondern kann innerhalb eines Bereichs sein, in welchem die Hand des Benutzers die Berührungseinrichtung 14 physisch erreicht, derart dass die Operation durch die Hand des Benutzers detektierbar ist. Außerdem kann die Berührungseinrichtung 14 außerhalb des Sichtfeldes des Benutzers angeordnet sein, der das Gehäuse 20 trägt. Selbst wenn die Berührungseinrichtung 14 in einer Position angeordnet ist, in welcher der Benutzer, der das Gehäuse 20 trägt, nicht zum direkten Durchführen visueller Erkennung in der Lage ist, ist es gemäß dem vorliegenden modifizierten Beispiel, auf das die vorliegende Technologie angewendet wird, möglich, dass der Benutzer die Operationseingabe in die Informationsverarbeitungsvorrichtung 1 auf der Basis der Auslöseoperation und der Gestenoperation durch den Benutzer ohne Sicht des Benutzers durchführen kann.
  • In Bezug auf die auf den Kopf aufsetzbare Anzeige gibt es einige Erfordernisse. Zum Beispiel möchte der Benutzer beim Betrachten von Inhalt virtueller Realität manchmal irgendeine Eingabe in das System durchführen. Falls der Benutzer die Eingabe ohne eine Fernsteuerung durchführt, ist es im vorliegenden modifizierten Beispiel möglich, dass der Benutzer die Eingabe in das System durch Antippen eines Teils der auf den Kopf aufsetzbaren Anzeige vom Brillentyp 2a (Berührungseinrichtung 14) und Durchführen der Gestenoperation durchführt. Es ist zu erwähnen, dass die auf den Kopf aufsetzbare Anzeige vom Brillentyp 2a eine Anzeige vom Übertragungstyp umfassen kann und eine Anzeige von Nicht-Übertragungstyp umfassen kann.
  • <Ergänzende Anmerkungen>
  • Ein Teil der in der vorliegenden Spezifikation offenbarten technischen Ideen kann nachstehend in (1) bis (11) beschrieben werden.
    1. (1) Informationsverarbeitungsvorrichtung, umfassend:
      • eine Steuereinheit, die eine Auslöseoperation gemäß einem Typ von ersten Sensorinformationen detektiert, eine Gestenoperation, die von einem Benutzer durchgeführt wird, auf der Basis von zweiten Sensorinformationen als eine Operationseingabe erkennt und die Operationseingabe auf der Basis einer Kombination der detektierten Auslöseoperation und der erkannten Gestenoperation bestimmt.
    2. (2) Informationsverarbeitungsvorrichtung nach (1), wobei
      • die Steuereinheit die Gestenoperation auf der Basis der zweiten Sensorinformationen erkennt, die innerhalb einer vorbestimmten Zeit nach dem Detektieren der Auslöseoperation eingegeben werden.
    3. (3) Informationsverarbeitungsvorrichtung nach (1) oder (2), wobei
      • die Steuereinheit
      • eine einzelne Auslöseoperation detektiert, falls eine Dauer einer Zeit, in welcher die ersten Sensorinformationen kontinuierlich eingegeben werden, kürzer als eine vorbestimmte Schwelle ist, eine kontinuierliche Auslöseoperation detektiert, falls die Dauer der Zeit, in welcher die ersten Sensorinformationen kontinuierlich eingegeben werden, länger als die vorbestimmte Schwelle ist, wenn die ersten Sensorinformationen eingegeben werden, und
      • die Operationseingabe auf der Basis einer Kombination der detektierten einzelnen Auslöseoperation oder der detektierten kontinuierlichen Auslöseoperation und der erkannten Gestenoperation bestimmt.
    4. (4) Informationsverarbeitungsvorrichtung nach (3), wobei,
      • falls die Steuereinheit die kontinuierliche Auslöseoperation detektiert, die Steuereinheit bewirkt, dass die Informationen, die durch die Operationseingabe eingegeben werden, einen Wert gemäß einer Dauer einer Zeit der detektierten kontinuierlichen Auslöseoperation umfassen.
    5. (5) Informationsverarbeitungsvorrichtung nach (4), wobei
      • die Steuereinheit einen Zeitpunkt, zu welchem die Eingabe der ersten Sensorinformationen endet, als einen Endpunkt der Zeitdauer der kontinuierlichen Auslöseoperation bestimmt.
    6. (6) Informationsverarbeitungsvorrichtung nach (4) oder (5), wobei
      • die Steuereinheit einen Zeitpunkt, zu welchem die Eingabe der ersten Sensorinformationen startet, als einen Startpunkt der Dauer der Zeit der kontinuierlichen Auslöseoperation bestimmt.
    7. (7) Informationsverarbeitungsvorrichtung nach (4) oder (5), wobei
      • die Steuereinheit einen Zeitpunkt, zu welchem die kontinuierliche Auslöseoperation detektiert wird, als einen Startpunkt der Dauer der Zeit der kontinuierlichen Auslöseoperation bestimmt.
    8. (8) Informationsverarbeitungsvorrichtung nach (4) oder (5), wobei
      • die Steuereinheit einen Zeitpunkt, zu welchem die Gestenoperation erkannt wird, als einen Startpunkt der Dauer der Zeit der kontinuierlichen Auslöseoperation bestimmt.
    9. (9) Informationsverarbeitungsvorrichtung nach einem von (1) bis (8), wobei
      • ein Sensor, der die ersten Sensorinformationen ausgibt, auf einem Gehäuse angeordnet ist, das so strukturiert ist, dass es vom Benutzer physisch am Körper getragen werden kann, und
      • der Sensor in einer Position angeordnet ist, in welcher der Sensor zum Detektieren einer Operation durch eine Hand des Benutzers in der Lage ist.
    10. (10) Informationsverarbeitungsvorrichtung nach (9), wobei
      • die Position, in welcher der Sensor angeordnet ist, eine Position ist, die außerhalb eines Sichtfeldes des Benutzers ist, der das Gehäuse am Körper trägt.
    11. (11) Informationsverarbeitungsvorrichtung nach (9) oder (10), wobei
      • die ersten Sensorinformationen Erfassungsinformationen eines Berührungssensors sind, der zum Erfassen eines oder mehrerer Berührungspunkte in der Lage ist, und
      • die Steuereinheit die Auslöseoperation gemäß einer Anzahl der Berührungspunkte detektiert, die der Berührungssensor erfasst.
    12. (12) Informationsverarbeitungsvorrichtung nach einem von (1) bis (11), wobei
      • die Informationsverarbeitungsvorrichtung einen ersten Leistungsmodus und einen zweiten Leistungsmodus als Leistungsverbrauchsmodi der Informationsverarbeitungsvorrichtung aufweist,
      • wenn die Informationsverarbeitungsvorrichtung im ersten Leistungsmodus ist und die Steuereinheit die Auslöseoperation detektiert, die Steuereinheit den Leistungsverbrauchsmodus der Informationsverarbeitungsvorrichtung in den zweiten Leistungsmodus umschaltet, und
      • eine Menge von Leistungsverbrauch des ersten Leistungsmodus geringer als eine Menge des Leistungsverbrauchs des zweiten Leistungsmodus ist.
    13. (13) Informationsverarbeitungsverfahren, umfassend:
      • Detektieren einer Auslöseoperation gemäß einem Typ von ersten Sensorinformationen;
      • Erkennen einer Gestenoperation, die von einem Benutzer durchgeführt wird, als eine Operationseingabe auf der Basis von zweiten Sensorinformationen; und
      • Bestimmen der Operationseingabe auf der Basis einer Kombination der detektierten Auslöseoperation und der erkannten Gestenoperation.
    14. (14) Programm, das einen Computer veranlasst, Folgendes auszuführen:
      • einen Schritt des Detektierens einer Auslöseoperation gemäß einem Typ von ersten Sensorinformationen;
      • einen Schritt des Erkennens einer Gestenoperation, die von einem Benutzer durchgeführt wird, als eine Operationseingabe auf der Basis von zweiten Sensorinformationen; und
      • einen Schritt des Bestimmens der Operationseingabe auf der Basis einer Kombination der detektierten Auslöseoperation und der erkannten Gestenoperation.
  • Bezugszeichenliste
  • 1
    Informationsverarbeitungsvorrichtung
    2
    Kopfhörer
    2a
    auf den Kopf aufsetzbare Anzeige vom Brillentyp
    3
    tragbares Endgerät
    11R
    rechter Näherungssensor
    11L
    linker Näherungssensor
    12
    Bewegungssensor
    13
    Mikrofon
    14
    Berührungseinrichtung
    19
    drahtlose Kommunikationseinheit
    20
    Gehäuse
    21, 22
    RAM
    31
    Informationsverarbeitungseinheit (SoC/CPU)
    32
    Auslöserdetektionseinheit
    33
    Gestenerkennungseinheit
    34
    Operationseingabesignalerzeugungseinheit
    38
    CPU
    39
    drahtlose Kommunikationseinheit
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2016018432 [0004]

Claims (14)

  1. Informationsverarbeitungsvorrichtung, umfassend: eine Steuereinheit, die eine Auslöseoperation gemäß einem Typ von ersten Sensorinformationen detektiert, eine Gestenoperation, die von einem Benutzer durchgeführt wird, auf einer Basis von zweiten Sensorinformationen als eine Operationseingabe erkennt und die Operationseingabe auf einer Basis einer Kombination der detektierten Auslöseoperation und der erkannten Gestenoperation bestimmt.
  2. Informationsverarbeitungsvorrichtung nach Anspruch 1, wobei die Steuereinheit die Gestenoperation auf einer Basis der zweiten Sensorinformationen erkennt, die innerhalb einer vorbestimmten Zeit nach dem Detektieren der Auslöseoperation eingegeben werden.
  3. Informationsverarbeitungsvorrichtung nach Anspruch 1, wobei die Steuereinheit eine einzelne Auslöseoperation detektiert, falls eine Dauer einer Zeit, in welcher die ersten Sensorinformationen kontinuierlich eingegeben werden, kürzer als eine vorbestimmte Schwelle ist, eine kontinuierliche Auslöseoperation detektiert, falls die Dauer der Zeit, in welcher die ersten Sensorinformationen kontinuierlich eingegeben werden, länger als die vorbestimmte Schwelle ist, wenn die ersten Sensorinformationen eingegeben werden, und die Operationseingabe auf einer Basis einer Kombination der detektierten einzelnen Auslöseoperation oder der detektierten kontinuierlichen Auslöseoperation und der erkannten Gestenoperation bestimmt.
  4. Informationsverarbeitungsvorrichtung nach Anspruch 3, wobei, falls die Steuereinheit die kontinuierliche Auslöseoperation detektiert, die Steuereinheit bewirkt, dass die Informationen, die durch die Operationseingabe eingegeben werden, einen Wert gemäß einer Dauer einer Zeit der detektierten kontinuierlichen Auslöseoperation umfassen.
  5. Informationsverarbeitungsvorrichtung nach Anspruch 4, wobei die Steuereinheit einen Zeitpunkt, zu welchem die Eingabe der ersten Sensorinformationen endet, als einen Endpunkt der Zeitdauer der kontinuierlichen Auslöseoperation bestimmt.
  6. Informationsverarbeitungsvorrichtung nach Anspruch 4, wobei die Steuereinheit einen Zeitpunkt, zu welchem die Eingabe der ersten Sensorinformationen startet, als einen Startpunkt der Dauer der Zeit der kontinuierlichen Auslöseoperation bestimmt.
  7. Informationsverarbeitungsvorrichtung nach Anspruch 4, wobei die Steuereinheit einen Zeitpunkt, zu welchem die kontinuierliche Auslöseoperation detektiert wird, als einen Startpunkt der Dauer der Zeit der kontinuierlichen Auslöseoperation bestimmt.
  8. Informationsverarbeitungsvorrichtung nach Anspruch 4, wobei die Steuereinheit einen Zeitpunkt, zu welchem die Gestenoperation erkannt wird, als einen Startpunkt der Dauer der Zeit der kontinuierlichen Auslöseoperation bestimmt.
  9. Informationsverarbeitungsvorrichtung nach Anspruch 1, wobei ein Sensor, der die ersten Sensorinformationen ausgibt, auf einem Gehäuse angeordnet ist, das so strukturiert ist, dass es vom Benutzer physisch am Körper getragen werden kann, und der Sensor in einer Position angeordnet ist, in welcher der Sensor zum Detektieren einer Operation durch eine Hand des Benutzers in der Lage ist.
  10. Informationsverarbeitungsvorrichtung nach Anspruch 9, wobei die Position, in welcher der Sensor angeordnet ist, eine Position ist, die außerhalb eines Sichtfeldes des Benutzers ist, der das Gehäuse am Körper trägt.
  11. Informationsverarbeitungsvorrichtung nach Anspruch 9, wobei die ersten Sensorinformationen Erfassungsinformationen eines Berührungssensors sind, der zum Erfassen eines oder mehrerer Berührungspunkte in der Lage ist, und die Steuereinheit die Auslöseoperation gemäß einer Anzahl der Berührungspunkte detektiert, die der Berührungssensor erfasst.
  12. Informationsverarbeitungsvorrichtung nach Anspruch 1, wobei die Informationsverarbeitungsvorrichtung einen ersten Leistungsmodus und einen zweiten Leistungsmodus als Leistungsverbrauchsmodi der Informationsverarbeitungsvorrichtung aufweist, wenn die Informationsverarbeitungsvorrichtung im ersten Leistungsmodus ist und die Steuereinheit die Auslöseoperation detektiert, die Steuereinheit den Leistungsverbrauchsmodus der Informationsverarbeitungsvorrichtung in den zweiten Leistungsmodus umschaltet, und eine Menge von Leistungsverbrauch des ersten Leistungsmodus geringer als eine Menge des Leistungsverbrauchs des zweiten Leistungsmodus ist.
  13. Informationsverarbeitungsverfahren, umfassend: Detektieren einer Auslöseoperation gemäß einem Typ von ersten Sensorinformationen; Erkennen einer Gestenoperation, die von einem Benutzer durchgeführt wird, als eine Operationseingabe auf einer Basis von zweiten Sensorinformationen; und Bestimmen der Operationseingabe auf einer Basis einer Kombination der detektierten Auslöseoperation und der erkannten Gestenoperation.
  14. Programm, das einen Computer veranlasst, Folgendes auszuführen: einen Schritt des Detektierens einer Auslöseoperation gemäß einem Typ von ersten Sensorinformationen; einen Schritt des Erkennens einer Gestenoperation, die von einem Benutzer durchgeführt wird, als eine Operationseingabe auf einer Basis von zweiten Sensorinformationen; und einen Schritt des Bestimmens der Operationseingabe auf einer Basis einer Kombination der detektierten Auslöseoperation und der erkannten Gestenoperation.
DE112017005377.3T 2016-10-25 2017-10-13 Vorrichtung, verfahren und programm zur informationsverarbeitung Pending DE112017005377T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016-208919 2016-10-25
JP2016208919 2016-10-25
PCT/JP2017/037127 WO2018079301A1 (ja) 2016-10-25 2017-10-13 情報処理装置、方法及びプログラム

Publications (1)

Publication Number Publication Date
DE112017005377T5 true DE112017005377T5 (de) 2019-08-01

Family

ID=62024813

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112017005377.3T Pending DE112017005377T5 (de) 2016-10-25 2017-10-13 Vorrichtung, verfahren und programm zur informationsverarbeitung

Country Status (6)

Country Link
US (2) US10712831B2 (de)
JP (1) JP7135859B2 (de)
KR (1) KR20190068543A (de)
CN (1) CN109891364B (de)
DE (1) DE112017005377T5 (de)
WO (1) WO2018079301A1 (de)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200141699A (ko) 2019-06-11 2020-12-21 주식회사 신영 보강 부재
CN115484524A (zh) * 2021-06-16 2022-12-16 开酷科技股份有限公司 具有手势辨识功能的耳机装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016018432A (ja) 2014-07-09 2016-02-01 ローム株式会社 ユーザインタフェイス装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9019201B2 (en) * 2010-01-08 2015-04-28 Microsoft Technology Licensing, Llc Evolving universal gesture sets
US8418993B2 (en) * 2010-02-02 2013-04-16 Chung-Chia Chen System and method of touch free automatic faucet
JP5379036B2 (ja) * 2010-02-09 2013-12-25 株式会社ソニー・コンピュータエンタテインメント 情報処理装置、その制御方法、プログラム、及び情報記憶媒体
JP2011170856A (ja) * 2010-02-22 2011-09-01 Ailive Inc 複数の検出ストリームを用いたモーション認識用システム及び方法
JP2011227638A (ja) * 2010-04-19 2011-11-10 Panasonic Corp 手書き入力装置、手書き入力方法及び手書き入力プログラム
DE102011090162B4 (de) * 2011-12-30 2022-05-05 Robert Bosch Gmbh Alarmvorrichtung für ein Pilotenheadset
EP2821888B1 (de) * 2013-07-01 2019-06-12 BlackBerry Limited Gestenerkennung mit Umgebungslichtsensoren
US20160299570A1 (en) * 2013-10-24 2016-10-13 Apple Inc. Wristband device input using wrist movement
JP2016139174A (ja) * 2015-01-26 2016-08-04 セイコーエプソン株式会社 ヘッドマウントディスプレイ、ヘッドマウントディスプレイの制御方法および制御プログラム
JP2016149587A (ja) * 2015-02-10 2016-08-18 セイコーエプソン株式会社 ヘッドマウントディスプレイ、およびその制御方法と制御プログラム
JP5981591B1 (ja) * 2015-03-17 2016-08-31 株式会社コロプラ 没入型仮想空間でオブジェクト操作を制御するためのコンピュータ・プログラムおよびコンピュータ・システム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016018432A (ja) 2014-07-09 2016-02-01 ローム株式会社 ユーザインタフェイス装置

Also Published As

Publication number Publication date
US10712831B2 (en) 2020-07-14
US20200341557A1 (en) 2020-10-29
KR20190068543A (ko) 2019-06-18
CN109891364A (zh) 2019-06-14
WO2018079301A1 (ja) 2018-05-03
JPWO2018079301A1 (ja) 2019-09-12
CN109891364B (zh) 2022-05-03
US20190204933A1 (en) 2019-07-04
JP7135859B2 (ja) 2022-09-13

Similar Documents

Publication Publication Date Title
DE69829232T2 (de) Mobilkommunikationsendgerät mit der Anzeige überlagertem flächigem Berührungssensor
DE112014000496B4 (de) Benutzerschnittstellenvorrichtung, Eingabeerfassungsverfahren und Fahrzeugeingabevorrichtung
DE102014117345B4 (de) Kontaktsignatursteuerung eines Geräts
DE112011100087T5 (de) Gestenerkennung auf einer tragbaren Vorrichtung mit einem kraftempfindlichen Gehäuse
DE112010003602T5 (de) System und Verfahren zum Anzeigen, Navigieren und Auswählen von elektronischgespeichertem Inhalt auf einem Multifunktionshandgerät
DE102014118762A1 (de) Verfahren zum Steuern eines elektronischen Geräts und elektronisches Gerät
DE202020005847U1 (de) Ein elektronisches Gerät, ein Computerspeichermedium und ein Computerprogrammprodukt
DE212006000081U1 (de) Benutzerschnittstelle zum Entsperren einer Vorrichtung durch Ausführen von Gesten auf einem Entsperrungsbild
DE102016101445B3 (de) Elektronisches Gerät und Informationsverarbeitungsverfahren
DE102014019600B4 (de) Schaltverfahren und elektronische Vorrichtung
DE202009013200U1 (de) Stromsparendes Verwaltungsverfahren und -system für Computer-Peripheriegerät
DE102005021527A1 (de) Anordnung zum Eingeben von Schriftzeichen
DE102013109862A1 (de) Vorrichtung und Verfahren für Benutzeranbindung sowie Endgerät, das dieselben benutzt
CN104123024A (zh) 一种终端设备及设备控制方法
DE102017115936A1 (de) Systeme und Verfahren zum Aktivieren eines Sprachassistenten und Bereitstellen eines Indikators, dass der Sprachassistent Hilfe zu leisten hat
DE112017005377T5 (de) Vorrichtung, verfahren und programm zur informationsverarbeitung
CN109194815A (zh) 基于多屏终端的操作方法、装置及计算机可读存储介质
DE102014117343B4 (de) Erfassen einer Pause in einer akustischen Eingabe in ein Gerät
DE102017120697A1 (de) Eye-Tracking Auswahlvalidierung
EP1573502A2 (de) Schnell-eingabevorrichtung
DE112016004888T5 (de) Operationseingabevorrichtung, informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm
DE102021208686A1 (de) Steuerung und verfahren zur gestenerkennung und gestenerkennungsvorrichtung
DE102014108592B4 (de) Ausgaben eines tragbaren Informationshandhabungsgeräts
DE102014013064A1 (de) handgehaltene, elektronische Vorrichtung und Betriebsverfahren für diese
DE102019100093A1 (de) Elektronische Vorrichtung und Steuerverfahren für diese