DE112018007216T5 - Eingabesteuerungsvorrichtung, Anzeigeeingabevorrichtung und Eingabesteuerungsverfahren - Google Patents

Eingabesteuerungsvorrichtung, Anzeigeeingabevorrichtung und Eingabesteuerungsverfahren Download PDF

Info

Publication number
DE112018007216T5
DE112018007216T5 DE112018007216.9T DE112018007216T DE112018007216T5 DE 112018007216 T5 DE112018007216 T5 DE 112018007216T5 DE 112018007216 T DE112018007216 T DE 112018007216T DE 112018007216 T5 DE112018007216 T5 DE 112018007216T5
Authority
DE
Germany
Prior art keywords
touch
points
contact
touched
input device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE112018007216.9T
Other languages
English (en)
Other versions
DE112018007216B4 (de
Inventor
Yasuaki Koami
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of DE112018007216T5 publication Critical patent/DE112018007216T5/de
Application granted granted Critical
Publication of DE112018007216B4 publication Critical patent/DE112018007216B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03548Sliders, in which the moving part moves in a plane
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0362Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 1D translations or rotations of an operating part of the device, e.g. scroll wheels, sliders, knobs, rollers or belts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/039Accessories therefor, e.g. mouse pads
    • G06F3/0393Accessories for touch pads or touch screens, e.g. mechanical guides added to touch screens for drawing straight lines, hard keys overlaying touch screens or touch pads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Eine Berührungsinformationserfassungseinheit (31) erfasst Berührungsinformationen, die die Positionen der Berührungspunkte und die elektrostatischen Kapazitäten der Berührungspunkte enthalten. Eine Berührungsmittelbestimmungseinheit (32) bestimmt, unter Verwendung der Berührungsinformation, ob jeder der Berührungspunkte von einem Finger oder von einer Eingabevorrichtung (1), mit der ein Finger in Kontakt steht, berührt wird, und bestimmt dadurch, ob es einen von der Eingabevorrichtung (1) berührten Berührungspunkt gibt, mit dem der Finger in Kontakt steht. In einem Fall, in dem festgestellt wird, dass es einen Berührungspunkt gibt, der von der Eingabevorrichtung (1) berührt wird, mit der der Finger in Kontakt steht, und die Gesamtzahl der Berührungspunkte auf einem Berührungsfeld (2) eine effektive obere Grenzzahl überschreitet, bestimmt eine Operationsbestimmungseinheit (33), dass ein oder mehrere von Fingern berührte Berührungspunkte Punkte sind, an denen Berührungen unwirksam werden sollen, und betrachtet den einen oder die mehreren Berührungspunkte als Punkte, von denen Berührungen gelöst werden, wobei die Anzahl des einen oder der mehreren Berührungspunkte gleich einer Anzahl ist, um die die Gesamtzahl die effektive obere Grenzzahl überschreitet.

Description

  • TECHNISCHER BEREICH
  • Die vorliegende Erfindung betrifft eine Vorrichtung zur Steuerung der Akzeptanz von Eingabeoperationen.
  • STAND DER TECHNIK
  • Aus der Perspektive des Designs oder der Bedienbarkeit besteht ein Bedarf an der Implementierung sowohl eines Berührungsfeldes als auch eines mechanischen Schalters. Als ein solcher mechanischer Schalter sind Eingabevorrichtungen wie ein Knopf auf einem Berührungsfeld bekannt. Wenn ein Benutzer eine solche Eingabevorrichtung bedient, wird die Operation durch den Benutzer an mehreren Punkten als Kontakt zwischen der Eingabevorrichtung und dem Berührungsfeld erkannt.
  • Bei einer Vorrichtung mit einem Berührungsfeld gibt es eine Obergrenze für die Anzahl der Berührungen, die aufgrund von Faktoren wie der Verarbeitungskapazität als effektive Berührungen erkannt werden können. Daher gibt es Fälle, in denen der Benutzer keine Eingabeoperationen mit der Eingabevorrichtung durchführen kann, da von der Eingabevorrichtung berührte Berührungspunkte nicht als Punkte erkannt werden, an denen Berührungen wirksam sind, wenn es viele Berührungspunkte gibt, die mit den Fingern berührt werden. Beispielsweise beschreibt Patentliteratur 1 eine Berührungsfeldvorrichtung zur Erkennung von mehreren Berührungseingaben, die gleichzeitig vorgenommen werden, wobei ein oberer Grenzwert der Anzahl der erkennbaren Berührungseingaben sogar zum Zeitpunkt der Eingabeoperation durch Berührung geändert werden kann.
  • ZITIERLISTE
  • PATENTLITERATUR
  • Patentliteratur 1: JP 2011-113221 A
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • TECHNISCHES PROBLEM
  • Selbst in einem Fall, in dem der obere Grenzwert der Anzahl erfassbarer Berührungseingaben wie in Patentliteratur 1 geändert werden kann, gibt es Fälle, in denen eine Eingabeoperation mit der Eingabevorrichtung nicht durchgeführt werden kann, wenn die Gesamtzahl der mit den Fingern berührten Berührungspunkte und der mit der Vorrichtung berührten Berührungspunkte größer als ein geänderter oberer Grenzwert ist.
  • Die vorliegende Erfindung wurde gemacht, um das obige Problem zu lösen, und ein Gegenstand der Erfindung ist es, eine Eingabesteuerungsvorrichtung zu erhalten, die in der Lage ist, die Eingabeoperation unter Verwendung einer Eingabevorrichtung in einem Fall zu priorisieren, in dem es Berührungspunkte gibt, deren Anzahl eine effektive obere Grenzanzahl überschreitet.
  • LÖSUNG DES PROBLEMS
  • Eine erfindungsgemäße Eingabesteuerungsvorrichtung dient der Steuerung der Akzeptanz von Eingabeoperationen über ein Berührungsfeld, auf dem eine Eingabevorrichtung zur Bildung mehrerer Berührungspunkte angeordnet ist, wobei die Eingabesteuerungsvorrichtung enthält: eine Berührungsinformationserfassungseinheit zum Erfassen von Berührungsinformationen, die eine oder mehrere Positionen von jeweiligen Berührungspunkten und eine oder mehrere elektrostatische Kapazitäten der jeweiligen Berührungspunkte enthält; eine Berührungsmittelbestimmungseinheit zum Bestimmen, unter Verwendung der Berührungsinformationen, ob jeder der Berührungspunkte durch einen Finger oder durch die Eingabevorrichtung, mit der ein Finger in Kontakt ist, berührt wird, und dadurch Bestimmen, ob es einen Berührungspunkt gibt, der durch die Eingabevorrichtung, mit der der Finger in Kontakt ist, berührt wird; und eine Operationsbestimmungseinheit, um in einem Fall, in dem die Berührungsmittelbestimmungseinheit bestimmt, dass es einen Berührungspunkt gibt, der von der Eingabevorrichtung berührt wird, mit der der Finger in Kontakt steht, und eine Gesamtzahl von Berührungspunkten auf dem Berührungsfeld eine effektive obere Grenzzahl überschreitet, zu bestimmen, dass ein oder mehrere Berührungspunkte, die von jeweiligen Fingern berührt werden, Punkte sind, an denen jeweilige Berührungen unwirksam werden sollen, und um den einen oder die mehreren Berührungspunkte als Punkte zu betrachten, von denen jeweilige Berührungen gelöst werden, wobei die Zahl des einen oder der mehreren Berührungspunkte gleich einer überschüssigen Zahl ist, um die die Gesamtzahl die effektive obere Grenzzahl überschreitet.
  • VORTEILHAFTE WIRKUNGEN DER ERFINDUNG
  • Nach der vorliegenden Erfindung kann die Eingabeoperation mit der Eingabevorrichtung priorisiert werden, wenn es Berührungspunkte gibt, deren Anzahl die effektive Obergrenze überschreitet.
  • Figurenliste
    • 1 ist ein Diagramm, das eine Konfiguration einer Anzeigeeingabevorrichtung gemäß einer ersten Ausführungsform illustriert.
    • 2A ist eine perspektivische Ansicht, die ein Beispiel einer Eingabevorrichtung veranschaulicht, und 2B ist eine Draufsicht, die das Beispiel der Eingabevorrichtung veranschaulicht.
    • 3A und 3B sind Diagramme zur Erläuterung der Ablaufschemata der ersten Ausführungsform.
    • 4A und 4B sind Diagramme, die jeweils eine beispielhafte Hardware-Konfiguration einer Steuervorrichtung gemäß der ersten Ausführungsform veranschaulichen.
    • 5 ist ein Flussdiagramm, das ein Beispiel für Prozesse veranschaulicht, die von der Steuervorrichtung gemäß der ersten Ausführungsform ausgeführt werden.
    • 6A und 6B sind Diagramme, die Beispiele eines Softwareschlüssels veranschaulichen, dem die Funktion der Steuerung der Lautstärke zugeordnet ist.
    • 7 ist ein Diagramm, das eine Konfiguration einer Anzeigeeingabevorrichtung gemäß einer zweiten Ausführungsform illustriert.
    • 8A und 8B sind Diagramme zur Erläuterung der Ablaufschemata einer dritten Ausführungsform.
    • 9A und 9B sind Diagramme zur Erläuterung der Umrisse der Prozesse einer vierten Ausführungsform.
    • FIG. l0A und 10B sind Diagramme zur Erläuterung der Umrisse von Prozessen einer fünften Ausführungsform, und 10C ist ein Diagramm, das die Größenbeziehung zwischen elektrostatischen Kapazitäten veranschaulicht.
    • 11A und 11B sind Diagramme zur Erläuterung der Umrisse der Prozesse einer sechsten Ausführungsform.
    • 12A, 12B und 12C sind Diagramme zur Erläuterung des Umrisses der Prozesse einer siebten Ausführungsform.
    • 13 ist ein Flussdiagramm, das ein Beispiel für Prozesse darstellt, die von einer Steuervorrichtung der siebten Ausführungsform ausgeführt werden.
    • 14A und 14B sind Diagramme zur Erläuterung der Umrisse der Prozesse einer achten Ausführungsform.
  • BESCHREIBUNG VON AUSFÜHRUNGSFORMEN
  • Um die vorliegende Erfindung näher zu beschreiben, werden im Folgenden Modi zur Ausführung der vorliegenden Erfindung anhand der beigefügten Zeichnungen beschrieben.
  • Erste Ausführungsform
  • 1 ist ein Diagramm, das eine Konfiguration einer Anzeigeeingabevorrichtung 10 gemäß einer ersten Ausführungsform illustriert. In 1 ist auch eine Eingabevorrichtung 1 dargestellt, die für die Anzeigeeingabevorrichtung 10 verwendet wird. Die Anzeigeeingabevorrichtung 10 enthält ein Berührungsfeld 2, eine Steuervorrichtung 3 und eine Anzeige 4. Das Berührungsfeld 2, die Steuervorrichtung 3 und die Anzeige 4 können als die Anzeigeeingabevorrichtung 10 integriert sein, oder sie können unabhängige Vorrichtungen sein und als die Anzeigeeingabevorrichtung 10 funktionieren, indem sie kommunikativ miteinander verbunden sind. Die Anzeigeeingabevorrichtung 10 wird z.B. an einem Fahrzeug montiert. Die Anzeigeeingabevorrichtung 10 wird von einem Benutzer bedient und zeigt dadurch z.B. ein Kartenbild für die Navigation oder ähnliches an.
  • 2A ist eine perspektivische Ansicht, die ein Beispiel für die Eingabevorrichtung 1 zeigt. In der Abbildung von 2A ist die Eingabevorrichtung 1 auf dem Berührungsfeld 2 platziert. 2B ist eine Draufsicht, die das Beispiel der Eingabevorrichtung 1 illustriert.
  • Die Eingabevorrichtung 1 hat einen leitfähigen Abschnitt, den der Finger des Benutzers berührt, wenn der Benutzer eine Hand auf die Eingabevorrichtung 1 legt. Der Abschnitt enthält einen äußeren umlaufenden leitfähigen Abschnitt 11 von im wesentlichen zylindrischer Form. Eine Bodenplatte 12 von im wesentlichen ringförmiger Gestalt aus Harz ist in einer von zwei Öffnungen im äußeren umlaufenden leitenden Abschnitt 11 vorgesehen.
  • Die Eingabevorrichtung 1 enthält mehrere leitende Säulen 13, die in dem äußeren leitfähigen Umfangsabschnitt 11 untergebracht sind. Jede der leitenden Säulen 13 ist im Wesentlichen senkrecht zur Bodenplatte 12 angeordnet. In 2A und 2B ist ein Beispiel dargestellt, in dem drei leitende Säulen 13 an Positionen angeordnet sind, die den Eckpunkten eines gleichseitigen Dreiecks entsprechen. Jede der leitfähigen Säulen 13 ist elektrisch mit dem äußeren umlaufenden leitfähigen Abschnitt 11 verbunden.
  • Wenn die wie oben beschrieben konfigurierte Eingabevorrichtung 1 auf das Berührungsfeld 2 gelegt wird, wird an jeder der Positionen der leitfähigen Säulen 13 ein Berührungspunkt gebildet. In einem Fall, in dem es drei leitfähige Säulen 13 gibt, wie in 2A und 2B dargestellt, bildet die Eingabevorrichtung 1 daher drei Berührungspunkte auf dem Berührungsfeld 2. Die Eingabeoperation eines Benutzers mit der Eingabevorrichtung 1 wird in die Positionen der mehreren Berührungspunkte umgewandelt und dadurch in die Anzeigeeingabevorrichtung 10 eingegeben.
  • Der Benutzer kann die Eingabevorrichtung 1 wie einen Knopf handhaben und somit die Eingabevorrichtung 1 auf dem Berührungsfeld 2 um deren axiale Mitte 14 drehen. Der Benutzer dreht die Eingabevorrichtung 1 auf dem Berührungsfeld 2 um ihre axiale Mitte 14, um z.B. die Lautstärke eines Audiosystems einzustellen. Darüber hinaus ist die Eingabevorrichtung 1 an das Berührungsfeld 2 anbringbar und von diesem abnehmbar, und der Benutzer kann die Vorrichtung 1 auf dem Berührungsfeld 2 frei bewegen.
  • Es ist zu beachten, dass in 2A und 2B nur der Hauptteil der Eingabevorrichtung 1 extrahiert und illustriert ist. Daher kann die Eingabevorrichtung 1 einen leitfähigen Deckel enthalten (in 2A und 2B nicht dargestellt). Der Deckel hat eine im Wesentlichen ringförmige Form und verschließt die Öffnung der beiden Öffnungen im äußeren umlaufenden leitenden Abschnitt 11, wo die Bodenplatte 12 nicht vorgesehen ist.
  • Übrigens, selbst wenn die Eingabevorrichtung 1 auf dem Berührungsfeld 2 platziert ist, kann das Berührungsfeld 2 von einem hohlen Abschnitt 15 aus gesehen werden, der um die axiale Mitte 14 der Eingabevorrichtung 1 herum vorgesehen ist.
  • Der Finger des Benutzers oder die Eingabevorrichtung 1 berührt das Berührungsfeld 2. Das Berührungsfeld 2 ist ein elektrostatisch-kapazitives Berührungsfeld.
  • Wie in 1 dargestellt, enthält die Steuervorrichtung 3 eine Eingabesteuerungsvorrichtung 3A, eine Funktionsausführungseinheit 34 und eine Anzeige-Steuereinheit 35. Die Eingabesteuerungsvorrichtung 3A steuert die Steuerung der Eingabebedienung über das Berührungsfeld 2. Die Eingabesteuerungsvorrichtung 3 A enthält eine Berührungsinformationserfassungseinheit 31, eine Berührungsmittelbestimmungseinheit 32 und eine Operationsbestimmungseinheit 33.
  • Wenn das Berührungsfeld 2 berührt wird, erfasst die Berührungsinformationserfassungseinheit 31 Berührungsinformationen, indem sie die Position des Berührungspunkts, die elektrostatische Kapazität des Berührungspunkts, die Anzahl der Berührungspunkte, die Reihenfolge der Berührung, Gesten und Ähnliches erfasst. Die Position eines Berührungspunktes gibt die Koordinaten auf dem Berührungsfeld an. Darüber hinaus ist eine Geste eine kontinuierliche Bewegung eines Berührungspunkts, wie z. B. ein Streichen oder Streichen.
  • Die Berührungsinformationen enthalten die Position des Berührungspunkts, die elektrostatische Kapazität des Berührungspunkts, die Anzahl der Berührungspunkte, die Reihenfolge der Berührung, Gesten und Ähnliches. Es ist zu beachten, dass die Anzahl der Berührungspunkte nicht in den Berührungsinformationen enthalten sein muss, da z.B. die Anzahl der Berührungspunkte natürlich daraus hervorgeht, wie viele Teile der Informationen über die Position eines Berührungspunktes enthalten sind.
  • Die Berührungsinformationserfassungseinheit 31 gibt die erfassten Berührungsinformationen an die Berührungsmittelbestimmungseinheit 32 und die Operationsbestimmungseinheit 33 aus.
  • Die Berührungsmittelbestimmungseinheit 32 bestimmt anhand der von der Berührungsinformationserfassungseinheit 31 ausgegebenen Berührungsinformationen, ob ein Berührungspunkt von einem Finger oder von der Eingabevorrichtung 1, mit der ein Finger in Kontakt steht, berührt wird. Darüber hinaus kann die Berührungsmittelbestimmungseinheit 32 durch diese Bestimmung auch feststellen, ob es einen Berührungspunkt gibt, der von der Eingabevorrichtung 1 berührt wird, mit der ein Finger in Kontakt steht.
  • Die Berührungsmittelbestimmungseinheit 32 kann ferner bestimmen, ob von der Eingabevorrichtung 1 ein Berührungspunkt berührt wird, mit dem kein Finger in Kontakt steht.
  • Eine elektrostatische Kapazität in einem Fall, in dem ein Berührungspunkt von einem Finger berührt wird, d.h. wenn der Benutzer das Berührungsfeld 2 direkt mit dem Finger berührt, wird als elektrostatische Kapazität C1 bezeichnet. Darüber hinaus wird eine elektrostatische Kapazität in einem Fall, in dem ein Berührungspunkt von der Eingabevorrichtung 1 berührt wird, mit der ein Finger in Kontakt ist, d.h. wenn der Benutzer eine Hand auf die Eingabevorrichtung 1 auf dem Berührungsfeld 2 legt, als elektrostatische Kapazität C2 bezeichnet. Darüber hinaus wird eine elektrostatische Kapazität als elektrostatische Kapazität C3 bezeichnet, wenn ein Berührungspunkt von der Eingabevorrichtung 1 berührt wird, mit der kein Finger in Kontakt steht, d.h. wenn sich die Vorrichtung 1 auf dem Berührungsfeld 2 befindet, der Benutzer jedoch keine Hand auf die Vorrichtung 1 legt. Die elektrostatischen Kapazitäten C1, C2 und C3 stehen in einem Verhältnis, in dem die elektrostatische Kapazität C1 am größten und die elektrostatische Kapazität C3 am kleinsten ist. Durch Einstellen eines ersten Schwellenwertes, der die Unterscheidung zwischen der elektrostatischen Kapazität C1 und der elektrostatischen Kapazität C2 ermöglicht, und eines zweiten Schwellenwertes, der die Unterscheidung zwischen der elektrostatischen Kapazität C2 und der elektrostatischen Kapazität C3 ermöglicht, kann die Berührungsmittelbestimmungseinheit 32 daher feststellen, mit welchen Mitteln ein Berührungspunkt hergestellt wurde.
  • Die Berührungsmittelbestimmungseinheit 32 gibt an die Operationsbestimmungseinheit 33 ein Bestimmungsergebnis aus, das angibt, mit welchen Mitteln der Berührungspunkt hergestellt wurde, und ein Bestimmungsergebnis, das angibt, ob es einen Berührungspunkt gibt, der von der Eingabevorrichtung 1 berührt wird, mit der ein Finger in Kontakt steht.
  • Die Operationsbestimmungseinheit 33 gibt die von der Berührungsinformationserfassungseinheit 31 ausgegebenen Berührungsinformationen an die Funktionsausführungseinheit 34 aus.
  • Wenn, in einem Fall, in dem die Berührungsmittelbestimmungseinheit 32 feststellt, dass es einen von der Eingabevorrichtung 1 berührten Berührungspunkt gibt, mit dem ein Finger in Kontakt steht, und die Gesamtzahl der Berührungspunkte auf dem Berührungsfeld 2 die effektive Obergrenze überschreitet, bestimmt die Operationsbestimmungseinheit 33 außerdem, dass einige der Berührungspunkte Punkte sind, an denen Berührungen unwirksam werden sollen, und betrachtet diese einige der Berührungspunkte als Punkte, von denen Berührungen gelöst werden. In diesem Fall bestimmt die Operationsbestimmungseinheit 33, dass Berührungspunkte, die mit den Fingern berührt werden und deren Anzahl gleich einer Zahl ist, um die die Gesamtzahl der Berührungspunkte die effektive obere Grenzzahl überschreitet, Punkte sind, an denen Berührungen unwirksam werden sollen, und betrachtet die Berührungspunkte, die als Punkte bestimmt werden, an denen Berührungen unwirksam werden sollen, als Punkte, von denen Berührungen gelöst werden. Die effektive obere Grenzanzahl ist ein oberer Grenzwert der Anzahl der Berührungen, die als effektive Berührungen erkannt werden können, und wird beispielsweise unter Berücksichtigung der Verarbeitungskapazität der Anzeigeeingabevorrichtung 10 festgelegt. Wenn ein Berührungspunkt ein Punkt ist, an dem eine Berührung wirksam ist, wird der Berührungspunkt im Prozess in der Funktionsausführungseinheit 34 wiedergegeben. Wenn andererseits ein Berührungspunkt als ein Punkt bestimmt wird, an dem eine Berührung unwirksam werden soll, wird der Berührungspunkt der Funktionsausführungseinheit 34 als Freigabeziel mitgeteilt und spiegelt sich im Prozess in der Funktionsausführungseinheit 34 wider. Durch die Benachrichtigung der Funktionsausführungseinheit 34 über den Berührungspunkt, der als Punkt gilt, von dem eine Berührung losgelassen wird, wird die Funktionsausführungseinheit 34 daran gehindert, zu erkennen, dass der Berührungspunkt gedrückt gehalten wurde, und den Prozess auf der Grundlage der Erkennung auszuführen.
  • Es ist zu beachten, dass die Operationsbestimmungseinheit 33 es unterlassen kann, Berührungsinformationen des Berührungspunktes, der als ein Punkt bestimmt wurde, an dem eine Berührung unwirksam werden soll, an die Funktionsausführungseinheit 34 auszugeben, und die Funktionsausführungseinheit 34 kann bestimmen, dass der Berührungspunkt ein Punkt ist, von dem eine Berührung losgelassen wird, indem sie den Berührungspunkt erkennt, dessen Berührungsinformationen nicht mehr geliefert werden, und die Bestimmung im Prozess widerspiegeln.
  • 3A und 3B sind Diagramme zur Erläuterung des Ablaufs der Prozesse durch die Berührungsinformationserfassungseinheit 31, die Berührungsmittelbestimmungseinheit 32 und die Operationsbestimmungseinheit 33. Es wird ein Beispiel beschrieben, bei dem die effektive obere Grenzzahl fünf beträgt, d.h. Berührungen von bis zu fünf Punkten sind in der Anzeigeeingabevorrichtung 10 wirksam.
  • Wenn ein Benutzer eine Hand auf die Eingabevorrichtung 1 legt, während die Berührungspunkte T1 bis T4 mit den Fingern berührt werden, wie in 3A dargestellt, wird zunächst nur ein Berührungspunkt T5 unter den Berührungspunkten T5 bis T7, die von der Eingabevorrichtung 1 gebildet werden, erkannt und zu einem Punkt, an dem eine Berührung wirksam ist.
  • Zu diesem Zeitpunkt bestimmt die Berührungsmittelbestimmungseinheit 32, dass der Berührungspunkt T5 von der Eingabevorrichtung 1 berührt wird, mit der ein Finger in Kontakt steht.
  • Wie oben beschrieben, überträgt die Eingabevorrichtung 1 die Eingabeoperation des Benutzers durch mehrere Berührungspunkte - die drei Berührungspunkte T5 bis T7 in den in 3A und 3B dargestellten Beispielen. Um Eingabeoperationen mit der Eingabevorrichtung 1 zu akzeptieren, bestimmt die Operationsbestimmungseinheit 33, dass die Berührungspunkte T3 und T4 Punkte sind, an denen Berührungen unwirksam werden sollen, und betrachtet die Berührungspunkte T3 und T4 als Punkte, von denen Berührungen gelöst werden. Infolgedessen werden, wie in 3B dargestellt, alle Berührungspunkte T5 bis T7, die von der Vorrichtung 1 gebildet werden, erkannt und zu Punkten, an denen Berührungen wirksam werden, und somit wird die Eingabeoperation mit der Vorrichtung 1 akzeptiert.
  • Die Funktionsausführungseinheit 34 führt einen Prozess unter Verwendung der Berührungsinformationen durch, die von der Operationsbestimmungseinheit 33 ausgegeben werden. Die Funktionsausführungseinheit 34 reguliert beispielsweise die Lautstärke des Audiosystems, die Temperatur einer Klimaanlage oder die Vergrößerungsrate eines Anzeigebildes. Die Funktionsausführungseinheit 34 benachrichtigt die Steuereinheit 35 der Anzeige über den ausgeführten Vorgang.
  • Die Anzeige-Steuereinheit 35 aktualisiert das Anzeigebild auf der Anzeige 4 in Abhängigkeit von dem von der Funktionsausführungseinheit 34 ausgeführten Prozess. Wenn beispielsweise die Funktionsausführungseinheit 34 die Lautstärke des Audiosystems einstellt, veranlasst die Steuereinheit 35 die Anzeige 4 zur Anzeige eines Bildes, das die eingestellte Lautstärke anzeigt.
  • Zur Anzeige des Bildes wird die Anzeige 4 von der Anzeigesteuereinheit 35 gesteuert. Das Berührungsfeld 2 wird auf Anzeige 4 überlagert. Die Anzeige 4 ist z. B. eine Flüssigkristallanzeige.
  • Als nächstes werden anhand der 4A und 4B beispielhafte Hardware-Konfigurationen der Vorrichtung 3 für die Steuerung beschrieben. In 4A und 4B werden auch die Eingabevorrichtung 1, das Berührungsfeld 2 und die Anzeige 4 dargestellt.
  • Die Funktionen der Berührungsinformationserfassungseinheit 31, der Berührungsmittelbestimmungseinheit 32, der Operationsbestimmungseinheit 33, der Funktionsausführungseinheit 34 und der Anzeige-Steuereinheit 35 der Steuervorrichtung 3 werden durch eine Verarbeitungsschaltung implementiert. Bei der Verarbeitungsschaltung kann es sich um dedizierte Hardware oder um eine Zentraleinheit (CPU) zur Ausführung eines in einem Speicher gespeicherten Programms handeln. Die CPU kann auch als eine zentrale Verarbeitungsvorrichtung, eine Verarbeitungseinrichtung, eine arithmetische Vorrichtung, ein Mikroprozessor, ein Mikrocomputer, ein Prozessor oder ein digitaler Signalprozessor (DSP) bezeichnet werden.
  • 4A ist ein Diagramm, das eine beispielhafte Hardware-Konfiguration veranschaulicht, bei der die Funktionen der Berührungsinformationserfassungseinheit 31, der Berührungsmittelbestimmungseinheit 32, der Berührungsmittelbestimmungseinheit 33, der Funktionsausführungseinheit 34 und der Anzeigesteuereinheit 35 durch eine Verarbeitungsschaltung 100 implementiert sind, bei der es sich um dedizierte Hardware handelt. Die Verarbeitungsschaltung 100 entspricht z.B. einer einzelnen Schaltung, einer zusammengesetzten Schaltung, einem programmierten Prozessor, einem parallel programmierten Prozessor, einer anwendungsspezifischen integrierten Schaltung (ASIC), einem feldprogrammierbaren Gate-Array (FPGA) oder einer Kombination davon. Die Funktionen der Berührungsinformationserfassungseinheit 31, der Berührungsmittelbestimmungseinheit 32, der Operationsbestimmungseinheit 33, der Funktionsausführungseinheit 34 und der Anzeigesteuereinheit 35 können durch Kombination getrennter Verarbeitungsschaltungen 100 implementiert werden. Alternativ können die Funktionen der Einheiten durch eine einzige Verarbeitungsschaltung 100 implementiert werden.
  • 4B ist ein Diagramm, das eine beispielhafte Hardware-Konfiguration veranschaulicht, in der die Funktionen der Berührungsinformationserfassungseinheit 31, der Berührungsmittelbestimmungseinheit 32, der Berührungsmittelbestimmungseinheit 33, der Funktionsausführungseinheit 34 und der Anzeigesteuereinheit 35 durch eine CPU 102 zur Ausführung eines in einem Speicher 101 gespeicherten Programms implementiert sind. In diesem Fall werden die Funktionen der Berührungsinformationserfassungseinheit 31, der Berührungsmittelbestimmungseinheit 32, der Operationsbestimmungseinheit 33, der Funktionsausführungseinheit 34 und der Anzeigesteuereinheit 35 durch Software, Firmware oder eine Kombination aus Software und Firmware implementiert. Software und Firmware werden jeweils als ein Programm beschrieben und im Speicher 101 gespeichert. Die CPU 102 liest das im Speicher 101 gespeicherte Programm und führt es aus, um die Funktionen der Berührungsinformationserfassungseinheit 31, der Berührungsmittelbestimmungseinheit 32, der Operationsbestimmungseinheit 33, der Funktionsausführungseinheit 34 und der Anzeigesteuereinheit 35 zu implementieren. Genauer gesagt verfügt die Steuervorrichtung 3 über den Speicher 101 zur Speicherung von Programmen und dergleichen, die zur Ausführung von Prozessen der Schritte ST1 bis ST 10 führen, die in einem Flussdiagramm der später beschriebenen 5 dargestellt sind. Darüber hinaus kann man auch sagen, dass diese Programme einen Computer veranlassen, die Verfahren oder die Methoden der Berührungsinformationserfassungseinheit 31, der Berührungsmittelbestimmungseinheit 32, der Berührungsmittelbestimmungseinheit 33, der Funktionsausführungseinheit 34 und der Anzeigesteuereinheit 35 auszuführen. Hier entspricht der Speicher 101 einem nichtflüchtigen oder flüchtigen Halbleiterspeicher, wie z.B. einem Speicher mit wahlfreiem Zugriff (RAM), einem Festwertspeicher (ROM), einem Flash-Speicher, einem löschbaren programmierbaren ROM (EPROM) und einem elektrisch löschbaren programmierbaren ROM (EEPROM), einem plattenähnlichen Aufzeichnungsmedium, wie z.B. einer Magnetplatte, einer flexiblen Platte, einer optischen Platte, einer Kompaktplatte, einer Mini Disc und einer digitalen vielseitigen Platte (DVD) oder dergleichen.
  • Es ist zu beachten, dass ein Teil der Funktionen der Berührungsinformationserfassungseinheit 31, der Berührungsmittelbestimmungseinheit 32, der Operationsbestimmungseinheit 33, der Funktionsausführungseinheit 34 und der Anzeigesteuereinheit 35 durch dedizierte Hardware implementiert werden kann und ein anderer Teil davon durch Software oder Firmware implementiert werden kann. Zum Beispiel können die Funktionen der Berührungsinformationserfassungseinheit 31, der Berührungsmittelbestimmungseinheit 32 und der Operationsbestimmungseinheit 33 durch eine Verarbeitungsschaltung als dedizierte Hardware implementiert werden, und die Funktionen der Funktionsausführungseinheit 34 und der Anzeigesteuereinheit 35 können durch eine Verarbeitungsschaltung implementiert werden, die ein in einem Speicher gespeichertes Programm liest und ausführt.
  • Wie oben beschrieben, kann die Verarbeitungsschaltung die Funktionen der Berührungsinformationserfassungseinheit 31, der Berührungsmittelbestimmungseinheit 32, der Berührungsmittelbestimmungseinheit 33, der Funktionsausführungseinheit 34 und der Anzeigesteuereinheit 35 durch die Verwendung von Hardware, Software, Firmware oder einer Kombination davon implementieren.
  • Als nächstes wird ein beispielhafter Prozess durch die wie oben beschrieben konfigurierte Steuervorrichtung 3 anhand eines in 5 dargestellten Flussdiagramms beschrieben.
  • Die Berührungsinformationserfassungseinheit 31 bestimmt, ob das Berührungsfeld 2 berührt wird (Schritt ST1). Wenn das Berührungsfeld 2 berührt wird, teilt das Berührungsfeld 2 dies der Berührungsinformationserfassungseinheit 31 mit (Schritt ST1). Die Berührungsinformationserfassungseinheit 31 erhält die Benachrichtigung vom Berührungsfeld 2, um festzustellen, ob das Berührungsfeld 2 berührt wird.
  • Wenn das Berührungsfeld 2 nicht berührt wird (NEIN in Schritt ST1), beendet die Steuervorrichtung 3 den Vorgang.
  • Wenn dagegen das Berührungsfeld 2 berührt wird (JA in Schritt ST1), erfasst die Berührungsinformationserfassungseinheit 31 Berührungsinformationen, indem sie die Positionen und Ähnliches der Berührungspunkte erfasst (Schritt ST2). Die Berührungsinformationserfassungseinheit 31 gibt die erfassten Berührungsinformationen an die Berührungsmittelbestimmungseinheit 32 und die Operationsbestimmungseinheit 33 aus.
  • Anschließend bestimmt die Berührungsmittelbestimmungseinheit 32, mit welchen Mitteln jeder Berührungspunkt hergestellt wird und ob es einen Berührungspunkt gibt, der von der Eingabevorrichtung 1 berührt wird, mit der ein Finger unter Verwendung der von der Berührungsinformationserfassungseinheit 31 ausgegebenen Berührungsinformationen in Kontakt steht (Schritt ST3).
  • Wenn es keinen Berührungspunkt gibt, der von der Eingabevorrichtung 1 berührt wird, mit der ein Finger in Kontakt steht (NEIN in Schritt ST3), gibt die Operationsbestimmungseinheit 33 die von der Berührungsinformationserfassungseinheit 31 ausgegebenen Berührungsinformationen unverändert an die Funktionsausführungseinheit 34 aus. Dann führt die Funktionsausführungseinheit 34 den Prozess aus, der durch den durch die Berührungsinformation angegebenen Berührungsvorgang beabsichtigt ist (Schritt ST4).
  • Anschließend aktualisiert die Anzeige-Steuereinheit 35 das Anzeigebild auf der Anzeige 4 in Abhängigkeit von dem von der Funktionsausführungseinheit 34 ausgeführten Prozess (Schritt ST5).
  • Wenn dagegen ein Berührungspunkt vorhanden ist, der von der Eingabevorrichtung 1 berührt wird, mit der ein Finger in Kontakt steht (JA in Schritt ST3), bestimmt die die Operationsbestimmungseinheit 33, ob die Anzahl der erkannten Berührungspunkte, die von der Eingabevorrichtung 1 berührt werden, mit der der Finger in Kontakt steht, gleich der Anzahl der Berührungspunkte ist, die erforderlich ist, um eine Eingabeoperation mit der Eingabevorrichtung 1 zu ermöglichen (Schritt ST6). Die Anzahl der Berührungspunkte, die erforderlich ist, um eine Eingabebedienung mit der Eingabevorrichtung 1 zu ermöglichen (im Folgenden einfach als „erforderliche Anzahl“ bezeichnet), entspricht der Anzahl der Berührungspunkte, die von der Eingabevorrichtung 1 auf dem Berührungsfeld 2 gebildet werden. In den in 3A und 3B dargestellten Beispielen beträgt die erforderliche Anzahl beispielsweise drei. Außerdem wird davon ausgegangen, dass die Berührungsinformationserfassungseinheit 31 die Positionen oder Ähnliches von Berührungspunkten nur bis zur gleichen Anzahl wie die effektive obere Grenzanzahl erfasst. Genauer gesagt, in einem Fall, in dem die effektive Anzahl der Obergrenze fünf beträgt, erfasst die Berührungsinformationserfassungseinheit 31 in Schritt ST2 nur die Positionen und Ähnliches von bis zu fünf Berührungspunkten, und selbst wenn ein sechster Berührungspunkt auftritt, wird der sechste Berührungspunkt von den Zielen der Positionserfassung und Ähnlichem ausgeschlossen.
  • Wenn die Anzahl der erkannten Berührungspunkte, die von der Eingabevorrichtung 1, mit der der Finger in Kontakt ist, berührt werden, gleich der erforderlichen Anzahl ist (JA in Schritt ST6), gibt die Operationsbestimmungseinheit 33 die von der Berührungsinformationserfassungseinheit 31 ausgegebenen Berührungsinformationen unverändert an die die Funktionsausführungseinheit 34 aus. Dann führt die Funktionsausführungseinheit 34 den Prozess aus, der durch die vom Benutzer auf der Eingabevorrichtung 1 ausgeführte Operation beabsichtigt ist (Schritt ST7).
  • Anschließend aktualisiert die Steuereinheit 35 der Anzeige das Anzeigebild auf der Anzeige 4 in Abhängigkeit von dem von der Funktionsausführungseinheit 34 ausgeführten Prozess (Schritt ST8).
  • Wenn dagegen die Anzahl der erkannten Berührungspunkte, die von der Eingabevorrichtung 1, mit der der Finger in Kontakt ist, berührt werden, nicht gleich der erforderlichen Anzahl ist (NEIN in Schritt ST6), wählt die Operationsbestimmungseinheit 33 einen oder mehrere mit den Fingern berührte Berührungspunkte aus, die als Punkte betrachtet werden, von denen die Berührungen losgelassen werden, wobei die Anzahl der ausgewählten Berührungspunkte gleich der Anzahl der Berührungspunkte ist, die von der Eingabevorrichtung 1 berührt werden und nicht erkannt wurden (Schritt ST9).
  • Dann stellt die Operationsbestimmungseinheit 33 fest, dass die von den in Schritt ST9 ausgewählten Fingern berührten Berührungspunkte Punkte sind, an denen die Berührungen unwirksam werden sollen, und betrachtet die Berührungspunkte als Punkte, von denen die Berührungen gelöst werden (Schritt ST10). Die Operationsbestimmungseinheit 33 teilt der Funktionsausführungseinheit 34 die Berührungspunkte mit, die in Schritt ST10 als Punkte betrachtet werden, von denen die Berührungen aufgehoben werden (Schritt ST10).
  • Darüber hinaus werden die Berührungspunkte, die in Schritt ST10 als Punkte betrachtet werden, von denen die Berührung gelöst wird, von der Operationsbestimmungseinheit 33 an die Berührungsinformationserfassungseinheit 31 gemeldet. Das Flussdiagramm von 5 wird periodisch durchgeführt. Wenn der Prozess nach Schritt ST10 wieder zu Schritt ST1 zurückkehrt, schließt die Berührungsinformationserfassungseinheit 31 im nächsten Schritt ST2 die Berührungspunkte, die in Schritt ST10 als Punkte betrachtet werden, von denen in Schritt ST10 Berührungen gelöst werden, von den Zielen der Positionserfassung oder ähnlichem aus. Daher werden Berührungspunkte, deren Anzahl der erforderlichen Anzahl entspricht und die von der Eingabevorrichtung 1 berührt werden, mit der der Finger in Kontakt steht, erfasst.
  • Auf diese Weise wird eine Eingabeoperation mit der Eingabevorrichtung 1 bevorzugt akzeptiert.
  • Nehmen wir zum Beispiel an, dass die Anzeigeeingabevorrichtung 10 in einem Fahrzeug montiert ist und die Lautstärke des Tons maximal und recht laut ist. Der Fahrer, der der Benutzer ist, kann sich aufgrund der Lautstärke nicht auf das Fahren konzentrieren. Als konventionelle fahrzeuginterne Vorrichtungen sind Vorrichtungen bekannt, bei denen die Funktion der Lautstärkeregelung über ein Berührungsfeld einer Softwaretaste zugewiesen wird, wobei die Vorrichtungen eine Taste als Hardwareschlüssel für die Lautstärkeregelung enthalten, in Anbetracht der Möglichkeit, dass die Lautstärkeregelung aufgrund einer effektiven oberen Grenzzahl nicht über die Softwaretaste erfolgen kann. Eine solche Taste befindet sich häufig auf der Frontplatte der Vorrichtung im Fahrzeug. Im Gegensatz dazu wird in der Anzeigeeingabevorrichtung 10 gemäß der ersten Ausführungsform die Lautstärkeregelung durch die Hardware-Taste der Eingabevorrichtung 1 auch dann priorisiert, wenn es Berührungsfelder gibt, deren Anzahl die effektive obere Grenzzahl überschreitet, und daher ist es nicht notwendig, eine solche Struktur anzunehmen, bei der eine Taste für die Lautstärkeregelung auf der Frontplatte o.ä. unter Berücksichtigung der effektiven oberen Grenzzahl vorgesehen ist.
  • Als Softwaretaste durch ein Berührungsfeld, z.B. Icons wie in 6A und 6B dargestellt, werden Softwaretasten bezeichnet, denen die Funktion der Steuerung der Lautstärke zugeordnet ist. Wenn ein Benutzer die Software-Tasten wie in 6A und 6B dargestellt bedient, werden andere Teile als das Symbol berührt, die Gleitrichtung des Steuerstifts P verschiebt sich oder es treten andere Nachteile auf, es sei denn, der Benutzer betätigt die Tasten, während er auf das Symbol schaut. Der Benutzer kann jedoch während der Fahrt nicht sorgfältig auf das Symbol blicken, und daher ist es schwierig, die Software-Taste zu bedienen. Da dagegen die Anzeigeeingabevorrichtung 10 der ersten Ausführungsform durch die Eingabevorrichtung 1 bedient werden kann, ist es möglich, die Software-Tasten, wie in 6A und 6B dargestellt, zu eliminieren und dadurch die Flexibilität des Anzeige-Layouts zu verbessern.
  • Wenn ein der Bedienung entsprechender Vorgang auch bei Betätigung der Eingabevorrichtung 1 nicht ausgeführt wird, gibt es Fälle, in denen der Benutzer irrtümlich denkt, dass ein schlechter Kontakt zwischen der Eingabevorrichtung 1 und dem Berührungsfeld 2 besteht. Dann drückt der Benutzer die Eingabevorrichtung 1 stark gegen das Berührungsfeld 2, was zu Ausfällen der Anzeige 4 und der Eingabevorrichtung 1 führt. In der Anzeigeeingabevorrichtung 10 nach der ersten Ausführungsform, da die Eingabeoperation mit der Eingabevorrichtung 1 gegenüber der Eingabeoperation mit dem Finger priorisiert ist, können Missverständnisse des Benutzers, ein Ausfall der Anzeige 4 und ein Ausfall der Eingabevorrichtung 1 vermieden werden.
  • Es ist zu beachten, dass in der obigen Beschreibung davon ausgegangen wird, dass die Berührungsinformationserfassungseinheit 31 die Positionen oder Ähnliches von Berührungspunkten nur bis zur gleichen Anzahl wie die effektive obere Grenzwertzahl erkennt. Die Berührungsinformationserfassungseinheit 31 kann jedoch Berührungsinformationen erfassen, indem sie die Positionen oder Ähnliches aller Berührungspunkte auf dem Berührungsfeld 2 erfasst. In diesem Fall bestimmt die Berührungsmittelbestimmungseinheit 32, welches Mittel für alle Berührungspunkte auf dem Berührungsfeld 2 verwendet wird. Dann führt die Operationsbestimmungseinheit 33 den Prozess durch, aus den von der Berührungsinformationserfassungseinheit 31 erfassten Berührungsinformationen alle Berührungspunkte zu extrahieren, die von der Eingabevorrichtung 1 berührt werden, mit der ein Finger in Kontakt ist, und Berührungspunkte mit Fingern innerhalb der effektiven oberen Grenzzahl, und bestimmt, dass alle anderen Berührungspunkte Punkte sind, an denen Berührungen unwirksam werden sollen, und betrachtet alle anderen Berührungspunkte als Punkte, von denen Berührungen gelöst werden.
  • Wie oben beschrieben, kann gemäß der ersten Ausführungsform die Eingabeoperation mit der Eingabevorrichtung 1 in einem Fall priorisiert werden, in dem es Berührungspunkte gibt, deren Anzahl die effektive obere Grenzzahl überschreitet.
  • Zweite Ausführungsform
  • 7 ist ein Diagramm, das eine Konfiguration einer Anzeigeeingabevorrichtung 10 gemäß einer zweiten Ausführungsform illustriert.
  • Die Anzeigeeingabevorrichtung 10 gemäß der zweiten Ausführungsform unterscheidet sich von der Anzeigeeingabevorrichtung 10 gemäß der ersten Ausführungsform dadurch, dass eine Kriterienerfassungseinheit 36 enthalten ist. Komponenten mit Funktionen, die denen der bereits in der ersten Ausführungsform beschriebenen Komponenten entsprechen oder gleichwertig sind, werden die gleichen Referenzzeichen gegeben, und ihre Beschreibung wird in der zweiten Ausführungsform weggelassen oder vereinfacht.
  • Die Kriterienerfassungseinheit 36 erfasst ein Kriterium für einen Berührungspunkt, der von einem Finger berührt wird, und der als ein Punkt bestimmt wird, an dem eine Berührung unwirksam werden soll, und als ein Punkt angesehen wird, von dem eine Berührung losgelassen wird. Im Folgenden wird das „Kriterium für einen Berührungspunkt, der von einem Finger berührt wird und der als ein Punkt bestimmt wird, an dem eine Berührung unwirksam wird und als ein Punkt angesehen wird, ab dem eine Berührung losgelassen wird“, einfach als „das Kriterium“ bezeichnet. Das Kriterium wird z.B. vorab in einer Speichereinheit (nicht abgebildet) gespeichert und von der Kriterienerfassungseinheit 36 gelesen. Die Kriterienerfassungseinheit 36 gibt das erfasste Kriterium an eine Operationsbestimmungseinheit 33 aus.
  • Es ist zu beachten, dass es vorzuziehen ist, dass es mehrere Arten von Kriterien gibt, die in der Speichereinheit (nicht abgebildet) gespeichert werden können und die ein Benutzer auswählen und einstellen kann. Spezifische Inhalte der Kriterien werden in den später beschriebenen dritten bis sechsten Ausführungsformen beschrieben.
  • Wenn es notwendig ist, festzulegen, dass einige Berührungspunkte Punkte sind, an denen Berührungen unwirksam werden sollen, und diese Berührungspunkte als Punkte zu betrachten, von denen Berührungen gelöst werden, verwendet die Operationsbestimmungseinheit 33 das von der Operationsbestimmungseinheit 33 ausgegebene Kriterium, um Berührungspunkte auszuwählen, die als Punkte zu betrachten sind, von denen Berührungen gelöst werden.
  • Die Kriterienerfassungseinheit 36 wird durch eine ähnliche Hardware-Konfiguration wie die in der ersten Ausführungsform unter Bezugnahme auf 3A und 3B beschriebene implementiert.
  • Wie oben beschrieben, kann gemäß der Anzeigeeingabevorrichtung 10 nach der zweiten Ausführungsform zusätzlich zur Wirkung der ersten Ausführungsform ein Berührungspunkt ausgewählt werden, der als ein Punkt bestimmt wird, an dem eine Berührung unwirksam werden soll, und der nach einem Kriterium, das den Präferenzen des Benutzers entspricht, als ein Punkt betrachtet wird, von dem aus eine Berührung ausgelöst wird.
  • Dritte Ausführungsform
  • In einer dritten Ausführungsform wird ein Fall beschrieben, in dem ein von einer Kriterienerfassungseinheit 36 erworbenes Kriterium darin besteht, dass ein früher berührter Berührungspunkt als ein Punkt bestimmt wird, an dem eine Berührung früher unwirksam werden soll, und als ein Punkt betrachtet wird, von dem eine Berührung losgelassen wird.
  • Für die Konfiguration einer Anzeigeeingabevorrichtung 10 gemäß der dritten Ausführungsform wird auf 7 verwiesen.
  • 8A und 8B sind Diagramme zur Erläuterung der Abläufe bei einer Berührungsinformationserfassungseinheit 31, einer Berührungsmittelbestimmungseinheit 32 und einer Operationsbestimmungseinheit 33 der dritten Ausführungsform. Es wird ein Beispiel beschrieben, in dem die effektive obere Grenzzahl fünf beträgt, d.h. Berührungen bis zu fünf Punkten sind in der Anzeigeeingabevorrichtung 10 wirksam.
  • Wenn ein Benutzer eine Hand auf eine Eingabevorrichtung 1 legt, während die Berührungspunkte T1 bis T4 mit den Fingern berührt werden, wie in 8A dargestellt, wird zunächst nur ein Berührungspunkt T5 unter den Berührungspunkten T5 bis T7, die von der Eingabevorrichtung 1 gebildet werden, erkannt und zu einem Punkt, an dem eine Berührung wirksam ist. Es wird ferner angenommen, dass die von den Fingern berührten Berührungspunkte T1 bis T4 in der Reihenfolge des Berührungspunktes T1, des Berührungspunktes T2, des Berührungspunktes T3 und dann des Berührungspunktes T4 berührt werden.
    Zu diesem Zeitpunkt bestimmt die Berührungsmittelbestimmungseinheit 32, dass der Berührungspunkt T5 von der Eingabevorrichtung 1 berührt wird, mit der ein Finger in Kontakt steht.
  • Dann bestimmt die Operationsbestimmungseinheit 33, dass die zuvor berührten Berührungspunkte zwischen den Berührungspunkten T1 bis T4, d.h. die Berührungspunkte T1 und T2, Punkte sind, an denen die Berührungen unwirksam werden sollen, und betrachtet die Berührungspunkte T1 und T2 als Punkte, von denen die Berührungen gelöst werden, um eine Eingabeoperation mit der Eingabevorrichtung 1 zu akzeptieren. Infolgedessen werden, wie in 8B dargestellt, alle Berührungspunkte T5 bis T7, die von der Vorrichtung 1 gebildet werden, erkannt und zu Punkten, an denen Berührungen wirksam werden, und dadurch wird die Eingabeoperation mit der Vorrichtung 1 akzeptiert.
  • Wie oben beschrieben, kann nach der Anzeigeeingabevorrichtung 10 gemäß der dritten Ausführungsform zusätzlich zu den Auswirkungen der ersten Ausführungsform bei vorrangiger Eingabebedienung mit der Eingabevorrichtung 1 die Berührungsbedienung durch einen Finger unmittelbar davor fortgesetzt werden.
  • Vierte Ausführungsform
  • In einer vierten Ausführungsform wird ein Fall beschrieben, in dem ein von einer Kriterienerfassungseinheit 36 erworbenes Kriterium darin besteht, dass ein später berührter Berührungspunkt als ein Punkt bestimmt wird, an dem eine Berührung früher unwirksam werden soll, und als ein Punkt angesehen wird, von dem eine Berührung losgelassen wird.
  • Für die Konfiguration einer Anzeigeeingabevorrichtung 10 gemäß der vierten Ausführungsform wird auf 7 verwiesen.
  • 9A und 9B sind Diagramme zur Erläuterung der Abläufe bei einer Berührungsinformationserfassungseinheit 31, einer Berührungsmittelbestimmungseinheit 32 und einer Operationsbestimmungseinheit 33 der vierten Ausführungsform. Es wird ein Beispiel beschrieben, in dem die effektive obere Grenzzahl fünf beträgt, d.h. Berührungen bis zu fünf Punkten sind in der Anzeigeeingabevorrichtung 10 wirksam.
  • Wenn ein Benutzer eine Hand auf eine Eingabevorrichtung 1 legt, während die Berührungspunkte T1 bis T4 mit den Fingern berührt werden, wie in 9A dargestellt, wird zunächst nur ein Berührungspunkt T5 unter den Berührungspunkten T5 bis T7, die von der Eingabevorrichtung 1 gebildet werden, erkannt und zu einem Punkt, an dem eine Berührung wirksam ist. Es wird ferner angenommen, dass die von den Fingern berührten Berührungspunkte T1 bis T4 in der Reihenfolge des Berührungspunktes T1, des Berührungspunktes T2, des Berührungspunktes T3 und dann des Berührungspunktes T4 berührt werden.
  • Zu diesem Zeitpunkt bestimmt die Berührungsmittelbestimmungseinheit 32, dass der Berührungspunkt T5 von der Eingabevorrichtung 1 berührt wird, mit der ein Finger in Kontakt steht.
  • Dann bestimmt die Operationsbestimmungseinheit 33, dass die später berührten Berührungspunkte zwischen den Berührungspunkten T1 bis T4 berührt werden, d.h. die Berührungspunkte T3 und T4 sind Punkte, an denen die Berührungen unwirksam werden sollen, und betrachtet die Berührungspunkte T3 und T4 als Punkte, von denen die Berührungen gelöst werden, um eine Eingabeoperation mit der Eingabevorrichtung 1 zu akzeptieren. Infolgedessen werden, wie in 9B dargestellt, alle Berührungspunkte T5 bis T7, die von der Vorrichtung 1 gebildet werden, erkannt und zu Punkten, an denen Berührungen wirksam werden, und dadurch wird die Eingabeoperation mit der Vorrichtung 1 akzeptiert.
  • Wie oben beschrieben, kann nach der Anzeigeeingabevorrichtung 10 gemäß der vierten Ausführungsform zusätzlich zu den Auswirkungen der ersten Ausführungsform, wenn die Eingabe-Operation unter Verwendung der Eingabevorrichtung 1 priorisiert wird, die Berührungsoperation durch einen zuerst ausgeführten Finger fortgesetzt werden.
  • Fünfte Ausführungsform
  • In einer fünften Ausführungsform wird ein Fall beschrieben, in dem ein von einer Kriterienerfassungseinheit 36 erfasstes Kriterium darin besteht, dass ein Berührungspunkt mit geringerer elektrostatischer Kapazität als ein Punkt bestimmt wird, an dem eine Berührung früher unwirksam werden soll, und als ein Punkt betrachtet wird, von dem eine Berührung gelöst wird.
  • Für die Konfiguration einer Anzeigeeingabevorrichtung 10 gemäß der fünften Ausführungsform wird auf 7 verwiesen.
  • 10A und 10B sind Diagramme zur Erläuterung der Abläufe bei einer Berührungsinformationserfassungseinheit 31, einer Berührungsmittelbestimmungseinheit 32 und einer Operationsbestimmungseinheit 33 der fünften Ausführungsform. Es wird ein Beispiel beschrieben, in dem die effektive obere Grenzzahl fünf beträgt, d.h. Berührungen bis zu fünf Punkten sind in der Anzeigeeingabevorrichtung 10 wirksam.
  • Wenn ein Benutzer eine Hand auf eine Eingabevorrichtung 1 legt, während die Berührungspunkte T1 bis T4 mit den Fingern berührt werden, wie in 10A dargestellt, wird zunächst nur ein Berührungspunkt T5 unter den Berührungspunkten T5 bis T7, die von der Eingabevorrichtung 1 gebildet werden, erkannt und zu einem Punkt, an dem eine Berührung wirksam ist.
    Zu diesem Zeitpunkt bestimmt die Berührungsmittelbestimmungseinheit 32, dass der Berührungspunkt T5 von der Eingabevorrichtung 1 berührt wird, mit der ein Finger in Kontakt steht.
  • Dann bestimmt die Operationsbestimmungseinheit 33 Berührungspunkte, d.h. Punkte, an denen Berührungen in aufsteigender Reihenfolge der elektrostatischen Kapazität zwischen den mit den Fingern berührten Berührungspunkten T1 bis T4 unwirksam werden sollen, und betrachtet die ermittelten Berührungspunkte als Punkte, von denen die Berührungen gelöst werden, um eine Eingabeoperation mit der Eingabevorrichtung 1 zu akzeptieren. Die Operationsbestimmungseinheit 33 verwendet die von der Berührungsinformationserfassungseinheit 31 ausgegebene Berührungsinformation, um die Größenbeziehung zwischen den elektrostatischen Kapazitäten der Berührungspunkte T1 bis T4 zu spezifizieren, wie z.B. in 10C dargestellt. In dem in 10C dargestellten Beispiel bestimmt die Operationsbestimmungseinheit 33, dass die Berührungspunkte T2 und T3 Punkte sind, an denen Berührungen unwirksam werden sollen, und betrachtet die Berührungspunkte T2 und T3 als Punkte, von denen Berührungen gelöst werden. Infolgedessen werden, wie in 10B dargestellt, alle Berührungspunkte T5 bis T7, die von der Eingabevorrichtung 1 gebildet werden, erkannt und zu Punkten, an denen Berührungen wirksam werden, und dadurch wird eine Eingabeoperation mit der Eingabevorrichtung 1 akzeptiert.
  • Wie oben beschrieben, kann nach der Anzeigeeingabevorrichtung 10 gemäß der fünften Ausführungsform zusätzlich zu den Auswirkungen der ersten Ausführungsform bei der Priorisierung der Eingabe-Operation mit der Eingabevorrichtung 1 die Berührungsoperation bei starkem Druck fortgesetzt werden. Auf diese Weise kann ein Benutzer mit einem Finger anzeigen, dass er die Berührungsbedienung mit der Berührungsstärke fortsetzen möchte.
  • Sechste Ausführungsform
  • In einer sechsten Ausführungsform wird ein Fall beschrieben, in dem ein von einer Kriterienerfassungseinheit 36 erworbenes Kriterium darin besteht, dass ein Berührungspunkt in einem Bereich, in dem eine Berührung unwirksam ist, als ein Punkt angesehen wird, von dem eine Berührung früher losgelassen wird.
  • Für die Konfiguration einer Anzeigeeingabevorrichtung 10 gemäß der sechsten Ausführungsform wird auf 7 verwiesen.
  • 11A und 11B sind Diagramme zur Erläuterung der Abläufe bei einer Berührungsinformationserfassungseinheit 31, einer Berührungsmittelbestimmungseinheit 32 und einer Operationsbestimmungseinheit 33 der sechsten Ausführungsform. Es wird ein Beispiel beschrieben, in dem die effektive obere Grenzzahl fünf beträgt, d.h. Berührungen bis zu fünf Punkten sind in der Anzeigeeingabevorrichtung 10 wirksam.
  • Wenn ein Benutzer eine Hand auf eine Eingabevorrichtung 1 legt, während die Berührungspunkte T1 bis T4 mit den Fingern berührt werden, wie in 11A dargestellt, wird zunächst nur ein Berührungspunkt T5 unter den Berührungspunkten T5 bis T7, die von der Eingabevorrichtung 1 gebildet werden, erkannt und zu einem Punkt, an dem eine Berührung wirksam ist.
  • Zu diesem Zeitpunkt bestimmt die Berührungsmittelbestimmungseinheit 32, dass der Berührungspunkt T5 von der Eingabevorrichtung 1 berührt wird, mit der ein Finger in Kontakt ist.
  • Dann bestimmt die Operationsbestimmungseinheit 33 Berührungspunkte, d.h. Punkte, an denen eine Berührung unwirksam werden soll, zunächst aus Berührungspunkten, die sich in einem Bereich zwischen den mit den Fingern berührten Berührungspunkten T1 bis T4 befinden, in dem eine Berührung unwirksam ist, und betrachtet die ermittelten Berührungspunkte als Punkte, von denen die Berührung losgelassen wird, um eine Eingabeoperation mit der Eingabevorrichtung 1 zu akzeptieren. Der Bereich, in dem eine Berührung unwirksam ist, bezieht sich auf einen anderen Bereich als die in 11A dargestellten Software-Tasten S1 bis S4. Die Operationsbestimmungseinheit 33 kann Informationen, die anzeigen, wo der Bereich, in dem eine Berührung unwirksam ist, von einer Steuereinheit 35 für die Anzeige erhalten. Im Fall von 11A bestimmt die Operationsbestimmungseinheit 33, dass die Berührungspunkte T3 und T4 Punkte sind, an denen Berührungen unwirksam werden sollen, und betrachtet die Berührungspunkte T3 und T4 als Punkte, von denen Berührungen gelöst werden. Infolgedessen werden, wie in 11B dargestellt, alle Berührungspunkte T5 bis T7, die von der Eingabevorrichtung 1 gebildet werden, erkannt und zu Punkten, an denen Berührungen wirksam werden, und dadurch wird eine Eingabeoperation mit der Eingabevorrichtung 1 akzeptiert.
  • Wie oben beschrieben, kann nach der Anzeigeeingabevorrichtung 10 gemäß der sechsten Ausführungsform zusätzlich zu den Auswirkungen der ersten Ausführungsform bei der Priorisierung der Eingabeoperation mit der Eingabevorrichtung 1 die Berührungsoperation durch einen Finger, der eine sinnvolle Operation ausführt, wie z.B. das Berühren einer Software-Taste, fortgesetzt werden.
  • Siebte Ausführungsform
  • In einer siebten Ausführungsform wird ein Modus beschrieben, in dem ein Berührungspunkt, der von einem Finger berührt wird, als ein Punkt bestimmt wird, an dem eine Berührung unwirksam wird, und als ein Punkt betrachtet wird, von dem eine Berührung in einem Fall, in dem eine Prioritätsbefehlsoperation auf einer Eingabevorrichtung 1 ausgeführt wird, losgelassen wird.
  • Für die Konfiguration einer Anzeigeeingabevorrichtung 10 gemäß der siebten Ausführungsform wird auf 1 verwiesen.
  • In einem Fall, in dem eine Berührungsmittelbestimmungseinheit 32 feststellt, dass es einen Berührungspunkt gibt, der von der Eingabevorrichtung 1 berührt wird, mit der ein Finger in Kontakt steht, und die Gesamtzahl der Berührungspunkte auf einem Berührungsfeld 2 eine effektive obere Grenzanzahl überschreitet, bestimmt eine Operationsbestimmungseinheit 33 nicht, dass ein Berührungspunkt, der von einem Finger berührt wird, ein Punkt ist, an dem eine Berührung unwirksam wird, bis eine Prioritätsbefehlsoperation auf der Eingabevorrichtung 1 ausgeführt wird.
  • Die 12A, 12B und 12C sind Diagramme zur Erläuterung der Abläufe bei einer Berührungsinformationserfassungseinheit 31, der Berührungsmittelbestimmungseinheit 32 und der Operationsbestimmungseinheit 33 der siebten Ausführungsform. Es wird ein Beispiel beschrieben, in dem die effektive obere Grenzzahl fünf beträgt, d.h. Berührungen bis zu fünf Punkten sind in der Anzeigeeingabevorrichtung 10 wirksam.
  • Wenn ein Benutzer eine Hand auf die Eingabevorrichtung 1 legt, während die Berührungspunkte T1 bis T4 mit den Fingern berührt werden, wie in 12A dargestellt, wird zunächst nur ein Berührungspunkt T5 unter den Berührungspunkten T5 bis T7, die von der Eingabevorrichtung 1 gebildet werden, erkannt und zu einem Punkt, an dem eine Berührung wirksam ist.
  • Zu diesem Zeitpunkt bestimmt die Berührungsmittelbestimmungseinheit 32, dass der Berührungspunkt T5 von der Eingabevorrichtung 1 berührt wird, mit der ein Finger in Kontakt steht.
  • In der Zwischenzeit, wenn der Vorgang des Schüttelns der Eingabevorrichtung 1 auf dem Berührungsfeld 2 auf der Eingabevorrichtung 1 durchgeführt wird, wie in 12B dargestellt, wird dieser Vorgang als der Vorgang der Prioritätsanweisung bestimmt, und somit bestimmt die Operationsbestimmungseinheit 33, dass die Berührungspunkte T3 und T4 Punkte sind, an denen eine Berührung unwirksam werden soll, und betrachtet die Berührungspunkte T3 und T4 als Punkte, von denen die Berührung losgelassen wird. Es ist zu beachten, dass die Operationsbestimmungseinheit 33 feststellen kann, dass die Eingabevorrichtung 1 auf dem Berührungsfeld 2 geschüttelt wird, indem sie die von der Berührungsinformationserfassungseinheit 31 ausgegebenen Berührungsinformationen überwacht.
  • Infolgedessen werden, wie in 12C dargestellt, alle Berührungspunkte T5 bis T7, die von der Vorrichtung 1 gebildet werden, erkannt und zu Punkten, an denen Berührungen wirksam sind, und dadurch wird die Eingabeoperation mit der Vorrichtung 1 akzeptiert.
  • Es ist zu beachten, dass in der Beschreibung unter Verwendung der 12A, 12B und 12C davon ausgegangen wird, dass der Vorgang des Schütteln der Eingabevorrichtung 1 auf dem Berührungsfeld 2 der Prioritätsbefehlsvorgang ist. Andere Vorgänge, wie z. B. das Bewegen der Eingabevorrichtung 1 in einem Kreis auf dem Berührungsfeld 2, können jedoch den Prioritätsbefehl darstellen. Welcher Vorgang als Prioritätsanweisungsvorgang anzusehen ist, wird z.B. von einem Benutzer voreingestellt.
  • Als nächstes wird ein Beispiel für den Vorgang durch eine Steuervorrichtung 3 der siebten Ausführungsform anhand eines in 13 dargestellten Flussdiagramms beschrieben. Es ist zu beachten, dass Schritte, die Prozesse ausführen, die denen der bereits unter Bezugnahme auf 5 beschriebenen Schritte gleich oder gleichwertig sind, durch die gleichen Referenzzeichen bezeichnet werden, und ihre Beschreibung wird gegebenenfalls weggelassen oder vereinfacht.
  • Wenn die Anzahl der erkannten Berührungspunkte, die von der Eingabevorrichtung 1, mit der ein Finger in Kontakt ist, berührt werden, nicht gleich der erforderlichen Anzahl ist (NEIN in Schritt ST6), bestimmt die Operationsbestimmungseinheit 33, ob die Prioritätsbefehlsoperation auf der Eingabevorrichtung 1 ausgeführt wird (Schritt ST70).
  • Wenn die Prioritätsbefehlsoperation auf der Eingabevorrichtung 1 ausgeführt wird (JA in Schritt ST70), wird der in der ersten Ausführungsform beschriebene Prozess von Schritt ST9 ausgeführt.
  • Wenn andererseits keine Prioritätsbefehlsoperation auf der Eingabevorrichtung 1 (NEIN in Schritt ST70) ausgeführt wird, endet der Prozess ohne einen Prozess, bei dem die die Operation bestimmende Einheit 33 bestimmt, dass ein von einem Finger berührter Berührungspunkt ein Punkt ist, an dem eine Berührung unwirksam werden soll, und den Berührungspunkt als einen Punkt betrachtet, von dem eine Berührung losgelassen wird.
  • Wie oben beschrieben, wird gemäß der Anzeigeeingabevorrichtung 10 der siebten Ausführungsform die Eingabeoperation mit der Eingabevorrichtung 1 nur dann priorisiert, wenn ein Benutzer die Prioritätsbefehlsoperation auf der Eingabevorrichtung 1 ausführt. Daher kann verhindert werden, dass ein Berührungspunkt, der von einem Finger berührt wird, als ein Punkt betrachtet wird, von dem eine Berührung ausgelöst wird, wenn der Benutzer fälschlicherweise eine Hand auf die Eingabevorrichtung 1 legt.
  • Achte Ausführungsform
  • In einer achten Ausführungsform wird ein Modus erläutert, in dem eine Obergrenze für die Anzahl der Berührungspunkte festgelegt wird, die mit den Fingern berührt werden, und die als Punkte festgelegt werden, an denen die Berührungen wirksam sind.
  • Für die Konfiguration einer Anzeigeeingabevorrichtung 10 gemäß der achten Ausführungsform wird auf 1 verwiesen.
  • 14A und 14B sind Diagramme zur Erläuterung der Abläufe bei einer Berührungsinformationserfassungseinheit 31, einer Berührungsmittelbestimmungseinheit 32 und einer Operationsbestimmungseinheit 33 der achten Ausführungsform. Es wird ein Beispiel beschrieben, in dem eine effektive obere Grenzzahl acht ist, d.h. Berührungen bis zu acht Punkten in der Anzeigeeingabevorrichtung 10 wirksam sind. Darüber hinaus wird angenommen, dass eine Einstellung angewendet wird, bei der bis zu fünf mit den Fingern berührte Punkte als Punkte festgelegt werden können, bei denen Berührungen wirksam sind. Die Einstellung, die festlegt, wie viele Berührungspunkte, die mit den Fingern berührt werden, als Punkte festgelegt werden, an denen Berührungen wirksam sind, kann von einem Benutzer geändert werden.
  • Wie in 14A dargestellt, erkennt die Berührungsinformationserfassungseinheit 31 in einem Zustand, in dem es Berührungspunkte T1 bis T7 gibt, die mit den Fingern berührt werden, die Berührungspunkte T1 bis T7. Zu diesem Zeitpunkt bestimmt die Berührungsmittelbestimmungseinheit 32, dass die Berührungspunkte T1 bis T7 mit den Fingern berührt werden.
  • Von den Berührungspunkten T1 bis T7 legt die den Vorgang bestimmende Einheit 33 nur fünf Berührungspunkte als Punkte fest, an denen die Berührungen wirksam sind, und legt die übrigen beiden Berührungspunkte nicht als Punkte fest, an denen die Berührungen wirksam sind. Genauer gesagt, obwohl die verbleibenden zwei Berührungspunkte nicht als Punkte festgelegt sind, an denen Berührungen unwirksam sind, werden sie von einer Funktionsausführungseinheit 34 nicht in einem Prozess reflektiert und gehen in einen so genannten unbenutzten Zustand über.
  • Wenn ein Benutzer in dem in 14A dargestellten Zustand eine Hand auf eine Eingabevorrichtung 1 auf einem Berührungsfeld 2 legt, wird nur einer von mehreren Berührungspunkten, die von der Eingabevorrichtung 1 gebildet werden, von der Berührungsinformationserfassungseinheit 31 erfasst und zu einem Punkt, an dem eine Berührung wirksam ist. Die Berührungsmittelbestimmungseinheit 32 bestimmt, dass dieser einzelne von der Berührungsinformationserfassungseinheit 31 erfasste Punkt von der Eingabevorrichtung 1 berührt wird, mit der ein Finger in Kontakt steht.
  • Da jedoch die Anzahl der erkannten Berührungspunkte, die von der Eingabevorrichtung 1, mit der der Finger in Kontakt ist, berührt werden, nicht gleich der erforderlichen Anzahl ist, legt die Operationsbestimmungseinheit 33 die beiden Berührungspunkte, die nicht als Berührungspunkte festgelegt sind, als Punkte fest, an denen eine Berührung unwirksam ist, und zwar aus den Berührungspunkten T1 bis T7, die von den Fingern berührt werden. Infolgedessen werden, wie in 14B dargestellt, alle Berührungspunkte T8 bis T10, die von der Eingabevorrichtung 1 gebildet werden, erkannt und zu Punkten, an denen Berührungen wirksam sind, und dadurch wird eine Eingabeoperation mit der Eingabevorrichtung 1 akzeptiert.
  • Es ist zu beachten, dass im obigen Beispiel die Zahl, die durch Subtraktion der erforderlichen Anzahl der von der Eingabevorrichtung 1 berührten Berührungspunkte (drei in 14A und 14B) von der effektiven oberen Grenzwertzahl (acht in 14A und 14B) erhalten wird, als die obere Grenzwertzahl der Berührungspunkte festgelegt wird, die mit den Fingern berührt werden und die als Punkte festgelegt werden, an denen Berührungen wirksam sind. Jedoch kann eine Zahl, die kleiner ist als die Zahl, die man erhält, wenn man die erforderliche Anzahl der von der Eingabevorrichtung 1 berührten Berührungspunkte von der effektiven oberen Grenzzahl subtrahiert, als obere Grenzzahl der Berührungspunkte festgelegt werden, die mit den Fingern berührt werden und die als Punkte festgelegt werden, an denen die Berührung wirksam ist. Mit dieser Konfiguration wird es möglich, mehrere Eingabevorrichtungen 1 zu verwenden, indem z.B. eine zweite Vorrichtung 1 weiter auf dem Berührungsfeld 2 platziert wird und die Eingabebedienung mit der zweiten Vorrichtung 1 gegenüber der Eingabebedienung mit dem Finger, wie in der ersten bis sechsten Ausführungsform beschrieben, priorisiert wird.
  • Kurz gesagt, die Operationsbestimmungseinheit 33 muss als Punkte, an denen Berührungen wirksam sind, nur Berührungspunkte festlegen, die mit den Fingern berührt werden und deren Anzahl kleiner oder gleich der Anzahl ist, die man erhält, wenn man die Anzahl der durch die Eingabevorrichtung 1 zu bildenden Berührungspunkte von der effektiven oberen Grenzzahl subtrahiert, und Berührungspunkte, die nicht als Punkte festgelegt sind, an denen Berührungen unwirksam sind, als Punkte festzulegen, an denen Berührungen zwischen Berührungspunkten wirksam sind, die mit den Fingern berührt werden, wenn die Berührungsmittelbestimmungseinheit 32 feststellt, dass eine Berührung durch die Eingabevorrichtung 1 vorliegt, mit der ein Finger in Kontakt steht.
  • Wie oben beschrieben, kann gemäß der Anzeigeeingabevorrichtung 10 der achten Ausführungsform die Eingabeoperation mit der Eingabevorrichtung 1 in einem Fall priorisiert werden, in dem es Berührungspunkte gibt, deren Anzahl die effektive obere Grenzanzahl überschreitet. Darüber hinaus ist ein Berührungspunkt, der mit dem Finger berührt wird und der unwirksam wird, wenn die Eingabeoperation mit der Eingabevorrichtung 1 priorisiert wird, gar nicht erst wirksam gewesen. Daher wird auch bei der Priorisierung der Eingabeoperation mit der Vorrichtung 1 die zuvor mit dem Finger ausgeführte Berührungsoperation nicht beeinträchtigt.
  • Es ist zu beachten, dass die Erfindung der vorliegenden Anmeldung im Rahmen des Anwendungsbereichs der vorliegenden Erfindung eine flexible Kombination der Ausführungsformen, eine Modifikation einer beliebigen Komponente der Ausführungsformen oder eine Auslassung einer beliebigen Komponente in den Ausführungsformen enthalten kann.
  • GEWERBLICHE ANWENDBARKEIT
  • Wie oben beschrieben, kann die erfindungsgemäße Eingabesteuerungsvorrichtung nach der vorliegenden Erfindung der Eingabeoperation mit der Eingabevorrichtung in dem Fall Vorrang einräumen, wenn es Berührungspunkte gibt, deren Anzahl die effektive Obergrenze überschreitet, und eignet sich daher z.B. für die Verwendung durch Einbau in eine Anzeige-Steuervorrichtung für Fahrzeuge, die ein Berührungsfeld enthält.
  • Bezugszeichenliste
  • 1:
    Eingabevorrichtung,
    2:
    Berührungsfeld,
    3:
    Steuervorrichtung,
    3A:
    Eingabesteuerungsvorrichtung,
    4:
    Anzeige,
    10:
    Anzeigeeingabevorrichtung,
    11:
    äußerer umlaufender leitender Abschnitt,
    12:
    Bodenplatte,
    13:
    leitende Säule,
    14:
    axiale Mitte,
    15:
    hohler Abschnitt,
    31:
    Berührungs-Informationserfassungseinheit,
    32:
    Berührungsmittelbestimmungseinheit,
    33:
    Operationsbestimmungseinheit,
    34:
    Funktionsausführungseinheit,
    35:
    Anzeige-Steuereinheit,
    36:
    Kriterienerfassungseinheit,
    100:
    Verarbeitungsschaltung,
    101:
    Speicher,
    102:
    CPU
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2011113221 A [0004]

Claims (10)

  1. Eine Eingabesteuerungsvorrichtung zur Steuerung der Akzeptanz der Eingabeoperation über ein Berührungsfeld, auf dem eine Eingabevorrichtung zur Bildung mehrerer Berührungspunkte angeordnet ist, wobei die Eingabesteuerungsvorrichtung umfasst: eine Berührungsinformationserfassungseinheit zum Erfassen von Berührungsinformationen, die eine oder mehrere Positionen von jeweiligen Berührungspunkten und eine oder mehrere elektrostatische Kapazitäten der jeweiligen Berührungspunkte enthält; eine Berührungsmittelbestimmungseinheit zum Bestimmen, unter Verwendung der Berührungsinformation, ob jeder der Berührungspunkte durch einen Finger oder durch die Eingabevorrichtung, mit der ein Finger in Kontakt ist, berührt wird, und dadurch Bestimmen, ob es einen Berührungspunkt gibt, der durch die Eingabevorrichtung, mit der der Finger in Kontakt ist, berührt wird; und eine Operationsbestimmungseinheit, die in einem Fall, in dem die Berührungsmittelbestimmungseinheit bestimmt, dass es einen Berührungspunkt gibt, der von der Vorrichtung zur Eingabeoperation berührt wird, mit der der Finger in Kontakt steht, und die Gesamtzahl der Berührungspunkte auf dem Berührungsfeld eine effektive obere Grenzzahl überschreitet, bestimmt, dass ein oder mehrere Berührungspunkte, die von den jeweiligen Fingern berührt werden, Punkte sind, an denen die jeweiligen Berührungen unwirksam werden sollen, und den einen oder die mehreren Berührungspunkte als Punkte betrachtet, von denen die jeweiligen Berührungen gelöst werden, wobei die Anzahl des einen oder der mehreren Berührungspunkte gleich einer überschüssigen Anzahl ist, um die die Gesamtzahl die effektive obere Grenzzahl überschreitet.
  2. Die Eingabesteuerungsvorrichtung nach Anspruch 1, umfassend: eine Kriterienerfassungseinheit zum Erfassen eines Kriteriums für den einen oder die mehreren Berührungspunkte, die von den jeweiligen Fingern berührt werden und die als die Punkte bestimmt werden, an denen die jeweiligen Berührungen unwirksam werden sollen, und als die Punkte angesehen werden, von denen die jeweiligen Berührungen gelöst werden, wobei die Operationsbestimmungseinheit den einen oder mehrere Berührungspunkte auswählt, die als die Punkte bestimmt werden, an denen die jeweiligen Berührungen unter Verwendung des Kriteriums unwirksam werden sollen.
  3. Die Eingabesteuerungsvorrichtung nach Anspruch 2, wobei das Kriterium ist, dass ein früher berührter Berührungspunkt als ein Punkt bestimmt wird, an dem eine Berührung früher unwirksam werden soll.
  4. Die Eingabesteuerungsvorrichtung nach Anspruch 2, wobei das Kriterium ist, dass ein später berührter Berührungspunkt als ein Punkt bestimmt wird, an dem eine Berührung früher unwirksam wird.
  5. Die Eingabesteuerungsvorrichtung nach Anspruch 2, wobei das Kriterium ist, dass ein Berührungspunkt mit niedrigerer elektrostatischer Kapazität als ein Punkt bestimmt wird, an dem eine Berührung früher unwirksam wird.
  6. Die Eingabesteuerungsvorrichtung nach Anspruch 2, wobei das Kriterium ist, dass ein Berührungspunkt in einem Bereich, in dem eine Berührung unwirksam ist, als ein Punkt bestimmt wird, an dem eine Berührung früher unwirksam wird.
  7. Die Eingabesteuerungsvorrichtung nach Anspruch 1, wobei die Operationsbestimmungseinheit einen Prozess durchführt, bei dem bestimmt wird, dass der eine oder die mehreren Berührungspunkte, die von den jeweiligen Fingern berührt werden und deren Anzahl gleich der überschüssigen Anzahl ist, die Punkte sind, an denen die jeweiligen Berührungen unwirksam werden sollen, und bei dem der eine oder die mehreren Berührungspunkte als die Punkte betrachtet werden, von denen die jeweiligen Berührungen gelöst werden, in einem Fall, bei dem eine Prioritätsbefehlsoperation auf der Eingabevorrichtung durchgeführt wird.
  8. Eine Eingabesteuerungsvorrichtung zum Steuern der Akzeptanz einer Eingabeoperation über ein Berührungsfeld, auf dem eine Eingabevorrichtung zum Bilden mehrerer Berührungspunkte angeordnet ist, wobei die Eingabesteuerungsvorrichtung umfasst: eine Berührungsinformationserfassungseinheit zum Erfassen von Berührungsinformationen, die eine oder mehrere Positionen von jeweiligen Berührungspunkten und eine oder mehrere elektrostatische Kapazitäten der jeweiligen Berührungspunkte enthält; eine Berührungsmittelbestimmungseinheit zum Bestimmen, unter Verwendung der Berührungsinformation, ob jeder der Berührungspunkte durch einen Finger oder durch die Eingabevorrichtung, mit der ein Finger in Kontakt ist, berührt wird, und dadurch Bestimmen, ob es einen Berührungspunkt gibt, der durch die Eingabevorrichtung, mit der der Finger in Kontakt ist, berührt wird; und eine Operationsbestimmungseinheit, um als Punkte, an denen jeweilige Berührungen wirksam sind, nur einen oder mehrere Berührungspunkte festzulegen, die von jeweiligen Fingern berührt werden und deren Anzahl kleiner oder gleich einer Zahl ist, die durch Subtraktion der Anzahl der durch die Vorrichtung zur Eingabeoperation zu bildenden Mehrfachberührungspunkte von einer effektiven oberen Grenzzahl erhalten wird, und in einem Fall, in dem die Berührungsmittelbestimmungseinheit feststellt, dass es einen von der Eingabevorrichtung berührten Berührungspunkt gibt, mit dem der Finger in Kontakt steht, einen Berührungspunkt, der unter den von den jeweiligen Fingern berührten Berührungspunkten nicht als einer der Punkte festgelegt ist, an denen die jeweiligen Berührungen wirksam sind, als einen Punkt festlegt, an dem eine Berührung unwirksam ist.
  9. Eine Anzeigeeingabevorrichtung, umfassend: die Eingabesteuerungsvorrichtung nach Anspruch 1 oder 8; das Berührungsfeld; und eine Anzeige, auf der das Berührungsfeld überlagert ist.
  10. Ein Eingabesteuerungsverfahren zum Steuern der Akzeptanz einer Eingabeoperation über ein Berührungsfeld, auf dem eine Eingabevorrichtung zum Bilden mehrerer Berührungspunkte angeordnet ist, wobei das Eingabesteuerungsverfahren umfasst: einen Berührungsinformationserfassungsschritt des Erfassens von Berührungsinformationen durch eine Berührungsinformationserfassungseinheit, wobei die Berührungsinformationen eine oder mehrere Positionen von jeweiligen Berührungspunkten und eine oder mehrere elektrostatische Kapazitäten der jeweiligen Berührungspunkte enthalten; einen Berührungsmittelbestimmungsschritt des Bestimmens, durch eine Berührungsmittelbestimmungseinheit, unter Verwendung der Berührungsinformation, ob jeder der Berührungspunkte durch einen Finger oder durch die Eingabevorrichtung, mit der ein Finger in Kontakt ist, berührt wird, und dadurch Bestimmen, ob es einen Berührungspunkt gibt, der durch die Eingabevorrichtung, mit der der Finger in Kontakt ist, berührt wird; und einen Operationsbestimmungsschritt in einem Fall, in dem festgestellt wird, dass es einen Berührungspunkt gibt, der von der Eingabevorrichtung, mit der der Finger in Kontakt ist, berührt wird, bedeutet, dass der Schritt bestimmt wird und die Gesamtzahl der Berührungspunkte auf dem Berührungsfeld eine effektive obere Grenzzahl überschreitet, die von einer Operationsbestimmungseinheit bestimmt wird, dass ein oder mehrere Berührungspunkte, die von den jeweiligen Fingern berührt werden, Punkte sind, an denen die jeweiligen Berührungen unwirksam werden sollen, und dass der eine oder die mehreren Berührungspunkte als Punkte betrachtet werden, von denen die jeweiligen Berührungen losgelassen werden, wobei die Anzahl des einen oder der mehreren Berührungspunkte gleich einer überschüssigen Anzahl ist, um die die Gesamtzahl der Berührungen die wirksame Obergrenze überschreitet.
DE112018007216.9T 2018-05-11 2018-05-11 Eingabesteuerungsvorrichtung, Anzeigeeingabevorrichtung und Eingabesteuerungsverfahren Active DE112018007216B4 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/018339 WO2019215915A1 (ja) 2018-05-11 2018-05-11 入力制御装置、表示入力装置及び入力制御方法

Publications (2)

Publication Number Publication Date
DE112018007216T5 true DE112018007216T5 (de) 2020-11-19
DE112018007216B4 DE112018007216B4 (de) 2022-10-13

Family

ID=68467895

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112018007216.9T Active DE112018007216B4 (de) 2018-05-11 2018-05-11 Eingabesteuerungsvorrichtung, Anzeigeeingabevorrichtung und Eingabesteuerungsverfahren

Country Status (3)

Country Link
US (1) US11175782B2 (de)
DE (1) DE112018007216B4 (de)
WO (1) WO2019215915A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021093058A (ja) * 2019-12-12 2021-06-17 株式会社デンソーウェーブ 空調コントローラ及び空調装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5146389B2 (ja) * 2009-04-03 2013-02-20 ソニー株式会社 情報処理装置、および推定方法
JP5271240B2 (ja) 2009-11-25 2013-08-21 株式会社デジタル タッチパネル装置
JP2012099093A (ja) * 2010-10-08 2012-05-24 Ag Ltd タッチパッド用の入力デバイス、プログラム、データ処理方法およびデータ処理装置
JP5884282B2 (ja) 2011-03-29 2016-03-15 ソニー株式会社 情報処理装置および情報処理方法、記録媒体、並びにプログラム
JP5738707B2 (ja) * 2011-07-28 2015-06-24 株式会社ジャパンディスプレイ タッチパネル
JP6183306B2 (ja) * 2013-11-21 2017-08-23 株式会社デンソー 操作装置
DE112015006440T5 (de) 2015-04-13 2017-12-28 Mitsubishi Electric Corporation Bedienwerkzeug, Eingabevorrichtung und elektronische Vorrichtung
DE112017007920T5 (de) 2017-10-11 2020-07-02 Mitsubishi Electric Corporation Bedienungseingabevorrichtung

Also Published As

Publication number Publication date
US11175782B2 (en) 2021-11-16
US20210019003A1 (en) 2021-01-21
DE112018007216B4 (de) 2022-10-13
WO2019215915A1 (ja) 2019-11-14

Similar Documents

Publication Publication Date Title
EP2930049B1 (de) Anwenderschnittstelle und Verfahren zur Anpassung einer Ansicht auf einer Anzeigeeinheit
DE112018004686T5 (de) Touchscreen mit taktilen feedbackstrukturen und zugehörigen virtuellen benutzeroberflächenelementen
WO2008138638A1 (de) Multifunktionsanzeige- und bedienvorrichtung und verfahren zum betreiben einer multifunktionsanzeige- und bedienvorrichtung mit verbesserter auswahlbedienung
DE102010048745A1 (de) Benutzerschnittstelle und Verfahren zum Bedienen einer Benutzerschnittstelle
DE102009024656A1 (de) Verfahren zum Steuern einer grafischen Benutzerschnittstelle und Bedienvorrichtung für eine grafische Benutzerschnittstelle
DE112017007940T5 (de) Eingabevorrichtung, Berührungsfeldsteuervorrichtung und Berührungsfeldsteuerverfahren
EP3097468A1 (de) Anwenderschnittstelle und verfahren zur anpassung einer ansicht auf einer anzeigeeinheit
DE112017007627B4 (de) Bedieneinheit-Steuervorrichtung und Bedieneinheit-Steuerverfahren
DE102017218120A1 (de) Verfahren zur Bereitstellung einer haptischen Rückmeldung an einen Bediener einer berührungssensitiven Anzeigeeinrichtung
EP3234756A1 (de) Verfahren zum betreiben einer bedienvorrichtung eines kraftfahrzeugs bei einer mehrfingerbedienung
DE102012220062A1 (de) Einstellung mehrerer benutzereingabeparameter
DE102019114777A1 (de) Obdii fehlerdiagnosetechniken für knöpfe und tasten
DE102015105022B4 (de) Datenverarbeitungsverfahren und Elektronikgerät
DE112013004843T5 (de) Manipulationsvorrichtung
DE112013001994T5 (de) Anzeigesystem, Anzeigevorrichtung und Bedienvorrichtung
DE112018007216B4 (de) Eingabesteuerungsvorrichtung, Anzeigeeingabevorrichtung und Eingabesteuerungsverfahren
WO2014067774A1 (de) Verfahren und vorrichtung zum betreiben einer eingabevorrichtung
EP3049911B1 (de) Anwenderschnittstelle und verfahren zur unterstützung eines anwenders bei der bedienung einer bedieneinheit
WO2017140569A1 (de) Kraftfahrzeug-bedienvorrichtung und verfahren zum betreiben einer bedienvorrichtung, um eine wechselwirkung zwischen einer virtuellen darstellungsebene und einer hand zu bewirken
DE102009039114B4 (de) Bedienvorrichtung für ein Fahrzeug
DE102017000569A1 (de) Verfahren, Computerprogrammprodukt und Vorrichtung zum Ermitteln von Eingabebereichen an einer grafischen Benutzeroberfläche
EP3426516B1 (de) Bedienvorrichtung und verfahren zum erfassen einer benutzerauswahl zumindest einer bedienfunktion der bedienvorrichtung
DE102010009622A1 (de) Verfahren zum Betreiben einer Benutzerschnittstelle und Vorrichtung dazu, insbesondere in einem Fahrzeug
EP3163425B1 (de) Verfahren zum betreiben eines rechnersystems
DE112017007918T5 (de) Anzeigesteuerungseinrichtung, Anzeigesteuerungsverfahren, Anzeigesteuerungsprogramm und elektronische Einrichtung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R084 Declaration of willingness to licence
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final