DE112013003647T5 - Gesten- und Berührungseingabeerfassung durch Kraftabtastung - Google Patents

Gesten- und Berührungseingabeerfassung durch Kraftabtastung Download PDF

Info

Publication number
DE112013003647T5
DE112013003647T5 DE201311003647 DE112013003647T DE112013003647T5 DE 112013003647 T5 DE112013003647 T5 DE 112013003647T5 DE 201311003647 DE201311003647 DE 201311003647 DE 112013003647 T DE112013003647 T DE 112013003647T DE 112013003647 T5 DE112013003647 T5 DE 112013003647T5
Authority
DE
Germany
Prior art keywords
touch
force
computing device
processor
center
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE201311003647
Other languages
English (en)
Inventor
c/o Apple Inc. Parivar Nima
c/o Apple Inc. Westerman Wayne Carl
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Publication of DE112013003647T5 publication Critical patent/DE112013003647T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0414Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • G06F3/0447Position sensing using the local deformation of sensor cells
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04105Pressure sensors for measuring the pressure or force exerted on the touch surface without providing the touch position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04106Multi-sensing digitiser, i.e. digitiser using at least two different sensing technologies simultaneously or alternatively, e.g. for detecting pen and finger, for saving power or for improving position detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04108Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • G06F3/0443Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means using a single layer of sensing electrodes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • G06F3/0445Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means using two or more layers of sensing electrodes, e.g. using two layers of electrodes separated by a dielectric layer

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Eine Rechenvorrichtung, die konfiguriert ist zum Erfassen einer Benutzereingabe. Die Rechenvorrichtung beinhaltet einen Prozessor, eine Berührungsschnittstelle in Kommunikation mit dem Prozessor und konfiguriert zum Erfassen eines Berührungssignals entsprechend einem Gegenstand, der sich einer Oberfläche nähert oder diese berührt und zumindest drei Kraftsensoren in Kommunikation mit dem Prozessor und konfiguriert zum Erfassen eines Kraftsignals entsprechend einem Gegenstand, der eine Kraft auf die Oberfläche ausübt. In Reaktion auf die Kraft bestimmt der zumindest eine Prozessor einen Kraftschwerpunktort und die Berührungssignale werden durch den Prozessor verarbeitet durch Analysieren des Kraftschwerpunktortes.

Description

  • Querverweis zu verwandten Anmeldungen
  • Diese Patent-Kooperationsvertrags-Patentanmeldung (PCT) beansprucht Priorität der nicht vorläufigen US-Anmeldung Nr. 13/559,577, eingereicht am 26. Juli 2012 mit dem Titel ”Gesture and Touch Input Detection Through Force Sensing”, wobei dessen Inhalte hierin durch Verweis in ihrer Gesamtheit einbezogen sind.
  • Technisches Gebiet
  • Die vorliegende Erfindung bezieht sich generell auf Rechenvorrichtungen und insbesondere auf die Erfassung von Eingaben für Rechenvorrichtungen.
  • Hintergrund
  • Viele Arten von Eingabevorrichtungen können verwendet werden, um Eingaben auf Rechenvorrichtungen, wie beispielsweise Knöpfen oder Tasten, Mäuse, Trackballs, Joysticks, Berührungsbildschirme und Ähnlichem bereitzustellen. Insbesondere Berührungsbildschirme werden zunehmend beliebter wegen ihrer Benutzerfreundlichkeit und ihres vielseitigen Betriebs. Typischerweise können Berührungsbildschirme ein Berührungssensor-Bedienfeld beinhalten, welches ein klares Bedienfeld sein kann, mit einer berührungsempfindlichen Oberfläche und einer Anzeigevorrichtung, die hinter dem Bedienfeld positioniert sein kann, so dass die berührungsempfindliche Oberfläche im Wesentlichen die sichtbare Fläche der Anzeigevorrichtung bedeckt. Berührungsbildschirme erlauben einem/einer Benutzer/Benutzerin, verschiedene Arten von Eingaben der Rechenvorrichtung bereitzustellen durch Berühren des Berührungssensor-Bedienfeldes unter Verwendung eines Fingers, Stiftes oder eines anderen Objekts an einem Ort vorgeschrieben durch eine Benutzerschnittstelle, die durch die Anzeigevorrichtung angezeigt wird. Generell können Berührungsbildschirme ein Berührungsereignis und die Position des Berührungsereignisses auf dem Berührungssensor-Bedienfeld erkennen und das Rechensystem kann dann das Berührungsereignis in Übereinstimmung mit der Anzeige, die zu dem Zeitpunkt des Berührungsereignisses erscheint, interpretieren und kann anschließend eine oder mehrere Aktionen basierend auf dem Berührungsereignis durchführen.
  • Berührungssensor-Bedienfelder können aus einer Matrix von Zeilen- und Spalten-Leiterbahnen gebildet sein, mit Sensoren oder Pixeln, die vorhanden sind, wo die Zeilen und Spalten sich überkreuzen, während sie durch ein dielektrisches Material getrennt sind. Jede Reihe kann durch ein Anregungssignal angetrieben werden und Berührungsorte können durch Änderungen im Anregungssignal identifiziert werden. Typischerweise wird ein Berührungsort basierend auf einer Interferenz des Anregungssignals abgetastet, so dass ein Berührungsort einem Ort entsprechen kann, wo das Anregungssignal am schwächsten ist. Berührungssensor-Bedienfelder können generell konfiguriert werden zum Erfassen von Berührungen eines Benutzerfingers, welche generell einen Oberflächenbereich aufweisen, der das Berührungssensor-Bedienfeld berührt, um das Anregungssignal ausreichend zu stören, damit ein Berührungsort erkannt wird.
  • In einigen Beispielen können Rechenvorrichtungen, die Berührungsbildschirme einbeziehen, konfiguriert sein zum Erfassen einer oder mehrerer Gesten als Benutzereingaben. Zum Beispiel kann eine erste Art von Fingerbewegung, wie beispielsweise ein/eine Benutzer/Benutzerin, der zwei Finger auseinander bewegt, eine erste Eingabeart angeben kann (z. B. einen Hereinzoomen-Befehl), wohingegen eine zweite Art von Fingerbewegung, wie beispielsweise ein/eine Benutzer/Benutzerin, der zwei Finger zueinander bewegt, eine zweite Eingabeart angeben kann (z. B. einen Herauszoomen-Befehl). Allerdings kann in einigen Beispielen, wenn ein/eine Benutzer/Benutzerin eine Geste knapp außerhalb der Berührungsbildschirm-Abtastregion beginnt, wie beispielsweise entlang einer Kante der Vorrichtung, die Geste schwer zu erfassen sein, weil nur ein Teil der Geste durch den Berührungsbildschirm erfasst werden kann. In diesen Beispielen können Rechenvorrichtungen Eingaben abtasten, die unterschiedlich von einer durch den/die Benutzer/Benutzerin beabsichtigten Eingabe sind.
  • Zusammenfassung
  • Ein Beispiel der vorliegenden Offenbarung kann die Form einer Rechenvorrichtung annehmen, die konfiguriert ist zum Erfassen einer Benutzereingabe. Die Rechenvorrichtung beinhaltet einen Prozessor, eine Berührungsschnittstelle in Kommunikation mit dem Prozessor und konfiguriert zum Erfassen eines Berührungssignals, das einem Gegenstand entspricht, der sich einer Oberfläche annähert oder diese berührt und zumindest drei Kraftsensoren in Kommunikation mit dem Prozessor und konfiguriert zum Erfassen eines Kraftsignals, das einem Objekt entspricht, das eine Kraft auf der Oberfläche ausübt. In Reaktion auf die Kraft ermittelt der Prozessor einen Kraftschwerpunktort und die Berührungssignale werden durch den Prozessor durch Analysieren des Kraftschwerpunktorts verarbeitet.
  • Ein anderes Beispiel der Offenbarung kann die Form eines Verfahrens zum Erfassen von Benutzereingaben an einer Rechenvorrichtung durch Kraftabtastung annehmen. Das Verfahren beinhaltet das Erfassen einer Krafteingabe durch drei oder mehr Kraftsensoren, Berechnen eines Kraftschwerpunkts durch einen Prozessor in Kommunikation mit den Kraftsensoren basierend auf der Krafteingabe und Verwenden des Kraftschwerpunkts zum Analysieren einer oder mehrerer Benutzereingaben an der Rechenvorrichtung.
  • Noch ein anderes Beispiel der Offenbarung kann die Form eines mobilen Computers annehmen, der konfiguriert ist zum Erfassen von zumindest zwei Arten von Benutzereingaben. Der mobile Computer beinhaltet einen Prozessor, einen Berührungsbildschirm in Kommunikation mit dem Prozessor und zumindest drei Drucksensoren in Kommunikation mit dem Prozessor. Der Berührungsbildschirm ist konfiguriert zum Erfassen eines Berührungssignals, das einem Benutzerfinger entspricht, der sich dem Berührungsbildschirm nähert oder diesen berührt. Die zumindest drei Drucksensoren sind konfiguriert zum Erfassen eines Drucksignals, das einem Gegenstand entspricht, welcher Druck auf einer Oberfläche belegt. In Reaktion auf das Drucksignal bestimmt der Prozessor einen Schwerpunktort relativ zu der Oberfläche und das Berührungssignal wird durch den Prozessor durch Analysieren des Schwerpunktorts verarbeitet.
  • Kurze Beschreibung der Zeichnungen
  • 1 ist eine Draufsicht einer Rechenvorrichtung, die eine Berührungsschnittstelle zum Erfassen von einer oder mehreren Berührungseingaben beinhaltet.
  • 2 ist ein vereinfachtes Blockdiagramm der Rechenvorrichtung aus 1.
  • 3 ist eine vereinfachte Querschnittansicht der Rechenvorrichtung, die entlang der Linie 3-3 in 1 entnommen ist.
  • 4A ist eine Draufsicht eines/einer Benutzers/Benutzerin, der eine Eingabegeste an einer Rechenvorrichtung bereitstellt.
  • 4B ist eine Draufsicht eines ersten Kraftschwerpunkts und eines zweiten Kraftschwerpunkts entsprechend der Eingabegeste aus 4A.
  • 4C ist eine Draufsicht, die einen Kraftschwerpunktort und einen Berührungsschwerpunktort basierend auf einer oder mehrerer Benutzereingaben veranschaulicht.
  • 5A ist eine perspektivische Draufsicht der Rechenvorrichtung aus 1, die von einem/einer Benutzer/Benutzerin gegriffen wird.
  • 5B ist eine Draufsicht, die die Kraftschwerpunktorte basierend auf einer oder mehrerer Benutzereingaben veranschaulicht.
  • 6 ist eine Draufsicht der Rechenvorrichtung aus 1, die Benutzereingabeknöpfe aufweist, welche auf einer nichtkapazitiven berührungsempfindlichen Oberfläche positioniert sind.
  • 7 ist ein Flussdiagramm, welches ein Verfahren zum Erfassen von Benutzereingaben und Berührungsgesten unter Verwendung von Kraftsensoren veranschaulicht.
  • Spezifikation
  • Übersicht
  • In einigen Ausführungsformen wird hierin eine Rechenvorrichtung, die eine Berührungsschnittstelle zum Erfassen von einer oder mehrerer Berührungseingaben und eine Vielzahl von Kraftsensoren zum Erfassen einer oder mehrerer Krafteingaben beinhaltet, offenbart. Die Rechenvorrichtung kann zumindest drei und typischerweise vier oder mehr Kraftsensoren beinhalten, die eine Krafteingabe auf einer Oberfläche erfassen. Die Kraftsensoren können zusammen mit unterschiedlichen Teilen der Rechenvorrichtung verteilt werden und sind generell betriebsbereit mit einer Abdeckungsoberfläche verbunden. Die Abdeckungsoberfläche kann den Berührungsbildschirm und/oder ein Gehäuse, wenn nicht ganz, dann zum Teil, bedecken, wie beispielsweise eine schützende Glasschicht, die den Berührungsbildschirm oder andere Teile der Rechenvorrichtung bedeckt. Die Abdeckungsoberfläche kann sich über dem Berührungsbildschirm sowie andere, nicht berührungsempfindliche Teile der Rechenvorrichtung ausdehnen. Zum Beispiel in einigen Beispielen kann die Rechenvorrichtung einen ”schwarzen Abdeckungs”-Teil oder anderen Gehäusebereich der Anzeige beinhalten, der an einen Teil, wenn nicht an den gesamten, Berührungsbildschirm angrenzt, aber nicht empfindlich auf Kapazitäten oder Berührungseingaben sein kann.
  • In einigen Ausführungsformen können die Kraftsensoren verwendet werden zum Erfassen von Eingaben auf nicht berührungsempfindlichen Regionen der Rechenvorrichtung. Wenn z. B. ein/eine Benutzer/Benutzerin eine Kraft auf die schwarze Abdeckung anwendet, können die Kraftsensoren die Eingabekraft und/oder ihren Ort erfassen. Zusätzlich können die Kraftsensoren verwendet werden zum Verbessern der Erfassung von Eingaben auf berührungsempfindlichen Regionen der Rechenvorrichtung. In diesen Ausführungsformen können die Kraftsensoren die Erfassung von Eingabegesten verbessern, die auf der nicht berührungsempfindlichen Oberfläche beginnen können, sowie zusätzliche Eingabeempfangsmechanismen bereitstellen, welche den nicht berührungsempfindlichen Oberflächen der Rechenvorrichtung ermöglichen, Benutzereingaben zu empfangen.
  • In einigen Beispielen, wenn eine Eingabekraft empfangen wird, wie beispielsweise aufgrund eines/einer Benutzers/Benutzerin, der eine Kraft auf das Abdeckungsglas anwendet, können die Kraftsensoren jeweils ein Kraftsignal erfassen, welches der Eingabekraft entsprechen kann, aber das abgetastete Signal kann variieren, basierend auf dem Ort jedes der Kraftsensoren. Wenn z. B. die Eingabekraft in einer oberen rechten Ecke der Oberfläche ausgeübt wird, kann ein erster Kraftsensor, der angrenzend an die obere rechte Ecke der Oberfläche ist, einen ersten Kraftwert abtasten, ein zweiter Kraftsensor, der in einer linken unteren Ecke sein kann, kann einen zweiten Kraftwert abtasten und ein dritter Kraftsensor, der in einer linken oberen Ecke ist, kann einen dritten Wert abtasten. Diese drei Kraftwerte können verwendet werden zum Bestimmen eines Ortes eines Zentrums der Kraft oder eines Kraftschwerpunktortes.
  • Der Kraftschwerpunktort kann verwendet werden zum Analysieren eines oder mehrerer Berührungseingaben und/oder Benutzerkrafteingaben an der Rechenvorrichtung. Als ein erstes Beispiel kann der Kraftschwerpunkt in Verbindung mit jeder erfassten Berührungseingabe verwendet werden zum Bestimmen, ob eine Berührungseingabe Teil einer Kraftgeste ist, die abseits des Berührungsbildschirm-empfindlichen Bereichs begonnen hat, so dass die Berührungseingabe als eine Berührungsgeste behandelt wird. Als ein zweites Beispiel kann der Kraftschwerpunkt verwendet werden zum Bestimmen, ob eine oder mehrere Berührungseingaben versehentlich sind, wie beispielsweise aufgrund eines/einer Benutzers/Benutzerin, der die Rechenvorrichtung hält und einen Teil eines Fingers auf dem berührungsempfindlichen Bildschirm platziert, aber nicht vor hat, eine Berührungseingabe bereitzustellen. Als ein drittes Beispiel kann der Kraftschwerpunkt verwendet werden zum Bestimmen von Benutzereingaben außerhalb des berührungsempfindlichen Bereichs. In diesem Beispiel kann die Rechenvorrichtung bestimmte Benutzereingaben erfassen, welche mit virtuellen Knöpfen oder Befehlen außerhalb der berührungsempfindlichen oder aktiven Berührungsregion korreliert sein können.
  • Detaillierte Beschreibung
  • Nun den Figuren zugekehrt, wird nun eine Rechenvorrichtung, die einen Berührungsbildschirm beinhaltet, detaillierter diskutiert. 1 ist eine Draufsicht einer Rechenvorrichtung 100, die eine Berührungsschnittstelle 102 und Kraftsensoren 110, 112, 114, 116 beinhaltet. Die Rechenvorrichtung 100 kann im Wesentlichen jede Art von elektronischer Vorrichtung sein, die einen Berührungseingabemechanismus beinhaltet, wie beispielsweise die Berührungsschnittstelle 102 oder andere Berührungsbildschirme und zugehörige Komponenten. Zum Beispiel kann die Rechenvorrichtung 100 ein Laptop Computer, ein Tablet Computer, ein Smartphone, ein digitaler Musikspieler, eine tragbare Spielstation oder Ähnliches sein.
  • Die Rechenvorrichtung 100 kann die Berührungsschnittstelle 102, ein Gehäuse 104, welches die Berührungsschnittstelle 102 zumindest teilweise umgibt, eine Abdeckungsoberfläche 106, die zumindest einen Teil der Berührungsschnittstelle 102 und/oder des Gehäuses 104 bedeckt, und/oder einen oder mehrere Eingabeknöpfe 108 beinhalten. Das Gehäuse 104 schließt eine oder mehrere Komponenten der Rechenvorrichtung 100 ein, so wie es einen Teil der Berührungsschnittstelle 102 der Rechenvorrichtung 100 umgibt und/oder sichert. Der eine oder die mehreren Eingabeknöpfe 108 können Eingabefunktionen der Rechenvorrichtung 100 bereitstellen. Zum Beispiel können die Eingabeknöpfe 108 ein Volumen der Rechenvorrichtung 100 einstellen, die Rechenvorrichtung 100 ein- oder ausschalten oder können andere Eingaben der Rechenvorrichtung 100 bereitstellen. Ferner kann die Rechenvorrichtung 100 auch einen oder mehrere Empfangsanschlüsse beinhalten (nicht gezeigt). Die Empfangsanschlüsse können einen oder mehrere Stecker oder Konnektoren beinhalten, wie beispielsweise aber nicht beschränkt auf einen Universal Serial Bus(USB)-Kabel, einen Klinkenstecker (tip ring sleeve connector) oder Ähnliches.
  • Die Abdeckungsoberfläche 106 kann als ein Teil der Berührungsschnittstelle 102 einbezogen werden und/oder kann eine schützende Oberfläche sein, die die Berührungsschnittstelle 102 und/oder ein Gehäuse 104 oder Teile davon schützt. In einigen Ausführungsformen kann die Abdeckungsoberfläche 106 sich über eine obere Oberfläche des Gehäuses 104 sowie auch eine obere Oberfläche der Berührungsschnittstelle 102 ausdehnen. In diesen Ausführungsformen kann die Abdeckungsoberfläche 106 auch als ein Gehäuse für die Komponenten der Rechenvorrichtung 100 dienen. Die Abdeckungsoberfläche 106 kann ein Material sein, das einer oder mehreren elektrischen Eigenschaften ermöglichen kann, dadurch übermittelt zu werden. Zum Beispiel kann die Abdeckungsoberfläche 106 aus Glas oder Kunststoff sein. Zusätzlich, in Beispielen, in denen die Berührungsschnittstelle 102 auch einen Anzeigebildschirm beinhalten kann, kann zumindest ein Teil der Abdeckungsoberfläche 106, die sich über die Berührungsschnittstelle 102 ausdehnt, klar oder teilweise transparent sein. Typischerweise soll die Abdeckungsoberfläche 106 ausreichend dünn sein, um ausreichende Elektrodenkopplungen zwischen der Berührungsschnittstelle 102 und jedes externen Eingabegegenstands zu ermöglichen (z. B. Finger, Eingabevorrichtungen).
  • Die Berührungsschnittstelle 102 kann einen oder mehrere Berührungssensoren beinhalten, um eine oder mehrere Berührungs- oder kapazitive Eingaben zu erfassen, wie beispielsweise aufgrund eines/einer Benutzers/Benutzerin, welcher/welche seinen/ihren Finger nahe an oder auf die Abdeckungsoberfläche 106 und/oder die Berührungsschnittstelle 102 platziert. Die Berührungsschnittstelle 102 wird unten detaillierter diskutiert, kann generell aber jede Art von Schnittstelle sein, die konfiguriert ist zum Erfassen von Änderungen in der Kapazität oder anderen elektrischen Parametern, welche mit einer Benutzereingabe korreliert sein können.
  • Die Kraftsensoren 110, 112, 114, 116 sind konfiguriert zum Abtasten einer Eingabekraft oder einer Änderung in einer abgetasteten Kraft, die auf die Abdeckungsoberfläche 106, das Gehäuse 104 und/oder die Berührungsschnittstelle 102 angewendet werden kann. Obwohl die Kraftsensoren hier als eine Eingabekraft empfangend diskutiert werden, die auf die Abdeckungsoberfläche angewendet wird, soll angemerkt werden, dass die Kraftsensoren betriebsbereit an eine Vielzahl von unterschiedlichen Oberflächen oder Elementen innerhalb der Rechenvorrichtung, in welcher ein/eine Benutzer/Benutzerin eine Kraft anwenden kann, verbunden werden können. Dementsprechend wird die Diskussion aller bestimmten Ausführungsformen der Kraftsensoren nur als veranschaulichend beabsichtigt und nicht als beschränkend.
  • Weiterhin mit Bezug auf 1 kann in einer Ausführungsform der erste Kraftsensor 110 in einer oberen rechten Ecke der Rechenvorrichtung 100 positioniert werden, der zweite Kraftsensor 112 kann in einer oberen linken Ecke der Rechenvorrichtung 100 positioniert werden, der dritte Kraftsensor 114 kann in einer unteren linken Ecke positioniert werden und der vierte Kraftsensor 116 kann in einer unteren rechten Ecke der Rechenvorrichtung 100 positioniert werden. Die Kraftsensoren 110, 112, 114, 116 können betriebsbereit verbunden sein mit der Abdeckungsoberfläche 106 und/oder der Berührungsschnittstelle 102 und können eine oder mehrere Eingabekräfte erfassen, die entweder auf der Berührungsschnittstelle 102 oder der Abdeckungsoberfläche 106 ausgeübt werden. In einem speziellen Beispiel können die Kraftsensoren 106 Dehnungsmessstreifen sein, die ein Signal produzieren können basierend auf oder anderweitig entsprechend einer Biegekraft, die darauf angewendet wird. Als ein anderes Beispiel können die Kraftsensoren kapazitive Sensoren sein, die Änderungen in der Kapazität als Druck, der auf die Abdeckungsoberfläche 106 angewendet wird, abtasten. Als noch ein anderes Beispiel können die Kraftsensoren optische Sensoren beinhalten. In diesem Beispiel kann eine kleine Kamera oder andere Abbildungsaufnahmevorrichtung Bilder eines bestimmten Musters aufnehmen, die unten an der Abdeckungsoberfläche 106 und/oder Berührungsschnittstelle beinhaltet sein können. Wenn Kraft auf die Abdeckungsoberfläche 106 angewendet wird, kann das Muster variiert werden (z. B. können bestimmte Punkte sich näher aneinander bewegen oder können sich nach außen verformen) und die Kamera kann das Muster und jede Änderung daran aufnehmen. Die Musteränderungen könnten auch durch die Rechenvorrichtung in ein oder mehrere skalierte Bilder umgewandelt werden, die in Kraftmessungen umgewandelt werden können.
  • In einigen Ausführungsformen, wie beispielsweise in 1 gezeigt, können die Kraftsensoren 110, 112, 114, 116 getrennt voneinander entlang des Umfangs der Berührungsschnittstelle 102 sein, wie beispielsweise in jeder Ecke eines rechteckig gestalteten Gehäuses. In anderen Ausführungsformen können die Kraftsensoren 110, 112, 114, 116 allerdings nebeneinander positioniert sein, innerhalb der Berührungsschnittstelle 102, über oder unter der Berührungsschnittstelle 102 oder ähnlich. Außerdem, obwohl nur vier Kraftsensoren veranschaulicht werden, kann die Rechenvorrichtung 100 im Wesentlichen jede Anzahl von Kraftsensoren 102 beinhalten. Demnach kann in vielen Ausführungsformen die Rechenvorrichtung 100 zumindest drei Kraftsensoren 102 beinhalten zum besseren Schätzen des Ortes eines Kraftschwerpunkts, welches unten detaillierter beschrieben werden wird. Zusätzlich kann die Anzahl und die Positionierung der Kraftsensoren variiert werden basierend auf Änderungen in der Gestaltung, den Dimensionen oder Ähnlichem der Rechenvorrichtung.
  • Die Rechenvorrichtung 100 kann eine oder mehrere Komponenten beinhalten, die in Kommunikation miteinander sein können. 2 ist ein vereinfachtes Blockdiagramm der Rechenvorrichtung 100. Mit Bezug auf 2 kann die Rechenvorrichtung 100 ferner eine Energiequelle 102, eine Eingabe/Ausgabeschnittstelle 122, einen Prozessor 124, eine oder mehrere Speicherkomponenten 126 und/oder einen oder mehrere Sensoren 128 beinhalten.
  • Der Prozessor 124 kann im Wesentlichen jede elektronische Vorrichtung sein, die Kabel zum Verarbeiten, Empfangen und/oder Übermitteln von Anweisungen ist. Zum Beispiel kann der Prozessor 124 ein Mikroprozessor oder ein Mikrocomputer sein. Wie hierin beschrieben, ist der Begriff ”Prozessor” beabsichtigt zum Umfassen eines einzelnen Prozessors oder einer Prozessoreinheit, mehrerer Prozessoren oder mehrerer Verarbeitungseinheiten oder anderer geeigneter konfigurierter Rechenelemente. Zum Beispiel können Auswahlkomponenten der elektronischen Vorrichtung 100 durch einen ersten Prozessor gesteuert werden und andere Komponenten der elektronischen Vorrichtung 100 durch einen zweiten Prozessor gesteuert werden, wobei der erste und zweite Prozessor miteinander in Kommunikation sein können oder nicht. Als ein spezielles Beispiel kann die Berührungsschnittstelle 102 eine oder mehrere getrennte Bearbeitungskomponenten beinhalten, die in Kommunikation mit dem Prozessor 124 sein können.
  • Der Speicher 126 kann elektronische Daten speichern, die von der elektronischen Vorrichtung 100 verwendet werden können. Zum Beispiel kann der Speicher 126 elektronische Daten oder Inhalte speichern, z. B. Audiodateien, Videodateien, Dokumentdateien usw., die verschiedenen Anwendungen entsprechen. Der Speicher 126 kann beispielsweise ein nichtflüchtiger Speicher oder ein Magnetspeichermedium, ein optisches Speichermedium, ein magneto-optisches Speichermedium, ein Nur-Lese-Speicher, ein Speicher mit wahlfreiem Zugriff, ein löschbarer programmierbarer Speicher, ein Flash-Speicher oder eine Kombination von einem oder mehreren Arten von Speicherkomponenten sein.
  • Die elektronische Vorrichtung 100 kann auch einen oder mehrere Sensoren 128 zusätzlich zu den Kraftsensoren 110, 112, 114, 116 und/oder Berührungssensoren beinhalten, die in die Berührungsschnittstelle 102 einbezogen sind. Die Sensoren 128 können im Wesentlichen jede Art von Eingabe an der elektronischen Vorrichtung 100 bereitstellen. Zum Beispiel können die Sensoren 128 einen oder mehrere Beschleunigungssensoren, Gyroskope, Lichtsensoren, Bildsensoren (wie beispielsweise eine Kamera), Kraftsensoren usw. sein.
  • Die Energiequelle 120 kann im Wesentlichen jede Vorrichtung sein, die fähig ist, der Rechenvorrichtung 100 Energie bereitzustellen. Zum Beispiel kann die Energiequelle 120 eine Batterie, ein Verbindungskabel, das konfiguriert ist zum Verbinden der Rechenvorrichtung 100 zu einer anderen Energiequelle wie beispielsweise eine Steckdose oder Ähnliches sein.
  • Die Eingabe/Ausgabeschnittstelle 122 kann konfiguriert sein zum Bereitstellen einer Kommunikation zu und von der Rechenvorrichtung 100. Zum Beispiel kann die Eingabe/Ausgabeschnittstelle 122 eine Kommunikation mit der Rechenvorrichtung zu und von einer Vielzahl von Vorrichtungen/Quellen erleichtern. Zum Beispiel kann die Eingabe/Ausgabeschnittstelle 122 Daten von einem/einer Benutzer/Benutzerin, Steuerknöpfe usw. auf der Rechenvorrichtung 100 empfangen. Zusätzlich kann die Eingabe/Ausgabeschnittstelle 122 auch Daten empfangen/übermitteln zu und von einem externen Laufwerk, z. B. eines Universal Serial Bus (USB) oder andere Video/Audio/Dateneingaben.
  • Es wird angemerkt, dass die 1 und 2 nur exemplarisch sind. In anderen Beispielen kann die elektronische Vorrichtung weniger oder mehr Komponenten als die in 1 und 2 gezeigten beinhalten. Zusätzlich ist die veranschaulichte elektronische Vorrichtung nur ein Beispiel einer Rechenvorrichtung, die Berührungsschnittstellen und Kraftsensoren einbezieht.
  • Die Berührungsschnittstelle 102 und die Kraftsensoren 110, 112, 114, 116 werden nun detaillierter diskutiert. 3 ist eine Querschnittansicht der Rechenvorrichtung 100 entlang der Linie 3-3 aus 1 genommen. Mit Bezug auf 3 kann sich die Abdeckungsoberfläche 106 über eine obere Oberfläche des Gehäuses 104 sowie über die Kraftsensoren 110, 112, 114, 116 und die Berührungsschnittstelle 102 ausdehnen. Die Kraftsensoren 110, 112, 114, 116 können betriebsbereit mit der Abdeckungsoberfläche 106, dem Gehäuse 104 verbunden sein, sowie in Kommunikation mit der Berührungsschnittstelle 102 sein.
  • Mit Bezug auf 3 können die Berührungsschnittstelle 102 und/oder die Kraftsensoren 110, 112, 114, 116 betriebsbereit verbunden sein mit und/oder in Kommunikation sein mit einem Substrat oder einer Schaltplatte 134. Das Substrat 134 kann eine Kommunikation zwischen den Kraftsensoren 110, 112, 114, 116 und/oder der Berührungsschnittstelle 102 mit einer oder mehreren Komponenten für die Rechenvorrichtung 100 bereitstellen, wie beispielsweise, aber nicht beschränkt, auf den Prozessor 124, den Speicher 126 und die Energiequelle 120.
  • Die Berührungsschnittstelle 102 ist konfiguriert zum Empfangen von Eingaben von einem Gegenstand (z. B. Ortsinformationen basierend auf einem Benutzerfinger oder Daten von der Eingabevorrichtung) und zum Senden dieser Informationen an den Prozessor 124. Die Berührungsschnittstelle 102 kann Berührungen an den Prozessor 124 berichten und der Prozessor interpretiert die Berührungen in Übereinstimmung mit seiner Programmierung. Zum Beispiel kann der Prozessor eine Aufgabe in Übereinstimmung mit einer bestimmten Berührung initiieren. Die Berührungsschnittstelle 102 kann einen Anzeigebildschirm 132 und ein Sensorbedienfeld 130, welches zumindest teilweise über dem Anzeigebildschirm 132 positioniert ist, beinhalten.
  • Der Anzeigebildschirm 132 ist konfiguriert zum Anzeigen einer oder mehrerer Ausgabebilder und/oder Videos für die Rechenvorrichtung 100. Der Anzeigebildschirm 132 kann im Wesentlichen jede Art von Anzeigemechanismus sein, wie beispielsweise eine Flüssigkristallanzeige (LCD), eine Plasmaanzeige oder Ähnliches. In Beispielen, in denen der Anzeigebildschirm 132 eine LCD-Anzeige ist, kann der Anzeigebildschirm 132 verschiedene Schichten (nicht gezeigt) wie ein fluoreszierendes Bedienfeld, ein oder mehrere Polarisationsfilter, eine Schicht von Flüssigkristallzellen, einen Farbfilter oder Ähnliches beinhalten. Es wird angemerkt, dass 3 nicht skaliert gezeichnet ist und eine schematische Ansicht der Berührungsschnittstelle 102 ist, es können beispielsweise Spalte (nicht gezeigt) zwischen einer oder mehreren Komponenten der Berührungsschnittstelle und/oder Abdeckungsoberfläche sein.
  • In einigen Ausführungsformen kann die Abdeckungsoberfläche 106 ein Bedienfeld aus klarem Glas oder Kunststoff sein, welches dem Anzeigebildschirm 132 ermöglichen kann, dadurch sichtbar zu sein. Das Sensorbedienfeld 130 kann eine oder mehrere Elektroden beinhalten, welche auf der Abdeckungsoberfläche 106 abgelegt sein können. Zum Beispiel kann die Elektrodenschicht transparentes leitendes Material und Mustertechniken wie beispielsweise ITO (Indiumzinnoxid) und Drucken einschließen.
  • Es wird angemerkt, dass in einigen Ausführungsformen die Berührungsschnittstelle 102 im Wesentlichen jede Art Berührungsbildschirm oder Berührungserfassungskomponente(n) sein kann. Zum Beispiel kann die Berührungsschnittstelle nicht durchsichtig sein und/oder nicht einem Anzeigebildschirm entsprechen. In diesen Beispielen kann eine bestimmte Oberfläche oder Gruppe von Oberflächen konfiguriert sein, um Berührungseingaben zu empfangen, welche einer getrennt angezeigten Benutzerschnittstelle, Icons oder Ähnlichem entsprechen können oder nicht.
  • Das Sensorbedienfeld 130 kann einen oder mehrere Berührungssensoren beinhalten, die Änderungen in einem elektrischen Parameter erfassen können, der einem Gegenstand entsprechen kann, der die Berührungsschnittstelle 102 berührt oder sich dieser annähert. Zum Beispiel kann das Sensorbedienfeld 130 eine oder mehrere Schichten von Elektroden, welche über das Bedienfeld getrennt verteilt sein können, beinhalten. Die Elektroden können einen oder mehrere Knoten definieren, die als kapazitive Koppelsensoren dienen, zum Erfassen von Berührungen auf der Berührungsschnittstelle 102. Die Anzahl und Konfiguration der Knoten kann variiert werden, abhängig von der gewünschten Empfindlichkeit der Berührungsschnittstelle 102.
  • In einigen Ausführungsformen kann das Sensorbedienfeld 130 der Berührungsschnittstelle 102 konfiguriert sein zum Erfassen von Berührungen auf der Oberfläche der Berührungsschnittstelle 102 durch Abtasten einer oder mehrerer Änderungen in der Kapazität. Typischerweise, wenn zwei elektrisch leitende Elemente nahe aneinander kommen, ohne sich wirklich zu berühren, interagieren ihre elektrischen Felder, um eine Kapazität zu bilden. Wie kurz oben beschrieben kann das Sensorbedienfeld 130 eine Vielzahl von Abtastknoten beinhalten, die eine oder mehrere Elektroden bilden können, die mit einem externen Gegenstand interagieren können, wie beispielsweise einem Benutzerfinger, um die Anwesenheit des Objekts zu erfassen.
  • Die Berührungsschnittstelle 102 kann Änderungen in der Kapazität jedes Knotens erfassen, welches der Berührungsschnittstelle 102 ermöglicht zu bestimmen, wann und wo ein/eine Benutzer/Benutzerin verschiedene Oberflächen der Abdeckungsoberfläche 106 und/oder der Berührungsschnittstelle 102 mit einem oder mehreren Gegenständen berührt hat. Die Berührungsschnittstelle 102 kann im Wesentlichen jede Art von Berührung wie im Stand der Technik bekannt sein und spezifische Implementierungen können auf einer Anzahl von unterschiedlichen Faktoren basieren, wie beispielsweise, aber nicht beschränkt auf, die Größe des Berührungsbildschirms, die gewünschte Empfindlichkeit des Berührungsbildschirms usw. Dementsprechend soll die Diskussion der einen bestimmten Berührungsschnittstellenkonfiguration nur als veranschaulichend und nicht beschränkend beabsichtigt sein.
  • Mit erneutem Bezug auf 3 können die Kraftsensoren 110, 112, 114, 116 betriebsbereit verbunden sein zu der Abdeckungsoberfläche 106, um Eingabekräfte zu erfassen, die im Wesentlichen an jedem Ort der Abdeckungsoberfläche 106 angewendet werden können. Zum Beispiel können die Kraftsensoren 110, 112, 114, 116 Kraft messen durch Abtasten einer Auslenkung der Abdeckungsoberfläche 106. In anderen Ausführungsformen können die Kraftsensoren 110, 112, 114, 116 allerdings andere Mechanismen sein, die konfiguriert sind zum Abtasten einer Änderung in einem oder mehreren Parametern, die mit einer Kraftänderung korreliert sein können.
  • Die Berührungsschnittstelle 102 und die Kraftsensoren 110, 112, 114, 116 können verwendet werden zum Bestimmen des Ortes und der Stärke von verschiedenen Eingaben auf der Abdeckungsoberfläche 106 der Rechenvorrichtung 100. Die Rechenvorrichtung 100 kann unter Verwendung der Kraftsensoren 110, 112, 114, 116, die an jeder Ecke der Abdeckungsoberfläche 106 positioniert sind, konfiguriert sein zum Bestimmen des Ortes eines Kraftschwerpunkts für eine Benutzereingabe oder -eingaben. Die Kraftsensoren können unterschiedlich konfiguriert sein und/oder positioniert sein in anderen Ausführungsformen, aber können weiterhin verwendet werden zum Bestimmen und Zuweisen von Kräften zu bestimmten Eingabeorten.
  • Schwerpunktberechnungen mit einer erfassten Berührungsposition
  • Für Benutzereingaben, die in Kommunikation mit der Berührungsschnittstelle 102 sind (z. B. erfassbar durch die Berührungsschnittstelle, wie beispielsweise sich innerhalb einer aktiven Berührungsregion befinden), können die Berührungssensoren 130 den Ort jeder Berührung oder Eingabe auf der Abdeckungsoberfläche 106, die über der Berührungsschnittstelle 102 positioniert sind, bestimmen und die Kraftsensoren 110, 112, 114, 116 können die Kraftstärke an Orten auf der Abdeckungsoberfläche 106 bestimmen.
  • Zum Beispiel in Beispielen, in welchen der/die Benutzer/Benutzerin der Abdeckungsoberfläche 106 eine Eingabekraft über der Berührungsschnittstelle 102 mit einem einzelnen Finger bereitstellt, kann die Rechenvorrichtung 100 diese Position mit der gesamten Kraft, die durch den einen oder die mehreren Kraftsensoren 110, 112, 114, 116 erfasst wurde, zuweisen. In vielen Beispielen kann der/die Benutzer/Benutzerin allerdings eine Eingabekraft oder Kräfte mit einem oder mehreren Fingern und/oder anderen Teilen von seiner oder ihrer Hand bereitstellen. Zum Beispiel kann die Berührungsschnittstelle 102 verwendet werden zum Aufnehmen von Eingabegesten basierend auf der Anzahl oder Arten von Fingereingaben. In diesen Beispielen kann die Rechenvorrichtung 100 eine Eingabekraft bestimmen, die mit mehreren oder allen der verschiedenen Berührungsorte auf der Abdeckungsoberfläche 106 zu Eingabekraft-Level zugewiesen ist. In einigen Ausführungsformen kann die Rechenvorrichtung 100 einen Schwerpunkt der insgesamt angewendeten Kraft bestimmen, welche einen Ort von ungefähr einem Zentrum der angewendeten Kräfte beinhaltet. Auf diese Weise, wenn es eine Kraft gibt, die durch zwei Finger eines/einer Benutzers/Benutzerin angewendet wurde, kann der Schwerpunkt zwischen den beiden Fingern positioniert werden.
  • Beispiele von Schwerpunktberechnungen zum Bestimmen des Kraftschwerpunktorts werden unten detaillierter diskutiert. Wie oben kurz diskutiert wurde, kann in den Beispielen, in welchen die Eingabekraft auf die Berührungsschnittstelle 102 angewendet werden kann, die Position der Kraft bestimmt werden, basierend auf den Berührungsortdaten, die durch die Berührungsschnittstelle 102 abgetastet werden. In diesen Ausführungsformen kann die Rechenvorrichtung 100 den Berührungsort, welcher eine Mehrheit der Eingabekraft bereitstellt, bestimmen unter Verwendung einer Schwerpunktberechnung. Allerdings weil in einigen Ausführungsformen die Rechenvorrichtung 100 nur eine vier Kraftsensoren 110, 112, 114, 116 beinhaltet, können einige Berechnungen und/oder Schätzungen verwendet werden zum Bestimmen der Finger, die die Eingabekraft bereitstellen können. Wie unten detaillierter beschrieben, kann die Rechenvorrichtung 100 die Positionsinformationen verwenden, wie sie durch die Berührungsschnittstelle 102 zusammen mit verschiedenen Kraftsignalen, die durch die vier Kraftsensoren 110, 112, 114, 116 erfasst wurden, erfassen, zum Bestimmen des Berührungsortes, der einer bestimmten Kraft entspricht. Durch Bestimmen des Schwerpunkts der Eingabekräfte, die auf der Abdeckungsoberfläche 106 bereitgestellt werden und aufgrund der Position der Berührungen auf der Abdeckungsoberfläche 106, die durch das Sensorbedienfeld 130 des Berührungsbildschirms 106 erfasst werden, kann die Rechenvorrichtung 100 den Finger bestimmen, die die Eingabekraft bereitstellen, als den, der am nächsten am Kraftschwerpunkt ist. Der globale Kraftschwerpunkt CGF kann durch die Gleichung (1) unten ausgedrückt werden:
    Figure DE112013003647T5_0002
    Gleichung (1)
  • In Gleichung (1) ist der globale Kraftschwerpunkt CGF ausgedrückt als die Summe einer ausgewählten Anzahl von Positionen Pi, die an jeder Position Pi mit dem Gewicht Wi multipliziert werden, dividiert durch die Summe der Gewichte Wi. Die Positionen Pi können durch die Berührungsschnittstelle 102 bestimmt werden. Zum Beispiel, wenn der/die Benutzer/Benutzerin auf die Abdeckungsoberfläche 106 mit zwei Fingern drückt, können diese Finger ein Positionseingabesignal (wie beispielsweise eine Änderung in der Kapazität) an zwei getrennten Orten oder Knoten bereitstellen. Diese Orte können als zwei Eingabepositionen Pi in Gleichung (1) verwendet werden. In einigen Beispielen können die Positionen Pi ein Satz oder Koordinaten oder eine einzelne Achsenkoordinate sein, wobei im letzten Beispiel die Gleichung (1) zwei Mal wiederholt werden kann, einmal für eine X- oder horizontale Achse und einmal für eine Y- oder vertikale Achse. In anderen Beispielen, wie beispielsweise in Gleichung (2) veranschaulicht, können die Positionen Pi als Positionsvektor relativ zu einem vorbestimmten Ursprung dargestellt werden. Das Gewicht Wi kann das selbe wie die Kraft sein, die durch jeden Kraftsensor abgetastet wird oder kann die Kraft sein, die durch jeden Kraftsensor abgetastet wird, multipliziert mit der Erdbeschleunigung (z. B. 9,80665 m/s2 oder 32,174 ft/s2).
  • Gleichung (1) verwendet auch das Gewicht Wi für jede Position; allerdings, da es keine Kraftsensoren 110, 112, 114, 116 an jedem Ort der Abdeckungsoberfläche 106 gibt, wo es eine Berührung geben kann, kann das Gewicht Wi nicht an jeder Position bekannt sein, nur die Kraft an dem Ort der Kraftsensoren 110, 112, 114, 116. In diesen Ausführungsformen kann die Positionsinformation zusammen mit der Kraft, die an jedem Eingabesensor 110, 112, 114, 116 abgetastet wird, verwendet werden, um einen globalen Kraftschwerpunkt aufzulösen.
  • Unter Verwendung des Beispiels einer Rechenvorrichtung 100, die vier Kraftsensoren 110, 112, 114, 116 aufweist, kann die Gleichung (1) erweitert werden, um die Werte für jeden der Eingabesensoren 110, 112, 114, 116 extrapoliert auf die Gleichung (2) unten zu beinhalten:
    Figure DE112013003647T5_0003
    Gleichung (2)
  • In der obigen Gleichung (2) und mit Verweis auf 1 repräsentiert LPF den Tiefpassfilter, C F[n] / RB ist die Kraft, die durch den rechten unteren (right bottom, RB) Kraftsensor 116 registriert wurde, C → position / RL ist der Positionsvektor des entsprechenden Sensors zu der Berührungsposition, C F[n] / TL stellt die Kraft dar, die durch den oberen linken Kraftsensor 110 registriert wurde, C → position / TL ist der Positionsvektor des entsprechenden Sensors zu der Berührungsposition, C F[n] / RL ist die Kraft, die durch den rechten oberen Kraftsensor 112 registriert wurde, C → position / RL ist der Positionsvektor des entsprechenden Sensors zu der Berührungsposition, C F[n] / RB ist die Kraft, die durch den rechten unteren Kraftsensor 114 registriert wurde, C → F[n] / RB ist der Positionsvektor des entsprechenden Sensors zu der Berührungsposition, welcher den Ort und den Wert der bestimmten Kraft relativ zu einem bestimmten vorbestimmten Ursprung darstellt.
  • Wie in Gleichung (2) angegeben können in einigen Ausführungsformen die Werte für die Kraftsensoren vor der Verarbeitung tiefpassgefiltert sein. Dieses Filtern kann verwendet werden, um Rauschen zu entfernen, wie beispielsweise Spitzen innerhalb des Signals. Allerdings brauchen in anderen Beispielen die Eingabewerte der Kraftsensoren 110, 112, 114, 116 nicht tiefpassgefiltert zu werden basierend auf dem Rauschlevel für jedes der Signale. Wie oben beschrieben können die Kraftsensoren 110, 112, 114, 116 konfiguriert sein zum Erfassen einer Kraft an einem vorbestimmten Ort. Allerdings in Beispielen, in denen es eine oder mehrere Kräfte gibt, die auf die Abdeckungsoberfläche 106 angewendet werden, kann die Kraft, die bei jedem der Kraftsensoren 110, 112, 114, 116 registriert wird, reduziert oder erhöht werden verglichen mit anderen Sensoren 110, 112, 114, 116 basierend auf der Distanz der angewendeten Kraft des entsprechenden Kraftsensors 110, 112, 114, 116. In anderen Worten kann ein Moment der Abdeckungsoberfläche 106 für einen bestimmten Kraftsensor 110, 112, 114, 116 variieren basierend auf einer Distanz von einer bestimmten Kraft während ein Hebelarm oder eine senkrechte Distanz des Kraftortes zu dem Kraftsensor 110, 112, 114, 116 sich erhöhen oder abfallen kann. In einigen Ausführungsformen können die Kraftsensoren 110, 112, 114, 116 Dehnungsmessstreifen sein, welche sich variierende Krafteingaben registrieren können basierend auf dem Moment, so dass die Krafteingaben, wie sie durch die Kraftsensoren 110, 112, 114, 116 abgetastet wurden, variieren können basierend auf der Distanz zu einer entsprechenden Eingabekraft.
  • Obwohl die obigen Beispiele mit Bezug auf vier Kraftsensoren 110, 112, 114, 116 beschrieben wurden, können in anderen Ausführungsformen drei Sensoren oder mehr als vier Sensoren ebenso verwendet werden. Zum Beispiel, da drei Punkte erforderlich sind, um eine Ebene zu definieren, kann die Rechenvorrichtung 100 nur drei Kraftsensoren beinhalten und im Wesentlichen die gleichen Berechnungen wie oben verwenden. Alternativ kann die Rechenvorrichtung 100 mehr Kraftsensoren beinhalten, um die obigen Berechnungen zu verfeinern.
  • Durch Verwendung der obigen Gleichung (2) kann der globale Kraftschwerpunkt, der der Ort des Zentrums der angewendeten Kraft ist, bestimmt werden. Als ein Beispiel mit einer einzelnen Berührung kann das Zentrum der Kraft bestimmt werden durch Analysieren der Kraft, die an jedem Kraftsensor zusammen mit dem Ort der Berührung, die durch die Berührungsschnittstelle 102 erfasst wurde, registriert wurde. Da es in diesem Beispiel nur eine einzelne Eingabeberührung gibt, kann die Rechenvorrichtung 100 bestimmen, dass die gesamte Kraft an dem Ort des Kraftschwerpunkts bereitgestellt wurde und dann dieses Wissen verwenden, um die Kraftstärke, die darauf angewendet wurde, zu bestimmen.
  • Schwerpunktberechnungen ohne eine erfasste Berührungsposition
  • Für Benutzereingaben, die nicht in Kommunikation mit der Berührungsschnittstelle 102 sind, wie beispielsweise diejenigen, die im schwarzen Abdeckungsteil 118 der Abdeckungsoberfläche 106 sind, welcher nicht über der Berührungsschnittstelle 102 ist oder anderweitig außerhalb der berührungsempfindlichen Region des Berührungsbildschirms ist, können die Kraftsensoren 110, 112, 116, 118 die Kraftstärke erfassen und die Position der variierenden Werte, die durch jeden Sensor 110, 112, 114, 116 erfasst werden, extrapolieren. Zum Beispiel mit Bezug auf 1, unter der Annahme, dass eine erste Kraft F1 auf einen Teil der Abdeckungsoberfläche 106 außerhalb der berührungsempfindlichen Region angewendet wird, kann jeder der Sensoren 110, 112, 114, 116 einen unterschiedlichen Kraftwert abtasten (obwohl die insgesamt angewendete Eingabekraft konstant sein kann), welche der Distanz entsprechen kann, die jeder Kraftsensor 110, 112, 114, 116 von der Eingabekraft F1 positioniert ist. Wie in 1 gezeigt kann der erste Kraftsensor 110 in einer Distanz D1 von der Eingabekraft F1 entfernt sein, der zweite Kraftsensor 112 in einer Distanz D2 von der Eingabekraft F1 entfernt sein, der dritte Kraftsensor 114 kann in einer Distanz D3 von der Eingabekraft F1 entfernt sein und der vierte Kraftsensor 116 kann in einer Distanz D4 von der Eingabekraft F1 entfernt sein.
  • In dem Beispiel, welches in 1 veranschaulicht wird, wird die Eingabekraft F1 als am nächsten zu dem zweiten Kraftsensor 112 gezeigt und daher kann der zweite Kraftsensor 112 die größte Kraftstärke abtasten. In ähnlicher Weise kann der dritte Kraftsensor 114 die zweitgrößte Kraftstärke abtasten usw. In diesem Beispiel können die Unterschiede in den abgetasteten Kraftstärken dem Unterschied in der Distanz entsprechen, welche jeder der Kraftsensoren 110, 112, 114, 116 von der Eingabekraft F1 positioniert ist. Da die Distanz, von welcher jeder der Sensoren 110, 112, 114, 116 voneinander positioniert sind, bekannt ist, kann diese bekannte Distanz verwendet werden zusammen mit den variierenden abgetasteten Stärken, um den ungefähren Ort der Eingabekraft F1 zu bestimmen.
  • Als ein spezifisches, nicht beschränkendes Beispiel kann der Schwerpunktort bestimmt werden durch Bestimmen des Ortes eines Achsenschwerpunkts entlang einer ersten Achse und einer zweiten Achse. Die ersten Achsenschwerpunktwerte können dann eine Koordinate für den gesamten Schwerpunktort darstellen. In diesem Beispiel kann die Rechenvorrichtung Kraftwerte verwenden, wie durch jeden der Sensoren 110, 112, 114, 116 auf einer gegebenen Achse der Vorrichtung 100 gemessen (z. B. x- oder y-Achse). In einigen Beispielen kann die Vorrichtung einen Achsenschwerpunktwert für jede Seite der Vorrichtung beinhalten, z. B. eine linke y-Achse, eine rechte y-Achse, eine obere x-Achse und/oder eine untere x-Achse. Jeder Wert einer bestimmten Achse kann summiert werden und dann kann der Wert, wie durch jeden entsprechenden Sensor erfasst (d. h. Kraft, die durch jeden Sensor abgetastet wird), mit dieser Achsenlänge multipliziert werden, und was einen Ort des Achsenschwerpunkts mit Bezug auf die bestimmte Achse bereitstellt. Insbesondere, wenn der zweite Sensor 112 eine Kraft von 80 Gramm abtastet und der vierte Sensor 114 eine Kraft von 20 Gramm abtastet, kann die gesamte Kraft für die linke y-Achse 100 Gramm sein. In Beispielen, wo die Distanz zwischen dem zweiten Sensor 112 und dem vierten Sensor 114 160 mm ist, kann dann der Kraftschwerpunkt für dieses Beispiel auf der linken Kante der y-Achse (80 g/100 g)·160 mm sein, so dass der Schwerpunkt für diese Achse 128 mm von dem vierten Sensor 114 und 32 mm von dem zweiten Sensor 112 entfernt ist. Allerdings wird angemerkt, dass das obige Beispiel nur eine Art ist, in welcher der Kraftschwerpunkt bestimmt werden kann und andere Ausführungsformen können anvisiert werden. Außerdem können die Berechnungen für einen Kraftschwerpunkt variieren basierend auf der Anzahl und/oder der Position der Sensoren.
  • Verwenden des Kraftschwerpunktortes
  • Unter Verwendung der oben aufgelisteten Gleichungen kann der Ort des globalen Kraftschwerpunktes CGF bestimmt werden für sowohl Beispiele, in denen eine Berührung durch die Berührungsschnittstelle 102 erfasst werden kann, als auch für Beispiele, wo eine Berührung nicht durch die Berührungsschnittstelle 102 erkannt werden kann. Die Rechenvorrichtung 100 kann dann den Ort des CGF verwenden zum Verfolgen von Änderungen in der angewendeten Kraft, um Gesten besser zu erfassen, die in der schwarzen Abdeckung 118 beginnen können. 4A ist eine Draufsicht eines Benutzerfingers 140, der eine erste Kraft F1 bereitstellt und das Bewegen über die Abdeckungsoberfläche 106, um eine zweite Kraft F2 bereitzustellen. Es wird angemerkt, dass die zwei Kräfte F1 und F2 im Wesentlichen eine kontinuierliche Kraft sein können, die entlang einer Länge L1 der Bewegung des Fingers 140 angewendet wird, aber den Start und das Ende einer Benutzereingabe angeben kann, wie beispielsweise einer Geste.
  • Nachdem der/die Benutzer/Benutzerin die Fingergeste eingegeben hat durch Bewegen seines oder ihres Fingers 140 von der schwarzen Abdeckung 118 in Richtung der Berührungsschnittstelle 102, kann der Ort des Kraftschwerpunkts sich auch bewegen. 4B ist eine Draufsicht der Rechenvorrichtung 100 der 4A, die einen ersten Kraftschwerpunkt CGF1 und einen zweiten Kraftschwerpunkt CGF2 veranschaulicht, welche jeweils der ersten Kraft F1 und der zweiten Kraft F2 entsprechen. Die zwei Kraftschwerpunkte CGF1 und CGF2 können unter Verwendung der obigen Gleichungen bestimmt werden und während der Finger sich bewegt 140 und der Kraftort sich bewegt, kann der globale Kraftschwerpunkt (d. h. das Zentrum der angewendeten Kräfte) sich entsprechend bewegen. Auf diese Weise kann die Rechenvorrichtung 100 fähig sein zu bestimmen, dass der Finger 140 von der schwarzen Abdeckung 118 in Richtung der Berührungsschnittstelle 102 bewegt wurde, obwohl die Berührungsschnittstelle 102 eine erste Berührung nicht erfasst, die der ersten Kraft entspricht, sondern nur eine zweite Berührung, die der zweiten Kraft F2 entspricht. In diesem Beispiel, wenn die Berührungsschnittstelle 102 schlussendlich die Berührung erfasst, kann der Prozessor fähig sein zu bestimmen, ob ein entsprechender Kraftschwerpunkt in der schwarzen Abdeckung 118 seinen Ursprung hat (oder einem anderen Bereich außerhalb der Berührungsschnittstelle 102) und ist nun an oder nahe dem zweiten Finger. Das heißt, ob der Kraftschwerpunkt sich eine Distanz L1 bewegt hat, welche korreliert sein kann mit einer Distanz von der zweiten Berührungsposition zu der schwarzen Abdeckung 118.
  • In dem in den 4A und 4B veranschaulichten Beispiel können die Kraftsensoren 110, 112, 114, 116 unterschiedliche Werte für ungefähr den gleichen Kraftlevel abtasten basierend auf der Distanz zwischen den Kräften und einem bestimmten Kraftsensor. In anderen Worten, für die erste Kraft F1 können die Kraftsensoren 110, 112, die oben an der Abdeckungsoberfläche 106 positioniert sind, eine größere Kraftstärke abtasten verglichen mit den unteren Kraftsensoren 114, 116. Auf diese Weise kann der Prozessor die oben bereitgestellten Gleichungen verwenden, um den Kraftschwerpunkt zu schätzen durch Annähern des Ortes der Berührung oder durch Korrelieren der Position der Kraft basierend auf unterschiedlichen Stärken, die an jedem Kraftsensor 110, 112, 114, 116 erfasst wird. Eine Schätzung des Ortes des Kraftschwerpunkts kann ausreichend sein zum Bestimmen, ob eine von dem/der Benutzer/Benutzerin bereitgestellte Eingabe eine Geste ist und/oder ob sie in der schwarzen Abdeckung 118 begann, weil detailliertere Eingaben der Geste durch die Berührungsschnittstelle 102 erfasst werden können sobald sie sich über die schwarze Abdeckung 118 ausdehnen.
  • In einigen Ausführungsformen kann die Rechenvorrichtung 100 eine Kraft, die auf die schwarze Abdeckung oder einen nicht berührungsempfindlichen Teil der Abdeckungsoberfläche angewendet wird, bestimmen oder schätzen. 4C ist eine Draufsicht, die einen Berührungsortschwerpunkt und einen Kraftschwerpunkt veranschaulicht. Mit Bezug auf 4C kann der Prozessor den Kraftschwerpunkt angesichts eines Berührungsschwerpunktorts analysieren, um zu bestimmen, welchen Prozentsatz der gesamten Kraft, welche durch die Kraftsensoren 110, 112, 114, 116 abgetastet wird, den Berührungen auf der Berührungsschnittstelle 102 im Gegensatz zu den Berührungen auf der schwarzen Abdeckung 118 zugeordnet werden kann. Der Berührungsortschwerpunkt 115 kann der Schwerpunkt einer oder mehrerer Berührungen, wie sie durch die Berührungsschnittstellen abgetastet werden, sein. In anderen Worten, wenn es eine einzelne Berührung auf der Berührungsschnittstelle gibt, wird der Berührungsschwerpunkt an dem Berührungsort positioniert und wenn es mehr als eine Berührung gibt, kann der Berührungsschwerpunkt an dem Schwerpunkt zwischen den Berührungen positioniert werden. Der Kraftschwerpunkt 117, wie oben detaillierter diskutiert, kann an dem Schwerpunkt der abgetasteten Kräfte, die auf die Abdeckungsoberfläche angewendet werden, positioniert werden. Die Kraftzuteilung zwischen der Berührungsschnittstelle 102 und der schwarzen Abdeckung 118 kann verwendet werden, um Eingaben an die Vorrichtung 100 bereitzustellen, so wie um zu helfen, Berührungen, die detaillierter unten diskutiert werden, auszuwerten.
  • Mit Bezug auf 4C kann in Beispielen, wo der Kraftschwerpunkt CGF 117 nicht mit einem berechneten Berührungsortschwerpunkt 115 übereinstimmt, der Prozessor bestimmen, dass die Diskrepanz aufgrund der Tatsache sein kann, dass eine Berührung in der schwarzen Abdeckungsregion 118 angewendet wurde. Solch eine Berührung würde wahrscheinlich nicht durch die Berührungsschnittstelle 102 erfasst werden, weil sie aus der berührungsempfindlichen Region herausfällt. In anderen Worten, wenn ein/eine Benutzer/Benutzerin eine Kraft in der schwarzen Abdeckung bereitstellt, können die Kraftsensoren die angewendete Kraft erfassen, aber die Berührungsschnittstelle kann den Berührungsort nicht erfassen und somit würde der Berührungsort nicht in den Berührungsortschwerpunkt einbezogen werden. Dementsprechend kann in diesen Beispielen der Kraftschwerpunkt eine erste Position sein und der Berührungsortschwerpunkt 115 kann ein zweiter Ort sein, der getrennt von dem Kraftschwerpunktort 117 Ort verteilt ist.
  • Unter Verwendung dieser Annahmen kann die Vorrichtung 100 die Intensität einer Kraft, die in der schwarzen Abdeckung 118 angewendet wurde, bestimmen. Insbesondere kann der Ortsunterschied zwischen dem Berührungsschwerpunkt und dem Kraftschwerpunkt verwendet werden zum Bestimmen (oder zumindest Schätzen) des Ortes und der Intensität einer Kraft, die in der schwarzen Abdeckungsregion 118 angewendet wird. Zum Beispiel kann die Rechenvorrichtung 100 den bekannten Ort der schwarzen Abdeckung 118 als ein Rechteck beachten, in 4C gezeigt, das die Berührungsschnittstelle 102 umgibt. In diesem Beispiel kann eine Linie, die sich von dem Berührungsschwerpunktort durch den Kraftschwerpunkt und durch die schwarze Abdeckungsabgrenzungsregion 118 ausdehnt, bestimmt werden. Das heißt die zwei Schwerpunkte können durch eine Linie, die sich zwischen den beiden ausdehnt, verbunden sein und die Linie kann sich in Richtung der schwarzen Abdeckungsabgrenzung 118 der berührungsempfindlichen Region ausdehnen.
  • Der Schnittpunkt 113 der Linie, wenn sie die schwarze Abdeckungsregion 118 betritt, kann verwendet werden als ein Wahrscheinlichkeitsindikator des Ortes der Krafteingabe auf der schwarzen Abdeckung 118. Dies kann der Rechenvorrichtung 100 ermöglichen, die Seite der schwarzen Abdeckung 118 zu bestimmen, auf welcher Kraft angewendet wurde, sowie eine generelle Schätzung des tatsächlichen Ortes relativ zu der Seite der schwarzen Abdeckung. Sobald der Schnittpunkt 113 bekannt ist, kann das Verhältnis der Distanz zwischen dem Kraftschwerpunkt und dem Berührungsschwerpunkt zu diesem Ort verwendet werden zum Schätzen des Prozentsatzes der Kraft, die in der Berührungsregion im Gegensatz zu der schwarzen Abbildungsregion angewendet wurde. Zum Beispiel kann der Kraftschwerpunkt in einer Distanz L2 vom Schnittpunkt gelegen sein und der Berührungsortschwerpunkt kann eine Distanz L1 vom Schnittpunkt gelegen sein. Der Prozentsatz der insgesamt abgetasteten Kraft, der der schwarzen Abdeckungsregion 118 zugeordnet werden kann, kann bestimmt werden gleich zu sein zu Eins minus dem Verhältnis der Distanz L2 über der Distanz L1. Ausgedrückt als Gleichung Schwarze Abdeckungskraft% = (1 – L2 / L1) × 100.
  • Der restliche Prozentsatz der abgetasteten Kraft kann dann den Berührungsschnittstellen-Berührungsorten zugeordnet werden. Auf diese Weise kann der Prozentsatz der gesamten Kraft, die auf die Abdeckungsoberfläche 106 angewendet wird, die auf die schwarze Abdeckungsregion 118 angewendet wurde, sowie der Prozentsatz, der in der Berührungsschnittstellenregion 102 angewendet wird, bestimmt werden.
  • Die Kraftsensoren 110, 112, 114, 116 können auch verwendet werden zum Bestimmen, ob eine Benutzerkraft zurückgewiesen oder ignoriert werden soll. In anderen Worten, ob eine Benutzereingabe auf der Berührungsschnittstelle 102 versehentlich sein kann. 5A ist eine Draufsicht eines/einer Benutzers/Benutzerin, der/die die Rechenvorrichtung 100 mit einer Hand 144 hält und eine Kraft mit einem Finger 140 einer zweiten Hand anwendet. 5B veranschaulicht den Kraftschwerpunkt aufgrund einer Berührung durch einen Daumen 142. Mit Bezug auf die 5A und 5B können in einigen Ausführungsformen Benutzer/Benutzerinnen die Rechenvorrichtung 100 mit einer Hand 144 halten, während sie die zweite Hand zum Bereitstellen von Berührungseingaben an die Berührungsschnittstelle 102 verwenden. In einigen Beispielen können sich ein oder mehrere Finger der ersten Hand 144, wie beispielsweise der Daumen 142 in 5A veranschaulicht, über die schwarze Abdeckung 118 auf die Berührungsschnittstelle 102 ausdehnen. Die Platzierung des Daumens 142 (oder anderer Finger) kann die Berührungsschnittstelle 102 veranlassen, eine Benutzerberührungseingabe zu erfassen, obwohl der/die Benutzer/Benutzerin den Daumen 142 auf der Berührungsschnittstelle 102 versehentlich platziert haben kann. In anderen Worten, obwohl der/die Benutzer/Benutzerin den Daumen 142 auf der Berührungsschnittstelle 102 berührt haben kann, wollte er oder sie der Vorrichtung 100 keine Berührungseingabe bereitstellen.
  • Mit Bezug auf 5A kann der Daumen 142 eine erste Berührungseingabe T1 eingeben und, wenn der/die Benutzer/Benutzerin auch seinen oder ihren Finger 140 der zweiten Hand verwendet, welcher eine zweite Berührungseingabe T2 sein kann. Als ein erstes Beispiel können in Beispielen, wo der/die Benutzer/Benutzerin die Berührungsschnittstelle 102 nur mit dem Daumen 142 berührt, die Kraftsensoren 110, 112, 114, 116 eine Kraft erfassen, die nur der ersten Berührung T1 entspricht sowie alle zusätzlichen Kräfte, die auf der schwarzen Abdeckung 118 ausgeübt werden aufgrund der anderen Teile der Hand 144. In diesem Beispiel kann der Kraftschwerpunkt CGF1 auf der schwarzen Abdeckung 118 oder neben der schwarzen Abdeckung 118 auf der Berührungsschnittstelle 102 gelegen sein. In anderen Worten, da die Hand 144 auch irgendeine Kraft auf die Abdeckungsoberfläche 106 anwendet (da sie die Vorrichtung 100 greift), kann der Kraftschwerpunkt an einem Ort zwischen der ersten Berührung T1 des Daumens 142 und der Position der Hand 144 positioniert sein. In diesem Beispiel kann der Prozessor bestimmen, dass die erste Berührung T1 versehentlich ist, da der Kraftschwerpunkt nicht in der Berührungsposition T1 gelegen ist, sondern näher in Richtung oder auf dem schwarzen Abdeckungsteil 118 der Abdeckungsoberfläche 106. Daher kann unter Verwendung des Ortes des Schwerpunkts GGF1 der Prozessor bestimmen, dass die Berührung T1 versehentlich ist, da der größte Teil der Kraft entfernt von der Berührung in Richtung oder auf der schwarzen Abdeckung 118 zentriert ist.
  • In einer Ausführungsform mit Bezug auf 5B kann die Rechenvorrichtung 100 eine Begrenzung 148 um die Berührung T1 bereitstellen und wenn der Kraftschwerpunkt CGF1 nicht innerhalb der Begrenzung 148 ist, kann die Berührung T1 zurückgewiesen werden und nicht als eine Eingabe verarbeitet werden. In diesen Ausführungsformen kann die Begrenzung 148 eingestellt werden, um breiter zu sein für Berührungen, die näher in Richtung eines Zentrums der Berührungsschnittstelle 102 sind und kleiner zu sein für Berührungen, die näher an der schwarzen Abdeckung 118 oder der Ecke der Berührungsschnittstelle 102 sind. Dies kann eine größere Empfindlichkeit der Vorrichtung 100 bereitstellen, um Berührungseingaben, die versehentlich sein können, zurückzuweisen.
  • Als ein zweites Beispiel mit erneutem Bezug auf 5A und 5B kann in einigen Beispielen der/die Benutzer/Benutzerin eine zweite Berührung T2 mit dem Finger 140 einer zweiten Hand bereitstellen. In diesem Beispiel kann in Beispielen, wo die zweite Berührung T2 absichtlich ist, der Kraftschwerpunkt sich in Richtung der zweiten Berührung bewegen, da der/die Benutzer/Benutzerin eine stärkere Kraft als die ruhende Kraft des Daumens 142 anwenden kann. Insbesondere kann CGF2 den Ort des zweiten Kraftschwerpunkts darstellen, der dem Durchschnittzentrum der Kräfte entsprechen kann, die durch den Finger 140 und den Daumen 142 angewendet werden. In diesem Fall, da der zweite Kraftschwerpunkt CGFs ungefähr neben der zweiten Berührung T2 innerhalb der zweiten Abgrenzung 150 und außerhalb der Abgrenzung 148 um die erste Berührung T1 gelegen sein kann, kann die erste Berührung T1 zurückgewiesen werden.
  • Es wird angemerkt, dass in einigen Beispielen ein/eine Benutzer/Benutzerin eine absichtliche Eingabe mit sowohl dem Finger 140 als auch dem Daumen 142 (oder einem zweiten Finger) bereitstellen kann. In diesen Beispielen kann der Kraftschwerpunkt außerhalb der beiden Abgrenzungen 148, 150 positioniert sein und daher kann der Prozessor 124 beide Berührungen als absichtlich interpretieren. Das heißt, da die gesamte Stärke der Eingabekräfte relativ gleichmäßig zwischen sowohl dem Finger 140 als auch dem Daumen 142 verteilt sein können, welches angeben kann, dass der/die Benutzer/Benutzerin eine relativ gleiche Kraft durch sowohl den Finger 140 als auch den Daumen 142 angewendet hat und daher beabsichtigte, eine Eingabe auf der Berührungsschnittstelle 102 mit beiden bereitzustellen.
  • In einigen Fällen kann die Rechenvorrichtung 100 einen oder mehrere Knöpfe innerhalb der schwarzen Abdeckung 118 oder andere nicht berührungsempfindliche Teile der Abdeckungsoberfläche 106 beinhalten. 6 ist eine Draufsicht der Rechenvorrichtung 100, welche zwei Knöpfe 152, 154 beinhaltet, die auf der schwarzen Abdeckung 118 außerhalb der berührungsempfindlichen Region positioniert sind. In diesem Beispiel kann ein erster Knopf 152 einem ersten Befehl entsprechen und ein zweiter Knopf 154 kann einem zweiten Befehl entsprechen. Zum Beispiel kann der erste Knopf 152 einem Nächste-Seite-Befehl entsprechen und der zweite Knopf 154 kann einem Vorige-Seite-Befehl entsprechen. Die Knöpfe können unterschiedlich konfiguriert sein basierend auf der Rechenvorrichtung 100 und/oder den Anwendungen, die auf der Rechenvorrichtung 100 betrieben werden.
  • In der in 6 veranschaulichten Ausführungsform können die Knöpfe virtuell sein indem sie keine mechanischen Schalter beinhalten, sondern ausgewählt werden können basierend auf dem Ort des Kraftschwerpunkts. In anderen Worten kann ein spezieller Knopf 152, 154 bestimmt sein, um durch einen/eine Benutzer/Benutzerin ausgewählt zu sein, wenn der Kraftschwerpunkt näher in Richtung eines bestimmten Knopfes ist.
  • In ähnlicher Weise kann die Rechenvorrichtung 100 die Kraftsensoren 110, 112, 114, 116 verwenden, um Tippen auf der schwarzen Abdeckung 118 zu erfassen. Das Tippen, wie beispielsweise ein/eine Benutzer/Benutzerin, der/die auf die schwarze Abdeckung 118 mit seinem oder ihrem Finger drückt, kann verwendet werden als eine Eingabe an der Rechenvorrichtung 100. Zum Beispiel kann ein erstes Tippen einen ersten Befehl darstellen, wohingegen zweifaches aufeinanderfolgendes Tippen einen zweiten Befehl darstellen kann. Zusätzlich kann die Rechenvorrichtung 100 Gesten durch einen/eine Benutzer/Benutzerin außerhalb der berührungsempfindlichen Region erfassen. Zum Beispiel, wenn ein/eine Benutzer/Benutzerin seinen oder ihren Finger entlang eines Teils der schwarzen Abdeckung 118 gleitet, kann der Kraftschwerpunkt sich entsprechend bewegen und diese Bewegung kann durch die Kraftsensoren 110, 112, 114, 116 abgetastet werden und als eine Änderung in dem Ort des Kraftschwerpunkts verfolgt werden und als eine bestimmte Eingabe bereitgestellt werden. In diesem Beispiel kann die Gleitgeste verwendet werden, um Seiten in einer Leseanwendung zu wechseln, ein Volumen einzustellen, Helligkeit einzustellen usw. Zusätzlich kann in diesen Ausführungsformen diese Art von Gesten von Gesten unterschieden werden, welche letztendlich in der berührungsempfindlichen Region enden, da diese Art von Gesten nicht mit einer Berührungseingabe korreliert werden können. Das heißt Gesten in der Nicht-Berührungsregion, wie beispielsweise der schwarzen Abdeckung 118, können keine entsprechende Berührungseingabe auf der Berührungsschnittstelle 102 beinhalten.
  • Ein Verfahren zum Verwenden der Kraftsensoren 110, 112, 114, 116, um eine oder mehrere Krafteingaben in der Rechenvorrichtung 100 zu erfassen, wird nun diskutiert werden. 7 ist ein Flussdiagramm, welches ein Verfahren 200 zum Verwenden der Kraftsensoren der Rechenvorrichtung 100 veranschaulicht. Das Verfahren 200 kann mit der Operation 202 beginnen und die Kraftsensoren 110, 112, 114, 116 können eine Eingabekraft erfassen. Zum Beispiel wenn der/die Benutzer/Benutzerin gegen die Abdeckungsoberfläche 106 drückt, kann eine Eingabekraft durch die Kraftsensoren 110, 112, 114, 116 erfasst werden.
  • Sobald die Eingabekraft erfasst wird, kann das Verfahren mit der Operation 204 fortfahren und der Prozessor 124 kann den Ort des Kraftschwerpunkts für die angewendete Kraft der Kräfte bestimmen. In einigen Ausführungsformen können die abgetasteten Eingaben für jeden der Kraftsensoren 110, 112, 114, 116 verwendet werden zum Bestimmen des Kraftschwerpunktortes. In Beispielen, in welchen die Eingabekraft auf eine berührungsempfindliche Region angewendet werden kann, kann die Position der Eingabekräfte bestimmt werden durch die Berührungsschnittstelle 102 und unter Verwendung der Positionsinformationen und Kraftinformationen kann der Kraftschwerpunkt bestimmt werden. Allerdings können für die Eingabekräfte, die nicht auf der berührungsempfindlichen Region sind, die abgetasteten Stärken für jeden der Kraftsensoren 110, 112, 114, 116 verwendet werden zum Bestimmen des Ortes des Kraftschwerpunkts.
  • Während oder nachdem der Kraftschwerpunkt bestimmt ist, kann das Verfahren 200 mit der Operation 206 fortfahren und die Rechenvorrichtung 100 kann bestimmen, ob es auch eine kapazitive Eingabe gab. In anderen Worten kann die Rechenvorrichtung 100 bestimmen, ob es eine Berührungseingabe gab, die zusätzlich zu der Krafteingabe abgetastet wurde. In einigen Ausführungsformen kann die Berührungsbestimmung simultan mit der Operation 204 durchgeführt werden, wenn die Berührungsinformation verwendet wird (in einigen Beispielen) zum Bestimmen des Kraftschwerpunktortes. In Beispielen, in welchen die Krafteingabe auf der schwarzen Abdeckung 118 oder einer anderen Fläche außerhalb der empfindlichen Region der Berührungsschnittstelle 102 bereitgestellt werden kann, kann die Rechenvorrichtung 100 bestimmen, dass es keine kapazitive Eingabe gibt. Im Gegensatz dazu, wenn der/die Benutzer/Benutzerin eine Eingabe auf der berührungsempfindlichen Fläche der Vorrichtung 100 bereitgestellt hat, wie beispielsweise auf der Berührungsschnittstelle 102, kann die Rechenvorrichtung 100 eine kapazitive Eingabe erfassen (wie beispielsweise eine Änderung in der Kapazität aufgrund eines Benutzerfingers, der mit den Berührungssensoren 130 interagiert).
  • Wenn eine kapazitive Eingabe nicht erfasst wird, kann das Verfahren 200 mit der Operation 214 fortfahren, welche detaillierter diskutiert werden wird. Wenn eine kapazitive Eingabe detektiert wird, kann das Verfahren 200 mit der Operation 208 fortfahren und die Rechenvorrichtung 100, insbesondere der Prozessor 124, kann bestimmen, ob der Schwerpunkt innerhalb der Abgrenzung ist. Zum Beispiel mit Bezug auf 5B können die Abgrenzungen 148, 150 jede der Berührungen umgeben und können sich um die Berührungsorte um eine vordefinierte Distanz ausdehnen.
  • Wenn der Schwerpunkt nicht innerhalb der Abgrenzung ist, kann das Verfahren 200 mit der Operation 210 fortfahren. Wie oben mit Bezug auf 5A und 5B diskutiert, wenn der Schwerpunkt außerhalb der Berührungsabgrenzung 148, 150 ist, kann das Verfahren 200 mit der Operation 210 fortfahren und die Berührungseingabe kann zurückgewiesen werden. Zum Beispiel, wie in 5A und 5B gezeigt, kann die Berührung aufgrund des Daumens 142 sein und daher als versehentlich bestimmt werden, wenn sie außerhalb der Abgrenzung ist, die die Berührung umgibt. Wenn der Schwerpunkt innerhalb der Abgrenzung ist, kann das Verfahren 200 mit der Operation 208 fortfahren, welche detaillierter unten diskutiert werden wird.
  • Mit weiterem Bezug auf 7 kann nach der Operation 210 und nachdem die kapazitive Berührung zurückgewiesen wurde oder in anderer Weise nicht verarbeitet wurde, das Verfahren 200 mit der Operation 214 fortfahren. In der Operation 214 kann der Prozessor 124 bestimmen, ob der Schwerpunktort einem Knopfort entspricht und/oder ob die Bewegung einem Befehl entspricht, wie beispielsweise einer Geste. Zum Beispiel mit Bezug auf 6 kann die Rechenvorrichtung 100 eine Anzahl von Knöpfen innerhalb der schwarzen Abdeckung 118 beinhalten, welche bestimmt werden können ausgewählt zu sein mit dem Kraftschwerpunkt, der einen Ort ungefähr gleich dem Ort des Knopfes oder einer anderen vordefinierten Fläche aufweist.
  • Wenn der Schwerpunktort keinem Knopfort oder einer Geste entspricht, kann das Verfahren 200 mit der optionalen Operation 218 fortfahren. In der Operation 218 kann die Rechenvorrichtung 100 die Krafteingabeinformationen speichern, wie beispielsweise den Schwerpunktort in einer oder mehreren Speicherkomponenten. In diesen Ausführungsformen kann die gespeicherte Information zu einem späteren Zeitpunkt verwendet werden, wie beispielsweise wenn es eine nachfolgende Berührung in Berührungsschnittstellenregion 120 gibt, die mit einer Eingabekraft in der schwarzen Abdeckung 118 begonnen hat. Allerdings können in anderen Ausführungsformen die Kraftinformationen nicht gespeichert werden.
  • Wenn allerdings der Schwerpunktort einem Knopf oder einer Geste entspricht, kann das Verfahren 200 mit der Operation 216 fortfahren und der Prozessor 124 kann den Knopf oder die Geste verarbeiten. Dies kann eine Bereitstellung der Eingabe zu einer laufenden Anwendung oder eine anderweitige Verwendung der Krafteingaben beinhalten. Nach den Operationen 216 und 218 kann das Verfahren 200 mit einem Endzustand 224 fortfahren.
  • Wie oben kurz diskutiert wurde, kann in der Operation 208, wenn der Schwerpunkt innerhalb der Abgrenzung ist, das Verfahren 200 mit der Operation 212 fortfahren. In der Operation 212 kann die Rechenvorrichtung 100 bestimmen, ob der Schwerpunkt bewegt wurde. Zum Beispiel in Beispielen, in welchen ein/eine Benutzer/Benutzerin eine Berührungsgeste durchführen kann, kann der Schwerpunkt sich von der schwarzen Abdeckung 118 zur Berührungsschnittstellenregion 102 bewegt haben, während der/die Benutzer/Benutzerin die Geste vervollständigte. Schwerpunktbewegung kann bestimmt werden durch Analyse eines oder mehrerer vorheriger Schwerpunktorte basierend auf einer oder mehreren vorherigen Krafteingaben.
  • Wenn der Schwerpunkt bewegt wurde, kann das Verfahren 200 mit der Operation 222 fortfahren. In der Operation 222 kann der Prozessor 124 die Berührungseingaben analysieren, die durch die Berührungsschnittstelle 102 durch die Berührungssensoren 130 erfasst wurden sowie den Schwerpunkt und die Krafteingaben analysieren, um die Geste zu bestimmen und somit die Gesteneingabe zu bearbeiten. Im Gegensatz dazu kann, wenn der Schwerpunkt nicht bewegt wurde, das Verfahren 200 mit der Operation 220 fortfahren und der Prozessor 124 kann die Berührungseingaben verarbeiten. Nach den Operationen 220, 222 und das Verfahren 200 kann mit dem Endzustand 224 fortfahren.
  • Schlussfolgerung
  • Die vorangegangene Beschreibung hat eine breite Anwendung. Zum Beispiel, während die hierin offenbarten Beispiele sich auf Rechenvorrichtungen fokussieren können, die Berührungsschnittstellen aufweisen, ist darauf hinzuweisen, dass die Konzepte, die hierin offenbart sind, in gleicher Weise auf im Wesentlichen jede andere Art von Kommunikationsvorrichtungen angewendet werden können. In ähnlicher Weise, obwohl die Berührungserfassung mit Berührungsbildschirmen diskutiert wird, können die Vorrichtungen und Techniken, die hierin offenbart sind, in gleicher Weise auf andere Arten von kapazitiven Koppelsystemen angewendet werden. Dementsprechend ist die Diskussion jeder Ausführungsformen nur exemplarisch beabsichtigt und ist nicht dazu gedacht vorzuschlagen, dass der Umfang der Offenbarung, einschließlich der Ansprüche, auf diese Beispiele zu beschränken ist.

Claims (20)

  1. Rechenvorrichtung, die konfiguriert ist zum Erfassen einer Benutzereingabe umfassend: einen Prozessor; eine Berührungsschnittstelle in Kommunikation mit dem Prozessor und konfiguriert zum Erfassen eines Berührungssignals, das einem Gegenstand entspricht, welcher sich einer Oberfläche nähert oder diese berührt; zumindest drei Kraftsensoren in Kommunikation mit dem Prozessor und konfiguriert zum Erfassen eines Kraftsignals, das einem Gegenstand entspricht, der eine Kraft auf die Oberfläche ausübt; wobei in Reaktion auf die Kraft bestimmt der Prozessor einen Kraftschwerpunktort; und die Berührungssignale werden durch den Prozessor verarbeitet durch Analysieren des Kraftschwerpunktortes.
  2. Rechenvorrichtung nach Anspruch 1, wobei die zumindest drei Kraftsensoren vier Kraftsensoren umfassen.
  3. Rechenvorrichtung nach Anspruch 1, wobei die Berührungsschnittstelle ein Berührungsbildschirm ist.
  4. Rechenvorrichtung nach Anspruch 1, wobei, wenn der Kraftschwerpunktort außerhalb einer vorbestimmten Begrenzung eines Berührungsortes ist, der durch die Berührungsschnittstelle erfasst wurde, wird das Berührungssignal zurückgewiesen.
  5. Rechenvorrichtung nach Anspruch 1, wobei, wenn der Kraftschwerpunktort sich zwischen einem nicht berührungsempfindlichen Ort zu einem berührungsempfindlichen Ort in Kommunikation mit der Berührungsschnittstelle bewegt, wird das Berührungssignal als eine Geste verarbeitet.
  6. Rechenvorrichtung nach Anspruch 1, ferner umfassend eine Abdeckungsoberfläche betriebsbereit verbunden mit der Berührungsschnittstelle und mit zumindest drei Kraftsensoren, wobei die zumindest drei Kraftsensoren eine angewendete Kraft durch die Abdeckungsoberfläche erfassen.
  7. Rechenvorrichtung nach Anspruch 6, wobei eine nicht berührungsempfindliche Region definiert ist als ein Teil des Abdeckungsglases, welcher nicht in Kommunikation mit der Berührungsschnittstelle ist.
  8. Rechenvorrichtung nach Anspruch 7, wobei, wenn der Kraftschwerpunktort sich zwischen dem nicht berührungsempfindlichen Ort zu einem berührungsempfindlichen Ort in Kommunikation mit der Berührungsschnittstelle bewegt, wird das Berührungssignal als eine Geste verarbeitet.
  9. Verfahren zum Erfassen von Benutzereingaben an eine Rechenvorrichtung durch Kraftabtastung, umfassend: Erfassen einer Eingabekraft durch drei oder mehr Kraftsensoren; Berechnen, durch einen Prozessor in Kommunikation mit den Kraftsensoren, eines Kraftschwerpunkts basierend auf der Krafteingabe; und Verwenden des Kraftschwerpunkts zum Analysieren einer oder mehrerer Benutzereingaben an der Rechenvorrichtung.
  10. Verfahren nach Anspruch 8, ferner umfassend ein Suchen einer auf die Rechenvorrichtung angewendeten Berührungseingabe und wenn eine Berührungseingabe erfasst wird, Bestimmen, ob der Kraftschwerpunkt innerhalb einer Abgrenzung ist, die die Berührungseingabe umgibt.
  11. Verfahren nach Anspruch 10, wobei, wenn der Kraftschwerpunkt außerhalb der Abgrenzung ist, wird die Berührungseingabe zurückgewiesen und, wenn der Kraftschwerpunkt innerhalb der Abgrenzung ist, verarbeiten der Berührungseingabe durch den Prozessor.
  12. Verfahren nach Anspruch 9, ferner umfassend Bestimmen, ob der Kraftschwerpunkt einem Knopfort entspricht und, wenn der Kraftschwerpunkt dem Knopfort entspricht, Bereitstellen einer Knopfeingabe an den Prozessor.
  13. Verfahren nach Anspruch 12, wobei der Knopf ein virtueller Knopf ist, der außerhalb einer berührungsempfindlichen Region der Rechenvorrichtung positioniert ist.
  14. Mobiler Computer, der konfiguriert ist zum Erfassen von zumindest zwei Arten von Benutzereingaben, umfassend: einen Prozessor; einen Berührungsbildschirm in Kommunikation mit dem Prozessor und konfiguriert zum Erfassen eines Berührungssignals, das einem Benutzerfinger entspricht, der sich dem Berührungsbildschirm nähert oder diesen berührt; zumindest drei Drucksensoren in Kommunikation mit dem Prozessor und konfiguriert zum Erfassen eines Drucksignals, das einem Gegenstand entspricht, der Druck auf eine Oberfläche belegt, wobei in Reaktion auf das Drucksignal der Prozessor einen Schwerpunktort relativ zu der Oberfläche bestimmt; und das Berührungssignal durch den Prozessor verarbeitet wird durch Analysieren des Schwerpunktortes.
  15. Mobiler Computer nach Anspruch 14, wobei der Prozessor das Berührungssignal zurückweist, wenn der Schwerpunktort außerhalb einer berührungsempfindlichen Region der Berührungsbildschirmregion ist.
  16. Mobiler Computer nach Anspruch 14, ferner umfassend ein Gehäuse betriebsbereit verbunden mit dem Berührungsbildschirm und den zumindest drei Drucksensoren; und ein Abdeckungsglas, das sich über zumindest einen Teil des Berührungsbildschirms und die zumindest drei Drucksensoren ausdehnt.
  17. Mobiler Computer nach Anspruch 14, wobei die zumindest drei Drucksensoren Dehnungsmessstreifen sind.
  18. Mobiler Computer nach Anspruch 14, wobei das Berührungssignal eine Änderung in der Kapazität ist.
  19. Mobiler Computer nach Anspruch 14, wobei, wenn der Schwerpunktort sich von außerhalb des Berührungsbildschirms zum Berührungsbildschirm bewegt, der Prozessor das Berührungssignal als eine Geste verarbeitet.
  20. Mobiler Computer nach Anspruch 14, wobei der Prozessor ferner konfiguriert ist zum Bestimmen, ob der Schwerpunktort einem Knopfort entspricht und ob der Kraftschwerpunkt dem Knopfort entspricht, der die Knopfeingabe an den Prozessor bereitstellt.
DE201311003647 2012-07-26 2013-07-25 Gesten- und Berührungseingabeerfassung durch Kraftabtastung Pending DE112013003647T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/559,577 US9886116B2 (en) 2012-07-26 2012-07-26 Gesture and touch input detection through force sensing
USUS-13/559,577 2012-07-26
PCT/US2013/052006 WO2014018732A2 (en) 2012-07-26 2013-07-25 Gesture and touch input detection through force sensing

Publications (1)

Publication Number Publication Date
DE112013003647T5 true DE112013003647T5 (de) 2015-04-16

Family

ID=48980283

Family Applications (1)

Application Number Title Priority Date Filing Date
DE201311003647 Pending DE112013003647T5 (de) 2012-07-26 2013-07-25 Gesten- und Berührungseingabeerfassung durch Kraftabtastung

Country Status (4)

Country Link
US (1) US9886116B2 (de)
CN (1) CN104487922B (de)
DE (1) DE112013003647T5 (de)
WO (1) WO2014018732A2 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020122969A1 (de) 2020-09-02 2022-03-03 Audi Aktiengesellschaft Verfahren zur Erkennung einer Bewegung eines Eingabegegenstands gegenüber einer Anzeigevorrichtung über optische Merkmale, Aufnahmevorrichtung mit Recheneinheit, Anzeigevorrichtung und Kraftfahrzeug

Families Citing this family (144)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7748634B1 (en) 2006-03-29 2010-07-06 Amazon Technologies, Inc. Handheld electronic book reader device having dual displays
US9384672B1 (en) 2006-03-29 2016-07-05 Amazon Technologies, Inc. Handheld electronic book reader device having asymmetrical shape
SE533704C2 (sv) 2008-12-05 2010-12-07 Flatfrog Lab Ab Pekkänslig apparat och förfarande för drivning av densamma
US8451238B2 (en) 2009-09-02 2013-05-28 Amazon Technologies, Inc. Touch-screen user interface
US9977499B2 (en) 2012-05-09 2018-05-22 Apple Inc. Thresholds for determining feedback in computing devices
US10108265B2 (en) 2012-05-09 2018-10-23 Apple Inc. Calibration of haptic feedback systems for input devices
US10168835B2 (en) 2012-05-23 2019-01-01 Flatfrog Laboratories Ab Spatial resolution in touch displays
WO2013188307A2 (en) 2012-06-12 2013-12-19 Yknots Industries Llc Haptic electromagnetic actuator
WO2013192539A1 (en) 2012-06-21 2013-12-27 Nextinput, Inc. Wafer level mems force dies
WO2014008377A1 (en) 2012-07-05 2014-01-09 Ian Campbell Microelectromechanical load sensor and methods of manufacturing the same
US9886116B2 (en) 2012-07-26 2018-02-06 Apple Inc. Gesture and touch input detection through force sensing
FR2999742B1 (fr) * 2012-12-13 2018-03-30 Dav Interface de commande tactile
US9910527B2 (en) * 2013-02-15 2018-03-06 Flatfrog Laboratories Ab Interpretation of pressure based gesture
US9506966B2 (en) * 2013-03-14 2016-11-29 Google Technology Holdings LLC Off-center sensor target region
JP2014178990A (ja) * 2013-03-15 2014-09-25 Kyocera Corp 携帯機器、制御方法、および制御プログラム
US10019113B2 (en) 2013-04-11 2018-07-10 Flatfrog Laboratories Ab Tomographic processing for touch detection
JP6155872B2 (ja) * 2013-06-12 2017-07-05 富士通株式会社 端末装置、入力補正プログラム及び入力補正方法
US9874978B2 (en) 2013-07-12 2018-01-23 Flatfrog Laboratories Ab Partial detect mode
WO2015106246A1 (en) 2014-01-13 2015-07-16 Nextinput, Inc. Miniaturized and ruggedized wafer level mems force sensors
US20150242037A1 (en) 2014-01-13 2015-08-27 Apple Inc. Transparent force sensor with strain relief
WO2015108480A1 (en) 2014-01-16 2015-07-23 Flatfrog Laboratories Ab Improvements in tir-based optical touch systems of projection-type
US10146376B2 (en) 2014-01-16 2018-12-04 Flatfrog Laboratories Ab Light coupling in TIR-based optical touch systems
CN106170747A (zh) * 2014-04-14 2016-11-30 夏普株式会社 输入装置及输入装置的控制方法
US9904417B2 (en) * 2014-04-16 2018-02-27 Microchip Technology Incorporated Projected capacitive touch detection with touch force detection using self-capacitance and mutual capacitance detection
US9588616B2 (en) 2014-05-06 2017-03-07 Corning Incorporated Cantilevered displacement sensors and methods of determining touching forces on a touch screen
US9741286B2 (en) 2014-06-03 2017-08-22 Apple Inc. Interactive display panel with emitting and sensing diodes
US9570002B2 (en) 2014-06-17 2017-02-14 Apple Inc. Interactive display panel with IR diodes
US20170131840A1 (en) * 2014-06-17 2017-05-11 Corning Incorporated Algorithms and implementation of touch pressure sensors
JP5736551B1 (ja) * 2014-06-20 2015-06-17 パナソニックIpマネジメント株式会社 電子機器及び制御方法
JP5866526B2 (ja) 2014-06-20 2016-02-17 パナソニックIpマネジメント株式会社 電子機器、制御方法、及びプログラム
JP5656307B1 (ja) * 2014-06-20 2015-01-21 パナソニック株式会社 電子機器
US10161886B2 (en) 2014-06-27 2018-12-25 Flatfrog Laboratories Ab Detection of surface contamination
KR102411328B1 (ko) 2014-07-25 2022-06-21 삼성디스플레이 주식회사 표시 장치
US9600114B2 (en) 2014-07-31 2017-03-21 International Business Machines Corporation Variable pressure touch system
KR102240828B1 (ko) * 2014-08-28 2021-04-15 엘지디스플레이 주식회사 터치 패널 및 이의 구동 장치
US10297119B1 (en) 2014-09-02 2019-05-21 Apple Inc. Feedback device in an electronic device
US20170220223A1 (en) * 2014-09-16 2017-08-03 Hewlett-Packard Development Company, L.P. Generate Touch Input Signature for Discrete Cursor Movement
JP5845371B1 (ja) * 2014-09-19 2016-01-20 株式会社 ハイディープ スマートフォン
CN105511656B (zh) * 2014-09-26 2018-08-10 联想(北京)有限公司 一种信息处理方法、装置和电子设备
US9939901B2 (en) 2014-09-30 2018-04-10 Apple Inc. Haptic feedback assembly
CN105630365A (zh) * 2014-10-29 2016-06-01 深圳富泰宏精密工业有限公司 网页调整方法及***
DE102014019006A1 (de) * 2014-12-18 2016-06-23 Audi Ag Spaltfreie Kraftfahrzeug-Bedienvorrichtung mit Bildschirm und Bedieneinheit
EP3250993B1 (de) 2015-01-28 2019-09-04 FlatFrog Laboratories AB Dynamische berührungsquarantänerahmen
US10318074B2 (en) 2015-01-30 2019-06-11 Flatfrog Laboratories Ab Touch-sensing OLED display with tilted emitters
WO2016130074A1 (en) 2015-02-09 2016-08-18 Flatfrog Laboratories Ab Optical touch system comprising means for projecting and detecting light beams above and inside a transmissive panel
CN107250855A (zh) 2015-03-02 2017-10-13 平蛙实验室股份公司 用于光耦合的光学部件
US9798409B1 (en) * 2015-03-04 2017-10-24 Apple Inc. Multi-force input device
US10126854B2 (en) * 2015-03-06 2018-11-13 Sony Mobile Communications Inc. Providing touch position information
US9785284B2 (en) * 2015-03-27 2017-10-10 Sony Mobile Communications Inc. Touch screen device
EP3081150A1 (de) 2015-04-15 2016-10-19 Alasdair Ivan Andre Gant Hautprotrusionsgrössenbestimmung
US9733756B2 (en) 2015-05-12 2017-08-15 Synaptics Incorporated Integrated display device and sensing device with force sensing
US9965118B2 (en) 2015-05-12 2018-05-08 Synaptics Incorporated Sensing force using transcapacitance with dedicated force receiver electrodes
CN104898926B (zh) * 2015-05-29 2018-04-27 努比亚技术有限公司 移动终端的屏幕截图方法及装置
CN106293187B (zh) * 2015-06-08 2019-03-29 摩托罗拉移动通信软件(武汉)有限公司 一种触摸控制方法、装置及终端
EP3307671B1 (de) 2015-06-10 2022-06-15 Nextinput, Inc. Widerstandsfähiger mems-kraftsensor auf waferebene mit einem toleranzgraben
CN106325723B (zh) 2015-06-19 2019-09-20 北京智谷睿拓技术服务有限公司 信息处理方法和设备
CN106293443B (zh) * 2015-06-19 2019-09-20 北京智谷睿拓技术服务有限公司 信息处理方法和设备
US10386952B2 (en) 2015-07-09 2019-08-20 Shenzhen New Degree Technology Co., Ltd. Force sensing touch system including a strain amplifying structure and computing device with a force sensing touch system
DE102015112726A1 (de) 2015-08-03 2017-02-09 Gregor von Pawelsz Wiegeeinrichtung und Wiegeverfahren
US10261619B2 (en) 2015-08-31 2019-04-16 Synaptics Incorporated Estimating force applied by an input object to a touch sensor
US9857928B2 (en) 2015-09-08 2018-01-02 Microsoft Technology Licensing, Llc Force sensitive device
US9921679B2 (en) 2015-10-11 2018-03-20 Pressure Profile Systems Inc. Force-sensing touch screen input device
KR102468314B1 (ko) 2015-10-21 2022-11-17 삼성전자주식회사 Ui 제공 방법 및 이를 수행하는 전자 장치
CN105338695A (zh) * 2015-10-29 2016-02-17 苏州美达瑞电子有限公司 一种基于触控屏的自动化插座灯
CN105302466B (zh) * 2015-10-31 2019-05-14 深圳市金立通信设备有限公司 一种文字操作方法及终端
CN108351725B (zh) 2015-11-12 2021-04-02 辛纳普蒂克斯公司 确定输入装置内的介电层的厚度分布的装置、方法和***
CN105824405A (zh) * 2015-11-26 2016-08-03 维沃移动通信有限公司 一种移动终端的信息显示方法及装置
KR102400705B1 (ko) 2015-12-09 2022-05-23 플라트프로그 라보라토리즈 에이비 개선된 스타일러스 식별
KR102403228B1 (ko) 2015-12-15 2022-05-30 삼성디스플레이 주식회사 표시장치
CN106855759A (zh) * 2015-12-16 2017-06-16 小米科技有限责任公司 触控按键、触控面板及触控终端
TWI549037B (zh) * 2015-12-23 2016-09-11 Imagination Broadway Touch detection method to prevent false touch in touch system
US10739863B2 (en) 2015-12-31 2020-08-11 Huawei Technologies Co., Ltd. Method for responding to gesture acting on touchscreen and terminal
CN105791930B (zh) * 2016-02-18 2019-03-29 深圳市茁壮网络股份有限公司 一种用户识别方法及装置
CN107924283B (zh) 2016-03-15 2020-06-26 华为技术有限公司 人机交互的方法、设备和用户图形界面
CN105827229A (zh) * 2016-03-15 2016-08-03 歌尔声学股份有限公司 一种压力感应模组、压力感应***及电子设备
US10088942B2 (en) 2016-03-31 2018-10-02 Synaptics Incorporated Per-finger force detection using segmented sensor electrodes
US10108303B2 (en) 2016-03-31 2018-10-23 Synaptics Incorporated Combining trans-capacitance data with absolute-capacitance data for touch force estimates
US10073560B2 (en) 2016-04-29 2018-09-11 Synaptics Incorporated Differential force and touch sensing
KR102558004B1 (ko) * 2016-05-17 2023-07-20 삼성전자주식회사 지문 인식 겸용 터치 스크린 장치 및 그 구동 방법, 상기 터치 스크린 장치를 포함하는 전자 기기
US10931859B2 (en) * 2016-05-23 2021-02-23 InSyte Systems Light emitter and sensors for detecting biologic characteristics
US10713458B2 (en) 2016-05-23 2020-07-14 InSyte Systems Integrated light emitting display and sensors for detecting biologic characteristics
CN105955540B (zh) * 2016-05-28 2019-06-14 业成光电(深圳)有限公司 触控面板及电子装置
KR102543477B1 (ko) 2016-06-10 2023-06-16 삼성디스플레이 주식회사 센서 및 이를 포함하는 표시 장치
KR102521934B1 (ko) 2016-06-13 2023-04-18 삼성디스플레이 주식회사 터치 센서 및 이를 이용한 터치 감지 방법
KR102581141B1 (ko) 2016-06-22 2023-09-22 삼성디스플레이 주식회사 터치 센서 및 이를 이용한 터치 감지 방법
KR102628240B1 (ko) 2016-09-07 2024-01-25 삼성디스플레이 주식회사 입력 센서 및 이를 포함하는 표시 장치
KR102628247B1 (ko) 2016-09-20 2024-01-25 삼성디스플레이 주식회사 터치 센서 및 이를 포함하는 표시 장치
KR102659420B1 (ko) 2016-09-27 2024-04-22 삼성디스플레이 주식회사 표시 장치
KR20180042512A (ko) 2016-10-17 2018-04-26 삼성디스플레이 주식회사 터치 센서 및 이를 포함하는 표시 장치
EP3545392A4 (de) 2016-11-24 2020-07-29 FlatFrog Laboratories AB Automatische optimierung von berührungssignalen
KR102629629B1 (ko) 2016-12-07 2024-01-29 플라트프로그 라보라토리즈 에이비 개선된 터치 장치
KR102587735B1 (ko) * 2017-01-09 2023-10-12 삼성디스플레이 주식회사 보안 장치 및 이를 포함하는 표시 장치
KR20180090922A (ko) 2017-02-03 2018-08-14 삼성디스플레이 주식회사 표시 장치
EP3458946B1 (de) 2017-02-06 2020-10-21 FlatFrog Laboratories AB Optische kopplung bei berührungsempfindlichen systemen
WO2018148510A1 (en) 2017-02-09 2018-08-16 Nextinput, Inc. Integrated piezoresistive and piezoelectric fusion force sensor
CN110494724B (zh) 2017-02-09 2023-08-01 触控解决方案股份有限公司 集成数字力传感器和相关制造方法
WO2018174788A1 (en) 2017-03-22 2018-09-27 Flatfrog Laboratories Object characterisation for touch displays
EP4036697A1 (de) 2017-03-28 2022-08-03 FlatFrog Laboratories AB Optische berührungserfassungsvorrichtung
US10013081B1 (en) * 2017-04-04 2018-07-03 Google Llc Electronic circuit and method to account for strain gauge variation
KR102360850B1 (ko) 2017-06-30 2022-02-10 삼성디스플레이 주식회사 터치 센서 및 이를 포함하는 표시 장치
KR102357420B1 (ko) 2017-07-06 2022-02-04 삼성디스플레이 주식회사 터치 센서 및 이를 포함하는 표시 장치
WO2019018641A1 (en) 2017-07-19 2019-01-24 Nextinput, Inc. STACK OF STRAIN TRANSFER IN A MEMS FORCE SENSOR
WO2019023309A1 (en) 2017-07-25 2019-01-31 Nextinput, Inc. FORCE SENSOR AND INTEGRATED FINGERPRINTS
WO2019023552A1 (en) 2017-07-27 2019-01-31 Nextinput, Inc. PIEZORESISTIVE AND PIEZOELECTRIC FORCE SENSOR ON WAFER AND METHODS OF MANUFACTURING THE SAME
CN117311543A (zh) 2017-09-01 2023-12-29 平蛙实验室股份公司 触摸感测设备
US10314521B2 (en) 2017-09-19 2019-06-11 International Business Machines Corporation User condition evaluation system through touch screen device usage pattern change
WO2019079420A1 (en) 2017-10-17 2019-04-25 Nextinput, Inc. SHIFT TEMPERATURE COEFFICIENT COMPENSATION FOR FORCE SENSOR AND STRAIN GAUGE
US11385108B2 (en) 2017-11-02 2022-07-12 Nextinput, Inc. Sealed force sensor with etch stop layer
US11874185B2 (en) 2017-11-16 2024-01-16 Nextinput, Inc. Force attenuator for force sensor
KR20190064711A (ko) 2017-11-30 2019-06-11 삼성디스플레이 주식회사 표시 장치 및 모바일 단말기
KR102510459B1 (ko) 2017-12-12 2023-03-17 삼성디스플레이 주식회사 표시 장치
US11567610B2 (en) 2018-03-05 2023-01-31 Flatfrog Laboratories Ab Detection line broadening
KR102521373B1 (ko) 2018-03-29 2023-04-13 삼성디스플레이 주식회사 표시 장치
KR102520722B1 (ko) 2018-04-05 2023-04-11 삼성디스플레이 주식회사 압력 센서
TWI697810B (zh) * 2018-05-10 2020-07-01 宏碁股份有限公司 具備手勢感測功能之三維顯示器
KR102476319B1 (ko) 2018-05-11 2022-12-09 삼성디스플레이 주식회사 표시 장치 및 압력 센서 구조물
KR102521628B1 (ko) 2018-06-26 2023-04-17 삼성디스플레이 주식회사 표시 장치
JP7071234B2 (ja) * 2018-06-29 2022-05-18 キヤノン株式会社 電子機器
KR102519800B1 (ko) 2018-07-17 2023-04-10 삼성디스플레이 주식회사 전자 장치
KR102581974B1 (ko) 2018-07-31 2023-09-22 삼성디스플레이 주식회사 압력 센서 및 이를 포함하는 표시 장치
KR102553104B1 (ko) 2018-08-01 2023-07-07 삼성디스플레이 주식회사 표시 장치
US10859872B2 (en) * 2018-08-14 2020-12-08 Dell Products L.P. Method to utilize force sensors to adjust the LCD pattern or brightness on a display
KR102626021B1 (ko) 2018-08-14 2024-01-17 삼성디스플레이 주식회사 표시 장치
KR102608599B1 (ko) 2018-08-16 2023-12-01 삼성디스플레이 주식회사 압력 센서를 테스트하는 장치 및 방법 그리고 이를 이용한 표시 장치
KR102589832B1 (ko) 2018-08-17 2023-10-16 삼성디스플레이 주식회사 표시 장치
KR102636883B1 (ko) 2018-08-17 2024-02-15 삼성디스플레이 주식회사 표시 장치
KR102589782B1 (ko) 2018-08-17 2023-10-16 삼성디스플레이 주식회사 표시 장치
KR102636887B1 (ko) 2018-08-17 2024-02-15 삼성디스플레이 주식회사 표시 장치
KR102582316B1 (ko) 2018-08-20 2023-09-25 삼성디스플레이 주식회사 표시 장치
KR102582263B1 (ko) 2018-08-20 2023-09-25 삼성디스플레이 주식회사 표시 장치와 그의 제조 방법
KR102667701B1 (ko) 2018-11-16 2024-05-21 삼성디스플레이 주식회사 압력 센서와 그를 포함한 표시 장치
US10962427B2 (en) 2019-01-10 2021-03-30 Nextinput, Inc. Slotted MEMS force sensor
CN111435283A (zh) * 2019-01-11 2020-07-21 敦泰电子有限公司 一种操作意图确定方法、装置及电子设备
US11943563B2 (en) 2019-01-25 2024-03-26 FlatFrog Laboratories, AB Videoconferencing terminal and method of operating the same
US20210089133A1 (en) * 2019-09-25 2021-03-25 Sentons Inc. Gesture detection system
KR20210038782A (ko) 2019-09-30 2021-04-08 삼성디스플레이 주식회사 전자 장치
KR20210038759A (ko) 2019-09-30 2021-04-08 삼성디스플레이 주식회사 압력 센서 및 이를 포함한 표시 장치
KR20210042196A (ko) 2019-10-08 2021-04-19 삼성디스플레이 주식회사 압력 센서와 그를 포함한 표시 장치
KR20210047430A (ko) 2019-10-21 2021-04-30 삼성디스플레이 주식회사 압력 센서 및 이를 포함한 표시 장치
KR20210050049A (ko) 2019-10-25 2021-05-07 삼성디스플레이 주식회사 표시 장치
KR20210055118A (ko) 2019-11-06 2021-05-17 삼성디스플레이 주식회사 표시 장치
JP7298447B2 (ja) * 2019-11-08 2023-06-27 横河電機株式会社 検出装置、検出方法及び検出プログラム
CN115039063A (zh) 2020-02-10 2022-09-09 平蛙实验室股份公司 改进的触摸感测设备
GB2598725B (en) * 2020-09-07 2022-12-14 Touchnetix Ltd Displacement sensing apparatus

Family Cites Families (213)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3176241A (en) 1961-04-07 1965-03-30 Jimmie S Hogan Magnetic switching device
JPS59225439A (ja) * 1983-06-06 1984-12-18 Matsushita Electric Ind Co Ltd 座標入力装置
EP0160121B1 (de) 1984-03-31 1990-01-10 Square D Company (Deutschland) Gmbh Elektromagnet für elektrische Schaltgeräte, insbesondere Schütze
GB8514544D0 (en) 1985-06-08 1985-07-10 Lucas Ind Plc Electromagnetic actuator
US4897582A (en) 1987-01-06 1990-01-30 Harris Corp. Linear dc motor vibration controller
US5052844A (en) 1990-04-30 1991-10-01 International Business Machines Corporation Ball joint with dynamic preload adjustment
US5231336A (en) 1992-01-03 1993-07-27 Harman International Industries, Inc. Actuator for active vibration control
KR940001227A (ko) * 1992-06-15 1994-01-11 에프. 제이. 스미트 터치 스크린 디바이스
US5805138A (en) 1995-06-07 1998-09-08 International Business Machines Corporation Gross motion input controller for a computer system
US5999168A (en) 1995-09-27 1999-12-07 Immersion Corporation Haptic accelerator for force feedback computer peripherals
US6100874A (en) 1995-11-17 2000-08-08 Immersion Corporation Force feedback mouse interface
KR100294260B1 (ko) 1997-08-06 2001-07-12 윤종용 터치패널장치및터치패널장치가설치된휴대용컴퓨터
US7808479B1 (en) 2003-09-02 2010-10-05 Apple Inc. Ambidextrous mouse
TW430098U (en) 1999-05-04 2001-04-11 Acer Peripherals Inc Sensitive pointing device with ability of being miniatured
US8169402B2 (en) 1999-07-01 2012-05-01 Immersion Corporation Vibrotactile haptic feedback devices
US6337678B1 (en) 1999-07-21 2002-01-08 Tactiva Incorporated Force feedback computer input and output device with coordinated haptic elements
US6492979B1 (en) * 1999-09-07 2002-12-10 Elo Touchsystems, Inc. Dual sensor touchscreen utilizing projective-capacitive and force touch sensors
US6388655B1 (en) 1999-11-08 2002-05-14 Wing-Keung Leung Method of touch control of an input device and such a device
US6822635B2 (en) 2000-01-19 2004-11-23 Immersion Corporation Haptic interface for laptop computers and other portable devices
CN100342422C (zh) 2000-05-24 2007-10-10 英默森公司 使用电活性聚合物的触觉装置
US7567232B2 (en) 2001-03-09 2009-07-28 Immersion Corporation Method of using tactile feedback to deliver silent status information to a user of an electronic device
WO2003007136A2 (en) 2001-07-10 2003-01-23 British Telecommunications Public Limited Company Haptic interface
US7532202B2 (en) 2002-05-08 2009-05-12 3M Innovative Properties Company Baselining techniques in force-based touch panel systems
US7176897B2 (en) 2002-05-17 2007-02-13 3M Innovative Properties Company Correction of memory effect errors in force-based touch panel systems
US7656393B2 (en) * 2005-03-04 2010-02-02 Apple Inc. Electronic device having display and surrounding touch sensitive bezel for user interface and control
JP4115198B2 (ja) 2002-08-02 2008-07-09 株式会社日立製作所 タッチパネルを備えた表示装置
US6816049B2 (en) 2002-09-19 2004-11-09 Fuji Xerox Co., Ltd. Actuator
AU2003266663A1 (en) 2002-10-01 2004-04-23 National Institute Of Advanced Industrial Science And Technology Piezoelectric sensor and input device comprising same
US20040080494A1 (en) 2002-10-29 2004-04-29 International Business Machines Corporation Force-sensing mouse pointing device for computer input
JP4142430B2 (ja) 2002-12-26 2008-09-03 富士通コンポーネント株式会社 入力装置
US7685538B2 (en) 2003-01-31 2010-03-23 Wacom Co., Ltd. Method of triggering functions in a computer application using a digitizer having a stylus and a digitizer system
US8488308B2 (en) 2003-02-12 2013-07-16 3M Innovative Properties Company Sealed force-based touch sensor
CN100367658C (zh) 2003-02-27 2008-02-06 松下电器产业株式会社 控制线性振动激励器的装置
JP4213539B2 (ja) 2003-08-12 2009-01-21 富士通コンポーネント株式会社 座標入力装置
WO2005050683A1 (de) 2003-11-20 2005-06-02 Preh Gmbh Bedienelement mit programmierbarer haptik
US7283120B2 (en) 2004-01-16 2007-10-16 Immersion Corporation Method and apparatus for providing haptic feedback having a position-based component and a predetermined time-based component
JP4279171B2 (ja) 2004-02-13 2009-06-17 富士通コンポーネント株式会社 平面板振動装置及びこれを用いたスイッチ
US7557051B2 (en) 2004-03-17 2009-07-07 The Board Of Trustees Of The Leland Stanford Junior University 3-D interconnected multi-layer microstructure of thermoplastic materials
CA2561740A1 (en) 2004-04-02 2005-10-20 Acco Brands Usa Llc Stapler with detachable accessory
US7548758B2 (en) * 2004-04-02 2009-06-16 Nortel Networks Limited System and method for peer-to-peer communication in cellular systems
KR100632458B1 (ko) 2004-04-30 2006-10-11 아이치 세이코우 가부시키가이샤 가속도 센서
US7091886B2 (en) 2004-06-09 2006-08-15 Lear Corporation Flexible touch-sense switch
US8232969B2 (en) 2004-10-08 2012-07-31 Immersion Corporation Haptic feedback for button and scrolling action simulation in touch input devices
JP2006146611A (ja) 2004-11-19 2006-06-08 Fujitsu Component Ltd ハプティックパネル装置
US7639232B2 (en) 2004-11-30 2009-12-29 Immersion Corporation Systems and methods for controlling a resonant device for generating vibrotactile haptic effects
US7825903B2 (en) 2005-05-12 2010-11-02 Immersion Corporation Method and apparatus for providing haptic effects to a touch panel
US7710397B2 (en) 2005-06-03 2010-05-04 Apple Inc. Mouse with improved input mechanisms using touch sensors
TWI267772B (en) 2005-06-24 2006-12-01 Transpacific Plasma Llc Pointing device
DE102005030376B4 (de) 2005-06-29 2009-03-26 Siemens Ag Herstellverfahren für eine Kontaktfläche in einem Elektromagneten sowie Elektromagnet
JP4229098B2 (ja) 2005-07-29 2009-02-25 ソニー株式会社 タッチパネルディスプレイ装置、タッチパネルディスプレイ装置を備えた電子機器、及びタッチパネルディスプレイ装置を備えたカメラ
JP2007034991A (ja) 2005-07-29 2007-02-08 Sony Corp タッチパネルディスプレイ装置、タッチパネルディスプレイ装置を備えた電子機器、及びタッチパネルディスプレイ装置を備えたカメラ
US8915422B1 (en) 2007-09-20 2014-12-23 Diebold Self-Service Systems Division Of Diebold, Incorporated Banking system controlled responsive to data bearing records
US8077147B2 (en) 2005-12-30 2011-12-13 Apple Inc. Mouse with optical sensing surface
RU2008136195A (ru) 2006-02-09 2010-03-20 Нисса Принтинг Ко., Лтд (Jp) Электронное устройство с защитной панелью
US20090278806A1 (en) 2008-05-06 2009-11-12 Matias Gonzalo Duarte Extended touch-sensitive control area for electronic device
US9724165B2 (en) 2006-05-19 2017-08-08 Mako Surgical Corp. System and method for verifying calibration of a surgical device
US8063886B2 (en) 2006-07-18 2011-11-22 Iee International Electronics & Engineering S.A. Data input device
JP2008033739A (ja) 2006-07-31 2008-02-14 Sony Corp 力覚フィードバックおよび圧力測定に基づくタッチスクリーンインターラクション方法および装置
JP4788533B2 (ja) 2006-09-06 2011-10-05 ヤマハ株式会社 鍵駆動制御システム
JP4294668B2 (ja) 2006-09-14 2009-07-15 株式会社日立製作所 点図ディスプレイ装置
US7890863B2 (en) 2006-10-04 2011-02-15 Immersion Corporation Haptic effects with proximity sensing
US20080084384A1 (en) 2006-10-05 2008-04-10 Immersion Corporation Multiple Mode Haptic Feedback System
CN101523329A (zh) 2006-10-05 2009-09-02 英默森公司 多模触觉反馈***
US7830160B2 (en) 2006-10-20 2010-11-09 Atmel, Corporation Capacitive position sensor
WO2008076393A1 (en) 2006-12-14 2008-06-26 Qsi Corporation Force-based input device having a modular sensing component
US8373664B2 (en) 2006-12-18 2013-02-12 Cypress Semiconductor Corporation Two circuit board touch-sensor device
US8144129B2 (en) 2007-01-05 2012-03-27 Apple Inc. Flexible touch sensing circuits
US7877707B2 (en) 2007-01-06 2011-01-25 Apple Inc. Detecting and interpreting real-world and security gestures on touch and hover sensitive devices
WO2008103943A1 (en) 2007-02-22 2008-08-28 Cypress Semiconductor Corporation Improved cursor control device and method
US7791506B2 (en) 2007-03-30 2010-09-07 Zf Friedrichshafen Ag Configurable networked user interface and switch pack
US8378965B2 (en) 2007-04-10 2013-02-19 Immersion Corporation Vibration actuator with a unidirectional drive
US7948337B2 (en) 2007-05-31 2011-05-24 Seagate Technology Llc Simultaneous rotational control using offset linear actuators
EP2153306A4 (de) 2007-06-14 2012-12-12 Nokia Corp Schirm-baugruppe
US20090002199A1 (en) 2007-06-28 2009-01-01 Nokia Corporation Piezoelectric sensing as user input means
KR100950234B1 (ko) 2007-07-06 2010-03-29 한국표준과학연구원 압력 센서를 이용한 마우스 알고리즘 구현 방법
KR100934767B1 (ko) 2007-09-14 2009-12-30 한국표준과학연구원 모바일 기기용 슬림형 마우스 및 그 제조 방법
US8084968B2 (en) 2007-09-17 2011-12-27 Sony Ericsson Mobile Communications Ab Use of an accelerometer to control vibrator performance
TWI352923B (en) 2007-09-29 2011-11-21 Htc Corp Method for determing pressed location of touch scr
US20090115734A1 (en) 2007-11-02 2009-05-07 Sony Ericsson Mobile Communications Ab Perceivable feedback
US8519950B2 (en) 2007-11-19 2013-08-27 Nokia Corporation Input device
WO2009078350A1 (ja) 2007-12-17 2009-06-25 Nec Corporation 入力装置及びそれを備えた情報端末、入力方法
US9857872B2 (en) 2007-12-31 2018-01-02 Apple Inc. Multi-touch display screen with localized tactile feedback
US20090174672A1 (en) 2008-01-03 2009-07-09 Schmidt Robert M Haptic actuator assembly and method of manufacturing a haptic actuator assembly
US20090174679A1 (en) 2008-01-04 2009-07-09 Wayne Carl Westerman Selective Rejection of Touch Contacts in an Edge Region of a Touch Surface
KR100952698B1 (ko) 2008-03-10 2010-04-13 한국표준과학연구원 촉감 피드백장치를 이용한 촉감전달방법 및 그 시스템
US9454256B2 (en) 2008-03-14 2016-09-27 Apple Inc. Sensor configurations of an input device that are switchable based on mode
US8169332B2 (en) * 2008-03-30 2012-05-01 Pressure Profile Systems Corporation Tactile device with force sensitive touch input surface
KR101032632B1 (ko) 2008-04-01 2011-05-06 한국표준과학연구원 작용힘에 따른 사용자 인터페이스의 제공방법 및 기록매체
US8296670B2 (en) 2008-05-19 2012-10-23 Microsoft Corporation Accessing a menu utilizing a drag-operation
WO2009143267A2 (en) 2008-05-20 2009-11-26 Qsi Corporation Stress-limiting device for forced-based input panels
US8132468B2 (en) 2008-05-29 2012-03-13 Zoran Radivojevic Flexural deformation sensing device and a user interface using the same
US8659555B2 (en) 2008-06-24 2014-02-25 Nokia Corporation Method and apparatus for executing a feature using a tactile cue
JP5536994B2 (ja) 2008-06-30 2014-07-02 株式会社東芝 慣性センサ及び慣性検出装置
NL2001822C2 (en) 2008-07-17 2010-01-19 2M Engineering Ltd Force sensor and corresponding force monitoring mattress.
US8482381B2 (en) 2008-07-31 2013-07-09 Palm, Inc. Multi-purpose detector-based input feature for a computing device
US9477342B2 (en) * 2008-08-26 2016-10-25 Google Technology Holdings LLC Multi-touch force sensing touch-screen devices and methods
JP2010071793A (ja) 2008-09-18 2010-04-02 Toshiba Corp 多軸加速度センサ及び角速度センサ
US8810522B2 (en) 2008-09-29 2014-08-19 Smart Technologies Ulc Method for selecting and manipulating a graphical object in an interactive input system, and interactive input system executing the method
US20100107067A1 (en) * 2008-10-27 2010-04-29 Nokia Corporation Input on touch based user interfaces
US20100141408A1 (en) 2008-12-05 2010-06-10 Anthony Stephen Doy Audio amplifier apparatus to drive a panel to produce both an audio signal and haptic feedback
US9684375B2 (en) 2008-12-12 2017-06-20 Immersion Corporation Systems and methods for stabilizing a haptic touch panel or touch surface
EP2202619A1 (de) 2008-12-23 2010-06-30 Research In Motion Limited Tragbare elektronische Vorrichtung, die eine taktile, berührungsempfindliche Eingabevorrichtung enthält, und Verfahren zu deren Steuerung
US9864513B2 (en) * 2008-12-26 2018-01-09 Hewlett-Packard Development Company, L.P. Rendering a virtual input device upon detection of a finger movement across a touch-sensitive display
US8633901B2 (en) 2009-01-30 2014-01-21 Blackberry Limited Handheld electronic device having a touchscreen and a method of using a touchscreen of a handheld electronic device
CN101477422A (zh) 2009-02-12 2009-07-08 友达光电股份有限公司 触控式液晶显示装置的手势检测方法
GB2468275A (en) 2009-02-16 2010-09-08 New Transducers Ltd A method of making a touch-sensitive data entry screen with haptic feedback
US20100214239A1 (en) 2009-02-23 2010-08-26 Compal Electronics, Inc. Method and touch panel for providing tactile feedback
JP5157969B2 (ja) 2009-03-09 2013-03-06 ソニー株式会社 情報処理装置、閾値設定方法及びそのプログラム
US20100225600A1 (en) 2009-03-09 2010-09-09 Motorola Inc. Display Structure with Direct Piezoelectric Actuation
US20100245254A1 (en) 2009-03-24 2010-09-30 Immersion Corporation Planar Suspension Of A Haptic Touch Screen
US9870094B2 (en) 2009-04-09 2018-01-16 Nvf Tech Ltd. Touch sensitive device
US8400410B2 (en) 2009-05-26 2013-03-19 Microsoft Corporation Ferromagnetic user interfaces
US8836648B2 (en) * 2009-05-27 2014-09-16 Microsoft Corporation Touch pull-in gesture
US20100328229A1 (en) 2009-06-30 2010-12-30 Research In Motion Limited Method and apparatus for providing tactile feedback
CA2761700C (en) 2009-07-24 2014-12-02 Research In Motion Limited Method and apparatus for a touch-sensitive display
EP2461236B1 (de) 2009-07-29 2015-12-16 Kyocera Corporation Eingabevorrichtung und steuerverfahren für die eingabevorrichtung
US9430078B2 (en) 2009-08-12 2016-08-30 Google Technology Holdings LLC Printed force sensor within a touch screen
JP2011048606A (ja) 2009-08-27 2011-03-10 Kyocera Corp 入力装置
JP4942801B2 (ja) 2009-08-27 2012-05-30 京セラ株式会社 入力装置
JP5310403B2 (ja) 2009-09-02 2013-10-09 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US8730199B2 (en) * 2009-09-04 2014-05-20 Atmel Corporation Capacitive control panel
US8310350B2 (en) 2009-09-29 2012-11-13 Visteon Global Technologies, Inc. Mounting apparatus for a haptic surface
US8487759B2 (en) 2009-09-30 2013-07-16 Apple Inc. Self adapting haptic device
GB2474047B (en) 2009-10-02 2014-12-17 New Transducers Ltd Touch sensitive device
US20140198071A1 (en) * 2009-10-06 2014-07-17 Cherif Atia Algreatly Force Sensing Touchscreen
EP2320309B1 (de) 2009-10-13 2014-02-12 BlackBerry Limited Tragbare elektronische Vorrichtung mit berührungsempfindlicher Anzeige und Verfahren zu deren Steuerung
US10068728B2 (en) * 2009-10-15 2018-09-04 Synaptics Incorporated Touchpad with capacitive force sensing
JP4868051B2 (ja) 2009-10-23 2012-02-01 ミツミ電機株式会社 操作入力装置及びその制御方法
US8633916B2 (en) 2009-12-10 2014-01-21 Apple, Inc. Touch pad with force sensors and actuator feedback
US8570297B2 (en) 2009-12-14 2013-10-29 Synaptics Incorporated System and method for measuring individual force in multi-object sensing
EP2357547B1 (de) 2010-01-04 2014-03-26 BlackBerry Limited Tragbare elektronische Vorrichtung und Steuerungsverfahren dafür
KR101642149B1 (ko) 2010-01-05 2016-07-25 삼성전자주식회사 터치스크린을 구비한 휴대용 단말기의 햅틱 피드백 제어 방법 및 장치
US9164605B1 (en) 2010-02-03 2015-10-20 Cypress Semiconductor Corporation Force sensor baseline calibration
DE102010007486A1 (de) 2010-02-09 2011-08-11 Continental Automotive GmbH, 30165 Bedienvorrichtung
US9274682B2 (en) * 2010-02-19 2016-03-01 Microsoft Technology Licensing, Llc Off-screen gestures to create on-screen input
US8799827B2 (en) * 2010-02-19 2014-08-05 Microsoft Corporation Page manipulations using on and off-screen gestures
US9298260B2 (en) 2010-03-12 2016-03-29 Broadcom Corporation Tactile communication system with communications based on capabilities of a remote system
EP2550581A1 (de) 2010-03-22 2013-01-30 FM Marketing GmbH Eingabevorrichtung mit haptischer rückmeldung
EP2375306B1 (de) 2010-04-08 2014-07-30 BlackBerry Limited Verfahren für ein taktiles Feedback und Vorrichtung
US9417695B2 (en) 2010-04-08 2016-08-16 Blackberry Limited Tactile feedback method and apparatus
TWI395707B (zh) 2010-04-12 2013-05-11 Memsor Corp 微機電結構的製造方法
JP2011242386A (ja) 2010-04-23 2011-12-01 Immersion Corp 接触センサと触覚アクチュエータとの透明複合圧電材結合体
JP5355515B2 (ja) 2010-05-06 2013-11-27 株式会社村田製作所 タッチパネル、ならびにタッチ式入力装置およびその制御方法
EP2395414B1 (de) 2010-06-11 2014-08-13 BlackBerry Limited Tragbare elektronische Vorrichtung mit berührungsempfindlicher Anzeige und Verfahren zur Änderung des taktilen Feedbacks
US8291776B1 (en) 2010-06-30 2012-10-23 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Force sensor using changes in magnetic flux
FR2962566B1 (fr) 2010-07-06 2013-05-17 Commissariat Energie Atomique Systeme de simulation d'un contact avec une surface par stimulation tactile
US20120013531A1 (en) 2010-07-13 2012-01-19 Sean Wilson Pressure Sensitive, Ergonomic Mouse
JP2012027875A (ja) 2010-07-28 2012-02-09 Sony Corp 電子機器、処理方法及びプログラム
WO2012024022A2 (en) 2010-08-20 2012-02-23 University Of Massachusetts Hand and finger registration for control applications
US8901783B2 (en) 2010-08-24 2014-12-02 Qualcomm Incorporated Handheld device force induction
FR2964761B1 (fr) 2010-09-14 2012-08-31 Thales Sa Dispositif d'interaction haptique et procede de generation d'effets haptiques et sonores
US9030419B1 (en) * 2010-09-28 2015-05-12 Amazon Technologies, Inc. Touch and force user interface navigation
US20120105367A1 (en) 2010-11-01 2012-05-03 Impress Inc. Methods of using tactile force sensing for intuitive user interface
US9262002B2 (en) * 2010-11-03 2016-02-16 Qualcomm Incorporated Force sensing touch screen
US8536978B2 (en) 2010-11-19 2013-09-17 Blackberry Limited Detection of duress condition at a communication device
US9223471B2 (en) 2010-12-28 2015-12-29 Microsoft Technology Licensing, Llc Touch screen control
WO2012090031A1 (en) 2010-12-31 2012-07-05 Nokia Corporation A display apparatus producing audio and haptic output
KR20120082577A (ko) 2011-01-14 2012-07-24 삼성전자주식회사 디바이스에서 펜 터치 인식 방법 및 장치
SG191938A1 (en) 2011-01-18 2013-08-30 Bayer Ip Gmbh Flexure apparatus, system, and method
US9448626B2 (en) 2011-02-11 2016-09-20 Immersion Corporation Sound to haptic effect conversion system using amplitude value
US8717152B2 (en) 2011-02-11 2014-05-06 Immersion Corporation Sound to haptic effect conversion system using waveform
US20120229264A1 (en) 2011-03-09 2012-09-13 Analog Devices, Inc. Smart linear resonant actuator control
US8892051B2 (en) 2011-03-25 2014-11-18 General Motors Llc Telematics provisioning system for deactivated devices
WO2012135373A2 (en) 2011-04-01 2012-10-04 Analog Devices, Inc. A dedicated user interface controller for feedback responses
US9733746B2 (en) 2011-05-10 2017-08-15 Northwestern University Touch interface device having an electrostatic multitouch surface and method for controlling the device
WO2012161061A1 (ja) 2011-05-23 2012-11-29 株式会社村田製作所 触覚提示装置
US8587542B2 (en) 2011-06-01 2013-11-19 Motorola Mobility Llc Using pressure differences with a touch-sensitive display screen
US20120319987A1 (en) 2011-06-15 2012-12-20 Synaptics Incorporated System and method for calibrating an input device
KR101274123B1 (ko) 2011-07-01 2013-06-13 한국과학기술원 압저항 방식 터치스크린 패널
US8581901B2 (en) 2011-07-28 2013-11-12 Adobe Systems Incorporated Methods and apparatus for interactive rotation of 3D objects using multitouch gestures
WO2013021835A1 (ja) 2011-08-11 2013-02-14 株式会社村田製作所 タッチパネル
US8884892B2 (en) * 2011-08-12 2014-11-11 Blackberry Limited Portable electronic device and method of controlling same
JP5709704B2 (ja) 2011-09-14 2015-04-30 三菱電機株式会社 半導体装置
US20130076652A1 (en) 2011-09-28 2013-03-28 Apple, Inc. Magnetically permeable haptic material
US9222693B2 (en) 2013-04-26 2015-12-29 Google Inc. Touchscreen device user interface for remote control of a thermostat
CN102339166A (zh) 2011-10-12 2012-02-01 清华大学 可折叠、可柔性变形的压电触摸屏
US8610684B2 (en) * 2011-10-14 2013-12-17 Blackberry Limited System and method for controlling an electronic device having a touch-sensitive non-display area
EP2584430A1 (de) 2011-10-17 2013-04-24 Research In Motion Limited Benutzerschnittstelle für elektronische Vorrichtung
US8686839B2 (en) 2011-11-01 2014-04-01 Texas Instruments Incorporated Closed-loop haptic or other tactile feedback system for mobile devices, touch screen devices, and other devices
US8783106B1 (en) 2011-12-13 2014-07-22 Sandia Corporation Micromachined force-balance feedback accelerometer with optical displacement detection
US8633911B2 (en) 2011-12-14 2014-01-21 Synaptics Incorporated Force sensing input device and method for determining force information
US20130155018A1 (en) 2011-12-20 2013-06-20 Synaptics Incorporated Device and method for emulating a touch screen using force information
US9148190B1 (en) 2012-01-17 2015-09-29 Amazon Technologies, Inc. Multipurpose coils
WO2013107474A1 (en) 2012-01-20 2013-07-25 Sony Ericsson Mobile Communications Ab Touch screen, portable electronic device, and method of operating a touch screen
US20130222267A1 (en) 2012-02-24 2013-08-29 Research In Motion Limited Portable electronic device including touch-sensitive display and method of controlling same
KR101375962B1 (ko) 2012-02-27 2014-03-18 주식회사 팬택 플렉서블 단말기
KR20130109288A (ko) 2012-03-27 2013-10-08 엘지이노텍 주식회사 터치 패널 및 이의 제조 방법
US9715276B2 (en) 2012-04-04 2017-07-25 Immersion Corporation Sound to haptic effect conversion system using multiple actuators
US9054627B2 (en) 2012-04-10 2015-06-09 Texas Instruments Incorporated Method and apparatus to drive a linear resonant actuator at its resonant frequency
US10108265B2 (en) 2012-05-09 2018-10-23 Apple Inc. Calibration of haptic feedback systems for input devices
US9977499B2 (en) 2012-05-09 2018-05-22 Apple Inc. Thresholds for determining feedback in computing devices
KR101339570B1 (ko) 2012-05-30 2013-12-10 삼성전기주식회사 터치 감지 방법 및 장치
US9966526B2 (en) 2012-06-05 2018-05-08 Mitsui Chemicals, Inc. Piezoelectric device and process for producing piezoelectric device
WO2013188307A2 (en) 2012-06-12 2013-12-19 Yknots Industries Llc Haptic electromagnetic actuator
WO2014017407A1 (ja) 2012-07-26 2014-01-30 株式会社村田製作所 押圧力センサ
US20150177899A1 (en) 2012-07-26 2015-06-25 Apple Inc. Elastomeric shear Material Providing Haptic Response Control
US9886116B2 (en) 2012-07-26 2018-02-06 Apple Inc. Gesture and touch input detection through force sensing
US9158407B2 (en) * 2012-08-29 2015-10-13 Sharp Kabushiki Kaisha Capacitive touch panel with a ‘dual layer’ force sensor
US9182859B2 (en) * 2012-08-29 2015-11-10 Sharp Kabushiki Kaisha Capacitive touch panel with force sensing
ES2705526T3 (es) 2012-09-11 2019-03-25 Life Corp Sa Plataforma de comunicación ponible
US9128523B2 (en) 2012-12-20 2015-09-08 Amazon Technologies, Inc. Dynamically generating haptic effects from audio data
US10088936B2 (en) 2013-01-07 2018-10-02 Novasentis, Inc. Thin profile user interface device and method providing localized haptic response
JP5686443B2 (ja) 2013-01-10 2015-03-18 日本写真印刷株式会社 接着層付きフィルム状感圧センサとこれを用いたタッチパッド、タッチ入力機能付き保護パネル及び電子機器
US9304587B2 (en) 2013-02-13 2016-04-05 Apple Inc. Force sensing mouse
TWI520034B (zh) 2013-04-29 2016-02-01 緯創資通股份有限公司 判斷觸控手勢之方法及觸控系統
KR102144763B1 (ko) 2013-05-22 2020-08-28 삼성전자주식회사 웨어러블 부가 장치를 통한 스케줄 표시 방법 및 장치
WO2015020663A1 (en) 2013-08-08 2015-02-12 Honessa Development Laboratories Llc Sculpted waveforms with no or reduced unforced response
US20150089435A1 (en) 2013-09-25 2015-03-26 Microth, Inc. System and method for prediction and recognition of input sequences
US9372543B2 (en) 2013-12-16 2016-06-21 Dell Products, L.P. Presentation interface in a virtual collaboration session
US20150242037A1 (en) 2014-01-13 2015-08-27 Apple Inc. Transparent force sensor with strain relief
US9904417B2 (en) 2014-04-16 2018-02-27 Microchip Technology Incorporated Projected capacitive touch detection with touch force detection using self-capacitance and mutual capacitance detection
US9939901B2 (en) 2014-09-30 2018-04-10 Apple Inc. Haptic feedback assembly
US9798409B1 (en) 2015-03-04 2017-10-24 Apple Inc. Multi-force input device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020122969A1 (de) 2020-09-02 2022-03-03 Audi Aktiengesellschaft Verfahren zur Erkennung einer Bewegung eines Eingabegegenstands gegenüber einer Anzeigevorrichtung über optische Merkmale, Aufnahmevorrichtung mit Recheneinheit, Anzeigevorrichtung und Kraftfahrzeug
WO2022048869A1 (de) 2020-09-02 2022-03-10 Audi Ag Verfahren zur erkennung einer bewegung eines eingabegegenstands gegenüber einer anzeigevorrichtung über optische merkmale, aufnahmevorrichtung mit recheneinheit, anzeigevorrichtung und kraftfahrzeug
DE102020122969B4 (de) 2020-09-02 2023-05-04 Audi Aktiengesellschaft Verfahren zur Erkennung einer Bewegung eines Eingabegegenstands gegenüber einer Anzeigevorrichtung über optische Merkmale, Aufnahmevorrichtung mit Recheneinheit, Anzeigevorrichtung und Kraftfahrzeug

Also Published As

Publication number Publication date
CN104487922B (zh) 2017-11-14
US9886116B2 (en) 2018-02-06
US20140028575A1 (en) 2014-01-30
WO2014018732A2 (en) 2014-01-30
WO2014018732A3 (en) 2014-03-27
CN104487922A (zh) 2015-04-01

Similar Documents

Publication Publication Date Title
DE112013003647T5 (de) Gesten- und Berührungseingabeerfassung durch Kraftabtastung
DE102008063354B4 (de) Selektive Zurückweisung von Berührungskontakten in einem Kantenbereich einer Berührungsoberfläche
DE69534404T2 (de) Verfahren zum kompensieren von unbeabsichtigten Bewegungen bei einer Antipgeste auf einer Berührungssensorfläche
DE102011010919B4 (de) System und Verfahren zur Generierung eines mit einer manuellen Eingabeoperation korrelierenden Signales
DE202012101429U1 (de) Berührungssensor mit adaptiver Berührungsdetektionsschwelle
DE102012223250A1 (de) Berührungssensor mit mehreren Oberflächen und Betriebsartenauswahl
DE202012101741U1 (de) Berührungssensorgerät mit mehreren Oberflächen und einer Detektion von Benutzeraktivitäten
DE202012102976U1 (de) Berührungssensor mit aktivem Stift
WO2009053492A1 (de) Single oder multitouchfähige touchscreens oder touchpads bestehend aus einem array von drucksensoren sowie herstellung solcher sensoren
DE102011017231A1 (de) Rauschauslöschungstechnik für kapazitative Touchscreen-Controlle unter Verwendung differentieller Erfassung
DE202008007847U1 (de) Geschwindigkeits-/Positionsmodus-Translation
DE102014113800A1 (de) Berührungserfassungssystem, Verfahren zum Ansteuern desselben und Anwenderschnittstelle mit dem System
DE202012101911U1 (de) Kapazitiver Kraftsensor
DE202012101428U1 (de) Berührungssensor mit verbesserter Berührungserfassung unter Verwendung von Bewegungsinformationen
DE202012102253U1 (de) Energiesparsystem für einen aktiven Stift
DE202012102752U1 (de) Anpassungsalgorithmus zur Verminderung des Rauschens in einem aktiven Stift
DE112005002019T5 (de) Eingabegerät mit Dreherfassung auf der Basis eines Pucks
DE102012219329A1 (de) Differentielle Detektion in einem aktiven Stift
DE102010028983A1 (de) Zweidimensionale Berührungssensoren
DE102010003575A1 (de) Kapazitiver Touchscreen oder Touchpad für Finger und beweglichen Taststift
DE102011085464A1 (de) Signalerfassung bei einem kapazitiven Touchscreen ohne Zurücksetzen des Bedienfelds
DE202008007940U1 (de) Benutzerschnittstelle für eine modusabhängige Verarbeitung von Berührungsdaten
DE202007018940U1 (de) Bewegungserkennung für einen Digitalisierer
DE102013227090A1 (de) Kompensation der Verformung von Berührungsbedienfeldern
DE202012102443U1 (de) Aktiver Stylus mit fester Koppelung und Berührungssensor-Gerät

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication