DE102014018429A1 - Bildverarbeitungsvorrichtung, Steuerverfahren für taktile Wahrnehmung, und Aufzeichnungsmedium - Google Patents

Bildverarbeitungsvorrichtung, Steuerverfahren für taktile Wahrnehmung, und Aufzeichnungsmedium Download PDF

Info

Publication number
DE102014018429A1
DE102014018429A1 DE102014018429.3A DE102014018429A DE102014018429A1 DE 102014018429 A1 DE102014018429 A1 DE 102014018429A1 DE 102014018429 A DE102014018429 A DE 102014018429A DE 102014018429 A1 DE102014018429 A1 DE 102014018429A1
Authority
DE
Germany
Prior art keywords
drawing object
tactile
tactile perception
type
cpu
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102014018429.3A
Other languages
English (en)
Inventor
c/o CANON KABUSHIKI KAISHA Nakagawa Koichi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Publication of DE102014018429A1 publication Critical patent/DE102014018429A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

Eine Bildverarbeitungsvorrichtung gemäß einer Ausführungsform der Erfindung besitzt: eine Erzeugungseinrichtung für taktile Wahrnehmung zum Erzeugen eines Stimulus, der durch den Benutzer bemerkt werden kann, der gerade über einen mit einer Eingabeeinrichtung berührten Abschnitt berührt, wobei die Eingabeeinrichtung in Entsprechung zu einer Anzeigeeinrichtung zum Anzeigen eines Zeichnungsobjekts bereitgestellt ist; sowie eine Steuerungseinrichtung zum Steuern der Erzeugungseinrichtung für taktile Wahrnehmung derart, dass der Stimulus erzeugt wird, wenn eine Berührungseingabe an einer dem Zeichnungsobjekt entsprechenden Position der Eingabeeinrichtung durchgeführt wird und eine Editierverarbeitung am Zeichnungsobjekt ausgeführt wird.

Description

  • HINTERGRUND DER ERFINDUNG
  • Gebiet der Erfindung
  • Die vorliegende Erfindung bezieht sich auf eine Bildverarbeitungsvorrichtung, ein Steuerverfahren für taktile Wahrnehmung, sowie ein Aufzeichnungsmedium.
  • Beschreibung des Standes der Technik
  • In den letzten Jahren nimmt die Anzahl an Vorrichtungen zu, die ein Touch-Panel besitzen. Infolge des Merkmals, dass der Benutzer einen Ort auf einem Anzeigebildschirm frei bestimmen kann, besitzen viele dieser Vorrichtungen eine Editierfunktion zum Editieren von existierenden Bildern sowie eine Malfunktion. Wie in der Japanischen Patentanmeldung JP 2012-124612 offenbart, ist die Malfunktion eine Funktion zum Malen und zum Erzeugen eines Bilds. In der Malfunktion kann der Benutzer einen Typ und eine Farbe einer Linie auswählen und eine Linie frei zeichnen, oder er kann die gezeichnete Linie durch Auswählen eines Radiergummisymbols oder dergleichen löschen.
  • Falls jedoch durch eine Berührungseingabe an einem auf einem Anzeigebildschirm bereitgestellten Eingabeschirm eine Editierverarbeitung (Löschen, Linienzeichnen, Malen in Farbe, oder dergleichen eines Zeichnungsobjekts) am Zeichnungsobjekt ausgeführt wird, das auf dem Anzeigebildschirm durch die Malfunktion oder dergleichen gezeichnet ist, besteht das Problem, dass es schwierig zu bestätigen ist, ob die Editierverarbeitung zum Editieren des durch die Berührungsoperation mittels eines Fingers, eines griffelartigen Stifts, oder dergleichen berührten Abschnitts tatsächlich ausgeführt worden ist oder nicht. Im Fall des Löschens des Zeichnungsobjekts auf dem Anzeigebildschirm als Editierverarbeitung wird der berührte Abschnitt durch den Finger verdeckt und es besteht das Problem, dass es für den Benutzer schwierig ist zu bestätigen, ob das Zeichnungsobjekt, das der Benutzer löschen will, gelöscht worden ist oder nicht.
  • OFFENBARUNG DER ERFINDUNG
  • Es ist ein Aspekt der Erfindung alle oder mindestens eines der vorhergehenden Probleme zu lösen.
  • Gemäß einem Aspekt der Erfindung wird eine wie in Ansprüche 1 bis 9 spezifizierte Bildverarbeitungsvorrichtung bereitgestellt.
  • Gemäß einem anderen Aspekt der Erfindung wird ein wie in Ansprüche 10 und 11 spezifiziertes Steuerverfahren für taktile Wahrnehmung bereitgestellt.
  • Gemäß einem weiteren Aspekt der Erfindung wird ein wie in Ansprüchen 12 und 13 spezifiziertes Speichermedium bereitgestellt.
  • Weitere Merkmale der vorliegenden Erfindung werden aus der folgenden Beschreibung von Ausführungsformen unter Bezugnahme auf die beigefügten Zeichnungen deutlich.
  • Jede unten beschriebene Ausführungsform der vorliegenden Erfindung kann einzeln implementiert werden oder als eine Kombination von mehreren der Ausführungsformen oder Merkmalen davon, wo es notwendig ist oder wo die Kombination von Elementen oder Merkmalen von individuellen Ausführungsformen in einer einzelnen Ausführungsform vorteilhaft ist.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Die begleitenden Zeichnungen, die in der Spezifikation enthalten sind und einen Teil davon bilden, illustrieren Ausführungsformen, Merkmale und Aspekte der Erfindung und dienen zusammen mit der Beschreibung die Grundlagen der Erfindung zu erklären.
  • 1 ist ein Diagramm, das eine elektronische Vorrichtung illustriert.
  • 2 ist ein Diagramm zum Beschreiben einer Druckfunktion.
  • 3 ist ein Flussdiagramm, das eine Steuerungsverarbeitung für taktile Wahrnehmung gemäß der ersten Ausführungsform illustriert.
  • 4 ist ein Flussdiagramm, das eine Steuerungsverarbeitung für taktile Wahrnehmung gemäß der zweiten Ausführungsform illustriert.
  • 5 ist ein Diagramm, das ein Beispiel einer Korrespondenztabelle illustriert.
  • 6 ist ein Diagramm, das ein Beispiel einer Korrespondenztabelle gemäß einer Modifikation illustriert.
  • 7 ist ein Flussdiagramm, das eine Steuerungsverarbeitung für taktile Wahrnehmung gemäß der dritten Ausführungsform illustriert.
  • BESCHREIBUNG DER AUSFÜHRUNGSFORMEN
  • Verschiedene Ausführungsformen, Merkmale und Aspekte der Erfindung werden unten unter Bezugnahme auf die Zeichnungen im Detail beschrieben.
  • (Erste Ausführungsform)
  • 1 ist ein Diagramm, das eine als Bildverarbeitungsvorrichtung gemäß der ersten Ausführungsform dienende elektronische Vorrichtung 100 illustriert. Die elektronische Vorrichtung 100 kann aus einem Mobiltelefon, Smartphone, Tablet-Terminal oder dergleichen gebildet sein. Wie in 1 illustriert, sind eine CPU 101, ein Speicher 102, ein nichtflüchtiger Speicher 103, eine Bildverarbeitungseinrichtung 104, ein Display 105, eine Bedieneinrichtung 106, ein Auszeichnungsmedium-I/F (Schnittstelle) 107, ein externes I/F 109, und ein Kommunikations-I/F 110 mit einem internen Bus 150 verbunden. Eine Abbildeeinrichtung 112, eine Erzeugungseinrichtung für taktile Wahrnehmung 122, und eine Vibrationserzeugungseinrichtung 123 sind auch mit dem internen Bus 150 verbunden. Jede mit dem internen Bus 150 verbundene Einrichtung kann Daten über den internen Bus 150 wechselseitig übertragen und empfangen.
  • Der Speicher 102 besitzt zum Beispiel ein RAM (flüchtiger Speicher oder dergleichen, der eine Halbleitervorrichtung verwendet). Die CPU 101 steuert jede Einrichtung der elektronischen Vorrichtung 100 durch Verwenden des Speichers 102 als Arbeitsspeicher gemäß einem zum Beispiel im nichtflüchtigen Speicher 103 gespeicherten Programm. Bilddaten, Audiodaten, andere Daten, verschiedene Arten Programme, mit denen die CPU 101 arbeitet, und dergleichen sind im nichtflüchtigen Speicher 103 gespeichert. Der nichtflüchtige Speicher 103 besitzt zum Beispiel eine Festplatte (HD), ROM oder dergleichen.
  • Die Bildverarbeitungseinrichtung 104 führt verschiedene Arten Bildverarbeitungen an den Bilddaten auf der Basis von Steuerung von der CPU 101 durch. Als Bilddaten, die den Bildverarbeitungen unterzogen werden, gibt es in dem nichtflüchtigen Speicher 103 oder einem Auszeichnungsmedium 108 gespeicherte Bilddaten, ein über das externe I/F 109 erhaltenes Videosignal, über das Kommunikations-I/F 110 erhaltene Bilddaten, durch die Abbildeeinrichtung 112 erfasste Bilddaten, und dergleichen.
  • In Bildverarbeitungen, die von der Bildverarbeitungseinrichtung 104 ausgeführt werden, sind eine A/D-Wandelverarbeitung, eine D/A-Wandelverarbeitung, eine Codierverarbeitung der Bilddaten, eine Komprimierverarbeitung, eine Decodierverarbeitung, eine Vergrößerungs-/Verkleinerungsverarbeitung (Größe anpassen), eine Rauschreduzierverarbeitung, eine Farbumwandelverarbeitung und dergleichen enthalten. Die Bildverarbeitungseinrichtung 104 ist zum Beispiel ein dedizierter Schaltkreisblock zum Ausführen einer spezifischen Bildverarbeitung. Anstelle der Bildverarbeitungseinrichtung 104 kann auch die CPU 101 die Bildverarbeitung gemäß einem Programm in Abhängigkeit von einem Typ Bildverarbeitung ausführen. Die CPU 101 gemäß der Ausführungsform führt eine Verwischungsfilter-Verarbeitung aus.
  • Das Display 105 als Anzeigeeinrichtung zeigt einen GUI-Schirm oder dergleichen, der ein Bild oder eine GUI (Graphische Benutzeroberfläche) bildet, auf der Basis der Steuerung von der CPU 101 an. Die CPU 101 steuert jede Einrichtung der elektronische Vorrichtung 100 in einer solchen Art und Weise, dass ein Displaysteuersignal gemäß einem Programm erzeugt wird, dass ein auf dem Display 105 anzuzeigendes Videosignal erzeugt wird, und dass jene Signale an das Display 105 ausgegeben werden. Das Display 105 zeigt ein Videobild auf der Basis vom Videosignal an.
  • Als weiteres Beispiel ist auch ein Aufbau in einer solchen Art und Weise möglich, dass die elektronische Vorrichtung 100 kein Display 105 besitzt sondern eine Schnittstelle, um das anzuzeigende Videosignal auf dem Display 105 auszugeben. In solch einem Fall zeigt die elektronische Vorrichtung 100 ein Bild oder dergleichen auf einem außen angebrachten Monitor (Fernseher oder dergleichen) an.
  • Die Bedieneinrichtung 106 als Eingabeeinrichtung ist eine Zeicheninformation-Eingabevorrichtung wie etwa eine Tastatur oder dergleichen oder eine Eingabevorrichtung zum Empfangen der Benutzerbedienung wie etwa eine Zeigevorrichtung wie eine Maus, Touch-Panel 120, Knopf, Einstellscheibe, Joystick, berührungsempfindlicher Sensor, Touchpad oder dergleichen. Das Touch-Panel 120 als Eingabeeinrichtung überlagert das Display 105 derart, dass eine flache Form gebildet wird, und ist eine Eingabevorrichtung zum Ausgeben von Koordinateninformation, die einer berührten Position entsprechen. Das Touch-Panel 120 ist ein Beispiel für den Eingabeanzeigebildschirm.
  • Das Auszeichnungsmedium 108 wie etwa eine Speicherkarte, CD, DVD oder dergleichen kann in das Auszeichnungsmedium-I/F 107 geladen werden. Das Auszeichnungsmedium-I/F 107 liest Daten aus dem geladenen Auszeichnungsmedium 108 aus und schreibt Daten in das geladene Auszeichnungsmedium 108 auf der Basis der Steuerung von der CPU 101.
  • Das externe I/F 109 ist eine Schnittstelle, die über ein verdrahtetes Kabel oder in schnurloser Art und Weise mit einer externen Vorrichtung verbunden ist und benutzt wird ein Videosignal und ein Audiosignal einzugeben und auszugeben. Das Kommunikations-I/F 110 ist eine Schnittstelle zum Übertragen und Empfangen von verschiedenen Arten Daten wie etwa Dateien, Befehle und dergleichen durch Kommunizieren (einschließlich Telefonkommunikation) mit der externen Vorrichtung, Internet 111, oder dergleichen.
  • Die Abbildeeinrichtung 112 ist eine Kameraeinrichtung, die ein Abbildeelement wie etwa ein CCD-Sensor, CMOS-Sensor oder dergleichen besitzt, ein Zoomobjektiv, ein Fokussierlinse, ein Verschluss, eine Irisblende, eine Entfernungsmesseinrichtung, einen A/D-Wandler und dergleichen. Die Abbildeeinrichtung 112 kann ein Standbild und ein Bewegtbild erfassen. Bilddaten vom durch die Abbildeeinrichtung 112 erfassten Bild wird an die Bildverarbeitungseinrichtung 104 übertragen, in der Bildverarbeitungseinrichtung 104 verschiedenen Arten Verarbeitungen unterzogen, und als Standbilddatei oder Bewegtbilddatei im Auszeichnungsmedium 108 aufgezeichnet.
  • Durch einen internen Bus 150 empfängt die CPU 101 die Koordinateninformation der Berührungsposition, die vom Touch-Panel 120 ausgegeben wurde. Die CPU 101 detektiert die folgenden Operationen oder Zustände auf der Basis der Koordinateninformation.
  • Eine Operation, um das Touch-Panel 120 mit einem Finger oder griffelartigen Stift zu berühren (hiernach ”AUFSETZEN” (engl. ”Touch-Down”) bezeichnet)
  • Ein Zustand, wo ein Finger oder griffelartiger Stift das Touch-Panel 120 berührt (hiernach als ”BERÜHREND” (engl. ”Touch-On”) bezeichnet)
  • Eine Operation, um einen Finger oder griffelartigen Stift zu bewegen und dabei mit dem Touch-Panel 120 in Berührung zu bleiben (hiernach ”BEWEGEN” (engl. ”Move”) bezeichnet)
  • Eine Operation, um einen mit dem Touch-Panel 120 berührten Finger oder griffelartigen Stift zu entfernen (hiernach ”ABHEBEN” (engl. ”Touch-Up”) bezeichnet)
  • Ein Zustand, wo nichts mit dem Touch-Panel 120 in Berührung ist (hiernach ”BERÜHRUNGSLOS” (engl. ”Touch-Off”) bezeichnet).
  • Wenn BEWEGEN detektiert wird, unterscheidet die CPU 101 weiterhin eine Bewegungsrichtung vom Finger oder griffelartigen Stift auf der Basis einer Änderung von Koordinaten der Berührungsposition. Genauer gesagt unterscheidet die CPU 101 eine vertikale Komponente und eine horizontale Komponente in der Bewegungsrichtung auf dem Touch-Panel 120.
  • Die CPU 101 detektiert auch jede Operation aus einem SCHLAG (engl. ”stroke”), WISCHEN (engl. ”flick”), ZIEHEN (eng. ”drag”) und dergleichen. Wenn ABHEBEN von AUFSETZEN über BEWEGEN durchgeführt wird, detektiert die CPU 101 den SCHLAG. Wenn BEWEGEN über eine vorbestimmte Strecke oder länger und mit einer vorbestimmten Geschwindigkeit oder größer detektiert wird und anschließend ABHEBEN detektiert wird, detektiert die CPU 101 das WISCHEN. Wenn BEWEGEN über eine vorbestimmte Strecke oder länger und mit einer Geschwindigkeit kleiner als die vorbestimmte Geschwindigkeit detektiert wird, detektiert die CPU 101 das ZIEHEN. Das WISCHEN ist eine solche Operation, wo der Finger schnell über eine Strecke mit gewisser Ausdehnung bewegt wird und dabei in mit dem Touch-Panel 120 Berührung bleibt, und der Finger wie er ist vom Touch-Panel 120 entfernt wird. Das heißt, das WISCHEN ist eine solche Operation, wo der Finger schnell das Touch-Panel 120 reibt.
  • Das Touch-Panel 120 kann irgendeinen von verschiedenen Typen Touch-Panel benutzen wie etwa einen Typ mit Widerstandsfilm, einen Typ mit elektrischer Kapazität, einen Typ mit Oberflächenschall, einen Typ mit Infrarotstrahl, einen Typ mit elektromagnetischer Induktion, einen Typ mit Bilderkennung, einen Typ mit Photosensor, und dergleichen.
  • Eine Belastungsdetektionseinrichtung 121 wird durch Adhäsion oder dergleichen mit dem Touch-Panel 120 integriert bereitgestellt. Die Belastungsdetektionseinrichtung 121 ist ein Dehnungsmesstreifen-Sensor. Durch Benutzen des Phänomens, dass das Touch-Panel 120 um einen kleinen Betrag gemäß der Druckkraft der Berührungsoperation gebogen (gedehnt) wird, detektiert die Belastungsdetektionseinrichtung 121 eine Belastung (Druckkraft), die am Touch-Panel 120 angewandt wird. Als weiteres Beispiel kann die Belastungsdetektionseinrichtung 121 mit dem Display 105 integriert bereitgestellt werden. In diesem Fall detektiert die Belastungsdetektionseinrichtung 121 über das Display 105 eine am Touch-Panel 120 angewandte Belastung.
  • Die Erzeugungseinrichtung für taktile Wahrnehmung 122 erzeugt eine taktile Wahrnehmung, die an einem Bedienmittel wie etwa ein Finger, ein griffelartiger Stift oder dergleichen zum Bedienen des Touch-Panels 120 angewandt wird. Das heißt, die Erzeugungseinrichtung für taktile Wahrnehmung 122 erzeugt über den Berührungsbereich einen Stimulus, der durch den gerade berührenden Benutzer bemerkt werden kann. Die Erzeugungseinrichtung für taktile Wahrnehmung 122 wird mit dem Touch-Panel 120 durch Adhäsion oder dergleichen integriert bereitgestellt. Die Erzeugungseinrichtung für taktile Wahrnehmung 122 ist ein piezoelektrisches Element, genauer gesagt ein piezoelektrischer Vibrator, und vibriert mit beliebiger Amplitude und Frequenz unter Steuerung von der CPU 101, die als Steuerungseinrichtung der Erzeugungseinrichtung für taktile Wahrnehmung 122 fungiert. Daher wird das Touch-Panel 120 gekrümmt und vibriert und eine Vibration vom Touch-Panel 120 wird als taktile Wahrnehmung an das Bedienmittel verbreitet. Das heißt, das die Erzeugungseinrichtung für taktile Wahrnehmung 122 vibriert an sich, sie vermittelt über das Touch-Panel 120 die taktile Wahrnehmung am Bedienmittel.
  • Als weiteres Beispiel kann die Erzeugungseinrichtung für taktile Wahrnehmung 122 mit dem Display 105 integriert bereitgestellt werden. In diesem Fall bewirkt die Erzeugungseinrichtung für taktile Wahrnehmung 122, dass das Touch-Panel 120 gekrümmt wird und über das Display 105 vibriert.
  • Die CPU 101 kann taktile Wahrnehmungen mit verschiedenen Mustern durch Ändern der Amplitude und Frequenz von der Erzeugungseinrichtung für taktile Wahrnehmung 122 und Vibrieren von der Erzeugungseinrichtung für taktile Wahrnehmung 122 mit den verschiedenen Mustern erzeugen.
  • Die CPU 101 kann die taktile Wahrnehmung auf der Basis der auf dem Touch-Panel 120 detektierten Berührungsposition und der durch die Belastungsdetektionseinrichtung 121 detektierten Druckkraft steuern. Zum Beispiel wird angenommen, dass, in Entsprechung zur Berührungsoperation der Bedienmittel, die CPU 101 die Berührungsposition entsprechend zu einem auf dem Display 105 angezeigten Knopfsymbol detektiert und die Belastungsdetektionseinrichtung 121 die Druckkraft mit einem vorbestimmten Wert oder mehr detektiert. In diesem Fall erzeugt die CPU 101 Vibrationen vor und nach einer Zeitspanne. Daher kann der Benutzer eine taktile Wahrnehmung wie ein Klickgefühl bemerken, das erhalten wird als ob ein mechanischer Knopf niedergedrückt wurde.
  • Weiterhin wird angenommen, dass die CPU 101 eine Funktion eines Knopfsymbol nur ausführt, wenn die Druckkraft mit dem vorbestimmten Wert oder mehr in einem Zustand detektiert wird, wo eine Berührung an einer Position vom Knopfsymbol detektiert wurde. Das heißt, wenn eine schwache Druckkraft detektiert wird, wie wenn das Knopfsymbol lediglich berührt wurde, führt CPU 101 nicht die Funktion vom Knopfsymbol aus. Somit der Benutzer kann mit einem Gefühl ähnlich zu dem bedienen, wenn ein mechanischer Knopf niedergedrückt wurde.
  • Die Belastungsdetektionseinrichtung 121 ist nicht auf den Dehnungsmesstreifen-Sensor beschränkt. Als weiteres Beispiel kann die Belastungsdetektionseinrichtung 121 ein piezoelektrisches Element besitzen. In diesem Fall detektiert die Belastungsdetektionseinrichtung 121 eine Belastung auf der Basis einer Spannung, die vom piezoelektrischen Element gemäß der Druckkraft ausgegeben wird. Weiterhin kann das piezoelektrische Element als Belastungsdetektionseinrichtung 121 in diesem Fall mit einem Druckelement als Erzeugungseinrichtung für taktile Wahrnehmung 122 gemeinsam sein.
  • Die Erzeugungseinrichtung für taktile Wahrnehmung 122 ist nicht auf eine Einrichtung beschränkt, die die Vibration durch das Druckelement erzeugt. Als weiteres Beispiel kann die Erzeugungseinrichtung für taktile Wahrnehmung 122 eine elektrische taktile Wahrnehmung erzeugen. Zum Beispiel besitzt die Erzeugungseinrichtung für taktile Wahrnehmung 122 eine Platte mit leitfähiger Schicht und eine Platte aus Isoliermaterial. In einer Art und Weise ähnlich zum Touch-Panel 120 sind die Platte mit leitfähiger Schicht und die Platte aus Isoliermaterial so über das Display 105 gelagert, dass eine flache Form gebildet wird. Wenn der Benutzer die Platte aus Isoliermaterial berührt, werden positive Ladungen in die Platte aus Isoliermaterial aufgeladen. Das heißt, die Erzeugungseinrichtung für taktile Wahrnehmung 122 kann durch Laden der positiven Ladungen in die Platte aus Isoliermaterial eine taktile Wahrnehmung als elektrischer Stimulus erzeugen. Die Erzeugungseinrichtung für taktile Wahrnehmung 122 kann so ein Gefühl (taktile Wahrnehmung) vermitteln, dass die Haut des Benutzers durch eine Coulomb-Kraft am Benutzer gezogen wird.
  • Als weiteres Beispiel kann die Erzeugungseinrichtung für taktile Wahrnehmung 122 eine solche Platte mit leitfähiger Schicht besitzen, dass für jede Position auf der Platte ausgewählt werden kann, ob die positiven Ladungen aufgeladen werden oder nicht. Die CPU 101 steuert eine Ladeposition der positiven Ladungen. Daher kann die Erzeugungseinrichtung für taktile Wahrnehmung 122 verschiedene taktile Wahrnehmungen beim Benutzer vermitteln wie etwa ”raues Gefühl”, ”kiesartiges Gefühl”, ”pulverartiges Gefühl” und dergleichen.
  • Die Vibrationserzeugungseinrichtung 123, die auch zusammen mit der Erzeugungseinrichtung für taktile Wahrnehmung 122 als Erzeugungseinrichtung für taktile Wahrnehmung bezeichnet werden kann, erzeugt durch Vibrieren der gesamten elektronischen Vorrichtung 100 eine taktile Wahrnehmung. Die Vibrationserzeugungseinrichtung 123 besitzt zum Beispiel einen Exzentermotor oder dergleichen und realisiert eine gut bekannte Vibrationsfunktion oder dergleichen. Daher kann die elektronische Vorrichtung 100 durch die Vibration, die von der Vibrationserzeugungseinrichtung 123 erzeugt wird, die taktile Wahrnehmung an einer Hand oder dergleichen des Benutzers vermitteln, der die elektronische Vorrichtung 100 greift.
  • Wenn durch die Berührungsoperation am Touch-Panel 120 eine Löschen(Editierverarbeitung)-Anweisung am auf dem Display 105 angezeigten Zeichnungsobjekt eingegeben wird, führt die elektronische Vorrichtung 100 gemäß der Ausführungsform eine Steuerungsverarbeitung für taktile Wahrnehmung zum Vermitteln der taktilen Wahrnehmung an einem Finger oder dergleichen vom Benutzer aus, der die Berührungseingabe durchgeführt hat. Das Zeichnen und Löschen (Editierverarbeitung) des Zeichnungsobjekts wird durch die Malfunktion realisiert, und ein durch die Malfunktion gezeichnetes Objekt wird Zeichnungsobjekt genannt. Das Zeichnungsobjekt ist ein Objekt, das eine Abbildung, Zeichen, oder dergleichen zeigt. Die Malfunktion wird nachstehend beschrieben. Die Malfunktion ist eine Funktion zum Empfangen einer Auswahl eines Typs und einer Farbe eines Stifts vom Benutzer und zum Zeichnen eines Bilds.
  • 2 ist ein Diagramm, das ein Beispiel für einen Malbildschirm illustriert, der auf dem Display 105 angezeigt wird, wenn die Malfunktion ausgeführt wird. In 2 werden ein einen Bleistift zeigendes Symbol 201, ein einen Wachsmalstift zeigendes Symbol 202, ein einen Pinsel zeigendes Symbol 203, ein einen Radiergummi zeigendes Symbol 204, und eine Leinwand 209 auf dem Display 105 angezeigt. Der Benutzer kann durch Berühren eines gewünschten der Symbolen 201 bis 203 einen Typ Stift auswählen. Nun wird angenommen, dass als Stifttypen ein Bleistift, ein Wachsmalstift, ein Pinsel, und dergleichen eingestellt worden sind. Ein Typ Linie, die gezeichnet wird, unterscheidet sich in Abhängigkeit vom Stifttyp. Das heißt, der Stifttyp ist ein Beispiel für einen Linientyp.
  • Wenn der Benutzer die Leinwand 209 in einem Zustand berührt, wo der Stifttyp ausgewählt worden ist, zeichnet (Editierverarbeitung) die CPU 101 eine Linie mit dem ausgewählten Stifttyp zu einer Position auf dem Display 105, die der Berührungsposition entspricht, wo die Berührungseingabe durchgeführt worden ist. Wenn der Benutzer die Leinwand 209 berührt, nachdem er das Radiergummisymbol berührt hat, löscht (Editierverarbeitung) die CPU 101 die Linie (Zeichnungsobjekt), die an der Position auf dem Display 105 gezeichnet ist, die der Berührungsposition auf dem Touch-Panel 120 entspricht. Das Zeichnungsobjekt, das an der Position auf dem Display gezeichnet ist, die der Berührungsposition entspricht, wird einfach ein an der Berührungsposition gezeichnetes Zeichnungsobjekt genannt.
  • Paletten 205 bis 208, die benutzt werden die Farbe auszuwählen, sowie ein einen Verwischungsfilter zeigendes Symbol 210 werden auf dem Display 105 angezeigt. Wenn der Benutzer die Palette der Farbe berührt, die er/sie zeichnen will, ändert die CPU 101 die Farbe zum Zeitpunkt vom Zeichnen einer Linie in die Farbe der ausgewählten Palette. Wenn der Benutzer die Leinwand 209 berührt, nachdem er das Verwischungsfiltersymbol berührt hat, führt die CPU 101 eine solche Filterungsverarbeitung aus, dass die an der berührten Position gezeichnete Linie verwischt wird.
  • Die CPU 101 speichert im Speicher 102 handgeschriebene Daten, die das durch die Malfunktion erzeugte Zeichnungsobjekt zeigen. Die handgeschriebenen Daten besitzen Information über den Stifttyp und die Farbe für jeden die Leinwand 209 bildenden Pixel. Die Information über die Farbe wird als eine Kombination von drei Farben R, G und B ausgedrückt und eine Intensität der Farbe wird durch einen Bereich 0 bis 255 für jede Farbe gezeigt.
  • Nun wird angenommen, dass eine obere linke Ecke der Leinwand 209 als Ursprung eingestellt ist, eine vertikale Richtung ist als X-Achse eingestellt, und eine horizontale Richtung ist als Y-Achse eingestellt. Durch Festsetzen einer Koordinate auf der X-Achse und einer Koordinate (Pixel) auf der Y-Achse, die CPU 101 kann beliebige handgeschriebene Daten auf der Leinwand 209 abrufen. Wenn keine handgeschriebenen Daten an der festgesetzten Koordinatenposition existieren, wird die Information über den Stifttyp und die Farbe an der festgesetzten Koordinatenposition nicht im Speicher 102 gespeichert. Falls die handgeschriebenen Daten an der festgesetzten Koordinatenposition existieren, wird die Information über den Stifttyp und die Farbe an den festgesetzten Koordinaten im Speicher 102 gespeichert.
  • Wenn das Radiergummisymbol ausgewählt und die Löschfunktion benutzt wird, löscht (Editierverarbeitung) die CPU 101 die an den Koordinaten der Berührungsposition gezeichnete Linie (Zeichnungsobjekt). Genauer gesagt stellt (Editierverarbeitung) die CPU 101 für den Pixel an der Berührungsposition einen Pixelwert der Farbe, die als Hintergrundfarbe festgesetzt ist, anstelle eines Pixelwerts des Zeichnungsobjekts ein, wodurch das Zeichnungsobjekt gelöscht wird.
  • 3 ist ein Flussdiagramm, das eine Steuerungsverarbeitung für taktile Wahrnehmung durch die elektronische Vorrichtung 100 in der Ausführungsform illustriert. Die Steuerungsverarbeitung für taktile Wahrnehmung wird ausgeführt, wenn das Radiergummisymbol 204 in der Malfunktion ausgewählt wird. Die Steuerungsverarbeitung für taktile Wahrnehmung wird wiederholt in einer Zeitspanne ausgeführt, während der ein Zustand, in dem das Radiergummisymbol 204 ausgewählt ist, fortgesetzt wird. Die Steuerungsverarbeitung für taktile Wahrnehmung wird beendet, wenn die Auswahl des Radiergummisymbols 204 aufgehoben wird. Die Steuerungsverarbeitung für taktile Wahrnehmung wird durch ein Verfahren realisiert, wonach die CPU 101 ein im Speicher 102 oder nichtflüchtigen Speicher 103 gespeichertes Programm ausliest und ausführt.
  • In S301 unterscheidet die CPU 101, ob AUFSETZEN am Touch-Panel 120 durchgeführt worden ist oder nicht. Falls AUFSETZEN detektiert wird (JA in S301), bringt die CPU 101 die Verarbeitung zu S302 voran. Falls AUFSETZEN nicht detektiert wird (NEIN in S301), beendet die CPU 101 die Steuerungsverarbeitung für taktile Wahrnehmung.
  • In S302 legt die CPU 101 Koordinateninformation (nachstehend als Berührungskoordinaten bezeichnet) der Berührungsposition vom Panel fest. Anschließend in S303 unterscheidet die CPU 101, ob ein Zeichnungsobjekt an der Position auf dem Display 105 existiert, die den in S302 festgelegten Berührungskoordinaten entspricht, oder nicht.
  • Falls ein Zeichnungsobjekt existiert (JA in S303), bringt die CPU 101 die Verarbeitung zu S304 voran. Falls kein Zeichnungsobjekt existiert (NEIN in S303), bringt die CPU 101 die Verarbeitung zu S307 voran.
  • In S304 löscht die CPU 101 das an der Berührungsposition gezeichnete Zeichnungsobjekt (Löschverarbeitung). Anschließend in S305 addiert die CPU 101, die auch als Festlegungseinrichtung für eine Intensität taktiler Wahrnehmung fungiert, ”1” zu einem Wert einer Intensität taktiler Wahrnehmung, um die Intensität der taktilen Wahrnehmung zu steigern, die beim Benutzer vermittelt wird. Die Intensität taktiler Wahrnehmung ist Information, die eine Intensität eines Stimulus (taktile Wahrnehmung) zeigt, der von der Erzeugungseinrichtung für taktile Wahrnehmung 122 erzeugt wird und durch den Benutzer bemerkt werden kann. Es wird angenommen, dass die Intensität taktiler Wahrnehmung im Speicher 102 gespeichert worden ist. Desto größer die Intensität taktiler Wahrnehmung ist, desto größer ist der Stimulus (taktile Wahrnehmung), der beim Benutzer vermittelt wird. Die CPU 101 steuert auf der Basis der im Speicher 102 gespeicherten Intensität taktiler Wahrnehmung mindestens die Amplitude und/oder die Frequenz vom piezoelektrischen Element als Erzeugungseinrichtung für taktile Wahrnehmung 122. Daher kann die Erzeugungseinrichtung für taktile Wahrnehmung 122 den Stimulus (taktile Wahrnehmung) mit der verschiedenen Intensität taktiler Wahrnehmung erzeugen.
  • Anschließend in S306 steuert die CPU 101 die Erzeugungseinrichtung für taktile Wahrnehmung 122, um die taktile Wahrnehmung mit der im Speicher 102 eingestellten Intensität taktiler Wahrnehmung zu vermitteln (Steuerungsverarbeitung). Unter Steuerung der CPU 101 erzeugt die Erzeugungseinrichtung für taktile Wahrnehmung 122 an der Berührungsposition die Vibration entsprechend zur im Speicher 102 eingestellten Intensität taktiler Wahrnehmung. Das heißt, die Erzeugungseinrichtung für taktile Wahrnehmung 122 vermittelt den Stimulus (taktile Wahrnehmung) am Finger oder dergleichen, der als Bedienmittel über das Touch-Panel 120 als Eingabeanzeigebildschirm dient (Erzeugungsverarbeitung für taktile Wahrnehmung). Als weiteres Beispiel kann die CPU 101 die Verarbeitung von S304 nach Abschluss der Verarbeitungen von S305 und S306 ausführen.
  • In S307 setzt die CPU 101 den Wert der Intensität taktiler Wahrnehmung auf einen Anfangswert ”0” zurück. Somit wird die Intensität taktiler Wahrnehmung geändert, um die taktile Wahrnehmung zu minimieren, die beim Benutzer vermittelt wird. In S308 unterscheidet die CPU 101, ob ABHEBEN am Touch-Panel 120 durchgeführt worden ist oder nicht. Falls ABHEBEN detektiert wird (JA in S308), bringt die CPU 101 die Verarbeitung zu S310 voran. Falls ABHEBEN nicht detektiert wird (NEIN in S308), bringt die CPU 101 die Verarbeitung zu S309 voran. Der Fall, wo ABHEBEN nicht detektiert wird, kennzeichnet der Fall, wo der BERÜHREND Zustand fortgesetzt wird.
  • In S309 unterscheidet die CPU 101, ob BEWEGEN am Touch-Panel 120 durchgeführt worden ist oder nicht. Falls BEWEGEN detektiert wird (JA in S309), bringt die CPU 101 die Verarbeitung zu S302 voran. Das heißt, die CPU 101 setzt die Steuerungsverarbeitung für taktile Wahrnehmung fort. Falls BEWEGEN nicht detektiert wird (NEIN in S309), bringt die CPU 101 die Verarbeitung zu S308 voran. Das heißt, die CPU 101 wartet bis ABHEBEN oder BEWEGEN detektiert wird. In S310 setzt die CPU 101 den Wert der Intensität taktiler Wahrnehmung auf den Anfangswert ”0” zurück. Die Verarbeitung von S310 ist eine Verarbeitung zum Zurücksetzen zur Anfangseinstellung bezüglich des Entfernens vom Finger des Benutzers vom Touch-Panel 120 als Ende der Löschoperation. In dieser Art und Weise wird die Steuerungsverarbeitung für taktile Wahrnehmung abgeschlossen.
  • Wie oben erwähnt erzeugt die elektronische Vorrichtung 100 gemäß der ersten Ausführungsform eine taktile Wahrnehmung, wenn das Zeichnungsobjekt gelöscht wird. Daher kann die elektronische Vorrichtung 100 es dem Benutzer ermöglichen intuitiv die Tatsache zu erkennen, dass die Löschung durchgeführt wurde, und auch die Position zu erkennen, wo die Löschung durchgeführt wurde. Das heißt, die elektronische Vorrichtung 100 kann einen solchen Mechanismus bereitstellen, dass der Benutzer bestätigen kann, ob die Verarbeitung, die der von ihm selbst durchgeführten Operation entspricht, abgeschlossen worden ist oder nicht.
  • Weiterhin wird in den wiederholten Verarbeitungen von S303 bis S309 jedes Mal, wenn BEWEGEN detektiert wird, die Intensität taktiler Wahrnehmung jeweils um ”1” erhöht. Das heißt, die CPU 101 legt die Intensität taktiler Wahrnehmung auf der Basis einer Fläche (Linienlänge) eines Orts der Berührungseingabe fest. Die Verarbeitungen von S305, S307 und S310 sind als Beispiel für die Festlegungsverarbeitung der Intensität taktiler Wahrnehmung gezeigt.
  • Desto größer das Objekt als Löschziel ist oder desto dicker die Linie als Löschziel ist, desto mehr nimmt eine Fläche der Berührungseingabe für Löschung zu. Andererseits, desto größer die Fläche des Orts der Berührungseingabe ist, desto weiter steigert die elektronische Vorrichtung 100 gemäß der Ausführungsform die Intensität taktiler Wahrnehmung. Daher kann der Benutzer mit der zunehmenden Fläche des Löschziels eine stärkere taktile Wahrnehmung erhalten. Somit kann die elektronische Vorrichtung 100 gemäß der Ausführungsform es dem Benutzer ermöglichen intuitiv zu erkennen, welcher Abschnitt gerade gelöscht wird.
  • Als erste Modifikation der ersten Ausführungsform kann die CPU 101 das Zeichnungsobjekt durch Ändern (Editierverarbeitung) der Farbe des Zeichnungsobjekt an der Berührungsposition in eine durchsichtige Farbe löschen. Zum Beispiel wird angenommen, dass die Malfunktion eine Funktion besitzt, die das Bild in mehreren Anzeigeschichten editieren kann. In diesem Fall wird, da das Zeichnungsobjekt in die durchsichtige Farbe geändert wird, das Bild in der unteren Anzeigeschicht an der Berührungsposition angezeigt. Falls die untere Anzeigeschicht nicht existiert, da das Zeichnungsobjekt in die durchsichtige Farbe geändert wird, wird eine UI wie etwa Berührknöpfe, Menü, und dergleichen an der Berührungsposition angezeigt, um durchdringend zu sein.
  • Als zweite Modifikation kann die CPU 101 in S306 die Vibrationserzeugungseinrichtung 123 anstelle der Erzeugungseinrichtung für taktile Wahrnehmung 122 steuern. Genauer gesagt ist die Intensität taktiler Wahrnehmung der Vibrationserzeugungseinrichtung 123 im Speicher 102 gespeichert worden. In S305 addiert die CPU 101 ”1” zum Wert der Intensität taktiler Wahrnehmung der Vibrationserzeugungseinrichtung 123. In S306 steuert die CPU 101 die Vibrationserzeugungseinrichtung 123, um die taktile Wahrnehmung mit der im Speicher 102 eingestellten Intensität taktiler Wahrnehmung zu vermitteln.
  • Als dritte Modifikation ist es ausreichend, dass die das Zeichnungsobjekt zeigenden handgeschriebenen Daten Information ist, die das Zeichnungsobjekt ausdrücken kann und die nicht auf die den Stifttyp und die Farbe jedes Satzes Koordinaten zeigende Information beschränkt ist. Als weiteres Beispiel können die handgeschriebenen Daten Informationen sein, die Information besitzen über eine Form und eine Größe einer Figur, eine Rotationsrichtung, und eine Position auf einem Bild, oder dergleichen.
  • Als vierte Modifikation kann das Touch-Panel 120 an einer vom Display 105 entfernten Position angeordnet sein. Auch in diesem Fall sind die Position auf dem Touch-Panel 120 und die Position auf dem Display 105 zueinander entsprechend zugeordnet. Die CPU 101 kann eine für die entsprechende Position auf dem Display 105 eingegebene Anweisung in Übereinstimmung mit der Berührungseingabe an jeder Position auf dem Touch-Panel 120 empfangen.
  • (Zweite Ausführungsform)
  • Anschließend wird die elektronische Vorrichtung 100 gemäß der zweiten Ausführungsform beschrieben. Im Fall des Löschens des durch die Malfunktion gezeichneten Zeichnungsobjekts steuert die elektronische Vorrichtung 100 gemäß der zweiten Ausführungsform den Typ taktiler Wahrnehmung, der erzeugt wird, auf der Basis vom Stifttyp des Zeichnungsobjekts als Löschziel. Die elektronische Vorrichtung 100 gemäß der zweiten Ausführungsform wird hiernach mit Bezug auf Teile beschrieben, die von der elektronischen Vorrichtung gemäß der ersten Ausführungsform verschieden sind.
  • 4 ist ein Flussdiagramm, das eine Steuerungsverarbeitung für taktile Wahrnehmung durch die elektronische Vorrichtung 100 gemäß der zweiten Ausführungsform illustriert. Unter den Verarbeitungen in der in 4 illustrierten Steuerungsverarbeitung für taktile Wahrnehmung werden im Wesentlichen dieselben Verarbeitungen wie jene in der Steuerungsverarbeitung für taktile Wahrnehmung gemäß der ersten Ausführungsform mit denselben Bezugszeichen bezeichnet.
  • In S303 unterscheidet die CPU 101, ob ein Zeichnungsobjekt an der Berührungsposition existiert oder nicht. Falls ein Zeichnungsobjekt existiert, bringt die CPU 101 die Verarbeitung zu S304 voran. Falls kein Zeichnungsobjekt existiert, bringt die CPU 101 die Verarbeitung zu S308 voran. Nach Abschluss der Verarbeitung von S304 bringt die CPU 101, die auch als Typspezifikationseinrichtung fungiert, die Verarbeitung zu S401 voran. In S401 spezifiziert die CPU 101 den Stifttyp (Linientyp) des an der Berührungsposition gezeichneten Zeichnungsobjekts (Typspezifikationsverarbeitung). Genauer gesagt spezifiziert die CPU 101 den Stifttyp entsprechend zu den in S302 erhaltenen Berührungskoordinaten im Speicher 102.
  • Anschließend in S402 legt die CPU 101, die auch als Typfestlegungseinrichtung fungiert, den Typ taktiler Wahrnehmung als ein Typ Objekt auf der Basis vom in S401 festgelegten Stifttyp fest (Typfestlegungsverarbeitung). Genauer gesagt legt die CPU 101 den Typ taktiler Wahrnehmung auf der Basis der Korrespondenztabelle zum Zuordnen des Stifttyps zum Typ taktiler Wahrnehmung fest. 5 ist ein Diagramm, das ein Beispiel für die Korrespondenztabelle illustriert. In einer in 5 illustrierten Korrespondenztabelle 501 ist der Typ taktiler Wahrnehmung ”rau” dem Stifttyp ”Bleistift” entsprechend zugeordnet. In der Korrespondenztabelle 501 ist der Typ taktiler Wahrnehmung ”kiesartig” dem Stifttyp ”Wachsmalstift” entsprechend zugeordnet, und der Typ taktiler Wahrnehmung ”pulverartig” ist dem Stifttyp ”Pinsel” entsprechend zugeordnet.
  • Zurück in 4 bringt die CPU 101 nach Abschluss der Verarbeitung von S402 die Verarbeitung zu S403 voran. In S403 steuert die CPU 101 die Erzeugungseinrichtung für taktile Wahrnehmung 122, um die taktile Wahrnehmung mit dem festgelegten Typ taktiler Wahrnehmung zu vermitteln (Steuerungsverarbeitung). Andererseits erzeugt die Erzeugungseinrichtung für taktile Wahrnehmung 122 die taktile Wahrnehmung (Vibration) mit dem festgelegten Typ taktiler Wahrnehmung (Erzeugungsverarbeitung für taktile Wahrnehmung).
  • Anschließend in S308 beendet die CPU 101 die Steuerungsverarbeitung für taktile Wahrnehmung, falls ABHEBEN detektiert wird (JA in S308). Falls ABHEBEN nicht detektiert wird (NEIN in S308), bringt die CPU 101 die Verarbeitung zu S309 voran.
  • Andere Ausführungen und Verarbeitungen der elektronischen Vorrichtung 100 gemäß der zweiten Ausführungsform sind ähnlich zu jenen der elektronischen Vorrichtung 100 gemäß der ersten Ausführungsform.
  • Wie oben erwähnt kann die elektronische Vorrichtung 100 gemäß der zweiten Ausführungsform den Typ taktiler Wahrnehmung gemäß dem Stifttyp (Linientyp) ändern. Daher kann die elektronische Vorrichtung 100 es dem Benutzer ermöglichen den Linientyp des Löschziels intuitiv zu erkennen.
  • Als Modifikation der zweiten Ausführungsform ist der von der CPU 101 in S401 festgelegte Typ Zeichnungsobjekt nicht auf den Stifttyp beschränkt. Als weiteres Beispiel kann die CPU 101 mindestens einen Farbton, eine Helligkeit und/oder eine Intensität des Zeichnungsobjekts als Typ Zeichnungsobjekt festlegen. In diesem Fall spezifiziert die CPU 101 den Typ taktiler Wahrnehmung durch Verweisen auf eine Korrespondenztabelle, in der der Farbton und dergleichen und der Typ taktiler Wahrnehmung einander entsprechend zugeordnet sind.
  • 6 ist ein Diagramm, das ein Beispiel für eine Korrespondenztabelle gemäß einer Modifikation der zweiten Ausführungsform illustriert. In einer in 6 illustrierten Korrespondenztabelle 601 ist der Typ taktiler Wahrnehmung ”rau” (R, G, B) = (0, 0, 0) (schwarz) entsprechend zugeordnet. In der Korrespondenztabelle 601 ist der Typ taktiler Wahrnehmung ”kiesartig” (R, G, B) = (255, 0, 0) (rot) entsprechend zugeordnet, und der Typ taktiler Wahrnehmung ”pulverartig” ist (R, G, B) = (0, 0, 255) (blau) entsprechend zugeordnet.
  • Als weitere Modifikation der zweiten Ausführungsform kann die CPU 101 eine Intensität des an der Berührungsposition gezeichneten Zeichnungsobjekts berechnen und die Intensität taktiler Wahrnehmung mit zunehmender Intensität steigern.
  • (Dritte Ausführungsform)
  • Anschließend wird die elektronische Vorrichtung 100 gemäß der dritten Ausführungsform beschrieben. Im Fall des Anwendens eines Verwischungsfilters am Zeichnungsobjekt steuert die elektronische Vorrichtung 100 gemäß der dritten Ausführungsform die Intensität taktiler Wahrnehmung auf der Basis von einem Verwischungsausmaß. Die elektronische Vorrichtung 100 gemäß der dritten Ausführungsform wird hiernach mit Bezug auf Teile beschrieben, die verschieden von den elektronischen Vorrichtungen gemäß der anderen Ausführungsformen sind.
  • 7 ist ein Flussdiagramm, das eine Steuerungsverarbeitung für taktile Wahrnehmung durch die elektronische Vorrichtung 100 gemäß der dritten Ausführungsform illustriert. Unter den Verarbeitungen in der in 7 illustrierten Steuerungsverarbeitung für taktile Wahrnehmung werden im Wesentlichen dieselben Verarbeitungen wie jene in der Steuerungsverarbeitung für taktile Wahrnehmung gemäß der ersten Ausführungsform mit denselben Bezugszeichen bezeichnet.
  • In S303 unterscheidet die CPU 101, ob ein Zeichnungsobjekt an der Berührungsposition existiert oder nicht. Falls ein Zeichnungsobjekt existiert, bringt die CPU 101 die Verarbeitung zu S701 voran. Falls kein Zeichnungsobjekt existiert, bringt die CPU 101 die Verarbeitung zu S308 voran. In S701 speichert die CPU 101 im Speicher 102 die handgeschriebenen Daten vom Zeichnungsobjekt, das nicht der Verwischungsverarbeitung unterzogen ist. Die handgeschriebenen Daten werden zum Vergleich mit den handgeschriebenen Daten vom nach der Verwischungsverarbeitung erhaltenen Zeichnungsobjekt benutzt.
  • Anschließend in S702 führt die CPU 101 die Verwischungsverarbeitung am an der Berührungsposition existierenden Zeichnungsobjekt und seinen Nachbar-Zeichnungsobjekten aus. Es wird angenommen, dass ein als Ziel der Verwischungsverarbeitung dienender Bereich als Bereich voreingestellt worden ist, in dem die Berührungsposition als Mittelpunkt vom zu verwischenden Bereich eingestellt wird.
  • Anschließend in S703 vergleicht die CPU 101 die Zeichnungsobjekte vor und nach der Verwischungsverarbeitung, wodurch ein Unterschied zwischen diesen berechnet wird. Genauer gesagt berechnet die CPU 101 einen Unterschied zwischen Farbinformation der Zeichnungsobjekte vor und nach der Verwischungsverarbeitung in Bezug auf jedes aus R, G und B. Die CPU 101 führt so eine Verarbeitung in Bezug auf alle Koordinaten im als Ziel der Verwischungsverarbeitung dienenden Bereich durch und berechnet als Unterschied eine Summe von Verarbeitungsergebnissen. Der Unterschied wird als Beispiel von einem Ausmaß einer Änderung zwischen den Zeichnungsobjekten vor und nach der Verwischungsverarbeitung (Editierverarbeitung) vom Zeichnungsobjekt gezeigt.
  • Anschließend in S704 legt die CPU 101 eine Intensität taktiler Wahrnehmung auf der Basis vom in S703 berechneten Unterschied fest (Festlegungsverarbeitung für Intensität taktiler Wahrnehmung). Genauer gesagt steigert die CPU 101 die Intensität taktiler Wahrnehmung mit größer werdendem Unterschied. Anschließend in S705 steuert (Steuerungsverarbeitung) die CPU 101 die Erzeugungseinrichtung für taktile Wahrnehmung 122, um die taktile Wahrnehmung mit der in S704 festgelegten Intensität taktiler Wahrnehmung zu vermitteln. Unter Steuerung der CPU 101 erzeugt die Erzeugungseinrichtung für taktile Wahrnehmung 122 eine zur festgelegten Intensität taktiler Wahrnehmung entsprechende Vibration, wodurch die taktile Wahrnehmung am Bedienmittel vermittelt wird (Erzeugungsverarbeitung für taktile Wahrnehmung).
  • Andere Ausführungen und Verarbeitungen der elektronischen Vorrichtung 100 gemäß der dritten Ausführungsform sind ähnlich zu jenen der elektronischen Vorrichtungen 100 gemäß der anderen Ausführungsformen.
  • Wie oben erwähnt legt die elektronische Vorrichtung 100 gemäß der dritten Ausführungsform die Intensität taktiler Wahrnehmung gemäß dem Änderungsausmaß von den Zeichnungsobjekten vor und nach der Verwischungsverarbeitung fest. Daher kann die elektronische Vorrichtung 100 es dem Benutzer ermöglichen das Änderungsausmaß aufgrund der Verwischungsverarbeitung intuitiv zu erkennen.
  • Allgemein nimmt, wenn der Verwischungsfilter viele Male am selben Abschnitt angewandt wird, eine Wirkung ab, die jedes Mal erhalten wird. Andererseits kann die elektronische Vorrichtung 100 gemäß der Ausführungsform die taktile Wahrnehmung gemäß dem Änderungsausmaß vermitteln. Daher kann der Benutzer intuitiv erkennen, ob es wirksam ist den Verwischungsfilter wiederholt anzuwenden oder nicht.
  • Als Modifikation der dritten Ausführungsform kann die Verwischungsverarbeitung von der Bildverarbeitungseinrichtung 104 anstelle der CPU 101 ausgeführt werden. In diesem Fall weist die CPU 101 die Verwischungsverarbeitung der Bildverarbeitungseinrichtung 104 zu. Die Bildverarbeitungseinrichtung 104 führt die Verwischungsverarbeitung in Antwort auf die Anweisung von der CPU 101 aus.
  • Als weitere Modifikation der dritten Ausführungsform kann die elektronische Vorrichtung 100 die Intensität taktiler Wahrnehmung in einer anderen Editierverarbeitung als die Verwischungsverarbeitung auf der Basis vom Änderungsausmaß der Zeichnungsobjekte vor und nach der Editierverarbeitung steuern.
  • Obwohl in der vorstehenden Ausführungsform ein Beispiel für die Verwischungsverarbeitung als Editierverarbeitung beschrieben worden ist, kann der Typ oder die Intensität der erzeugten taktilen Wahrnehmung beim Ausführen der Operation für verschiedene andere Typen Editierverarbeitungen wie etwa Kantenbetonungsverarbeitung, Farbumwandelverarbeitung, und dergleichen gemäß Eigenschaften des am berührten Abschnitt angezeigten Bilds geändert werden.
  • (Andere Ausführungsformen)
  • Ausführungsform(en) der vorliegenden Erfindung können auch durch einen Computer eines Systems oder Apparats realisiert werden, der auf einem Speichermedium (das vollständiger auch als ein ”nicht-flüchtiges computerlesbares Speichermedium” bezeichnet werden kann) aufgezeichnete computerausführbare Anweisungen (z. B. ein oder mehr Programme) ausliest und ausführt, um die Funktionen von einer oder mehr der oben beschriebenen Ausführungsform(en) durchzuführen, und/oder der ein oder mehr Schaltungen (z. B. eine anwenderspezifisch-integrierte Schaltung (ASIC)) beinhaltet zum Durchführen der Funktionen von einer oder mehr der oben beschriebenen Ausführungsform(en), sowie durch ein durch den Computer des Systems oder Apparats durchgeführtes Verfahren durch, zum Beispiel, Auslesen und Ausführen der computerausführbaren Anweisungen von dem Speichermedium, um die Funktionen von einer oder mehr der oben beschriebenen Ausführungsform(en) durchzuführen, und/oder Steuern der ein oder mehr Schaltungen, um die Funktionen von einer oder mehr der oben beschriebenen Ausführungsform(en) durchzuführen. Der Computer kann einen oder mehr Prozessoren umfassen (z. B. zentrale Verarbeitungseinheit (CPU), Mikroprozessoreinheit (MPU)) und kann ein Netzwerk von separaten Computern oder separaten Prozessoren enthalten, um die computerausführbaren Anweisungen auszulesen und auszuführen. Die computerausführbaren Anweisungen können dem Computer zum Beispiel von einem Netzwerk oder dem Speichermedium zur Verfügung gestellt werden. Das Speichermedium kann zum Beispiel eines oder mehr aus einer Festplatte, einem Speicher mit wahlfreiem Zugriff (RAM), einem Nur-Lese-Speicher (ROM), einem Speicher von verteilten Computersystemen, einer optischen Platte (wie etwa eine Compact Disc (CD), Digital Versatile Disc (DVD) oder Blu-ray Disc (BD)TM), einer Flashspeichervorrichtung, einer Speicherkarte, und dergleichen enthalten.
  • Obwohl die vorliegende Erfindung unter Bezugnahme auf Ausführungsformen beschrieben worden ist, ist selbstverständlich, dass die Erfindung nicht auf die offenbarten Ausführungsformen begrenzt ist. Es ist natürlich selbstverständlich, dass diese Erfindung oben nur über Beispiele beschrieben worden ist, und dass Detailmodifikationen innerhalb des Rahmens dieser Erfindung gemacht werden können.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2012-124612 [0002]

Claims (13)

  1. Bildverarbeitungsvorrichtung umfassend: eine Erzeugungseinrichtung für taktile Wahrnehmung, die konfiguriert ist einen Stimulus zu erzeugen, der von einem Benutzer bemerkt werden kann, der einen Abschnitt einer Eingabeeinrichtung berührt, wobei die Eingabeeinrichtung für eine Anzeigeeinrichtung zum Anzeigen eines Zeichnungsobjekts bereitgestellt ist; sowie eine Steuerungseinrichtung, die konfiguriert ist die Erzeugungseinrichtung für taktile Wahrnehmung so zu steuern, dass der Stimulus erzeugt wird, wenn eine Berührungseingabe an einer dem Zeichnungsobjekt entsprechenden Position durchgeführt wird und eine Editierverarbeitung am Zeichnungsobjekt ausgeführt wird.
  2. Bildverarbeitungsvorrichtung nach Anspruch 1, wobei die Editierverarbeitung eine Verarbeitung zum Löschen des Zeichnungsobjekts an der Position ist, wo die Berührungseingabe durchgeführt wird; und die Steuerungseinrichtung konfiguriert ist das Zeichnungsobjekt zu löschen und die Erzeugungseinrichtung für taktile Wahrnehmung so zu steuern, dass der Stimulus erzeugt wird.
  3. Bildverarbeitungsvorrichtung nach Anspruch 1, wobei die Editierverarbeitung eine Verarbeitung zum Ändern einer Farbe des Zeichnungsobjekts an der Position, wo die Berührungseingabe durchgeführt wird, in eine Hintergrundfarbe ist.
  4. Bildverarbeitungsvorrichtung nach Anspruch 1, wobei die Editierverarbeitung eine Verarbeitung zum Ändern einer Farbe des Zeichnungsobjekts an der Position, wo die Berührungseingabe durchgeführt wird, in eine durchsichtige Farbe ist.
  5. Bildverarbeitungsvorrichtung nach einem der Ansprüche 1 bis 4, weiterhin umfassend eine Festlegungseinrichtung für eine Intensität taktiler Wahrnehmung, die konfiguriert ist eine Intensität taktiler Wahrnehmung, die eine Intensität des Stimulus anzeigt, auf Basis einer Fläche eines Orts der Berührungseingabe festzulegen; und wobei die Steuerungseinrichtung konfiguriert ist die Erzeugungseinrichtung für taktile Wahrnehmung so zu steuern, dass eine taktile Wahrnehmung mit der von der Festlegungseinrichtung für eine Intensität taktiler Wahrnehmung festgelegten Intensität taktiler Wahrnehmung vermittelt wird.
  6. Bildverarbeitungsvorrichtung nach einem der Ansprüche 1 bis 5, weiterhin umfassend: eine Typspezifikationseinrichtung, die konfiguriert ist einen Typ des an der Position, wo die Berührungseingabe durchgeführt wird, gezeichneten Zeichnungsobjekts zu spezifizieren; sowie eine Typfestlegungseinrichtung, die konfiguriert ist einen Typ des Stimulus auf Basis des von der Typspezifikationseinrichtung spezifizierten Typs festzulegen; wobei die Steuerungseinrichtung konfiguriert ist die Erzeugungseinrichtung für taktile Wahrnehmung so zu steuern, dass der Stimulus mit dem von der Typfestlegungseinrichtung festgelegten Typ vermittelt wird.
  7. Bildverarbeitungsvorrichtung nach Anspruch 6, wobei die Typspezifikationseinrichtung konfiguriert ist einen Linientyp des Zeichnungsobjekts als den Typ des Zeichnungsobjekts zu spezifizieren.
  8. Bildverarbeitungsvorrichtung nach Anspruch 6, wobei die Typspezifikationseinrichtung konfiguriert ist mindestens einen Farbton, eine Helligkeit und/oder eine Intensität des Zeichnungsobjekts als den Typ des Zeichnungsobjekts zu spezifizieren.
  9. Bildverarbeitungsvorrichtung nach einem der Ansprüche 1 bis 8, weiterhin umfassend eine Festlegungseinrichtung für eine Intensität taktiler Wahrnehmung, die konfiguriert ist eine Intensität taktiler Wahrnehmung, die eine Intensität des Stimulus anzeigt, auf Basis eines Änderungsausmaßes des Zeichnungsobjekts vor und nach der Editierverarbeitung festzulegen; wobei die Steuerungseinrichtung konfiguriert ist die Erzeugungseinrichtung für taktile Wahrnehmung so zu steuern, dass eine taktile Wahrnehmung mit der von der Festlegungseinrichtung für eine Intensität taktiler Wahrnehmung festgelegten Intensität taktiler Wahrnehmung vermittelt wird.
  10. Steuerverfahren für taktile Wahrnehmung, das von einer Bildverarbeitungsvorrichtung ausgeführt wird, und umfasst: einen Erzeugungsschritt für taktile Wahrnehmung zum Erzeugen eines Stimulus, der von einem Benutzer bemerkt werden kann, der einen Abschnitt einer Eingabeeinrichtung berührt, wobei die Eingabeeinrichtung in Entsprechung zu einer Anzeigeeinrichtung zum Anzeigen eines Zeichnungsobjekts bereitgestellt ist; sowie ein Steuerungsschritt zum Steuern des Erzeugungsschritts für taktile Wahrnehmung derart, dass der Stimulus erzeugt wird, wenn eine Berührungseingabe an einer dem Zeichnungsobjekt entsprechenden Position durchgeführt wird und eine Editierverarbeitung am Zeichnungsobjekt ausgeführt wird.
  11. Steuerverfahren für taktile Wahrnehmung nach Anspruch 10, wobei die Editierverarbeitung eine Verarbeitung zum Löschen des Zeichnungsobjekts an der Position ist, wo die Berührungseingabe durchgeführt wird; und der Steuerungsschritt einen Schritt zum Steuern des Erzeugungsschritts für taktile Wahrnehmung derart, dass das Zeichnungsobjekt gelöscht wird und der Stimulus erzeugt wird, beinhaltet.
  12. Programm, das auf einer Vorrichtung laufend bewirkt, dass die Vorrichtung ein Verfahren nach Anspruch 10 oder Anspruch 11 ausführt.
  13. Computerlesbares Speichermedium, das ein Programm nach Anspruch 12 speichert.
DE102014018429.3A 2013-12-11 2014-12-11 Bildverarbeitungsvorrichtung, Steuerverfahren für taktile Wahrnehmung, und Aufzeichnungsmedium Pending DE102014018429A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013-256296 2013-12-11
JP2013256296A JP2015114836A (ja) 2013-12-11 2013-12-11 画像処理装置、触感制御方法及びプログラム

Publications (1)

Publication Number Publication Date
DE102014018429A1 true DE102014018429A1 (de) 2015-06-11

Family

ID=53185367

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102014018429.3A Pending DE102014018429A1 (de) 2013-12-11 2014-12-11 Bildverarbeitungsvorrichtung, Steuerverfahren für taktile Wahrnehmung, und Aufzeichnungsmedium

Country Status (7)

Country Link
US (1) US9507422B2 (de)
JP (1) JP2015114836A (de)
KR (1) KR101749126B1 (de)
CN (1) CN104714733B (de)
DE (1) DE102014018429A1 (de)
GB (1) GB2523875B (de)
RU (1) RU2618939C2 (de)

Families Citing this family (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9417754B2 (en) 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
WO2013169846A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for displaying additional information in response to a user contact
WO2013169875A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for displaying content associated with a corresponding affordance
JP6082458B2 (ja) 2012-05-09 2017-02-15 アップル インコーポレイテッド ユーザインタフェース内で実行される動作の触知フィードバックを提供するデバイス、方法、及びグラフィカルユーザインタフェース
WO2013169845A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for scrolling nested regions
WO2013169854A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object
WO2013169849A2 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for displaying user interface objects corresponding to an application
KR101956082B1 (ko) 2012-05-09 2019-03-11 애플 인크. 사용자 인터페이스 객체를 선택하는 디바이스, 방법, 및 그래픽 사용자 인터페이스
EP2847661A2 (de) 2012-05-09 2015-03-18 Apple Inc. Vorrichtung, verfahren und grafische benutzeroberfläche zum bewegen und ablegen eines benutzeroberflächenobjekts
KR101823288B1 (ko) 2012-05-09 2018-01-29 애플 인크. 제스처에 응답하여 디스플레이 상태들 사이를 전이하기 위한 디바이스, 방법, 및 그래픽 사용자 인터페이스
WO2013169842A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for selecting object within a group of objects
WO2013169865A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
WO2013169843A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for manipulating framed graphical objects
WO2013169851A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for facilitating user interaction with controls in a user interface
JP6093877B2 (ja) 2012-12-29 2017-03-08 アップル インコーポレイテッド 複数接触ジェスチャのために触知出力の生成を見合わせるためのデバイス、方法、及びグラフィカルユーザインタフェース
EP2939095B1 (de) 2012-12-29 2018-10-03 Apple Inc. Vorrichtung, verfahren und grafische benutzeroberfläche zur bewegung eines cursors gemäss einer veränderung des erscheinungsbildes eines steuerungssymbols mit simulierten dreidimensionalen eigenschaften
JP6138274B2 (ja) 2012-12-29 2017-05-31 アップル インコーポレイテッド ユーザインタフェース階層をナビゲートするためのデバイス、方法、及びグラフィカルユーザインタフェース
CN104903834B (zh) 2012-12-29 2019-07-05 苹果公司 用于在触摸输入到显示输出关系之间过渡的设备、方法和图形用户界面
WO2014105279A1 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for switching between user interfaces
CN107831991B (zh) 2012-12-29 2020-11-27 苹果公司 用于确定是滚动还是选择内容的设备、方法和图形用户界面
KR101542799B1 (ko) * 2013-12-10 2015-08-07 주식회사 하이딥 터치패널 제어장치 및 그의 제어 방법
US10048757B2 (en) 2015-03-08 2018-08-14 Apple Inc. Devices and methods for controlling media presentation
US9645732B2 (en) 2015-03-08 2017-05-09 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US9632664B2 (en) 2015-03-08 2017-04-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US9990107B2 (en) 2015-03-08 2018-06-05 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US10095396B2 (en) 2015-03-08 2018-10-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US9639184B2 (en) 2015-03-19 2017-05-02 Apple Inc. Touch input cursor manipulation
US9785305B2 (en) 2015-03-19 2017-10-10 Apple Inc. Touch input cursor manipulation
US20170045981A1 (en) 2015-08-10 2017-02-16 Apple Inc. Devices and Methods for Processing Touch Inputs Based on Their Intensities
US10067653B2 (en) 2015-04-01 2018-09-04 Apple Inc. Devices and methods for processing touch inputs based on their intensities
US9830048B2 (en) 2015-06-07 2017-11-28 Apple Inc. Devices and methods for processing touch inputs with instructions in a web page
US10200598B2 (en) 2015-06-07 2019-02-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10346030B2 (en) 2015-06-07 2019-07-09 Apple Inc. Devices and methods for navigating between user interfaces
US9674426B2 (en) 2015-06-07 2017-06-06 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9860451B2 (en) 2015-06-07 2018-01-02 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9891811B2 (en) 2015-06-07 2018-02-13 Apple Inc. Devices and methods for navigating between user interfaces
US10235035B2 (en) 2015-08-10 2019-03-19 Apple Inc. Devices, methods, and graphical user interfaces for content navigation and manipulation
US10416800B2 (en) 2015-08-10 2019-09-17 Apple Inc. Devices, methods, and graphical user interfaces for adjusting user interface objects
US10248308B2 (en) 2015-08-10 2019-04-02 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interfaces with physical gestures
US9880735B2 (en) 2015-08-10 2018-01-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
JP6758922B2 (ja) * 2016-06-01 2020-09-23 キヤノン株式会社 電子機器及びその制御方法
US10459519B2 (en) * 2017-01-19 2019-10-29 Google Llc Function allocation for virtual controller
US10895954B2 (en) * 2017-06-02 2021-01-19 Apple Inc. Providing a graphical canvas for handwritten input
JP6961451B2 (ja) * 2017-10-12 2021-11-05 キヤノン株式会社 電子機器、その制御方法およびプログラム
DK180081B1 (en) * 2018-06-01 2020-04-01 Apple Inc. Access to system user interfaces on an electronic device
CN109727300A (zh) * 2018-12-18 2019-05-07 Oppo广东移动通信有限公司 图像触感编辑方法、装置、终端及存储介质
JP7218567B2 (ja) * 2018-12-21 2023-02-07 京セラドキュメントソリューションズ株式会社 情報入力装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012124612A (ja) 2010-12-06 2012-06-28 Canon Inc 表示制御装置、表示制御方法、プログラム、並びに記憶媒体

Family Cites Families (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3329391B2 (ja) * 1991-01-22 2002-09-30 ソニー株式会社 文字入力装置および方法
JPH11187348A (ja) * 1997-12-22 1999-07-09 Matsushita Electric Ind Co Ltd 記録再生装置および再生装置
JP4531358B2 (ja) * 2003-07-10 2010-08-25 株式会社エヌ・ティ・ティ・ドコモ タッチパネルディスプレイ装置
US20060034481A1 (en) * 2003-11-03 2006-02-16 Farhad Barzegar Systems, methods, and devices for processing audio signals
US8751616B2 (en) * 2004-06-08 2014-06-10 Siemens Industry, Inc. System for accessing and browsing a PLC provided within a network
US20070270658A1 (en) * 2004-09-03 2007-11-22 Frederick Mitchell Quantum memory fusion
US7643008B2 (en) * 2005-02-23 2010-01-05 Nokia Corporation Changing keys drawn on a display and actuating them using a sensor-screen
US7680314B2 (en) * 2005-10-17 2010-03-16 Siemens Medical Solutions Usa, Inc. Devices, systems, and methods for improving image consistency
US8243031B2 (en) * 2006-04-17 2012-08-14 Kyocera Corporation Touch panel control device, picture-drawing device, display function-equipped coordinate input device, and touch position acquisition device
JP2008033739A (ja) * 2006-07-31 2008-02-14 Sony Corp 力覚フィードバックおよび圧力測定に基づくタッチスクリーンインターラクション方法および装置
US9501803B2 (en) * 2007-04-12 2016-11-22 Siemens Industry, Inc. Devices, systems, and methods for monitoring energy systems
JP2009015728A (ja) * 2007-07-06 2009-01-22 Sharp Corp 画像表示パネル装置
US8195844B2 (en) * 2007-09-20 2012-06-05 Siemens Aktiengesellschaft Systems, devices, and/or methods for managing communications
US20130217491A1 (en) * 2007-11-02 2013-08-22 Bally Gaming, Inc. Virtual button deck with sensory feedback
BRPI0804355A2 (pt) 2008-03-10 2009-11-03 Lg Electronics Inc terminal e método de controle do mesmo
KR20100050103A (ko) * 2008-11-05 2010-05-13 엘지전자 주식회사 맵 상에서의 3차원 개체 제어방법과 이를 이용한 이동 단말기
JP5369933B2 (ja) * 2009-06-25 2013-12-18 富士ゼロックス株式会社 位置指示具制御装置、位置指示装置、及びプログラム
US8502864B1 (en) * 2009-07-28 2013-08-06 Robert Watkins Systems, devices, and/or methods for viewing images
JP5645618B2 (ja) 2009-12-24 2014-12-24 キヤノン株式会社 情報処理装置、情報処理方法、およびプログラム
US9417695B2 (en) 2010-04-08 2016-08-16 Blackberry Limited Tactile feedback method and apparatus
US9501145B2 (en) * 2010-05-21 2016-11-22 Disney Enterprises, Inc. Electrovibration for touch surfaces
US20120327006A1 (en) 2010-05-21 2012-12-27 Disney Enterprises, Inc. Using tactile feedback to provide spatial awareness
US20150015489A1 (en) * 2010-06-01 2015-01-15 Vladimir Vaganov System and method for digital recording of handpainted, handdrawn and handwritten information
JP5656511B2 (ja) * 2010-08-26 2015-01-21 京セラ株式会社 表示装置
US20120182206A1 (en) * 2011-01-17 2012-07-19 Ronald Steven Cok Head-mounted display control with sensory stimulation
US9360938B2 (en) 2011-04-26 2016-06-07 Blackberry Limited Input device with tactile feedback
EP2518595B1 (de) 2011-04-26 2018-08-15 BlackBerry Limited Elektronisches Gerät und Verfahren zur Bereitstellung eines taktilen Feedbacks
KR102010206B1 (ko) * 2011-09-06 2019-08-12 임머숀 코퍼레이션 햅틱 출력 장치 및 햅틱 출력 장치에서 햅틱 효과를 생성하는 방법
US9159168B2 (en) * 2011-10-23 2015-10-13 Technion Research & Development Foundation Limited Methods and systems for generating a dynamic multimodal and multidimensional presentation
GB2497424B (en) * 2011-12-06 2014-02-19 E Vision Smart Optics Inc Systems, devices, and/or methods for providing images
US10289660B2 (en) * 2012-02-15 2019-05-14 Apple Inc. Device, method, and graphical user interface for sharing a content object in a document
JP5939005B2 (ja) * 2012-04-11 2016-06-22 株式会社リコー 情報処理装置、印刷制御装置、画像形成システム、印刷制御方法、及びプログラム
WO2013158456A1 (en) * 2012-04-17 2013-10-24 E-Vision Smart Optics, Inc. Systems, devices, and methods for managing camera focus
JP6132361B2 (ja) * 2012-04-27 2017-05-31 国立大学法人電気通信大学 ユーザインタフェース装置
US8737035B2 (en) 2012-05-18 2014-05-27 Disney Enterprises, Inc. Magnetically movable objects over a display of an electronic device
KR101905150B1 (ko) * 2012-07-17 2018-10-08 엘지전자 주식회사 이동 단말기
JP2014023061A (ja) * 2012-07-20 2014-02-03 Canon Inc 画像読取装置
JP6012068B2 (ja) * 2012-08-28 2016-10-25 日本電気株式会社 電子機器、その制御方法及びプログラム
KR102184288B1 (ko) 2013-01-17 2020-11-30 삼성전자주식회사 입력 유닛에 햅틱 효과를 제공하는 휴대 단말 및 방법
KR20160019468A (ko) * 2013-06-11 2016-02-19 임머숀 코퍼레이션 압력 기반 햅틱 효과들을 위한 시스템들 및 방법들

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012124612A (ja) 2010-12-06 2012-06-28 Canon Inc 表示制御装置、表示制御方法、プログラム、並びに記憶媒体

Also Published As

Publication number Publication date
RU2014150027A (ru) 2016-07-10
US9507422B2 (en) 2016-11-29
KR20150068292A (ko) 2015-06-19
GB201421605D0 (en) 2015-01-21
JP2015114836A (ja) 2015-06-22
CN104714733A (zh) 2015-06-17
GB2523875B (en) 2018-04-11
GB2523875A (en) 2015-09-09
US20150160729A1 (en) 2015-06-11
CN104714733B (zh) 2018-09-11
RU2618939C2 (ru) 2017-05-11
KR101749126B1 (ko) 2017-06-20

Similar Documents

Publication Publication Date Title
DE102014018429A1 (de) Bildverarbeitungsvorrichtung, Steuerverfahren für taktile Wahrnehmung, und Aufzeichnungsmedium
DE102012013368B4 (de) Mobilgerät und Verfahren zum Steuern von dessen Bildschirm
DE202013012272U1 (de) Einrichtung zur Steuerung einer Kamera
DE112010002760T5 (de) Benutzerschnittstelle
DE202016005219U1 (de) Benutzerschnittstelle zum Navigieren und Wiedergeben von Inhalt
DE202016003233U1 (de) Gerät und grafische Benutzerschnittstelle für die Navigation durch Medieninhalt
DE102008028223A1 (de) Modusabhängige Verarbeitung von Berührungsdaten
DE202016001483U1 (de) Geräte zur Steuerung einer Medienpräsentation
DE112013003647T5 (de) Gesten- und Berührungseingabeerfassung durch Kraftabtastung
CN103488388B (zh) 显示控制装置及其控制方法
DE112013006066T5 (de) Die Druckempfindlichkeit auf Multi-Touch-Einheiten emulieren
CN108733296B (zh) 书写笔迹的擦除方法、装置和设备
JP6289100B2 (ja) 情報処理装置、情報処理方法及びプログラム
DE102012014603A1 (de) System und Verfahren für den synchronisierten Betrieb einer Touch-vorrichtung
DE102015120619A1 (de) Bildanzeigevorrichtung und Bildanzeigeverfahren
DE112016005248T5 (de) Steuervorrichtung, Steuerverfahren und Programm
DE102011123068B3 (de) Bildaufnahmevorrichtung, die zum löschen eines auf einem bewegtbild überlagerten videoeffekts in der lage ist, verfahren zum steuern der vorrichtung, und bewegtbild-aufzeichnungsvorrichtung, sowie ein speichermedium
DE102020132113A1 (de) Elektronische Vorrichtung, Verfahren zur Steuerung einer elektronischen Vorrichtung, Programm und Speichermedium
EP2740021A1 (de) Methode und vorrichtung zur bestimmung eines bildausschnitts und auslösen von bilderfassungen mittels einer einzigen berührungsbasierten geste
DE102021120261A1 (de) Anzeigesteuervorrichtung und Steuerverfahren zur Steuerung dieser
CN104461351A (zh) 一种终端解锁的方法
DE112010005854T5 (de) Eingeben eines Befehls
DE102014012516A1 (de) Informationsverarbeitungsverfahren und elektrische Vorrichtung
WO2011089996A1 (ja) 画像処理装置及び電子機器
DE102023103963A1 (de) Elektronische Einrichtung, Verfahren zum Steuern der elektronischen Einrichtung und Programm

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication