DE102018002783A1 - Numerische Steuereinheit - Google Patents

Numerische Steuereinheit Download PDF

Info

Publication number
DE102018002783A1
DE102018002783A1 DE102018002783.0A DE102018002783A DE102018002783A1 DE 102018002783 A1 DE102018002783 A1 DE 102018002783A1 DE 102018002783 A DE102018002783 A DE 102018002783A DE 102018002783 A1 DE102018002783 A1 DE 102018002783A1
Authority
DE
Germany
Prior art keywords
key
unit
gesture
numerical control
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018002783.0A
Other languages
English (en)
Inventor
Shuuji Satou
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Publication of DE102018002783A1 publication Critical patent/DE102018002783A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/0202Constructional details or processes of manufacture of the input device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/0227Cooperation and interconnection of the input arrangement with other functional units of a computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0489Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using dedicated keyboard keys or combinations thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Input From Keyboards Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)
  • Numerical Control (AREA)

Abstract

Es ist eine numerische Steuereinheit vorgesehen, die in der Lage ist, eine Gestenfunktion des berührungsempfindlichen Bedienfeldes durch eine Tastatur zu ersetzen. Die numerische Steuereinheit führt eine Gestenoperation durch eine Tasteneingabe durch. Die numerische Steuereinheit beinhaltet: eine Tasteneingabeeinheit, die erste und zweite Tasten beinhaltet; eine Aktionspunkt-Bestimmungseinheit, die einen Aktionspunkt der Gestenoperation in Reaktion auf eine Eingabe der ersten Taste festlegt; und eine Einheit zum virtuellen Eingeben von Gesten, die in Reaktion auf eine Eingabe der zweiten Taste ein Gesteneingabesignal ausgibt, das die Gestenoperation angibt.

Description

  • Hintergrund der Erfindung
  • Gebiet der Erfindung
  • Die vorliegende Erfindung bezieht sich auf eine numerische Steuereinheit. Im Besonderen bezieht sich die vorliegende Erfindung auf eine numerische Steuereinheit, die in der Lage ist, eine Gestenfunktion eines berührungsempfindlichen Bedienfeldes durch eine Tastatur zu ersetzen.
  • Beschreibung der verwandten Technik
  • Es existiert eine numerische Steuereinheit, die mit einer Anzeigefunktion ausgestattet ist, die Dokumente und Zahlen vergrößern, verkleinern, verschieben und einen Bildlauf durchführen kann. Von diesen numerischen Steuereinheiten weisen einige berührungsempfindliche Bedienfelder vom Mehrfachberührungstyp auf, die in der Lage sind, eine Mehrzahl von Berührungspunkten zu erfassen. Eine Gestenfunktion eines Betriebssystems (OS, operating system) erkennt eine Geste wie zum Beispiel Verschieben, Spreizen/Zusammenführen von zwei Fingern und Drehen, die durch Benutzer auf den berührungsempfindlichen Bedienfeldern durchgeführt wird. Anschließend setzt die Anwendung eine Operation wie zum Beispiel Vergrößern, Verkleinern, Verschieben und Bildlauf entsprechend der erfassten Geste um.
  • Demgegenüber kann eine numerische Steuereinheit, die kein berührungsempfindliches Bedienfeld vom Mehrfachberührungstyp aufweist, eine Geste eines Benutzers nicht erfassen und kann daher die Funktion der Anwendung, die der Gestenfunktion entspricht, nicht nutzen. Zahlreiche numerische Steuereinheiten sind aufgrund der Schwierigkeit, ein berührungsempfindliches Bedienfeld unter rauen Arbeitsbedingungen zu bedienen, nicht mit einem berührungsempfindlichen Bedienfeld ausgestattet. Daher werden herkömmlich, wie in 8 veranschaulicht, Bedientasten zum unabhängigen Umsetzen von Funktionen wie zum Beispiel Vergrößern, Verkleinern, Verschieben und Bildlauf durch die Anwendung implementiert und auf einem Anwendungsbildschirm angeordnet, oder diese Funktionen werden Softkeys (Funktionstasten) zugewiesen, um eine Ausarbeitung vorzunehmen, die es einer numerischen Steuereinheit, die kein berührungsempfindliches Bedienfeld vom Mehrfachberührungstyp aufweist, ermöglicht, eine Operation durchzuführen.
  • Diese Ausarbeitung der Anwendung erhöht jedoch die Kosten der Anwendungsentwicklung. Darüber hinaus ist es wahrscheinlich, dass Unterschiede in den Benutzeroberflächen der jeweiligen Anwendung zu einer Abnahme der Bedienbarkeit führen. Daher wird eine Gestenfunktion, die nicht von einem berührungsempfindlichen Bedienfeld vom Mehrfachberührungstyp abhängig ist, vorzugsweise nicht einmalig für jede Anwendung, sondern auf einer den Anwendungen gemeinsamen Plattform umgesetzt. Die japanischen Patentanmeldungs-Offenlegungsschriften Nr. 2014-164368A und JP 5148547 B2 offenbaren Tastaturen, die, wenn ein Benutzer eine Operation zum Bewegen eines Fingers auf einer Tastenanordnungsfläche, auf der eine Mehrzahl von Tasten angeordnet ist, ähnlich wie auf einem berührungsempfindlichen Bedienfeld durchführt, diese Operation als Gesteneingabe erkennen.
  • Bei den japanischen Patentanmeldungs-Offenlegungsschriften Nr. 2014-164368 und JP 5148547 B2 bestehen jedoch insofern Probleme, als es schwierig ist, die Tastenausrichtungsfläche wie das berührungsempfindliche Bedienfeld reibungslos zu verfolgen. Es besteht darüber hinaus insofern ein Problem, als es aufgrund der Tastatur nicht einfach ist, einen Berührungspunkt auf dem Bildschirm zu bestimmen.
  • Übersicht über die Erfindung
  • Die vorliegende Erfindung ist gemacht worden, um die obigen Probleme zu lösen, und ein Ziel der vorliegenden Erfindung besteht darin, eine numerische Steuereinheit vorzusehen, die in der Lage ist, eine Gestenfunktion eines berührungsempfindlichen Bedienfeldes durch eine Tastatur zu ersetzen.
  • Eine numerische Steuereinheit gemäß einer Ausführungsform der vorliegenden Erfindung ist eine numerische Steuereinheit, die eine Gestenoperation durch eine Tasteneingabe durchführt, und beinhaltet: eine Tasteneingabeeinheit, die erste und zweite Tasten beinhaltet; eine Aktionspunkt-Bestimmungseinheit, die einen Aktionspunkt der Gestenoperation in Reaktion auf eine Eingabe der ersten Taste festlegt; und eine Einheit zum virtuellen Eingeben von Gesten, die in Reaktion auf eine Eingabe der zweiten Taste ein Gesteneingabesignal ausgibt, das die Gestenoperation angibt.
  • Die numerische Steuereinheit gemäß der Ausführungsform der vorliegenden Erfindung beinhaltet ferner eine Anzeigeeinheit, die einen Bildschirm anzeigt, der eine Mehrzahl von Bereichen beinhaltet, und die Tasteneingabeeinheit weist eine Mehrzahl der ersten Tasten auf, wobei eine der ersten Tasten und einer der Bereiche im Voraus verknüpft werden und die Aktionspunkt-Bestimmungseinheit den Aktionspunkt in dem im Voraus mit der ersten Taste verknüpften Bereich festlegt.
  • In der numerischen Steuereinheit gemäß der Ausführungsform der vorliegenden Erfindung beinhaltet die Einheit zum virtuellen Eingeben von Gesten eine erste Operation zum Auswählen eines Typs der Gestenoperation und eine zweite Operation zum Bestimmen eines Typs der Gestenoperation.
  • In der numerischen Steuereinheit gemäß der Ausführungsform der vorliegenden Erfindung ist die erste Operation ein Drücken der zweiten Taste, und die zweite Operation ist ein fortlaufendes Drücken der zweiten Taste über einen vorgegebenen Zeitraum.
  • Die numerische Steuereinheit gemäß der Ausführungsform der vorliegenden Erfindung beinhaltet ferner eine Modusumschalteinheit, die die Aktionspunkt-Bestimmungseinheit und die Einheit zum virtuellen Eingeben von Gesten aktiviert, und die Aktionspunkt-Bestimmungseinheit und die Einheit zum virtuellen Eingeben von Gesten werden aktiviert, um eine Operation der numerischen Steuereinheit zu einem Zeitpunkt der Eingaben der ersten und zweiten Tasten zu ändern.
  • Die numerische Steuereinheit gemäß der Ausführungsform der vorliegenden Erfindung beinhaltet ferner eine Anzeigeeinheit, die einen Bildschirm anzeigt, der eine Mehrzahl von Bereichen beinhaltet, und die Anzeigeeinheit zeigt in Reaktion auf die Eingabe der ersten Taste einen Cursor an dem Aktionspunkt an.
  • Die numerische Steuereinheit gemäß der Ausführungsform der vorliegenden Erfindung beinhaltet ferner eine Anzeigeeinheit, die einen Bildschirm anzeigt, der eine Mehrzahl von Bereichen beinhaltet, und die Anzeigeeinheit zeigt in Reaktion auf die Eingabe der zweiten Taste einen Cursor an, der der Gestenoperation entspricht.
  • Ein Verfahren gemäß der Ausführungsform der vorliegenden Erfindung ist ein Verfahren zum Durchführen einer Gestenoperation durch eine Tasteneingabe in eine numerische Steuereinheit und beinhaltet: Auswählen eines der Mehrzahl von auf einem Bildschirm angezeigten Bereichen durch eine Eingabe einer ersten Taste; Auswählen eines Typs der Gestenoperation durch eine Eingabe einer zweiten Taste; und Bestimmen eines Typs der Gestenoperation durch die Eingabe der zweiten Taste.
  • Gemäß der vorliegenden Erfindung ist es möglich, eine numerische Steuereinheit vorzusehen, die in der Lage ist, die Gestenfunktion des berührungsempfindlichen Bedienfeldes durch die Tastatur zu ersetzen.
  • Figurenliste
  • Die oben genannten und sonstige Aufgaben und Eigenschaften der vorliegenden Erfindung werden durch die Beschreibung der folgenden Ausführungsformen im Zusammenhang mit den beigefügten Zeichnungen besser ersichtlich. Von diesen Zeichnungen ist:
    • 1 eine Blockansicht, die eine Ausführung einer numerischen Steuereinheit veranschaulicht;
    • 2 eine Ansicht zum Erläutern des Betriebs einer Aktionspunkt-Bestimmungseinheit;
    • 3 eine Ansicht zum Erläutern des Betriebs der Einheit zum virtuellen Eingeben von Gesten;
    • 4 ein Ablaufplan, der einen Betrieb der numerischen Steuereinheit veranschaulicht;
    • 5 eine Ansicht, die eine Ausführungsform der numerischen Steuereinheit veranschaulicht;
    • 6 eine Ansicht, die die eine Ausführungsform der numerischen Steuereinheit veranschaulicht;
    • 7 ein Ablaufplan, der den Betrieb gemäß der einen Ausführungsform der numerischen Steuereinheit veranschaulicht; und
    • 8 eine Ansicht, die eine herkömmliche numerische Steuereinheit veranschaulicht.
  • Ausführliche Beschreibung der bevorzugten Ausführungsformen
  • Im Folgenden wird eine Ausführungsform der vorliegenden Erfindung unter Bezugnahme auf die Zeichnungen beschrieben.
  • 1 ist eine Blockansicht, die eine Ausführung einer numerischen Steuereinheit 100 gemäß der Ausführungsform der vorliegenden Erfindung veranschaulicht. Die numerische Steuereinheit 100 beinhaltet eine Modusumschalteinheit 110, eine Aktionspunkt-Bestimmungseinheit 120, eine Einheit 130 zum virtuellen Eingeben von Gesten, eine Tasteneingabeeinheit 140 und eine Anzeigeeinheit 150. Üblicherweise ist die numerische Steuereinheit 100 eine Informationsverarbeitungsvorrichtung, die eine Zentraleinheit (central processing unit, CPU), eine Speichervorrichtung und Eingabe-/Ausgabe-Vorrichtungen wie zum Beispiel eine Tastatur und eine Anzeige beinhaltet und die, wenn die CPU ein vorgegebenes Programm ausführt, jede Einheit umsetzt.
  • Eine Tasteneingabeeinheit 140 ist eine Benutzeroberfläche für eine Tasteneingabe und ist üblicherweise eine Tastatur mit einer Mehrzahl von physischen Tasten. Alternativ kann die Tasteneingabeeinheit 140 eine beliebige sonstige Benutzeroberfläche sein, die in der Lage ist, ein Tasteneingangssignal zu empfangen.
  • Die Anzeigeeinheit 150 ist eine Benutzeroberfläche, die von dem Betriebssystem und den Anwendungen ausgegebene Bildschirme anzeigt und bei der es sich üblicherweise um verschiedene Anzeigevorrichtungen handelt.
  • Die Modusumschalteinheit 110 ist eine Einheit, die zwischen einem Tastaturmodus und einem Bedienfeldmodus umschaltet. Genauer gesagt, schaltet die Modusumschalteinheit 110 ein Ausgabeziel eines Ausgangssignals von der Tasteneingabeeinheit 140 zu einem normalen Tastaturtreiber oder einem Treiber für ein virtuelles berührungsempfindliches Bedienfeld um, der in der vorliegenden Ausführungsform neu vorgesehen ist. Die Modusumschalteinheit 110 führt das oben beschriebene Umschalten beispielsweise dadurch aus, dass sie durch Drücken einer beliebigen in der Tasteneingabeeinheit 140 vorgesehenen Taste, Ausführen eines in der Anwendung implementierten Schaltbefehls oder Auswählen eines beliebigen Softkeys ausgelöst wird.
  • Die Aktionspunkt-Bestimmungseinheit 120 ist eine Einheit, die einen Aktionspunkt der Gestenoperation bestimmt. Der Aktionspunkt bezieht sich auf eine Koordinate, die als Bezugspunkt einer Anwendungsoperation dient, die in Reaktion auf die Gestenoperation durchgeführt wird. Beispielsweise ist im Hinblick auf eine allgemeine Bedienfeldoperation der Aktionspunkt ein Verschiebestartpunkt einer Verschiebeoperation oder ein Mittelpunkt von zwei durch einen Benutzer berührten Punkten des berührungsempfindlichen Bedienfeldes bei einer Operation eines Spreizens/Zusammenführens von zwei Fingern oder einer Drehoperation. Üblicherweise ist die Aktionspunkt-Bestimmungseinheit 120 als Teil des Treibers eines virtuellen berührungsempfindlichen Bedienfeldes implementiert und legt einen Aktionspunkt in Reaktion auf eine bestimmte Tasteneingabe in der Tasteneingabeeinheit 140 fest.
  • Ein Beispiel für eine Aktionspunkt-Festlegungsverarbeitung wird unter Bezugnahme auf 2 beschrieben. 2 veranschaulicht ein Beispiel für einen Bildschirm der numerischen Steuereinheit. In diesem Beispiel beinhaltet der Bildschirm fünf Fenster (vier Fenster mit den Fensterbezeichnungen „NC-Programm“, „absolute Koordinate“, „Bearbeitungssimulation“ und „Werkzeugdaten“ und ein Statusanzeigefenster in einem untersten Abschnitt), und jedes Fenster kann unabhängig arbeiten. Beispielsweise wird ein durch eine CAD-Anwendung ausgegebenes 3D-Modell in dem Fenster „Bearbeitungssimulation“ angezeigt und kann entsprechend der Benutzereingabe für einen Bildlauf, zum Vergrößern, zum Verkleinern oder zum Drehen bedient werden. Eine Programmliste wird in dem „NC-Programm“ angezeigt und kann entsprechend der Benutzereingabe für einen Bildlauf, zum Vergrößern und zum Verkleinern bedient werden. Folglich stellt jedes Fenster abhängig vom Inhalt verschiedene Operationen dar, die entsprechend jeder Gestenoperation ausgeführt werden.
  • Jedem dieser Fenster ist eine Sondertaste auf Grundlage einer Eins-zu-Eins-Beziehung zugewiesen. Es können Sondertasten wie zum Beispiel „Position“, „Programm“, „Werkzeugversatz“, „Graphik“ und „Nachricht“ zugewiesen werden, die für die numerische Steuereinheit spezifische Tasten sind. Auf diese Weise kann die vorliegende Erfindung auch leicht für numerische Steuereinheiten mit einer relativ geringen Anzahl von Tasten angewendet werden.
  • Es ist zu beachten, dass die vorliegende Erfindung nicht darauf beschränkt ist und eine beliebige Taste als Sondertaste verwendet werden kann. In der Aktionspunkt-Bestimmungseinheit 120 ist im Voraus eine Verknüpfung zwischen diesen Sondertasten und den Fenstern gespeichert. Wenn erfasst wird, dass die mit dem Fenster verknüpfte Sondertaste in dem Bedienfeldmodus gedrückt wird, legt die Aktionspunkt-Bestimmungseinheit 120 den Aktionspunkt zum Beispiel in der Mitte eines Anzeigebereichs des Fensters fest.
  • Wenngleich hier als Beispiel ein Bildschirm mit einer Mehrzahl von Fenstern beschrieben worden ist, ist die vorliegende Erfindung nicht darauf beschränkt. Die Aktionspunkt-Bestimmungseinheit 120 kann mithilfe einer Sondertaste einen beliebigen Anzeigebereich unter den Bildschirmen bestimmen, die eine Mehrzahl von Anzeigebereichen aufweisen, und den Aktionspunkt an einer beliebigen Position innerhalb des Bereichs festlegen. Hier können verschiedene Anwendungen in jedem Anzeigebereich arbeiten, oder eine einzige Anwendung kann eine Mehrzahl von Anzeigebereichen nutzen. Eine Mehrzahl von Anzeigebereichen braucht nicht zwingend unabhängig bedienbar zu sein und kann eine Verknüpfung oder eine Unterordnungsbeziehung aufweisen. Ferner ist es nicht erforderlich, dass eine Mehrzahl von Anzeigebereichen deutlich unterteilt ist, sodass der Benutzer die Anzeigebereiche erkennen kann. Selbst wenn die Bildschirmausgabe durch die Anwendung beispielsweise nur einen einzigen Anzeigebereich aufweist, unterteilt die Aktionspunkt-Bestimmungseinheit 120 den einzigen Bildschirmbereich intern in eine Mehrzahl von Abschnitten, und jedem Abschnitt können Tasten zugewiesen werden. Alternativ kann die Aktionspunkt-Bestimmungseinheit 120 in Reaktion auf eine vorgegebene Tasteneingabe eine Verarbeitung zum Festlegen der jeweiligen Aktionspunkte in sämtlichen Anzeigebereichen insgesamt ausführen.
  • Die Einheit 130 zum virtuellen Eingeben von Gesten ist eine Einheit, die die Tasteneingabe des Benutzers in eine Gestenoperation umwandelt und die Tasteneingabe des Benutzers an die Anwendung ausgibt. Die Gestenoperation bezieht sich zum Beispiel auf verschiedene Operationen wie etwa Verschieben, Spreizen/Zusammenführen von zwei Fingern und Drehen, die auf dem berührungsempfindlichen Bedienfeld durchgeführt werden. Üblicherweise wird die Einheit 130 zum virtuellen Eingeben von Gesten als Teil des Treibers für ein virtuelles berührungsempfindliches Bedienfeld implementiert, bestimmt eine entsprechende Gestenoperation in Reaktion auf die Tasteneingabe in der Tasteneingabeeinheit 140 und gibt ein Gesteneingabesignal, das angibt, dass die Gestenoperation an dem berührungsempfindlichen Bedienfeld durchgeführt worden ist, an die Anwendung aus. Vorzugsweise meldet die Einheit 130 zum virtuellen Eingeben von Gesten dem Benutzer durch Anzeigen der Gestenoperation auf dem Bildschirm die in Übereinstimmung mit der Tasteneingabe festgelegte Gestenoperation zurück.
  • Ein Beispiel für den Betrieb der Einheit 130 zum virtuellen Eingeben von Gesten wird unter Bezugnahme auf 3 beschrieben. Die Einheit 130 zum virtuellen Eingeben von Gesten speichert die Verknüpfung zwischen Tasteneingaben von der Tasteneingabeeinheit 140 und vorgegebenen Gestenoperationen im Voraus. Beispielsweise kann eine Verschiebeoperation in einer Linksrichtung mit einer Eingabe einer Linkspfeiltaste verknüpft sein. Eine Verschiebeoperation in einer Rechtsrichtung kann mit einer Eingabe einer Rechtspfeiltaste verknüpft sein. Eine Verschiebeoperation in einer Aufwärtsrichtung kann mit einer Eingabe einer Aufwärtspfeiltaste verknüpft sein. Eine Verschiebeoperation in einer Abwärtsrichtung kann mit einer Eingabe einer Abwärtspfeiltaste verknüpft sein. Eine Drehoperation in der Rechtsrichtung kann mit einem gleichzeitigen Drücken der Rechtspfeiltaste und der Aufwärtspfeiltaste verknüpft sein. Eine Drehoperation in der Linksrichtung kann mit einem gleichzeitigen Drücken der Linkspfeiltaste und der Abwärtspfeiltaste verknüpft sein. Eine Operation zum Spreizen von zwei Fingern kann mit einem gleichzeitigen Drücken der Rechtspfeiltaste und der Linkspfeiltaste verknüpft sein. Eine Operation zum Zusammenführen von zwei Fingern kann mit einem gleichzeitigen Drücken der Aufwärtspfeiltaste und der Abwärtspfeiltaste verknüpft sein. Es ist zu beachten, dass die vorliegende Erfindung nicht nur auf die hier beschriebene Verknüpfung beschränkt ist. Die Verknüpfung zwischen den Tasteneingaben und den Gestenoperationen kann beliebig festgelegt werden. Die vorliegende Ausführungsform wird in der Annahme der obigen Verknüpfung beschrieben.
  • Wenn keine Taste durch die Tasteneingabeeinheit 140 eingegeben wird, zeigt die Einheit 130 zum virtuellen Eingeben von Gesten einen Aufwärts-, Abwärts-, Links- und Rechtsmarkierungs-Cursor auf dem Bildschirm an. Vorzugsweise handelt es sich bei der Anzeigeposition um den oben genannten Aktionspunkt. Infolgedessen kann der Benutzer den aktuell festgelegten Aktionspunkt und einen Status einer Eingabebereitschaft für das der Gestenoperation entsprechende Tastensignal erkennen. Wenn die Linkspfeiltaste durch die Tasteneingabeeinheit 140 gedrückt wird, zeigt die Einheit 130 zum virtuellen Eingeben von Gesten den Linkspfeil-Cursor auf dem Bildschirm an. Vorzugsweise handelt es sich bei der Anzeigeposition um den oben genannten Aktionspunkt. Dementsprechend kann der Benutzer den aktuell festgelegten Aktionspunkt und den Status erkennen, dass das Tastensignal eingegeben wird, das der Verschiebeoperation in der Linksrichtung entspricht. In ähnlicher Weise zeigt die Einheit 130 zum virtuellen Eingeben von Gesten einen Rechtspfeil in Reaktion auf das Drücken der Rechtspfeiltaste, einen Aufwärtspfeil in Reaktion auf das Drücken der Aufwärtspfeiltaste und einen Abwärtspfeil in Reaktion auf das Drücken der Abwärtspfeiltaste auf dem Bildschirm an. Wenn gleichzeitig die Rechtspfeiltaste und die Aufwärtspfeiltaste durch die Tasteneingabeeinheit 140 gedrückt werden, zeigt die Einheit 130 zum virtuellen Eingeben von Gesten einen Rechtsdrehungs-Cursor auf dem Bildschirm an. Vorzugsweise handelt es sich bei der Anzeigeposition um den oben genannten Aktionspunkt. Dementsprechend kann der Benutzer den aktuell festgelegten Aktionspunkt und den Status erkennen, dass das Tastensignal eingegeben wird, das der Drehoperation in der Rechtsrichtung entspricht. In ähnlicher Weise zeigt die Einheit 130 zum virtuellen Eingeben von Gesten einen Linksdrehungs-Cursor in Reaktion auf ein gleichzeitiges Drücken der Linkspfeiltaste und der Abwärtspfeiltaste auf dem Bildschirm an. Wenn gleichzeitig die Linkspfeiltaste und die Rechtspfeiltaste durch die Tasteneingabeeinheit 140 gedrückt werden, zeigt die Einheit 130 zum virtuellen Eingeben von Gesten den Linkspfeil- und den Rechtspfeil-Cursor auf dem Bildschirm an. Vorzugsweise handelt es sich bei der Anzeigeposition um den oben genannten Aktionspunkt. Dementsprechend kann der Benutzer den aktuell festgelegten Aktionspunkt und den Status erkennen, dass das Tastensignal eingegeben wird, das der Operation zum Spreizen von zwei Fingern entspricht. In ähnlicher Weise kann die Einheit 130 zum virtuellen Eingeben von Gesten durch Anzeigen des Abwärtspfeil- und des Aufwärtspfeil-Cursors auf dem Bildschirm in Reaktion auf ein gleichzeitiges Drücken der Abwärtspfeiltaste und der Aufwärtspfeiltaste den Status anzeigen, dass das Tastensignal eingegeben wird, das der Operation zum Zusammenführen von zwei Fingern entspricht.
  • Vorzugsweise stellt die Einheit 130 zum virtuellen Eingeben von Gesten fest, ob die Tasteneingabe von der Tasteneingabeeinheit 140 über einen bestimmten Zeitraum hinweg andauert. Wenn die Tasteneingabe über einen bestimmten Zeitraum hinweg andauert, wandelt die Einheit 130 zum virtuellen Eingeben von Gesten die Tasteneingabe von der Tasteneingabeeinheit 140 in ein Signal um, das die Gestenoperation entsprechend der obigen Verknüpfung angibt. Das heißt, das der Tasteneingabe entsprechende Gesteneingabesignal wird erzeugt und an die Anwendung ausgegeben.
  • Wenn zum Beispiel erfasst wird, dass die Eingabe der Linkspfeiltaste über einen bestimmten Zeitraum hinweg oder länger andauert, erzeugt die Einheit 130 zum virtuellen Eingeben von Gesten ein Gesteneingabesignal, das der Verschiebeoperation in der Linksrichtung entspricht. Insbesondere setzt die Einheit 130 zum virtuellen Eingeben von Gesten, während die Linkstaste gedrückt wird, ein Ausgeben eines Berührungspunktes fort, während sie Koordinaten des Berührungspunktes zu jedem Zeitpunkt t um eine vorgegebene Strecke in der Linksrichtung verschiebt. Hier bezieht sich der Berührungspunkt auf die durch den Bedienfeldtreiber ausgegebenen Koordinaten, wenn eine Berührungsoperation auf dem berührungsempfindlichen Bedienfeld erfasst wird. An den Koordinaten t = 0 ist der ausgegebene Berührungspunkt ein Aktionspunkt. Wenn eine Bewegungsstrecke (d. h. eine Verschiebegeschwindigkeit) des Berührungspunktes je Zeiteinheit gleich k ist, ändert sich eine x-Koordinate des Berührungspunktes bei t = 1, 2, ..., und n um -k, -2k,... und -tk von dem Aktionspunkt als Startpunkt aus. k kann hier beliebig festlegbar sein. Wenn die Rechtspfeiltaste, die Aufwärtspfeiltaste und die Abwärtspfeiltaste über den bestimmten Zeitraum hinweg oder länger fortlaufend eingegeben werden, kann die Einheit 130 zum virtuellen Eingeben von Gesten in ähnlicher Weise ein Gesteneingabesignal ausgeben, das einer Verschiebeoperation in der Rechtsrichtung, der Aufwärtsrichtung und der Abwärtsrichtung entspricht. Wenn die Rechtspfeiltaste, die Aufwärtspfeiltaste, die Linkspfeiltaste und die Abwärtspfeiltaste über den bestimmten Zeitraum hinweg oder länger fortlaufend eingegeben werden, kann die Einheit 130 zum virtuellen Eingeben von Gesten ferner ein Gesteneingabesignal ausgeben, das einer Drehoperation in der Rechtsrichtung und der Linksrichtung entsprechend diesen Pfeiltasten entspricht. Wenn die Linkspfeiltaste, die Rechtspfeiltaste, die Abwärtspfeiltaste und die Aufwärtspfeiltaste über den bestimmten Zeitraum hinweg oder länger fortlaufend eingegeben werden, kann die Einheit 130 zum virtuellen Eingeben von Gesten ferner ein Gesteneingabesignal ausgeben, das den Operationen zum Zusammenführen und Spreizen von zwei Fingern entsprechend diesen Pfeiltasten entspricht.
  • Auf diese Weise kann die Einheit 130 zum virtuellen Eingeben von Gesten durch Aktivieren der Gestenoperation, wenn die Tasteneingabe über den bestimmten Zeitraum hinweg oder länger andauert, zwischen einer normalen Tasteneingabe und einer Tasteneingabe zum Durchführen der Gestenoperation unterscheiden. Das heißt, es ist möglich, ein normales Tasteneingabesignal für eine Tasteneingabe auszugeben, die kürzer als der bestimmte Zeitraum andauert, und ein Gesteneingabesignal für eine Tasteneingabe auszugeben, die über den bestimmten Zeitraum hinweg oder länger andauert. Dadurch wird ermöglicht, die Gestenoperation mithilfe der Tastatur auch in numerischen Steuereinheiten mit einer geringen Anzahl von Tasten durchzuführen.
  • Ein Betriebsablauf der numerischen Steuereinheit 100 wird unter Bezugnahme auf einen Ablaufplan von 4 beschrieben.
  • S1: Die Modusumschalteinheit 110 schaltet den Tastaturtreiber in Reaktion auf eine vorgegebene Tasteneingabe von dem Tastaturmodus, der den normalen Tastaturtreiber verwendet, in den Bedienfeldmodus um, der den Treiber für ein virtuelles berührungsempfindliches Bedienfeld verwendet.
  • S2: Die Aktionspunkt-Bestimmungseinheit 120 erfasst eine Eingabe einer Sondertaste und legt einen Aktionspunkt einer Gestenoperation fest. Beispielsweise legt die Aktionspunkt-Bestimmungseinheit 120 den Aktionspunkt in der Mitte des mit der Sondertaste verknüpften Fensters fest. Zu diesem Zeitpunkt zeigt die Anzeigeeinheit 150 den Cursor an dem Aktionspunkt an.
  • S3: Die Einheit 130 zum virtuellen Eingeben von Gesten erfasst eine Eingabe der Aufwärts-, Abwärts-, Links- oder Rechtspfeiltaste und erzeugt ein Gesteneingabesignal und gibt dieses aus. Zu diesem Zeitpunkt zeigt die Anzeigeeinheit 150 den Cursor, der einen Typ der Gestenoperation angibt, an dem Aktionspunkt an.
  • S4: Das durch die Einheit 130 zum virtuellen Eingeben von Gesten ausgegebene Gesteneingabesignal wird der Anwendung bereitgestellt. In der Anwendung wird eine Funktion oder eine Operation umgesetzt, die dem durch die Einheit 130 zum virtuellen Eingeben von Gesten ausgegebenen Gesteneingabesignal entspricht.
  • Im Folgenden wird die Ausführungsform der numerischen Steuereinheit 100 unter Bezugnahme auf 5 und 6 beschrieben. Wie in 4 veranschaulicht, weist die numerische Steuereinheit 100 gemäß der vorliegenden Ausführungsform eine Tastatur als Tasteneingabeeinheit 140 und eine Anzeigevorrichtung als Anzeigeeinheit 150 auf. Als Modusumschalteinheit 110 wird eine auf der Tastatur vorgesehene Modusumschalttaste verwendet. Darüber hinaus werden die Tasten „Position“, „Programm“, „Werkzeugversatz“, „Graphik“ und „Nachricht“ auf der Tastatur durch die Aktionspunkt-Bestimmungseinheit 120 verwendet. Diese fünf Tasten sind jeweils mit den fünf auf der Anzeige angezeigten Fenstern verknüpft und werden zum Festlegen von Aktionspunkten in diesen Fenstern verwendet. Darüber hinaus werden die Aufwärts-, Abwärts-, Links- und Rechtspfeiltasten auf der Tastatur durch die Einheit 130 zum virtuellen Eingeben von Gesten verwendet.
  • Wie in 5 veranschaulicht, beinhaltet die numerische Steuereinheit 100 üblicherweise ein Betriebssystem, den Tastaturtreiber, die Anwendung und einen gemeinsam genutzten RAM. Der Tastaturtreiber weist integrierte Funktionen des normalen Tastaturtreibers und des Treibers für ein virtuelles berührungsempfindliches Bedienfeld auf und schaltet, wenn die Modusumschalttaste eingegeben wird, den Tastaturmodus, der als normaler Tastaturtreiber arbeitet, und den Bedienfeldmodus um, der als Treiber für ein virtuelles berührungsempfindliches Bedienfeld arbeitet. Das heißt, wenn der Bedienfeldmodus aktiviert wird, aktiviert der Tastaturtreiber den Treiber für ein virtuelles berührungsempfindliches Bedienfeld. Auf diese Weise setzt der Tastaturtreiber die Funktion der Modusumschalteinheit 110 um. Es ist zu beachten, dass der Tastaturtreiber in dem Bedienfeldmodus eine Eingabe einer Aufwärts-, Abwärts-, Links- und Rechtspfeiltaste möglicherweise ausschließlich dem Treiber für ein virtuelles berührungsempfindliches Bedienfeld bereitstellt, ohne die Eingabe dem normalen Tastaturtreiber bereitzustellen. Wie oben beschrieben, kann alternativ entsprechend einer Eingabedauer der Aufwärts-, Abwärts-, Links- und Rechtspfeiltaste bestimmt werden, welchem Treiber die Eingabe bereitgestellt wird.
  • Wenn eine jeweilige Taste (im Folgenden als Bildschirmauswahltaste bezeichnet) für „Position“, „Programm“, „Werkzeugversatz“, „Graphik“ und „Nachricht“ im Bedienfeldmodus eingegeben wird, legt der Tastaturtreiber darüber hinaus den Aktionspunkt in jedem mit jeder Bildschirmauswahltaste verknüpften Fenster fest. Auf diese Weise setzt der Tastaturtreiber die Funktion der Aktionspunkt-Bestimmungseinheit 120 um. Wenn die Aufwärts-, Abwärts-, Links- und Rechtspfeiltaste in dem Bedienfeldmodus eingegeben wird, erzeugt der Tastaturtreiber ferner ein entsprechendes Gesteneingabesignal und gibt das Gesteneingabesignal an das Betriebssystem aus. Auf diese Weise setzt der Tastaturtreiber die Funktion der Einheit 130 zum virtuellen Eingeben von Gesten um.
  • Das Betriebssystem gibt ein von dem Tastaturtreiber ausgegebenes Tasteneingabesignal oder Gesteneingabesignal an die Anwendung aus. Das heißt, das Betriebssystem gibt ein Operationsereignis wie zum Beispiel Verschieben, Drehen, oder Spreizen/Zusammenführen von zwei Fingern an die Anwendung aus.
  • Die Anwendung führt eine vorgegebene Operation entsprechend dem von dem Betriebssystem bezogenen Tasteneingabesignal oder Gesteneingabesignal aus. Die dem Gesteneingabesignal zugewiesene Funktion oder Operation kann für jede Anwendung beliebig implementiert sein. Wenn zum Beispiel ein Gesteneingabesignal eines vertikalen Verschiebens erfasst wird, kann die Anwendung, die eine Programmliste anzeigt, eine Operation für einen vertikalen Bildlauf der Programmliste durchführen. Wenn darüber hinaus das Gesteneingabesignal eines horizontalen Verschiebens erfasst wird, kann die Anwendung die Funktion eines Umschaltens eines Systems des Inhalts, der angezeigt wird, ausführen. Wenn ein Gesteneingabesignal des vertikalen Verschiebens erfasst wird, kann die Anwendung, die die Werkzeugdaten anzeigt, eine Operation zum Erhöhen oder Verringern einer Werkzeugnummer durchführen. Wenn das Gesteneingabesignal des horizontalen Verschiebens erfasst wird, kann die Anwendung ferner die Funktion eines Umschaltens eines Werkzeugtyps ausführen.
  • Der gemeinsam genutzte RAM ist ein Speicherbereich, der zum gemeinsamen Nutzen von Informationen durch das Betriebssystem oder die Anwendung und den Tastaturtreiber verwendet werden kann. Beispielsweise schreibt das Betriebssystem oder die Anwendung eine Fensteranzeigeposition (z. B. einen Satz von Koordinaten, der zwei Endpunkte eines rechteckigen Bereichs angibt) in den gemeinsam genutzten RAM, wenn aktuell das Fenster auf der Anzeigevorrichtung angezeigt wird. Wenn eine Mehrzahl von Fenstern angezeigt wird, wird jede Fensteranzeigeposition in den gemeinsam genutzten RAM geschrieben. Beim Festlegen des Aktionspunktes kann der Tastaturtreiber zum Beispiel auf den gemeinsam genutzten RAM Bezug nehmen, die mit der Sondertaste verknüpfte Fensteranzeigeposition beziehen und einen Aktionspunkt auf Grundlage der Anzeigeposition berechnen.
  • Ein Betriebsablauf der numerischen Steuereinheit 100 gemäß der vorliegenden Ausführungsform wird unter Bezugnahme auf einen Ablaufplan von 7 beschrieben.
  • S11: Beim Anzeigen des Bildschirms (Fensters) schreibt das Betriebssystem oder die Anwendung eine Bildschirmanzeigeposition in den gemeinsam genutzten RAM.
  • S12: Der Tastaturtreiber schaltet jedes Mal, wenn die Modusumschalttaste auf der Tastatur gedrückt wird, den Modus des Tastaturtreibers wechselseitig zwischen dem Tastaturmodus und dem Bedienfeldmodus um. Wenn der Modus in den Bedienfeldmodus umgeschaltet wird, wird der Treiber für ein virtuelles berührungsempfindliches Bedienfeld aktiviert.
  • S13: Der Treiber für ein virtuelles berührungsempfindliches Bedienfeld überwacht regelmäßig einen Status der Bildschirmauswahltaste. Wenn er das Drücken der Bildschirmauswahltaste erfasst, liest der Treiber für ein virtuelles berührungsempfindliches Bedienfeld die mit der gedrückten Bildschirmauswahltaste verknüpfte Bildschirmposition aus dem gemeinsam genutzten RAM aus. Ferner erhält der Treiber für ein virtuelles berührungsempfindliches Bedienfeld den Mittelpunkt des Bildschirms auf Grundlage der bezogenen Bildschirmposition und legt den Mittelpunkt als Aktionspunkt fest. Ferner zeigt der Treiber für ein virtuelles berührungsempfindliches Bedienfeld einen vorgegebenen Cursor an dem Mittelpunkt an. Auf diese Weise zeigt der Treiber für ein virtuelles berührungsempfindliches Bedienfeld dem Benutzer die Position des Aktionspunktes und den Bedienfeldmodus an.
  • S14: Der Treiber für ein virtuelles berührungsempfindliches Bedienfeld überwacht regelmäßig den Status der Pfeiltaste. Wenn erfasst wird, dass die Pfeiltaste über einen bestimmten Zeitraum hinweg fortlaufend gedrückt wird, erzeugt der Treiber für eine virtuelle Berührung ein mit der gedrückten Pfeiltaste verknüpftes Gesteneingabesignal und gibt das Gesteneingabesignal wiederholt an das Betriebssystem aus.
  • S15: Beim Erhalten des Gesteneingabesignals gibt das Betriebssystem ein Operationsereignis an die Anwendung aus.
  • S16: Die Anwendung führt eine Funktion oder eine Operation entsprechend dem Operationsereignis aus.
  • Gemäß der vorliegenden Ausführungsform erkennt der Treiber für ein virtuelles berührungsempfindliches Bedienfeld den Aktionspunkt der Gestenoperation und die Gestenoperation auf Grundlage des Eingangssignals von der Tastatur und wandelt den Aktionspunkt der Gestenoperation und die Gestenoperation in das Eingabesignal um, das die Gestenoperation angibt. Auf diese Weise können selbst numerische Steuereinheiten, die kein berührungsempfindliches Bedienfeld aufweisen, die mit einem berührungsempfindlichen Bedienfeld kompatible Funktion der Anwendung leicht nutzen. Darüber hinaus können in sämtlichen Anwendungen gemeinsame Gestenoperationen durch gemeinsame Tasteneingaben durchgeführt werden, sodass die Bedienbarkeit verbessert wird. Darüber hinaus können Entwicklungskosten gesenkt werden, da eine individuelle Ausarbeitung auf der Anwendungsseite unnötig ist.
  • Es ist zu beachten, dass die vorliegende Erfindung nicht auf die oben beschriebene Ausführungsform beschränkt ist und in geeigneter Weise verändert werden kann, ohne vom Umfang der Erfindung abzuweichen. Innerhalb des Umfangs der Erfindung ermöglicht die vorliegende Erfindung eine Modifizierung beliebiger Bestandteile der Ausführungsform oder ein Weglassen eines beliebigen Bestandteils der Ausführungsform.
  • Beispielsweise beinhaltet die vorliegende Erfindung ein Zuweisen von beliebigen Tasteneingaben zu verschiedenen Gestenoperationen, die in der obigen Ausführungsform nicht erwähnt werden. Das heißt, die oben beschriebene Ausführungsform hat das Beispiel beschrieben, in dem die Aufwärts-, Abwärts-, Links- und Rechtspfeiltaste oder Kombinationen von diesen Gestenoperationen wie zum Beispiel Verschieben, Drehen und Spreizen/Zusammenführen von zwei Fingern zugewiesen sind. Die Gestenoperation ist jedoch nicht auf diese beschränkt. Darüber hinaus können andere Tasten als die Aufwärts-, Abwärts-, Links- und Rechtspfeiltaste oder Kombinationen von diesen beliebigen Gesten zugewiesen werden.
  • Ferner hat die oben beschriebene Ausführungsform das Beispiel beschrieben, in dem der Aktionspunkt in der Mitte des Anzeigebereichs festgelegt wird, der durch die Aktionspunkt-Bestimmungseinheit 120 ausgewählt wird. Die Position des Aktionspunktes kann jedoch beliebig festgelegt werden. Beispielsweise werden häufig Textdaten auf einer linken Seite eines Bildschirms beschrieben. Daher erleichtert eine Anwendung, die Textdaten anzeigt, Inhalt visuell zu erkennen, indem sie einen Aktionspunkt am linken Ende des Bildschirms festlegt, selbst wenn eine Vergrößerungs-/Verkleinerungs-Operation durchgeführt wird.
  • Oben ist die Ausführungsform der vorliegenden Erfindung beschrieben worden. Die vorliegende Erfindung ist jedoch nicht auf das Beispiel der obigen Ausführungsform beschränkt und kann durch Hinzufügen optionaler Änderungen in verschiedenen Arten ausgeführt werden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2014164368 A [0004]
    • JP 5148547 B2 [0004, 0005]
    • JP 2014164368 [0005]

Claims (8)

  1. Numerische Steuereinheit zum Durchführen einer Gestenoperation durch eine Tasteneingabe, wobei die numerische Steuereinheit aufweist: eine Tasteneingabeeinheit, die erste und zweite Tasten beinhaltet; eine Aktionspunkt-Bestimmungseinheit, die einen Aktionspunkt der Gestenoperation in Reaktion auf eine Eingabe der ersten Taste festlegt; und eine Einheit zum virtuellen Eingeben von Gesten, die in Reaktion auf eine Eingabe der zweiten Taste ein Gesteneingabesignal ausgibt, das die Gestenoperation angibt.
  2. Numerische Steuereinheit nach Anspruch 1, die ferner eine Anzeigeeinheit aufweist, die einen Bildschirm anzeigt, der eine Mehrzahl von Bereichen beinhaltet, wobei die Tasteneingabeeinheit eine Mehrzahl der ersten Tasten aufweist, eine der ersten Tasten und einer der Bereiche im Voraus verknüpft werden, und die Aktionspunkt-Bestimmungseinheit den Aktionspunkt in dem im Voraus mit der ersten Taste verknüpften Bereich festlegt.
  3. Numerische Steuereinheit nach Anspruch 1, wobei die Einheit zum virtuellen Eingeben von Gesten beinhaltet: eine erste Operation zum Auswählen eines Typs der Gestenoperation, und eine zweite Operation zum Bestimmen eines Typs der Gestenoperation.
  4. Numerische Steuereinheit nach Anspruch 3, wobei die erste Operation ein Drücken der zweiten Taste ist, und die zweite Operation ein fortlaufendes Drücken der zweiten Taste über einen vorgegebenen Zeitraum ist.
  5. Numerische Steuereinheit nach Anspruch 1, die ferner eine Modusumschalteinheit aufweist, die die Aktionspunkt-Bestimmungseinheit und die Einheit zum virtuellen Eingeben von Gesten aktiviert, wobei die Aktionspunkt-Bestimmungseinheit und die Einheit zum virtuellen Eingeben von Gesten aktiviert werden, um eine Operation der numerischen Steuereinheit zu einem Zeitpunkt der Eingaben der ersten und zweiten Tasten zu ändern.
  6. Numerische Steuereinheit nach Anspruch 1, die ferner eine Anzeigeeinheit aufweist, die einen Bildschirm anzeigt, der eine Mehrzahl von Bereichen beinhaltet, wobei die Anzeigeeinheit in Reaktion auf die Eingabe der ersten Taste einen Cursor an dem Aktionspunkt anzeigt.
  7. Numerische Steuereinheit nach Anspruch 1, die ferner eine Anzeigeeinheit aufweist, die einen Bildschirm anzeigt, der eine Mehrzahl von Bereichen beinhaltet, wobei die Anzeigeeinheit in Reaktion auf die Eingabe der zweiten Taste einen Cursor anzeigt, der der Gestenoperation entspricht.
  8. Verfahren zum Durchführen einer Gestenoperation durch eine Tasteneingabe in einer numerischen Steuereinheit, wobei das Verfahren aufweist: Auswählen eines der Mehrzahl von auf einem Bildschirm angezeigten Bereichen durch eine Eingabe einer ersten Taste; Auswählen eines Typs der Gestenoperation durch eine Eingabe einer zweiten Taste; und Bestimmen eines Typs der Gestenoperation durch die Eingabe der zweiten Taste.
DE102018002783.0A 2017-04-13 2018-04-06 Numerische Steuereinheit Pending DE102018002783A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-079845 2017-04-13
JP2017079845A JP6496345B2 (ja) 2017-04-13 2017-04-13 数値制御装置

Publications (1)

Publication Number Publication Date
DE102018002783A1 true DE102018002783A1 (de) 2018-10-18

Family

ID=63679088

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018002783.0A Pending DE102018002783A1 (de) 2017-04-13 2018-04-06 Numerische Steuereinheit

Country Status (4)

Country Link
US (1) US10895978B2 (de)
JP (1) JP6496345B2 (de)
CN (1) CN108733224B (de)
DE (1) DE102018002783A1 (de)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5148547B2 (de) 1972-08-01 1976-12-21
JP2014164368A (ja) 2013-02-22 2014-09-08 Nec Corp 入力支援装置、キーボード、情報処理端末、入力支援方法、及びプログラム

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7154480B2 (en) 2002-04-30 2006-12-26 Kazuho Iesaka Computer keyboard and cursor control system with keyboard map switching system
ES2444648T3 (es) * 2005-08-30 2014-02-26 Lg Electronics Inc. Conjunto de teclas táctiles para un terminal móvil
JP2007233504A (ja) * 2006-02-28 2007-09-13 Toshiba Corp 情報処理装置及び光投射制御方法
JP5162839B2 (ja) * 2006-03-29 2013-03-13 カシオ計算機株式会社 表示装置及びプログラム
JP4763633B2 (ja) * 2007-02-28 2011-08-31 株式会社エヌ・ティ・ティ・ドコモ 情報処理装置及びプログラム
KR100930563B1 (ko) * 2007-11-06 2009-12-09 엘지전자 주식회사 휴대 단말기 및 그 휴대 단말기의 방송채널 또는 방송채널 리스트 전환 방법
US20100085313A1 (en) * 2008-10-07 2010-04-08 Research In Motion Limited Portable electronic device and method of secondary character rendering and entry
JP5148547B2 (ja) * 2009-04-17 2013-02-20 レノボ・シンガポール・プライベート・リミテッド キーボードからジェスチャ入力が可能なコンピュータ
US8471814B2 (en) * 2010-02-26 2013-06-25 Microsoft Corporation User interface control using a keyboard
US8698764B1 (en) * 2010-06-30 2014-04-15 Amazon Technologies, Inc. Dorsal touch input
US9582187B2 (en) * 2011-07-14 2017-02-28 Microsoft Technology Licensing, Llc Dynamic context based menus
EP2776908A4 (de) * 2011-11-09 2015-07-15 Blackberry Ltd Verfahren und vorrichtung für berührungsempfindliche anzeige
EP2776909A4 (de) * 2011-11-11 2015-09-02 Qualcomm Inc Bereitstellung von einer tastatur zugeordneten shortcuts
US20140215375A1 (en) * 2013-01-30 2014-07-31 Apple Inc. Presenting shortcuts to provide computer software commands
US20140218372A1 (en) 2013-02-05 2014-08-07 Apple Inc. Intelligent digital assistant in a desktop environment
US20140267029A1 (en) * 2013-03-15 2014-09-18 Alok Govil Method and system of enabling interaction between a user and an electronic device
WO2015061761A1 (en) * 2013-10-24 2015-04-30 Fleksy, Inc. User interface for text input and virtual keyboard manipulation
CN103605471B (zh) 2013-10-25 2019-10-15 小米科技有限责任公司 单手控制方法、装置及手持设备
KR20150118813A (ko) * 2014-04-15 2015-10-23 삼성전자주식회사 햅틱 정보 운용 방법 및 이를 지원하는 전자 장치
CN105472111A (zh) 2014-09-03 2016-04-06 中兴通讯股份有限公司 一种触屏终端的按键功能切换方法及装置
CN104360713B (zh) * 2014-11-14 2018-04-27 合肥鑫晟光电科技有限公司 一种便携设备
KR20160071932A (ko) * 2014-12-12 2016-06-22 삼성메디슨 주식회사 화상 촬영 장치 및 화상 촬영 장치의 제어 방법
US9645732B2 (en) * 2015-03-08 2017-05-09 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
KR20170066916A (ko) * 2015-12-07 2017-06-15 삼성전자주식회사 전자 장치 및 그의 제어 방법
US10776006B2 (en) * 2018-06-03 2020-09-15 Apple Inc. Systems and methods for activating and using a trackpad at an electronic device with a touch-sensitive display and no force sensors

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5148547B2 (de) 1972-08-01 1976-12-21
JP2014164368A (ja) 2013-02-22 2014-09-08 Nec Corp 入力支援装置、キーボード、情報処理端末、入力支援方法、及びプログラム

Also Published As

Publication number Publication date
CN108733224B (zh) 2021-03-05
US10895978B2 (en) 2021-01-19
US20180300053A1 (en) 2018-10-18
JP2018180950A (ja) 2018-11-15
CN108733224A (zh) 2018-11-02
JP6496345B2 (ja) 2019-04-03

Similar Documents

Publication Publication Date Title
DE102009011687B4 (de) Berührungsereignismodell
DE69032645T2 (de) Datenverarbeitungssystem mit auf Gesten basierenden Eingabedaten
DE69129265T2 (de) Bildverschiebungssteuerung und Verfahren
DE69429237T2 (de) Benutzerschnittstelnlevorrichtung für Rechnersystem
DE102008000001B4 (de) Integrierte Hardware- und Softwarebenutzerschnittstelle
DE69230095T2 (de) Bildfensterverwaltung von verbundenen Anwendungen
DE19744861A1 (de) Verfahren zum Einsatz einer dreidimensionalen Mouse im WINDOWS-Betriebssystem
DE102010036906A1 (de) Konfigurierbares Pie-Menü
WO2017144298A1 (de) Benutzerschnittstelle mit mehreren anzeigen und verfahren zur positionierung von inhalten auf mehreren anzeigen
DE112013006066T5 (de) Die Druckempfindlichkeit auf Multi-Touch-Einheiten emulieren
DE202007019347U1 (de) Bildschirm-Tastfeld-Anzeigevorrichtung
DE202017105614U1 (de) Systeme und Computerprogrammprodukte für eine Touchscreen-Benutzeroberfläche eines kollaborativen Bearbeitungstools
DE112013006924T5 (de) Programmierbare Anzeigevorrichtung und Bildschirmbedienungsverarbeitungsprogramm hierfür
DE102012014603A1 (de) System und Verfahren für den synchronisierten Betrieb einer Touch-vorrichtung
DE102015218963A1 (de) Steuerverfahren, Steuervorrichtung und elektronische Vorrichtung
DE102012220062A1 (de) Einstellung mehrerer benutzereingabeparameter
DE102012211163A1 (de) Verfahren zum Empfangen einer Eingabe auf einem berührungsempfindlichen Feld
DE102015105022B4 (de) Datenverarbeitungsverfahren und Elektronikgerät
DE10084249T5 (de) Zusätzliches LCD-Feld mit Sensorbildschirm
EP2310935B1 (de) Verfahren zur vergrösserung eines darstellungsbereichs auf einer darstellungseinrichtung
DE102018002783A1 (de) Numerische Steuereinheit
DE102016204692A1 (de) Steuerung der Mehrfachauswahl auf berührungsempfindlichen Flächen
EP1308832A2 (de) Elektronisches Gerät
EP1881398B1 (de) Verfahren zur Positionierung eines Cursors auf einem berührungsempfindlichen Bildschirm
DE102008017832A1 (de) Eingabevorrichtung zur Ansteuerung von Elementen grafischer Benutzerschnittstellen

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: WUESTHOFF & WUESTHOFF, PATENTANWAELTE PARTG MB, DE

R012 Request for examination validly filed
R016 Response to examination communication