KR20110125382A - Touch screen system - Google Patents

Touch screen system Download PDF

Info

Publication number
KR20110125382A
KR20110125382A KR1020100044873A KR20100044873A KR20110125382A KR 20110125382 A KR20110125382 A KR 20110125382A KR 1020100044873 A KR1020100044873 A KR 1020100044873A KR 20100044873 A KR20100044873 A KR 20100044873A KR 20110125382 A KR20110125382 A KR 20110125382A
Authority
KR
South Korea
Prior art keywords
touch
unit
tap
signal
action map
Prior art date
Application number
KR1020100044873A
Other languages
Korean (ko)
Inventor
이기완
Original Assignee
(주)누리봄
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)누리봄 filed Critical (주)누리봄
Priority to KR1020100044873A priority Critical patent/KR20110125382A/en
Publication of KR20110125382A publication Critical patent/KR20110125382A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PURPOSE: A touch screen system using an action map is provided to maximize the utilization of an application program by embodying an action map in which is able to be modified. CONSTITUTION: A touch sensor(110) recognizes a touch signal. A control unit(120) outputs a keyboard device signal or a keyboard and mouse device signal. An action map unit(130) determines an output signal according to the touch gesture of the touch signal by classifying the touch signal. The monitoring program of a host computer(210) is mapped with the gesture of the action map unit by sensing the utilization of a specific application program.

Description

터치스크린 시스템{Touch screen system}Touch screen system

본 발명은 터치시크린 시스템에 관한 것으로, 특정 제스쳐를 통해 마우스 조작과 키보드 조작을 병행할 수 있는 기술에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a touchscreen system, and more particularly, to a technology capable of performing a mouse operation and a keyboard operation through a specific gesture.

컴퓨터에 특정한 입력신호를 보내는 방식으로는 일반적인 디바이스인 마우스와 키보드를 이용하여 마우스신호 또는 키보드의 단일 입력신호를 구현하거나, 이 둘의 신호를 조합하여 컴퓨터의 프로그램을 구동 조작을 수행하는 것이 일반적이다.As a method of sending a specific input signal to a computer, it is common to implement a single input signal of a mouse signal or a keyboard using a mouse and a keyboard, which are common devices, or to drive a computer program by combining the two signals. .

일반적으로 터치스크린은 기존의 키보드 또는 마우스를 대체하여 특정 컴퓨터에 입력신호를 구현하는 장치이다. 구체적으로는 터치스크린에 구비되는 다양한 터치신호를 입력받은 센서군(이하, 터치센서라 한다)에서 입력하는 것으로, 컴퓨터는 터치스크린의 터치센서를 종래의 마우스 디바이스로 인식하며, 따라서 터치스크린에서 입력되는 터치신호를 마우스의 조작신호로 대체인식하는 방식으로 구동된다. 즉 터치센서에서 보내는 좌표값 신호(마우스신호)를 컴퓨터에서 수신하여 이를 OS를 통해 좌표값으로 변환하는 과정을 거쳐서 인식을 하게 된다. 그러나 이러한 방식은 터치센서를 통해 마우스 조작만을 가능하게 함으로써, 키보드 조작이 불편해 지는 조작의 한계를 갖는 문제가 발생한다.In general, a touch screen is a device that implements an input signal to a specific computer by replacing an existing keyboard or mouse. Specifically, the touch sensor inputs various touch signals included in the touch screen (hereinafter referred to as a touch sensor), and the computer recognizes the touch sensor of the touch screen as a conventional mouse device, and thus inputs the touch screen. The touch signal is driven in such a manner that the touch signal is replaced with the operation signal of the mouse. In other words, the computer receives the coordinate value signal (mouse signal) sent from the touch sensor and converts the coordinate value signal to the coordinate value through the OS. However, such a method enables only a mouse operation through a touch sensor, thereby causing a problem in that the operation of the keyboard becomes inconvenient.

또는, HID를 통해 데이터를 보내고, 컴퓨터측 프로그램(드라이버)에서 해당하는 마우스 동작 또는 터치동작으로 변환하여 컴퓨터 조작을 위한 신호처리를 수행하게 되는 방식으로 구동이되기도 한다. 이 역시 키보드 조작이 불편한 문제가 있다.Alternatively, data may be transmitted through the HID, and may be driven in a manner of performing signal processing for computer manipulation by converting the data into a corresponding mouse movement or touch movement in a computer-side program (driver). This also has a problem that the keyboard operation is inconvenient.

어느 경우이던, 기존의 터치센서는 터치상태를 고정된 마우스 신호로 정의함으로써, 사용자의 활용폭을 극히 제한하는 문제가 있으며, 컴퓨터측에 프로그램을 설치하여야 하는 설비적 또는 비용적 불편함이 수반되게 된다.In any case, the existing touch sensor defines a touch state as a fixed mouse signal, which greatly limits the user's application range, and comes with the inconvenience of installing a program on the computer side. .

본 발명은 상술한 문제를 해결하기 위하여 안출된 것으로, 본 발명의 목적은 터치스크린에서 특정 제스쳐를 통해 마우스 조작과 키보드 조작을 병행하여 사용할 수 있는 터치센서 및 제어유닛을 제공하며, 이를 통해 컴퓨터에서는 터치센서를 마우스 디바이스와 키보드 디바이스로 각각 인식하여 동작함으로써, 별도의 프로그램을 컴퓨터에 설치할 필요가 없으며, OS의 영향을 받지 않고 종래의 프로그램의 동작을 그대로 사용할 수 있어 사용의 편의성을 증대할 수 있는 터치스크린 시스템을 제공하는 데 있다.The present invention has been made to solve the above problems, an object of the present invention to provide a touch sensor and a control unit that can be used in parallel with the mouse operation and keyboard operation through a specific gesture on the touch screen, through which the computer By recognizing and operating the touch sensor as a mouse device and a keyboard device, there is no need to install a separate program on the computer, and it is possible to increase the convenience of use since the operation of the conventional program can be used without being affected by the OS. To provide a touch screen system.

또한, 터치센서에 가해지는 특정한 동작(제스쳐)를 사용자가 수정가능한 액션맵(Action Map)으로 구현하고, 이에 따라 대응되는 특정 결과를 매칭시킬 수 있도록 함으로써, 터치센서를 이용한 응용프로그램의 활용성을 극대화할 수 있는 터치스크린을 제공하는 데에 본 발명의 또 다른 목적이 있다.In addition, by implementing a specific action (gesture) applied to the touch sensor as a user-modifiable action map (Action Map), thereby matching the corresponding specific result, it is possible to utilize the application program using the touch sensor Another object of the present invention to provide a touch screen that can be maximized.

본 발명은 상술한 과제를 해결하기 위한 수단으로서, 호스트컴퓨터와 연동되어 터치입력을 통해 상기 호스트컴퓨터의 구동을 스크린상에서 동시에 구현하는 터치스크린에 있어서, 상기 터치스크린은 입력되는 터치신호를 인식하는 터치센서;와 상기 터치센서에서 입력된 신호를 키보드디바이스 신호 또는 키보드 및 마우스 디바이스 신호로 출력하는 제어부;를 포함하여 이루어지는 것을 특징으로 하는 터치스크린 시스템을 제공할 수 있도록 한다.According to an aspect of the present invention, there is provided a touch screen for simultaneously implementing a driving of the host computer on a screen through a touch input in conjunction with a host computer, wherein the touch screen is a touch for recognizing an input touch signal. And a controller for outputting a signal input from the touch sensor as a keyboard device signal or a keyboard and mouse device signal.

특히, 상술한 시스템에서의 상기 제어부는, 상기 터치센서에서 입력되는 터치신호를 분류하여, 상기 터치신호에서 입력되는 터치동작별로 결과동작이 달라지는 출력신호를 정의하는 액션맵(Action Map)부를 구비하도록 구현할 수 있다.In particular, the control unit in the above-described system, to classify the touch signal input from the touch sensor, so as to have an action map (Action Map) unit for defining an output signal of the result operation is different for each touch operation input from the touch signal Can be implemented.

이 경우, 상기 액션맵부는, 하나의 터치유닛에 대한 동작으로서 단일 무브(single move), 단일 텝(single tap), 단일 더블텝(single double tap), 단일 롱텝(long tap)으로 정의하는 제1맵핑부; 둘 이상의 터치유닛에 대한 동작으로서, 무브, 탭, 더블텝, 롱텝으로 정의하는 제2맵핑부; 하나의 터치유닛을 터치한 상태에서 다른 터치유닛의 동작을 텝, 더블텝, 롱텝으로 정의하는 제3맵핑부; 터치유닛간의 거리의 근원에 따라 줌인 및 줌아웃의 동작이나 터치유닛의 회전상태의 동작을 정의하는 제4맵핑부;중 어느 하나 이상을 포함하여 구성될 수 있다.In this case, the action map unit may define a single move, a single tap, a single double tap, and a single long tap as an operation for one touch unit. A mapping unit; An operation for two or more touch units, comprising: a second mapping unit defined as a move, a tap, a double tap, and a long tap; A third mapping unit defining an operation of another touch unit as a tap, double tap, or long tap while touching one touch unit; And a fourth mapping unit defining an operation of zooming in and zooming out or an operation of a rotation state of the touch unit according to the source of the distance between the touch units.

또한, 본 발명에 따른 시스템의 구성에서 상기 호스트컴퓨터는, 특정 응용프로그램의 활성화를 감지하여 미리 설정된 상기 액션맵부의 제스쳐와 매칭시키는 모니터링프로그램부를 더 포함하여 구성되거나, 특정 응용프로그램이 활성화 되는 경우, 기설정된 상기 액션맵부를 상기 응용프로그램에 적용시키며, 상기 특정응용프로그램이 종료하는 경우, 상기 액션맵부를 기본값으로 복원하는 런쳐프로그램부를 더 포함하여 구성될 수 있다.In addition, in the configuration of the system according to the present invention, the host computer further comprises a monitoring program unit for detecting the activation of a specific application program and matching the gesture of the action map unit set in advance, or when a specific application program is activated, The predetermined action map unit may be applied to the application program. When the specific application terminates, the launcher program unit may be configured to restore the action map unit to a default value.

본 발명에 따르면, 터치스크린에서 특정 제스쳐를 통해 마우스 조작과 키보드 조작을 병행하여 사용할 수 있는 터치센서 및 제어유닛을 제공하며, 이를 통해 컴퓨터에서는 터치센서를 마우스 디바이스와 키보드 디바이스로 각각 인식하여 동작함으로써, 별도의 프로그램을 컴퓨터에 설치할 필요가 없으며, OS의 영향을 받지 않고 종래의 프로그램의 동작을 그대로 사용할 수 있어 사용의 편의성을 증대할 수 있는 효과가 있다.According to the present invention, there is provided a touch sensor and a control unit that can be used in parallel with a mouse operation and a keyboard operation through a specific gesture on the touch screen, through which the computer recognizes and operates the touch sensor as a mouse device and a keyboard device, respectively. There is no need to install a separate program on the computer, and the operation of the conventional program can be used as it is without being influenced by the OS, thereby increasing convenience of use.

특히, 터치센서에 가해지는 특정한 동작(제스쳐)를 사용자가 수정가능한 액션맵(Action Map)으로 구현하고, 이에 따라 대응되는 특정 결과를 매칭시킬 수 있도록 함으로써, 터치센서를 이용한 응용프로그램의 활용성을 극대화할 수 있는 효과도 있다.In particular, by implementing a specific action (gesture) to the touch sensor as a user-modifiable action map (Action Map), and thereby to match the corresponding specific results, by utilizing the application of the touch sensor There is also an effect that can be maximized.

도 1은 본 발명에 따른 전체 구성을 도시한 구성 블럭도이다.
도 2는 본 발명에 따른 액션맵부의 적용을 도시한 개념도이다.
도 3은 본 발명에 따른 일 실시예로서 모니터링프로그램부와 액션맵부의 구동을 도시한 개념도이다.
도 4는 본 발명에 따른 일 실시예로서 런쳐프로그램부와 액션맵부의 구동을 도시한 개념도이다.
1 is a block diagram showing the overall configuration according to the present invention.
2 is a conceptual diagram illustrating the application of the action map unit according to the present invention.
3 is a conceptual diagram illustrating driving of a monitoring program unit and an action map unit according to an embodiment of the present invention.
4 is a conceptual diagram illustrating driving of the launcher program unit and the action map unit according to an embodiment of the present invention.

이하에서는 첨부한 도면을 참조하여 본 발명에 따른 구성 및 작용을 구체적으로 설명한다. 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성요소는 동일한 참조부여를 부여하고, 이에 대한 중복설명은 생략하기로 한다. 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Hereinafter, with reference to the accompanying drawings will be described in detail the configuration and operation according to the present invention. In the description with reference to the accompanying drawings, the same components are given the same reference numerals regardless of the reference numerals, and duplicate description thereof will be omitted. The terms first, second, etc. may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another.

본 발명은 터치스크린의 입력신호를 인식하는 호스트컴퓨터에서 기존의 마우스 장비로만 인식하던 방식과는 달리, 키보드와 마우스 장비로 인식할 수 있도록 하는 기술을 제공하는 것을 요지로 한다.The present invention is to provide a technology that can be recognized by the keyboard and mouse equipment, unlike the way that the host computer that recognizes the input signal of the touch screen only recognized by the existing mouse equipment.

도 1은 본 발명에 따른 전체적인 구성 블럭도이다.1 is a block diagram of the overall configuration according to the present invention.

본 발명은 호스트컴퓨터(200)와 연동되어 터치입력을 통해 상기 호스트컴퓨터의 구동을 스크린상에서 동시에 구현하는 터치스크린(100)을 기본 구조로 하며, 특히 상기 터치스크린(100)은 입력되는 터치신호를 인식하는 터치센서(110)와 상기 터치센서(110)에서 입력된 신호를 키보드디바이스 신호 또는 키보드 및 마우스 디바이스 신호로 출력하는 제어부(120)를 포함하여 구성된다.The present invention has a basic structure of a touch screen 100 which is linked to a host computer 200 and simultaneously implements driving of the host computer on a screen through a touch input. In particular, the touch screen 100 receives an input touch signal. And a controller 120 that outputs the recognized touch sensor 110 and a signal input from the touch sensor 110 as a keyboard device signal or a keyboard and mouse device signal.

상기 터치스크린(100)은 터치입력을 감지하여 터치신호를 출력할 수 있는 다양한 구조의 장비를 포괄하는 개념이며, 상기 터치센서(100)는 스크린 상에 입력되는 외부의 터치를 감지하여 전기적 신호로 변환하여 출력하는 다양한 방식의 장비를 포함한다. 예를 들면 저항막방식의 터치센서라 전하충전식 터치센서를 포함한다. 즉, 압력에 반응하는 센서라인의 집합체일 수 있으며, 나아가 표면에 전하를 충전하고 그 둘레에 센서들을 구비한 구조로 형성되건, 촉각센서를 이용한 구조, 또는 터치스크린의 인식면에 광원을 조사하고 터치되는 물체를 촬상하여 인지하는 방식등 다양한 방식이 접목될 수 있다.The touch screen 100 is a concept encompassing equipment having various structures capable of detecting a touch input and outputting a touch signal, and the touch sensor 100 detects an external touch input on the screen as an electrical signal. It includes a variety of equipment to convert and output. For example, a resistive touch sensor includes a charge-charge touch sensor. That is, it may be a collection of sensor lines responding to pressure, and may be formed of a structure in which a charge is charged to a surface and sensors are formed around the structure, or a light source is irradiated to a structure using a tactile sensor or a recognition surface of a touch screen. Various methods, such as a method of sensing and recognizing a touched object, may be combined.

상기 제어부(120)는 상기 터치센서에서 입력된 신호를 키보드디바이스 신호 또는 키보드 및 마우스 디바이스 신호로 출력하는 기능을 수행한다. The controller 120 outputs a signal input from the touch sensor as a keyboard device signal or a keyboard and mouse device signal.

즉, 종래에는 터치스크린을 통해 마우스조작을 수행하는 것이 대부분이며, 컴퓨터에서는 터치스크린의 터치센서를 마우스 디바이스로 인식하고, 동작을 하게 된다. 또는 종래의 터치스크린을 통해 마우스 조작을 수행하는 경우, 터치스크린의 터치센서로부터 터치 정볼르 받은 컴퓨터측(driver)은 해당하는 마우스 동작 또는 터치 동작으로 처리를 수행하게 되어, 어느 경우이던 키보드 조작이 불편한 문제가 있음은 상술한 바 있다. 본 발명에서는 이를 해결하기 위해, 상기 터치스크린(100)에서 특정 제스쳐(입력동작)를 통해 입력을 하는 경우에, 이 입력신호를 마우스 조작과 키보드 조작을 병행하여 사용하고, 이에 따라 상기 제어부(120)에서는 입력되는 터치신호를 호스트 컴퓨터에 전달하는 경우, 상기 호스트 컴퓨터(200)는 상기 터치스크린(100)의 터치센서(110)를 마우스 디바이스와 키보드 디바이스로 각각 인식하여 동작하게 된다. 즉 종래 처럼 별도로 컴퓨터 측에 프로그램을 설치하지 않고도 키보드와 마우스 동작을 구현할 수 있게 된다.That is, in the related art, a mouse operation is mostly performed through a touch screen, and a computer recognizes a touch sensor of the touch screen as a mouse device and operates. Alternatively, when performing a mouse operation through a conventional touch screen, the computer driver receiving touch information from the touch sensor of the touch screen performs a process by a corresponding mouse operation or touch operation, and thus, keyboard operation in any case is performed. As mentioned above, there is an uncomfortable problem. In order to solve the problem, in the present invention, when the touch screen 100 is input through a specific gesture (input operation), the input signal is used in parallel with a mouse operation and a keyboard operation. In the case of transmitting an input touch signal to the host computer, the host computer 200 recognizes the touch sensor 110 of the touch screen 100 as a mouse device and a keyboard device, respectively. That is, the keyboard and the mouse can be implemented without installing a program on the computer side as in the prior art.

이를 테면, 상술한 본 발명에서의 특정 제스쳐의 적용예로는 손가락 1개로 동작을 구현하도록 터치하는 경우에는 기존의 마우스(mouse)의 왼쪽버튼의 조작과 동일한 기능을 수행하게 되나, 손가락이 2개 이상을 이용하여 터치를 하는 경우에, 손가락을 터치하여 상하로 움직이면 마우스 휠의 동작과 동일한 동작을 하도록 하며, 좌우로 터치하여 움직이면 종래의 키보드의 alt+left와 마우스의 오른쪽 버튼을 이용하여 신호를 입력하는 것과 동일한 기능을 수행하게 된다. 또는, 손가락 2개를 서로 멀리하거나 가까이하면 키보드의 control 키와 마우스의 휠로 확대 축소하는 동작을 구현할 수 있도록 제어할 수 있다.(종래에는 터치상태를 고정된 마우스의 신호로만 정의하여, 사용자의 활용폭을 제한하고 있다. 즉 손가락 한번 터치는 마우스의 왼쪽 버튼을 클릭한 동작으로 정의하고, 손가락을 오래누르는 동작을 하는 경우에는 마우스의 오른쪽 버튼을 클릭한 것으로 정의하여 활용도가 떨어지게 된다.)For example, in the above-described application of the specific gesture in the present invention, when a touch is performed to implement an operation with one finger, the same function as the operation of the left button of the existing mouse is performed, but two fingers are used. In the case of touching by using the above, when the finger is moved up and down by touching the finger, the operation is the same as the operation of the mouse wheel. It will perform the same function as typing. Alternatively, when two fingers are far from or close to each other, the control key of the keyboard and the wheel of the mouse can be controlled to implement an operation of zooming in and out (in the past, the touch state is defined only as a fixed mouse signal. In other words, one finger touch is defined as the action of clicking the left button of the mouse, and when the finger is pressed for a long time, it is defined that the right button of the mouse is clicked.

또한, 본 발명에 따른 제어부(120)는 터치센서에서 입력되는 터치신호를 분류하여, 상기 터치신호에서 입력되는 터치동작별로 결과동작이 달라지는 출력신호를 정의하는 액션맵(Action Map)부(130)를 더 구비하는 구성으로 형성할 수 있다.In addition, the control unit 120 according to the present invention classifies the touch signal input from the touch sensor, the action map unit 130 for defining an output signal for which the result operation is different for each touch operation input from the touch signal It can be formed in a configuration that further comprises.

즉 터치동작(제스쳐)에 대하여 특정 결과동작(action)을 바로 정의하지 않으며, 우선 제스쳐에 대한 동작을 정의하고, 이후 사용자가 수정가능한 액션맵(action map)을 구성하고 그것을 통해 필요한 결과동작을 수행하도록 형성할 수 있다.That is, a specific result action is not immediately defined for a touch action (gesture), first, an action for a gesture is performed, and then, a user configures an action map that can be modified and performs a necessary result action through it. It can be formed to.

이를 위하여 본 발명에 따른 액션맵부(130)은 터치스크린에 행해질 수 있는 특정 터치동작(제스쳐)에 대한 기본 정의를 수행하고 그 제스체에 대하여 다양한 결과동작을 수행할 수 있도록 액션맵을 구성할 수 있도록 한다.To this end, the action map unit 130 according to the present invention may configure the action map to perform a basic definition of a specific touch operation (gesture) that can be performed on the touch screen and to perform various result actions on the gesture body. Make sure

즉, 본 발명에 따른 상기 액션맵부(130)는 하나의 터치유닛에 대한 동작으로서 단일 무브(single move), 단일 텝(single tap), 단일 더블텝(single double tap), 단일 롱텝(long tap)으로 정의하는 제1맵핑부(131)와 둘이상의 터치유닛에 대한 동작으로서, 복수 무브, 복수 탭, 복수 더블텝, 복수 롱텝으로 정의하는 제2맵핑부(132), 하나의 터치유닛을 터치한 상태에서 다른 터치유닛의 동작을 텝, 더블텝, 롱텝으로 정의하는 제3맵핑부(133), 터치유닛 간의 거리의 근원에 따라 줌인 및 줌아웃의 동작이나 터치유닛의 회전상태의 동작을 정의하는 제4맵핑부(134) 들의 기능 유닛 중 어느 하나 이상을 포함하여 구성될 수 있도록 함이 바람직하다. 나아가 손바닥에 대한 동작으로 손바닥으로 스크린상을 움직이는 팜무브(Palm move), 손바닥으로 두드리는 팜탭(Palm tap), 손바닥으로 연속으로 두번 두드리는 팜더블텝(Palm double tap), 손바닥으로 길게 누르는 팜롱텝(Palm long tap)으로 정의되는 제5맵핑부(135)를 더 포함하여 구성될 수 있다. 상술한 각 맵핑부의 동작을 손가락 또는 손바닥으로 예시하였으나, 터치유닛은 손가락 이외에도 다른 기구적인 장비를 이용해 점족촉 또는 면접촉하는 방식으로 상기 맵핑부의 동작을 구현할 수 있음은 당업자에게 자명한바, 본 발명의 요지에 포함된다고 할 수 있다.That is, the action map unit 130 according to the present invention is a single move, a single tap, a single double tap, a single long tap as an operation for one touch unit. As an operation for the first mapping unit 131 and two or more touch units, the second mapping unit 132 defined as a plurality of moves, a plurality of taps, a plurality of double taps, and a plurality of long steps is touched. The third mapping unit 133 which defines the operation of the other touch unit in the state as tap, double tap, and long tap, and the operation of defining the operation of the zoom-in and zoom-out operation or the rotation state of the touch unit depending on the origin of the distance between the touch units. It is preferable to include any one or more of the functional units of the four mapping unit 134. Furthermore, the palm moves to move on the screen with the palms, the palm taps on the palms, the palm double taps on the palms twice, and the palm long taps on the palms. And a fifth mapping unit 135 defined as Palm long tap). Although the above-described operation of each mapping unit is illustrated with a finger or a palm, it will be apparent to those skilled in the art that the touch unit can implement the operation of the mapping unit in a way of point contact or surface contact using other mechanical equipment in addition to the finger. It can be said that it is included in the summary.

상기 제1맵핑부(131)는 하나의 터치유닛에 대한 동작을 정의한 것으로, 일례로 손가락 1개에 대한 동작으로 하나의 손가락을 터치하여 스크린상에서 움직이는 동작인 단일 무브(single move)와, 손가락 하나로 스크린을 한번 두드리는 동작인 단일 텝(single tap), 손가락 하나로 스크린을 두 번 연달아 두드리는 단일 더블텝(single double tap), 손가락 하나로 스크린을 오래 누르는 동작으로 단일 롱텝(long tap) 등으로 정의할 수 있다.The first mapping unit 131 defines an operation for one touch unit. For example, a single move and a single finger move a screen by touching one finger as an operation for one finger. It can be defined as a single tap that taps the screen once, a single double tap that taps the screen twice in succession with a single finger, and a single long tap that taps the screen for a long time with a single finger. .

또한, 상기 제2맵핑부(132)는 둘 이상의 터치유닛에 대한 동작을 정의 한 것으로, 예를 들면 손가락 여러 개에 대한 동작으로 , 다수의 손가락을 이용한 움직임인 복수 무브(fingers move), 다수의 손가락으로 한 번씩 두드리는복수탭(fingers tap), 다수의 손가락으로 연속으로 두 번 두드리는 동작인 복수 더블텝(fingers double tap), 다수의 손가락으로 오래 누르는 동작인 복수 롱텝(fingers long tap)으로 정의할 수 있다.In addition, the second mapping unit 132 defines an operation for two or more touch units. For example, the second mapping unit 132 may operate with a plurality of fingers. Multiple taps with one finger tapping, multiple double taps with two fingers in succession, and multiple long taps with long fingers. Can be.

아울러, 상기 제3맵핑부(133)는 하나의 터치유닛을 터치한 상태에서 다른 터치유닛의 동작을 텝, 더블텝, 롱텝으로 정의할 수 있으며, 일례로는 하나의 손가락을 누루고 있는 상태에서 다른 손가락이 동작하는 동작을 정의할 수 있으며, 하나의 손가락을 누르고 다른 손가락을 한번 두드리는 풋앤텝(Put and Tap), 하나의 손가락은 누르고 다른 손가락을 두번 두드리는 풋엔 더블텝(Put and Double tap), 하나의 손가락은 누르고 다른 손가락은 길게 누르는 풋앤롱탭(Put and Long tap)의 동작으로 정의할 수 있다.In addition, the third mapping unit 133 may define an operation of another touch unit as a tap, a double tap, or a long tap while touching one touch unit. You can define how your finger behaves: Put and Tap, tap one finger and tap another finger, Put and Double tap, tap one finger and tap another finger twice, one It can be defined as the operation of a put and long tap that presses a finger and presses another finger long.

또는, 상기 제4맵핑부(134)는 터치유닛간의 거리의 근원에 따라 줌인 및 줌아웃(Zoom in/Zoom out)의 동작이나 터치유닛의 회전상태(Rotate)의 동작을 정의할 수 있다. Alternatively, the fourth mapping unit 134 may define an operation of zoom in and zoom out or a rotation state of the touch unit according to the source of the distance between the touch units.

즉, 도 2에 도시된 것과 같이, 본 발명에서는 상술한 액션맵부(130)을 구성하는 구성부를 하나 이상 포함하여 구성할 수 있으며, 상기 액션맵부의 구성은 특정 액션맵(Action Map)에 의하여 쓰고자 하는 제스쳐에 대하여 결과동작을 설정함으로써 동작형식을 결정한다. 아울러, 이러한 액션맵(Action Map)을 다수개의 설정, 저장이 가능하도록 하고, 사용자의 요구에 따라 해당 액션맵(Action Map)을 적용 가능하도록 함으로써, 사용상의 편의성을 도모할 수 있다. 정의된 액션맵에 해당하는 결과동작을 사용자가 설정할 수 있도록 해, 마우스(M)와 키보드(K)의 신호를 터치스크린을 통해서 입력될 수 있도록 설정할 수 있게 되는 것이다.That is, as shown in FIG. 2, the present invention may include one or more components that constitute the above-described action map unit 130, and the action map unit may be written by a specific action map. The action type is determined by setting the result action for the desired gesture. In addition, by making it possible to set and store a plurality of such action maps, and to apply the corresponding action maps according to a user's request, convenience of use can be achieved. By allowing the user to set the resultant motion corresponding to the defined action map, it is possible to set the signals of the mouse M and the keyboard K to be input through the touch screen.

도 3 및 4를 참조하여 본 발명의 다른 실시예를 설명하기로 한다.Another embodiment of the present invention will be described with reference to FIGS. 3 and 4.

상술한 실시예에, 본 발명에 따른 호스트컴퓨터(200)에서 특정 응용프로그램의 활성화를 감지하여 미리 설정된 상기 액션맵부의 제스쳐와 매칭시키는 모니터링프로그램부(210)를 더 포함하는 구성으로 구현될 수 있다.In the above-described embodiment, the host computer 200 may further include a monitoring program unit 210 that detects activation of a specific application program and matches the gesture gesture of the action map unit. .

즉, 구체적으로는 호스트컴퓨터의 OS 내에 모니터링프로그램을 구동시키는 모니터링프로그램부(210)가 존재하여 활성화된 응용프로그램(U)을 우선 파악할 수 있도록 한다. 즉, 사용자가 미리 설정하여 놓은 액션맵(130)과 특정 응용프로그램(U)에 대하여 적용을 원하는 액션맵과의 관계를 이용하여 모니터링 프로그램은 해당 액션맵을 적용시킴으로써, 터치를 이용한 응용프로그램의 활용성을 증대할 수 있도록 할 수 있다.That is, specifically, the monitoring program unit 210 for driving the monitoring program is present in the OS of the host computer so that the activated application program U can be identified first. That is, by using the relationship between the action map 130 set in advance by the user and the action map to be applied to a specific application U, the monitoring program applies the action map to utilize the application program using touch. You can increase your gender.

또한, 상술한 실시예와는 달리, 본 발명에 따른 호스트컴퓨터(200)에서는 OS 내에 런처프로그램을 구동시키는 런쳐프로그램부(220)을 더 포함하여, 사용자는 상기 런쳐프로그램의 구동을 원하는 액션맵의 적용과 동시에 원하는 응용프로그램을 구동시킬 수 있도록 한다. 이후, 응용프로그램이 종료하면 런쳐프로그램도 종료하면서 액션뱁을 기존값(기본값)으로 복원할 수 있도록 한다. 이와 같은 기작은 사용자가 특정 응용프로그램(U)의 구동시 원하는 액션맵의 적용이 용이해셔, 터치를 이용한 응용프로그램의 활용성을 증대할 수 있게 된다.In addition, unlike the above-described embodiment, the host computer 200 according to the present invention further includes a launcher program unit 220 for driving the launcher program in the OS, so that the user can select the action map of the launcher program. At the same time, you can run the application you want. Afterwards, when the application program terminates, the launcher program also terminates to restore the action to its original value (default). Such a mechanism facilitates application of a desired action map when the user drives a specific application program U, thereby increasing the usability of the application program using touch.

상술한 본 발명에 따른 터치스크린 시스템에서는 우선적으로 호스트컴퓨터로 부터 키보드디바이스로 구동되어 키정보를 출력하는 터치센서를 구비하거나, 상기 호스트컴퓨터로 부터 마우스 디바이스나 키보드디바이스로 동시에 구동되어 마우스신호와 키정보를 함께 출력하는 터치센서를 구비할 수 있도록 할 수 있다.In the above-described touch screen system according to the present invention, a touch sensor is first driven by a keyboard device to output key information from the host computer, or simultaneously driven by a mouse device or a keyboard device from the host computer to drive a mouse signal and a key. It can be provided with a touch sensor for outputting information together.

나아가 터치에 관한 제스쳐를 미리 정의하고, 해당하는 결과동작과의 관계를 정의하는 액션맵을 1개 또는 다수개 준비하여, 사용자에 의해 원하는 액션맵을 선택할 수 있도록 하는 한편, OS 내에 존재하는 데몬프로그램에 의해 활성화된 프로그램을 알고, 자동으로 미리 정의해 놓은 해당 액션맵을 적용해주거나, 나아가 OS 내에 존재하는 프로그램으로 사용자가 원하는 프로그램을 대신 구동시켜 줌과 동시에 미리 정의해 놓은 액션맵을 적용해줄 수 있는 시스템을 구현할 수 있게 된다.Furthermore, by defining a gesture regarding touch in advance and preparing one or more action maps that define a relationship with a corresponding result action, a user can select a desired action map and a daemon program existing in the OS. By knowing the program activated by, you can apply the predefined action map automatically, or even run the program you want with the existing program in the OS and apply the predefined action map. To be able to implement the system

전술한 바와 같은 본 발명의 상세한 설명에서는 구체적인 실시예에 관해 설명하였다. 그러나 본 발명의 범주에서 벗어나지 않는 한도 내에서는 여러 가지 변형이 가능하다. 본 발명의 기술적 사상은 본 발명의 기술한 실시예에 국한되어 정해져서는 안 되며, 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.In the foregoing detailed description of the present invention, specific examples have been described. However, various modifications are possible within the scope of the present invention. The technical idea of the present invention should not be limited to the embodiments of the present invention but should be determined by the equivalents of the claims and the claims.

100: 터치스크린
110: 터치센서
120: 제어부]
130: 액션맵(Action Map)부
131: 제1맵핑부
132: 제2맵핑부
133: 제3맵핑부
134: 제4맵핑부
135: 제5맵핑부
200: 호스트 컴퓨터
210: 모니터링프로그램부
220: 런쳐프로그램부
100: touch screen
110: touch sensor
120: control unit]
130: Action Map section
131: first mapping unit
132: second mapping unit
133: third mapping unit
134: fourth mapping unit
135: fifth mapping unit
200: host computer
210: monitoring program unit
220: launcher program unit

Claims (5)

호스트컴퓨터와 연동되어 터치입력을 통해 상기 호스트컴퓨터의 구동을 스크린상에서 동시에 구현하는 터치스크린에 있어서,
상기 터치스크린은 입력되는 터치신호를 인식하는 터치센서;와
상기 터치센서에서 입력된 신호를 키보드디바이스 신호 또는 키보드 및 마우스 디바이스 신호로 출력하는 제어부;
를 포함하여 이루어지는 것을 특징으로 하는 터치스크린 시스템.
In the touch screen which is linked with the host computer to implement the operation of the host computer on the screen at the same time through the touch input,
The touch screen may include a touch sensor that recognizes an input touch signal; and
A controller for outputting a signal input from the touch sensor as a keyboard device signal or a keyboard and mouse device signal;
Touch screen system, characterized in that comprises a.
청구항 1에 있어서,
상기 제어부는,
상기 터치센서에서 입력되는 터치신호를 분류하여,
상기 터치신호에서 입력되는 터치동작별로 결과동작이 달라지는 출력신호를 정의하는 액션맵(Action Map)부를 구비하는 것을 특징으로 하는 터치스크린 시스템.
The method according to claim 1,
The control unit,
By classifying the touch signal input from the touch sensor,
And an action map unit defining an output signal of which a result operation is different for each touch operation input from the touch signal.
청구항 1에 있어서,
상기 액션맵부는,
하나의 터치유닛에 대한 동작으로서 단일 무브(single move), 단일 텝(single tap), 단일 더블텝(single double tap), 단일 롱텝(long tap)으로 정의하는 제1맵핑부;
둘 이상의 터치유닛에 대한 동작으로서, 복수 무브, 복수 탭, 복수 더블텝, 복수 롱텝으로 정의하는 제2맵핑부;
하나의 터치유닛을 터치한 상태에서 다른 터치유닛의 동작을 텝, 더블텝, 롱텝으로 정의하는 제3맵핑부;
터치유닛간의 거리의 근원에 따라 줌인 및 줌아웃의 동작이나 터치유닛의 회전상태의 동작을 정의하는 제4맵핑부;
터치유닛의 면접촉을 정의하는 팜무브(Palm move), 팜탭(Palm tap), 팜더블텝(Palm double tap), 팜롱텝(Palm long tap)으로 정의되는 제5맵핑부(135);
중 어느 하나 이상을 포함하여 구성되는 것을 특징으로 하는 터치스크린 시스템.
The method according to claim 1,
The action map unit,
A first mapping unit defined as a single move, a single tap, a single double tap, or a single long tap as an operation for one touch unit;
An operation for two or more touch units, comprising: a second mapping unit defining a plurality of moves, a plurality of taps, a plurality of double taps, and a plurality of long taps;
A third mapping unit defining an operation of another touch unit as a tap, double tap, or long tap while touching one touch unit;
A fourth mapping unit defining an operation of zooming in and zooming out or an operation of a rotation state of the touch unit according to a source of distance between touch units;
A fifth mapping unit 135 defined as a palm move, a palm tap, a palm double tap, and a palm long tap defining a surface contact of the touch unit;
Touch screen system, characterized in that it comprises any one or more of.
청구항 2 또는 3에 있어서,
상기 호스트컴퓨터는,
특정 응용프로그램의 활성화를 감지하여 미리 설정된 상기 액션맵부의 제스쳐와 매칭시키는 모니터링프로그램부;를 더 포함하는 것을 특징으로 하는 터치스크린 시스템.
The method according to claim 2 or 3,
The host computer,
And a monitoring program unit configured to detect activation of a specific application program and match a gesture of the action map unit set in advance.
청구항 2 또는 3에 있어서,
상기 호스트컴퓨터는,
특정 응용프로그램이 활성화 되는 경우, 기설정된 상기 액션맵부를 상기 응용프로그램에 적용시키며,
상기 특정응용프로그램이 종료하는 경우, 상기 액션맵부를 기본값으로 복원하는 런쳐프로그램부;를 더 포함하는 것을 특징으로 하는 터치스크린 시스템.
The method according to claim 2 or 3,
The host computer,
When a specific application is activated, the predetermined action map unit is applied to the application,
And a launcher program unit for restoring the action map unit to a default value when the specific application is terminated.
KR1020100044873A 2010-05-13 2010-05-13 Touch screen system KR20110125382A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100044873A KR20110125382A (en) 2010-05-13 2010-05-13 Touch screen system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100044873A KR20110125382A (en) 2010-05-13 2010-05-13 Touch screen system

Publications (1)

Publication Number Publication Date
KR20110125382A true KR20110125382A (en) 2011-11-21

Family

ID=45394836

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100044873A KR20110125382A (en) 2010-05-13 2010-05-13 Touch screen system

Country Status (1)

Country Link
KR (1) KR20110125382A (en)

Similar Documents

Publication Publication Date Title
US9075462B2 (en) Finger-specific input on touchscreen devices
CN105760019B (en) Touch operation method and system based on interactive electronic whiteboard
KR101930225B1 (en) Method and apparatus for controlling touch screen operation mode
US20140340308A1 (en) Electronic device and screen content sharing method
JP2014241139A (en) Virtual touchpad
TW201516783A (en) Input apparatus and inputing mode switching method thereof and computer apparatus
US20090184933A1 (en) Touch interpretive architecture and touch interpretive method by using multi-fingers gesture to trigger application program
US20230359351A1 (en) Virtual keyboard processing method and related device
US20150153892A1 (en) Input device and input management method
US20230359279A1 (en) Feedback method and related device
US20100321293A1 (en) Command generation method and computer using the same
US20150370443A1 (en) System and method for combining touch and gesture in a three dimensional user interface
US20140298275A1 (en) Method for recognizing input gestures
TW201346656A (en) Signal transmitting method for touch input device
TWI497357B (en) Multi-touch pad control method
US20150103010A1 (en) Keyboard with Integrated Pointing Functionality
JP3183729U (en) Mouse module that can simulate touch screen functions
Krithikaa Touch screen technology–a review
KR20130090210A (en) Input device
TWI478017B (en) Touch panel device and method for touching the same
CN103257724A (en) Non-contact mouse and operation method thereof
KR20110125382A (en) Touch screen system
KR20130015511A (en) Mouse pad type input apparatus and method
WO2020124422A1 (en) Handwriting system control method and handwriting system
US10540086B2 (en) Apparatus, method and computer program product for information processing and input determination

Legal Events

Date Code Title Description
A201 Request for examination
E601 Decision to refuse application