KR20120035293A - Mobile terminal - Google Patents

Mobile terminal Download PDF

Info

Publication number
KR20120035293A
KR20120035293A KR1020100096699A KR20100096699A KR20120035293A KR 20120035293 A KR20120035293 A KR 20120035293A KR 1020100096699 A KR1020100096699 A KR 1020100096699A KR 20100096699 A KR20100096699 A KR 20100096699A KR 20120035293 A KR20120035293 A KR 20120035293A
Authority
KR
South Korea
Prior art keywords
area
input
layer
web page
input field
Prior art date
Application number
KR1020100096699A
Other languages
Korean (ko)
Other versions
KR101680810B1 (en
Inventor
김종환
이은혜
두원정
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020100096699A priority Critical patent/KR101680810B1/en
Publication of KR20120035293A publication Critical patent/KR20120035293A/en
Application granted granted Critical
Publication of KR101680810B1 publication Critical patent/KR101680810B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/3827Portable transceivers
    • H04B1/3833Hand-held transceivers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/40Circuits
    • H04B1/401Circuits for selecting or indicating operating mode

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Telephone Function (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PURPOSE: A portable terminal is provided to prevent malfunction by expanding or reducing the size of a webpage screen. CONSTITUTION: A display unit displays the second layer of a touch recognition area and a webpage display area. A control unit selects an input field within a webpage based on the touch input signal generated by the second layer. The control unit scrolls a webpage area displayed at the first layer to an area including the selected input field.

Description

이동 단말기{MOBILE TERMINAL}Mobile terminal {MOBILE TERMINAL}

본 발명은 이동 단말기에서의 웹 브라우징(web browsing)에 관한 것으로, 보다 상세하게는 이동 단말기에서의 웹 브라우징에 있어서, 화면 스크롤(scroll), 확대, 축소 시의 오동작을 방지하고 웹 페이지에 포함된 입력 필드에 대한 문자 입력을 용이하게 수행할 있는 이동 단말기에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to web browsing in a mobile terminal, and more particularly, in web browsing in a mobile terminal, to prevent malfunctions when scrolling, zooming in, and zooming out a screen are included in a web page. The present invention relates to a mobile terminal capable of easily inputting text into an input field.

웹 페이지 상에는 링크가 걸린 부분이 많다. 그러므로 이동 단말기에서의 웹 브라우징 과정에서, 터치 동작을 통하여 웹 페이지 화면을 조작하는 경우 링크가 실행되어 오동작이 발생할 가능성이 크다. 또한, 이동 단말기는 웹 페이지가 표시되는 화면이 작아, 웹 페이지에 포함된 입력 필드가 화면에 표시되지 않을 수 있다. 그러므로 웹 페이지에 포함된 입력 필드에 문자를 입력하고자 하는 경우, 사용자는 입력 필드가 포함된 영역으로 화면을 스크롤한 다음, 터치 동작을 통하여 입력 필드를 선택하여 문자를 입력해야 한다.Many web pages have links. Therefore, in the web browsing process in a mobile terminal, when a web page screen is manipulated through a touch operation, a link is executed and a malfunction is likely to occur. In addition, the mobile terminal has a small screen on which a web page is displayed, and thus an input field included in the web page may not be displayed on the screen. Therefore, if a user wants to input text into an input field included in a web page, the user scrolls the screen to an area including the input field, and then selects an input field through a touch operation to input text.

본 발명이 해결하고자 하는 기술적 과제는 터치 동작을 통하여 이동 단말기에서 웹 페이지 화면을 조작하는 경우, 사용자의 의도와 달리 웹 페이지에 포함된 링크가 실행되는 오작동을 방지할 수 있는 이동 단말기를 제공하는 것이다.SUMMARY OF THE INVENTION The present invention has been made in an effort to provide a mobile terminal capable of preventing a malfunction in which a link included in a web page is executed, unlike a user's intention, when a web page is operated in a mobile terminal through a touch operation. .

본 발명이 해결하고자 하는 다른 기술적 과제는 용이하게 웹 페이지에 포함된 입력 필드에 문자 입력을 할 수 있는 이동 단말기를 제공하는 것이다.Another technical problem to be solved by the present invention is to provide a mobile terminal capable of easily inputting text into an input field included in a web page.

상기 기술적 과제를 해결하기 위한 본 발명의 일실시예에 따른 이동 단말기는 디스플레이부 및 제어부를 포함할 수 있다. 상기 디스플레이부는 웹 페이지 표시 영역인 제1 레이어 및 터치 인식 영역인 제2 레이어를 표시할 수 있다. 상기 제어부는 상기 제2 레이어를 통하여 발생하는 터치 입력에 기초하여, 상기 웹 페이지에 포함된 입력 필드를 선택하며 상기 제1 레이어에 표시되는 상기 웹 페이지의 영역을 상기 선택된 입력 필드를 포함하는 영역으로 스크롤할 수 있다.The mobile terminal according to an embodiment of the present invention for solving the technical problem may include a display unit and a controller. The display unit may display a first layer which is a web page display area and a second layer which is a touch recognition area. The controller selects an input field included in the web page based on a touch input generated through the second layer, and selects an area of the web page displayed on the first layer as the area including the selected input field. You can scroll.

상기 기술적 과제를 해결하기 위한 본 발명의 다른 실시예에 따른 이동 단말기는 디스플레이부 및 제어부를 포함할 수 있다. 상기 디스플레이부는 제1 레이어 및 제2 레이어를 표시할 수 있다. 상기 제1 레이어는 웹 페이지 표시 영역일 수 있다. 상기 제2 레이어는 상기 웹 페이지에 포함된 입력 필드의 목록을 표시하는 제1 영역 및 선택된 입력 필드에 문자를 입력하기 위한 가상 키패드 또는 필기 인식 영역을 제공하는 제2 영역을 포함할 수 있다. 상기 제어부는 상기 제1 영역을 통하여 발생하는 제1 터치 입력에 기초하여 상기 입력 필드의 목록에 포함된 하나의 입력 필드를 선택하고, 상기 가상 키패드 또는 상기 필기 인식영역을 통하여 발생하는 제2 터치 입력에 기초하여 상기 선택된 입력 필드에 문자를 입력할 수 있다.The mobile terminal according to another embodiment of the present invention for solving the technical problem may include a display unit and a controller. The display unit may display a first layer and a second layer. The first layer may be a web page display area. The second layer may include a first area for displaying a list of input fields included in the web page, and a second area for providing a virtual keypad or a handwriting recognition area for inputting text into a selected input field. The controller selects one input field included in the list of the input field based on the first touch input generated through the first area, and the second touch input generated through the virtual keypad or the handwriting recognition area. Characters may be input in the selected input field based on the input.

상기 기술적 과제를 해결하기 위한 본 발명의 또 다른 실시예에 따른 이동 단말기는 디스플레이부 및 제어부를 포함할 수 있다. 상기 디스플레이부는 웹 페이지 표시 영역인 제1 레이어 및 상기 웹 페이지에 포함된 입력 필드에 문자를 입력하기 위한 필기 인식 영역을 포함하는 제2 레이어를 표시할 수 있다. 상기 제어부는 상기 필기 인식 영역을 통하여 발생하는 적어도 하나의 터치 입력에 응답하여, 상기 적어도 하나의 터치 입력에 대응되는 특정 문자에 대하여 미리 설정된 입력 필드를 선택하고, 상기 선택된 입력 필드에 대한 문자 입력을 수신할 수 있다.The mobile terminal according to another embodiment of the present invention for solving the technical problem may include a display unit and a controller. The display unit may display a second layer including a first layer which is a web page display area and a handwriting recognition area for inputting text into an input field included in the web page. The controller selects a preset input field for a specific character corresponding to the at least one touch input in response to at least one touch input generated through the handwriting recognition region, and inputs a character input for the selected input field. Can be received.

상기 기술적 과제를 해결하기 위한 본 발명의 또 다른 실시예에 따른 이동 단말기는 디스플레이부 및 제어부를 포함할 수 있다. 상기 디스플레이부는 웹 페이지를 표시할 수 있다. 상기 제어부는 터치 입력에 응답하여 상기 웹 페이지에 포함된 입력 필드를 선택하고, 각각이 상기 선택된 입력 필드에 입력 가능한 복수의 문자 그룹 중 대응하는 문자 그룹에 포함된 문자를 입력하기 위한 복수의 필기 인식 영역을 상기 웹 페이지 위에 표시할 수 있다.The mobile terminal according to another embodiment of the present invention for solving the technical problem may include a display unit and a controller. The display unit may display a web page. The controller selects an input field included in the web page in response to a touch input, and recognizes a plurality of handwriting for inputting a character included in a corresponding character group among a plurality of character groups that can be input to the selected input field, respectively. An area can be displayed on the web page.

상기 기술적 과제를 해결하기 위한 본 발명의 또 다른 실시예에 따른 이동 단말기는 디스플레이부 및 제어부를 포함할 수 있다. 상기 디스플레이부는 웹 페이지를 표시할 수 있다. 상기 제어부는 수신된 입력 신호에 응답하여 복수의 문자 그룹 중 상기 웹 페이지의 입력 필드에 입력될 문자 그룹을 선택하기 위한 선택 영역 및 선택된 문자 그룹에 포함된 문자 입력을 인식하는 필기 인식 영역을 상기 웹 페이지 위에 표시할 수 있다.The mobile terminal according to another embodiment of the present invention for solving the technical problem may include a display unit and a controller. The display unit may display a web page. The controller may include a selection area for selecting a group of characters to be input into an input field of the web page among a plurality of group of characters and a handwriting recognition area for recognizing a character input included in the selected group of characters in response to the received input signal. Can be displayed above the page.

본 발명의 실시예에 따른 이동 단말기에 따르면, 디스플레이부에 표시된 웹 페이지 화면을 터치 동작으로 스크롤하거나 확대 축소하는 경우 발생할 수 있는 오작동이 방지될 수 있다.According to the mobile terminal according to an embodiment of the present invention, a malfunction that may occur when the web page screen displayed on the display unit is scrolled or enlarged or reduced by a touch operation can be prevented.

또한, 본 발명의 실시예에 따른 이동 단말기에 따르면, 사용자는 디스플레이부에 표시된 웹 페이지에 포함된 입력 필드에 대한 문자 입력을 용이하게 수행할 수 있다.In addition, according to the mobile terminal according to an embodiment of the present invention, the user can easily perform text input for the input field included in the web page displayed on the display unit.

도 1은 본 발명의 실시예에 따른 이동 단말기의 종류를 나타낸다.
도 2는 본 발명의 실시예에 따른 이동 단말기의 블락도이다.
도 3은 본 발명의 실시예에 따른 이동 단말기 구동 방법을 나타내는 흐름도이다.
도 4 내지 도 5 각각은 본 발명의 실시예에 따른 이동 단말기에 있어서의 웹 페이지를 표시하는 제1 레이어와 터치 인식 영역인 제2 레이어의 일예를 나타낸다.
도 6은 본 발명의 다른 실시예에 따른 이동 단말기 구동 방법을 나타내는 흐름도이다.
도 7은 도 6에 도시된 이동 단말기 구동 방법에 따라 웹 페이지 영역이 스크롤 되는 과정을 나타낸다.
도 8은 본 발명의 또 다른 실시예에 따른 이동 단말기 구동 방법을 나타내는 흐름도이다.
도 9 내지도 10 각각은 도 8에 도시된 이동 단말기 구동 방법에 따른 웹 페이지의 영역이 스크롤되는 과정을 나타낸다.
도 11은 본 발명의 또 다른 실시예에 따른 이동 단말기 구동 방법을 나타내는 흐름도이다.
도 12는 도 11에 도시된 이동 단말기 구동 방법에 따른 웹 페이지의 영역이 스크롤되는 과정을 나타낸다.
도 13은 본 발명의 또 다른 실시예에 따른 이동 단말기 구동 방법을 나타내는 흐름도이다.
도 14 내지도 16 각각은 도 13에 도시된 이동 단말기 구동 방법에 따른 웹 페이지의 영역이 스크롤되는 과정을 나타낸다.
도 17은 본 발명의 또 다른 실시예에 따른 이동 단말기 구동 방법을 나타내는 흐름도이다.
도 18은 본 발명의 또 다른 실시예에 따른 이동 단말기 구동 방법을 나타낸다.
도 19 내지 도 22 각각은 도 18에 도시된 이동 단말기 구동 방법에 따라 웹 페이지의 입력 필드에 문자를 입력하는 과정을 나타낸다.
도 23은 본 발명의 또 다른 실시예에 따른 이동 단말기 구동 방법을 나타내는 흐름도이다.
도 24 내지 도 25 각각은 도 23에 도시된 이동 단말기 구동 방법에 따라 웹 페이지의 입력 필드에 문자를 입력하는 과정을 나타낸다.
도 26은 본 발명의 또 다른 실시예에 따른 이동 단말기 구동 방법을 나타내는 흐름도이다.
도 27은 본 발명의 또 다른 실시예에 따른 이동 단말기 구동 방법을 나타내는 흐름도이다.
도 28 내지 도 29는 도 27에 도시된 이동 단말기 구동 방법에 따라 웹 페이지의 입력 필드에 문자를 입력하는 과정을 나타낸다.
도 30은 본 발명의 또 다른 실시예에 따른 이동 단말기 구동 방법을 나타내는 흐름도이다.
도 31은 본 발명의 또 다른 실시예에 따른 이동 단말기 구동 방법을 나타내는 흐름도이다.
도 32 내지 도 38 각각은 도 31에 도시된 이동 단말기 구동 방법에 따라 웹 페이지의 입력 필드에 문자를 입력하는 과정을 나타낸다.
도 39는 본 발명의 또 다른 실시예에 따른 이동 단말기 구동 방법을 나타내는 흐름도이다.
도 40 내지 도 42는 도 39에 도시된 이동 단말기 구동 방법에 따라 웹 페이지의 입력 필드에 문자를 입력하는 과정을 나타낸다.
1 illustrates a type of mobile terminal according to an embodiment of the present invention.
2 is a block diagram of a mobile terminal according to an embodiment of the present invention.
3 is a flowchart illustrating a method for driving a mobile terminal according to an embodiment of the present invention.
4 to 5 each show an example of a first layer displaying a web page and a second layer serving as a touch recognition area in the mobile terminal according to an embodiment of the present invention.
6 is a flowchart illustrating a method of driving a mobile terminal according to another embodiment of the present invention.
FIG. 7 illustrates a process of scrolling a web page area according to the mobile terminal driving method shown in FIG. 6.
8 is a flowchart illustrating a method of driving a mobile terminal according to another embodiment of the present invention.
9 to 10 each illustrate a process of scrolling an area of a web page according to the mobile terminal driving method shown in FIG. 8.
11 is a flowchart illustrating a method of driving a mobile terminal according to another embodiment of the present invention.
FIG. 12 illustrates a process of scrolling an area of a web page according to the mobile terminal driving method of FIG. 11.
13 is a flowchart illustrating a method of driving a mobile terminal according to another embodiment of the present invention.
14 to 16 each illustrate a process of scrolling an area of a web page according to the mobile terminal driving method shown in FIG. 13.
17 is a flowchart illustrating a method of driving a mobile terminal according to another embodiment of the present invention.
18 illustrates a mobile terminal driving method according to another embodiment of the present invention.
19 to 22 each illustrate a process of inputting text into an input field of a web page according to the method of driving a mobile terminal illustrated in FIG. 18.
23 is a flowchart illustrating a method of driving a mobile terminal according to another embodiment of the present invention.
24 to 25 each illustrate a process of inputting text into an input field of a web page according to the method of driving a mobile terminal illustrated in FIG. 23.
26 is a flowchart illustrating a method of driving a mobile terminal according to another embodiment of the present invention.
27 is a flowchart illustrating a method of driving a mobile terminal according to another embodiment of the present invention.
28 to 29 illustrate a process of inputting text into an input field of a web page according to the mobile terminal driving method illustrated in FIG. 27.
30 is a flowchart illustrating a method of driving a mobile terminal according to another embodiment of the present invention.
31 is a flowchart illustrating a method of driving a mobile terminal according to another embodiment of the present invention.
32 to 38 each illustrate a process of inputting text into an input field of a web page according to the mobile terminal driving method illustrated in FIG. 31.
39 is a flowchart illustrating a method of driving a mobile terminal according to another embodiment of the present invention.
40 to 42 illustrate a process of inputting text into an input field of a web page according to the method of driving a mobile terminal illustrated in FIG. 39.

본 발명의 상술한 목적, 특징들 및 장점은 첨부된 도면과 관련된 다음의 상세한 설명을 통하여 보다 분명해질 것이다. 이하 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예들을 상세히 설명한다. 명세서 전체에 걸쳐서 동일한 참조번호들은 동일한 구성요소들을 나타낸다. 또한, 본 발명과 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우, 그 상세한 설명을 생략한다.The foregoing objects, features and advantages of the present invention will become more apparent from the following detailed description taken in conjunction with the accompanying drawings. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Reference will now be made in detail to the preferred embodiments of the present invention, examples of which are illustrated in the accompanying drawings. Like numbers refer to like elements throughout. In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail.

이하, 본 발명과 관련된 이동 단말기에 대하여 도면을 참조하여 보다 상세하게 설명한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.Hereinafter, a mobile terminal according to the present invention will be described in more detail with reference to the accompanying drawings. The suffix "module" and " part "for the components used in the following description are given or mixed in consideration of ease of specification, and do not have their own meaning or role.

도 1은 본 발명의 실시예들에 따른 이동 단말기의 종류를 나타낸다. 상기 이동 단말기는 웹 페이지가 표시되는 레이어와는 분리된 별도의 레이어에 대한 터치 입력에 기초하여 웹 페이지에 포함된 입력 필드를 선택할 수 있고, 화면에 표시되는 웹 페이지의 영역을 상기 터치 입력에 의하여 선택된 입력 필드가 포함된 영역으로 스크롤할 수 있다. 또한, 상기 이동 단말기는 제2 레이어에 대한 터치 입력에 기초하여 상기 선택된 입력 필드에 문자를 입력할 수도 있다.1 illustrates a type of mobile terminal according to embodiments of the present invention. The mobile terminal may select an input field included in the web page based on a touch input for a separate layer separate from the layer on which the web page is displayed, and by using the touch input, an area of the web page displayed on the screen. You can scroll to the area that contains the selected input field. The mobile terminal may also input text into the selected input field based on a touch input to a second layer.

도 1을 참조하면, 발명의 실시예들에 따른 이동 단말기에는 스마트 폰, 태블릿 PC, 노트북 등이 포함될 수 있음을 알 수 있다. 도 1에 도시되지는 않았으나, 상기 이동 단말기에는 도 1에 도시된 스마트 폰, 태블릿 PC 이외에도 핸드폰, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 전자책, 네비게이션 등이 포함될 수 있다. 그러나 본 발명의 범위가 이에 한정되는 것은 아니다.Referring to FIG. 1, it can be seen that a mobile terminal according to embodiments of the present invention may include a smart phone, a tablet PC, a notebook, and the like. Although not shown in FIG. 1, the mobile terminal may include a mobile phone, a personal digital assistant (PDA), a portable multimedia player (PMP), an e-book, a navigation, and the like, in addition to the smart phone and the tablet PC shown in FIG. 1. However, the scope of the present invention is not limited thereto.

본 발명에 따른 이동 단말기의 특성 및 그 구동 방법에 대하여 살펴 본다.It looks at the characteristics of the mobile terminal and a driving method thereof according to the present invention.

도 2는 본 발명의 실시예에 따른 이동 단말기(100)의 블록 구성도(block diagram)이다. 도 2를 참조하면, 상기 이동 단말기(100)는 무선 통신부(110), A/V(Audio/Video) 입력부(120), 사용자 입력부(130), 센싱부(140), 출력부(150), 메모리부(160), 인터페이스부(170), 제어부(180) 및 전원부(190) 등을 포함할 수 있다. 도 1에 도시된 구성요소들이 필수적인 것은 아니어서, 이동 단말기(100)는 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 가질 수도 있다.2 is a block diagram of a mobile terminal 100 according to an embodiment of the present invention. Referring to FIG. 2, the mobile terminal 100 includes a wireless communication unit 110, an A / V input unit 120, a user input unit 130, a sensing unit 140, an output unit 150, The memory unit 160, the interface unit 170, the controller 180, and the power supply unit 190 may be included. The components shown in FIG. 1 are not essential, so the mobile terminal 100 may have more or fewer components.

이하, 상기 구성요소들에 대해 차례로 살펴본다.Hereinafter, the components will be described in order.

무선 통신부(110)는 이동 단말기(100)와 무선 통신 시스템 사이 또는 이동 단말기(100)와 이동 단말기(100)가 위치한 네트워크 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 예를 들어, 무선 통신부(110)는 방송 수신 모듈(111), 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114) 및 위치정보 모듈(115) 등을 포함할 수 있다.The wireless communication unit 110 may include one or more modules that enable wireless communication between the mobile terminal 100 and the wireless communication system or between the mobile terminal 100 and a network in which the mobile terminal 100 is located. For example, the wireless communication unit 110 may include a broadcast receiving module 111, a mobile communication module 112, a wireless Internet module 113, a short range communication module 114, and a location information module 115 .

방송 수신 모듈(111)은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다.The broadcast receiving module 111 receives a broadcast signal and / or broadcast related information from an external broadcast management server through a broadcast channel.

상기 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 상기 방송 관리 서버는, 방송 신호 및/또는 방송 관련 정보를 생성하여 송신하는 서버 또는 기 생성된 방송 신호 및/또는 방송 관련 정보를 제공받아 단말기에 송신하는 서버를 의미할 수 있다. 상기 방송 신호는, TV 방송 신호, 라디오 방송 신호, 데이터 방송 신호를 포함할 뿐만 아니라, TV 방송 신호 또는 라디오 방송 신호에 데이터 방송 신호가 결합한 형태의 방송 신호도 포함할 수 있다.The broadcast channel may include a satellite channel and a terrestrial channel. The broadcast management server may mean a server that generates and transmits a broadcast signal and / or broadcast related information or a server that receives a previously generated broadcast signal and / or broadcast related information and transmits the same to a terminal. The broadcast signal may include not only a TV broadcast signal, a radio broadcast signal, and a data broadcast signal, but also a broadcast signal having a data broadcast signal combined with a TV broadcast signal or a radio broadcast signal.

상기 방송 관련 정보는, 방송 채널, 방송 프로그램 또는 방송 서비스 제공자에 관련한 정보를 의미할 수 있다. 상기 방송 관련 정보는, 이동통신망을 통하여도 제공될 수 있다. 이러한 경우에는 상기 이동통신 모듈(112)에 의해 수신될 수 있다.The broadcast related information may mean information related to a broadcast channel, a broadcast program, or a broadcast service provider. The broadcast related information may also be provided through a mobile communication network. In this case, it may be received by the mobile communication module 112.

상기 방송 관련 정보는 다양한 형태로 존재할 수 있다. 예를 들어, DMB(Digital Multimedia Broadcasting)의 EPG(Electronic Program Guide) 또는 DVB-H(Digital Video Broadcast-Handheld)의 ESG(Electronic Service Guide) 등의 형태로 존재할 수 있다.The broadcast related information may exist in various forms. For example, it may exist in the form of Electronic Program Guide (EPG) of Digital Multimedia Broadcasting (DMB) or Electronic Service Guide (ESG) of Digital Video Broadcast-Handheld (DVB-H).

상기 방송 수신 모듈(111)은, 각종 방송 시스템을 이용하여 방송 신호를 수신하는데, 특히, DMB-T(Digital Multimedia Broadcasting-Terrestrial), DMB-S(Digital Multimedia Broadcasting-Satellite), MediaFLO(Media Forward Link Only), DVB-H(Digital Video Broadcast-Handheld), ISDB-T(Integrated Services Digital Broadcast-Terrestrial) 등의 디지털 방송 시스템을 이용하여 디지털 방송 신호를 수신할 수 있다. 물론, 상기 방송 수신 모듈(111)은, 상술한 디지털 방송 시스템뿐만 아니라 방송 신호를 제공하는 다른 방송 시스템에 적합하도록 구성될 수도 있다.The broadcast receiving module 111 receives broadcast signals using various broadcasting systems, and in particular, digital multimedia broadcasting-terrestrial (DMB-T), digital multimedia broadcasting-satellite (DMB-S), and media forward link (MediaFLO). Digital broadcast signals can be received using digital broadcasting systems such as only), digital video broadcast-handheld (DVB-H), integrated services digital broadcast-terrestrial (ISDB-T), and the like. Of course, the broadcast receiving module 111 may be adapted to other broadcasting systems that provide broadcast signals as well as the digital broadcasting system described above.

방송 수신 모듈(111)을 통해 수신된 방송 신호 및/또는 방송 관련 정보는 메모리부(160)에 저장될 수 있다.The broadcast signal and / or broadcast related information received through the broadcast receiving module 111 may be stored in the memory unit 160.

이동통신 모듈(112)은 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 상기 무선 신호는, 음성 콜(call) 신호, 화상 통화 콜 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.The mobile communication module 112 transmits and receives a radio signal to at least one of a base station, an external terminal, and a server on a mobile communication network. The wireless signal may include various types of data according to transmission and reception of a voice call signal, a video call call signal, or a text / multimedia message.

무선 인터넷 모듈(113)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 무선 인터넷 모듈(113)은 이동 단말기(100)에 내장되거나 외장될 수 있다. 무선 인터넷 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), LTE(Long Term Evolution) 등이 이용될 수 있다. The wireless Internet module 113 refers to a module for wireless Internet access, and the wireless Internet module 113 can be embedded in the mobile terminal 100 or externally. Wireless Internet technologies include Wireless LAN (Wi-Fi), Wireless Broadband (Wibro), World Interoperability for Microwave Access (Wimax), High Speed Downlink Packet Access (HSDPA), and Long Term Evolution (LTE). Can be.

근거리 통신 모듈(114)은 근거리 통신을 위한 모듈을 말한다. 근거리 통신 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.The short range communication module 114 refers to a module for short range communication. As a short range communication technology, Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, and the like may be used.

위치정보 모듈(115)은 이동 단말기의 위치를 확인하거나 얻기 위한 모듈이다. 상기 위치정보 모듈(115)은 범지구적 위성항법시스템(Global Navigation Satellite System, GNSS)를 이용하여 위치정보를 획득할 수 있다. 여기서, 범지구적 위성 항법 시스템(GNSS)은 지구를 공전하여 무선 항법 수신기들의 소정의 타입들이 지표면 또는 지표면 근처의 그들의 위치를 결정할 수 있는 기준 신호들을 보내는 무선 항법위성 시스템들을 설명하기 위해 이용되는 용어이다. 상기 범지구적 위성 항법 시스템(GNSS)에는 미국에서 운영하는 GPS(Global Position System), 유럽에서 운영하는 갈릴레오(Galileo), 러시아에서 운영하는 GLONASS(Global Orbiting Navigational Satelite System), 중국에서 운영하는 COMPASS 및 일본에서 운영하는 QZSS(Quasi-Zenith Satellite System)등이 있다.The location information module 115 is a module for confirming or obtaining the location of the mobile terminal. The location information module 115 may obtain location information using a global navigation satellite system (GNSS). Here, the Global Positioning System (GNSS) is a term used to describe the radionavigation satellite systems in which certain types of radionavigation receivers orbiting the Earth are transmitting reference signals that can determine their position near the surface or ground surface . The Global Positioning System (GNSS) includes Global Positioning System (GPS) in the United States, Galileo in Europe, GLONASS (Global Orbiting Navigational Satelite System) in Russia, COMPASS in China and Japan QZSS (Quasi-Zenith Satellite System), which is operated by the Ministry of Land, Infrastructure and Transport.

GNSS의 대표적인 예를 들면, 상기 위치정보 모듈(115)은 GPS(Global Position System) 모듈일 수 있다. 상기 GPS 모듈은, 일 지점(개체)이 3개 이상의 위성으로부터 떨어진 거리에 관한 정보와, 상기 거리 정보가 측정된 시간에 관한 정보를 산출한 다음 상기 산출된 거리 정보에 삼각법을 적용함으로써, 일 시간에 일 지점(개체)에 대한 위도, 경도, 및 고도에 따른 3차원의 위치 정보를 산출할 수 있다. 나아가, 3개의 위성을 이용하여 위치 및 시간 정보를 산출하고, 또 다른 1개의 위성을 이용하여 상기 산출된 위치 및 시간 정보의 오차를 수정하는 방법 또한 사용되고 있다. 상기 GPS 모듈은 현 위치를 실시간으로 계속 산출하고 그를 이용하여 속도 정보를 산출하기도 한다.As a representative example of the GNSS, the location information module 115 may be a Global Position System (GPS) module. The GPS module calculates information on a distance (distance) from three or more satellites to a point (object), information on a time when the distance information is measured, and then applies a trigonometric method to the calculated distance information, Dimensional position information according to latitude, longitude, and altitude with respect to a point (object) in the three-dimensional space. Furthermore, a method of calculating position and time information using three satellites and correcting the error of the calculated position and time information using another satellite is also used. The GPS module continuously calculates the current position in real time, and calculates velocity information using the current position.

도 2를 참조하면, A/V(Audio/Video) 입력부(120)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(121)와 마이크(122) 등이 포함될 수 있다. 카메라(121)는 화상 통화 모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(151)에 표시될 수 있다.Referring to FIG. 2, the A / V input unit 120 is for inputting an audio signal or a video signal, and may include a camera 121 and a microphone 122. The camera 121 processes image frames such as still images or moving images obtained by the image sensor in the video call mode or the photographing mode. The processed image frame may be displayed on the display unit 151.

카메라(121)에서 처리된 화상 프레임은 메모리부(160)에 저장되거나 무선 통신부(110)를 통하여 외부로 전송될 수 있다. 카메라(121)는 단말기의 구성 태양에 따라 2개 이상이 구비될 수도 있다.The image frame processed by the camera 121 may be stored in the memory unit 160 or transmitted to the outside through the wireless communication unit 110. The camera 121 may be equipped with two or more cameras according to the configuration of the terminal.

마이크(122)는 통화 모드 또는 녹음 모드, 음성 인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 입력받아 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 통화 모드인 경우 이동통신 모듈(112)을 통하여 이동통신 기지국으로 송신 가능한 형태로 변환되어 출력될 수 있다. 마이크(122)에는 외부의 음향 신호를 입력받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.The microphone 122 receives an external sound signal by a microphone in a call mode, a recording mode, a voice recognition mode, etc., and processes the external sound signal into electrical voice data. The processed voice data can be converted into a form that can be transmitted to the mobile communication base station through the mobile communication module 112 when the voice data is in the call mode, and output. The microphone 122 may implement various noise removing algorithms for removing noise generated in the process of receiving an external sound signal.

사용자 입력부(130)는 사용자가 단말기의 동작 제어를 위한 입력 데이터를 발생시킨다. 사용자 입력부(130)는 키 패드(key pad) 돔 스위치 (dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치 등으로 구성될 수 있다.The user input unit 130 generates input data for the user to control the operation of the terminal. The user input unit 130 may include a key pad dome switch, a touch pad (static pressure / capacitance), a jog wheel, a jog switch, and the like.

센싱부(140)는 이동 단말기(100)의 개폐 상태, 이동 단말기(100)의 위치, 사용자 접촉 유무, 이동 단말기의 방위, 이동 단말기의 가속/감속 등과 같이 이동 단말기(100)의 현 상태를 감지하여 이동 단말기(100)의 동작을 제어하기 위한 센싱 신호를 발생시킨다. 예를 들어 이동 단말기(100)가 슬라이드 폰 형태인 경우 슬라이드 폰의 개폐 여부를 센싱할 수 있다. 또한, 전원부(190)의 전원 공급 여부, 인터페이스부(170)의 외부 기기 결합 여부 등과 관련된 센싱 기능을 담당할 수도 있다. 한편, 상기 센싱부(140)는 근접 센서를 포함할 수 있다. The sensing unit 140 detects a current state of the mobile terminal 100 such as an open / closed state of the mobile terminal 100, a location of the mobile terminal 100, presence or absence of a user contact, orientation of the mobile terminal, acceleration / deceleration of the mobile terminal, and the like. To generate a sensing signal for controlling the operation of the mobile terminal 100. For example, when the mobile terminal 100 is in the form of a slide phone, it may sense whether the slide phone is opened or closed. In addition, the sensor 190 may be responsible for sensing functions related to whether the power supply unit 190 supplies power or whether the interface unit 170 is coupled to an external device. Meanwhile, the sensing unit 140 may include a proximity sensor.

출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 이에는 디스플레이부(151), 음향 출력부(152), 알람부(153) 및 햅틱 모듈(154) 등이 포함될 수 있다.The output unit 150 is used to generate an output related to sight, hearing, or tactile sense, and may include a display unit 151, an audio output unit 152, an alarm unit 153, and a haptic module 154. have.

디스플레이부(151)는 이동 단말기(100)에서 처리되는 정보를 표시 출력한다. 예를 들어, 이동 단말기가 통화 모드인 경우 통화와 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. 이동 단말기(100)가 화상 통화 모드 또는 촬영 모드인 경우에는 촬영 또는/및 수신된 영상 또는 UI, GUI를 표시한다. The display unit 151 displays and outputs information processed by the mobile terminal 100. For example, when the mobile terminal is in a call mode, the mobile terminal displays a user interface (UI) or a graphic user interface (GUI) related to the call. When the mobile terminal 100 is in a video call mode or a photographing mode, the mobile terminal 100 displays photographed and / or received images, a UI, and a GUI.

디스플레이부(151)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다. The display unit 151 may be a liquid crystal display, a thin film transistor-liquid crystal display, an organic light-emitting diode, a flexible display, a three-dimensional display 3D display).

이들 중 일부 디스플레이는 그를 통해 외부를 볼 수 있도록 투명형 또는 광투과형으로 구성될 수 있다. 이는 투명 디스플레이라 호칭될 수 있는데, 상기 투명 디스플레이의 대표적인 예로는 투명 LCD 등이 있다. 디스플레이부(151)의 후방 구조 또한 광 투과형 구조로 구성될 수 있다. 이러한 구조에 의하여, 사용자는 단말기 바디의 디스플레이부(151)가 차지하는 영역을 통해 단말기 바디의 후방에 위치한 사물을 볼 수 있다.Some of these displays can be configured to be transparent or light transmissive so that they can be seen from the outside. This may be referred to as a transparent display. A representative example of the transparent display is a transparent LCD. The rear structure of the display unit 151 may also be configured as a light transmissive structure. With this structure, the user can see the object located behind the terminal body through the area occupied by the display unit 151 of the terminal body.

이동 단말기(100)의 구현 형태에 따라 디스플레이부(151)가 2개 이상 존재할 수 있다. 예를 들어, 이동 단말기(100)에는 복수의 디스플레이부들이 하나의 면에 이격되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다. According to an implementation form of the mobile terminal 100, two or more display units 151 may exist. For example, in the mobile terminal 100, a plurality of display portions may be spaced apart from one another, or may be disposed integrally with one another, and may be disposed on different surfaces, respectively.

디스플레이부(151)와 터치 동작을 감지하는 센서(이하, '터치 센서'라 함)가 상호 레이어 구조를 이루는 경우(이하, '터치스크린'이라 함)에, 디스플레이부(151)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 터치 센서는, 예를 들어, 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다.When the display unit 151 and a sensor for detecting a touch operation (hereinafter, referred to as a touch sensor) form a mutual layer structure (hereinafter referred to as a touch screen), the display unit 151 may be used in addition to an output device. Can also be used as an input device. The touch sensor may have, for example, a form of a touch film, a touch sheet, a touch pad, or the like.

터치 센서는 디스플레이부(151)의 특정 부위에 가해진 압력 또는 디스플레이부(151)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다.The touch sensor may be configured to convert a change in pressure applied to a specific portion of the display unit 151 or capacitance generated in a specific portion of the display unit 151 into an electrical input signal. The touch sensor may be configured to detect not only the position and area of the touch but also the pressure at the touch.

터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(180)로 전송한다. 이로써, 제어부(180)는 디스플레이부(151)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다.If there is a touch input to the touch sensor, the corresponding signal (s) is sent to the touch controller. The touch controller processes the signal (s) and then transmits the corresponding data to the controller 180. As a result, the controller 180 can know which area of the display unit 151 is touched.

상기 터치스크린에 의해 감싸지는 이동 단말기의 내부 영역 또는 상기 터치스크린의 근처에 근접 센서가 배치될 수 있다. 상기 근접 센서는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접 센서는 접촉식 센서보다는 그 수명이 길며 그 활용도 또한 높다.The proximity sensor may be disposed in an inner region of the mobile terminal covered by the touch screen or near the touch screen. The proximity sensor refers to a sensor that detects the presence or absence of an object approaching a predetermined detection surface or an object present in the vicinity without using a mechanical contact by using an electromagnetic force or infrared rays. Proximity sensors have a longer life and higher utilization than touch sensors.

상기 근접 센서의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다.Examples of the proximity sensor include a transmission photoelectric sensor, a direct reflection photoelectric sensor, a mirror reflection photoelectric sensor, a high frequency oscillation proximity sensor, a capacitive proximity sensor, a magnetic proximity sensor, and an infrared proximity sensor.

상기 터치스크린이 정전식인 경우에는 상기 포인터의 근접에 따른 전계의 변화로 상기 포인터의 근접을 검출하도록 구성된다. 이 경우 상기 터치 스크린(터치 센서)은 근접 센서로 분류될 수도 있다.When the touch screen is capacitive, the touch screen is configured to detect the proximity of the pointer by the change of the electric field according to the proximity of the pointer. In this case, the touch screen (touch sensor) may be classified as a proximity sensor.

상기 근접센서는, 근접 터치 및 근접 터치 패턴(예를 들어, 근접 터치 거리, 근접 터치 방향, 근접 터치 속도, 근접 터치 시간, 근접 터치 위치, 근접 터치 이동 상태 등)을 감지한다. 상기 감지된 근접 터치 동작 및 근접 터치 패턴에 상응하는 정보는 터치스크린 상에 출력될 수 있다.The proximity sensor detects a proximity touch and a proximity touch pattern (e.g., a proximity touch distance, a proximity touch direction, a proximity touch speed, a proximity touch time, a proximity touch position, a proximity touch movement state, and the like). Information corresponding to the sensed proximity touch operation and proximity touch pattern may be output on the touch screen.

음향 출력부(152)는 콜 신호 수신, 통화모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리부(160)에 저장된 오디오 데이터를 출력할 수도 있다. 음향 출력부(152)는 이동 단말기(100)에서 수행되는 기능(예를 들어, 콜 신호 수신음, 메시지 수신음 등)과 관련된 음향 신호를 출력한다. 이러한 음향 출력부(152)에는 리시버(Receiver), 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다. 또한 상기 음향 출력부(152)는 이어폰잭(116)을 통해 음향을 출력할 수 있다. 사용자는 상기 이어폰잭(116)에 이어폰을 연결하여 출력되는 음향을 들을 수 있다.The sound output unit 152 may output audio data received from the wireless communication unit 110 or stored in the memory unit 160 in a call signal reception, a call mode or a recording mode, a voice recognition mode, a broadcast reception mode, and the like. The sound output unit 152 outputs a sound signal related to a function (for example, a call signal reception sound and a message reception sound) performed in the mobile terminal 100. The sound output unit 152 may include a receiver, a speaker, a buzzer, and the like. In addition, the sound output unit 152 may output sound through the earphone jack 116. The user can connect the earphone to the earphone jack 116 to hear the sound output.

알람부(153)는 이동 단말기(100)의 이벤트 발생을 알리기 위한 신호를 출력할 수 있다. 이동 단말기에서 발생 되는 이벤트의 예로는 콜 신호 수신, 메시지 수신, 키 신호 입력, 터치 입력 등이 있다. 알람부(153)는 비디오 신호나 오디오 신호 이외에 다른 형태, 예를 들어 진동으로 이벤트 발생을 알리기 위한 신호를 출력할 수도 있다. 비디오 신호나 오디오 신호는 디스플레이부(151)나 음향 출력부(152)를 통해서도 출력될 수 있다.The alarm unit 153 may output a signal for notifying occurrence of an event of the mobile terminal 100. Examples of events occurring in the mobile terminal include call signal reception, message reception, key signal input, and touch input. The alarm unit 153 may output a signal for notifying occurrence of an event in a form other than a video signal or an audio signal, for example, vibration. The video signal or the audio signal may also be output through the display unit 151 or the sound output unit 152.

햅틱 모듈(haptic module, 154)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(154)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 있다. 햅택 모듈(154)이 발생하는 진동의 세기와 패턴 등은 제어가능하다. 예를 들어, 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다.The haptic module 154 generates various tactile effects that a user can feel. Vibration is a representative example of the haptic effect generated by the haptic module 154. The intensity and pattern of vibration generated by the haptic module 154 can be controlled. For example, different vibrations may be synthesized and output or may be sequentially output.

햅틱 모듈(154)은, 진동 외에도, 접촉 피부면에 대해 수직 운동하는 핀 배열에 의한 자극에 의한 효과, 분사구나 흡입구를 통한 공기의 분사력이나 흡입력을 통한 자극에 의한 효과, 피부 표면을 스치는 자극에 의한 효과, 전극(eletrode)의 접촉을 통한 자극에 의한 효과, 정전기력을 이용한 자극에 의한 효과, 흡열이나 발열 가능한 소자를 이용한 냉온감 재현에 의한 효과 등 다양한 촉각 효과를 발생시킬 수 있다.In addition to the vibration, the haptic module 154 may be used for the effects of stimulation by the arrangement of pins vertically moving with respect to the contact skin surface, the effect of the injection force of the air through the injection or inlet or the stimulation through the suction force, and the stimulation that rubs the skin surface. Various tactile effects may be generated, such as effects by stimulation through contact of electrodes, effects by stimulation using electrostatic force, and effects of reproducing a sense of warmth and heat using an endothermic or heat generating element.

햅틱 모듈(154)은 직접적인 접촉을 통해 촉각 효과의 전달할 수 있을 뿐만 아니라, 사용자의 손가락이나 팔 등의 근 감각을 통해 촉각 효과를 느낄 수 있도록 구현할 수도 있다. 햅틱 모듈(154)은 휴대 단말기(100)의 구성 태양에 따라 2개 이상이 구비될 수 있다.The haptic module 154 may not only deliver the haptic effect through direct contact, but also implement the haptic effect through the muscle sense of the user's finger or arm. Two or more haptic modules 154 may be provided according to a configuration aspect of the mobile terminal 100.

메모리부(160)는 제어부(180)의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들(예를 들어, 폰북, 메시지, 정지영상, 동영상 등)을 임시 저장할 수도 있다. 상기 메모리부(160)는 상기 터치스크린 상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.The memory unit 160 may store a program for the operation of the controller 180 and may temporarily store input / output data (for example, a phone book, a message, a still image, a video, etc.). The memory unit 160 may store data regarding vibration and sound of various patterns output when a touch input on the touch screen is performed.

메모리부(160)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory) 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 이동 단말기(100)는 인터넷(internet)상에서 상기 메모리부(160)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.The memory unit 160 may include a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory), Random Access Memory (RAM), Static Random Access Memory (SRAM), Read-Only Memory (ROM), Electrically Erasable Programmable Read-Only Memory (EEPROM), Programmable Read-Only Memory (PROM) Magnetic Memory, Magnetic It may include a storage medium of at least one type of disk, optical disk. The mobile terminal 100 may operate in association with a web storage that performs a storage function of the memory unit 160 on the Internet.

인터페이스부(170)는 이동 단말기(100)에 연결되는 모든 외부기기와의 통로 역할을 한다. 인터페이스부(170)는 외부 기기로부터 데이터를 전송받거나 전원을 공급받아 이동 단말기(100) 내부의 각 구성 요소에 전달하거나 이동 단말기(100) 내부의 데이터가 외부 기기로 전송되도록 한다. 예를 들어, 유/무선 헤드셋 포트, 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트, 이어폰 포트 등이 인터페이스부(170)에 포함될 수 있다. The interface unit 170 serves as a path with all external devices connected to the mobile terminal 100. The interface unit 170 receives data from an external device or receives power from the external device to transfer the data to each component in the mobile terminal 100 or to transmit data in the mobile terminal 100 to an external device. For example, a wired / wireless headset port, an external charger port, a wired / wireless data port, a memory card port, a port for connecting a device having an identification module, an audio I / O port, A video input / output (I / O) port, an earphone port, and the like may be included in the interface unit 170.

여기서, 식별 모듈은 이동 단말기(100)의 사용 권한을 인증하기 위한 각종 정보(즉, 사용자 식별 정보)를 저장한 칩으로서, 사용자 인증 모듈(User Identify Module, UIM), 가입자 인증 모듈(Subscriber Identify Module, SIM), 범용 사용자 인증 모듈(Universal Subscriber Identity Module, USIM) 등을 포함할 수 있다. 식별 모듈이 구비된 장치는, 카드(card) 형식으로 제작될 수 있다. 이때, 상기 인터페이스부(170)는 상기 카드 형식의 식별 모듈이 장착될 수 있는 카드 슬롯을 포함할 수 있다. 그러면, 상기 식별 모듈은 상기 카드 슬롯을 통하여 이동 단말기(100)와 연결될 수 있다.Here, the identification module is a chip that stores various information (that is, user identification information) for authenticating the use authority of the mobile terminal 100, and includes a user identification module (UIM) and a subscriber identification module (Subscriber Identify Module). , SIM), Universal Subscriber Identity Module (USIM), and the like. The device equipped with the identification module may be manufactured in the form of a card. In this case, the interface unit 170 may include a card slot in which the identification module of the card type may be mounted. Then, the identification module may be connected to the mobile terminal 100 through the card slot.

상기 인터페이스부(170)는 이동단말기(100)가 외부 크래들(cradle)과 연결될 때 상기 크래들로부터의 전원이 상기 이동단말기(100)에 공급되는 통로가 되거나, 사용자에 의해 상기 크래들에서 입력되는 각종 명령 신호가 상기 이동단말기로 전달되는 통로가 될 수 있다. 상기 크래들로부터 입력되는 각종 명령 신호 또는 상기 전원은 상기 이동단말기가 상기 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수도 있다.The interface unit 170 may be a passage through which power from the cradle is supplied to the mobile terminal 100 when the mobile terminal 100 is connected to an external cradle, or various commands input from the cradle by a user. The signal may be a passage for transmitting to the mobile terminal. Various command signals or power input from the cradle may be operated as signals for recognizing that the mobile terminal is correctly mounted on the cradle.

제어부(180)는 통상적으로 이동 단말기의 전반적인 동작을 제어한다. 예를 들어 음성 통화, 데이터 통신, 화상 통화 등을 위한 관련된 제어 및 처리를 수행한다. 제어부(180)는 멀티 미디어 재생을 위한 멀티미디어 모듈(181)을 구비할 수도 있다. 멀티미디어 모듈(181)은 제어부(180) 내에 구현될 수도 있고, 제어부(180)와 별도로 구현될 수도 있다.The control unit 180 typically controls the overall operation of the mobile terminal. For example, perform related control and processing for voice calls, data communications, video calls, and the like. The controller 180 may include a multimedia module 181 for playing multimedia. The multimedia module 181 may be implemented in the controller 180 or may be implemented separately from the controller 180.

상기 제어부(180)는 상기 터치스크린 상에서 행해지는 필기 입력 또는 그림 그리기 입력을 각각 문자 및 이미지로 인식할 수 있는 패턴 인식 처리를 행할 수 있다.The controller 180 may perform a pattern recognition process for recognizing a writing input or a drawing input performed on the touch screen as text and an image, respectively.

전원부(190)는 제어부(180)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다.The power supply unit 190 receives an external power source and an internal power source under the control of the controller 180 to supply power for operation of each component.

여기에 설명되는 다양한 실시예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.Various embodiments described herein may be implemented in a recording medium readable by a computer or similar device using, for example, software, hardware or a combination thereof.

하드웨어적인 구현에 의하면, 여기에 설명되는 실시예는 ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 그러한 실시예들이 제어부(180)에 의해 구현될 수 있다.According to a hardware implementation, embodiments described herein include application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), and the like. It may be implemented using at least one of processors, controllers, micro-controllers, microprocessors, and electrical units for performing the functions. It may be implemented by the controller 180.

소프트웨어적인 구현에 의하면, 절차나 기능과 같은 실시예들은 적어도 하나의 기능 또는 작동을 수행하게 하는 별개의 소프트웨어 모듈과 함께 구현될 수 있다. 소프트웨어 코드는 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션에 의해 구현될 수 있다. 또한, 소프트웨어 코드는 메모리부(160)에 저장되고, 제어부(180)에 의해 실행될 수 있다.In a software implementation, embodiments such as procedures or functions may be implemented with separate software modules that allow at least one function or operation to be performed. The software code may be implemented by a software application written in a suitable programming language. Also, the software codes may be stored in the memory unit 160 and executed by the control unit 180. [

이상에서는 도 1 내지 도 2를 참조하여, 본 발명에 따른 이동 단말기(100)의 일반적인 동작 및 기능에 대하여 살펴 보았다. 이하에서는, 도 3 내지 도 42를 참조하여, 웹 브라우징과 관련된 본 발명의 이동 단말기(100) 및 그 구동 방법에 대하여 살펴 본다.In the above, with reference to FIGS. 1 to 2, the general operation and function of the mobile terminal 100 according to the present invention have been described. Hereinafter, the mobile terminal 100 and the driving method thereof according to the present invention related to web browsing will be described with reference to FIGS. 3 to 42.

도 3은 본 발명의 실시예에 따른 이동 단말기 구동 방법을 나타내는 흐름도이다. 이하, 도 2 및 도 3을 참조하여 상기 이동 단말기 구동 방법을 살펴 본다.3 is a flowchart illustrating a method for driving a mobile terminal according to an embodiment of the present invention. Hereinafter, a method of driving the mobile terminal will be described with reference to FIGS. 2 and 3.

먼저, 제어부(180)는 디스플레이부(151)에 웹 페이지를 표시한다(S100). 이하, 웹 페이지가 표시되는 레이어를 제1 레이어라 한다. 상기 웹 페이지에는 복수의 링크가 걸려 있으며, 문자 입력을 위한 복수의 입력 필드가 존재할 수 있다. 상기 복수의 입력 필드에는 검색을 위한 입력 필드, 사용자 로그인을 위한 아이디 및 패스워드 입력을 위한 입력 필드들, 주소를 입력하기 위한 주소 입력 필드 등이 포함될 수 있다.First, the controller 180 displays a web page on the display unit 151 (S100). Hereinafter, the layer on which the web page is displayed is called a first layer. The web page has a plurality of links, and there may be a plurality of input fields for text input. The plurality of input fields may include an input field for searching, input fields for inputting an ID and password for user login, an address input field for inputting an address, and the like.

상기 제어부(180)는 입력 신호를 수신하고, 수신된 입력 신호에 기초하여 웹 페이지가 표시되는 제1 레이어를 비활성화시키고, 터치 입력 영역을 상기 디스플레이부(151)에 표시한다(S110). 이하, 웹 페이지가 표시되는 제1 레이어와 구분되며, 터치 입력을 인식할 있는 영역을 제2 레이어라 한다.The controller 180 receives an input signal, deactivates a first layer on which a web page is displayed based on the received input signal, and displays a touch input area on the display unit 151 (S110). Hereinafter, an area which is distinguished from a first layer where a web page is displayed and which recognizes a touch input is called a second layer.

상기 제1 레이어가 비활성화됨에 따라 상기 웹 페이지에 연결되어 있는 링크 역시 비활성화되므로, 웹 브라우징 과정에서 사용자가 웹 페이지를 터치하더라도 오동작이 발생하지 않는다. 상기 제2 레이어가 디스플레이부(151)에 표시되면, 사용자는 상기 제2 레이어에 대한 터치 동작을 통하여 웹 브라우징 관련 기능을 수행할 수 있다.As the first layer is deactivated, a link connected to the web page is also deactivated, so that a malfunction does not occur even if the user touches the web page in the web browsing process. When the second layer is displayed on the display unit 151, the user may perform a web browsing related function through a touch operation on the second layer.

상기 제2 레이어가 상기 디스플레이부(151)에 표시되면, 사용자는 상기 제2 레이어에 대한 터치 동작을 수행할 수 있고, 상기 제어부(180)는 사용자의 터치 동작에 의하여 발생하는 터치 입력에 기초하여 상기 웹 페이지에 포함된 입력 필드를 선택할 수 있다(S120). 터치 입력에 기초하여 입력 필드가 선택되면, 상기 제어부(180)는 현재 제1 레이어에 표시되는 웹 페이지의 영역을 상기 선택된 입력 필드가 포함된 영역으로 스크롤한다(S130).When the second layer is displayed on the display unit 151, the user may perform a touch operation on the second layer, and the controller 180 may be based on a touch input generated by the user's touch operation. An input field included in the web page may be selected (S120). When the input field is selected based on the touch input, the controller 180 scrolls an area of the web page currently displayed on the first layer to an area including the selected input field (S130).

즉, 제어부(180)는 웹 페이지가 표시되는 제1 레이어가 아닌 제2 레이어에 대한 터치 입력에 응답하여 웹 페이지에 포함된 입력 필드를 선택할 수 있고, 상기 디스플레이부(151)에 표시된 웹 페이지 영역을 상기 선택된 웹 페이지 상기 선택된 필드가 포함된 웹 페이지 영역으로 스크롤할 수 있다.That is, the controller 180 may select an input field included in the web page in response to a touch input for the second layer instead of the first layer on which the web page is displayed, and the web page area displayed on the display unit 151. May scroll to a web page area including the selected field.

도 4 내지 도 5 각각은 본 발명의 실시예에 따른 이동 단말기(100)에 있어서의 웹 페이지를 표시하는 제1 레이어와 터치 인식 영역인 제2 레이어의 일예를 나타낸다.4 to 5 each show an example of a first layer displaying a web page and a second layer serving as a touch recognition area in the mobile terminal 100 according to an exemplary embodiment of the present invention.

도 4를 참조하면, 상기 제1 레이어와 상기 제2 레이어는 상기 디스플레이부(151)의 화면 내에서 서로 수평적으로 분리되어 있으며, 상기 제1 레이어에는 웹 페이지가 표시되며, 상기 제2 레이어에는 상기 웹 페이지에 포함된 입력 필드의 리스트 및 문자 입력 영역이 표시됨을 알 수 있다. 다만, 상기 제1 레이어는 비활성화되어 사용자의 터치 동작에 반응하지 않는 상태이며, 상기 제2 레이어는 활성화되어 사용자의 터치 동작에 반응하는 상태이다.Referring to FIG. 4, the first layer and the second layer are horizontally separated from each other on the screen of the display unit 151, and a web page is displayed on the first layer, and on the second layer. It can be seen that a list of input fields included in the web page and a text input area are displayed. However, the first layer is deactivated and does not respond to the user's touch operation, and the second layer is activated and responds to the user's touch operation.

도 5를 참조하면, 상기 제1 레이어와 상기 제2 레이어는 서로 수직적으로 분리되며, 상기 제2 레이어는 반투명한 상태로 상기 제1 레이어 전체의 상부에 표시됨을 알 수 있다. 그러나 상기 제2 레이어는 투명한 상태로 상지 제1 레이어의 일부의 상부에 하나의 영역 또는 여러 개의 영역으로 분리되어 표시될 수도 있다. 상기 제1 레이어는 비활성화된 상태이며, 제2 레이어는 활성화된 상태인 것은 도 4를 참조하여 설명한 바와 같다.Referring to FIG. 5, it can be seen that the first layer and the second layer are vertically separated from each other, and the second layer is displayed on top of the entire first layer in a translucent state. However, the second layer may be separated into one region or several regions on the upper part of the upper layer of the upper layer in a transparent state. The first layer is in an inactive state and the second layer is in an active state as described with reference to FIG. 4.

이하에서는, 도 6 내지 도 16을 참조하여, 도 3에 도시된 이동 단말기 구동 방법의 구체적인 예들을 살펴 본다.Hereinafter, referring to FIGS. 6 to 16, specific examples of the mobile terminal driving method illustrated in FIG. 3 will be described.

도 6은 본 발명의 다른 실시예에 따른 이동 단말기 구동 방법을 나타내는 흐름도이다. 도 7은 도 6에 도시된 이동 단말기 구동 방법에 따라 웹 페이지 영역이 스크롤 되는 과정을 나타낸다. 이하, 도 2 및 도 6 내지 도 7을 참조하여 도 6에 도시된 상기 이동 단말기 구동 방법을 설명한다.6 is a flowchart illustrating a method of driving a mobile terminal according to another embodiment of the present invention. FIG. 7 illustrates a process of scrolling a web page area according to the mobile terminal driving method shown in FIG. 6. Hereinafter, the method of driving the mobile terminal illustrated in FIG. 6 will be described with reference to FIGS. 2 and 6 to 7.

디스플레이부(151)에 제1 레이어에 웹 페이지가 표시된다(S200). 상기 제1 레이어에 웹 페이지가 표시된 다음 입력 신호가 수신되면, 제어부(180)는 상기 입력 신호에 응답하여 상기 제1 레이어를 비활성화시키고, 상기 제1 레이어에 표시된 웹 페이지에 포함된 입력 필드의 목록이 표시된 상기 제2 레이어를 디스플레이부(151)에 표시한다(S210). 여기서, 입력 신호는 사용자의 터치 동작, 사용자의 특정 버튼 선택 동작에 기초하여 발생할 수 있다.The web page is displayed on the first layer on the display unit 151 (S200). When an input signal is received after the web page is displayed on the first layer, the controller 180 deactivates the first layer in response to the input signal, and lists the input fields included in the web page displayed on the first layer. The displayed second layer is displayed on the display unit 151 (S210). Here, the input signal may be generated based on a touch operation of the user and a specific button selection operation of the user.

상기 제2 레이어는 상기 입력 필드의 리스트를 표시하는 제1 영역 및 터치 동작에 기초하여 선택된 필드에 문자를 입력하기 위한 제2 영역을 포함할 수 있다. 도 7을 참조하면, 제1 영역에는 도 7에 도시된 바와 같이, 상기 제1 영역에는 웹 페이지에 포함된 주소 입력 필드, 검색 입력 필드, 아이디 입력 필드, 패스워드 입력 필드 등의 입력 필드의 리스트가 표시되며, 상기 제2 영역에는 문자 입력을 위한 가상 키패드가 표시될 수 있음을 알 수 있다.The second layer may include a first area for displaying a list of the input field and a second area for inputting a character in a field selected based on a touch operation. Referring to FIG. 7, as shown in FIG. 7, the first area includes a list of input fields such as an address input field, a search input field, an ID input field, and a password input field included in a web page. It is displayed that the virtual keypad for text input may be displayed in the second area.

상기 제2 레이어가 상기 디스플레이부(151)에 표시되면, 상기 제어부(180)는 사용자의 터치 동작에 의하여 발생하는 터치 입력에 기초하여 상기 웹 페이지에 포함된 입력 필드를 선택한다(S220). 터치 입력에 기초하여 입력 필드가 선택되면, 상기 제어부(180)는 현재 제1 레이어에 표시되는 웹 페이지의 영역을 상기 선택된 입력 필드가 포함된 영역으로 스크롤한다(S230).When the second layer is displayed on the display unit 151, the controller 180 selects an input field included in the web page based on a touch input generated by a user's touch operation (S220). When an input field is selected based on the touch input, the controller 180 scrolls an area of the web page currently displayed on the first layer to an area including the selected input field (S230).

도 7을 참조하면, 사용자가 제2 레이어의 제1 영역에 표시된 입력 필드의 목록 중 어느 하나인 포털 사이트 "다음"에 대한 검색 입력 필드에 대한 터치 동작을 수행하면(도 7의 (a) 참조), 커서가 다음 검색 입력 필드로 이동하여 제1 레이어에 포함된 다음 검색 입력 필드가 선택되며 상기 제1 레이어에 표시되는 웹 페이지 영역이 상기 다음 검색 필드를 포함하는 영역으로 이동된 것을 알 수 있다(도 7의 (b) 참조).Referring to FIG. 7, when a user performs a touch operation on a search input field for the portal site “next” which is one of a list of input fields displayed in the first area of the second layer (see FIG. 7A). ), It can be seen that the cursor moves to the next search input field, the next search input field included in the first layer is selected, and the web page area displayed on the first layer is moved to the area including the next search field. (See FIG. 7B).

도 8은 본 발명의 또 다른 실시예에 따른 이동 단말기 구동 방법을 나타내는 흐름도이다. 도 9 내지도 10 각각은 도 8에 도시된 이동 단말기 구동 방법에 따라 웹 페이지의 영역이 스크롤되는 과정을 나타낸다. 이하, 도 2 및 도 8 내지 도 10을 참조하여 도 8에 도시된 상기 이동 단말기 구동 방법을 설명한다.8 is a flowchart illustrating a method of driving a mobile terminal according to another embodiment of the present invention. 9 to 10 illustrate a process of scrolling an area of a web page according to the method of driving the mobile terminal illustrated in FIG. 8. Hereinafter, the method of driving the mobile terminal shown in FIG. 8 will be described with reference to FIGS. 2 and 8 to 10.

디스플레이부(151)에 제1 레이어에 웹 페이지가 표시된다(S300). 상기 제1 레이어에 웹 페이지가 표시된 다음 입력 신호가 수신되면, 제어부(180)는 상기 입력 신호에 응답하여 상기 제1 레이어를 비활성화시키고, 상기 디스플레이부(151)의 상기 제2 레이어에 제2 영역(즉, 문자 입력 영역)을 표시한다(S310).The web page is displayed on the first layer on the display unit 151 (S300). If an input signal is received after a web page is displayed on the first layer, the controller 180 deactivates the first layer in response to the input signal, and a second area is displayed on the second layer of the display unit 151. (That is, a character input area) is displayed (S310).

상기 제2 영역이 표시되면, 상기 제어부(180)는 상기 제2 영역을 통하여 입력되는 특정 문자에 대하여 미리 설정된 입력 필드를 선택하며(S320), 제1 레이어에 표시되는 웹 페이지 영역을 상기 선택된 입력 필드가 포함된 영역으로 스크롤한다(S330).When the second region is displayed, the controller 180 selects a preset input field for a specific character input through the second region (S320), and inputs the selected web page region displayed on the first layer. Scroll to the area containing the field (S330).

도 9를 참조하면, 사용자가 제2 레이어의 제2 영역에 표시된 가상 키패드에어 포털 사이트 "다음"에 대한 검색 입력 필드에 대응되도록 미리 설정된 영문자 "D"에 대한 터치 동작을 수행하면(도 9의 (a) 참조), 커서가 다음 검색 입력 필드로 이동하여 제1 레이어에 포함된 다음 검색 입력 필드가 선택되며 상기 제1 레이어에 표시되는 웹 페이지 영역이 상기 다음 검색 필드를 포함하는 영역으로 이동된 것을 알 수 있다(도 9의 (b) 참조).Referring to FIG. 9, when the user performs a touch operation on the alphabet letter “D” which is preset to correspond to the search input field for the virtual keypad air portal site “Next” displayed in the second area of the second layer (see FIG. 9). (a)), the cursor is moved to the next search input field, the next search input field included in the first layer is selected, and the web page area displayed on the first layer is moved to the area including the next search field. It can be seen that (see Fig. 9 (b)).

여기서, 제1 레이어에 포함된 입력 필드들 각각에 대하여 대응되도록 미리 설정된 특정 문자는 제2 레이어에 표시될 수 있다. 도 9에서 제1 영역에 표시된 입력 필드의 리스트에서 입력 필드의 괄호 속의 영문자가 입력 필드에 대응되도록 설정된 문자이다. 도 9를 참조하면, 각 입력 필드에 대하여 미리 설정된 특정 문자는, 주소 입력 필드에 대해서는 "A", 구글 검색 입력 필드에 대해서는 "G", 다음 검색 입력 필드에 대해서는 "D", 아이디 입력 필드에 대해서는 "I", 패스워드 입력 필드에 대해서는 "P"임을 알 수 있다.Here, the specific character preset to correspond to each of the input fields included in the first layer may be displayed on the second layer. In FIG. 9, in the list of input fields displayed in the first area, an alphabetic character in parentheses of the input field is a character set to correspond to the input field. Referring to FIG. 9, specific characters preset for each input field are “A” for an address input field, “G” for a Google search input field, “D” for a next search input field, and an ID input field. It can be seen that " I " for " P " for the password input field.

한편, 각 입력 필드에 대응하는 특정 문자는, 웹 페이지가 디스플레이부(151)에 표시된 다음, 상기 제어부(180)에 의하여 설정될 수도 있고, 사용자에 의하여 설정될 수도 있다.Meanwhile, a specific character corresponding to each input field may be set by the controller 180 after being displayed on the display unit 151 or by a user.

도 10을 참조하면, 사용자가 제2 레이어의 제2 영역에 표시된 필기 인식 영역을 통하여 포털 사이트 "다음"에 대한 검색 입력 필드에 대응되도록 미리 설정된 영문자 "D"를 입력하면(도 10의 (a)), 커서가 다음 검색 입력 필드로 이동하여 제1 레이어에 포함된 다음 검색 입력 필드가 선택되며 상기 제1 레이어에 표시되는 웹 페이지 영역이 상기 다음 검색 필드를 포함하는 영역으로 이동된 것을 알 수 있다(도 10의 (b)).Referring to FIG. 10, when the user inputs the alphabet letter “D” which is preset to correspond to the search input field for the portal site “next” through the handwriting recognition area displayed in the second area of the second layer (FIG. )), The cursor moves to the next search input field, so that the next search input field included in the first layer is selected, and the web page area displayed on the first layer is moved to the area including the next search field. (FIG. 10B).

도 11은 본 발명의 또 다른 실시예에 따른 이동 단말기 구동 방법을 나타내는 흐름도이다. 도 12는 도 11에 도시된 이동 단말기 구동 방법에 따른 웹 페이지의 영역이 스크롤되는 과정을 나타낸다. 이하, 도 2 및 도 11 내지 도 12를 참조하여 도 11에 도시된 이동 단말기 구동 방법을 설명한다.11 is a flowchart illustrating a method of driving a mobile terminal according to another embodiment of the present invention. FIG. 12 illustrates a process of scrolling an area of a web page according to the mobile terminal driving method of FIG. 11. Hereinafter, the method of driving the mobile terminal illustrated in FIG. 11 will be described with reference to FIGS. 2 and 11 to 12.

디스플레이부(151)의 제1 레이어에 웹 페이지가 표시된다(S400). 상기 제1 레이어에 웹 페이지가 표시된 다음 입력 신호가 수신되면, 제어부(180)는 상기 입력 신호에 응답하여 상기 제1 레이어를 비활성화시키고, 상기 제1 레이어 위에 상제2 레이어를 표시한다(S410).The web page is displayed on the first layer of the display unit 151 (S400). When an input signal is received after a web page is displayed on the first layer, the controller 180 deactivates the first layer in response to the input signal, and displays an upper second layer on the first layer (S410).

상기 제2 레이어가 표시되면, 상기 제어부(180)는 상기 웹 페이지의 입력 필드 상부의 제2 레이어 영역을 통하여 발생하는 터치 입력에 응답하여 입력 필드를 선택하며(S420), 제1 레이어에 표시되는 웹 페이지 영역을 상기 선택된 입력 필드가 포함된 영역으로 스크롤한다(S430). 여기서, 상기 제2 레이어는 필기 인식 영역일 수 있다.When the second layer is displayed, the controller 180 selects an input field in response to a touch input generated through the second layer area above the input field of the web page (S420) and is displayed on the first layer. The web page area is scrolled to an area including the selected input field (S430). Here, the second layer may be a handwriting recognition area.

도 12를 참조하면, 상기 제2 레이어는 웹 페이지가 표시된 제1 레이어 위에반투명한 상태로 표시됨을 알 수 있다. 상기 제2 레이어가 표시된 다음, 사용자가 구글 검색 입력 필드 상부의 제2 레이어를 터치하면, 커서가 구글 검색 입력 필드로 이동하여 상기 제1 레이어에 표시된 웹 페이지의 구글 검색 입력 필드가 선택되며, 상기 제1 레이어에 표시되는 웹 페이지 영역이 상기 구글 검색 필드를 포함하는 영역으로 이동된 것을 알 수 있다.12, it can be seen that the second layer is displayed in a translucent state on the first layer on which the web page is displayed. After the second layer is displayed, when the user touches the second layer above the Google search input field, the cursor moves to the Google search input field to select the Google search input field of the web page displayed on the first layer. It can be seen that the web page area displayed on the first layer has been moved to the area including the Google search field.

도 13은 본 발명의 또 다른 실시예에 따른 이동 단말기 구동 방법을 나타내는 흐름도이다. 도 14 내지도 16 각각은 도 13에 도시된 이동 단말기 구동 방법에 따라 웹 페이지의 영역이 스크롤되는 과정을 나타낸다. 이하, 도 2 및 도 13 내지 도 16을 참조하여 도 13에 도시된 이동 단말기 구동 방법을 살펴 본다.13 is a flowchart illustrating a method of driving a mobile terminal according to another embodiment of the present invention. 14 to 16 illustrate a process of scrolling an area of a web page according to the method of driving the mobile terminal illustrated in FIG. 13. Hereinafter, a method of driving the mobile terminal shown in FIG. 13 will be described with reference to FIGS. 2 and 13 to 16.

디스플레이부(151)의 제1 레이어에 웹 페이지가 표시된다(S500). 입력 신호가 수신되면, 제어부(180)는 상기 입력 신호에 응답하여 상기 제1 레이어를 비활성화시키고, 필기 인식 영역인 제2 레이어를 상기 디스플레이부(151) 위에 표시한다(S510).The web page is displayed on the first layer of the display unit 151 (S500). When the input signal is received, the controller 180 deactivates the first layer in response to the input signal, and displays a second layer, which is a writing recognition area, on the display unit 151 (S510).

상기 제2 영역이 표시되면, 상기 제어부(180)는 상기 제2 영역을 통하여 입력되는 특정 문자에 대하여 미리 설정된 입력 필드를 선택하며(S520), 제1 레이어에 표시되는 웹 페이지 영역을 상기 선택된 입력 필드가 포함된 영역으로 스크롤한다(S530).When the second area is displayed, the controller 180 selects an input field preset for a specific character input through the second area (S520), and inputs the selected web page area to the first layer. Scroll to the area containing the field (S530).

도 14를 참조하면, 사용자가 필기 인식 영역인 제2 레이어를 통하여 포털 사이트 "다음"에 대한 검색 입력 필드에 대응되도록 미리 설정된 영문자 "D"를 입력하면(도 14의 (a)), 커서가 다음 검색 입력 필드로 이동하여 제1 레이어에 포함된 다음 검색 입력 필드가 선택되며 상기 제1 레이어에 표시되는 웹 페이지 영역이 상기 다음 검색 필드를 포함하는 영역으로 이동된 것을 알 수 있다(도 14의 (b)).Referring to FIG. 14, when the user inputs the alphabet letter “D”, which is preset to correspond to the search input field for the portal site “next” through the second layer which is the handwriting recognition area (FIG. 14A), the cursor is displayed. It may be seen that the next search input field included in the first layer is selected by moving to the next search input field, and the web page area displayed on the first layer is moved to the area including the next search field (FIG. 14). (b)).

참고로, 도 14에서 영문자 "D"가 입력되는 영역은 투명한 상태이나 웹 페이지에 포함된 입력 필드를 선택하기 위한 특정 문자를 입력하는 필기 인식 영역이며, 반투명한 상태의 제2 레이어는 상기 특정 문자에 기초하여 선택된 입력 필드에 문자를 입력하기 위한 필기 인식 영역이다.For reference, in FIG. 14, the region in which the English letter “D” is input is a handwriting recognition region for inputting a specific character for selecting an input field included in a transparent state or a web page, and the second layer in the translucent state is the specific character. A handwriting recognition area for inputting a character into an input field selected based on the.

도 15를 참조하면, 사용자가 포털 사이트 "다음"에 대한 검색 입력 필드에 대응되도록 미리 설정된 영문자 "D"에 대한 필기 입력을 제2 레이어에서 웹 페이지에 포함된 입력 필드를 선택하기 위한 영역인 투명한 필기 인식 영역에서 시작하여 제2 레이어에서 선택된 입력 필드에 문자를 입력하기 위한 영역에서 마무리하는 경우에도(도 15의 (a)), 커서가 다음 검색 입력 필드로 이동하여 제1 레이어에 포함된 다음 검색 입력 필드가 선택되며 상기 제1 레이어에 표시되는 웹 페이지 영역이 상기 다음 검색 필드를 포함하는 영역으로 이동된 것을 알 수 있다(도 15의 (b)).Referring to FIG. 15, a transparent input area for selecting a input field included in a web page in a second layer by a user for handwriting input for an alphabetic letter “D” preset to correspond to a search input field for a portal site “next”. Even when starting from the handwriting recognition area and finishing in the area for entering characters in the input field selected in the second layer (Fig. 15 (a)), the cursor moves to the next search input field and is included in the first layer. It can be seen that the search input field is selected and the web page area displayed on the first layer has been moved to the area including the next search field (FIG. 15B).

또한, 상기 제1 레이어 위에 상기 제2 레이어가 형성된 다음, 사용자가 상기 제2 레이어에 대한 터치 동작(터치 앤드 드래그)을 하면(도 16의 (a) 참조), 상기 제1 레이어에 표시되는 웹 페이지의 영역이 스크롤됨을 알 수 있다(도 16의 (b) 참조). 여기서, 상기 제2 레이어는 필기 인식 영역일 수 있다.In addition, after the second layer is formed on the first layer, when the user performs a touch operation (touch and drag) on the second layer (see FIG. 16A), the web displayed on the first layer It can be seen that the area of the page is scrolled (see FIG. 16B). Here, the second layer may be a handwriting recognition area.

도 17은 본 발명의 또 다른 실시예에 따른 이동 단말기 구동 방법을 나타내는 흐름도이다. 이하, 도 2 및 도 17을 참조하여 도 17에 도시된 상기 이동 단말기 구동 방법을 설명한다.17 is a flowchart illustrating a method of driving a mobile terminal according to another embodiment of the present invention. Hereinafter, the method of driving the mobile terminal shown in FIG. 17 will be described with reference to FIGS. 2 and 17.

디스플레이부(151)의 제1 레이어에 웹 페이지가 표시된 다음, 입력 신호가 수신되면, 제어부(180)는 상기 입력 신호에 응답하여 상기 제1 레이어에 표시된 웹 페이지에 포함된 입력 필드에 문자를 입력하기 위한 터치 인식 영역인 제2 레이어를 상기 디스플레이부(151)에 표시한다(S600).After the web page is displayed on the first layer of the display unit 151 and the input signal is received, the controller 180 inputs a character into an input field included in the web page displayed on the first layer in response to the input signal. A second layer, which is a touch recognition area, is displayed on the display unit 151 (S600).

그런 다음, 상기 제2 레이어를 통하여 발생하는 적어도 하나의 터치 입력이 수신되면, 상기 제어부(180)는 상기 웹 페이지에 포함된 입력 필드를 선택하며(S610), 상기 제1 레이어에 표시되는 웹 페이지의 영역을 상기 선택된 입력 필드가 포함된 영역으로 스크롤하며(S620), 상기 선택된 입력 필드에 문자를 입력한다(S630).Then, when at least one touch input generated through the second layer is received, the controller 180 selects an input field included in the web page (S610) and the web page displayed on the first layer. The region of S is scrolled to an area including the selected input field (S620), and a character is input to the selected input field (S630).

이하에서는, 도 18 내지 도 29를 참조하여, 도 17에 도시된 이동 단말기 구동 방법의 구체적인 예들을 살펴 본다.Hereinafter, specific examples of the mobile terminal driving method illustrated in FIG. 17 will be described with reference to FIGS. 18 to 29.

도 18은 본 발명의 또 다른 실시예에 따른 이동 단말기 구동 방법을 나타낸다. 도 19 내지 도 22 각각은 도 18에 도시된 이동 단말기 구동 방법에 따라 웹 페이지의 입력 필드에 문자를 입력하는 과정을 나타낸다. 이하, 도 2 및 도 18 내지 도 22를 참조하여 도 18에 도시된 상기 이동 단말기 구동 방법을 설명한다.18 illustrates a mobile terminal driving method according to another embodiment of the present invention. 19 to 22 each illustrate a process of inputting text into an input field of a web page according to the method of driving a mobile terminal illustrated in FIG. 18. Hereinafter, the method of driving the mobile terminal shown in FIG. 18 will be described with reference to FIGS. 2 and 18 to 22.

제어부(180)는 디스플레이부(151)의 제1 레이어에 웹 페이지를 표시한다(S700). 상기 제1 레이어에 웹 페이지가 표시된 다음, 입력 신호가 수신되면, 상기 제어부(180)는 제2 레이어를 상기 디스플레이부(151)에 표시한다(S710). 이때, 상기 제2 레이어의 제1 영역에는 상기 웹 페이지에 포함된 입력 필드의 리스트가 표시되며, 상기 제2 레이어의 제2 영역에는 입력 필드에 문자를 입력하기 위한 가상 키패드 또는 필기 인식 영역이 표시될 수 있다.The controller 180 displays a web page on the first layer of the display unit 151 (S700). After the web page is displayed on the first layer, if an input signal is received, the controller 180 displays the second layer on the display unit 151 (S710). In this case, a list of input fields included in the web page is displayed in the first area of the second layer, and a virtual keypad or a handwriting recognition area for inputting text in the input field is displayed in the second area of the second layer. Can be.

제2 레이어가 표시된 다음, 상기 제2 레이어의 상기 제1 영역을 통하여 발생하는 제1 터치 입력이 수신되면, 상기 제어부(180)는 상기 제1 터치 입력에 응답하여 상기 입력 필드 리스트 중 하나의 입력 필드를 선택한다(S720). 입력 필드가 선택된 다음, 상기 제2 영역을 통하여 발생하는 제2 터치 입력이 수신되면, 상기 제어부(180)는 상기 제2 터치 입력에 기초하여 상기 선택된 입력 필드에 문자를 입력한다(S730).After the second layer is displayed, when a first touch input generated through the first area of the second layer is received, the controller 180 inputs one of the input field lists in response to the first touch input. The field is selected (S720). After the input field is selected, when a second touch input generated through the second area is received, the controller 180 inputs a character into the selected input field based on the second touch input (S730).

이하, 도 19 내지 도 22를 참조하여, 도 18에 도시된 이동 단말기 구동 방법에 따라서 제1 레이어에 표시된 웹 페이지의 입력 필드에 대한 문자 입력의 예들을 살펴 본다.Hereinafter, examples of text input for an input field of a web page displayed on a first layer according to the mobile terminal driving method illustrated in FIG. 18 will be described with reference to FIGS. 19 to 22.

도 19의 (a)는 사용자가 제1 영역에 표시된 입력 필드 리스트 중 포털 사이트 "다음"의 검색 입력 필드를 선택한 다음, 사용자가 제2 영역에 표시된 가상 키패드를 통하여 상기 다음 검색 입력 필드에 문자열 "사랑"을 입력한 상태를 나타낸다. 이때, 상기 제1 영역의 입력 필드 리스트의 다음 검색 입력 필드에도 "사랑"이라는 문자열이 표시될 수 있음을 알 수 있다.FIG. 19A illustrates that a user selects a search input field of the portal site "next" from the list of input fields displayed in the first area, and then the user selects a string " "Love" is displayed. In this case, it can be seen that the character string "love" may be displayed in the next search input field of the input field list of the first region.

도 19의 (b)는, 도 19의 (a) 상태에서 소정의 시간이 경과한 후, 사용자가 제2 영역에 표시된 가상 키패드를 통하여 상기 다음 검색 입력 필드에 새로운 문자열 "행복"을 입력하여 상기 다음 검색 필드에 입력된 문자를 새로운 문자열로 편집한 결과를 나타낸다. 도 19의 (b)를 참조하면, 상기 제1 영역의 입력 필드 리스트의 다음 검색 입력 필드에도 "행복"이라는 문자열이 표시될 수 있음을 알 수 있다.FIG. 19B illustrates that after a predetermined time has elapsed in the state of FIG. 19, the user inputs a new character string "happy" into the next search input field through the virtual keypad displayed in the second area. Shows the result of editing the text entered in the next search field into a new string. Referring to FIG. 19B, it can be seen that a character string of "happy" may also be displayed in a next search input field of the input field list of the first region.

도 20의 (a)는 사용자가 제1 영역에 표시된 입력 필드 리스트 중 포털 사이트 "다음"의 검색 입력 필드를 선택한 다음, 사용자가 제2 영역에 표시된 필기 인식 영역을 통하여 상기 다음 검색 입력 필드에 문자열 "행복"을 입력하는 과정을 나타낸다.FIG. 20 (a) shows that a user selects a search input field of the portal site “next” from the list of input fields displayed in the first area, and then a string is entered in the next search input field through the handwriting recognition area displayed in the second area. Indicates the process of entering "happy".

도 20의 (b)는, 도 20의 (a)에서의 문자열 입력 결과를 나타내는 도면이다. 도 20의 (b)를 참조하면, 제1 레이어에 표시된 웹 페이지의 다음 검색 입력 필드에는 문자열 "행복"이 입력된 것을 알 수 있다.FIG. 20B is a diagram illustrating a character string input result in FIG. 20A. Referring to FIG. 20B, it can be seen that the string "happy" is input to the next search input field of the web page displayed on the first layer.

도 21은 사용자가 제2 레이어의 제1 영역에 표시된 입력 필드 리스트 중 다음 검색 입력 필드를 선택한 다음, 제2 레이어에 표시된 필기 인식 영역을 통하여 문자 "복"을 입력하는 과정을 나타낸다. FIG. 21 illustrates a process in which a user selects a next search input field from a list of input fields displayed in a first area of a second layer, and then inputs a character “bok” through a handwriting recognition area displayed in a second layer.

제어부(180)는 필기 인식 영역을 통하여 문자가 입력되면, 자동 완성 기능을 수행하여 입력된 문자에 대한 자동 완성 후보 문자들을 제공하는 자동 완성 영역을 상기 제2 레이어에 추가적으로 표시한다. 그러면 사용자는 상기 자동 완성 영역에 표시된 자동 완성 후보 문자들 중에서 하나를 선택하여 상기 선택된 후보 문자를 상기 다음 검색 입력 필드에 입력할 수 있다. 이러한 자동 완성 기능을 통한 입력 필드에의 문자 입력에 따르면 문자 입력의 용이성 및 정확성이 증가할 수 있다.When a character is input through the handwriting recognition region, the controller 180 additionally displays an autocomplete region on the second layer that provides autocomplete candidate characters for the input character by performing an autocomplete function. The user may then select one of the autocomplete candidate characters displayed in the autocomplete region and input the selected candidate character into the next search input field. According to the text input into the input field through the autocomplete function, the ease and accuracy of the text input may be increased.

도 21을 참조하면, 사용자가 입력한 문자 "복"에 대한 자동 완성 후보 문자들 "복, 본, 목, 몬"이 자동 완성 영역에 표시된 것을 알 수 있다. 그러면 사용자는 자신이 입력하고자 하는 문자 "복"을 선택함으로써 상기 다음 검색 입력 필드에 문자 "복"을 입력할 수 있는 것이다.Referring to FIG. 21, it can be seen that the autocompletion candidate characters "bok, bone, neck, and mon" for the character "bok" input by the user are displayed in the auto completion area. The user can then enter the character "bok" in the next search input field by selecting the character "bok" he wishes to enter.

도 22는 사용자가 제2 레이어의 제1 영역에 표시된 입력 필드 리스트 중 주소 입력 필드를 선택한 다음, 제2 레이어에 표시된 필기 인식 영역을 통하여 문자열 "www"을 입력하는 과정을 나타낸다.FIG. 22 illustrates a process in which a user selects an address input field from an input field list displayed in a first area of a second layer and then inputs a string “www” through a handwriting recognition area displayed in a second layer.

제어부(180)는 필기 인식 영역을 통하여 문자열이 입력되면, 자동 완성 기능을 수행하여 입력된 문자열에 대한 자동 완성 후보 문자열들을 제공하는 자동 완성 영역을 상기 제2 레이어에 추가적으로 표시한다. 그러면 사용자는 상기 자동 완성 영역에 표시된 자동 완성 후보 문자열들 중에서 하나를 선택하여 상기 선택된 후보 문자열을 상기 주소 입력 필드에 입력할 수 있다.When a character string is input through the handwriting recognition region, the controller 180 additionally displays an autocomplete region on the second layer that provides autocomplete candidate character strings for the input string by performing an autocomplete function. The user may then select one of the autocomplete candidate strings displayed in the autocomplete region and input the selected candidate string into the address input field.

도 21을 참조하면, 사용자가 입력한 문자 "www"에 대하여 웹 페이지 주소를 나타내는 복수의 자동 완성 후보 문자열들이 자동 완성 영역에 표시된 것을 알 수 있다. 그러면 사용자는 자기가 접속하고자 하는 웹 페이지 주소를 선택함으로써 상기 주소 입력 필드에 상기 선택된 웹 페이지 주소를 입력할 수 있는 것이다.Referring to FIG. 21, it can be seen that a plurality of autocomplete candidate strings representing a web page address are displayed in the autocomplete area with respect to the character “www” input by the user. Then, the user can input the selected web page address in the address input field by selecting a web page address to which the user wants to access.

이러한 자동 완성 기능을 통한 입력 필드에의 문자 입력에 따르면, 문자 입력의 용이성 및 정확성이 증가할 수 있다. 참고로, 이동 단말기(100)에서 제공되는 자동 완성 기능은 상기 이동 단말기(100) 자체의 기능일 수도 있고, 웹 사이트에서 제공하는 기능일 수도 있다.According to the text input into the input field through this autocomplete function, the ease and accuracy of the text input may be increased. For reference, the autocomplete function provided by the mobile terminal 100 may be a function of the mobile terminal 100 itself or may be a function provided by a web site.

도 23은 본 발명의 또 다른 실시예에 따른 이동 단말기 구동 방법을 나타내는 흐름도이다. 도 24 내지 도 25 각각은 도 23에 도시된 이동 단말기 구동 방법에 따라 웹 페이지의 입력 필드에 문자를 입력하는 과정을 나타낸다. 이하, 도 2 및 도 23 내지 도 25를 참조하여, 도 23에 도시된 상기 이동 단말기 구동 방법을 설명한다.23 is a flowchart illustrating a method of driving a mobile terminal according to another embodiment of the present invention. 24 to 25 each illustrate a process of inputting text into an input field of a web page according to the method of driving a mobile terminal illustrated in FIG. 23. Hereinafter, the method of driving the mobile terminal illustrated in FIG. 23 will be described with reference to FIGS. 2 and 23 to 25.

웹 페이지가 표시된 제1 레이어가 디스플레이부(151)에 표시된 상태에서 입력 신호가 수신되면, 제어부(180)는 상기 제1 레이어 위에 터치 인식 영역인 제2 레이어를 상기 디스플레이부(151)에 표시한다(S800). 상기 제2 레이어가 표시되면, 사용자는 상기 제2 레이어에 대한 터치 동작을 통하여 웹 브라우징을 수행할 수 있다.When an input signal is received while the first layer on which the web page is displayed is displayed on the display unit 151, the controller 180 displays a second layer, which is a touch recognition area, on the display unit 151 on the first layer. (S800). When the second layer is displayed, the user may perform web browsing through a touch operation on the second layer.

사용자가 상기 웹 페이지의 입력 필드 상부의 제2 레이어에 대한 제1 터치 동작을 수행하면, 상기 제어부(180)는 상기 제1 터치 동작에 의한 제1 터치 입력에 기초하여 상기 입력 필드를 선택한다(S810). 상기 웹 페이지에서 문자를 입력할 입력 필드가 선택된 다음, 사용자가 제2 레이어에 대한 제2 터치 동작을 수행하면, 상기 제어부(180)는 상기 제2 터치 동작에 기초한 제2 터치 입력에 기초하여 상기 선택된 입력 필드에 문자를 입력할 수 있다(S820). 여기서, 상기 제2 터치 동작은 문자 필기 동작이며, 상기 제2 터치 입력은 상기 필기 동작에 대한 필기 인식 결과일 수 있다.When the user performs a first touch operation on the second layer above the input field of the web page, the controller 180 selects the input field based on the first touch input by the first touch operation ( S810). When an input field for inputting a text is selected on the web page, and the user performs a second touch operation on the second layer, the controller 180 performs the second touch input based on the second touch input based on the second touch action. Characters may be input in the selected input field (S820). The second touch operation may be a text writing operation, and the second touch input may be a writing recognition result of the writing operation.

도 24 및 도 25는 사용자가 웹 페이지의 입력 필드 상부의 제2 레이어를 터치하여 입력 필드를 선택하고, 상기 선택된 입력 필드에 문자를 입력하는 과정을 나타낸다. 도 24의 (a)를 참조하면, 사용자는 다음 검색 입력 필드 상부의 제2 레이어를 터치하여 상기 다음 검색 입력 필드를 문자가 입력될 입력 필드로 선택한 것을 알 수 있다.24 and 25 illustrate a process in which a user touches a second layer above an input field of a web page to select an input field and input a character into the selected input field. Referring to FIG. 24A, the user may know that the next search input field is selected as an input field to which text is input by touching a second layer above the next search input field.

다음 검색 입력 필드가 선택된 다음, 사용자가 제2 레이어에 문자열 "사랑"을 필기하면, 상기 제어부(180)는 필기 인식 기능을 통하여 문자열 "사랑"을 인식하고 이를 다음 검색 입력 필드에 입력한다(도 24의 (b) 참조).After the next search input field is selected, when the user writes the string "love" on the second layer, the controller 180 recognizes the string "love" through a handwriting recognition function and inputs it into the next search input field (FIG. See (b) of 24).

도 25는 사용자가 다음 검색 입력 필드 상부의 제2 레이어를 터치하여 상기 다음 검색 입력 필드를 문자가 입력될 입력 필드로 선택한 다음, 제2 레이어에 문자 "복"을 필기한 결과를 나타낸다. 도 25를 참조하면, 상기 제어부(180)는 자동 완성 기능 통하여 필기된 "복"에 대한 자동 완성 후보 문자들을 자동 완성 영역을 통하여 제공함을 알 수 있다.FIG. 25 illustrates a result of a user touching a second layer above a next search input field to select the next search input field as an input field into which a text is to be input, and then writing a letter “bok” on the second layer. Referring to FIG. 25, it can be seen that the controller 180 provides the autocomplete candidate characters for the " happy " written through the autocompletion function through the autocompletion area.

도 26은 본 발명의 또 다른 실시예에 따른 이동 단말기 구동 방법을 나타내는 흐름도이다. 이하, 도 2 및 도 26을 참조하여 도 26에 도시된 이동 단말기 구동 방법에 대하여 살펴 본다.26 is a flowchart illustrating a method of driving a mobile terminal according to another embodiment of the present invention. Hereinafter, a method of driving the mobile terminal shown in FIG. 26 will be described with reference to FIGS. 2 and 26.

웹 페이지가 표시된 제1 레이어가 디스플레이부(151)에 표시된 상태에서 입력 신호가 수신되면, 제어부(180)는 상기 제1 레이어 위에 필기 인식 영역인 제2 레이어를 표시한다(S900). 상기 제2 레이어가 표시되면, 사용자는 상기 제2 레이어에 대한 터치 동작을 통하여 웹 브라우징을 수행할 수 있다.When an input signal is received while the first layer on which the web page is displayed is displayed on the display unit 151, the controller 180 displays a second layer, which is a writing recognition area, on the first layer (S900). When the second layer is displayed, the user may perform web browsing through a touch operation on the second layer.

사용자가 상기 웹 페이지의 입력 필드 상부의 제2 레이어에 대한 제1 터치 동작을 수행하면, 상기 제어부(180)는 상기 제1 터치 동작에 의한 제1 터치 입력에 기초하여 특정 문자 입력을 수신한다. 그러면, 상기 제어부(180)는 상기 특정 문자에 대하여 미리 설정된 입력 필드를 선택한다(S910). 예컨대, 영문자 "I"가 아이디 입력 필드에 대응되도록 미리 설정되어 있는 경우, 사용자는 상기 제2 레이어에 "I"를 필기함으로써 아이디 입력 필드를 선택할 수 있다.When the user performs a first touch operation on the second layer above the input field of the web page, the controller 180 receives a specific text input based on the first touch input by the first touch operation. Then, the controller 180 selects an input field preset for the specific character (S910). For example, if the English letter "I" is set in advance to correspond to the ID input field, the user may select the ID input field by writing "I" in the second layer.

상기 웹 페이지에서 문자를 입력할 입력 필드가 선택된 다음, 사용자가 제2 레이어에 대한 제2 터치 동작을 수행하면, 상기 제어부(180)는 상기 제2 터치 동작에 기초한 필기 문자를 인식하고, 인식된 문자를 상기 선택된 입력 필드에 문자를 입력할 수 있다(S920).When an input field for inputting a text is selected on the web page and the user performs a second touch operation on the second layer, the controller 180 recognizes the handwritten character based on the second touch action and recognizes In operation S920, a character may be input to the selected input field.

도 27은 본 발명의 또 다른 실시예에 따른 이동 단말기 구동 방법을 나타내는 흐름도이다. 도 28 내지 도 29는 도 27에 도시된 이동 단말기 구동 방법에 따라 웹 페이지의 입력 필드에 문자를 입력하는 과정을 나타낸다. 이하, 도 2 및 도 27 내지 도 29를 참조하여, 도 27에 도시된 이동 단말기 구동 방법을 설명한다.27 is a flowchart illustrating a method of driving a mobile terminal according to another embodiment of the present invention. 28 to 29 illustrate a process of inputting text into an input field of a web page according to the mobile terminal driving method illustrated in FIG. 27. Hereinafter, the method of driving the mobile terminal illustrated in FIG. 27 will be described with reference to FIGS. 2 and 27 to 29.

먼저, 사용자는 특정 문자에 대응되는 적어도 하나의 입력 필드 및 상기 적어도 하나의 입력 필드에 입력될 문자열을 미리 설정하여 저장한다(S1000). 도 28을 참조하면, 사용자는 특정 문자인 "별표"에 대하여, 아이디 입력 필드와 패스워드 입력 필드를 대응되는 입력 필드로 설정하고, 아이디 입력 필드 및 패스워드 입력 필드 각각에 입력될 문자열들을 설정하여 저장함을 알 수 있다.First, the user presets and stores at least one input field corresponding to a specific character and a character string to be input to the at least one input field (S1000). Referring to FIG. 28, a user sets an ID input field and a password input field as corresponding input fields for a specific character "asterisk", and sets and stores strings to be input in each of the ID input field and the password input field. Able to know.

이러한 설정이 완료된 다음, 디스플레이부(151)에 웹 페이지가 표시된 제1 레이어 및 필기 인식 영역인 제2 레이어가 표시되면(S1010), 사용자는 상기 제2 레이어를 통하여 문자를 입력할 수 있다.After the setting is completed, if the first layer on which the web page is displayed and the second layer, which is the writing recognition area, are displayed on the display unit 151 (S1010), the user may input text through the second layer.

제2 레이어가 표시된 다음, 제2 레이어에 대한 터치 동작(즉, 문자 필기)이 수행되면, 상기 제어부(180)는 상기 터치 동작에 기초한 터치 입력에 대응되는 특정 문자 입력을 수신한다(S1020). 상기 특정 문자 입력이 수신되면, 상기 제어부(180)는 상기 특정 문자에 대하여 미리 설정된 입력 필드에 미리 설정된 문자열을 입력한다(S1030).After the second layer is displayed, if a touch operation (ie, writing a character) is performed on the second layer, the controller 180 receives a specific character input corresponding to the touch input based on the touch operation (S1020). When the specific character input is received, the controller 180 inputs a preset character string in an input field preset for the specific character (S1030).

도 29를 참조하면, 사용자가 특정 문자 별표를 제2 레이어를 통하여 입력하면, 상기 제어부(180)는 상기 별표에 대하여 미리 설정된 아이디 입력 필드 및 패스워드 입력 필드를 선택하고, 상기 아이디 입력 필드 및 패스워드 입력 필드 각각에 미리 설정된 문자열을 입력하는 것을 알 수 있다.Referring to FIG. 29, when a user inputs a specific character asterisk through a second layer, the controller 180 selects an ID input field and a password input field preset for the asterisk, and inputs the ID input field and the password. You can see that a preset string is entered in each field.

도 30은 본 발명의 또 다른 실시예에 따른 이동 단말기 구동 방법을 나타내는 흐름도이다. 이하, 도 2 및 도 30을 참조하여, 도 30에 도시된 이동 단말기 구동 방법을 설명한다.30 is a flowchart illustrating a method of driving a mobile terminal according to another embodiment of the present invention. Hereinafter, the method of driving the mobile terminal illustrated in FIG. 30 will be described with reference to FIGS. 2 and 30.

웹 페이지가 디스플레이부(151)에 표시된다(S1100). 그런 다음, 사용자가 상기 웹 페이지에 대한 터치 동작을 수행하면, 제어부(180)는 상기 터치 동작에 의하여 발생하는 터치 입력을 수신하고, 상기 터치 입력에 응답하여 상기 웹 페이지에 포함된 입력 필드를 선택한다(S1110).The web page is displayed on the display unit 151 (S1100). Then, when a user performs a touch operation on the web page, the controller 180 receives a touch input generated by the touch operation and selects an input field included in the web page in response to the touch input. (S1110).

입력 필드가 선택되면, 상기 제어부(180)는 상기 선택된 입력 필드에 입력 가능한 복수의 문자 그룹 중 선택된 문자 그룹에 포함된 문자를 입력할 수 있는 적어도 하나의 필기 인식 영역을 상기 웹 페이지 위에 표시한다(S1020). 예컨대, 아이디 입력 필드에 입력 가능한 문자 그룹이 영어 및 숫자라고 가정하면, 상기 적어도 하나의 필기 인식 영역은 영어를 입력할 수 있는 필기 인식 영역 및 숫자를 입력할 수 있는 필기 인식 영역을 제공할 수 있다.When the input field is selected, the controller 180 displays at least one handwriting recognition area on the web page for inputting a character included in a selected character group among a plurality of character groups inputtable to the selected input field ( S1020). For example, assuming that the group of characters that can be input in the ID input field is English and numbers, the at least one handwriting recognition area may provide a handwriting recognition area for inputting English and a handwriting recognition area for inputting numbers. .

상기 적어도 하나의 필기 인식 영역이 상기 웹 페이지 위에 표시되면, 상기 제어부(180)는 필기 인식 영역을 통하여 수신되는 터치 입력(즉, 문자 입력)에 기초하여 선택된 입력 필드에 문자를 입력할 수 있다(S1130).When the at least one handwriting recognition area is displayed on the web page, the controller 180 may input a character into a selected input field based on a touch input (that is, a text input) received through the handwriting recognition area ( S1130).

이하에서는, 도 31 내지 도 42를 참조하여, 도 30에 도시된 이동 단말기 구동 방법의 구체적인 예들을 살펴 본다.Hereinafter, specific examples of the mobile terminal driving method illustrated in FIG. 30 will be described with reference to FIGS. 31 to 42.

도 31은 본 발명의 또 다른 실시예에 따른 이동 단말기 구동 방법을 나타내는 흐름도이다. 도 32 내지 도 38 각각은 도 31에 도시된 이동 단말기 구동 방법에 따라 웹 페이지의 입력 필드에 문자를 입력하는 과정을 나타낸다. 이하, 도 2 및 도 31 내지 도 38을 참조하여 도 31에 도시된 이동 단말기 구동 방법을 살펴 본다.31 is a flowchart illustrating a method of driving a mobile terminal according to another embodiment of the present invention. 32 to 38 each illustrate a process of inputting text into an input field of a web page according to the mobile terminal driving method illustrated in FIG. 31. Hereinafter, a method of driving the mobile terminal illustrated in FIG. 31 will be described with reference to FIGS. 2 and 31 to 38.

웹 페이지가 디스플레이부(151)에 표시된다(S1200). 그런 다음, 사용자가 상기 웹 페이지에 대한 터치 동작을 수행하면, 제어부(180)는 상기 터치 동작에 의하여 발생하는 터치 입력을 수신하고, 상기 터치 입력에 응답하여 상기 웹 페이지에 포함된 입력 필드를 선택한다(S1210).The web page is displayed on the display unit 151 (S1200). Then, when a user performs a touch operation on the web page, the controller 180 receives a touch input generated by the touch operation and selects an input field included in the web page in response to the touch input. (S1210)

입력 필드가 선택되면, 상기 제어부(180)는 상기 선택된 입력 필드에 입력 가능한 복수의 문자 그룹 각각에 대한 복수의 필기 인식 영역을 상기 웹 페이지 위에 표시한다(S1220). 복수의 필기 인식 영역이 표시된 다음, 사용자는 복수의 필기 인식 영역 중 어느 하나를 선택하고, 선택된 필기 인식 영역을 통하여 문자를 필기할 수 있다.When the input field is selected, the controller 180 displays a plurality of handwriting recognition areas for each of the plurality of character groups that can be input to the selected input field on the web page (S1220). After the plurality of handwriting recognition areas are displayed, the user may select any one of the plurality of handwriting recognition areas and write a character through the selected handwriting recognition area.

그러면, 상기 제어부(180)는 사용자의 필기에 기초하여 상기 선택된 필기 인식 영역을 통하여 수신되는 터치 입력(즉, 문자 입력)을 수신하고, 그에 기초하여 선택된 입력 필드에 문자를 입력한다(S1230).Then, the controller 180 receives a touch input (that is, text input) received through the selected handwriting recognition area based on the handwriting of the user, and inputs text into the selected input field based on the user's handwriting (S1230).

이하, 도 32 내지 도 38을 참조하여, 도 31에 도시된 이동 단말기 구동 방법의 구체적인 예들을 살펴 본다.Hereinafter, specific examples of the mobile terminal driving method illustrated in FIG. 31 will be described with reference to FIGS. 32 to 38.

도 32는 웹 페이지에 포함된 입력 필드를 사용자가 터치한 경우, 상기 선택된 입력 필드에 입력 가능한 문자 그룹에 대한 복수의 필기 인식 영역이 표시된 것을 나타낸다. 참고로, 주소 입력 필드에는 영어와 숫자만 입력 가능하다고 가정한다. 도 32를 참조하면, 사용자가 웹 페이지에 포함된 주소 입력 필드를 선택하면(도 32의 (a) 참조), 상기 제어부(180)는 주소 입력 필드에 입력 가능한 문자 그룹인 영어 및 숫자 각각을 입력하기 위한 2개의 필기 인식 영역을 상기 웹 페이지 위에 표시하는 것을 알 수 있다(도 32의 (b) 참조).32 illustrates that when a user touches an input field included in a web page, a plurality of handwriting recognition areas for a group of characters that can be input are displayed on the selected input field. For reference, it is assumed that only English and numbers can be input in the address input field. Referring to FIG. 32, when a user selects an address input field included in a web page (see FIG. 32A), the controller 180 inputs English and numbers, which are groups of characters that can be input in the address input field, respectively. It can be seen that two handwriting recognition areas are displayed on the web page (see FIG. 32 (b)).

도 32에서 상기 2개의 필기 인식 영역은 반투명한 상태로 웹 페이지 위에 표시된다. 그러나 본 발명의 범위가 이에 한정되는 것은 아니다. 예컨대, 본 발명에 있어서, 웹 페이지 위에 표시되는 복수의 필기 인식 영역은 투명 또는 불투명한 상태로 웹 페이지 위에 표시될 수도 있다.In FIG. 32, the two handwriting recognition areas are displayed on the web page in a translucent state. However, the scope of the present invention is not limited thereto. For example, in the present invention, the plurality of handwriting recognition areas displayed on the web page may be displayed on the web page in a transparent or opaque state.

도 33은 웹 페이지 위에 표시된 복수의 필기 인식 영역이 사용자의 터치 동작에 의하여 이동될 수 있음을 나타낸다. 도 33을 참조하면, 사용자가 복수의 필기 인식 영역 중 영어 필기 인식 영역을 터치하여 드래그하면(도 33의 (a) 참조), 상기 영문 필기 인식이 드래그 방향으로 이동됨을 알 수 있다(도 33의 (b) 참조).33 illustrates that a plurality of handwriting recognition areas displayed on a web page may be moved by a user's touch operation. Referring to FIG. 33, when the user touches and drags the English handwriting recognition area among the plurality of handwriting recognition areas (see FIG. 33A), it can be seen that the English handwriting recognition is moved in the drag direction (FIG. 33). (b)).

도 34는 웹 페이지 위에 표시된 복수의 필기 인식 영역의 크기가 사용자의 터치 동작에 의하여 조절될 수 있음을 나타내는 도면이다. 도 34를 참조하면, 사용자가 영어 필기 인식 영역의 양 모서리를 멀티 터치한 다음 드래그하면(도 34의 (a) 참조), 상기 영어 필기 인식 영역의 크기가 드래그 방향으로 커지는 것을 알 수 있다(도 34의 (b) 참조). 도면에 도시되지는 않았으나, 도 34에 도시된 바와 반대 방향으로 영어 인식 영역에 대한 드래그가 수행되면, 상기 영어 인식 영역의 크기는 작아질 수도 있다.34 is a diagram illustrating that sizes of a plurality of handwriting recognition areas displayed on a web page may be adjusted by a user's touch operation. Referring to FIG. 34, when the user multi-touches and drags both corners of the English writing recognition region (see FIG. 34A), it can be seen that the size of the English writing recognition region is increased in the drag direction (FIG. See (b) of paragraph 34). Although not shown in the drawing, when the drag to the English recognition region is performed in the opposite direction as shown in FIG. 34, the size of the English recognition region may be reduced.

도 35는 웹 페이지 위에 표시된 복수의 필기 인식 영역을 통한 필기 인식 기능이 사용자의 터치 동작에 의하여 해제될 수 있음을 나타내는 도면이다. 도 35를 참조하면, 복수의 필기 인식 영역이 웹 페이지 위에 표시된 다음 사용자가 화면을 사선 방향으로 쓸어내리는 터치 동작을 수행하면, 상기 복수의 필기 인식 영역이 화면에서 제거됨을 알 수 있다.35 is a diagram illustrating that a handwriting recognition function through a plurality of handwriting recognition areas displayed on a web page may be released by a user's touch operation. Referring to FIG. 35, when a plurality of handwriting recognition areas are displayed on a web page, and the user performs a touch operation of sweeping the screen diagonally, the plurality of handwriting recognition areas are removed from the screen.

도 36은 웹 페이지 위에 표시된 필기 인식 영역의 크기가 필기되는 문자의 수에 기초하여 조절될 수 있음을 나타내는 도면이다. 상기 필기 인식 영역에 사용자가 문자를 필기하면, 제어부(180)는 필기된 문자를 인식하고, 인식된 문자 전체를 필기 인식 영역에서의 필기 순서에 따라 상기 필기 인식 영역에 표시할 수 있다. 이때, 상기 인식된 문자는 필기 인식 영역에서의 필기 순서에 따라 특정 입력 필드에 입력될 수 있다.36 is a diagram illustrating that the size of the handwriting recognition area displayed on the web page can be adjusted based on the number of characters to be handwritten. When a user writes a letter in the handwriting recognition area, the controller 180 recognizes the handwritten character and displays the entire recognized letter in the handwriting recognition area according to the writing order in the handwriting recognition area. In this case, the recognized character may be input in a specific input field according to the handwriting order in the handwriting recognition area.

도 36에 도시된 필기 인식 영역과 달리, 상기 제어부(180)는 필기 인식 영역에 필기되는 문자 하나에 대한 필기 과정 및 문자 인식 결과만을 표시할 수도 있다. 이 경우에도 역시, 인식된 문자는 상기 필기 인식 영역에서의 필기 순서에 따라 특정 입력 필드에 입력될 수 있다.Unlike the handwriting recognition area illustrated in FIG. 36, the controller 180 may display only the writing process and the character recognition result for one letter written in the handwriting recognition area. Also in this case, the recognized character may be input in a specific input field according to the handwriting order in the handwriting recognition area.

도 36을 참조하면, 웹 페이지 위에 표시된 영어 필기 인식 영역의 크기는 필기되는 영문자의 숫자가 증가함에 따라 점점 더 커지는 것을 알 수 있다. 도 36의 (b)에서, 숫자 필기 인식 영역은 영어 필기 인식 영역에 대한 필기가 수행되는 동안에는 화면에서 사라진 상태이다. 만약, 이 상태에서 사용자가 다시 주소 입력 필드를 터치하면 사라졌던 숫자 필기 인식 영역이 다시 웹 페이지 위에 표시될 수도 있다.Referring to FIG. 36, it can be seen that the size of the English handwriting recognition region displayed on the web page becomes larger as the number of English letters to be written increases. In FIG. 36B, the numeric writing recognition region is disappeared from the screen while the writing on the English writing recognition region is performed. In this state, if the user touches the address input field again, the disappeared numeric writing recognition area may be displayed on the web page again.

도 37은 웹 페이지 위에 표시된 복수의 필기 인식 영역 중 하나가 선택되면, 상기 선택된 필기 인식 영역의 크기가 커지는 것을 나타낸다. 도 37을 참조하면, 복수의 필기 인식 영역 중 영어 필기 인식 영역이 선택되면, 영어 필기가 인식되는 영역이 확대된 것을 알 수 있다.37 illustrates that when one of the plurality of handwriting recognition areas displayed on the web page is selected, the size of the selected handwriting recognition area is increased. Referring to FIG. 37, when an English handwriting recognition region is selected among the plurality of handwriting recognition regions, it can be seen that an area where English handwriting is recognized is enlarged.

본 발명의 구현 형태에 따라서 영어 필기가 인식되는 영역은 웹 페이지가 표시된 화면 전체로 확대될 수도 있다. 또한, 본 발명의 다른 구현 형태에 따르면, 영어 필기 인식 영역에서부터 필기가 시작된 경우에만 영어 필기 인식 영역이 화면 전체로 확대될 수도 있다.According to an embodiment of the present invention, the area where the English writing is recognized may be enlarged to the entire screen on which the web page is displayed. In addition, according to another embodiment of the present invention, the English writing recognition area may be enlarged to the entire screen only when writing is started from the English writing recognition area.

도 38은 웹 페이지 위에 표시되는 복수의 필기 인식 영역이 서로 수직적으로 분리된 복수의 레이어로 구현되며, 사용자의 터치 동작에 기초하여 상기 복수의 필기 인식 영역 중 하나가 선택될 수 있음을 나타내는 도면이다. 도 38의 (a)를 참조하면, 사용자가 주소 입력 필드를 터치하면, 제어부(180)는 상기 주소 입력 필드에 입력 가능한 문자 그룹인 영어, 한글, 숫자에 대응하는 3개의 필기 인식 영역을 웹 페이지 위에 표시함을 알 수 있다.FIG. 38 illustrates that a plurality of handwriting recognition areas displayed on a web page are implemented as a plurality of layers vertically separated from each other, and one of the plurality of handwriting recognition areas may be selected based on a user's touch operation. . Referring to FIG. 38A, when a user touches an address input field, the controller 180 displays three handwriting recognition areas corresponding to English, Korean, and numbers, which are a group of characters that can be input in the address input field. It can be seen above.

도 38의 (b)를 참조하면, 3개의 필기 인식 영역이 표시된 다음, 사용자가 복수의 필기 인식 영역 중 2번째 레이어에 구현된 영어 필기 인식 영역을 터치하면, 상기 제어부(180)는 상기 영어 필기 인식 영역을 활성화하여 상기 복수의 레이어 중 가장 위에 표시하는 것을 알 수 있다. 그러면, 사용자는 상기 영어 필기 인식 영역에 영어 문자를 필기할 수 있고, 상기 제어부(180)는 필기된 문자를 인식하여 상기 주소 입력 필드에 입력할 수 있다.Referring to FIG. 38B, when three handwriting recognition regions are displayed, when the user touches an English handwriting recognition region implemented in a second layer of a plurality of handwriting recognition regions, the controller 180 may write the English handwriting. It can be seen that the recognition area is activated and displayed on the top of the plurality of layers. Then, the user may write English characters in the English writing recognition region, and the controller 180 may recognize the written characters and input them into the address input field.

도 39는 본 발명의 또 다른 실시예에 따른 이동 단말기 구동 방법을 나타내는 흐름도이다. 도 40 내지 도 42는 도 39에 도시된 이동 단말기 구동 방법에 따라 웹 페이지의 입력 필드에 문자를 입력하는 과정을 나타낸다. 이하, 도 2 및 도 39 내지 도 42를 참조하여, 도 39에 도시된 이동 단말기 구동 방법을 설명한다.39 is a flowchart illustrating a method of driving a mobile terminal according to another embodiment of the present invention. 40 to 42 illustrate a process of inputting text into an input field of a web page according to the method of driving a mobile terminal illustrated in FIG. 39. Hereinafter, a method of driving the mobile terminal shown in FIG. 39 will be described with reference to FIGS. 2 and 39 to 42.

웹 페이지가 디스플레이부(151)에 표시된다(S1300). 그런 다음, 사용자가 상기 웹 페이지에 대한 터치 동작을 수행하면, 제어부(180)는 상기 터치 동작에 의하여 발생하는 터치 입력을 수신하고, 상기 터치 입력에 응답하여 상기 웹 페이지에 포함된 입력 필드를 선택한다(S1310).The web page is displayed on the display unit 151 (S1300). Then, when a user performs a touch operation on the web page, the controller 180 receives a touch input generated by the touch operation and selects an input field included in the web page in response to the touch input. (S1310).

입력 필드가 선택되면, 상기 제어부(180)는 상기 선택된 입력 필드에 입력 가능한 복수의 문자 그룹 중 선택된 문자 그룹에 포함된 문자를 입력할 수 있는 적어도 하나의 필기 인식 영역을 상기 웹 페이지 위에 표시한다. 상기 필기 인식 영역은 제1 영역 및 제2 영역을 포함할 수 있다.When an input field is selected, the controller 180 displays at least one handwriting recognition area on the web page for inputting a character included in a selected character group among a plurality of character groups inputtable to the selected input field. The handwriting recognition area may include a first area and a second area.

상기 제1 영역에는 상기 복수의 문자 그룹 중 상기 입력 필드에 입력될 문자 그룹을 선택하기 위한 아이콘들이 표시될 수 있다. 상기 제2 영역은 상기 선택된 문자 그룹에 포함되는 문자 입력만을 인식하기 위한 필기 인식 영역일 수 있다.Icons for selecting a character group to be input into the input field from among the plurality of character groups may be displayed in the first area. The second area may be a handwriting recognition area for recognizing only a text input included in the selected letter group.

상기 제1 영역 및 제2 영역이 디스플레이부(151)에 표시된 다음, 사용자가 상기 제1 영역을 터치하면, 상기 제어부(180)는 상기 터치 동작에 기초한 터치 입력에 응답하여 상기 선택된 입력 필드에 입력될 문자 그룹을 선택한다(S1330). 좀 더 상세하게는, 사용자가 상기 제1 영역에 표시된 복수의 아이콘 중 어느 하나를 선택하면, 상기 제어부(180)는 상기 선택된 아이콘에 대응되는 문자 그룹을 상기 선택된 입력 필드에 입력될 문자 그룹으로 선택할 수 있다.After the first area and the second area are displayed on the display unit 151 and the user touches the first area, the controller 180 inputs the selected input field in response to the touch input based on the touch operation. A character group to be selected is selected (S1330). More specifically, when the user selects any one of the plurality of icons displayed in the first area, the controller 180 selects a character group corresponding to the selected icon as the character group to be input into the selected input field. Can be.

상기 선택된 입력 필드에 입력될 문자 그룹이 선택되면, 사용자는 상기 제2 영역에 입력하고자 하는 선택된 문자 그룹에 포함된 문자를 필기할 수 있다. 그러면, 상기 제어부(180)는 상기 제2 영역에 대한 터치 동작에 의하여 발생하는 터치 입력(즉, 문자 입력)에 기초하여 상기 선택된 입력 필드에 문자를 입력한다(S1340). 이때, 상기 제어부(180)는 상기 제2 영역에 필기되는 문자 중 상기 선택된 문자 그룹에 속하는 문자만을 인식할 수 있다.When a group of characters to be input in the selected input field is selected, the user may write characters included in the selected group of characters to be input in the second area. Then, the controller 180 inputs a character into the selected input field based on the touch input (that is, the character input) generated by the touch operation on the second area (S1340). In this case, the controller 180 may recognize only characters belonging to the selected character group among the characters written in the second area.

도 40은 웹 페이지 위에 표시된 필기 인식 영역에 대한 터치 동작에 기초하여 입력 필드에 입력될 문자 그룹이 선택되고, 문자 그룹 선택 중 선택된 문자 그룹에 포함된 문자가 선택된 입력 필드에 입력되는 과정을 나타낸다. 여기서, 제어부(180)는 웹 페이지의 입력 필드에 대한 터치 동작에 따른 입력 신호에 기초하여 상기 필기 인식 영역을 표시할 수 있다.40 illustrates a process of selecting a character group to be input into an input field based on a touch operation on a handwriting recognition area displayed on a web page, and inputting a character included in the selected character group during the character group selection into the selected input field. Herein, the controller 180 may display the writing recognition area based on an input signal according to a touch operation on an input field of a web page.

도 40을 참조하면, 사용자는 제1 영역에 표시된 영어에 대응되는 아이콘을 선택한 다음, 상기 제2 영역에 선택된 문자 그룹에 포함된 영어 문자를 입력할 수 있음을 알 수 있다. 도 40에 도시되지는 않았으나, 상기 제어부(180)는 상기 제2 영역에 대한 영어 문자 입력에 따라 자동 완성 영역을 더 표시할 수도 있다.Referring to FIG. 40, the user may select an icon corresponding to the English displayed in the first area and then input English characters included in the selected character group in the second area. Although not shown in FIG. 40, the controller 180 may further display an autocomplete area according to the English text input for the second area.

도 41은 디스플레이부(151)에 표시된 웹 페이지에 표시된 복수의 입력 필드 중 문자를 입력할 입력 필드가 선택되고, 선택된 입력 필드에 문자를 입력하기 위한 필기 인식 영역이 생성되는 과정을 나타낸다. 도 41을 참조하면, 사용자가 다음 검색 입력 필드로부터 시작되는 터치 앤드 드래그 동작을 수행하면(도 41의 (a) 참조), 제어부(180)는 상기 다음 검색 입력 필드를 문자를 입력할 입력 필드로 선택한 다음, 웹 페이지 위에 필기 인식 영역을 표시하며, 사용자의 상기 필기 인식 영역에 대한 터치 동작에 기초하여 "사랑"이라는 문자열을 상기 다음 검색 입력 필드에 입력함을 알 수 있다(도 41의 (b) 참조).FIG. 41 illustrates a process in which an input field for inputting a character is selected from among a plurality of input fields displayed on the web page displayed on the display unit 151, and a writing recognition area for inputting a character in the selected input field is generated. Referring to FIG. 41, when the user performs a touch and drag operation starting from the next search input field (see (a) of FIG. 41), the controller 180 converts the next search input field into an input field for inputting text. After selecting, the handwriting recognition area is displayed on the web page, and a character string of "love" is input into the next search input field based on a user's touch operation on the handwriting recognition area (FIG. 41B). ) Reference).

도 42는 사용자의 터치 동작에 의하여 웹 페이지에 포함된 입력 필드가 선택된 경우, 제어부(180)가 상기 웹 페이지 위에 표시된 필기 인식 영역을 통하여 발생하는 특정 문자("+") 입력에 응답하여 상기 선택된 입력 필드를 포함하는 웹 페이지의 영역을 확대하여 표시하는 것을 나타낸다. 도 42에 도시된 것과 반대로, 상기 제어부(180)는 특정 문자 입력에 응답하여 선택된 입력 필드를 포함하는 웹 페이지의 영역을 축소하여 표시할 수도 있다.42 illustrates that when an input field included in a web page is selected by a user's touch operation, the controller 180 selects the selected character in response to a specific character (“+”) input through a writing recognition area displayed on the web page. Indicates that the area of the web page including the input field is enlarged and displayed. In contrast to FIG. 42, the controller 180 may reduce and display an area of a web page including an input field selected in response to a specific character input.

참고로, 도 42에서 상기 특정 문자가 필기된 부분은 투명한 상태로 표시되어 있으나, 웹 브라우징 관련 기능을 수행하기 위한 문자를 인식하기 위한 필기 인식 영역이며, 반투명한 상태로 표시된 영역은 선택된 입력 필드에 문자를 입력하기 위한 필기 인식 영역을 나타낸다.For reference, in FIG. 42, the portion in which the specific character is written is displayed in a transparent state, but is a handwriting recognition region for recognizing a character for performing a web browsing related function, and the region displayed in the translucent state is displayed in the selected input field. A handwriting recognition area for inputting characters is shown.

이상에서 살펴본, 본 발명에 따른 이동 단말기 구동 방법들 각각은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다.As described above, each of the mobile terminal driving methods according to the present invention may be implemented in a program form that can be executed by various computer means and recorded in a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program recorded on the medium may be those specially designed and constructed for the present invention or may be those known to those skilled in the computer software.

컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks, such as floppy disks. Magneto-optical media, and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of programs include high-level language code that can be executed by a computer using an interpreter or the like, as well as machine code as produced by a compiler. The hardware device described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. As described above, the present invention has been described by way of limited embodiments and drawings, but the present invention is not limited to the above embodiments, and those skilled in the art to which the present invention pertains various modifications and variations from such descriptions. This is possible.

그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.Therefore, the scope of the present invention should not be limited to the described embodiments, but should be determined not only by the claims below but also by the equivalents of the claims.

100: 이동 단말기 110: 무선 통신부
120: A/V 입력부 130: 사용자 입력부
140: 센싱부 150: 출력부
151: 디스플레이부 152: 음향 출력부
160: 메모리부 170: 인터페이스부
180: 제어부 190: 전원부
100: mobile terminal 110: wireless communication unit
120: A / V input unit 130: user input unit
140: sensing unit 150: output unit
151: display unit 152: sound output unit
160: memory unit 170: interface unit
180: control unit 190: power unit

Claims (22)

웹 페이지 표시 영역인 제1 레이어 및 터치 인식 영역인 제2 레이어를 표시하는 디스플레이부; 및
상기 제2 레이어를 통하여 발생하는 터치 입력에 기초하여, 상기 웹 페이지에 포함된 입력 필드를 선택하며 상기 제1 레이어에 표시되는 상기 웹 페이지의 영역을 상기 선택된 입력 필드를 포함하는 영역으로 스크롤하는 제어부를 포함하는 이동 단말기.
A display unit configured to display a first layer which is a web page display area and a second layer which is a touch recognition area; And
A controller which selects an input field included in the web page based on the touch input generated through the second layer and scrolls an area of the web page displayed on the first layer to an area including the selected input field Mobile terminal comprising a.
제1항에 있어서, 상기 제어부는,
입력 신호가 수신되기 전에는 상기 제1 레이어만을 상기 디스플레이부에 표시하며, 상기 입력 신호가 수신된 후에는 상기 제1 레이어를 비활성화시키고 상기 제2 레이어를 상기 디스플레이부에 표시하는 것을 특징으로 하는 이동 단말기.
The method of claim 1, wherein the control unit,
The first terminal displays only the first layer before the input signal is received, and after receiving the input signal, deactivates the first layer and displays the second layer on the display. .
제1항에 있어서, 상기 제2 레이어는,
상기 웹 페이지에 포함된 입력 필드의 목록을 표시하는 제1 영역을 포함하며,
상기 제어부는,
상기 터치 입력에 기초하여 상기 입력 필드의 목록 중에서 하나의 입력 필드를 선택하고, 상기 제1 레이어에 표시되는 상기 웹 페이지의 영역을 상기 선택된 입력 필드를 포함하는 영역으로 스크롤하는 것을 특징으로 하는 이동 단말기.
The method of claim 1, wherein the second layer,
A first area for displaying a list of input fields included in the web page,
The control unit,
And selecting one input field from the list of input fields based on the touch input, and scrolling an area of the web page displayed on the first layer to an area including the selected input field. .
제1항에 있어서, 상기 제2 레이어는,
상기 터치 입력에 기초하여 상기 선택된 필드에 문자를 입력하는 제2 영역을 포함하며,
상기 제어부는,
상기 제2 영역을 통하여 특정 문자가 입력되는 경우, 상기 특정 문자에 대하여 미리 설정된 입력 필드를 선택하고, 상기 제1 레이어에 표시되는 상기 웹 페이지의 영역을 상기 선택된 입력 필드를 포함하는 영역으로 스크롤하는 것을 특징으로 하는 이동 단말기.
The method of claim 1, wherein the second layer,
A second area for inputting a character into the selected field based on the touch input;
The control unit,
When a specific character is input through the second area, a preset input field is selected for the specific character, and the area of the web page displayed on the first layer is scrolled to an area including the selected input field. Mobile terminal, characterized in that.
제1항에 있어서, 상기 제2 레이어는,
상기 제1 레이어와 수직적으로 분리되어 상기 제1 레이어 위에 형성되는 필기 인식 영역을 포함하는 것을 특징으로 하는 이동 단말기.
The method of claim 1, wherein the second layer,
And a handwriting recognition area separated from the first layer and formed on the first layer.
제5항에 있어서, 상기 제어부는,
상기 필기 인식 영역을 통하여 특정 문자가 입력되는 경우, 상기 특정 문자에 대하여 미리 설정된 입력 필드를 선택하고, 상기 제1 레이어에 표시되는 상기 웹 페이지의 영역을 상기 선택된 입력 필드를 포함하는 영역으로 스크롤하는 것을 특징으로 하는 이동 단말기.
6. The apparatus of claim 5,
When a specific character is input through the handwriting recognition area, a predetermined input field is selected for the specific character, and the area of the web page displayed on the first layer is scrolled to an area including the selected input field. Mobile terminal, characterized in that.
제5항에 있어서, 상기 제어부는,
상기 필기 인식 영역에 대한 터치 앤드 드래그에 응답하여 상기 제1 레이어에 표시되는 웹 페이지의 영역을 스크롤하는 것을 특징으로 하는 이동 단말기.
6. The apparatus of claim 5,
And an area of a web page displayed on the first layer in response to a touch and drag of the handwriting recognition area.
제5항에 있어서, 상기 제어부는,
상기 웹 페이지의 입력 필드 상부의 필기 인식 영역을 통하여 발생하는 터치 입력에 응답하여 입력 필드를 선택하고, 상기 제1 레이어에 표시되는 상기 웹 페이지의 영역을 상기 선택된 입력 필드를 포함하는 영역으로 스크롤하는 것을 특징으로 하는 이동 단말기.
6. The apparatus of claim 5,
Selecting an input field in response to a touch input generated through a handwriting recognition area above the input field of the web page, and scrolling an area of the web page displayed on the first layer to an area including the selected input field; Mobile terminal, characterized in that.
웹 페이지 표시 영역인 제1 레이어와, 상기 웹 페이지에 포함된 입력 필드의 목록을 표시하는 제1 영역 및 선택된 입력 필드에 문자를 입력하기 위한 가상 키패드 또는 필기 인식 영역을 제공하는 제2 영역을 포함하는 제2 레이어를 표시하는 디스플레이부; 및
상기 제1 영역을 통하여 발생하는 제1 터치 입력에 기초하여 상기 입력 필드의 목록에 포함된 하나의 입력 필드를 선택하고, 상기 가상 키패드 또는 상기 필기 인식 영역을 통하여 발생하는 제2 터치 입력에 기초하여 상기 선택된 입력 필드에 문자를 입력하는 제어부를 포함하는 이동 단말기.
A first layer that is a web page display area, a first area that displays a list of input fields included in the web page, and a second area that provides a virtual keypad or handwriting recognition area for inputting text into a selected input field; A display unit displaying a second layer; And
Select one input field included in the list of input fields based on a first touch input generated through the first area, and based on a second touch input generated through the virtual keypad or the handwriting recognition area. And a controller for inputting text into the selected input field.
제9항에 있어서, 상기 제어부는,
상기 제1 터치 입력에 응답하여 상기 제1 레이어에 표시되는 상기 웹 페이지의 영역을 상기 선택된 입력 필드를 포함하는 영역으로 스크롤하는 것을 특징으로 하는 이동 단말기.
10. The apparatus according to claim 9,
And the area of the web page displayed on the first layer is scrolled to an area including the selected input field in response to the first touch input.
제9항에 있어서, 상기 제어부는,
상기 제2 터치 입력이 수신되면, 상기 제2 터치 입력에 기초하여 각각이 적어도 하나의 문자를 포함하는 복수의 자동 완성 문자열을 표시하는 제3 영역을 상기 제2 레이어에 표시하는 것을 특징으로 하는 이동 단말기.
10. The apparatus according to claim 9,
And when the second touch input is received, a third area displaying a plurality of autocomplete character strings each including at least one character, is displayed on the second layer based on the second touch input. terminal.
웹 페이지 표시 영역인 제1 레이어 및 상기 웹 페이지에 포함된 입력 필드에 문자를 입력하기 위한 필기 인식 영역을 포함하는 제2 레이어를 표시하는 디스플레이부; 및
상기 필기 인식 영역을 통하여 발생하는 적어도 하나의 터치 입력에 응답하여, 상기 적어도 하나의 터치 입력에 대응되는 특정 문자에 대하여 미리 설정된 입력 필드를 선택하고 상기 선택된 입력 필드에 대한 문자 입력을 수신하는 제어부를 포함하는 이동 단말기.
A display unit configured to display a second layer including a first layer which is a web page display area and a handwriting recognition area for inputting text into an input field included in the web page; And
In response to at least one touch input generated through the handwriting recognition area, a control unit for selecting a preset input field for a specific character corresponding to the at least one touch input and receiving a text input for the selected input field; Mobile terminal comprising.
제12항에 있어서, 상기 제어부는,
상기 필기 인식 영역을 통하여 발생하는 제1 터치 입력에 대응되는 특정 문자에 대하여 미리 설정된 입력 필드를 선택하며, 상기 필기 인식 영역을 통하여 발생하는 제2 터치 입력에 기초하여 상기 선택된 입력 필드에 대한 문자 입력을 수신하는 것을 특징으로 하는 이동 단말기.
13. The apparatus according to claim 12,
Selects a preset input field for a specific character corresponding to a first touch input generated through the handwriting recognition area, and inputs a character to the selected input field based on a second touch input generated through the handwriting recognition area; Mobile terminal, characterized in that for receiving.
제13항에 있어서, 상기 제어부는,
상기 제2 터치 입력이 수신되면, 상기 제2 터치 입력에 기초하여 각각이 적어도 하나의 문자를 포함하는 복수의 자동 완성 문자열을 표시하는 자동 완성 영역을 상기 제2 레이어에 표시하는 것을 특징으로 하는 이동 단말기.
The method of claim 13, wherein the control unit,
And when the second touch input is received, an autocomplete region displaying a plurality of autocomplete character strings each including at least one character based on the second touch input, is displayed on the second layer. terminal.
제12항에 있어서, 상기 제어부는,
상기 적어도 하나의 터치 입력에 응답하여 상기 제1 레이어에 표시되는 상기 웹 페이지의 영역을 상기 선택된 입력 필드를 포함하는 영역으로 스크롤하는 것을 특징으로 하는 이동 단말기.
13. The apparatus according to claim 12,
And the area of the web page displayed on the first layer is scrolled to an area including the selected input field in response to the at least one touch input.
제12항에 있어서, 상기 제어부는,
상기 적어도 하나의 터치 입력에 응답하여 상기 적어도 하나의 터치 입력에 대응되는 문자에 대하여 미리 설정된 입력 필드를 선택하고, 상기 입력된 문자에 대하여 미리 설정된 문자열을 상기 선택된 입력 필드에 입력하는 것을 특징으로 하는 이동 단말기.
13. The apparatus according to claim 12,
Selecting an input field preset for a character corresponding to the at least one touch input in response to the at least one touch input, and inputting a preset character string for the input character into the selected input field Mobile terminal.
웹 페이지를 표시하는 디스플레이부; 및
터치 입력에 응답하여 상기 웹 페이지에 포함된 입력 필드를 선택하고, 각각이 상기 선택된 입력 필드에 입력 가능한 복수의 문자 그룹 중 대응하는 문자 그룹에 포함된 문자를 입력하기 위한 복수의 필기 인식 영역을 상기 웹 페이지 위에 표시하는 제어부를 포함하는 이동 단말기.
A display unit displaying a web page; And
Selecting a plurality of input fields included in the web page in response to a touch input, and each of the plurality of handwriting recognition areas for inputting a character included in a corresponding character group among a plurality of character groups inputtable to the selected input field; A mobile terminal including a control unit displayed on a web page.
제17항에 있어서, 상기 제어부는,
상기 복수의 필기 인식 영역 중 선택된 필기 인식 영역에 입력되는 문자의 수에 따라서 상기 선택된 필기 인식 영역의 크기를 조절하는 것을 특징으로 하는 이동 단말기.
The method of claim 17, wherein the control unit,
And a size of the selected handwriting recognition area is adjusted according to the number of characters inputted into the selected handwriting recognition area among the plurality of handwriting recognition areas.
제17항에 있어서, 상기 제어부는,
상기 복수의 필기 인식 영역 중 하나에 대한 터치가 수신되면, 상기 디스플레이부 화면 전체를 상기 선택된 필기 인식 영역에 대응되는 문자 그룹에 대한 입력 영역으로 전환하는 것을 특징으로 하는 이동 단말기.
The method of claim 17, wherein the control unit,
And when a touch on one of the plurality of handwriting recognition areas is received, converts the entire screen of the display unit into an input area for a character group corresponding to the selected handwriting recognition area.
제17항에 있어서, 상기 복수의 필기 인식 영역은,
서로 수직적으로 분리되며, 각각이 상기 복수의 문자 그룹 중 하나의 문자 그룹에 대응되는 필기 인식 영역인 복수의 레이어를 포함하며,
상기 제어부는,
상기 복수의 레이어 중 터치 입력이 수신되는 레이어를 활성화하고, 상기 활성화된 레이어를 상기 복수의 레이어 중 가장 위에 표시하는 것을 특징으로 하는 이동 단말기.
The method of claim 17, wherein the plurality of handwriting recognition areas,
Vertically separated from each other, each including a plurality of layers, each of which is a handwriting recognition area corresponding to one of the plurality of character groups;
The control unit,
And activating a layer from which the touch input is received among the plurality of layers, and displaying the activated layer on the top of the plurality of layers.
웹 페이지를 표시하는 디스플레이부; 및
수신된 입력 신호에 응답하여, 복수의 문자 그룹 중 상기 웹 페이지의 입력 필드에 입력될 문자 그룹을 선택하기 위한 선택 영역 및 선택된 문자 그룹에 포함된 문자 입력을 인식하는 필기 인식 영역을 상기 웹 페이지 위에 표시하는 제어부를 포함하는 이동 단말기.
A display unit displaying a web page; And
In response to the received input signal, a selection area for selecting a character group to be input into an input field of the web page among a plurality of character groups and a handwriting recognition area for recognizing a character input included in the selected character group are placed on the web page. A mobile terminal comprising a control unit for displaying.
제21항에 있어서, 상기 제어부는,
상기 필기 인식 영역을 통하여 발생하는 터치 입력이 수신되면, 상기 터치 입력 기초하여 각각이 적어도 하나의 문자를 포함하는 복수의 자동 완성 문자열을 표시하는 자동 완성 영역을 상기 웹 페이지 위에 표시하는 것을 특징으로 하는 이동 단말기.
The method of claim 21, wherein the control unit,
And upon receiving a touch input generated through the handwriting recognition area, displaying an autocomplete area on the web page displaying a plurality of autocomplete strings each including at least one character based on the touch input. Mobile terminal.
KR1020100096699A 2010-10-05 2010-10-05 Mobile terminal KR101680810B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100096699A KR101680810B1 (en) 2010-10-05 2010-10-05 Mobile terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100096699A KR101680810B1 (en) 2010-10-05 2010-10-05 Mobile terminal

Publications (2)

Publication Number Publication Date
KR20120035293A true KR20120035293A (en) 2012-04-16
KR101680810B1 KR101680810B1 (en) 2016-11-29

Family

ID=46137225

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100096699A KR101680810B1 (en) 2010-10-05 2010-10-05 Mobile terminal

Country Status (1)

Country Link
KR (1) KR101680810B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140109140A (en) * 2013-03-05 2014-09-15 주식회사 인프라웨어 Method and apparatus for using a layer on an electronic document
KR20150025577A (en) * 2013-08-29 2015-03-11 삼성전자주식회사 Apparatus and method for fulfilling functions related to user input of note-taking pattern on lock screen
WO2019107799A1 (en) * 2017-11-30 2019-06-06 삼성에스디에스 주식회사 Method and apparatus for moving input field

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230023437A (en) * 2021-08-10 2023-02-17 삼성전자주식회사 Electronic device and method for editing contents thereof

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000347781A (en) 1999-06-08 2000-12-15 Oki Electric Ind Co Ltd Data input system from input supporting part

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140109140A (en) * 2013-03-05 2014-09-15 주식회사 인프라웨어 Method and apparatus for using a layer on an electronic document
KR20150025577A (en) * 2013-08-29 2015-03-11 삼성전자주식회사 Apparatus and method for fulfilling functions related to user input of note-taking pattern on lock screen
WO2019107799A1 (en) * 2017-11-30 2019-06-06 삼성에스디에스 주식회사 Method and apparatus for moving input field
US11029824B2 (en) 2017-11-30 2021-06-08 Samsung Sds Co., Ltd. Method and apparatus for moving input field

Also Published As

Publication number Publication date
KR101680810B1 (en) 2016-11-29

Similar Documents

Publication Publication Date Title
US10261591B2 (en) Electronic device and method of controlling the same
US8631339B2 (en) Mobile terminal and displaying device thereof with a plurality of touch screens and virtual keypad
EP3570155B1 (en) Mobile terminal and method of controlling the same
EP2637086B1 (en) Mobile terminal
US8774869B2 (en) Mobile terminal and control method thereof
US9014760B2 (en) Mobile terminal and method of controlling the same
EP2750363B1 (en) Mobile terminal
US8787983B2 (en) Mobile terminal and control method thereof
US10025405B2 (en) Mobile terminal and control method for linking information with a memo
KR20130109466A (en) Mobile terminal
US20130290866A1 (en) Mobile terminal and control method thereof
US20140035946A1 (en) Mobile terminal and control method thereof
KR20120022131A (en) Mobile terminal and method of managing icon using the same
KR101749612B1 (en) Mobile terminal
KR20120116147A (en) Mobile terminal performing remote control fucntion for display device
KR20130011612A (en) Mobile terminal
KR20120035292A (en) Electronic device and operating method thereof
US20130179815A1 (en) Electronic device and method of controlling the same
KR101680810B1 (en) Mobile terminal
KR101662249B1 (en) Mobile Terminal And Method Of Inputting Imformation Using The Same
KR20130119579A (en) Mobile terminal
KR101735518B1 (en) Mobile terminal
KR20120130997A (en) Mobile terminal
KR101726787B1 (en) Mobile terminal and operating method thereof
KR20140147609A (en) Mobile terminal

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant