KR20140029827A - Method for processing image and mobile device - Google Patents

Method for processing image and mobile device Download PDF

Info

Publication number
KR20140029827A
KR20140029827A KR1020120095592A KR20120095592A KR20140029827A KR 20140029827 A KR20140029827 A KR 20140029827A KR 1020120095592 A KR1020120095592 A KR 1020120095592A KR 20120095592 A KR20120095592 A KR 20120095592A KR 20140029827 A KR20140029827 A KR 20140029827A
Authority
KR
South Korea
Prior art keywords
touch
image
magnification
starting point
controller
Prior art date
Application number
KR1020120095592A
Other languages
Korean (ko)
Inventor
송락규
정광수
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020120095592A priority Critical patent/KR20140029827A/en
Publication of KR20140029827A publication Critical patent/KR20140029827A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04164Connections between sensors and controllers, e.g. routing lines between electrodes and connection pads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

The present invention relates to a method for zooming an image in a mobile terminal having a touch screen and to a mobile terminal adopting the same. An image processing method according to the present invention comprises the steps of: displaying, on a touch screen, an image at a preset initial magnification; detecting a touch from the touch screen; zooming in on the image in proportion to a distance of movement from a start point of the touch when there is the movement of the touch; and zooming out on the image if a movement direction of the touch is changed. [Reference numerals] (205) Display an image at an initial magnification; (210) Detect a tap and touch; (215) Is there movement of the touch?; (220) Zoom out on the image in proportion to touch time; (225,235,250,265,280) Is touch released?; (230) Zoom in on the image in proportion to a movement distance of the touch from a start point of the touch; (240) Is a movement direction of the touch bent toward a direction in which the start point is located; (245) Zoom out on the image as the touch is closer to the start point?; (255) Return to the start point?; (260) Display the image at a magnification before the movement; (270) Does it pass the start point?; (275) Zoom out on the image in proportion to the movement distance of the touch from the start point of the touch; (AA) Start; (BB,EE,FF,LL,MM,PP,QQ,SS,HH) No; (CC,DD,GG,II,KK,NN,OO,RR,TT) Yes; (JJ) End

Description

이미지 처리 방법 및 휴대 단말{METHOD FOR PROCESSING IMAGE AND MOBILE DEVICE}Image processing method and mobile terminal {METHOD FOR PROCESSING IMAGE AND MOBILE DEVICE}

본 발명은 터치스크린을 가지는 휴대 단말에서 이미지를 주밍(zooming)하는 방법 및 이 방법이 적용된 휴대 단말에 관한 것이다. The present invention relates to a method of zooming an image in a portable terminal having a touch screen and a portable terminal to which the method is applied.

휴대 단말 특히, 최근 스마트폰이나 태블릿 PC 등은 터치스크린을 구비하는 추세이며, 이러한 터치스크린에 대한 사용자의 제스처에 응답하여 각종 기능을 실행한다. 특히 휴대 단말은 사용자의 제스처에 응답하여 이미지를 확대 또는 축소하는 주밍(zooming) 기능을 실행한다. 즉 사용자는 카메라 모듈을 이용하여 촬영한 이미지 또는 휴대 단말에 저장된 이미지를 확대 또는 축소하여 볼 수 있게 되었다. 종래의 휴대 단말은 이미지를 확대 또는 축소하는 기능의 키와 확대된 이미지를 상하좌우로 이동하는 기능의 키를 구비하는 형태로 구성되며, 사용자는 상기 기능키들을 이용하여 원하는 부분의 이미지를 확대하여 볼 수 있다.Portable terminals, particularly smart phones and tablet PCs, have recently been provided with a touch screen, and execute various functions in response to a user's gesture for the touch screen. In particular, the mobile terminal executes a zooming function to enlarge or reduce an image in response to a gesture of a user. In other words, the user may enlarge or reduce an image captured by the camera module or an image stored in the portable terminal. The conventional portable terminal is configured with a key having a function of enlarging or reducing an image and a key having a function of moving the enlarged image up, down, left, and right, and the user can enlarge an image of a desired part by using the function keys. can see.

그러나 사용자가 기능키들을 반복적으로 입력해야한다는 점과 이미지 주밍 과정에서 많은 시간이 소요된다는 점이 문제점으로 지적되었으며, 보다 간편하고 빠르게 이미지를 주밍하는 방법이 필요하게 되었다.However, the problem has been pointed out that the user has to repeatedly input the function keys and it takes a lot of time in the image zooming process, and a simpler and faster method for zooming images is required.

본 발명의 목적은 터치스크린을 구비한 휴대 단말에서 간편하고 빠르게 이미지를 주밍하는 방법을 제공함에 있다.An object of the present invention is to provide a method for zooming images easily and quickly in a mobile terminal having a touch screen.

본 발명에 따른 이미지 처리 방법은 터치스크린에 이미지를 미리 설정된 초기 배율로 표시하는 단계; 상기 터치스크린으로부터 터치를 검출하는 단계; 상기 터치가 이동하는 경우 상기 터치의 시작점부터 이동 거리에 비례하여 상기 이미지를 확대하는 단계; 및 상기 터치의 이동 방향이 변경된 경우 상기 이미지를 축소하는 단계를 포함한다.The image processing method according to the present invention comprises the steps of displaying the image on the touch screen at a predetermined initial magnification; Detecting a touch from the touch screen; Enlarging the image in proportion to a moving distance from a start point of the touch when the touch is moved; And reducing the image when the moving direction of the touch is changed.

본 발명에 따른 휴대 단말은 이미지를 미리 설정된 초기 배율로 표시하는 터치스크린; 및 상기 터치스크린으로부터 터치를 검출하고, 상기 터치가 이동하는 경우 상기 터치의 시작점부터 이동 거리에 비례하여 상기 이미지를 확대하여 표시하도록 상기 터치스크린을 제어하고, 상기 터치의 이동 방향이 변경된 경우 상기 이미지를 축소하여 표시하도록 상기 터치스크린을 제어하는 제어부를 포함한다.A mobile terminal according to the present invention comprises a touch screen for displaying an image at a preset initial magnification; And detecting the touch from the touch screen, and controlling the touch screen to enlarge and display the image in proportion to the moving distance from the starting point of the touch when the touch is moved, and when the moving direction of the touch is changed And a controller for controlling the touch screen to reduce and display the touch screen.

이상으로 본 발명에 따른 이미지 처리 방법 그리고 이 방법이 적용된 휴대 단말에 따르면 본 발명을 통해 사용자는 간단한 터치 동작만으로도 이미지를 줌잉하여 볼 수 있다.As described above, according to the image processing method and the portable terminal to which the method is applied, the user can zoom in and view the image with a simple touch operation.

도 1은 본 발명의 일 실시예에 따른 휴대 단말의 전기적인 블록 구성도이다.
도 2는 본 발명의 일 실시예에 따른 이미지 처리 방법을 설명하기 위한 흐름도이다.
도 3 및 도 4는 본 발명의 일 실시예에 따른 이미지 처리 방법을 설명하기 위한 화면들이다.
도 5는 본 발명의 다른 실시예에 따른 이미지 처리 방법을 설명하기 위한 흐름도이다.
도 6 (a) 내지 (d)는 본 발명의 다른 실시예에 따른 이미지 처리 방법을 설명하기 위한 화면들이다.
도 7은 본 발명의 또 다른 실시예에 따른 이미지 처리 방법을 설명하기 위한 흐름도이다.
도 8 (a) 내지 (f)는 본 발명의 또 다른 실시예에 따른 이미지 처리 방법을 설명하기 위한 화면들이다.
1 is an electrical block diagram of a mobile terminal according to an embodiment of the present invention.
2 is a flowchart illustrating an image processing method according to an embodiment of the present invention.
3 and 4 are screens illustrating an image processing method according to an embodiment of the present invention.
5 is a flowchart illustrating an image processing method according to another exemplary embodiment of the present invention.
6A to 6D are screens illustrating an image processing method according to another exemplary embodiment of the present invention.
7 is a flowchart illustrating an image processing method according to another embodiment of the present invention.
8A to 8F are screens illustrating an image processing method according to another exemplary embodiment of the present invention.

본 발명에서 휴대 단말은 터치스크린을 가지고, 휴대폰, 스마트폰, 태블릿 PC, 노트북 PC 등과 같이 휴대 가능한 전자 기기를 의미한다. 본 발명에서 '주밍(zooming)'은 터치스크린에 표시된 이미지의 일부분 또는 전체부분을 확대(zoom in) 또는 축소(zoom out)하는 동작이다. 이하에서 본 발명에 따른 이미지 처리 방법 그리고 휴대 단말에 대해 상세히 설명한다. 본 발명을 설명함에 있어서, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명은 생략한다. 또한 이하에서 사용되는 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야 한다. 따라서 아래 설명과 첨부된 도면은 본 발명의 바람직한 실시예에 불과할 뿐이고, 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원 시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형 예들이 있을 수 있음을 이해하여야 한다. 또한, 첨부 도면에서 일부 구성요소는 과장되거나 생략되거나 또는 개략적으로 도시되었다.In the present invention, the portable terminal refers to a portable electronic device having a touch screen, such as a mobile phone, a smartphone, a tablet PC, a notebook PC, and the like. In the present invention, 'zooming' is an operation of zooming in or zooming out a part or the entire part of an image displayed on a touch screen. Hereinafter, an image processing method and a portable terminal according to the present invention will be described in detail. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. Also, the terms and words used herein should not be construed as being limited to ordinary or dictionary meanings, and should be construed in a meaning and a concept consistent with the technical idea of the present invention. Therefore, the following description and the accompanying drawings are merely exemplary of the present invention and are not intended to be exhaustive of the technical idea of the present invention, so that various equivalents and modifications may be made thereto at the time of the present application . Moreover, some of the elements in the accompanying drawings are exaggerated, omitted, or schematically illustrated.

도 1은 본 발명의 일 실시예에 따른 휴대 단말의 전기적인 블록 구성도이다.1 is an electrical block diagram of a mobile terminal according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 휴대 단말(100)은 터치스크린(110), 키입력부(120), 저장부(130), 무선통신부(140), 오디오 처리부(150), 스피커(SPK), 마이크(MIC), 및 제어부(160)를 포함하여 이루어진다.Referring to FIG. 1, the mobile terminal 100 according to an embodiment of the present invention may include a touch screen 110, a key input unit 120, a storage unit 130, a wireless communication unit 140, an audio processing unit 150, A speaker SPK, a microphone MIC, and a controller 160 are included.

터치스크린(110)은 터치패널(111) 및 표시패널(112)을 포함하여 구성된다. 터치패널(111)은 표시패널(112)에 안착(place on the display unit)될 수 있다. 구체적으로 터치패널(111)은 표시패널(112) 위에 위치하는 애드 온 타입(add-on type)이나 표시패널(112) 내에 삽입되는 온 셀 타입(on-cell type) 또는 인 셀 타입(in-cell type)으로 구현될 수 있다.The touch screen 110 includes a touch panel 111 and a display panel 112. The touch panel 111 may be placed on the display panel 112. In detail, the touch panel 111 includes an add-on type positioned on the display panel 112, an on-cell type inserted into the display panel 112, or an in-cell type. cell type).

터치패널(111)은 터치패널(111)에 대한 사용자의 제스처에 응답하여 아날로그 신호를 발생하고, 아날로그 신호를 디지털 신호(예, 터치이벤트)로 A/D 변환하여 제어부(160)로 전달한다. 여기서 터치이벤트는 터치 좌표(x, y)를 포함한다. 즉 터치패널(110)은 터치패널(111)에서 터치 영역(즉, 사용자의 손가락이나 펜 등에 의해 터치된 영역)에 포함된 좌표들 중 하나를 터치 좌표로 결정하고, 터치 좌표를 제어부(160)로 전달한다. 여기서 터치 좌표는 픽셀 단위일 수 있다. 예컨대, 터치스크린(110)의 해상도가 640*480인 경우, X축 좌표는 0에서 640이고 Y축 좌표는 0에서 480일 수 있다. 한편 터치 패널(110)은 터치 영역의 좌표들을 제어부(160)로 전달하고, 제어부(160)는 전달된 좌표들 중 하나를 터치 좌표로 결정할 수 있다. 제어부(160)는 터치이벤트로부터 사용자의 제스처를 검출한다. 제어부(160)는 검출된 사용자 제스처에 응답하여 상기 구성들을 제어한다. 사용자 제스처는 터치(Touch), 탭(Tap), 더블 탭, 롱 탭, 드래그(Drag), 드래그 앤 드롭(drop), 플릭(Flick), 프레스(press) 및 탭 앤 터치 등을 포함할 수 있다. 여기서, 터치는 사용자가 화면의 어느 한 지점에 터치 기구(예, 손이나 펜)을 접촉하는 조작이고, 탭은 어느 한 지점을 터치한 후 터치 기구의 이동 없이 해당 지점에서 터치 기구를 터치 해제(touch-off)하는 조작이며, 더블 탭은 어느 한 지점을 연속적으로 두 번 탭하는 조작이며, 롱 탭은 탭보다 상대적으로 길게 터치한 후 터치 기구의 이동 없이 해당 지점에서 터치 기구를 터치 해제하는 조작이며, 드래그는 어느 한 지점을 터치한 상태에서 터치 기구를 소정 방향으로 이동시키는 조작이며, 드래그 앤 드롭은 드래그한 다음 터치 기구를 터치 해제하는 조작이며, 플릭은 튀기듯이, 드래그에 비해 터치 기구를 빠르게 이동시킨 다음 터치 해제하는 조작을 의미한다. 프레스는 터치 기구로 어느 한 지점을 터치한 후 해당 지점을 누르는 조작이다. 탭 앤 터치는 화면의 어느 한 지점을 탭한 다음 소정 시간(예, 1초) 이내에 터치하는 조작이다. The touch panel 111 generates an analog signal in response to a gesture of the user with respect to the touch panel 111, converts the analog signal into a digital signal (eg, a touch event), and transmits the analog signal to the controller 160. In this case, the touch event includes touch coordinates (x, y). That is, the touch panel 110 determines one of coordinates included in a touch area (that is, an area touched by a user's finger or a pen) in the touch panel 111 as touch coordinates, and controls the touch coordinates 160. To pass. Here, the touch coordinates may be in pixel units. For example, when the resolution of the touch screen 110 is 640 * 480, the X-axis coordinates may be 0 to 640 and the Y-axis coordinates may be 0 to 480. The touch panel 110 may transmit coordinates of the touch area to the controller 160, and the controller 160 may determine one of the transmitted coordinates as touch coordinates. The controller 160 detects a gesture of the user from the touch event. The controller 160 controls the components in response to the detected user gesture. User gestures may include touch, tap, double tap, long tap, drag, drag and drop, flick, press, tap and touch, and the like. . Here, the touch is an operation in which the user touches a touch mechanism (for example, a hand or a pen) at a certain point on the screen, and the tab touches a certain point and then releases the touch mechanism at that point without moving the touch mechanism. touch-off), the double tap is an operation of tapping a certain point twice in succession, and the long tap is a touch operation relatively longer than the tap and then the touch mechanism is released from the point without moving the touch mechanism. The drag is an operation for moving the touch mechanism in a predetermined direction while touching a point, and the drag and drop is an operation for releasing the touch mechanism after dragging. To move quickly and release the touch. A press is an operation of pressing a point after touching a point with a touch mechanism. Tap and touch is an operation of tapping a point on the screen and then touching it within a predetermined time (for example, 1 second).

터치패널(111)은 손 제스처를 감지하는 손 터치패널과 펜 제스처를 감지하는 펜 터치패널을 포함하여 구성된 복합 터치패널일 수 있다. 여기서 손 터치패널은 정전용량 방식(capacitive type)으로 구성될 수 있다. 물론 손 터치패널은 저항막 방식(resistive type), 적외선 방식 또는 초음파 방식으로 구성될 수도 있다. 또한 손 터치패널은 사용자의 손 제스처에 의해서만 터치이벤트를 발생하는 것은 아니며, 다른 물체(예, 정전용량 변화를 가할 수 있는 전도성 재질의 물체에 의해서도 터치이벤트를 생성할 수 있다. 펜 터치패널은 전자 유도 방식(electromagnetic induction type)으로 구성될 수 있다. 이에 따라 펜 터치패널은 자기장을 형성할 수 있도록 특수 제작된 터치용 스타일러스 펜에 의해 터치이벤트를 생성한다.The touch panel 111 may be a composite touch panel including a hand touch panel for detecting a hand gesture and a pen touch panel for detecting a pen gesture. Here, the hand touch panel may be configured as a capacitive type. Of course, the hand touch panel may be formed of a resistive type, an infrared type, or an ultrasonic type. In addition, the hand touch panel may not generate a touch event only by a user's hand gesture, but may also generate a touch event by another object (for example, an object of conductive material that can apply capacitance change). In this way, the pen touch panel generates a touch event by a touch stylus pen specially manufactured to form a magnetic field.

표시패널(112)은 제어부(160)의 제어 하에, 제어부(160)로부터 입력받은 영상 데이터를 아날로그 신호로 변환하여 표시한다. 즉, 표시패널(112)은 다양한 화면들(pictures) 예를 들면, 잠금 화면, 홈 화면, 환경 설정 화면, 어플리케이션(줄여서 '앱(App)') 실행 화면, 키패드 등을 표시한다. 잠금 화면은 표시패널(112)이 켜지면, 표시패널(112)에 표시되는 화면이다. 잠금 해제를 위한 사용자 제스처가 검출되면 제어부(160)는 표시되는 화면을 잠금 화면에서 홈 화면 또는 앱 실행 화면 등으로 전환(changing)할 수 있다. 잠금 화면은 적어도 하나의 아이콘을 포함할 수 있다. 여기서 아이콘은 어플리케이션(예, 환경 설정, 브라우저, 통화, 메시지 등)에 대응되는 아이콘이다. 또한 홈 화면은 다수의 페이지를 포함한다. 페이지들 중 사용자에 의해 선택된 페이지가 표시된다. 페이지는 적어도 하나의 어플리케이션 실행 화면(picture)을 포함할 수 있다. 또한 페이지는 적어도 하나의 아이콘을 포함할 수 있다. 또한 페이지는 적어도 하나의 어플리케이션 실행 화면(picture)과 적어도 하나의 아이콘을 포함할 수도 있다. 아이콘이 사용자에 의해 선택(예, 아이콘을 탭)되면, 제어부(160)는 해당 앱을 실행하고, 그 실행 화면을 표시하도록 표시패널(112)을 제어한다.The display panel 112 converts the image data received from the controller 160 into an analog signal and displays the same under the control of the controller 160. That is, the display panel 112 displays various pictures, for example, a lock screen, a home screen, an environment setting screen, an application (abbreviated as 'App') execution screen, a keypad, and the like. The lock screen is a screen displayed on the display panel 112 when the display panel 112 is turned on. When the user gesture for unlocking is detected, the controller 160 may change the displayed screen from the lock screen to the home screen or the app execution screen. The lock screen may include at least one icon. Here, the icon is an icon corresponding to an application (eg, environment setting, browser, call, message, etc.). The home screen also includes a number of pages. The page selected by the user is displayed. The page may include at least one application execution picture. The page may also include at least one icon. The page may also include at least one application execution picture and at least one icon. When an icon is selected by the user (eg, tapping the icon), the controller 160 controls the display panel 112 to execute the corresponding app and display the execution screen.

표시패널(112)은 제어부(160)의 제어 하에, 상기 화면들 중에서 하나(예, 홈 화면의 페이지)를 배경(background)으로 표시하고 다른 하나(예, 키패드)를 전경(foreground)으로써 상기 배경에 오버랩하여 표시할 수 있다. 또한 표시패널(112)은 제어부(160)의 제어 하에, 다수의 화면을 서로 오버랩되지 않게 표시할 수 있다. 예컨대, 표시패널(112)은 상기 화면들 중 하나를 제 1 스크린 영역에 표시하고 다른 하나를 제 2 스크린 영역에 표시할 수 있다. 표시패널(112)는 액정 표시 장치(Liquid Crystal Display : LCD), OLED(Organic Light Emitted Diode) 또는 AMOLED(Active Matrix Organic Light Emitted Diode)로 구성될 수 있다.Under the control of the controller 160, the display panel 112 displays one of the screens (eg, a page of the home screen) as a background and the other background (eg, a keypad) as the foreground. It can overlap and display. In addition, the display panel 112 may display a plurality of screens without overlapping each other under the control of the controller 160. For example, the display panel 112 may display one of the screens on the first screen area and the other on the second screen area. The display panel 112 may include a liquid crystal display (LCD), an organic light emitting diode (OLED), or an active matrix organic light emitting diode (AMOLED).

키입력부(120)는 숫자 또는 문자 정보를 입력받고 각종 기능들을 설정하기 위한 다수의 키(버튼)들을 포함할 수 있다. 이러한 키들은 메뉴 불러오기 키, 화면 온/오프 키, 전원 온/오프 키 및 볼륨 조절키 등을 포함할 수 있다. 키입력부(120)는 사용자 설정 및 휴대 단말(100)의 기능 제어와 관련한 키 이벤트를 생성하여 제어부(160)로 전달한다. 키 이벤트는 전원 온/오프 이벤트, 볼륨 조절 이벤트, 화면 온/오프 이벤트 등을 포함할 수 있다. 제어부(160)는 이러한 키 이벤트에 응답하여 상기한 구성들을 제어한다. 한편 키입력부(120)의 키(버튼)는 하드 키(hard key)라 하고 터치스크린(110)에 표시되는 키(버튼)는 소프트 키(soft key)로 지칭될 수 있다.The key input unit 120 may include a plurality of keys (buttons) for receiving numeric or character information and setting various functions. These keys may include a menu retrieval key, a screen on / off key, a power on / off key, and a volume control key. The key input unit 120 generates a key event related to the user setting and the function control of the portable terminal 100, and transmits the generated key event to the control unit 160. The key event may include a power on / off event, a volume adjustment event, a screen on / off event, and the like. The controller 160 controls the above components in response to the key event. Meanwhile, a key (button) of the key input unit 120 may be referred to as a hard key, and a key (button) displayed on the touch screen 110 may be referred to as a soft key.

저장부(130)는 제어부(160)의 보조기억장치(secondary memory unit)로써, 디스크, 램(RAM), 롬(ROM) 및 플래시 메모리를 포함할 수 있다. 저장부(130)는 제어부(160)의 제어 하에, 휴대 단말(100)에서 생성되거나 무선통신부(140) 또는 외부장치 인터페이스부(미도시)를 통해 외부장치(예, 서버, 데스크탑 PC, 태블릿 PC 등)로부터 수신한 데이터를 저장할 수 있다. 저장부(130)는 부팅 프로그램 및 휴대 단말(100)의 운용을 위한 운영체제(OS, Operating System)을 저장한다. 또한 저장부(130)는 이미지 처리 프로그램을 저장한다. 본 발명에 따른 이미지 처리 프로그램은 터치스크린(110)에 대한 사용자의 제스처에 응답하여 이미지를 주밍(zooming)하는 기능을 포함한다. 저장부(130)는 내재화 어플리케이션(embedded application) 및 서드파티 어플리케이션(3rd party application)을 포함한다. 내재화 어플리케이션은 휴대 단말(100)에 기본적으로 탑재되어 있는 어플리케이션을 의미한다. 예컨대 내재화 어플리케이션은 브라우저(browser), 이메일(email), 인스턴트 메신저(instant messenger) 등이 될 수 있다. 서드파티 어플리케이션은 주지되어 있는 바와 같이 온라인 마켓으로부터 휴대 단말(100)에 다운로드되어 설치될 수 있는 어플리케이션을 의미하며, 매우 다종다양하다. 이러한 서드파티 어플리케이션은 설치 및 제거가 자유롭다. 휴대 단말(100)가 켜지면 먼저 부팅 프로그램이 제어부(160)의 주기억장치(예, RAM)로 로딩(loading)된다. 이러한 부팅 프로그램은 휴대 단말(100)가 동작할 수 있게 운영체제를 주기억장치로 로딩한다. 또한 운영체제는 어플리케이션들을 주기억장치로 로딩하여 실행한다. 이러한 부팅 및 로딩은 컴퓨터 시스템에서 널리 공지되어 있는 기술이므로 구체적인 설명은 생략한다.The storage unit 130 may be a secondary memory unit of the controller 160 and may include a disk, a RAM, a ROM, and a flash memory. The storage unit 130 may be generated by the portable terminal 100 under the control of the controller 160 or may be an external device (eg, a server, a desktop PC, or a tablet PC) through the wireless communication unit 140 or an external device interface unit (not shown). Etc.) can be stored. The storage unit 130 stores an booting program and an operating system (OS) for operating the portable terminal 100. The storage unit 130 also stores an image processing program. The image processing program according to the present invention includes a function of zooming an image in response to a gesture of a user on the touch screen 110. The storage unit 130 includes an embedded application and a third party application. The internalization application refers to an application that is basically installed in the portable terminal 100. [ For example, the internalization application may be a browser, an email, an instant messenger, or the like. As is well known, the third party application refers to an application that can be downloaded and installed from the online marketplace to the mobile terminal 100, and is very diverse. These third-party applications are free to install and uninstall. When the portable terminal 100 is turned on, a booting program is first loaded into a main memory (eg, RAM) of the controller 160. This booting program loads the operating system into the main memory so that the portable terminal 100 can operate. The operating system also loads and runs applications into main memory. Such booting and loading is well known in the computer system, and thus a detailed description thereof will be omitted.

무선통신부(140)는 제어부(160)의 제어 하에, 외부장치와 음성 통화, 화상 통화 또는 데이터 통신을 수행한다. 이를 위하여 무선통신부(140)는 송신되는 신호의 주파수를 상승변환 및 증폭하는 무선주파수 송신부와, 수신되는 신호의 주파수를 저잡음 증폭 및 하강 변환하는 무선주파수 수신부 등을 포함할 수 있다. 또한 무선 통신부(140)는 이동 통신 모듈(예컨대, 3세대(3-Generation) 이동통신모듈, 3.5(3.5-Generation)세대 이동통신모듈 또는 4(4-Generation)세대 이동통신모듈 등), 디지털 방송 모듈(예컨대, DMB 모듈) 및 근거리 통신 모듈(예, 와이파이(Wi-Fi) 모듈, 블루투스(bluetooth) 모듈)을 포함할 수 있다.The wireless communication unit 140 performs voice call, video call, or data communication with an external device under the control of the controller 160. To this end, the wireless communication unit 140 may include a radio frequency transmitter for up-converting and amplifying a frequency of a transmitted signal, and a radio frequency receiver for low-noise amplifying and down-converting a frequency of a received signal. In addition, the wireless communication unit 140 may be a mobile communication module (eg, a third generation (3-Generation) mobile communication module, 3.5 (3.5-Generation) generation mobile communication module or 4 (4-Generation) generation mobile communication module, etc.), digital broadcasting Module (eg, a DMB module) and a local area communication module (eg, a Wi-Fi module, a Bluetooth module).

오디오 처리부(150)는 스피커(SPK) 및 마이크(MIC)와 결합하여 음성 인식, 음성 녹음, 디지털 레코딩(recording) 및 통화 기능을 위한 오디오 신호의 입력 및 출력 기능을 수행한다. 오디오 처리부(150)는 제어부(160)로부터 오디오 신호(예컨대, 액세서리가 분리되었음을 안내하는 음성 신호, 외부장치가 연결되었음을 안내하는 음성 신호)를 수신하고, 수신한 오디오 신호를 아날로그로 D/A 변환하고 증폭한 후 스피커(SPK)로 출력한다. 오디오 처리부(150)는 마이크(MIC)으로부터 수신한 오디오 신호를 디지털로 A/D 변환한 후 제어부(160)로 제공한다. 스피커(SPK)는 오디오 처리부(150)로부터 수신한 오디오 신호를 음파(sound wave)로 변환하여 출력한다. 마이크(MIC)는 사람이나 기타 소리원(sound source)들로부터 전달된 음파를 오디오 신호로 변환한다.The audio processing unit 150 is coupled with a speaker SPK and a microphone MIC to perform input and output functions of audio signals for voice recognition, voice recording, digital recording, and call functions. The audio processor 150 receives an audio signal (eg, a voice signal indicating that an accessory is disconnected or a voice signal indicating that an external device is connected) from the control unit 160, and converts the received audio signal into analog D / A. After amplifying and outputting to speaker (SPK). The audio processor 150 converts the audio signal received from the microphone MIC to digital and provides the converted signal to the controller 160. The speaker SPK converts an audio signal received from the audio processor 150 into a sound wave and outputs the sound wave. A microphone (MIC) converts sound waves from people or other sound sources into audio signals.

제어부(160)는 휴대 단말(100)의 전반적인 동작 및 휴대 단말(100)의 내부 구성들 간의 신호 흐름을 제어하고, 데이터를 처리하는 기능을 수행하고, 배터리에서 상기 구성들로의 전원 공급을 제어한다. 제어부(160)는 응용프로그램 및 운영체제를 저장하는 주기억장치와, 저장부(130)에 기록(write)할 데이터를 임시 저장하고 저장부(130)로부터 읽어 온(read) 데이터를 임시 저장하는 캐시메모리와, CPU(central processing unit)와, GPU(graphic processing unit) 등을 포함할 수 있다. 여기서 운영체제는 하드웨어와 프로그램간의 인터페이스 역할을 하면서, CPU, GPU, 주기억장치, 보조기억장치 등의 컴퓨터 자원을 관리한다. 즉, 운영체제는 휴대 단말(100)를 동작시키고 작업(task)의 순서를 정하며 CPU의 연산 및 GPU의 연산을 제어한다. 또한 운영체제는 응용 프로그램의 실행을 제어하는 기능과, 데이터와 파일의 저장을 관리하는 기능 등을 수행한다. 한편 주지된 바와 같이 CPU는 자료의 연산 및 비교와, 명령어의 해석 및 실행 등을 수행하는 컴퓨터 시스템의 핵심적인 제어 유닛이다. GPU는 CPU를 대신하여, 그래픽과 관련한 자료의 연산 및 비교와, 명령어의 해석 및 실행 등을 수행하는 그래픽 제어 유닛이다. CPU와 GPU은 각각, 두 개 이상의 독립 코어(예, 쿼드 코어(quad-core))가 단일 집적 회로로 이루어진 하나의 패키지(package)로 통합될 수 있다. 또한 CPU와 GPU는 하나의 칩으로 통합(SoC; System on Chip)된 것일 수 있다. 또한 CPU와 GPU는 멀티 레이어(multi layer)로 패키징(packaging)된 것일 수도 있다. 한편 CPU 및 GPU를 포함하는 구성은 AP(Application Processor)라고 지칭될 수 있다.The control unit 160 controls the overall operation of the portable terminal 100 and the signal flow between the internal configurations of the portable terminal 100 and performs a function of processing data and controls power supply from the battery to the configurations do. The controller 160 stores a main memory for storing an application program and an operating system, and a cache memory for temporarily storing data to be written to the storage 130 and temporarily storing data read from the storage 130. And a central processing unit (CPU), a graphic processing unit (GPU), and the like. Here, the operating system acts as an interface between the hardware and the program, and manages computer resources such as CPU, GPU, main memory, and auxiliary memory. That is, the operating system operates the mobile terminal 100, determines the order of tasks, and controls the operation of the CPU and the operation of the GPU. The operating system also controls the execution of application programs and manages the storage of data and files. As is well known, the CPU is a core control unit of a computer system that performs calculations and comparisons of data, and interprets and executes instructions. The GPU is a graphics control unit that performs computation and comparison of data related to graphics, interpreting and executing instructions, and so on, on behalf of the CPU. The CPU and the GPU may each be integrated into a single package of two or more independent cores (e.g., quad-core) in a single integrated circuit. The CPU and the GPU may be integrated on a single chip (SoC). The CPU and GPU may also be packaged in a multi-layer. On the other hand, a configuration including a CPU and a GPU may be referred to as an application processor (AP).

제어부(160)의 본 발명과 관련된 특징적인 기술 즉, 이미지 주밍을 이하 도면을 참조하여 설명한다. 여기서 이미지는 이미지, 홈 화면의 페이지, 앱 실행 화면(예, 웹페이지), 문서, 사진 등을 포함하는 개념이다.A characteristic technique, that is, image zooming, related to the present invention of the controller 160 will be described with reference to the accompanying drawings. Here, an image is a concept including an image, a page of a home screen, an app execution screen (eg, a web page), a document, a photo, and the like.

한편 디지털 기기의 컨버전스(convergence) 추세에 따라 변형이 매우 다양하여 모두 열거할 수는 없으나, 휴대 단말(100)은 가속도 센서, 자이로 센서, GPS 모듈, NFC(Near Filed Communication) 모듈, 진동 모터, 카메라, 액세서리, 외부장치 인터페이스부 등과 같이 상기에서 언급되지 않은 구성들을 더 포함할 수 있다. 여기서 액세서리는 휴대 단말(100)로부터 분리가 가능한 휴대 단말(100)의 부속품으로써 예컨대, 터치스크린(110)에 터치를 위한 펜이 될 수 있다. 외부장치 인터페이스부는 유선을 통해 외부장치(예, 다른 휴대 단말, 데스크탑 PC, 노트북 PC, 헤드폰, 충전기 등)와 연결되고 제어부(160)의 제어 하에 외부장치와 데이터 통신을 수행한다. 또한 휴대 단말(100)은 그 제공 형태에 따라 상기한 구성들에서 특정 구성이 제외되거나 다른 구성으로 대체될 수도 있다.On the other hand, according to the trend of convergence (convergence) of the digital device is very diverse and can not be enumerated, but the mobile terminal 100 is an acceleration sensor, gyro sensor, GPS module, NFC (Near Filed Communication) module, vibration motor, camera It may further include components not mentioned above, such as an accessory, an external device interface unit, and the like. Here, the accessory may be an accessory of the portable terminal 100 that can be detached from the portable terminal 100 and may be, for example, a pen for touching the touch screen 110. The external device interface unit is connected to an external device (for example, another mobile terminal, a desktop PC, a notebook PC, a headphone, a charger, etc.) through a wire and performs data communication with the external device under the control of the controller 160. In addition, the portable terminal 100 may be excluded from the specific configuration in the configurations described above or may be replaced with other configurations depending on the provision mode.

도 2는 본 발명의 일 실시예에 따른 이미지 처리 방법을 설명하기 위한 흐름도이다. 도 3 및 도 4는 본 발명의 일 실시예에 따른 이미지 처리 방법을 설명하기 위한 화면들이다. 2 is a flowchart illustrating an image processing method according to an embodiment of the present invention. 3 and 4 are screens illustrating an image processing method according to an embodiment of the present invention.

단계 205에서 터치스크린(110)은 제어부(160)의 제어 하에, 이미지를 미리 정해진 초기 배율로 표시한다. 예컨대 3 (a)를 참조하면 터치스크린(110)은 1.0 배율로 이미지를 표시한다.In operation 205, the touch screen 110 displays an image at a predetermined initial magnification under the control of the controller 160. For example, referring to 3 (a), the touch screen 110 displays an image at 1.0 magnification.

단계 210에서 제어부(160)는 터치스크린(110)으로부터 탭 앤 터치를 검출한다. 예컨대 탭이 검출된 후 소정 시간(예, 1초) 이내에 다시 터치(310; 도 3 (a) 참조)가 검출될 수 있다. 다음으로 단계 215에서 제어부(160)는 터치(310)의 이동 여부를 결정한다.In operation 210, the controller 160 detects tap and touch from the touch screen 110. For example, the touch 310 (see FIG. 3A) may be detected again within a predetermined time (eg, 1 second) after the tap is detected. Next, in step 215, the controller 160 determines whether the touch 310 moves.

단계 215에서 터치(310)가 이동하지 않은 경우 단계 220에서 제어부(160)는 터치(310)의 시작점에서의 터치 시간에 비례하여 이미지를 축소한다. 일례로 도 4 (a) 및 (b)를 참조하면 터치(310)가 검출된 후 t1(예, 2초)이 경과되면 제어부(160)는 이미지를 1.0배율에서 0.5배율로 축소한다. 다시 t2(예, 4초)가 경과되면 제어부(160)는 이미지를 0.5배율에서 0.25배율로 축소한다. 이미지는 미리 정해진 최소 배율(예컨대, 0.25)까지 축소된다. 또한 제어부(160)는 축소되는 정도를 나타내는 지시자를 터치(310) 주변에 표시하도록 터치스크린(110)을 제어할 수 있다. 예컨대, 이미지가 1.5배율로 축소되면 "X1.5"가 표시되고 이미지가 1.0배율로 축소되면 "X1.0"이 표시된다. 단계 225에서 제어부(160)는 터치(310)의 해제 여부를 결정한다. 이미지 축소 후 터치(310)가 해제되면 프로세스는 종료된다. 터치(310)가 해제되지 않은 경우 프로세스는 단계 215로 복귀된다.If the touch 310 does not move in step 215, in step 220, the controller 160 reduces the image in proportion to the touch time at the start point of the touch 310. For example, referring to FIGS. 4A and 4B, when t1 (eg, 2 seconds) elapses after the touch 310 is detected, the controller 160 reduces the image from 1.0 magnification to 0.5 magnification. When t2 (eg, 4 seconds) elapses, the controller 160 reduces the image from 0.5 magnification to 0.25 magnification. The image is reduced to a predetermined minimum magnification (eg 0.25). In addition, the controller 160 may control the touch screen 110 to display an indicator indicating the degree of reduction around the touch 310. For example, when the image is reduced to 1.5 magnification, "X1.5" is displayed, and when the image is reduced to 1.0 magnification, "X1.0" is displayed. In operation 225, the controller 160 determines whether the touch 310 is released. If the touch 310 is released after the image is reduced, the process ends. If touch 310 is not released, the process returns to step 215.

단계 215에서 터치(310)가 이동한 경우 단계 230에서 제어부(160)는 터치(310)의 이동에 응답하여 이미지를 확대(zoom in)한다. 도 3 (b)를 참조하면 제어부(160)는 터치(310)의 시작점(x0, y0)(320)을 결정하고, 시작점(320)부터의 터치(310)의 이동 거리에 비례하여 이미지를 확대하고, 확대된 이미지를 표시하도록 터치스크린(110)을 제어한다. 여기서 이동 거리는 시작점(320)과 터치(310)의 현재 위치(Current position)(xC, yC) 간의 간격을 의미한다. 예컨대, 간격이 픽셀 단위로 200픽셀이면 이미지는 1.0배율에서 2.0배율로 확대된다. 이미지는 미리 정해진 최대 배율(예컨대,10.0)까지 확대된다. 또한 터치(310)의 이동이 검출되면 제어부(160)는 터치(310)의 이동 거리(즉, 시작점(320)과 현재 위치 간의 간격)을 나타내는 연결선(330)을 표시하도록 터치스크린(110)을 제어할 수 있다. 따라서 사용자는 시작점이 어디에 위치하는지 그리고 현재 터치 지점과 시작점 간의 간격이 어느 정도인지 인식할 수 있다.When the touch 310 moves in step 215, in step 230, the controller 160 zooms in the image in response to the movement of the touch 310. Referring to FIG. 3 (b), the controller 160 determines the starting point (x 0 , y 0 ) 320 of the touch 310, and the image is proportional to the moving distance of the touch 310 from the starting point 320. And controls the touch screen 110 to display the enlarged image. Herein, the movement distance means a distance between the starting point 320 and the current position (x C , y C ) of the touch 310. For example, if the interval is 200 pixels per pixel, the image is enlarged from 1.0 magnification to 2.0 magnification. The image is magnified to a predetermined maximum magnification (eg 10.0). In addition, when the movement of the touch 310 is detected, the controller 160 controls the touch screen 110 to display the connection line 330 indicating the movement distance of the touch 310 (that is, the distance between the starting point 320 and the current position). Can be controlled. Thus, the user can recognize where the starting point is located and how much distance there is between the current touch point and the starting point.

단계 235에서 제어부(160)는 터치(310)의 해제 여부를 결정한다. 예컨대 터치스크린(110)으로부터 터치이벤트가 수신되지 않으면 제어부(160)는 터치(310)가 해제된 것으로 결정한다. 이미지 확대 후 터치(310)가 해제되면 프로세스는 종료된다. 터치(310)가 해제되지 않은 경우 단계 240에서 제어부(160)는 터치(310)의 이동 방향이 시작점(320)이 위치한 방향으로 꺾이는지 여부를 결정한다. 예컨대 터치(310)가 도 3 (b)에 도시된 바와 같이 위로 이동하다가 180도 꺾여서 도 3 (c)에 도시된 바와 같이 아래로 이동할 수 있다.In operation 235, the controller 160 determines whether to release the touch 310. For example, if a touch event is not received from the touch screen 110, the controller 160 determines that the touch 310 is released. If the touch 310 is released after the image is enlarged, the process ends. If the touch 310 is not released, in step 240, the controller 160 determines whether the movement direction of the touch 310 is bent in the direction in which the starting point 320 is located. For example, the touch 310 may move upward as shown in FIG. 3 (b) and then be rotated 180 degrees to move downward as shown in FIG. 3 (c).

터치(310)의 이동 방향이 시작점(320)이 위치한 방향으로 꺾일 경우 단계 245에서 제어부(160)는 터치(310)의 이동에 응답하여 이미지를 축소(zoom out)한다. 도 3 (c)를 참조하면 제어부(160)는 터치(310)가 시작점(320)에 가까워질수록 이미지를 축소하고, 축소된 이미지를 표시하도록 터치스크린(110)을 제어한다. 즉 제어부(160)는 즉 제어부(160)는 시작점(320)과 터치(310)의 현재 위치 간의 간격에 반비례하여 이미지를 축소한다. 예컨대, 간격이 픽셀 단위로 100픽셀이면 이미지는 2.0배율에서 1.5배율로 축소된다. 간격이 0픽셀 즉, 터치(320)가 시작점에 위치하면 이미지는 1.5배율에서 1.0배율로 축소된다. If the movement direction of the touch 310 is bent in the direction in which the starting point 320 is located, the controller 160 zooms out the image in response to the movement of the touch 310 in step 245. Referring to FIG. 3C, the controller 160 reduces the image as the touch 310 approaches the starting point 320, and controls the touch screen 110 to display the reduced image. That is, the controller 160 reduces the image in inverse proportion to the interval between the starting point 320 and the current position of the touch 310. For example, if the interval is 100 pixels per pixel, the image is reduced from 2.0 to 1.5 times. If the interval is 0 pixels, that is, the touch 320 is located at the starting point, the image is reduced from 1.5 to 1.0 magnification.

단계 250에서 제어부(160)는 터치(310)의 해제 여부를 결정한다. 이미지 축소 후 터치(310)가 해제되면 프로세스는 종료된다. 터치(310)가 해제되지 않은 경우 단계 255에서 제어부(160)는 터치(310)가 시작점(320)으로 복귀되었는지 여부를 결정한다. 도 3 (d)를 참조하면 터치(310)가 시작점(320)으로 복귀되면 단계 260에서 제어부(160)는 터치스크린(110)을 제어하여 이미지를 터치(310)가 이동하기 전에 표시되던 배율로 표시한다.In operation 250, the controller 160 determines whether to release the touch 310. If the touch 310 is released after the image is reduced, the process ends. If the touch 310 is not released, in step 255, the controller 160 determines whether the touch 310 has returned to the starting point 320. Referring to FIG. 3 (d), when the touch 310 returns to the starting point 320, in step 260, the controller 160 controls the touch screen 110 to display the image at the magnification displayed before the touch 310 moves. Display.

단계 265에서 제어부(160)는 터치(310)의 해제 여부를 결정한다. 이미지의 배율이 이동하기 전에 표시되던 배율로 복귀된 후 터치(310)가 해제되면 프로세스는 종료된다. 터치(310)가 해제되지 않은 경우 단계 270에서 제어부(160)는 터치(310)가 시작점(320)을 통과하는지 여부를 결정한다. 터치(310)가 시작점(320)을 통과하면 단계 275에서 제어부(160)는 터치(310)의 이동에 응답하여 이미지를 축소한다. 도 3 (e)를 참조하면 제어부(160)는 시작점(320)에서 터치(310)의 이동 거리에 비례하여 이미지를 축소하고, 축소된 이미지를 표시하도록 터치스크린(110)을 제어한다. 여기서 이동 거리는 터치(310)가 시작점(320)을 통과 후 시작점(320)과 터치(310)의 현재 위치 간의 간격을 의미한다. 예컨대, 간격이 픽셀 단위로 200픽셀이면 이미지는 1.0배율에서 0.5배율로 축소된다. 이미지는 미리 정해진 최소 배율(예컨대, 0.25)까지 축소된다. 단계 280에서 제어부(160)는 터치(310)의 해제 여부를 결정한다. 이미지 축소 후 터치(310)가 해제되면 프로세스는 종료된다. 터치(310)가 해제되지 않은 경우 프로세스는 단계 275로 복귀된다.In operation 265, the controller 160 determines whether the touch 310 is released. The process ends when the touch 310 is released after the magnification of the image returns to the magnification displayed before the movement. If the touch 310 is not released, in step 270, the controller 160 determines whether the touch 310 passes through the starting point 320. If the touch 310 passes the starting point 320, in step 275, the controller 160 reduces the image in response to the movement of the touch 310. Referring to FIG. 3E, the controller 160 reduces the image in proportion to the moving distance of the touch 310 at the starting point 320 and controls the touch screen 110 to display the reduced image. Herein, the moving distance means a distance between the starting point 320 and the current position of the touch 310 after the touch 310 passes through the starting point 320. For example, if the interval is 200 pixels per pixel, the image is reduced from 1.0 magnification to 0.5 magnification. The image is reduced to a predetermined minimum magnification (eg 0.25). In operation 280, the controller 160 determines whether the touch 310 is released. If the touch 310 is released after the image is reduced, the process ends. If touch 310 is not released, the process returns to step 275.

이상으로 본 발명의 일 실시예에 따르면 터치의 시작점에서의 터치 시간에 비례하여 이미지는 축소된다. 터치가 시작점에서 멀어지게 되면(이때, 방향은 무관함) 이미지는 확대된다. 다시 터치가 시작점에 가까워지면 이미지는 축소된다. 터치가 시작점으로 복귀되면 이미지는 터치가 이동하기 전의 배율로 표시되고 터치가 시작점을 통과하면 이미지는 터치가 시작점으로 복귀되기 전의 배율보다 축소된다. 한편 본 발명의 이미지 처리 방법은 상기 탭 앤 터치가 아닌 다른 사용자의 제스처에 의해서도 시작될 수 있다. 예컨대, 제어부(160)는 탭 앤 터치가 아닌, 터치의 이동에 응답하여 이미지를 확대할 수도 있다. 또한 시작점으로의 플릭(Flick)이 발생되면 제어부(160)는 이미지를 초기 배율로 축소한다. 일례로 도 3 (b) 및 (f)를 참조하면 이미지가 2.0배율로 확대된 상태에서 시작점(320)으로의 플릭이 검출되면 제어부(160)는 이미지를 2.0배율에서 초기 배율 즉, 1.0배율로 축소한다.As described above, according to the exemplary embodiment of the present invention, the image is reduced in proportion to the touch time at the start point of the touch. If the touch moves away from the starting point (the direction is irrelevant), the image is magnified. Once the touch is close to the starting point, the image shrinks. When the touch returns to the starting point, the image is displayed at the magnification before the touch moves, and when the touch passes through the starting point, the image is smaller than the magnification before the touch returns to the starting point. Meanwhile, the image processing method of the present invention may be started by a gesture of another user other than the tap and touch. For example, the controller 160 may enlarge the image in response to the movement of the touch, not the tap and touch. In addition, when a flick to a starting point occurs, the controller 160 reduces the image to an initial magnification. As an example, referring to FIGS. 3B and 3F, when a flick to the starting point 320 is detected while the image is enlarged at 2.0 magnification, the controller 160 adjusts the image from 2.0 to an initial magnification, that is, 1.0 magnification. Zoom out.

도 5는 본 발명의 다른 실시예에 따른 이미지 처리 방법을 설명하기 위한 흐름도이다. 도 6 (a) 내지 (f)는 본 발명의 다른 실시예에 따른 이미지 처리 방법을 설명하기 위한 화면들이다. 5 is a flowchart illustrating an image processing method according to another exemplary embodiment of the present invention. 6A to 6F are screens illustrating an image processing method according to another exemplary embodiment of the present invention.

단계 510에서 터치스크린(110)은 제어부(160)의 제어 하에, 이미지를 미리 정해진 초기 배율로 표시한다. 예컨대 도 5 (a)를 참조하면 터치스크린(110)은 1.0 배율로 이미지를 표시한다.In operation 510, the touch screen 110 displays an image at a predetermined initial magnification under the control of the controller 160. For example, referring to FIG. 5A, the touch screen 110 displays an image at 1.0 magnification.

단계 515에서 제어부(160)는 터치스크린(110)으로부터 탭 앤 터치를 검출한다. 예컨대 탭이 검출된 후 소정 시간(예, 1초) 이내에 다시 터치(610; 도 5 (a) 참조)가 검출될 수 있다. 다음으로 단계 520에서 제어부(160)는 터치(610)의 이동 여부를 결정한다.In operation 515, the controller 160 detects tap and touch from the touch screen 110. For example, the touch 610 (see FIG. 5A) may be detected again within a predetermined time (eg, 1 second) after the tap is detected. Next, in step 520, the controller 160 determines whether the touch 610 moves.

단계 520에서 터치(610)가 이동하지 않은 경우 단계 525에서 제어부(160)는 터치(610)의 시작점에서의 터치 시간에 비례하여 이미지를 축소한다. 도 6 (e) 및 (f)를 참조하면 터치(610)가 검출된 후 t1(예, 2초)이 경과되면 제어부(160)는 이미지를 1.0배율에서 0.5배율로 축소한다. 다시 t2(예, 4초)가 경과되면 제어부(160)는 이미지를 0.5배율에서 0.25배율로 축소한다. 이미지는 미리 정해진 최소 배율(예컨대, 0.25)까지 축소된다. 또한 제어부(160)는 축소되는 정도를 나타내는 지시자를 터치(610) 주변에 표시하도록 터치스크린(110)을 제어할 수 있다. 단계 530에서 제어부(160)는 터치(610)의 해제 여부를 결정한다. 이미지 축소 후 터치(610)가 해제되면 프로세스는 종료된다. 터치(610)가 해제되지 않은 경우 프로세스는 단계 520으로 복귀된다.If the touch 610 does not move in step 520, in step 525, the controller 160 reduces the image in proportion to the touch time at the start point of the touch 610. Referring to FIGS. 6E and 6F, when t1 (eg, 2 seconds) elapses after the touch 610 is detected, the controller 160 reduces the image from 1.0 magnification to 0.5 magnification. When t2 (eg, 4 seconds) elapses, the controller 160 reduces the image from 0.5 magnification to 0.25 magnification. The image is reduced to a predetermined minimum magnification (eg 0.25). In addition, the controller 160 may control the touch screen 110 to display an indicator indicating the degree of reduction around the touch 610. In operation 530, the controller 160 determines whether to release the touch 610. If the touch 610 is released after the image is reduced, the process ends. If touch 610 is not released, the process returns to step 520.

단계 520에서 터치(610)가 이동한 경우 단계 535에서 제어부(160)는 터치(610)의 이동에 응답하여 이미지를 확대(zoom in)한다. 도 6 (b)를 참조하면 제어부(160)는 터치(610)의 시작점(620)을 결정하고, 시작점(620)에서 터치(610)의 이동 거리에 비례하여 이미지를 확대하고, 확대된 이미지를 표시하도록 터치스크린(110)을 제어한다. 예컨대, 이동 거리 즉, 시작점(620)과 터치(610)의 현재 위치(xC, yC) 간의 간격이 픽셀 단위로 200픽셀이면 이미지는 1.0배율에서 2.0배율로 확대된다. 이미지는 미리 정해진 최대 배율(예, 10.0)까지 확대된다. 또한 터치(610)가 임의의 위치(630)에서 미리 정해진 임계 시간(예, 1초) 이상 멈추면 제어부(160)는 멈춘 위치(630) 주변에 주밍 가이더(Zooming guider)(640)를 표시하도록 터치스크린(110)을 제어할 수 있다. 주밍 가이더(640)는 줌 인 아이콘(641), 줌 아웃 아이콘(642) 및 기준 아이콘(643)을 포함한다. 예컨대 도 6 (b)에 도시된 바와 같이 터치(610)의 이동 방향이 시작점(620)에서 위쪽이면 줌 인 아이콘(641)은 줌 아웃 아이콘(642)보다 위에 위치하고, 기준 아이콘(643)은 줌 인 아이콘(641)과 줌 아웃 아이콘(642) 사이에 위치한다. 다른 예로 터치(610)의 이동 방향이 시작점(620)에서 오른쪽이면 줌 인 아이콘(641)은 줌 아웃 아이콘(642)보다 오른쪽에 위치한다. 즉 줌 인 아이콘(641)은 터치의 이동 방향에 위치하고 상대적으로 줌 아웃 아이콘(642)은 반대 방향에 위치한다. 한편 제어부(160)는 주밍 가이더(640)를 탭 앤 터치가 검출될 때 바로 표시하도록 터치스크린(110)을 제어할 수 있다. 또한 제어부(160)는 탭 앤 터치가 검출될 때는 표시되지 않다가 터치가 움직이면 주밍 가이더(640)를 표시되도록 터치스크린(110)을 제어할 수도 있다. 또한 제어부(160)는 주밍 가이더(640)를 터치(610)의 움직임에 따라 함께 이동할 수도 있다.When the touch 610 moves in step 520, in step 535, the controller 160 zooms in the image in response to the movement of the touch 610. Referring to FIG. 6 (b), the controller 160 determines the starting point 620 of the touch 610, enlarges the image in proportion to the moving distance of the touch 610 at the starting point 620, and enlarges the enlarged image. The touch screen 110 is controlled to display. For example, if the moving distance, that is, the distance between the starting point 620 and the current position (x C , y C ) of the touch 610 is 200 pixels in pixel units, the image is enlarged from 1.0 magnification to 2.0 magnification. The image is magnified to a predetermined maximum magnification (eg 10.0). In addition, when the touch 610 stops for more than a predetermined threshold time (eg, 1 second) at an arbitrary position 630, the controller 160 displays the zooming guider 640 around the stopped position 630. The touch screen 110 may be controlled. Zooming guider 640 includes a zoom in icon 641, a zoom out icon 642, and a reference icon 643. For example, as shown in FIG. 6B, when the moving direction of the touch 610 is upward from the starting point 620, the zoom in icon 641 is positioned above the zoom out icon 642, and the reference icon 643 is zoomed. Located between the in icon 641 and the zoom out icon 642. As another example, when the moving direction of the touch 610 is right from the start point 620, the zoom in icon 641 is located to the right of the zoom out icon 642. That is, the zoom in icon 641 is located in the movement direction of the touch and the zoom out icon 642 is located in the opposite direction. The controller 160 may control the touch screen 110 to immediately display the zooming guider 640 when a tap and touch is detected. In addition, the controller 160 may control the touch screen 110 to display the zooming guider 640 when the touch is moved when the tap and touch is not displayed. In addition, the controller 160 may move the zooming guider 640 together with the movement of the touch 610.

단계 540에서 제어부(160)는 터치(610)의 해제 여부를 결정한다. 이미지 확대 후 터치(610)가 해제되면 프로세스는 종료된다. 터치(610)가 해제되지 않은 경우 단계 545에서 제어부(160)는 터치(610)의 이동 방향이 임계각도(θT)(예, 60도) 이내로 꺾이는지 여부를 결정한다. 터치(610)의 이동 방향이 임계각도 이내로 꺾일 경우 단계 550에서 제어부(160)는 터치(610)의 이동에 응답하여 이미지를 축소한다. 도 6 (c)를 참조하면 제어부(160)는 터치(310)의 이동 방향이 임계각도 이내로 꺾이기 시작한 변곡점(650)을 결정하고, 변곡점(650)부터의 터치(610)의 이동 거리에 비례하여 이미지를 축소하고, 축소된 이미지를 표시하도록 터치스크린(110)을 제어한다. 예컨대, 이동 거리 즉, 변곡점(650)과 터치(610)의 제 1 지점(560) 간의 간격이 픽셀 단위로 200픽셀이면 이미지는 2.0배율에서 1.0배율 즉, 초기 배율로 축소된다. 간격이 미리 설정된 임계거리를 초과하면 이미지는 터치(610)가 시작점(620)에서 이동하기 전의 배율보다 낮게 축소된다. 예컨대 도 5 (d)를 참조하면 터치(610)가 제 1 지점(560)보다 먼 제 2 지점(570)에 위치하면 이미지는 0.5 배율로 축소된다. 이미지는 미리 정해진 최소 배율(예컨대, 0.25)까지 축소된다. 변곡점(650)과의 간격이 가까워지면 다시 이미지는 확대될 수 있다. 예컨대, 터치(610)가 제 2 지점(570)에서 제 1 지점(560)으로 이동하게 되면 제어부(160)는 이미지를 0.5배율에서 1.0배율로 확대한다.In operation 540, the controller 160 determines whether to release the touch 610. If the touch 610 is released after the image is enlarged, the process ends. If the touch 610 is not released, in step 545, the controller 160 determines whether the movement direction of the touch 610 is bent within a critical angle θ T (eg, 60 degrees). If the movement direction of the touch 610 is bent within a critical angle, in step 550, the controller 160 reduces the image in response to the movement of the touch 610. Referring to FIG. 6 (c), the controller 160 determines the inflection point 650 at which the movement direction of the touch 310 starts to be bent within a critical angle, and is proportional to the movement distance of the touch 610 from the inflection point 650. To reduce the image and control the touch screen 110 to display the reduced image. For example, if the moving distance, that is, the interval between the inflection point 650 and the first point 560 of the touch 610 is 200 pixels, the image is reduced from 2.0 to 1.0 magnification, that is, the initial magnification. If the interval exceeds a preset threshold distance, the image is reduced to a lower magnification before the touch 610 moves at the starting point 620. For example, referring to FIG. 5D, when the touch 610 is located at the second point 570 farther from the first point 560, the image is reduced to 0.5 magnification. The image is reduced to a predetermined minimum magnification (eg 0.25). As the distance from the inflection point 650 approaches, the image may be enlarged again. For example, when the touch 610 moves from the second point 570 to the first point 560, the controller 160 enlarges the image from 0.5 magnification to 1.0 magnification.

단계 555에서 제어부(160)는 터치(610)의 해제 여부를 결정한다. 이미지 축소 후 터치(610)가 해제되면 프로세스는 종료된다. 터치(610)가 해제되지 않은 경우 프로세스는 단계 550으로 복귀된다.In operation 555, the controller 160 determines whether to release the touch 610. If the touch 610 is released after the image is reduced, the process ends. If touch 610 is not released, the process returns to step 550.

이상으로 본 발명의 다른 실시예에 따르면 터치의 시작점에서의 터치 시간에 비례하여 이미지는 축소된다. 터치가 시작점에서 멀어지게 되면(이때, 방향은 무관함) 이미지는 확대된다. 터치의 이동 방향이 임계각도 이내로 꺾이면 이미지는 축소된다. 특히 변곡점부터의 터치의 이동 거리에 비례하여 이미지는 축소된다. 즉 터치가 변곡점으로부터 멀어지면 이미지는 축소되고, 터치가 다시 변곡점에 가까워지면 이미지는 확대된다. 한편 주밍 가이더(640)는 앞서 설명한 일 실시예에도 적용될 수 있다.As described above, according to another exemplary embodiment of the present invention, the image is reduced in proportion to the touch time at the start point of the touch. If the touch moves away from the starting point (the direction is irrelevant), the image is magnified. If the movement direction of the touch is bent within the critical angle, the image is reduced. In particular, the image is reduced in proportion to the moving distance of the touch from the inflection point. That is, when the touch moves away from the inflection point, the image is reduced, and when the touch approaches the inflection point, the image is enlarged. Meanwhile, the zooming guider 640 may also be applied to the above-described embodiment.

도 7은 본 발명의 또 다른 실시예에 따른 이미지 처리 방법을 설명하기 위한 흐름도이다. 도 8 (a) 내지 (f)는 본 발명의 또 다른 실시예에 따른 이미지 처리 방법을 설명하기 위한 화면들이다.7 is a flowchart illustrating an image processing method according to another embodiment of the present invention. 8A to 8F are screens illustrating an image processing method according to another exemplary embodiment of the present invention.

단계 710에서 터치스크린(110)은 제어부(160)의 제어 하에, 이미지를 미리 정해진 초기 배율로 표시한다. 예컨대 도 8 (a)를 참조하면 터치스크린(110)은 1.0 배율로 이미지를 표시한다.In operation 710, the touch screen 110 displays an image at a predetermined initial magnification under the control of the controller 160. For example, referring to FIG. 8A, the touch screen 110 displays an image at 1.0 magnification.

단계 715에서 제어부(160)는 터치스크린(110)으로부터 탭 앤 터치를 검출한다. 예컨대 탭이 검출된 후 소정 시간(예, 1초) 이내에 다시 터치(810; 도 8 (a) 참조)가 검출될 수 있다. 단계 720에서 제어부(160)는 터치(810)의 이동 여부를 결정한다.In operation 715, the controller 160 detects tap and touch from the touch screen 110. For example, a touch 810 (see FIG. 8A) may be detected again within a predetermined time (eg, 1 second) after the tap is detected. In operation 720, the controller 160 determines whether the touch 810 moves.

단계 720에서 터치(810)가 이동하지 않은 경우 단계 725에서 제어부(160)는 터치(810)의 시작점에서의 터치 시간에 비례하여 이미지를 축소한다. 도 8 (b) 및 (c)를 참조하면 터치(810)가 검출된 후 t1(예, 2초)이 경과되면 제어부(160)는 이미지를 1.0배율에서 0.5배율로 축소한다. 다시 t2(예, 4초)가 경과되면 제어부(160)는 이미지를 0.5배율에서 0.25배율로 축소한다. 이미지는 미리 정해진 최소 배율(예컨대, 0.25)까지 축소된다. 또한 제어부(160)는 축소되는 정도를 나타내는 지시자를 터치(810) 주변에 표시하도록 터치스크린(110)을 제어할 수 있다. 단계 730에서 제어부(160)는 터치(810)의 해제 여부를 결정한다. 이미지 축소 후 터치(710)가 해제되면 프로세스는 종료된다. 터치(810)가 해제되지 않은 경우 프로세스는 단계 720으로 복귀된다.If the touch 810 does not move in step 720, in step 725, the controller 160 reduces the image in proportion to the touch time at the start point of the touch 810. Referring to FIGS. 8B and 8C, when t1 (eg, 2 seconds) elapses after the touch 810 is detected, the controller 160 reduces the image from 1.0 magnification to 0.5 magnification. When t2 (eg, 4 seconds) elapses, the controller 160 reduces the image from 0.5 magnification to 0.25 magnification. The image is reduced to a predetermined minimum magnification (eg 0.25). In addition, the controller 160 may control the touch screen 110 to display an indicator indicating the degree of reduction around the touch 810. In operation 730, the controller 160 determines whether to release the touch 810. If touch 710 is released after image reduction, the process ends. If touch 810 is not released, the process returns to step 720.

단계 720에서 터치(810)가 이동한 경우 단계 735에서 제어부(160)는 터치(810)의 이동 거리에 비례하여 이미지를 확대한다. 일례로 도 8 (c) 및 (d)를 참조하면 이미지가 0.25배율로 축소된 후 터치(810)가 이동하게 되면 제어부(160)는 이미지를 0.25배율에서 더 큰 배율(예, 0.5)로 확대한다. 다른 예로 도 8 (a) 및 (e)를 참조하면 단계 715에서 터치(810)가 검출된 후 소정 시간(예, 1초) 이내에 이동하게 되면 제어부(160)는 이미지를 초기 배율 즉, 1.0배율에서 더 큰 배율로(예, 2.0)로 확대한다.When the touch 810 moves in step 720, the controller 160 enlarges an image in proportion to the moving distance of the touch 810 in step 735. For example, referring to FIGS. 8C and 8D, when the image is reduced to 0.25 magnification and the touch 810 is moved, the controller 160 enlarges the image to a larger magnification (for example, 0.5) at 0.25 magnification. do. As another example, referring to FIGS. 8A and 8E, when the touch 810 is detected in step 715 and moves within a predetermined time (for example, 1 second), the controller 160 displays an initial magnification, that is, 1.0 magnification. Zoom to a larger magnification at (eg 2.0).

단계 740에서 제어부(160)는 터치(810)의 해제 여부를 결정한다. 이미지 확대 후 터치(810)가 해제되면 프로세스는 종료된다. 터치(810)가 해제되지 않은 경우 단계 745에서 제어부(160)는 터치(810)의 이동 방향이 시작점(820)이 위치한 방향으로 꺾이는지 여부를 결정한다.In operation 740, the controller 160 determines whether the touch 810 is released. If the touch 810 is released after the image is enlarged, the process ends. If the touch 810 is not released, in step 745, the controller 160 determines whether the movement direction of the touch 810 is bent in the direction in which the start point 820 is located.

터치(810)의 이동 방향이 시작점(820)이 위치한 방향으로 꺾일 경우 단계 750에서 제어부(160)는 이동 방향이 꺾인 변곡점(830)부터의 터치(810)의 이동 거리에 비례하여 이미지를 축소한다. 일례로 도 8 (e) 및 (f)를 참조하면 변곡점(830)과 터치(810)의 현재 위치 간의 간격이 픽셀 단위로 100픽셀이면 이미지는 2.0배율에서 1.5배율로 축소된다.If the movement direction of the touch 810 is bent in the direction in which the starting point 820 is located, the controller 160 reduces the image in proportion to the movement distance of the touch 810 from the inflection point 830 where the movement direction is bent. . For example, referring to FIGS. 8E and 8F, when the distance between the inflection point 830 and the current position of the touch 810 is 100 pixels in units of pixels, the image is reduced from 2.0 to 1.5 times.

단계 755에서 제어부(160)는 터치(810)가 시작점(820)으로 복귀되었는지 여부를 결정한다. 터치(810)가 시작점(820)으로 복귀되면 단계 760에서 제어부(160)는 이미지를 터치(810)가 시작점(820)에서 이동하기 전의 배율로 표시하도록 터치스크린(110)을 제어한다. 예컨대, 터치(810)의 이동 전 배율이 도 8 (a)에 도시된 바와 같이 1.0이면 이미지는 1.0배율로 표시된다. 터치(810)의 이동 전 배율이 도 8 (c)에 도시된 바와 같이 0.25이면 이미지는 0.25배율로 표시된다. 다음으로 단계 765에서 제어부(160)는 터치(810)의 해제 여부를 결정한다. 이미지의 배율 복귀 후 터치(810)가 해제되면 프로세스는 종료된다. 터치(810)가 해제되지 않은 경우 프로세스는 단계 720으로 복귀된다.In operation 755, the controller 160 determines whether the touch 810 returns to the starting point 820. When the touch 810 returns to the starting point 820, in step 760, the controller 160 controls the touch screen 110 to display an image at a magnification before the touch 810 moves from the starting point 820. For example, if the magnification before the movement of the touch 810 is 1.0 as shown in FIG. 8A, the image is displayed at 1.0 magnification. If the magnification before movement of the touch 810 is 0.25 as shown in FIG. 8C, the image is displayed at 0.25 magnification. Next, in step 765, the controller 160 determines whether to release the touch 810. The process ends when the touch 810 is released after the magnification reversion of the image. If touch 810 is not released, the process returns to step 720.

한편 단계 755에서 터치(810)가 시작점(820)으로 복귀되지 않은 경우 단계 770에서 제어부(170)는 터치(810)의 해제 여부를 결정한다. 이미지 축소 후 터치(810)가 해제되면 프로세스는 종료된다. 터치(810)가 해제되지 않은 경우 프로세스는 단계 750으로 복귀된다.If the touch 810 does not return to the starting point 820 in step 755, the controller 170 determines whether to release the touch 810 in step 770. If the touch 810 is released after the image is reduced, the process ends. If touch 810 is not released, the process returns to step 750.

이상으로 본 발명의 또 다른 실시예에 따르면 터치가 시작점에서 이동하면 이미지의 확대를 위한 프로세스가 실행되고 터치가 시작점에 머무르면 이미지의 축소를 위한 프로세스가 실행된다. 한편 도 6을 참조로 하여 설명한 주밍 가이더(640)는 본 발명의 또 다른 실시예에도 적용될 수 있다.As described above, according to another embodiment of the present invention, when the touch moves from the starting point, a process for enlarging the image is executed, and if the touch stays at the start point, a process for reducing the image is executed. Meanwhile, the zooming guider 640 described with reference to FIG. 6 may be applied to another embodiment of the present invention.

상술한 바와 같은 본 발명에 따른 이미지 처리 방법은 다양한 컴퓨터를 통하여 수행될 수 있는 프로그램 명령으로 구현되어 컴퓨터로 판독 가능한 기록 매체에 기록될 수 있다. 여기서 기록매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 포함할 수 있다. 또한 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 또한 기록매체에는 하드디스크, 플로피디스크 및 자기 테이프와 같은 자기매체(Magnetic Media)와, CD-ROM, DVD와 같은 광기록 매체(Optical Media)와, 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media)와, 롬(ROM)과, 램(RAM)과, 플래시 메모리 등과 같은 하드웨어 장치가 포함될 수 있다. 또한 프로그램 명령에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라, 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드가 포함될 수 있다. 하드웨어 장치는 본 발명을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있다.The image processing method according to the present invention as described above may be implemented in program instructions that can be executed through various computers and recorded in a computer-readable recording medium. The recording medium may include a program command, a data file, a data structure, and the like. The program instructions may also be those specially designed and constructed for the present invention or may be available to those skilled in the art of computer software. In addition, a recording medium includes a magnetic medium such as a hard disk, a floppy disk and a magnetic tape, an optical medium such as a CD-ROM and a DVD, and a magnetic optical medium such as a floppy disk. A hard disk, a magneto-optical medium, a ROM, a RAM, a flash memory, and the like. The program instructions may also include machine language code such as those generated by the compiler, as well as high-level language code that may be executed by the computer using an interpreter or the like. The hardware device may be configured to operate as one or more software modules to carry out the present invention.

본 발명에 따른 이미지 처리 방법 그리고 휴대 단말은 전술한 실시 예에 국한되지 않고 본 발명의 기술 사상이 허용하는 범위에서 다양하게 변형하여 실시할 수가 있다.The image processing method and the portable terminal according to the present invention are not limited to the above-described embodiments, and various modifications can be made within the range allowed by the technical idea of the present invention.

100: 휴대 단말
110: 터치스크린 111: 터치패널
112: 표시패널 120: 키입력부
130: 저장부
140: 무선통신부 150: 오디오 처리부
160: 제어부
100:
110: touch screen 111: touch panel
112: display panel 120: key input unit
130:
140: wireless communication unit 150: audio processing unit
160:

Claims (15)

터치스크린을 가지는 휴대 단말에서 이미지 처리 방법에 있어서,
상기 터치스크린에 이미지를 미리 설정된 초기 배율로 표시하는 단계;
상기 터치스크린으로부터 터치를 검출하는 단계;
상기 터치가 이동하는 경우 상기 터치의 시작점부터 이동 거리에 비례하여 상기 이미지를 확대하는 단계; 및
상기 터치의 이동 방향이 변경된 경우 상기 이미지를 축소하는 단계를 포함하는 것을 특징으로 하는 이미지 처리 방법.
In the image processing method in a mobile terminal having a touch screen,
Displaying an image on the touch screen at a preset initial magnification;
Detecting a touch from the touch screen;
Enlarging the image in proportion to a moving distance from a start point of the touch when the touch is moved; And
And reducing the image when the movement direction of the touch is changed.
제 1 항에 있어서,
상기 축소하는 단계는,
상기 터치의 이동 방향이 미리 설정된 임계각도 이내로 꺾일 경우, 상기 터치의 이동 방향이 꺾인 변곡점부터 상기 터치의 이동 거리에 비례하여 상기 이미지를 축소하는 것을 특징으로 하는 이미지 처리 방법.
The method of claim 1,
The reducing step,
And when the movement direction of the touch is bent within a preset threshold angle, the image is reduced in proportion to the movement distance of the touch from an inflection point at which the movement direction of the touch is bent.
제 2 항에 있어서,
상기 축소하는 단계는,
상기 변곡점부터 상기 터치의 이동 거리가 미리 설정된 임계거리를 초과할 경우 상기 이미지를 상기 초기 배율보다 낮게 축소하는 것을 특징으로 하는 이미지 처리 방법.
3. The method of claim 2,
The reducing step,
And reducing the image to less than the initial magnification when the movement distance of the touch from the inflection point exceeds a preset threshold distance.
제 1 항에 있어서,
상기 축소하는 단계는,
상기 터치가 상기 시작점으로 복귀할 경우 상기 이미지를 상기 초기 배율로 표시하고, 상기 터치가 상기 시작점을 통과할 경우 상기 이미지를 상기 초기 배율보다 낮게 축소하는 것을 특징으로 하는 이미지 처리 방법.
The method of claim 1,
The reducing step,
And display the image at the initial magnification when the touch returns to the starting point, and reduce the image to be lower than the initial magnification when the touch passes the starting point.
제 1 항에 있어서,
상기 터치가 상기 시작점에서 이동하지 않는 경우 상기 시작점에서의 터치 시간에 비례하여 상기 이미지를 상기 초기 배율보다 낮게 축소하는 단계를 더 포함하는 것을 특징으로 하는 이미지 처리 방법.
The method of claim 1,
And reducing the image to be lower than the initial magnification in proportion to the touch time at the starting point when the touch does not move at the starting point.
제 1 항에 있어서,
상기 축소하는 단계는,
상기 시작점으로의 플릭이 검출된 경우 상기 이미지를 상기 초기 배율로 축소하는 것을 특징으로 하는 이미지 처리 방법.
The method of claim 1,
The reducing step,
And when the flick to the starting point is detected, the image is reduced to the initial magnification.
제 1 항에 있어서,
상기 터치의 이동이 멈춘 경우 줌 인 아이콘 및 줌 아웃 아이콘을 포함하는 주밍 가이더를 표시하는 단계를 더 포함하는 것을 특징으로 하는 이미지 처리 방법.
The method of claim 1,
And displaying a zooming guide including a zoom in icon and a zoom out icon when the movement of the touch is stopped.
제 7 항에 있어서,
상기 줌 인 아이콘은 상기 시작점에서 상기 터치가 이동한 방향에 위치하고 상대적으로 상기 줌 아웃 아이콘은 상기 터치가 이동한 방향의 반대 방향에 위치하는 것을 특징으로 하는 이미지 처리 방법.
The method of claim 7, wherein
And the zoom in icon is located in a direction in which the touch moves from the starting point, and the zoom out icon is located in a direction opposite to the direction in which the touch moves.
제 1 항에 있어서,
상기 확대하는 단계는,
상기 터치스크린으로부터 탭이 검출된 후 미리 정해진 시간 이내에 터치가 검출된 경우 수행되는 것을 특징으로 하는 이미지 처리 방법.
The method of claim 1,
Wherein the enlarging comprises:
And a touch is detected within a predetermined time after the tap is detected from the touch screen.
이미지를 미리 설정된 초기 배율로 표시하는 터치스크린; 및
상기 터치스크린으로부터 터치를 검출하고, 상기 터치가 이동하는 경우 상기 터치의 시작점부터 이동 거리에 비례하여 상기 이미지를 확대하여 표시하도록 상기 터치스크린을 제어하고, 상기 터치의 이동 방향이 변경된 경우 상기 이미지를 축소하여 표시하도록 상기 터치스크린을 제어하는 제어부를 포함하는 휴대 단말.
A touch screen displaying an image at a preset initial magnification; And
The touch screen is detected from the touch screen, and when the touch is moved, the touch screen is controlled to enlarge and display the image in proportion to the moving distance from the starting point of the touch, and when the movement direction of the touch is changed, the image is displayed. A mobile terminal comprising a control unit for controlling the touch screen to reduce and display.
제 10 항에 있어서,
상기 제어부는,
상기 터치의 이동 방향이 미리 설정된 임계각도 이내로 꺾일 경우, 상기 터치의 이동 방향이 꺾인 변곡점부터 상기 터치의 이동 거리에 비례하여 상기 이미지를 축소하는 것을 특징으로 하는 휴대 단말.
11. The method of claim 10,
The control unit,
And when the movement direction of the touch is bent within a preset threshold angle, the image is reduced in proportion to the movement distance of the touch from an inflection point at which the movement direction of the touch is bent.
제 11 항에 있어서,
상기 제어부는,
상기 변곡점부터 상기 터치의 이동 거리가 미리 설정된 임계거리를 초과할 경우 상기 이미지를 상기 초기 배율보다 낮게 축소하는 것을 특징으로 하는 휴대 단말.
The method of claim 11,
The control unit,
And when the moving distance of the touch from the inflection point exceeds a preset threshold distance, the image is reduced to less than the initial magnification.
제 10 항에 있어서,
상기 제어부는,
상기 터치가 상기 시작점으로 복귀할 경우 상기 이미지를 상기 초기 배율로 표시하고, 상기 터치가 상기 시작점을 통과할 경우 상기 이미지를 상기 초기 배율보다 낮게 축소하는 것을 특징으로 하는 휴대 단말.
11. The method of claim 10,
The control unit,
And displaying the image at the initial magnification when the touch returns to the starting point, and reducing the image to be lower than the initial magnification when the touch passes the starting point.
제 10 항에 있어서,
상기 제어부는,
상기 터치가 상기 시작점에서 이동하지 않는 경우 상기 시작점에서의 터치 시간에 비례하여 상기 이미지를 상기 초기 배율보다 낮게 축소하는 것을 특징으로 하는 휴대 단말.
11. The method of claim 10,
The control unit,
And when the touch does not move from the start point, the image is reduced to be smaller than the initial magnification in proportion to the touch time at the start point.
제 10 항에 있어서,
상기 제어부는,
상기 시작점으로의 플릭이 검출된 경우 상기 이미지를 상기 초기 배율로 축소하는 것을 특징으로 하는 휴대 단말.
11. The method of claim 10,
The control unit,
And when the flick to the starting point is detected, the image is reduced to the initial magnification.
KR1020120095592A 2012-08-30 2012-08-30 Method for processing image and mobile device KR20140029827A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120095592A KR20140029827A (en) 2012-08-30 2012-08-30 Method for processing image and mobile device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120095592A KR20140029827A (en) 2012-08-30 2012-08-30 Method for processing image and mobile device

Publications (1)

Publication Number Publication Date
KR20140029827A true KR20140029827A (en) 2014-03-11

Family

ID=50642627

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120095592A KR20140029827A (en) 2012-08-30 2012-08-30 Method for processing image and mobile device

Country Status (1)

Country Link
KR (1) KR20140029827A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10321045B2 (en) 2015-07-29 2019-06-11 Lg Electronics Inc. Mobile terminal and method for controlling the same

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10321045B2 (en) 2015-07-29 2019-06-11 Lg Electronics Inc. Mobile terminal and method for controlling the same

Similar Documents

Publication Publication Date Title
KR102010955B1 (en) Method for controlling preview of picture taken in camera and mobile terminal implementing the same
KR102032449B1 (en) Method for displaying image and mobile terminal
KR102016975B1 (en) Display apparatus and method for controlling thereof
KR102044826B1 (en) Method for providing function of mouse and terminal implementing the same
KR101999154B1 (en) Method for displaying data and mobile terminal
KR101974852B1 (en) Method and apparatus for moving object in terminal having touchscreen
KR102190904B1 (en) Electronic device and method for control window
KR102189787B1 (en) Electronic device having touchscreen and input processing method thereof
KR20140105689A (en) Method for providing a feedback in response to user input and terminal implementing the same
KR20140101169A (en) Guide method for taking a picture and mobile terminal implementing the same
KR20140033561A (en) Method and apparatus for displaying data
EP2746924B1 (en) Touch input method and mobile terminal
KR101932086B1 (en) Method for controlling camera and mobile device
KR102098258B1 (en) Method for editing contents and display device implementing the same
US20150128031A1 (en) Contents display method and electronic device implementing the same
KR20140073258A (en) Method for providing application information and mobile terminal
EP2706451B1 (en) Method of processing touch input for mobile device
KR20140105354A (en) Electronic device including a touch-sensitive user interface
KR20140063219A (en) Call switching method and mobile terminal
KR101985888B1 (en) Method and apparatus for providing electronic bulletin board
KR20140029827A (en) Method for processing image and mobile device
KR20140032851A (en) Touch input processing method and mobile device
KR102076193B1 (en) Method for displaying image and mobile terminal
KR20200015680A (en) Method for displaying image and mobile terminal
KR20140044433A (en) Mobile terminal and controlling method of mobile terminal

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid