KR20090121033A - Mobile terminal using of proximity touch and wallpaper controlling method therefor - Google Patents

Mobile terminal using of proximity touch and wallpaper controlling method therefor Download PDF

Info

Publication number
KR20090121033A
KR20090121033A KR1020080047125A KR20080047125A KR20090121033A KR 20090121033 A KR20090121033 A KR 20090121033A KR 1020080047125 A KR1020080047125 A KR 1020080047125A KR 20080047125 A KR20080047125 A KR 20080047125A KR 20090121033 A KR20090121033 A KR 20090121033A
Authority
KR
South Korea
Prior art keywords
mobile terminal
proximity
screen
touch
display
Prior art date
Application number
KR1020080047125A
Other languages
Korean (ko)
Other versions
KR101502002B1 (en
Inventor
조선휘
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020080047125A priority Critical patent/KR101502002B1/en
Priority to US12/468,796 priority patent/US8576181B2/en
Priority to EP09006851.1A priority patent/EP2124138B1/en
Publication of KR20090121033A publication Critical patent/KR20090121033A/en
Application granted granted Critical
Publication of KR101502002B1 publication Critical patent/KR101502002B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Telephone Function (AREA)

Abstract

PURPOSE: A mobile terminal and a screen display controlling method controlling the screen are provided to use a terminal function by differentially controlling the screen display such as an avatar and an icon of the mobile terminal according to proximity location. CONSTITUTION: A display unit(151) includes a touch screen. A sensor(140) senses the proximity touch. A controller(180) controls the display of the entity represented on a screen according to the proximity distance sensed in the sensor. The screen is a standby screen with a menu and an icon.

Description

근접 터치를 이용한 이동 단말기 및 그의 화면표시 제어방법{MOBILE TERMINAL USING OF PROXIMITY TOUCH AND WALLPAPER CONTROLLING METHOD THEREFOR} MOBILE TERMINAL USING OF PROXIMITY TOUCH AND WALLPAPER CONTROLLING METHOD THEREFOR}

본 발명은 터치 기능을 갖는 이동 단말기에서 근접 터치(proximity-touch)를 이용하여 화면 표시를 제어할 수 있는 방법에 관한 것이다. The present invention relates to a method for controlling a screen display using proximity-touch in a mobile terminal having a touch function.

이동 단말기는 다양한 기능을 수행할 수 있도록 구성될 수 있다. 그러한 다양한 기능들의 예로 데이터 및 음성 통신 기능, 카메라를 통해 사진이나 동영상을 촬영하는 기능, 음성 저장 기능, 스피커 시스템을 통한 음악 파일의 재생 기능, 이미지나 비디오의 디스플레이 기능 등이 있다. 일부 이동 단말기는 게임을 실행할 수 있는 추가적 기능을 포함하고, 다른 일부 이동 단말기는 멀티미디어 기기로서 구현되기도 한다. 더욱이 최근의 이동단말기는 방송이나 멀티캐스트(multicast) 신호를 수신하여 비디오나 텔레비전 프로그램을 시청할 수 있다.The mobile terminal may be configured to perform various functions. Examples of such various functions include data and voice communication functions, taking pictures or videos through a camera, storing voices, playing music files through a speaker system, and displaying images or videos. Some mobile terminals include additional functionality to play games, while others are implemented as multimedia devices. Moreover, recent mobile terminals can receive broadcast or multicast signals to watch video or television programs.

또한, 상기 이동 단말기의 기능 지지 및 증대를 위한 노력들이 계속되고 있다. 상술한 노력은 이동 단말기를 형성하는 구조적인 구성요소의 변화 및 개량뿐만 아니라 소프트웨어나 하드웨어의 추가 및 개량도 포함한다. 그 중에서 이동 단말기의 터치 기능은 터치 스크린을 이용하여 버튼/키 입력이 익숙하지 않은 사용자도 편리하게 단말기의 동작을 수행할 수 있도록 한 것으로서, 최근에는 단순한 입력뿐만 아니라 사용자 UI와 함께 단말기의 중요한 기능으로서 자리 잡아가고 있다.In addition, efforts to support and increase the function of the mobile terminal continue. The foregoing efforts include additions and improvements in software or hardware as well as changes and improvements in the structural components forming the mobile terminal. Among them, the touch function of the mobile terminal enables the user who is unfamiliar with the button / key input using the touch screen to conveniently perform the operation of the terminal. Recently, not only simple input but also important functions of the terminal together with the user UI As it is settled.

본 발명의 목적은 근접 거리와 속도에 따라 화면표시를 제어할 수 있는 근접 터치를 이용한 이동 단말기 및 그의 화면표시 제어방법을 제공하는데 있다. An object of the present invention is to provide a mobile terminal using a proximity touch and a screen display control method thereof that can control the screen display according to the proximity distance and speed.

본 발명의 목적은 근접 거리와 속도에 따라 화면표시를 다르게 수행할 수 있는 근접 터치를 이용한 이동 단말기 및 그의 화면표시 제어방법을 제공하는데 있다. An object of the present invention is to provide a mobile terminal using a proximity touch and a screen display control method thereof, which can perform screen display differently according to proximity distance and speed.

상기한 과제를 실현하기 위한 본 발명의 일 실시예와 관련된 이동 단말기는, 터치 스크린을 구비한 디스플레이부와; 근접 터치를 감지하는 센싱부와; 상기 센싱부에서 감지된 근접 거리에 따라 대기화면에 표시된 개체의 표시를 제어하는 제어부를 포함한다. A mobile terminal according to an embodiment of the present invention for realizing the above object includes a display unit having a touch screen; A sensing unit detecting a proximity touch; And a controller configured to control the display of the object displayed on the standby screen according to the proximity distance detected by the sensing unit.

상기한 과제를 실현하기 위한 본 발명의 일 실시예와 관련된 이동 단말기의 이동 단말기의 화면표시 방법은, 근접 터치를 감지하는 단계와; 감지된 근접 거리 및 근접 속도에 따라 대기화면에 표시된 개체의 표시를 제어하는 단계를 포함한다. According to an aspect of the present invention, there is provided a method of displaying a screen of a mobile terminal of a mobile terminal, the method including: detecting a proximity touch; Controlling the display of the object displayed on the idle screen according to the detected proximity distance and proximity speed.

상술한 바와같이 본 발명은 근접 위치(거리)와 근접속도에 따라서 이동 단말기의 아이콘, 아바타 및 메뉴등의 화면 표시를 다르게 제어함으로써 사용자가 보다 편리하게 단말기 기능을 이용할 수 있도록 한다 As described above, the present invention allows the user to use the terminal functions more conveniently by controlling the display of icons, avatars, and menus of the mobile terminal differently according to the proximity position (distance) and the proximity speed.

이하, 본 발명과 관련된 이동 단말기에 대하여 도면을 참조하여 보다 상세하게 설명한다.Hereinafter, a mobile terminal according to the present invention will be described in more detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예와 관련된 이동 단말기의 블록 구성도(block diagram)이다.1 is a block diagram of a mobile terminal according to an embodiment of the present invention.

이동 단말기는 다양한 형태로 구현될 수 있다. 예를 들어, 본 명세서에서 기술되는 이동 단말기는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(notebook computer), 디지털 방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player) 및 네비게이션, 등이 있다.The mobile terminal can be implemented in various forms. For example, the mobile terminal described herein includes a mobile phone, a smart phone, a notebook computer, a digital broadcasting terminal, a personal digital assistant (PDA), a portable multimedia player (PMP) and navigation, and the like. have.

도시된 이동 단말기(100)는 무선 통신부(110), A/V(Audio/Video) 입력부(120), 사용자 입력부(130)(또는 조작부), 센싱부(140), 출력부(150), 메모리(160), 인터페이스부(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다. 도 1은 다양한 구성요소를 가지고 있는 이동 단말기를 나타내고 있다. 그러나 도시된 구성요소 모두가 필수 구성요소인 것은 아니다. 도시된 구성요소보다 많은 구성요소에 의해 이동 단말기가 구현될 수도 있고, 그 보다 적은 구성요소에 의해서도 이동 단말기가 구현될 수 있다.The illustrated mobile terminal 100 includes a wireless communication unit 110, an A / V input unit 120, a user input unit 130 (or an operation unit), a sensing unit 140, an output unit 150, and a memory. 160, an interface unit 170, a controller 180, and a power supply unit 190 may be included. 1 illustrates a mobile terminal having various components. However, not all illustrated components are essential components. The mobile terminal may be implemented by more components than the illustrated components, and the mobile terminal may be implemented by fewer components.

이하 상기 구성 요소들에 대해 차례로 살펴본다.Hereinafter, the components will be described in turn.

무선 통신부(110)는 이동 단말기(100)와 무선 통신 시스템 간의 무선 통신 또는 이동 단말기(100)와 이동 단말기(100)가 위치한 네트워크간의 무선 통신을 하게 하는 하나 이상의 구성요소를 포함할 수 있다. 예를 들어, 무선 통신부(110)는 방송 수신 모듈(111), 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114) 및 위치정보 모듈(115) 등을 포함할 수 있다.The wireless communication unit 110 may include one or more components for wireless communication between the mobile terminal 100 and the wireless communication system or wireless communication between the mobile terminal 100 and a network in which the mobile terminal 100 is located. For example, the wireless communication unit 110 may include a broadcast receiving module 111, a mobile communication module 112, a wireless internet module 113, a short range communication module 114, a location information module 115, and the like. .

상기 방송 수신 모듈(111)은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 상기 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 상기 방송 관리 서버는, 방송 신호 및/또는 방송 관련 정보를 생성하여 송신하는 서버 또는 기 생성된 방송 신호 및/또는 방송 관련 정보를 제공받아 단말기에 송신하는 서버를 의미할 수 있다. 상기 방송 관련 정보는, 방송 채널, 방송 프로그램 또는 방송 서비스 제공자에 관련한 정보를 의미할 수 있다. 상기 방송 신호는, TV 방송 신호, 라디오 방송 신호, 데이터 방송 신호를 포함할 뿐만 아니라, TV 방송 신호 또는 라디오 방송 신호에 데이터 방송 신호가 결합한 형태의 방송 신호도 포함할 수 있다.The broadcast receiving module 111 receives a broadcast signal and / or broadcast related information from an external broadcast management server through a broadcast channel. The broadcast channel may include a satellite channel and a terrestrial channel. The broadcast management server may mean a server that generates and transmits a broadcast signal and / or broadcast related information or a server that receives a previously generated broadcast signal and / or broadcast related information and transmits the same to a terminal. The broadcast related information may mean information related to a broadcast channel, a broadcast program, or a broadcast service provider. The broadcast signal may include not only a TV broadcast signal, a radio broadcast signal, and a data broadcast signal, but also a broadcast signal having a data broadcast signal combined with a TV broadcast signal or a radio broadcast signal.

한편, 상기 방송 관련 정보는, 이동통신망을 통하여도 제공될 수 있으며, 이러한 경우에는 상기 이동통신 모듈(112)에 의해 수신될 수 있다.Meanwhile, the broadcast related information may be provided through a mobile communication network, and in this case, may be received by the mobile communication module 112.

상기 방송 관련 정보는 다양한 형태로 존재할 수 있다. 예를 들어, DMB(Digital Multimedia Broadcasting)의 EPG(Electronic Program Guide) 또는 DVB-H(Digital Video Broadcast-Handheld)의 ESG(Electronic Service Guide) 등의 형태로 존재할 수 있다.The broadcast related information may exist in various forms. For example, it may exist in the form of Electronic Program Guide (EPG) of Digital Multimedia Broadcasting (DMB) or Electronic Service Guide (ESG) of Digital Video Broadcast-Handheld (DVB-H).

상기 방송 수신 모듈(111)은, 각종 방송 시스템을 이용하여 방송 신호를 수신하는데, 특히, DMB-T(Digital Multimedia Broadcasting-Terrestrial), DMB-S(Digital Multimedia Broadcasting-Satellite), MediaFLO(Media Forward Link Only), DVB-H(Digital Video Broadcast-Handheld), ISDB-T(Integrated Services Digital Broadcast-Terrestrial) 등의 디지털 방송 시스템을 이용하여 디지털 방송 신호를 수신할 수 있다. 물론, 상기 방송 수신 모듈(111)은, 상술한 디지털 방송 시스템뿐만 아니라 방송 신호를 제공하는 모든 방송 시스템에 적합하도록 구성된다.The broadcast receiving module 111 receives broadcast signals using various broadcasting systems, and in particular, digital multimedia broadcasting-terrestrial (DMB-T), digital multimedia broadcasting-satellite (DMB-S), and media forward link (MediaFLO). Digital broadcast signals can be received using digital broadcasting systems such as only), digital video broadcast-handheld (DVB-H), integrated services digital broadcast-terrestrial (ISDB-T), and the like. Of course, the broadcast receiving module 111 is configured to be suitable for all broadcast systems providing broadcast signals as well as the digital broadcast system described above.

상기 방송 수신 모듈(111)을 통해 수신된 방송 신호 및/또는 방송 관련 정보는 메모리(160)에 저장될 수 있다.The broadcast signal and / or broadcast related information received through the broadcast receiving module 111 may be stored in the memory 160.

또한, 이동통신 모듈(112)은, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기에서, 상기 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다. In addition, the mobile communication module 112 transmits and receives a radio signal with at least one of a base station, an external terminal, and a server on a mobile communication network. The wireless signal may include various types of data according to transmission and reception of a voice call signal, a video call call signal, or a text / multimedia message.

상기 무선 인터넷 모듈(113)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 무선 인터넷 모듈(113)은 내장되거나 외장될 수 있다.The wireless internet module 113 refers to a module for wireless internet access, and the wireless internet module 113 may be internal or external.

상기 근거리 통신 모듈(114)은 근거리 통신을 위한 모듈을 말한다. 근거리 통신 기술로 블루투스 (Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.The short range communication module 114 refers to a module for short range communication. As a short range communication technology, Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), and ZigBee may be used.

또한, 위치정보 모듈(115)은 이동 단말기의 위치를 확인하거나 얻기 위한 모듈이다. 일례로 GPS(Global Position System) 모듈이 있다. GPS 모듈은 복수 개의 인공위성으로부터 위치 정보를 수신한다. 여기에서, 위치 정보는 위도 및 경도로 표시되는 좌표 정보를 포함할 수 있다. 예를 들어, GPS 모듈은, 3개 이상의 위성으 로부터 정확한 시간과 거리를 측정하여 3개의 각각 다른 거리를 삼각 방법에 따라서 현 위치를 정확히 계산할 수 있다. 3개의 위성으로부터 거리와 시간 정보를 얻고 1개 위성으로 오차를 수정하는 방법이 사용될 수 있다. 특히, GPS 모듈은 위성으로부터 수신한 위치 정보로부터, 위도, 경도, 고도의 위치뿐만 아니라 3차원의 속도 정보와 함께 정확한 시간까지 얻을 수 있다.In addition, the location information module 115 is a module for checking or obtaining the location of the mobile terminal. One example is the Global Position System (GPS) module. The GPS module receives location information from a plurality of satellites. Here, the location information may include coordinate information represented by latitude and longitude. For example, the GPS module can measure the exact time and distance from three or more satellites and accurately calculate the current position by triangulating three different distances. A method of obtaining distance and time information from three satellites and correcting the error with one satellite may be used. In particular, the GPS module can obtain not only the location of latitude, longitude, and altitude but also accurate time together with three-dimensional speed information from the location information received from the satellite.

한편, A/V(Audio/Video) 입력부(120)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(121)와 마이크(122) 등이 포함될 수 있다. 카메라(121)는 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 그리고, 처리된 화상 프레임은 디스플레이부(151)에 표시될 수 있다.Meanwhile, the A / V input unit 120 is for inputting an audio signal or a video signal, and may include a camera 121 and a microphone 122. The camera 121 processes image frames such as still images or moving images obtained by the image sensor in the video call mode or the photographing mode. The processed image frame may be displayed on the display unit 151.

상기 카메라(121)에서 처리된 화상 프레임은 메모리(160)에 저장되거나 무선 통신부(110)를 통하여 외부로 전송될 수 있다. 카메라(121)는 단말기의 구성 태양에 따라 2개 이상이 구비될 수도 있다.The image frame processed by the camera 121 may be stored in the memory 160 or transmitted to the outside through the wireless communication unit 110. Two or more cameras 121 may be provided according to the configuration aspect of the terminal.

상기 마이크(122)는 통화모드 또는 녹음모드, 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 입력 받아 전기적인 음성 데이터로 처리한다. 그리고, 처리된 음성 데이터는 통화 모드인 경우 이동통신 모듈(112)을 통하여 이동통신 기지국으로 송신 가능한 형태로 변환되어 출력될 수 있다. 상기 마이크(122)는 외부의 음향 신호를 입력 받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.The microphone 122 receives an external sound signal by a microphone in a call mode, a recording mode, a voice recognition mode, etc., and processes the external sound signal into electrical voice data. The processed voice data may be converted into a form transmittable to the mobile communication base station through the mobile communication module 112 and output in the call mode. The microphone 122 may implement various noise removing algorithms for removing noise generated in the process of receiving an external sound signal.

상기 사용자 입력부(130)는 사용자가 단말기의 동작 제어를 위한 입력 데이 터를 발생시킨다. 사용자 입력부(130)는 키 패드(key pad) 돔 스위치 (dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치 등으로 구성될 수 있다. 특히, 터치 패드가 후술하는 디스플레이부(151)와 상호 레이어 구조를 이룰 경우, 이를 터치 스크린이라 부를 수 있다.The user input unit 130 generates input data for the user to control the operation of the terminal. The user input unit 130 may include a key pad dome switch, a touch pad (static pressure / capacitance), a jog wheel, a jog switch, and the like. In particular, when the touch pad has a mutual layer structure with the display unit 151 described later, this may be referred to as a touch screen.

상기 센싱부(140)는 이동 단말기(100)의 개폐 상태, 이동 단말기(100)의 위치, 사용자 접촉 유무, 이동 단말기의 방위, 이동 단말기의 가속/감속 등과 같이 이동 단말기(100)의 현 상태를 감지하여 이동 단말기(100)의 동작을 제어하기 위한 센싱 신호를 발생시킨다. 예를 들어 이동 단말기(100)가 슬라이드 폰 형태인 경우 슬라이드 폰의 개폐 여부를 센싱할 수 있다. 또한, 전원 공급부(190)의 전원 공급 여부, 인터페이스부(170)의 외부 기기 결합 여부 등과 관련된 센싱 기능을 담당한다.The sensing unit 140 may determine the current state of the mobile terminal 100 such as the open / closed state of the mobile terminal 100, the position of the mobile terminal 100, the presence or absence of a user contact, the orientation of the mobile terminal, the acceleration / deceleration of the mobile terminal, and the like. The sensing unit generates a sensing signal for controlling the operation of the mobile terminal 100. For example, when the mobile terminal 100 is in the form of a slide phone, it may sense whether the slide phone is opened or closed. In addition, it is responsible for sensing functions related to whether the power supply unit 190 is supplied with power or whether the interface unit 170 is coupled to an external device.

상기 인터페이스부(170)는 이동 단말기(100)에 연결되는 모든 외부기기와의 인터페이스 역할을 한다. 예를 들어, 유/무선 헤드셋 포트, 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트, 이어폰 포트 등이 포함될 수 있다. The interface unit 170 serves as an interface with all external devices connected to the mobile terminal 100. For example, wired / wireless headset ports, external charger ports, wired / wireless data ports, memory card ports, ports for connecting devices with identification modules, audio input / output (I / O) ports, Video I / O (Input / Output) port, earphone port, etc. may be included.

여기에서, 식별 모듈은 이동 단말기(100)의 사용 권한을 인증하기 위한 각종 정보를 저장한 칩으로서, 사용자 인증 모듈(User Identify Module; 'UIM'), 가입자 인증 모듈(Subscriber Identify Module; 'SIM'), 범용 사용자 인증 모듈(Universal Subscriber Identity Module; 'USIM') 등을 포함할 수 있다. 또한, 식별 모듈이 구 비된 장치(이하 '식별 장치')는, 스마트 카드(smart card) 형식으로 제작될 수 있다. 따라서 식별 장치는 포트를 통하여 단말기(100)와 연결될 수 있다. 이와 같은 인터페이스부(170)는 외부 기기로부터 데이터를 전송받거나 전원을 공급받아 이동 단말기(100) 내부의 각 구성 요소에 전달하거나 이동 단말기(100) 내부의 데이터가 외부 기기로 전송되도록 한다.Here, the identification module is a chip that stores various types of information for authenticating the use authority of the mobile terminal 100, and includes a user identification module (UIM) and a subscriber identify module (SIM). ), A Universal Subscriber Identity Module (“USIM”), and the like. In addition, the device equipped with the identification module (hereinafter referred to as 'identification device'), may be manufactured in the form of a smart card (smart card). Therefore, the identification device may be connected to the terminal 100 through a port. The interface unit 170 receives data from an external device or receives power and transmits the data to each component inside the mobile terminal 100 or transmits the data inside the mobile terminal 100 to an external device.

상기 출력부(150)는 오디오 신호 또는 비디오 신호 또는 알람(alarm) 신호의 출력을 위한 것으로, 디스플레이부(151), 음향 출력 모듈(152) 및 알람부(153) 등을 포함한다.The output unit 150 is for outputting an audio signal, a video signal, or an alarm signal, and includes a display unit 151, a sound output module 152, an alarm unit 153, and the like.

상기 디스플레이부(151)는 이동 단말기(100)에서 처리되는 정보를 표시한다. 예를 들어 이동 단말기가 통화 모드인 경우 통화와 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. 그리고 이동 단말기(100)가 화상 통화 모드 또는 촬영 모드인 경우 촬영 또는/및 수신된 영상 또는 UI, GUI를 표시한다. The display unit 151 displays information processed by the mobile terminal 100. For example, when the mobile terminal is in a call mode, a user interface (UI) or a graphic user interface (GUI) related to a call is displayed. When the mobile terminal 100 is in a video call mode or a photographing mode, the mobile terminal 100 displays a photographed and / or received image, a UI, or a GUI.

한편, 전술한 바와 같이, 디스플레이부(13)과 터치패드가 상호 레이어 구조를 이루어 터치 스크린으로 구성되는 경우, 디스플레이부(151)은 출력 장치 이외에 입력 장치로도 사용될 수 있다. 디스플레이부(151)은 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다. 그리고 상기 디스플레이부(151)는 이동 단말기(100)의 구현 형 태에 따라 2개 이상 존재할 수도 있다. 예를 들어, 이동 단말기(100)에 외부 디스플레이부(미도시)과 내부 디스플레이부 (미도시)이 동시에 구비될 수 있다.Meanwhile, as described above, when the display unit 13 and the touch pad form a mutual layer structure to form a touch screen, the display unit 151 may be used as an input device in addition to the output device. The display unit 151 may include a liquid crystal display, a thin film transistor-liquid crystal display, an organic light-emitting diode, a flexible display, and a three-dimensional display. 3D display). In addition, two or more display units 151 may exist according to the implementation type of the mobile terminal 100. For example, an external display unit (not shown) and an internal display unit (not shown) may be simultaneously provided in the mobile terminal 100.

상기 음향 출력 모듈(152)는 호신호 수신, 통화모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리(160)에 저장된 오디오 데이터를 출력한다. 또한, 음향 출력 모듈(152)은 이동 단말기(100)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음 등)과 관련된 음향 신호를 출력한다. 이러한 음향 출력 모듈(152)에는 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.The sound output module 152 outputs audio data received from the wireless communication unit 110 or stored in the memory 160 in a call signal reception, a call mode or a recording mode, a voice recognition mode, a broadcast reception mode, and the like. In addition, the sound output module 152 outputs a sound signal related to a function (eg, a call signal reception sound, a message reception sound, etc.) performed in the mobile terminal 100. The sound output module 152 may include a speaker, a buzzer, and the like.

상기 알람부(153)는 이동 단말기(100)의 이벤트 발생을 알리기 위한 신호를 출력한다. 이동 단말기에서 발생되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력 등이 있다. 알람부(153)는 오디오 신호나 비디오 신호 이외에 다른 형태로 이벤트 발생을 알리기 위한 신호를 출력할 수도 있다. 예를 들면, 진동 형태로 신호를 출력할 수 있다. 호 신호가 수신되거나 메시지가 수신된 경우, 이를 알리기 위해 알람부(153)는 진동을 출력할 수 있다. 또는, 키 신호가 입력된 경우, 키 신호 입력에 대한 피드백으로 알람부(153)는 진동을 출력할 수 있다. 상기와 같은 진동 출력을 통해 사용자는 이벤트 발생을 인지할 수 있다. 물론 이벤트 발생 알림을 위한 신호는 디스플레이부(151)나 음성 출력 모듈(152)을 통해서도 출력될 수 있다.The alarm unit 153 outputs a signal for notifying occurrence of an event of the mobile terminal 100. Examples of events occurring in the mobile terminal include call signal reception, message reception, and key signal input. The alarm unit 153 may output a signal for notifying occurrence of an event in a form other than an audio signal or a video signal. For example, the signal may be output in the form of vibration. When a call signal is received or a message is received, the alarm unit 153 may output a vibration to inform this. Alternatively, when a key signal is input, the alarm unit 153 may output a vibration in response to the key signal input. Through the vibration output as described above, the user can recognize the occurrence of the event. Of course, the signal for event occurrence notification may be output through the display unit 151 or the voice output module 152.

상기 메모리(160)는 제어부(180)의 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 입/출력되는 데이터들(예를 들어, 폰 북, 메시지, 정지영상, 동영상 등)의 임시 저장을 위한 기능을 수행할 수도 있다. The memory 160 may store a program for processing and controlling the controller 180, and may temporarily store input / output data (for example, a phone book, a message, a still image, a video, etc.). You can also perform a function.

상기 메모리(160)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory) 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 또한, 이동 단말기(100)는 인터넷(internet)상에서 메모리(150)의 저장 기능을 수행하는 웹 스토리지(web storage)를 운영할 수도 있다.The memory 160 may be a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (eg, SD or XD memory, etc.), Random Access Memory (RAM) Static Random Access Memory (SRAM), Read-Only Memory (ROM), Electrically Erasable Programmable Read-Only Memory (EEPROM), Programmable Read-Only Memory (PROM) magnetic memory, Magnetic disk It may include at least one type of storage medium of the optical disk. In addition, the mobile terminal 100 may operate a web storage that performs a storage function of the memory 150 on the Internet.

그리고 제어부(180)는 통상적으로 이동 단말기의 전반적인 동작을 제어한다. 예를 들어 음성 통화, 데이터 통신, 화상 통화 등을 위한 관련된 제어 및 처리를 수행한다. 또한, 제어부(180)는 멀티 미디어 재생을 위한 멀티미디어 모듈(181)을 구비할 수도 있다. 멀티미디어 모듈(181)은 제어부(180) 내에 구현될 수도 있고, 제어부(180)와 별도로 구현될 수도 있다.The controller 180 typically controls the overall operation of the mobile terminal. For example, perform related control and processing for voice calls, data communications, video calls, and the like. In addition, the controller 180 may include a multimedia module 181 for playing multimedia. The multimedia module 181 may be implemented in the controller 180 or may be implemented separately from the controller 180.

상기 전원 공급부(190)는 제어부(180)의 제어에 의해 외부 전원, 내부 전원을 인가받아 각 구성 요소들의 동작에 필요한 전원을 공급한다.The power supply unit 190 receives external power and internal power under the control of the controller 180 to supply power for the operation of each component.

여기에 설명되는 다양한 실시예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터로 읽을 수 있는 기록매체 내에서 구현될 수 있다.The various embodiments described herein may be implemented in a computer readable recording medium using, for example, software, hardware or a combination thereof.

하드웨어적인 구현에 의하면, 여기에 설명되는 실시예는 ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 그러한 실시예들이 제어부(180)에 의해 구현될 수 있다.According to a hardware implementation, the embodiments described herein include application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), and the like. It may be implemented using at least one of processors, controllers, micro-controllers, microprocessors, and electrical units for performing the functions. It may be implemented by the controller 180.

소프트웨어적인 구현에 의하면, 절차나 기능과 같은 실시예들은 적어도 하나의 기능 또는 작동을 수행하게 하는 별개의 소프트웨어 모듈과 함께 구현될 수 있다. 소프트웨어 코드는 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션에 의해 구현될 수 있다. 또한, 소프트웨어 코드는 메모리(160)에 저장되고, 제어부(180)에 의해 실행될 수 있다.In a software implementation, embodiments such as procedures or functions may be implemented with separate software modules that allow at least one function or operation to be performed. The software code may be implemented by a software application written in a suitable programming language. In addition, the software code may be stored in the memory 160 and executed by the controller 180.

이상에서는 본 발명과 관련된 이동 단말기를 기능에 따른 구성요소 관점에서 살펴보았다. 이하에서는 도 2 및 도 3을 더욱 참조하여, 본 발명과 관련된 이동 단말기를 외형에 따른 구성요소 관점에서 더욱 살펴보겠다. 이하에서는 설명의 간명함을 위해 폴더 타입, 바 타입, 스윙타입, 슬라이더 타입, 등과 같은 여러 타입의 이동 단말기들 중에서 슬라이더 타입의 이동 단말기를 예로 들어 설명한다. 따라서 본 발명은 슬라이더 타입의 이동 단말기에 한정되는 것은 아니고 상기 전술한 타입을 포함한 모든 타입의 이동 단말기에 적용될 수 있다.  In the above, the mobile terminal related to the present invention has been described in terms of components according to functions. Hereinafter, referring to FIGS. 2 and 3, the mobile terminal related to the present invention will be further described in terms of components according to appearance. Hereinafter, for simplicity, a slider type mobile terminal is described as an example among various types of mobile terminals such as a folder type, a bar type, a swing type, a slider type, and the like. Therefore, the present invention is not limited to the slider type mobile terminal, but can be applied to all types of mobile terminals including the above-described type.

도 2는 본 발명과 관련된 이동 단말기의 일 예를 전면에서 바라본 사시도이 다. 2 is a front perspective view of an example of a mobile terminal according to the present invention;

본 발명의 이동 단말기는 제1바디(200)와, 상기 제1바디(200)에 적어도 일 방향을 따라 슬라이딩 가능하게 구성된 제2바디(205)를 포함한다. 그리고, 폴더폰의 경우 본 발명의 이동 단말기는 제1 바디와, 제1바디에 적어도 일측이 폴딩 또는 언폴딩되게 구성된 제2바디를 포함한다.The mobile terminal of the present invention includes a first body 200 and a second body 205 configured to be slidable in at least one direction on the first body 200. In the case of the folder phone, the mobile terminal of the present invention includes a first body and a second body configured to be folded or unfolded at least one side of the first body.

상기 제1바디(200)가 제2바디(205)와 중첩되게 배치된 상태를 닫힌 상태(closed configuration)라 칭할 수 있으며, 본 도면에 도시된 바와 같이 제1바디(200)가 제2바디(205)의 적어도 일 부분을 노출한 상태를 열린 상태(open configuration)라 칭할 수 있다. 상기 이동 단말기는 닫힌 상태에서 주로 대기 모드로 작동하지만 사용자의 조작에 의해 대기 모드가 해제되기도 한다. 그리고, 상기 이동 단말기는 열린 상태에서 주로 통화 모드 등으로 작동하지만 사용자의 조작 또는 소정 시간의 경과에 의해 대기 모드로 전환되기도 한다.A state in which the first body 200 is disposed to overlap the second body 205 may be referred to as a closed configuration, and as shown in the drawing, the first body 200 may be referred to as a second body ( An exposed state of at least a portion of 205 may be referred to as an open configuration. The mobile terminal mainly operates in a standby mode in a closed state, but the standby mode may be released by a user's operation. In addition, although the mobile terminal operates mainly in a call mode or the like in an open state, the mobile terminal may be switched to a standby mode by a user's manipulation or a lapse of a predetermined time.

상기 제1바디(200)의 외관을 이루는 케이스(케이싱, 하우징, 커버 등)는 제 1 프론트 케이스(220)와 제 1 리어 케이스(225)에 의해 형성된다. 상기 제 1 프론트 케이스(220)와 제 1 리어 케이스(225)에 의해 형성된 공간에는 각종 전자부품들이 내장된다. 제 1 프론트 케이스(220)와 제 1 리어 케이스(225) 사이에는 적어도 하나의 중간 케이스들이 추가로 배치될 수도 있다. The case (casing, housing, cover, etc.) forming the exterior of the first body 200 is formed by the first front case 220 and the first rear case 225. Various electronic components are embedded in the space formed by the first front case 220 and the first rear case 225. At least one intermediate case may be further disposed between the first front case 220 and the first rear case 225.

상기 케이스들은 합성수지를 사출하여 형성되거나 금속 재질, 예를 들어 스테인레스 스틸(STS) 또는 티타늄(Ti) 등과 같은 금속 재질을 갖도록 형성될 수도 있다.The cases may be formed by injecting a synthetic resin or may be formed of a metal material, for example, a metal material such as stainless steel (STS) or titanium (Ti).

제1 바디(200), 구체적으로 제 1 프론트 케이스(220)에는 디스플레이부(151), 음향출력모듈 (152), 카메라(121) 또는 제1사용자 입력부(210)가 배치될 수 있다. The display unit 151, the audio output module 152, the camera 121, or the first user input unit 210 may be disposed on the first body 200, specifically, the first front case 220.

상기 디스플레이부(151)는 정보를 시각적으로 표현하는 LCD(liquid crystal display), OLED(Organic Light Emitting Diodes) 및 투명 OLED 등을 포함한다. The display unit 151 includes a liquid crystal display (LCD), organic light emitting diodes (OLED), a transparent OLED, and the like, which visually express information.

그리고 상기 디스플레이부(151)에는 터치패드가 레이어 구조로 중첩됨으로써, 상기 디스플레이부(151)가 터치 스크린으로 동작하여 사용자의 터치에 의한 정보의 입력 또한 가능하게 할 수도 있다.In addition, since the touch pad is superimposed on the display unit 151 in a layer structure, the display unit 151 may operate as a touch screen to enable input of information by a user's touch.

상기 음향출력모듈(152)은 스피커의 형태로 구현될 수 있다. The sound output module 152 may be implemented in the form of a speaker.

상기 카메라(121)는 사용자 등에 대한 이미지 또는 동영상을 촬영하기에 적절하도록 구현될 수 있다. The camera 121 may be implemented to be suitable for capturing an image or a video of a user.

제1바디(200)와 마찬가지로, 제 2 바디(205)의 외관을 이루는 케이스는 제 2 프론트 케이스(230)와 제 2 리어 케이스(235)에 의해 형성된다.Like the first body 200, the case forming the exterior of the second body 205 is formed by the second front case 230 and the second rear case 235.

상기 제2 바디(205), 구체적으로 제 2 프론트 케이스(230)의 전면(front face)에는 제2 사용자 입력부(215)가 배치될 수 있다. 상기 제 2 프론트 케이스(230) 또는 제 2 리어 케이스(235)) 중 적어도 하나에는 제3 사용자 입력부(245), 마이크(122), 인터페이스부(170)가 배치될 수 있다. The second user input unit 215 may be disposed on the second body 205, specifically, on the front face of the second front case 230. A third user input unit 245, a microphone 122, and an interface unit 170 may be disposed on at least one of the second front case 230 or the second rear case 235.

상기 제1 내지 제3 사용자 입력부(210, 215, 245))는 사용자 입력부 (manipulating portion)(130)라 통칭될 수 있으며, 사용자가 촉각적인 느낌을 주면서 조작하게 되는 방식(tactile manner)이면 어떤 방식이든 채용될 수 있다. The first to third user inputs 210, 215, and 245 may be collectively referred to as a manipulating portion 130, and may be any method if the user is tactile in a tactile manner. Either may be employed.

예를 들어, 상기 사용자 입력부는 사용자의 푸시 또는 터치 조작에 의해 명령 또는 정보를 입력받을 수 있는 돔 스위치 또는 터치 패드로 구현되거나, 키를 회전시키는 휠 또는 조그 방식이나 조이스틱과 같이 조작하는 방식 등으로도 구현될 수 있다. For example, the user input unit may be implemented as a dome switch or a touch pad capable of receiving a command or information by a user's push or touch operation, or a wheel or jog method of rotating a key, or a manipulation method such as a joystick. May also be implemented.

기능적인 면에서, 제1 사용자 입력부(210)는 시작, 종료, 스크롤 등과 같은 명령을 입력하기 위한 것이고, 제2 사용자 입력부(215)는 숫자 또는 문자, 심볼 (symbol) 등을 입력하기 위한 것이다. In the functional aspect, the first user input unit 210 is for inputting a command such as start, end, scroll, etc., and the second user input unit 215 is for inputting numbers, letters, symbols, and the like.

또한, 제3 사용자 입력부(245)는 상기 이동 단말기 내의 특수한 기능을 활성화하기 위한 핫 키(hot-key)로서 작동할 수 있다.In addition, the third user input unit 245 may operate as a hot-key for activating a special function in the mobile terminal.

상기 마이크(122)는 사용자의 음성, 기타 소리 등을 입력 받기에 적절한 형태로 구현될 수 있다. The microphone 122 may be implemented in a form suitable for receiving a user's voice, other sounds, and the like.

상기 인터페이스부(170)는 본 발명과 관련된 이동 단말기가 외부 기기와 데이터 교환 등을 할 수 있게 하는 통로가 된다. 예를 들어, 상기 인터페이스부(170)는 유선 또는 무선으로, 이어폰과 연결하기 위한 접속단자, 근거리 통신을 위한 포트{예를 들어 적외선 포트(IrDA port), 블루투스 포트(Bluetooth port), 무선 랜 포트(wireless Lan port)등}, 또는 상기 이동 단말기에 전원을 공급하기 위한 전원공급 단자들 중 적어도 하나일 수 있다. The interface unit 170 serves as a passage for allowing the mobile terminal according to the present invention to exchange data with an external device. For example, the interface unit 170 is wired or wirelessly, a connection terminal for connecting with an earphone, a port for short-range communication (for example, an infrared port (IrDA port), a Bluetooth port, a wireless LAN port) wireless LAN port), or at least one of power supply terminals for supplying power to the mobile terminal.

상기 인터페이스부(170)는 SIM(subscriber identification module) 또는 UIM(user identity module), 정보 저장을 위한 메모리 카드 등의 외장형 카드를 수용하는 카드 소켓일 수도 있다.The interface unit 170 may be a card socket that accommodates an external card such as a subscriber identification module (SIM) or a user identity module (UIM) and a memory card for storing information.

제 2 리어 케이스(235) 측에는 상기 이동 단말기에 전원을 공급하기 위한 전원공급부(190)가 장착된다. The power supply unit 190 for supplying power to the mobile terminal is mounted on the second rear case 235 side.

상기 전원 공급부(190)는, 예를 들어 충전 가능한 배터리로서 충전 등을 위하여 착탈 가능하게 결합될 수 있다.The power supply unit 190 may be detachably coupled for charging, for example, as a rechargeable battery.

도 3는 도 2의 이동 단말기의 후면 사시도이다. 3 is a rear perspective view of the mobile terminal of FIG. 2.

도 3를 참조하면, 제2바디(205)의 제 2 리어 케이스(235)의 후면에는 카메라 (121)가 추가로 장착될 수 있다. 상기 제2바디(205)의 카메라(121)는 제1바디(200)의 카메라(121)와 실질적으로 반대되는 촬영 방향을 가지며, 제1바디(200)의 카메라(121)와 서로 다른 화소를 가질 수 있다.Referring to FIG. 3, a camera 121 may be additionally mounted on the rear surface of the second rear case 235 of the second body 205. The camera 121 of the second body 205 has a photographing direction substantially opposite to that of the camera 121 of the first body 200, and different pixels from the camera 121 of the first body 200. Can have

예를 들어, 제1바디(200)의 카메라(121)는 화상 통화 등의 경우에 사용자의 얼굴을 촬영하여 상대방에 전송함에 무리가 없도록 저 화소를 가지며, 제2바디의 카메라(121)는 일반적인 피사체를 촬영하고 바로 전송하지는 않는 경우가 많기 때문에 고 화소를 가지는 것이 바람직하다.For example, the camera 121 of the first body 200 has a low pixel so that the user's face is photographed and transmitted to the counterpart in case of a video call or the like, and the camera 121 of the second body 200 is generally used. It is preferable to have a high pixel because the subject is often photographed and not immediately transmitted.

제2바디(205)의 카메라(121)에 인접하게는 플래쉬(250)와 거울(255)이 추가로 배치될 수 있다. 상기 플래쉬(250)는 제2바디(205)의 카메라(121)로 피사체를 촬영하는 경우에 상기 피사체를 향해 빛을 비추게 된다. 상기 거울(255)는 사용자가 제2바디(205)의 카메라(121)을 이용하여 자신을 촬영(셀프 촬영)하고자 하는 경우에, 사용자 자신의 얼굴 등을 비춰볼 수 있게 한다.The flash 250 and the mirror 255 may be further disposed adjacent to the camera 121 of the second body 205. The flash 250 illuminates the subject when the subject is photographed by the camera 121 of the second body 205. The mirror 255 allows the user to see the user's face or the like when photographing (self-photographing) the user by using the camera 121 of the second body 205.

제 2 리어 케이스(235)에는 음향출력모듈 (152)가 추가로 배치될 수도 있다. The sound output module 152 may be further disposed on the second rear case 235.

상기 제2바디(205)의 음향출력모듈(152)은 제1바디(200)의 음향출력모 듈(152)과 함께 스테레오 기능을 구현할 수 있으며, 스피커폰 모드로 통화를 위하여 사용될 수도 있다. The sound output module 152 of the second body 205 may implement a stereo function together with the sound output module 152 of the first body 200 and may be used for a call in a speakerphone mode.

또한, 제 2 리어 케이스(235)의 일 측에는 통화 등을 위한 안테나 외에 방송신호 수신용 안테나(260)가 배치될 수 있다. 상기 안테나(260)는 제2바디 (205)에서 인출 가능하게 설치될 수 있다.In addition, an antenna 260 for receiving broadcast signals may be disposed on one side of the second rear case 235. The antenna 260 may be installed to be pulled out of the second body 205.

제1바디(200)의 제 1 리어 케이스(225) 측에는 제1바디(200)와 제2바디(205)를 슬라이딩 가능하게 결합하는 슬라이드 모듈(265)의 일 부분이 배치된다. A portion of the slide module 265 that slidably couples the first body 200 and the second body 205 is disposed on the first rear case 225 side of the first body 200.

슬라이드 모듈(265)의 다른 부분은 제2 바디(205)의 제 2 프론트 케이스(230) 측에 배치되어, 본 도면에서와 같이 외부로 드러나지 않는 형태일 수 있다. The other part of the slide module 265 may be disposed on the second front case 230 side of the second body 205 and may not be exposed to the outside as shown in the drawing.

이상에서는 제2 카메라(121)) 등이 제2바디(205)에 배치되는 것으로 설명하였으나, 반드시 그에 제한되는 것은 아니다.In the above description, the second camera 121 and the like have been described as being disposed in the second body 205, but the present invention is not limited thereto.

예를 들어, 제2바디의 카메라(121) 등과 같이 제 2 리어 케이스(235)에 배치되는 것으로 설명한 구성들(260, 121 내지 250, 152) 중 적어도 하나 이상이 제1바디(200), 주로는 제 1 리어 케이스(225)에 장착되는 것도 가능하다. 그러한 경우라면, 상기 닫힌 상태에서 제 1 리어 케이스(225)에 배치되는 구성(들)이 제2바디 (205)에 의해 보호되는 이점이 있다. 나아가, 제2바디의 카메라(121)가 별도로 구비되지 않더라도, 제1바디의 카메라(121)가 회전 가능하게 형성되어 제2바디의 카메라(121)의 촬영 방향까지 촬영이 가능하도록 구성될 수도 있다.For example, at least one or more of the components 260, 121 to 250, and 152 described as disposed on the second rear case 235, such as the camera 121 of the second body, may be the first body 200, mainly. May be mounted on the first rear case 225. If so, there is an advantage that the configuration (s) disposed in the first rear case 225 in the closed state are protected by the second body 205. Furthermore, even if the camera 121 of the second body is not provided separately, the camera 121 of the first body may be rotatably formed so that the camera 121 of the second body may be photographed up to the photographing direction of the camera 121 of the second body. .

도 1 내지 도 3에 도시된 단말기(100)는, 유무선 통신 시스템 및 위성 기반 통신 시스템을 포함하여, 프레임(frame) 또는 패킷(packet)을 통하여 데이터(data)를 전송할 수 있는 통신 시스템에서 동작 가능하도록 구성될 수 있다.The terminal 100 illustrated in FIGS. 1 to 3 may be operated in a communication system capable of transmitting data through a frame or packet, including a wired / wireless communication system and a satellite-based communication system. It can be configured to.

이하에서는, 도 4를 참조하여, 본 발명에 관련된 단말기가 동작 가능한 통신 시스템에 대하여 살펴보겠다. Hereinafter, referring to FIG. 4, a communication system capable of operating a terminal according to the present invention will be described.

통신 시스템은, 서로 다른 무선 인터페이스 및/또는 물리 계층을 이용할 수도 있다. 예를 들어, 통신 시스템에 의해 이용 가능한 무선 인터페이스에는, 주파수 분할 다중 접속(Frequency Division Multiple Access; 'FDMA'), 시분할 다중 접속(Time Division Multiple Access; 'TDMA'), 코드 분할 다중 접속(Code Division Multiple Access; 'CDMA'), 범용 이동통신 시스템(Universal Mobile Telecommunications Systems; 'UMTS')(특히, LTE(Long Term Evolution)), 이동통신 글로벌 시스템(Global System for Mobile Communications; 'GSM') 등이 포함될 수 있다. 이하에서는, 설명의 편의를 위하여, CDMA에 한정하여 설명하도록 한다. 그러나, 본 발명은, CDMA 무선 통신 시스템을 포함한 모든 통신 시스템 적용될 있음은 당연하다.The communication system may use different air interfaces and / or physical layers. For example, a radio interface usable by a communication system may include frequency division multiple access (FDMA), time division multiple access (TDMA), and code division multiple access (Code Division). Multiple Access (CDMA), Universal Mobile Telecommunications Systems (UMTS) (especially Long Term Evolution (LTE)), Global System for Mobile Communications (GSM), etc. May be included. Hereinafter, for convenience of description, the description will be limited to CDMA. However, it is a matter of course that the present invention is applicable to all communication systems including the CDMA wireless communication system.

도 4에 도시된 바와 같이, CDMA 무선 통신 시스템은, 복수의 단말기들(100), 복수의 기지국(Base Station; 'BS')(270), 기지국 제어부(Base Station Controllers; 'BSCs')(275), 이동 스위칭 센터(Mobile Switching Center; 'MSC')(280)를 포함할 수 있다. MSC(280)는, 일반 전화 교환망(Public Switched Telephone Network; 'PSTN')(290)과 연결되도록 구성되고, BSCs(275)와도 연결되도록 구성된다. BSCs(275)는, 백홀 라인(backhaul line)을 통하여, BS(270)과 짝을 이루어 연결될 수 있다. 백홀 라인은, E1/T1, ATM, IP, PPP, Frame Relay, HDSL, ADSL 또는 xDSL 중 적어도 하나에 따라서 구비될 수 있다. 따라서, 복수의 BSCs(275)가 도 4에 도시된 시스템에 포함될 수 있다.As shown in FIG. 4, the CDMA wireless communication system includes a plurality of terminals 100, a plurality of base stations (BS) 270, and base station controllers (BSCs) 275. ), And a mobile switching center (MSC) 280. The MSC 280 is configured to be connected to a public switched telephone network (PSTN) 290 and is also configured to be connected to BSCs 275. The BSCs 275 may be coupled to the BS 270 through a backhaul line. The backhaul line may be provided according to at least one of E1 / T1, ATM, IP, PPP, Frame Relay, HDSL, ADSL, or xDSL. Thus, a plurality of BSCs 275 may be included in the system shown in FIG.

각각의 BS(270)는, 적어도 하나의 섹터를 포함할 수 있고, 각각의 섹터는, 전방향성 안테나 또는 BS(270)으로부터 방사상의 특정 방향을 가리키는 안테나를 포함할 수 있다. 또한, 각각의 섹터는, 다양한 형태의 안테나를 두 개 이상 포함할 수도 있다. 각각의 BS(270)는, 복수의 주파수 할당을 지원하도록 구성될 수 있고, 복수의 주파수 할당 각각은, 특정 스펙트럼(예를 들어, 1.25MHz, 5MHz 등)을 갖는다.Each BS 270 may include at least one sector, and each sector may include an omnidirectional antenna or an antenna pointing radially out of BS 270. In addition, each sector may include two or more antennas of various types. Each BS 270 may be configured to support a plurality of frequency assignments, each of which has a specific spectrum (eg, 1.25 MHz, 5 MHz, etc.).

섹터와 주파수 할당의 교차는, CDMA 채널이라고 불릴 수 있다. BS(270)은, 기지국 송수신 하부 시스템(Base Station Transceiver Subsystem; 'BTSs')이라고 불릴 수 있다. 이러한 경우, "기지국"이라는 단어는, 하나의 BSC(275) 및 적어도 하나의 BS(270)을 합하여 불릴 수도 있다. 기지국은, 또한 "셀 사이트"를 나타낼 수도 있다. 또는, 특정 BS(270)에 대한 복수의 섹터들 각각은, 복수의 셀 사이트로 불릴 수도 있다. The intersection of sectors and frequency assignments may be called a CDMA channel. BS 270 may be referred to as a Base Station Transceiver Subsystem ('BTSs'). In this case, the word "base station" may be called the sum of one BSC 275 and at least one BS 270. The base station may also indicate “cell site”. Alternatively, each of the plurality of sectors for a particular BS 270 may be called a plurality of cell sites.

도 4에 도시된 바와 같이, 방송 송신부(Broadcasting Transmitter; 'BT')(295)는, 시스템 내에서 동작하는 단말기들(100)에게 방송 신호를 송신한다. 도 1에 도시된 방송용 모듈(111)은, BT(295)에 의해 전송되는 방송 신호를 수신하기 위해 단말기(100) 내에 구비된다. As shown in FIG. 4, a broadcasting transmitter (BT) 295 transmits a broadcast signal to terminals 100 operating in the system. The broadcast module 111 shown in FIG. 1 is provided in the terminal 100 to receive a broadcast signal transmitted by the BT 295.

뿐만 아니라, 도 4에서는, 여러 개의 위성 위치 확인 시스템(Global Positioning System; 'GPS') 위성(300)을 도시한다. 상기 위성들(300)은, 복수의 단말기(100) 중 적어도 하나의 단말기의 위치를 파악하는 것을 돕는다. 도 4에서는 두 개의 위성이 도시되어 있지만, 유용한 위치 정보는, 두 개 이하 또는 이상의 위성들에 의해 획득될 수도 있다. 도 1에 도시된 GPS 모듈(115)은, 원하는 위치 정보를 획득하기 위하여 위성들(300)과 협력한다. 여기에서는, GPS 추적 기술뿐만 아니라 위치를 추적할 수 있는 모든 기술들을 이용하여 위치를 추적할 수 있다. 또한, GPS 위성들(300) 중 적어도 하나는, 선택적으로 또는 추가로 위성 DMB 전송을 담당할 수도 있다. In addition, FIG. 4 illustrates several satellite positioning systems (GPS) satellites 300. The satellites 300 help to locate the at least one terminal of the plurality of terminals 100. Although two satellites are shown in FIG. 4, useful location information may be obtained by two or less or more satellites. The GPS module 115 shown in FIG. 1 cooperates with the satellites 300 to obtain desired location information. Here, the location can be tracked using all the techniques that can track the location, not just the GPS tracking technology. In addition, at least one of the GPS satellites 300 may optionally or additionally be responsible for satellite DMB transmission.

무선 통신 시스템의 전형적인 동작 중, BS(270)는, 다양한 단말기들(100)로부터 역 링크 신호를 수신한다. 이때, 단말기들(100)은, 호를 연결 중이거나, 메시지를 송수신 중이거나 또는 다른 통신 동작을 수행 중에 있다. 특정 기지국(270)에 의해 수신된 역 링크 신호들 각각은, 특정 기지국(270)에 의해 내에서 처리된다. 상기 처리 결과 생성된 데이터는, 연결된 BSC(275)로 송신된다. BSC(275)는, 기지국들(270) 간의 소프트 핸드오프(soft handoff)들의 조직화를 포함하여, 호 자원 할당 및 이동성 관리 기능을 제공한다. 또한, BSC(275)는, 상기 수신된 데이터를 MSC(280)으로 송신하고, MSC(280)은, PSTN(290)과의 연결을 위하여 추가적인 전송 서비스를 제공한다. 유사하게, PSTN(290)은 MSC(280)과 연결하고, MSC(280)은 BSCs(275)와 연결하고, BSCs(275)는 단말기들(100)로 순 링크 신호를 전송하도록 BS들(270)을 제어한다.During typical operation of a wireless communication system, BS 270 receives a reverse link signal from various terminals 100. At this time, the terminals 100 are connecting a call, transmitting or receiving a message, or performing another communication operation. Each of the reverse link signals received by a particular base station 270 is processed within by the particular base station 270. The data generated as a result of the processing is transmitted to the connected BSC 275. BSC 275 provides call resource allocation and mobility management functionality, including the organization of soft handoffs between base stations 270. In addition, the BSC 275 transmits the received data to the MSC 280, and the MSC 280 provides an additional transmission service for connection with the PSTN 290. Similarly, PSTN 290 connects with MSC 280, MSC 280 connects with BSCs 275, and BSCs 275 send BSs 270 to transmit a forward link signal to terminals 100. ).

이와 같이 구성된 이동 단말기에서 근접 터치(proximity touch) 및/또는 실 제 터치(real-touch)를 이용하여 대기화면 표시를 제어하는 방법을 설명한다.A method of controlling the display of the idle screen using a proximity touch and / or a real touch in the mobile terminal configured as described above will be described.

본 발명에서 근접 터치(proximity-touch)는, 포인터(pointer)가 화면에 실제로 터치는 되지 않고, 화면으로부터 소정 거리 떨어져 접근되는 것을 의미한다. 바람직하게 상기 포인터는 표시 화면의 특정 부분을 실제로 터치하거나 근접 터치하기 위한 도구, 즉 스타일러스 팬, 손가락 등을 포함한다.Proximity-touch in the present invention means that the pointer is approached a predetermined distance away from the screen without actually touching the screen. Preferably the pointer comprises a tool for actually touching or proximity touching a particular portion of the display screen, ie a stylus fan, finger or the like.

도 1에 도시된 바와같이, 본 발명의 일실시예에 관련된 제어부(180)는, 근접 터치를 소정의 신호 입력으로 인식하여, 이동 단말기의 제어동작을 수행할 수 있다. 즉, 본 발명의 일실시예에 의한 이동 단말기(100)는 포인터가 화면으로부터 소정 거리 범위 이내로 접근한 경우, 이를 근접 터치로 인식하여, 예를들면, 각종 목록보기 및 자동 입력기능(e.x. ID 및 패스워드)을 수행할 수 있다 상기 소정 거리는 포인터와 상기 화면 간의 수직 거리를 나타낸다.As illustrated in FIG. 1, the controller 180 according to an embodiment of the present invention may recognize a proximity touch as a predetermined signal input and perform a control operation of a mobile terminal. That is, the mobile terminal 100 according to an embodiment of the present invention recognizes this as a proximity touch when the pointer approaches within a predetermined distance range from the screen. For example, various list views and automatic input functions (ex ID and Password) represents a vertical distance between the pointer and the screen.

본 발명에서 실제 터치(real-touch)는, 화면에 실제로 포인터(pointer)가 터치되는 경우를 말한다. 상기 실제 터치는 표시장치 위에 터치 스크린(touch screen)을 구비하여 달성된다. 이 경우, 제어부(180)는 실제 터치를 소정의 신호 입력으로 인식하여 이동 단말기의 제어동작을 수행할 수 있다.In the present invention, a real touch refers to a case in which a pointer is actually touched on the screen. The actual touch is achieved by having a touch screen on the display. In this case, the controller 180 may recognize the actual touch as a predetermined signal input and perform a control operation of the mobile terminal.

도 1에 도시된 바와같이, 본 발명의 일실시예에 관련된 이동 단말기(100)는 센싱부(140)를 통하여 근접 터치와 실제 터치를 감지할 수 있다. 상기 센싱부(140)는 다양한 센싱 기능을 수행하기 위해 다양한 센서를 구비하며, 근접 터치와 실제 터치를 감지하기 위하여 근접 센서와 촉각 센서 등을 구비할 수 있다.As shown in FIG. 1, the mobile terminal 100 according to an embodiment of the present invention may detect a proximity touch and an actual touch through the sensing unit 140. The sensing unit 140 may include various sensors to perform various sensing functions, and may include a proximity sensor and a tactile sensor to detect a proximity touch and an actual touch.

상기 근접 센서는 스위치의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출한다. 바람직하게, 상기 근접 센서는 기계적인 접촉을 통해서 ON/ OFF 출력을 내보내는 것과는 달리 기계적인 접촉 없이 감지 물체가 센서별로 정해진 감지거리 내에 들어오면 ON/OFF 출력을 내보내는 근접 스위치로 구성될 수 있다.The proximity sensor detects the presence or absence of an object approaching the detection surface of the switch or an object present in the vicinity without using mechanical force by using electromagnetic force or infrared rays. Preferably, the proximity sensor may be configured as a proximity switch that emits an ON / OFF output when a sensing object comes within a predetermined sensing distance for each sensor without mechanical contact, unlike the ON / OFF output through mechanical contact.

따라서 상기 근접 스위치로 구성된 근접 센서는 접촉식의 스위치보다는 그 수명이 상당히 길며 활용도 또한 상당히 높다. 상기 근접 스위치로 구성된 근접 센서의 작동원리는 발진회로에서 정파의 고주파를 발진하다가 감지물체가 센서 감지면 근방에 접근을 하면 발진회로의 발진 진폭이 감쇄 또는 정지하며, 이런 변화를 전기적 신호로 전환하여 감지물체의 유·무를 검출하게 된다.Therefore, the proximity sensor composed of the proximity switch has a considerably longer life and a higher utilization than the contact switch. The operating principle of the proximity sensor composed of the proximity switch oscillates the high frequency wave of the wave in the oscillation circuit, and when the sensing object approaches the sensor sensing surface, the oscillation amplitude of the oscillation circuit is attenuated or stopped. The presence or absence of the sensing object is detected.

상기 촉각 센서는 사람이 느끼는 정도로 또는 그 이상으로 특정 물체의 접촉을 감지하는 센서를 말한다. 상기 촉각 센서는 접촉면의 거칠기, 접촉 물체의 단단함, 접촉 지점의 온도 등의 다양한 정보를 감지할 수 있다.The tactile sensor refers to a sensor that detects contact of a specific object to a degree that the human feels or more. The tactile sensor may sense various information such as the roughness of the contact surface, the rigidity of the contact object, the temperature of the contact point, and the like.

한편, 상기 센싱부(140)는 근접 터치의 상세 동작으로서, 근접 거리와 근접 속도를 감지할 수 있다. 근접 거리라 함은 화면과 포인터와 떨어진 거리를 의미한다. 특히, 최소 근접 거리는 화면과 포인터와 떨어진 최단 거리를 의미한다. 또한, 근접 속도라 함은 포인터가 화면을 향해 근접하는 속도 또는 포인터가 화면으로부터 멀어지는 속도를 포함한다.The sensing unit 140 may detect a proximity distance and a proximity speed as a detailed operation of the proximity touch. Proximity means the distance away from the screen and the pointer. In particular, the minimum proximity distance means the shortest distance away from the screen and the pointer. In addition, the proximity speed includes a speed at which the pointer approaches the screen or a speed at which the pointer moves away from the screen.

그리고, 상기 센싱부(140)는 실제 터치 및/또는 근접 터치와 관련하여, 터치 드래그(touch-drag) 또는 근접 드래그 (proximity-drag)를 감지할 수 있다. 상기 센싱부(140)는 터치 드래그 및/또는 근접 드래그의 드래그 방향, 드래그 속도, 드 래그 길이 등을 감지할 수 있다. 상기 터치 드래그는 실제 터치가 유지된 상태에서 터치 지점이 드래그 되는 경우를 나타내며, 상기 근접 드래그는 근접 터치가 유지된 상태에서 터치 지점이 드래그 되는 경우를 말한다.In addition, the sensing unit 140 may detect a touch drag or a proximity-drag in relation to the actual touch and / or the proximity touch. The sensing unit 140 may detect a drag direction, a drag speed, a drag length of a touch drag and / or a close drag. The touch drag refers to a case in which the touch point is dragged while the actual touch is maintained, and the proximity drag refers to a case in which the touch point is dragged while the proximity touch is maintained.

또한, 본 발명의 실시예에서 화면의 소정 지점이 근접 터치 된다는 말은 상기 소정 지점과 수직으로 대응되는 공간 상의 위치에 포인터가 위치하여, 근접 터치로서 인식된다는 말을 의미한다.In addition, in the exemplary embodiment of the present invention, that a certain point of the screen is in close proximity means that the pointer is located at a position on a space corresponding to the predetermined point and is recognized as a proximity touch.

이하, 이동 단말기(100)가 터치 스크린을 구비한 경우를 예를 들어 설명한다.Hereinafter, an example in which the mobile terminal 100 includes a touch screen will be described.

본 발명의 일실시예에 관련된 이동 단말기(100)는 근접 터치를 이용하여 특정 기능을 수행할 수 있다. 즉, 센싱부(140)는 특정 위치를 인식하는 것뿐만 아니라 가 위치에 대한 거리인식이 가능하기 때문에 손가락의 상하좌우 움직임에 따라 이동 단말기의 각종 기능을 동작시킬 수 있다. 예를들어, 상기 실제 터치와 근접 터치와의 관계에 근거하여 화면을 스크롤(scroll) 기능, 화면의 줌 기능, 화면의 회전 기능, 정보 표시 기능을 수행할 수 있다.The mobile terminal 100 according to an embodiment of the present invention may perform a specific function by using a proximity touch. That is, the sensing unit 140 may not only recognize a specific position but also recognize a distance of the temporary position, so that various functions of the mobile terminal may be operated according to the vertical movement of the finger. For example, the screen may be scrolled, the screen zoomed, the screen rotated, and the information displayed based on the relationship between the actual touch and the proximity touch.

근접 터치 센서(근접 센서)는 신체가 터치스크린의 표면에 접촉했을 때 발생하는 정전용량의 변화에 따라 근접 터치를 감지한다. 도 5는 본 발명에서 근접센서에 의해 감지되는 근접터치 감지영역을 다수의 근접 위치(또는 근접거리)로 구분한 예이다. 도 5에서 근접 위치의 개수는 근접 센서의 성능과 제어대상에 따라 달라질 수 있으며, 본 발명에서는 4개의 근접위치(D0~D3)를 도시한다. 이때 근접 터치는 포인터가 각 근접거리(D0~D3)의 바깥쪽 영역에 위치하는 상태를 의미한다.The proximity touch sensor (proximity sensor) detects the proximity touch according to the change in capacitance generated when the body contacts the surface of the touch screen. 5 is an example of dividing a proximity touch detection area detected by a proximity sensor into a plurality of proximity locations (or proximity distances) according to the present invention. In FIG. 5, the number of proximity positions may vary depending on the performance of the proximity sensor and a control target. In the present invention, four proximity positions D0 to D3 are illustrated. In this case, the proximity touch refers to a state in which the pointer is located at an outer region of each of the proximity distances D0 to D3.

본 발명에 따른 방법을 수행하기 위하여 이동 단말기의 디스플레이부(151)에는 포인터로 터치하여 선택할 수 있는 적어도 하나 이상의 아이콘이 표시될 수 있다. 상기 아이콘은 이동 단말기의 자체 동작을 제어하기 위한 아이콘 및 이동 단말기를 통하여 특정 사이트에 접속하거나 특정 기능을 실행할 수 있는 아이콘을 포함한다. 이때 상기 포인터는 표시 화면의 특정 부분을 실제로 터치하거나 근접 터치하기 위한 도구, 즉 스타일러스 팬, 손가락중의 어느 하나를 나타낸다.In order to perform the method according to the present invention, at least one icon which can be selected by touching with a pointer may be displayed on the display unit 151 of the mobile terminal. The icon includes an icon for controlling an operation of the mobile terminal and an icon for accessing a specific site or executing a specific function through the mobile terminal. In this case, the pointer represents any one of a tool for actually touching or proximity touching a specific portion of the display screen, that is, a stylus fan or a finger.

도 6은 본 발명의 실시예에 따른 이동 단말기에서 근접 터치를 이용한 화면표시방법을 나타낸 흐름도이다. 도 6은 근접위치 및 근접속도에 따라 화면 표시를 제어하는 방법이다. 6 is a flowchart illustrating a screen display method using a proximity touch in a mobile terminal according to an embodiment of the present invention. 6 is a method of controlling a screen display according to a proximity position and a proximity speed.

이동 단말기의 대기화면에는 여러 단말기 동작을 별도의 메뉴에 진입하지 않고도 바로 수행할 수 있는 적어도 하나 이상의 아바타가 표시되어 있다. 상기 아바타는 일반적으로 크기가 동일하게 설정되어 있으며, 그 위치와 배열은 사용자가 임의로 변경 가능하다.At least one avatar is displayed on the standby screen of the mobile terminal to directly perform various terminal operations without entering a separate menu. The avatars are generally set to the same size, and their positions and arrangements can be arbitrarily changed by the user.

도 6에 도시된 바와같이, 사용자가 이동 단말기의 대기화면에 포인터가 근접되면, 센싱부(140)는 포인터의 근접 터치를 감지하여, 그 감지된 데이터를 근거로 근접 위치(거리) 및/또는 근접속도를 구할 수 있다(S10). 상기 포인터는 표시 화면의 특정 부분을 실제로 터치하거나 근접 터치하기 위한 도구, 즉 스타일러스 팬, 손가락 등을 포함한다.As shown in FIG. 6, when the user approaches the pointer on the idle screen of the mobile terminal, the sensing unit 140 detects a proximity touch of the pointer and based on the detected data, the proximity position (distance) and / or Proximity velocity can be obtained (S10). The pointer includes a tool for actually touching or proximity touching a specific portion of the display screen, that is, a stylus fan, a finger, or the like.

상기 근접위치는 도 5에 도시된 4개의 근접거리(D0~D3)를 기준으로 구할 수 있으며, 상기 근접속도(v)는 다음 식(1)과 같이 구할 수 있다.The proximity position may be obtained based on four proximity distances D0 to D3 shown in FIG. 5, and the proximity speed v may be obtained as shown in Equation 1 below.

접근속도(v)=근접거리 차/시간 차=dD/dt--------------------------식(1)Approach speed (v) = proximity difference / time difference = dD / dt -------------------------- Equation (1)

제어부(180)는 센싱부(140)로부터 근접위치 및 근접속도를 제공받아, 포인터의 근접 위치 및 속도에 따라 대기화면의 정보표시, 예를들어 아바타의 크기, 위치 및 움직임의 적어도 하나 이상을 제어한다(S11, S12) 본 발명에서는 상기 소정거리는 도 5에서 예를들어 D2로 설정될 수 있다. The controller 180 receives the proximity position and the proximity speed from the sensing unit 140 and controls at least one or more of the display of information on the idle screen, for example, the size, position and movement of the avatar according to the proximity position and the speed of the pointer. In the present invention (S11, S12) the predetermined distance may be set to, for example, D2 in FIG.

이후, 포인터가 대기화면으로부터 멀어져 근접터치 감지영역을 벗어나면 대기화면의 아바타들은 원래의 상태로 배열된다. Subsequently, when the pointer moves away from the standby screen and leaves the proximity touch sensing area, the avatars of the standby screen are arranged in their original states.

도 7은 도 6에 도시된 방법을 수행하는 일 실시예를 나타내는 도면이다.FIG. 7 illustrates an embodiment of performing the method illustrated in FIG. 6.

도 7에 도시된 실시예는, 포인터(본 실시예에서는 손가락)의 근접위치(거리)에 따라 아이콘의 크기가 변화되는 예이다.The embodiment shown in FIG. 7 is an example in which the size of the icon changes depending on the proximity position (distance) of the pointer (finger in this embodiment).

손가락이 다수의 아이콘중에서 특정 아이콘에 근접하면, 센싱부(140)는 손가락의 근접 위치를 감지하여 제어부(18)로 출력하고, 제어부(180)는 선택이 용이하도록 해당 아이콘의 크기가 다른 아이콘보다 크도록 제어한다. 이때, 아이콘의 크기는 선택될 아이콘만 크게 할 수도 있고, 근접 터치지점을 중심으로 작아지도록 할 수도 있다. When a finger is close to a specific icon among a plurality of icons, the sensing unit 140 detects a proximity position of the finger and outputs it to the control unit 18, and the control unit 180 has a size larger than that of other icons for easy selection. Control to be large. In this case, the size of the icon may be increased only to the icon to be selected, or may be made smaller around the proximity touch point.

이후, 손가락이 대기화면으로부터 멀어져 근접터치 감지영역을 벗어나면 대기화면의 아바타들은 원래의 위치 및 크기로 복구된다. Subsequently, when the finger moves away from the standby screen and leaves the proximity touch sensing area, the avatars of the standby screen are restored to their original positions and sizes.

따라서, 사용자는 크기가 커진 아바타를 실제로 터치하여 원하는 동작을 수 행할 수 있다. Therefore, the user can actually touch the avatar that has grown in size to perform a desired action.

도 8은 도 6에 도시된 방법을 수행하는 다른 실시예를 나타내는 도면이다.FIG. 8 illustrates another embodiment of performing the method illustrated in FIG. 6.

도 8에 도시된 실시예는, 손가락의 근접위치(거리)에 따라 아이콘의 크기 및 위치가 변화되는 예이다. 즉, 사용자가 선택하고자 하는 아이콘에 손가락을 가져가면 다른 아이콘들은 작아지면서 주변으로 흩어지고, 선택되는 아이콘은 제자리에서 커진다. 이때, 손가락의 근접 거리에 따라서 상기 선택될 아이콘은 점점 커지고, 다른 아이콘들은 점점 작아지면서 중심으로부터 바깥방향으로 흩어진다.The embodiment shown in FIG. 8 is an example in which the size and position of the icon change according to the proximity position (distance) of the finger. That is, when the user moves his or her finger over an icon to select, other icons become smaller and scattered around, and the selected icon becomes larger in place. At this time, the icon to be selected increases in size according to the proximity of the finger, and other icons become smaller and scatter outward from the center.

이후, 손가락이 대기화면으로부터 멀어져 근접 터치 감지영역을 벗어나면 대기화면의 아바타들은 원래의 상태로 되돌아온다.Subsequently, when the finger moves away from the standby screen and leaves the proximity touch sensing area, the avatars of the standby screen return to their original states.

또한, 상기 아이콘의 크기 및 흩어지는 속도는 접근속도는 근접속도에 따라 제어될 수 있다.In addition, the size and the scattering speed of the icon can be controlled according to the proximity speed.

도 9는 도 6에 도시된 방법을 수행하는 또 다른 실시예를 나타낸 도면이다.FIG. 9 illustrates another embodiment of performing the method illustrated in FIG. 6.

도 9에 도시된 실시예는, 손가락의 근접위치(거리)에 따라 아이콘에 효과를 준 예이다.9 is an example in which an effect is given to an icon according to a proximity position (distance) of a finger.

도 9에 도시된 바와같이, 사용자가 선택하고자 하는 아이콘에 손가락을 가져가면, 제어부(180)는 선택될 아이콘 또는 그 근처의 아이콘들이 제자리에서 빙긍빙글 돌도록 제어할 수 있다. 만약, 선택될 아이콘만 회전하는 경우는 근접위치에 따라 회전하는 속도가 다르며, 선택될 아이콘 또는 그 근처의 아이콘들이 회전하는 경우에는 선택될 아바타만 빠르게 화전하고 주변의 아바타는 느리게 회전한다.As illustrated in FIG. 9, when the user brings a finger to an icon to be selected, the controller 180 may control the icon to be selected or the icons near the icon to rotate in place. If only the icon to be rotated is rotated according to the proximity position, and if the icon to be selected or the icons near it are rotated, only the avatar to be selected is fast and the surrounding avatar is rotated slowly.

제어부(180)는 사용자가 선택하고자 하는 아이콘에 손가락을 가져가면, 출력 부(150)의 알람부(153)를 제어하여 선택될 아이콘에 떨리는 진동(효과)를 줄 수 있다. 이 경우에도 진동의 세기는 손가락의 근접위치(거리) 또는 근접 속도에 따라 제어할 수 있다. 예를들어, 손가락이 빠르게 접근되면 진동의 세기가 커지거나 거칠어지고, 느리게 접근되면 작아지거나 부드러워지도록 할 수 있다.The controller 180 may give a vibration (effect) to the icon to be selected by controlling the alarm unit 153 of the output unit 150 when the user moves the finger to the icon to be selected. Also in this case, the intensity of vibration can be controlled according to the proximity position (distance) or the proximity speed of the finger. For example, if the finger is approached quickly, the intensity of vibration may increase or become rough, and if it is approached slowly, it may become smaller or softer.

또한, 본 발명은 아이콘의 움직임뿐만 아니라 특정 아이콘에 근접하면 출력부(150)의 음향출력모듈(152)를 제어하여 소리가 울리도록 할 수도 있다. In addition, the present invention may control the sound output module 152 of the output unit 150 as well as the movement of the icon to approach the specific icon to make a sound.

도 10은 도 6에 도시된 방법을 수행하는 또 다른 실시예를 나타낸 도면이다.FIG. 10 illustrates another embodiment of performing the method of FIG. 6.

도 10은 도 6은 근접위치 및 근접속도에 따라 배경화면의 개체들의 위치, 움직임을 제어하는 방법이다.FIG. 10 is a method for controlling the position and movement of objects on a background screen according to a proximity position and a proximity speed.

도 10을 참조하면, 사용자들은 물고기 또는 동물과 같은 개체가 포함된 애니메이션 또는 대기화면으로 배기화면(Wallpaper)(또는 배경화면)을 구성하는 경우가 있다. Referring to FIG. 10, a user may configure a wall paper (or a background screen) with an animation or standby screen including an object such as a fish or an animal.

이러한 대기화면에 사용자의 손가락이 근접되면, 제어부(180)는 센싱부(140)에서 감지된 근접 위치(거리) 및 근접속도를 근거로, 상기 개체들의 위치 및 움직임을 제어할 수 있다. When the user's finger approaches the standby screen, the controller 180 may control the position and movement of the objects based on the proximity position (distance) and the proximity speed detected by the sensing unit 140.

예를들어, 물고기가 헤엄치거나 동물들이 움직이는 형태의 애니메이션 또는 플래쉬로 대기화면을 구성된 경우, 제어부(180)는 손가락이 근접되면 물고기가 모여들거나 도망치도록 제어할 수 있다. 특히 물고기들이 연못에 있는 경우 손가락이 접근되면 연못에 돌을 던졌을 때 물결이 퍼지는 모양이 나타나도록 할 수 있으며, 그 물결 모양은 더 근접할수록 커진다.For example, when the standby screen is composed of an animation or a flash of a fish swimming or moving animals, the controller 180 may control the fish to flock or run away when a finger approaches. Especially when the fish are in the pond, when the finger approaches, it can cause the wave to spread when the stone is thrown into the pond.

또한, 손가락의 근접에 따라 물고기가 모여들거나 도망치도록 하는 속도는 손가락의 근접속도에 따라 다르게 설정된다. 일 예로, 손가락이 빠르게 접근되면 손가락 접근위치로부터 빠르게 벗어나고 손가락 접근위치에는 접근하지 않도록 할 수 있다. 이 경우에도 상기 개체(동물, 물고기 및 기타)들의 움직임에 맞추어 진동의 세기와 효과(또는 효과음)을 다르게 할 수 있다. In addition, the speed at which the fish gather or escape in accordance with the proximity of the finger is set differently according to the proximity speed of the finger. For example, if a finger is approaching quickly, the finger may quickly move away from the finger approaching position and not approach the finger approaching position. In this case, the vibration intensity and the effect (or sound effect) may be changed according to the movements of the individuals (animals, fish and others).

이후, 손가락이 대기화면으로부터 멀어져 근접터치 감지영역을 벗어나면 대기화면은 원래의 상태로 되돌아온다. Subsequently, when the finger moves away from the standby screen and leaves the proximity touch detection area, the standby screen returns to its original state.

도 11은 본 발명의 실시예에 따른 이동 단말기에서 근접 터치를 이용한 화면표시방법을 나타낸 흐름도이다. 도 11은 사용자가 특정 위치에 포인터를 가져가면 해당 위치에 숨겨졌던 메뉴 또는 아이콘이 표시되는 방법이다. 상기 포인터는 표시 화면의 특정 부분을 실제로 터치하거나 근접 터치하기 위한 도구, 즉 스타일러스 팬, 손가락 등을 포함한다. 상기 메뉴 또는 아이콘은 상기 포인터가 화면에 접근하는 거리에 따라 달라지는데, 보통 가까워질수록 많은 부분이 나타난다. 또한, 상기 메뉴 또는 아이콘은 포인터의 근점 속도에 따라 진동의 세기 또는 효과(또는 효과음)이 다르도록 할 수 있다.11 is a flowchart illustrating a screen display method using a proximity touch in a mobile terminal according to an embodiment of the present invention. 11 illustrates a method of displaying a hidden menu or icon at a location when the user moves the pointer to the location. The pointer includes a tool for actually touching or proximity touching a specific portion of the display screen, that is, a stylus fan, a finger, or the like. The menu or icon depends on the distance the pointer approaches the screen, which usually appears more and more as it gets closer. In addition, the menu or icon may cause the vibration intensity or effect (or sound effect) to vary according to the proximity speed of the pointer.

이동 단말기의 대기화면에 보다 많은 메뉴 또는 아바타를 나타낸다면 사용자가 원하는 메뉴 또는 아바타를 편리하게 선택할 수 있을 것이다. 하지만, 너무 많은 메뉴 또는 아바타를 표시하면 미관상 좋지 않기 때문에 일부 메뉴 또는 아바타는 필요할 경우에만 나타나도록 할 수 있다. If more menus or avatars are displayed on the idle screen of the mobile terminal, the user may conveniently select a desired menu or avatar. However, displaying too many menus or avatars is not aesthetically pleasing, so some menus or avatars can only appear when needed.

도 11에 도시된 바와같이, 포인터가 대기화면의 소정 위치에 근접하면, 제어 부(180)는 대기화면에서 근접 터치가 발생된 위치를 확인한다(S20,S21). 일단 근접 터치가 발생된 위치가 확인되면 제어부(180)는 해당 위치에 감추어 졌던 메뉴 또는 아바타를 대기화면에 표시한다(S22). 이때, 상기 메뉴 또는 아바타가 나타나는 속도는 근접속도에 비례한다. As shown in FIG. 11, when the pointer approaches a predetermined position of the idle screen, the controller 180 checks a position where the proximity touch is generated on the idle screen (S20 and S21). Once the location where the proximity touch is generated is checked, the controller 180 displays a menu or avatar hidden in the corresponding location on the standby screen (S22). In this case, the speed at which the menu or avatar appears is proportional to the proximity speed.

또한, 상기 메뉴 또는 아바타가 나타난 상태에서 포인터가 더욱 근접되면, 도 7~도 9에서 수행한 동작, 즉, 특정 메뉴 또는 아바타의 크기 또는 움직임을 제어한다든지, 진동 또는 출력음의 발생을 제어한다. In addition, when the pointer is closer in the state where the menu or avatar is displayed, the operation performed in FIGS. 7 to 9, that is, the size or movement of a specific menu or avatar is controlled, or the vibration or output sound is generated. .

도 12는 도 11에 도시된 방법을 수행하는 일 실시예를 나타내는 도면이다.12 is a diagram illustrating an embodiment of performing the method illustrated in FIG. 11.

도 12에 도시된 바와같이, 손가락이 대기화면의 소정 위치에 근접하면, 제어부(180)는 해당 위치에 감추어 졌던 메뉴 또는 아바타를 대기화면에 표시한다. 이때, 상기 메뉴 또는 아바타가 나타나는 속도는 근접속도에 비례한다. As shown in FIG. 12, when a finger approaches a predetermined position of the idle screen, the controller 180 displays a menu or avatar hidden in the corresponding position on the idle screen. In this case, the speed at which the menu or avatar appears is proportional to the proximity speed.

또한, 상기 메뉴 또는 아바타가 나타난 상태에서 포인터가 더욱 근접되면, 선택할 특정 메뉴 또는 아바타의 크기 또는 움직임을 제어한다든지, 진동 또는 출력음의 발생을 제어한다.In addition, when the pointer is closer in the state where the menu or avatar is displayed, the size or movement of the specific menu or avatar to be selected is controlled, or the vibration or output sound is generated.

이후, 손가락이 대기화면으로부터 멀어져 근접 터치 감지영역을 벗어나면(근접터치가 해제되면) 대기화면은 원래의 상태로 돌아온다.Subsequently, when the finger moves away from the standby screen to get out of the proximity touch sensing area (when the proximity touch is released), the standby screen returns to its original state.

본 발명은 대기화면에서 근접 위치(거리)와 근접 속도에 따라 아이콘, 아바타 및 메뉴의 동작방법(크기 움직임, 효과)을 제어하는 동작을 예로들어 설명하였지만, 이에 한정되지 않고 기타 다양한 단말기의 동작을 수행할 수 있다.The present invention has been described with reference to an operation of controlling an operation method (size movement and effect) of an icon, an avatar, and a menu according to a proximity position (distance) and a proximity speed on an idle screen, but is not limited thereto. Can be done.

또한, 본 발명의 실시예에 의하면, 근접 터치를 이용한 화면표시방법은, 프 로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 컴퓨터는, 단말기의 제어부(180)를 포함할 수도 있다.In addition, according to an embodiment of the present invention, the screen display method using the proximity touch can be implemented as computer readable codes on a medium in which a program is recorded. The computer-readable medium includes all kinds of recording devices in which data that can be read by a computer system is stored. Examples of computer-readable media include ROM, RAM, CD-ROM, magnetic tape, floppy disks, optical data storage devices, and the like, which are also implemented in the form of carrier waves (eg, transmission over the Internet). It also includes. In addition, the computer may include the controller 180 of the terminal.

상기와 같이 설명된 본 발명에 따른 이동 단말기는 상기 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.The mobile terminal according to the present invention as described above is not limited to the configuration and method of the embodiments described above, the embodiments of the present invention may be selectively all or part of each embodiment so that various modifications can be made It may be configured in combination.

도 1은 본 발명의 일 실시예에 관련된 이동 단말기의 블록 구성도.1 is a block diagram of a mobile terminal according to one embodiment of the present invention;

도 2는 본 발명의 일 실시예에 관련된 이동 단말기의 전면 사시도.2 is a front perspective view of a mobile terminal according to an embodiment of the present invention;

도 3은 본 발명의 일 실시예에 관련된 이동 단말기의 후면 사시도.3 is a rear perspective view of a mobile terminal according to one embodiment of the present invention;

도 4는 본 발명의 일 실시예에 관련된 이동 단말기가 동작할 수 있는 무선 통신 시스템에 대한 블록도.4 is a block diagram of a wireless communication system in which a mobile terminal according to an embodiment of the present invention may operate.

도 5는 본 발명에서 근접센서에 의해 감지되는 근접터치 감지영역을 다수의 근접 위치로 구분한 예.5 is an example of dividing a proximity touch detection area detected by a proximity sensor into a plurality of proximity positions in the present invention.

도 6은 도 6은 본 발명의 실시예에 따른 이동 단말기에서 근접 터치를 이용한 화면표시방법을 나타낸 흐름도.6 is a flowchart illustrating a screen display method using a proximity touch in a mobile terminal according to an embodiment of the present invention.

도 7은 도 6에 도시된 방법을 수행하는 일 실시예를 나타내는 도면.7 illustrates an embodiment of performing the method shown in FIG. 6.

도 8은 도 6에 도시된방법을 수행하는 다른 실시예를 나타내는 도면.8 illustrates another embodiment of performing the method shown in FIG. 6.

도 9는 도 6에 도시된 방법을 수행하는 또 다른 실시예를 나타내는 도면9 illustrates another embodiment of performing the method shown in FIG. 6.

도 10은 도 6에 도시된 방법을 수행하는 또 다른 실시예를 나타내는 도면.10 illustrates another embodiment of performing the method shown in FIG. 6.

도 11은 본 발명의 실시예에 따른 이동 단말기에서 근접 터치를 이용한 화면표시방법을 나타낸 흐름도.11 is a flowchart illustrating a screen display method using a proximity touch in a mobile terminal according to an embodiment of the present invention.

도 12는 도 11에 도시된 방법을 수행하는 일 실시예를 나타내는 도면.FIG. 12 illustrates an embodiment for performing the method shown in FIG. 11.

*******도면의 주요 부분에 대한 부호의 설명 *************** Description of the symbols for the main parts of the drawing ********

110 : 무선통신부 111 : 방송수신모듈110: wireless communication unit 111: broadcast receiving module

112 : 이동통신모듈 113 ; 무선인터넷모듈 112: mobile communication module 113; Wireless Internet Module

140 ; 센싱부 150 : 출력부 140; Sensing unit 150: output unit

151 : 디스플레이부 152 : 음향출력모듈151: display unit 152: sound output module

153 : 알람부 160 : 메모리153: alarm unit 160: memory

80 : 제어부80: control unit

Claims (11)

터치 스크린을 구비한 디스플레이부와;A display unit having a touch screen; 근접 터치를 감지하는 센싱부와;A sensing unit detecting a proximity touch; 센싱부에서 감지된 근접 거리에 따라 화면에 표시된 개체의 표시를 제어하는 제어부를 포함하는 것을 특징으로 하는 이동 단말기.And a controller for controlling the display of an object displayed on the screen according to the proximity distance detected by the sensing unit. 제1항에 있어서, 상기 화면은The method of claim 1, wherein the screen is 적어도 하나 이상의 아이콘 및 메뉴를 갖는 대기화면인 것을 특징으로 하는 이동 단말기.A mobile terminal comprising a standby screen having at least one icon and menu. 제1항에 있어서, 상기 화면은The method of claim 1, wherein the screen is 움직이는 형태의 애니메이션 또는 플래쉬로 이루어진 대기화면인 것을 특징으로 하는 이동 단말기.A mobile terminal, characterized in that the standby screen consisting of a moving animation or flash. 제1항에 있어서, 상기 개체는The method of claim 1, wherein the subject is 아이콘, 아바타, 메뉴형태로 표시되는 것을 특징으로 하는 이동 단말기.Mobile terminal, characterized in that displayed in the form of an icon, avatar, menu. 제1항에 있어서, 상기 개체의 표시는 The method of claim 1, wherein the indication of the subject is 개체의 크기, 이동속도, 움직임, 진동, 효과음을 포함하는 것을 특징으로 하 는 이동 단말기.Mobile terminal, characterized in that the size, movement speed, movement, vibration, sound effects. 제1항에 있어서, 상기 제어부는 The method of claim 1, wherein the control unit 근접거리 및 근접속도에 따라 개체의 표시를 다르게 제어하는 것을 특징으로 하는 이동 단말기.Mobile terminal, characterized in that for controlling the display of the object differently according to the proximity distance and the proximity speed. 제1항에 있어서, 상기 제어부는 The method of claim 1, wherein the control unit 대기화면의 소정 영역에 근접하면 해당 위치에 숨겨진 개체를 표시하는 것을 특징으로 하는 이동 단말기.The mobile terminal, characterized in that to display the object hidden in the location when the proximity to the predetermined area of the idle screen. 근접 터치를 감지하는 단계와;Detecting a proximity touch; 감지된 근접 거리 및 근접 속도에 따라 대기화면에 표시된 개체의 표시를 제어하는 단계를 포함하는 것을 특징으로 하는 이동 단말기의 화면표시 방법.And controlling the display of the object displayed on the standby screen according to the detected proximity distance and the proximity speed. 제8항에 있어서, 상기 개체는The method of claim 8, wherein the subject is 아이콘, 아바타, 메뉴형태로 표시되는 것을 특징으로 하는 이동 단말기의 화면표시 방법.The screen display method of the mobile terminal, characterized in that displayed in the form of an icon, avatar, menu. 제8항에 있어서, 상기 개체의 표시는 The method of claim 8, wherein the indication of the subject is 개체의 크기, 이동속도, 움직임, 진동, 효과음을 포함하는 것을 특징으로 하 는 이동 단말기의 화면표시 방법.Screen display method of the mobile terminal, characterized in that the size, movement speed, movement, vibration, sound effects. 제8항에 있어서, 상기 근접 터치된 영역을 확인하는 단계와;The method of claim 8, further comprising: identifying the proximity touched area; 근접거리에 따라 해당 영역에 숨겨진 메뉴 또는 아이콘을 표시하는 단계와;Displaying a menu or icon hidden in the corresponding area according to the proximity distance; 근접터치가 해제되면 대기화면을 원래의 상태로 만드는 단계를 더 포함하는 것을 특징으로 하는 이동 단말기의 화면표시 방법.If the proximity touch is released, the screen display method of the mobile terminal further comprising the step of making the standby screen to the original state.
KR1020080047125A 2008-05-20 2008-05-21 Mobile terminal using of proximity touch and wallpaper controlling method therefor KR101502002B1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020080047125A KR101502002B1 (en) 2008-05-21 2008-05-21 Mobile terminal using of proximity touch and wallpaper controlling method therefor
US12/468,796 US8576181B2 (en) 2008-05-20 2009-05-19 Mobile terminal using proximity touch and wallpaper controlling method thereof
EP09006851.1A EP2124138B1 (en) 2008-05-20 2009-05-20 Mobile terminal using proximity sensing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080047125A KR101502002B1 (en) 2008-05-21 2008-05-21 Mobile terminal using of proximity touch and wallpaper controlling method therefor

Publications (2)

Publication Number Publication Date
KR20090121033A true KR20090121033A (en) 2009-11-25
KR101502002B1 KR101502002B1 (en) 2015-03-12

Family

ID=41604187

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080047125A KR101502002B1 (en) 2008-05-20 2008-05-21 Mobile terminal using of proximity touch and wallpaper controlling method therefor

Country Status (1)

Country Link
KR (1) KR101502002B1 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011002414A2 (en) * 2009-06-29 2011-01-06 Razer (Asia-Pacific) Pte Ltd A user interface
KR20110075551A (en) * 2009-12-28 2011-07-06 엘지전자 주식회사 Method for operating 3d characters on mobile terminal
WO2013051785A1 (en) * 2011-10-06 2013-04-11 Samsung Electronics Co., Ltd. Method and apparatus for determining input
CN103460175A (en) * 2011-01-31 2013-12-18 纳米技术方案公司 Three-dimensional man/machine interface
KR101456834B1 (en) * 2014-03-28 2014-11-04 모젼스랩(주) Apparatus and method for interface sensing of touch speed
WO2016085253A1 (en) * 2014-11-27 2016-06-02 Samsung Electronics Co., Ltd. Screen configuration method, electronic device, and storage medium
CN108253634A (en) * 2018-01-12 2018-07-06 广东顺德圣堡莱热能科技有限公司 A kind of touch device for wall-hung boiler and with its wall-hung boiler
KR20190009846A (en) * 2016-06-21 2019-01-29 삼성전자주식회사 Remote hover touch system and method
WO2021125899A1 (en) * 2019-12-18 2021-06-24 삼성전자 주식회사 Reaction time reduction method based on non-touch event, and electronic device supporting same
US11061544B2 (en) 2015-10-19 2021-07-13 Samsung Electronics Co., Ltd Method and electronic device for processing input
CN115309302A (en) * 2021-05-06 2022-11-08 阿里巴巴新加坡控股有限公司 Icon display method, device, program product and storage medium

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100636184B1 (en) * 2004-10-13 2006-10-19 삼성전자주식회사 Location control method and apparatus therefor of display window displayed in display screen of information processing device
JP4479962B2 (en) * 2005-02-25 2010-06-09 ソニー エリクソン モバイル コミュニケーションズ, エービー Input processing program, portable terminal device, and input processing method
KR20080029028A (en) * 2006-09-28 2008-04-03 삼성전자주식회사 Method for inputting character in terminal having touch screen
KR100823870B1 (en) * 2007-10-04 2008-04-21 주식회사 자티전자 Automatic power saving system and method of the portable device which uses the proximity sensor

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011002414A3 (en) * 2009-06-29 2011-04-21 Razer (Asia-Pacific) Pte Ltd A user interface
KR101453628B1 (en) * 2009-06-29 2014-10-21 레이저 (아시아-퍼시픽) 피티이 엘티디 A user interface
WO2011002414A2 (en) * 2009-06-29 2011-01-06 Razer (Asia-Pacific) Pte Ltd A user interface
KR20110075551A (en) * 2009-12-28 2011-07-06 엘지전자 주식회사 Method for operating 3d characters on mobile terminal
CN103460175A (en) * 2011-01-31 2013-12-18 纳米技术方案公司 Three-dimensional man/machine interface
US9495536B2 (en) 2011-10-06 2016-11-15 Samsung Electronics Co., Ltd Method and apparatus for determining input
WO2013051785A1 (en) * 2011-10-06 2013-04-11 Samsung Electronics Co., Ltd. Method and apparatus for determining input
KR20130037436A (en) * 2011-10-06 2013-04-16 삼성전자주식회사 Method and apparatus for determining input
KR101456834B1 (en) * 2014-03-28 2014-11-04 모젼스랩(주) Apparatus and method for interface sensing of touch speed
WO2016085253A1 (en) * 2014-11-27 2016-06-02 Samsung Electronics Co., Ltd. Screen configuration method, electronic device, and storage medium
US11442580B2 (en) 2014-11-27 2022-09-13 Samsung Electronics Co., Ltd. Screen configuration method, electronic device, and storage medium
US11061544B2 (en) 2015-10-19 2021-07-13 Samsung Electronics Co., Ltd Method and electronic device for processing input
KR20190009846A (en) * 2016-06-21 2019-01-29 삼성전자주식회사 Remote hover touch system and method
US10852913B2 (en) 2016-06-21 2020-12-01 Samsung Electronics Co., Ltd. Remote hover touch system and method
CN108253634A (en) * 2018-01-12 2018-07-06 广东顺德圣堡莱热能科技有限公司 A kind of touch device for wall-hung boiler and with its wall-hung boiler
WO2021125899A1 (en) * 2019-12-18 2021-06-24 삼성전자 주식회사 Reaction time reduction method based on non-touch event, and electronic device supporting same
CN115309302A (en) * 2021-05-06 2022-11-08 阿里巴巴新加坡控股有限公司 Icon display method, device, program product and storage medium

Also Published As

Publication number Publication date
KR101502002B1 (en) 2015-03-12

Similar Documents

Publication Publication Date Title
US11320959B2 (en) Mobile terminal and method of controlling the same
US10042534B2 (en) Mobile terminal and method to change display screen
US9430082B2 (en) Electronic device for executing different functions based on the touch patterns using different portions of the finger and control method thereof
US8774869B2 (en) Mobile terminal and control method thereof
KR101502002B1 (en) Mobile terminal using of proximity touch and wallpaper controlling method therefor
US9665268B2 (en) Mobile terminal and control method thereof
US8103296B2 (en) Mobile terminal and method of displaying information in mobile terminal
US10042596B2 (en) Electronic device and method for controlling the same
KR20090100933A (en) Mobile terminal and screen displaying method thereof
KR101558207B1 (en) Mobile Terminal And Method Of Setting Items Using The Same
KR20100010860A (en) Mobile terminal and event control method thereof
KR20100020333A (en) Mobile terminal and method for transmission information thereof
KR20100007625A (en) Mobile terminal and method for displaying menu thereof
KR20100010297A (en) Method for displaying menu of mobile terminal
KR20100042543A (en) Mobile terminal having input device with touch sensor and control method thereof
US20140075355A1 (en) Mobile terminal and control method thereof
KR101448641B1 (en) Mobile terminal and method of executing function therein
KR20090117025A (en) Mobile terminal and method of notifying information therein
KR20090108859A (en) Mobile terminal and method of composing menu therein
KR20090120774A (en) Mobile terminal and method of calibration sensitivity of proximity touch therefor
KR101498091B1 (en) a mobile telecommunication device and a method of controlling the display using the same
KR20090119410A (en) Mobile terminal and method of displaying screen therein
KR20090112899A (en) Mobile terminal and method of executing application therein
KR20090112454A (en) A mobile telecommunication device and a method of controlling characters relatively using the same
KR20090119543A (en) Mobile terminal using promixity touch and information input method therefore

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180223

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20200224

Year of fee payment: 6