KR20140064089A - 근접 터치 입력을 통한 사용자 인터페이스 제공 방법 및 장치 - Google Patents

근접 터치 입력을 통한 사용자 인터페이스 제공 방법 및 장치 Download PDF

Info

Publication number
KR20140064089A
KR20140064089A KR1020120131020A KR20120131020A KR20140064089A KR 20140064089 A KR20140064089 A KR 20140064089A KR 1020120131020 A KR1020120131020 A KR 1020120131020A KR 20120131020 A KR20120131020 A KR 20120131020A KR 20140064089 A KR20140064089 A KR 20140064089A
Authority
KR
South Korea
Prior art keywords
function
icon
recommendation
displaying
input
Prior art date
Application number
KR1020120131020A
Other languages
English (en)
Inventor
김태연
박현미
전진영
오세기
이재명
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020120131020A priority Critical patent/KR20140064089A/ko
Priority to EP13192789.9A priority patent/EP2733595A3/en
Priority to US14/079,023 priority patent/US20140143698A1/en
Priority to CN201310583550.6A priority patent/CN103823609A/zh
Publication of KR20140064089A publication Critical patent/KR20140064089A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

근접 터치 입력을 통한 사용자 인터페이스 제공 방법에 있어서, 입력 수단의 근접 터치 입력 시, 미리 설정된 기준에 따라, 다수의 기능 중 적어도 하나를 선택하는 과정과; 상기 선택한 기능에 대응되는 아이콘을 추천아이콘으로서 디스플레이하는 과정과; 상기 추천아이콘 중 선택된 추천아이콘에 대응되는 기능을 실행하는 과정을 포함함을 특징으로 한다.

Description

근접 터치 입력을 통한 사용자 인터페이스 제공 방법 및 장치{METHOD AND APPARATUS FOR PROVIDING USER INTERFACE THROUGH PROXIMITY TOUCH INPUT}
본 발명은 터치스크린을 구비한 모바일 장치에서의 사용자 인터페이스 환경을 제공하는 기술에 관한 것으로서, 특히 전자펜 또는 사용자의 손 등의 입력 수단의 호버링(Hovering) 인식 가능한 모바일 장치에서의 근접 터치 입력을 통한 사용자 인터페이스(User Interface) 제공 방법 및 장치에 관한 것이다.
최근, 스마트폰 및 태블릿 PC 등과 같은 모바일 장치에서 제공하는 다양한 서비스 및 부가 기능들이 점차 확대되고 있다. 이러한 모바일 장치의 효용 가치를 높이고 사용자들의 다양한 욕구를 만족시키기 위해서 모바일 장치에서 실행 가능한 다양한 기능들이 개발되고 있다.
또한 최근의 대부분의 모바일 장치는 터치스크린을 구비하여, 사용자의 손가락이나 전자펜을 이용한 터치 입력 방식을 제공하고 있다. 이때의 터치 입력 방식에는 사용자의 신체 또는 터치 가능한 입력 수단과의 접촉에 의한 터치 입력 방식과, 호버링(Hovering)과 같은 비접촉 상태로의 입력 방식이 가능하며, 이와 같은 터치 입력 방식은 편리한 사용자 인터페이스를 제공한다.
터치 입력 방식을 적용한 종래 기술로는 국내공개특허 제 2010-0001601호(명칭; ”근접 터치 감지 기능을 갖는 휴대 단말기”, 발명자; 구자훈 외 1명, 출원인; 엘지전자주식회사, 공개일; 2010년 01월 06일)가 있다.
국내공개특허 제 2010-0001601호는 입력 매체(손가락 또는 터치 패드 상의 터치 입력 인식이 가능한 모든 물체)의 근접 터치를 감지하여 근접 터치에 해당하는 이미지 객체의 세부 메뉴를 디스플레이하는 기술을 개시하였다.
이와 같이, 터치 입력과 관련된 기술들이 많이 개발되어 이용되고 있다. 또한 터치스크린의 수요 증가에 따라, 다양한 터치 입력 기술의 연구가 꾸준히 이루어지고 있다. 또한 터치스크린의 사용에 있어서, 이전보다 간편한 조작을 원하는 사용자의 요구 및 터치 입력에 대한 사용자들의 기대치가 증가함에 따라, 향상된 터치 입력 기술의 개발을 위해 관련 기술의 연구가 활발하게 진행되고 있다.
따라서, 본 발명의 목적은 터치스크린을 구비한 모바일 장치에서의 근접 터치 입력 시, 사용자 인터페이스를 간단하게 조작할 수 있도록 하기 위한 전자펜 또는 사용자의 손 등의 입력 수단을 이용한 근접 터치 입력을 통한 사용자 인터페이스 제공 방법 및 장치를 제공함에 있다.
상기한 목적을 달성하기 위하여 본 발명은 일 견지에 따르면, 근접 터치 입력을 통한 사용자 인터페이스 제공 방법에 있어서, 전자펜 또는 사용자의 손 등의 입력 수단의 근접 터치 입력 시, 미리 설정된 기준에 따라, 다수의 기능 중 적어도 하나를 선택하는 과정과; 상기 선택한 기능에 대응되는 아이콘을 추천아이콘으로서 디스플레이하는 과정과; 상기 추천아이콘 중 선택된 추천아이콘에 대응되는 기능을 실행하는 과정을 포함함을 특징으로 한다.
본 발명의 다른 견지에 따르면, 근접 터치 입력을 통한 사용자 인터페이스 제공 장치에 있어서, 사용자의 조작을 입력 받으며, 응용 프로그램의 실행 영상과 동작 상태 및 메뉴 상태를 디스플레이하는 터치스크린과; 상기 터치스크린을 제어하며, 상기 터치스크린에서의 전자펜 또는 사용자의 손 등의 입력 수단의 근접 터치 입력 시, 미리 설정된 기준에 따라 다수의 기능 중 적어도 하나를 선택하는 동작과, 상기 선택한 기능에 대응되는 아이콘을 추천아이콘으로서 디스플레이 하는 동작과, 상기 추천아이콘 중 선택된 추천아이콘에 대응되는 기능을 실행하는 동작을 제어하는 제어부를 포함함을 특징으로 한다.
상기한 바와 같이, 본 발명에 따른 근접 터치 입력을 통한 사용자 인터페이스 제공 방법 및 장치를 사용함으로써, 모바일 장치에 근접 터치가 입력되면, 모바일 장치에서 자주 사용하는 기능의 메뉴를 디스플레이하거나, 또는 실행 중인 메뉴와 관련 있는 기능의 메뉴를 디스플레이하는 등, 모바일 장치의 주요 기능의 메뉴를 디스플레이하여, 사용자가 간편하게 모바일 장치의 기능을 선택하고 실행 할 수 있도록 한다.
도 1은 본 발명의 일 실시예에 따른 모바일 장치의 블록 구성도
도 2는 본 발명의 제 1 실시예에 따른 전자펜을 이용한 사용자 인터페이스 제공 동작 흐름도
도 3은 본 발명의 제 1 실시예에 따른 미리 설정된 기능에 대응되는 아이콘 디스플레이 화면의 예시도
도 4는 본 발명의 제 2 실시예에 따른 미리 설정된 기능에 대응되는 아이콘 디스플레이 화면의 예시도
도 5는 본 발명의 제 3 실시예에 따른 미리 설정된 기능에 대응되는 아이콘 디스플레이 화면의 예시도
도 6은 본 발명의 제 4 실시예에 따른 미리 설정된 기능에 대응되는 아이콘 디스플레이 화면의 예시도
도 7은 본 발명의 일 실시예에 따른 미리 설정된 기능에 대응되는 아이콘 관련 설명의 디스플레이 화면의 예시도
도 8은 본 발명의 일 실시예에 따른 미리 설정된 기능에 대응되는 아이콘 선택 화면 예시도
도 9는 본 발명의 제 2 실시예에 따른 전자펜을 이용한 사용자 인터페이스 제공 동작 흐름도
도 10은 도 9의 일 실시예에 따른 자주 사용한 기능의 목록을 나타낸 예시도
도 11은 본 발명의 제 3 실시예에 따른 전자펜을 이용한 사용자 인터페이스 제공 동작 흐름도
도 12는 도 11의 일 실시예에 따른 애플리케이션 관련 기능의 목록을 나타낸 예시도
이하 본 발명에 따른 바람직한 실시예를 첨부한 도면을 참조하여 상세히 설명한다. 하기 설명에서는 구체적인 구성 소자, 명칭 등과 같은 특정 사항들이 나타나고 있는데 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐 이러한 특정 사항들이 본 발명의 범위 내에서 소정의 변형이나 혹은 변경이 이루어질 수 있음은 이 기술 분야에서 통상의 지식을 가진 자에게는 자명하다 할 것이다.
도 1은 본 발명의 일 실시예에 따른 모바일 장치의 블록 구성도이다.
도 1을 참조하면, 모바일 장치(100)는 표시부(190) 및 디스플레이 컨트롤러(195)를 포함한다. 또한, 모바일 장치(100)는 제어부(110), 이동통신 모듈(120), 서브통신 모듈(130), 멀티미디어 모듈(140), 카메라 모듈(150), GPS모듈(155), 입/출력 모듈(160), 센서 모듈(170), 저장부(175) 및 전원공급부(180)를 포함한다. 서브통신 모듈(130)은 무선랜 모듈(131) 및 근거리통신 모듈(132) 중 적어도 하나를 포함하고, 멀티미디어 모듈(140)은 방송통신 모듈(141), 오디오재생 모듈(142) 및 동영상재생 모듈(143) 중 적어도 하나를 포함한다. 카메라 모듈(150)은 제1 카메라(151) 및 제2 카메라(152) 중 적어도 하나를 포함하고, 입/출력 모듈(160)은 버튼(161), 마이크(162), 스피커(163), 진동모터(164), 커넥터(165), 및 키패드(166) 중 적어도 하나를 포함한다. 이하에서는 상기 표시부(190) 및 디스플레이 컨트롤러(195)가 각각 터치스크린 및 터치스크린 컨트롤러인 경우를 예로 들어 설명한다.
제어부(110)는 이동통신 모듈(120), 서브통신 모듈(130), 멀티미디어 모듈(140), 카메라 모듈(150), GPS 모듈(155), 입/출력 모듈(160), 센서 모듈(170), 저장부(175), 전원공급부(180), 터치스크린(190), 및 터치스크린 컨트롤러(195)를 제어할 수 있다. 또한 제어부(111)는 터치스크린(190)에서의 입력 수단의 근접 터치 입력 시, 미리 설정된 기준에 따라 다수의 기능 중 적어도 하나를 선택하는 동작을 제어하며, 이때의 입력 수단은, 손가락과 같은 사용자 신체의 일부 일 수 있으며, 또한 전자펜(105) 등의 터치 가능한 입력 수단일 수 있다. 또한 제어부(111)는 선택한 기능에 대응되는 아이콘을 추천아이콘으로서 디스플레이 하는 동작, 및 추천아이콘 중 선택된 추천아이콘에 대응되는 기능을 실행하는 동작을 제어한다.
이동통신 모듈(120)은 제어부(110)의 제어에 따라 적어도 하나 또는 복수의 안테나(도시되지 아니함)를 이용하여 이동 통신을 통해 모바일 장치(100)가 외부 장치와 연결되도록 한다. 이동통신 모듈(120)은 모바일 장치(100)에 입력되는 전화번호를 가지는 휴대폰(도시되지 아니함), 스마트폰(도시되지 아니함), 태블릿PC 또는 다른 장치(도시되지 아니함)와 음성 통화, 화상 통화, 문자메시지(SMS) 또는 멀티미디어 메시지(MMS)를 위한 무선 신호를 송/수신한다.
서브통신 모듈(130)은 무선랜 모듈(131)과 근거리통신 모듈(132) 중 적어도 하나를 포함할 수 있다.
무선랜 모듈(131)은 제어부(110)의 제어에 따라 무선 액세스 포인트(AP, access point)(도시되지 아니함)가 설치된 장소에서 인터넷에 연결될 수 있다. 무선랜 모듈(131)은 미국전기전자학회(IEEE)의 무선랜 규격(IEEE802.11x)을 지원한다. 근거리통신 모듈(132)은 제어부(110)의 제어에 따라 모바일 장치(100)와 화상형성장치(도시되지 아니함) 사이에 무선으로 근거리 통신을 할 수 있다.
모바일 장치(100)는 성능에 따라 이동통신 모듈(120), 무선랜 모듈(131), 및 근거리통신 모듈(132) 중 적어도 하나를 포함할 수 있다. 예를 들어, 모바일 장치(100)는 성능에 따라 이동통신 모듈(120), 무선랜 모듈(131), 및 근거리통신 모듈(132)들의 조합을 포함할 수 있다.
멀티미디어 모듈(140)은 방송통신 모듈(141), 오디오재생 모듈(142) 또는 동영상재생 모듈(143)을 포함할 수 있다. 방송통신 모듈(141)은 제어부(110)의 제어에 따라 방송통신 안테나(도시되지 아니함)를 통해 방송국에서부터 송출되는 방송 신호(예, TV방송 신호, 라디오방송 신호 또는 데이터방송 신호) 및 방송부가 정보(예, EPS(Electric Program Guide) 또는 ESG(Electric Service Guide))를 수신할 수 있다. 오디오재생 모듈(142)은 제어부(110)의 제어에 따라 저장되거나 또는 수신되는 디지털 오디오 파일(예, 파일 확장자가 mp3, wma, ogg 또는 wav인 파일)을 재생할 수 있다. 동영상재생 모듈(143)은 제어부(110)의 제어에 따라 저장되거나 또는 수신되는 디지털 동영상 파일(예, 파일 확장자가 mpeg, mpg, mp4, avi, mov, 또는 mkv인 파일)을 재생할 수 있다. 동영상재생 모듈(143)은 디지털 오디오 파일을 재생할 수 있다.
멀티미디어 모듈(140)은 방송통신 모듈(141)을 제외하고 오디오재생 모듈(142)과 동영상재생 모듈(143)을 포함할 수 있다. 또한, 멀티미디어 모듈(140)의 오디오재생 모듈(142) 또는 동영상재생 모듈(143)은 제어부(110)에 포함될 수 있다.
카메라 모듈(150)은 제어부(110)의 제어에 따라 정지이미지 또는 동영상을 촬영하는 제1 카메라(151) 및 제2 카메라(152) 중 적어도 하나를 포함할 수 있다.
GPS 모듈(155)은 지구 궤도상에 있는 복수의 GPS위성(도시되지 아니함)에서부터 전파를 수신하고, GPS위성(도시되지 아니함)에서부터 모바일 장치(100)까지 전파도달시간(Time of Arrival)을 이용하여 모바일 장치(100)의 위치를 산출할 수 있다.
입/출력 모듈(160)은 복수의 버튼(161), 마이크(162), 스피커(163), 진동모터(164), 커넥터(165), 및 키패드(166) 중 적어도 하나를 포함할 수 있다.
버튼(161)은 상기 모바일 장치(100)의 하우징의 전면, 측면 또는 후면에 형성될 수 있으며, 전원/잠금 버튼(도시되지 아니함), 볼륨버튼(도시되지 아니함), 메뉴 버튼, 홈 버튼, 돌아가기 버튼(back button) 및 검색 버튼(161) 중 적어도 하나를 포함할 수 있다.
마이크(162)는 제어부(110)의 제어에 따라 음성(voice) 또는 사운드(sound)를 입력 받아 전기적인 신호를 생성한다.
스피커(163)는 제어부(110)의 제어에 따라 이동통신 모듈(120), 서브통신 모듈(130), 멀티미디어 모듈(140) 또는 카메라 모듈(150)의 다양한 신호(예, 무선신호, 방송신호, 디지털 오디오 파일, 디지털 동영상 파일 또는 사진 촬영 등)에 대응되는 사운드를 모바일 장치(100) 외부로 출력할 수 있다. 스피커(163)는 모바일 장치(100)가 수행하는 기능에 대응되는 사운드(예, 전화 통화에 대응되는 버튼 조작음, 또는 통화 연결음)를 출력할 수 있다. 스피커(163)는 상기 모바일 장치(100)의 하우징의 적절한 위치 또는 위치들에 하나 또는 복수로 형성될 수 있다.
진동모터(164)는 제어부(110)의 제어에 따라 전기적 신호를 기계적 진동으로 변환할 수 있다. 예를 들어, 진동 모드에 있는 모바일 장치(100)는 다른 장치(도시되지 아니함)로부터 음성통화가 수신되는 경우, 진동모터(164)가 동작한다. 상기 모바일 장치(100)의 하우징 내에 하나 또는 복수로 형성될 수 있다. 진동모터(164)는 터치스크린(190) 상을 터치하는 사용자의 터치 동작 및 터치스크린(190) 상에서의 터치의 연속적인 움직임에 응답하여 동작할 수 있다.
커넥터(165)는 상기 모바일 장치(100)와 외부 장치(도시되지 아니함) 또는 전원소스(도시되지 아니함)를 연결하기 위한 인터페이스로 이용될 수 있다. 상기 모바일 장치(100)는 제어부(110)의 제어에 따라 커넥터(165)에 연결된 유선 케이블을 통해 모바일 장치(100)의 저장부(175)에 저장된 데이터를 외부 장치(도시되지 아니함)로 전송하거나 또는 외부 장치(도시되지 아니함)로부터 데이터를 수신할 수 있다. 또한 상기 모바일 장치(100)는 커넥터(165)에 연결된 유선 케이블을 통해 전원소스(도시되지 아니함)로부터 전원을 입력받거나, 상기 전원소스를 이용하여 배터리(도시되지 아니함)를 충전할 수 있다.
키패드(166)는 모바일 장치(100)의 제어를 위해 사용자로부터 키 입력을 수신할 수 있다. 키패드(166)는 모바일 장치(100)에 형성되는 물리적인 키패드(도시되지 아니함) 또는 터치스크린(190)에 표시되는 가상의 키패드(도시되지 아니함)를 포함한다. 모바일 장치(100)에 형성되는 물리적인 키패드(도시되지 아니함)는 모바일 장치(100)의 성능 또는 구조에 따라 제외될 수 있다.
이어폰 연결잭(Earphone Connecting Jack, 167)에는 이어폰(도시되지 아니함)이 삽입되어 상기 모바일 장치(100)에 연결될 수 있다.
센서 모듈(170)은 모바일 장치(100)의 상태를 검출하는 적어도 하나의 센서를 포함한다. 예를 들어, 센서모듈(170)은 사용자의 모바일 장치(100)에 대한 접근여부를 검출하는 근접센서, 모바일 장치(100) 주변의 빛의 양을 검출하는 조도센서(도시되지 아니함), 또는 모바일 장치(100)의 동작(예, 모바일 장치(100)의 회전, 모바일 장치(100)에 가해지는 가속도 또는 진동)을 검출하는 모션센서(도시되지 아니함), 지구 자기장을 이용해 방위(point of the compass)를 검출하는 지자기 센서(Geo-magnetic Sensor, 도시되지 아니함), 중력의 작용 방향을 검출하는 중력 센서(Gravity Sensor), 대기의 압력을 측정하여 고도를 검출하는 고도계(Altimeter)를 포함할 수 있다. 적어도 하나의 센서는 상태를 검출하고, 검출에 대응되는 신호를 생성하여 제어부(110)로 전송할 수 있다. 센서모듈(170)의 센서는 모바일 장치(100)의 성능에 따라 추가되거나 삭제될 수 있다.
저장부(175)는 제어부(110)의 제어에 따라 이동통신 모듈(120), 서브통신 모듈(130), 멀티미디어 모듈(140), 카메라 모듈(150), GPS모듈(155), 입/출력 모듈(160), 센서 모듈(170), 터치스크린(190)의 동작에 대응되게 입/출력되는 신호 또는 데이터를 저장할 수 있다. 저장부(175)는 모바일 장치(100) 또는 제어부(110)의 제어를 위한 제어 프로그램 및 어플리케이션들을 저장할 수 있다.
"저장부"라는 용어는 저장부(175), 제어부(110)내 롬(112), 램(113) 또는 모바일 장치(100)에 장착되는 메모리 카드(도시되지 아니함)(예, SD 카드, 메모리 스틱)를 포함한다. 저장부는 비휘발성메모리, 휘발성메모리, 하드 디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD)를 포함할 수 있다.
전원공급부(180)는 제어부(110)의 제어에 따라 모바일 장치(100)의 하우징에 배치되는 하나 또는 복수의 배터리(도시되지 아니함)에 전원을 공급할 수 있다. 하나 또는 복수의 배터리(도시되지 아니함)는 모바일 장치(100)에 전원을 공급한다. 또한, 전원공급부(180)는 커넥터(165)와 연결된 유선 케이블을 통해 외부의 전원소스(도시되지 아니함)에서부터 입력되는 전원을 모바일 장치(100)로 공급할 수 있다. 또한, 전원공급부(180)는 무선 충전 기술을 통해 외부의 전원소스로부터 무선으로 입력되는 전원을 모바일 장치(100)로 공급할 수도 있다.
터치스크린(190)은 사용자의 조작을 입력받으며, 응용 프로그램의 실행 영상과 동작 상태 및 메뉴 상태를 디스플레이할 수 있다. 즉, 터치스크린(190)은 사용자에게 다양한 서비스(예, 통화, 데이터 전송, 방송, 사진촬영)에 대응되는 유저인터페이스를 제공할 수 있다. 터치스크린(190)은 유저인터페이스에 입력되는 적어도 하나의 터치에 대응되는 아날로그 신호를 터치스크린 컨트롤러(195)로 전송할 수 있다. 터치스크린(190)은 사용자의 신체(예, 엄지를 포함하는 손가락) 또는 전자펜(105)과 같은 터치가능한 입력 수단(예, 스타일러스 펜)을 통해 적어도 하나의 터치를 입력받을 수 있다. 또한, 터치스크린(190)은 적어도 하나의 터치 중에서, 하나의 터치의 연속적인 움직임을 입력받을 수 있다. 터치스크린(190)은 입력되는 터치의 연속적인 움직임에 대응되는 아날로그 신호를 터치스크린 컨트롤러(195)로 전송할 수 있다.
또한, 본 발명에서 터치는 터치스크린(190)과 사용자의 신체 또는 터치 가능한 입력 수단과의 직접적인 접촉에 한정되지 않고, 비접촉(근접 터치)을 포함할 수 있다. 터치스크린(190)에서 검출 가능한 간격은 모바일 장치(100)의 성능 또는 구조에 따라 변경될 수 있으며, 특히 터치스크린(190)은 사용자의 신체 또는 터치 가능한 입력 수단과의 접촉에 의한 터치 이벤트와, 비접촉 상태로의 입력(예컨대, 호버링(Hovering)) 이벤트를 구분하여 검출 가능하도록, 상기 터치 이벤트와 호버링 이벤트에 의해 검출되는 값(예컨대, 전류값 등)이 다르게 출력될 수 있도록 구성된다. 또한, 터치스크린(190)은 호버링 이벤트가 발생되는 공간과 터치스크린(190) 사이의 거리에 따라, 검출되는 값(예컨대, 전류값 등)을 다르게 출력하는 것이 바람직하다.
터치스크린(190)은 예를 들어, 저항막(resistive) 방식, 정전용량(capacitive) 방식, 적외선(infrared) 방식 또는 초음파(acoustic wave) 방식으로 구현될 수 있다.
한편, 터치스크린 컨트롤러(195)는 터치스크린(190)에서부터 수신된 아날로그 신호를 디지털 신호(예, X와 Y좌표)로 변환하여 제어부(110)로 전송한다. 제어부(110)는 터치스크린 컨트롤러(195)로부터 수신된 디지털 신호를 이용하여 터치스크린(190)을 제어할 수 있다. 예를 들어, 제어부(110)는 터치 이벤트 또는 호버링 이벤트에 응답하여 터치스크린(190)에 표시된 단축 아이콘(도시되지 아니함)이 선택되게 하거나 또는 단축 아이콘(도시되지 아니함)을 실행할 수 있다. 또한, 터치스크린 컨트롤러(195)는 제어부(110)에 포함될 수도 있다.
또한, 터치스크린 컨트롤러(195)는 터치스크린(190)을 통해 출력되는 값(예컨대, 전류값 등)을 검출하여 호버링 이벤트가 발생되는 공간과 터치스크린(190) 사이의 거리를 확인할 수 있고, 확인된 거리 값을 디지털 신호(예컨대, Z좌표)로 변환하여 제어부(110)로 제공할 수 있다.
또한, 터치스크린(190)은 사용자의 신체 및 터치 가능한 입력 수단에 의한 입력을 동시에 입력받을 수 있도록, 사용자의 신체 및 터치 가능한 입력 수단의 터치나 근접을 각각 감지할 수 있는 적어도 두 개의 터치스크린 패널을 포함할 수 있다. 상기 적어도 두 개의 터치스크린 패널은 서로 다른 출력값을 터치스크린 컨트롤러(195)에 제공하고, 터치스크린 컨트롤러(195)는 상기 적어도 두 개의 터치스크린 패널에서 입력되는 값을 서로 다르게 인식하여, 터치스크린(190)으로부터의 입력이 사용자의 신체에 의한 입력인지, 터치 가능한 입력 수단에 의한 입력인지를 구분할 수 있다.
본 발명의 실시예에서는 호버링 이벤트를 위한 근접 터치의 입력 수단이 전자펜인 경우를 예로 들어 설명한다.
도 2는 본 발명의 제 1 실시예에 따른 전자펜을 이용한 사용자 인터페이스 제공 동작의 흐름도이다. 도 2는 전자펜에 의한 근접 터치 입력의 발생 시, 모바일 장치(100)에 설정되어 있는 다수의 기능 중 적어도 하나를 선택하며, 선택한 기능에 대응되는 아이콘을 추천아이콘으로서 디스플레이하며, 추천아이콘 중 선택된 추천아이콘에 대응되는 기능을 실행하는 과정을 설명한 것이다. 이때의 기능은 텍스트 작성 기능, 화면의 확대/축소 기능, 실행 화면의 종료 기능, 특정 아이콘의 삭제 기능 등과 같이 모바일 장치(100)가 포함하고 있는 다양한 기능 중 하나 이상의 기능 일 수 있다. 또한 기능은 기록된 기능의 사용 빈도 및/또는 애플리케이션의 종류와 같이 미리 설정된 기준을 고려하여 선택될 수 있다.
도 2를 참조하면, 먼저 201 단계에서는 입력한 전자펜의 근접 터치에 따라 펜 호버링(hovering)을 인식한다. 이때의 호버링을 인식하는 거리는 사용자 조작에 의해 변경될 수 있다. 예를 들어 야간에는 주간보다 좀 더 먼 거리의 근접 정도를 인식할 수 있도록 사용자의 조작에 의해 호버링 인식 거리를 변경할 수 있다.
이후 203 단계에서는 인식한 펜 호버링을 반영하여, 기능 목록을 로드(load) 한다. 이때의 기능 목록은 터치스크린(190)을 구비한 모바일 장치(100)에 존재하는 기능 중에서 사용자의 편의를 위해 모바일 장치(100)에 존재하는 기능을 목록화한 것으로서, 전자펜의 근접 터치 입력 시, 기능 목록이 로드된다. 또한 기능 목록은 하나 또는 하나 이상의 기능이 목록화 된 것일 수 있다. 또한 기능 목록은 모바일 장치의 제조 시에 설정되어 제조될 수 있으며, 사용자의 설정에 따라서도 변경될 수 있다. 또한 기능 목록은 빈자리 영역의 크기에 따라 기능 목록에 포함되는 기능의 개수가 설정될 수도 있다.
이후 205 단계에서는 203 단계에서 로드한 기능 목록의 각 기능에 대응되는 각각의 아이콘을 추천아이콘으로서, 미리 설정된 영역에 디스플레이한다.
도 3을 참조하면, 모바일 장치(100)의 어느 한 동작이 실행 중인 경우, 전자펜의 호버링이 인식되면 상기 추천아이콘(i1)을 미리 설정된 영역에 디스플레이할 수 있다. 예를 들어서, 도 3의 (a)에 도시된 바와 같이 이메일을 작성 중인 경우와, 도 3의 (b)에 도시된 바와 같이 텍스트 메시지를 통하여 다른 사용자와 커뮤니케이션 중인 경우, 및 도 3의 (c)에 도시된 바와 같이 특정 문자를 입력 중인 경우 등과 같이, 모바일 장치(100)의 어느 한 동작의 수행 중에 펜의 호버링이 인식되면, 미리 설정된 영역에 추천아이콘(i1)을 디스플레이할 수 있다.
또한 디스플레이되는 추천아이콘(i1)의 개수는 하나 또는 그 이상일 수 있다. 기능 목록의 기능이 여러 개일 경우, 도 4에 도시된 바와 같이, 각 기능에 대응되는 각각의 추천아이콘(i1)을 미리 설정된 영역에 각각 디스플레이할 수 있다. 이때의 미리 설정된 영역은 디스플레이 화면 전체의 어느 한 부분일 수 있으며, 디스플레이 화면의 외곽 부분의 상단이나 하단 또는 좌측이나 우측일 수도 있다.
또한 추천아이콘(i1)을 디스플레이할 때, 이전에 미리 디스플레이되어 있는 다른 메뉴 항목 또는 아이콘과 겹치도록 디스플레이할 수 있으며, 또한 미리 디스플레이되어 있는 다른 메뉴 항목 또는 아이콘과 겹치지 않는 영역을 검색하여, 추천아이콘(i1)을 디스플레이할 수 있다.
또한 복수 개의 기능에 대응되는 각각의 추천아이콘(i1)이 존재하는 경우에는, 디스플레이할 추천아이콘(i1)의 개수를 결정하여 미리 디스플레이되어 있는 다른 메뉴 항목과 겹치지 않는 영역에 각각의 추천아이콘(i1)을 디스플레이할 수 있다. 즉, 전체 디스플레이 영역에서 빈 영역의 크기를 고려하여, 빈 영역에 디스플레이할 추천아이콘(i1)의 개수를 결정하며, 결정한 추천아이콘(i1)의 개수 및 기능의 미리 정해진 우선순위를 반영하여, 추천아이콘(i1)을 빈 영역에 디스플레이할 수 있다.
또한 추천아이콘(i1)을 디스플레이할 때, 복수 개의 기능에 대응되는 각각의 추천아이콘(i1)이 존재하는 경우에는, 디스플레이 화면을 다수의 가상의 구간으로 구분하여, 각 구간 별로 우선순위를 결정하여, 우선순위가 높은 부분부터 추천아이콘(i1)을 디스플레이할 수 있다.
또한 추천아이콘(i1)을 디스플레이할 때, 불투명한 형태로 추천아이콘(i1)을 디스플레이할 수 있다. 또한, 도 5에 도시된 바와 같이, 추천아이콘(i1)이 디스플레이 화면을 가리지 않도록 하기 위해 추천아이콘(i1)을 반투명한 형태로 디스플레이할 수도 있다.
또한 추천아이콘(i1)은 통상적으로는 불투명한 형태로 디스플레이할 수 있으며, 미리 디스플레이되어 있는 다른 메뉴 항목 또는 미리 디스플레이되어 있는 다른 아이콘과 겹쳐서 디스플레이되는 경우에는 추천아이콘(i1)을 반투명한 형태로 디스플레이할 수 있다.
또한 추천아이콘(i1)의 크기는 빈 공간의 크기에 따라 축소 또는 확대될 수 있다.
205 단계 이후 207 단계에서 전자펜의 터치 입력 또는 전자펜의 키 입력 등과 같은 사용자 조작에 따라 추천아이콘(i1)을 선택할 경우, 209 단계에서는 선택한 추천아이콘(i1)에 대응되는 기능을 실행한다. 예를 들어서, 도 8과 같이, 전자펜의 터치에 의해 추천아이콘(i1)이 선택되면, 아이콘의 기능을 실행할 수 있다. 기능의 실행 화면은 전체 디스플레이 화면의 일부분의 미리 설정된 영역에 디스플레이될 수 있으며, 또는 디스플레이 화면 전체 영역에 디스플레이될 수 있다.
추가적으로, 추천아이콘(i1)을 디스플레이한 이후에, 추천아이콘(i1)이 사라지지 않고 계속해서 디스플레이 되도록 할 수 있다. 예를 들어서, 미리 디스플레이되어 있는 다른 메뉴 항목 또는/ 및 다른 아이콘과 겹치지 않는 영역에 추천아이콘(i1)을 디스플레이할 경우, 추천아이콘(i1)의 디스플레이를 계속 유지하도록 할 수 있다.
또한 추천아이콘(i1)을 디스플레이한 이후에, 일정 시간이 경과되었을 때, 추천아이콘(i1)이 터치스크린 화면에서 사라지도록 할 수 있다. 또한 터치 입력 또는 전자펜의 미리 설정된 키 입력 또는 음성 입력 등의 미리 설정된 조작 입력 시, 추천아이콘(i1)을 터치스크린 화면에서 사라지도록 할 수 있다. 또한 추천아이콘(i1)의 기능 실행을 위한 사용자의 조작이 있거나, 또는 추천아이콘(i1)의 기능 실행이 완료되었을 때, 추천아이콘(i1)을 터치스크린 화면에서 사라지도록 할 수 있다.
또한 전자펜(105)이 추천아이콘(I1)을 이동시키는 기능을 가진 키를 구비하였을 경우, 추천아이콘(i1)을 디스플레이한 이후에, 전자펜(105)의 상기 기능의 키 입력 시, 디스플레이한 추천아이콘(i1)을 호버링의 인식 위치로 이동시켜 디스플레이할 수 있다. 도 6의 (a)와 같이, 추천아이콘(i1)을 디스플레이한 상태에서, 사용자가 전자펜의 키(p1)를 누르면, 도 6의 (b)와 같이, 추천아이콘(i1)이 펜의 호버링이 인식된 위치로 이동할 수 있다.
또한 추천아이콘(i1)을 디스플레이한 이후에, 디스플레이한 추천아이콘(i1)에 전자펜(105)을 접근시켰을 경우에, 추천아이콘(i1)의 설명을 미리 설정된 영역에 디스플레이할 수 있다. 도 7의 (a)와 같이, 추천아이콘(i1)이 디스플레이된 상태에서, 전자펜(105)의 호버링을 인식할 수 있도록 전자펜(105)을 추천아이콘(i1)과 가깝게 접근시키면‘Drawing Pad'라는 기능의 설명이 디스플레이될 수 있다.
또한 전자펜(105)이 추천아이콘(I1)의 기능 설명을 디스플레이하는 기능을 가진 키를 구비하였을 경우, 추천아이콘(i1)을 디스플레이한 이후에, 전자펜의 상기 기능의 키 입력 시, 추천아이콘(i1)의 설명을 미리 설정된 영역에 디스플레이할 수 있다. 도 7의 (b)와 같이, 추천아이콘(i1)이 디스플레이된 상태에서, 사용자가 전자 펜의 키(p1)를 누르면, ‘Drawing Pad'라는 기능의 설명이 디스플레이될 수 있다.
또한, 상기 추천아이콘(i1)의 기능에 대한 설명은 단순한 기능의 명칭일 수 있으며, 또는 기능이 어떠한 동작을 수행하는지에 대한 설명을 포함할 수 있다.
도 9는 본 발명의 제 2 실시예에 따른 전자펜을 이용한 사용자 인터페이스 제공 동작의 흐름도이다. 도 9는 복수개의 기능에 대응되는 각각의 추천아이콘(i1)이 존재하는 경우, 사용자의 기능의 사용 빈도(횟수)에 따라서 기능의 목록을 로드(load)하여 기능에 대응되는 추천아이콘(i1)을 실행하는 동작을 설명한 것이다.
도 9를 참조하면, 먼저 300 단계에서는 입력한 전자펜의 근접 터치에 따라 펜 호버링을 인식한다. 이후 302 단계에서는 사용 빈도에 따른 기능 목록을 로드한다. 사용 빈도에 따른 기능 목록은 이전에 기록된 추천아이콘(i1)의 사용 빈도 및 모바일 장치(100)에 존재하는 다른 모든 기능의 사용 빈도를 모두 고려하여, 기능에 대응되는 추천아이콘(i1) 또는 메뉴 항목 또는 다른 아이콘 중에서, 사용 빈도가 높은 순서대로 기능 목록을 구성한 것이다. 만약 기능의 사용 빈도 기록이 없는 경우에는, 기본 설정된 기능의 목록을 로드한다. 302 단계 이후에 304 단계에서는 기능 목록의 각 기능에 대응되는 아이콘을 추천아이콘(i1)으로서, 디스플레이한다. 이때, 디스플레이할 기능에 대응되는 추천아이콘(i1)의 개수는, 사용자의 설정, 또는 모바일 장치의 기기 설정에 따라서도 달라질 수 있다. 또한 디스플레이할 기능에 대응되는 추천아이콘(i1)의 개수는 디스플레이 화면에서 다른 메뉴 항목 또는 다른 아이콘과 겹치지 않고 추천아이콘(i1)이 디스플레이될 수 있도록 추천아이콘(i1)의 개수를 결정할 수 있다. 예를 들어, 도 10을 참고하면, 펜 호버링이 인식되고, 현재 디스플레이 화면의 공간이 추천아이콘(i1) 2개만을 디스플레이할 수 있는 넓이를 가지고 있을 경우에는, 사용 횟수가 많아서 우선순위가 높은 2개의 기능인 제 1 기능 및 제 2 기능에 대응되는 추천아이콘(i1)만을 디스플레이 화면의 빈 공간에 디스플레이할 수 있다. 이후 306 단계에서는 추천아이콘(i1)의 선택 유무를 판단한다. 306 단계에서 추천아이콘(i1)의 선택 동작이 있을 경우에는 308 단계를 실행하며, 추천아이콘(i1)의 선택 동작이 없을 경우에는 310 단계를 실행한다. 306 단계 이후 308 단계에서는 선택한 추천아이콘(i1)의 기능을 실행하며, 이후 310 단계에서는 실행한 기능의 사용 빈도를 기록한다. 예를 들어서, 310 단계에서는 도 10과 같이 ‘제1 기능‘과 '제 2 기능' 및 ‘제 3 기능' 등의 각 기능의 각각의 사용 횟수(빈도)를 기록하여 저장할 수 있다.
도 11은 본 발명의 제 3 실시예에 따른 전자펜을 이용한 사용자 인터페이스 제공 동작의 흐름도이다. 도 11은 복수개의 기능에 대응되는 각각의 추천아이콘(i1)이 존재하며, 애플리케이션이 실행 중인 경우, 실행중인 애플리케이션의 정보를 획득함으로서, 애플리케이션과 관련성이 있는 미리 설정된 기능의 목록을 로드하여 추천아이콘(i1)을 실행하는 동작을 설명한 것이다.
도 11을 참조하면, 먼저 400 단계에서는 입력한 전자펜의 근접 터치에 따라 펜 호버링을 인식한다. 이후 402 단계에서는 실행 중인 애플리케이션의 정보를 획득한다. 즉, 모바일 장치의 복수의 기능 중, 실행 중인 애플리케이션과 관련성이 있는 기능의 정보 또는 미리 설정된 애플리케이션 관련 기능의 목록 정보를 획득한다. 이때의 미리 설정된 애플리케이션 관련 기능의 목록은 모바일 장치 제조사에서 입력 할 수 있으며, 사용자가 직접 입력하거나 변경할 수 있다. 이후, 404 단계에서는 획득한 정보에 따른 실행 중인 애플리케이션 관련 기능 목록을 로드한다. 이후, 406 단계에서는 기능에 대응되는 추천아이콘(i1)을 미리 설정된 영역에 디스플레이한다. 도 12를 참조하면,‘E-mail'과 ’Messenger', 및 ‘Quick Sender' 애플리케이션의 경우에는 애플리케이션과 관련 있는 기능의 추천아이콘(i1)으로 '제 1 기능'이 설정되어 저장되어 있으며, 이에 따라 ‘E-mail'과 ’Messenger', 및 ‘Quick Sender' 애플리케이션 중 어느 하나의 애플리케이션을 실행할 경우, '제 1 기능'을 로드하여, '제 1 기능' 추천아이콘(i1)을 디스플레이할 수 있다. 이후 408 단계에서는 추천아이콘(i1)의 선택 유무를 판단하며, 추천아이콘(i1)을 선택할 경우, 410 단계를 실행하며, 추천아이콘(i1)을 선택하지 않을 경우, 본 발명의 동작을 종료한다. 408 단계 이후 410 단계에서는 선택한 추천아이콘(i1)의 기능을 실행한다.
상기 기능 목록의 로드 동작은 도 9의 기능의 사용 빈도 및 도 11의 애플리케이션의 종류를 동시에 반영하여 실행할 수도 있다. 예를 들어서, 모바일 장치(100)에 저장되어 있는 애플리케이션의 실행 시, 실행 중인 애플리케이션과 관련된 기능의 목록에서, 기록된 기능의 사용 빈도에 따라 실행 중인 애플리케이션 관련 기능 목록을 로드할 수 있다.
본 발명의 실시 예들은 하드웨어, 소프트웨어 또는 하드웨어 및 소프트웨어의 조합의 형태로 실현 가능하다는 것을 알 수 있을 것이다. 이러한 임의의 소프트웨어는 예를 들어, 삭제 가능 또는 재기록 가능 여부와 상관없이, ROM 등의 저장 장치와 같은 휘발성 또는 비휘발성 저장 장치, 또는 예를 들어, RAM, 메모리 칩, 장치 또는 집적 회로와 같은 메모리, 또는 예를 들어 CD, DVD, 자기 디스크 또는 자기 테이프 등과 같은 광학 또는 자기적으로 기록 가능함과 동시에 기계(예를 들어, 컴퓨터)로 읽을 수 있는 저장 매체에 저장될 수 있다. 휴대 단말 내에 포함될 수 있는 메모리는 본 발명의 실시 예들을 구현하는 지시들을 포함하는 프로그램 또는 프로그램들을 저장하기에 적합한 기계로 읽을 수 있는 저장 매체의 한 예임을 알 수 있을 것이다. 따라서, 본 발명은 본 명세서의 임의의 청구항에 기재된 장치 또는 방법을 구현하기 위한 코드를 포함하는 프로그램 및 이러한 프로그램을 저장하는 기계로 읽을 수 있는 저장 매체를 포함한다. 또한, 이러한 프로그램은 유선 또는 무선 연결을 통해 전달되는 통신 신호와 같은 임의의 매체를 통해 전자적으로 이송될 수 있고, 본 발명은 이와 균등한 것을 적절하게 포함한다.
상기와 같이 본 발명의 일 실시예에 따른 구성 및 동작이 이루어질 수 있으며, 한편 상기한 본 발명의 설명에서는 구체적인 실시예에 관해 설명하였으나 이외에도 본 발명의 다양한 실시예들이나, 여러 가지 변형 및 변경이 있을 수 있다. 예를 들어서, 본 발명의 미리 설정된 기준에 따라 기능 목록을 로드하여 로드한 기능 목록의 각 기능에 대응되는 각각의 추천아이콘(i1)을 디스플레이하는 동작을 설명할 때 도 11에서는 애플리케이션의 실행 시, 실행 중인 애플리케이션과 관련된 기능에 따른 동작을 설명하였지만, 실제로는 모바일 단말기의 홈 화면의 실행 또는 인터넷의 실행 등 모바일 장치의 다양한 메뉴의 실행에 적용할 수 있다. 또한 본 발명의 실시예와 도면에서는, 입력 수단을 전자기 공명 방식을 이용하는 전자펜인 경우를 예로 들어, 전자펜에 의한 근접 터치 입력의 발생 시, 호버링을 인식하여, 모바일 장치에 존재하는 기능에 대응되는 추천아이콘을 디스플레이하는 동작과, 사용자의 기능의 사용 빈도를 반영하여 추천아이콘을 디스플레이하는 동작, 및 애플리케이션과 관련된 추천아이콘을 디스플레이하는 동작을 설명하였다. 하지만, 실제 본 발명의 근접 터치 입력의 발생을 위한 입력 수단은, 상기 실시예의 전자펜 뿐만 아니라, 정전용량 방식을 이용하는 사용자의 신체 터치(예, 손 터치) 일 수 있으며, 사용자의 신체에 의한 근접 터치 입력으로 호버링을 인식하여 모바일 장치에 대응되는 추천아이콘을 디스플레이할 수도 있다.

Claims (16)

  1. 근접 터치 입력을 통한 사용자 인터페이스 제공 방법에 있어서,
    입력 수단의 근접 터치 입력 시, 미리 설정된 기준에 따라, 다수의 기능 중 적어도 하나를 선택하는 과정과;
    상기 선택한 기능에 대응되는 아이콘을 추천아이콘으로서 디스플레이하는 과정과;
    상기 추천아이콘 중 선택된 추천아이콘에 대응되는 기능을 실행하는 과정을 포함함을 특징으로 하는 근접 터치 입력을 통한 사용자 인터페이스 제공 방법.
  2. 제 1항에 있어서, 상기 입력 수단은,
    사용자의 신체 또는 전자펜을 포함함을 특징으로 하는 근접 터치 입력을 통한 사용자 인터페이스 제공 방법.
  3. 제 1항에 있어서, 상기 미리 설정된 기준은,
    기록된 기능의 사용 빈도이며,
    상기 다수의 기능 중 적어도 하나를 선택하는 과정은,
    상기 입력한 근접 터치에 따라 호버링(hovering)을 인식하는 단계와,
    상기 호버링의 인식 시, 상기 기능의 사용 빈도를 반영하여, 상기 기능의 사용 빈도가 높은 순서대로 상기 기능 목록을 구성하여, 상기 기능 목록을 로드하는 단계를 포함하며,
    상기 호버링의 인식 시, 상기 기능의 사용 빈도의 기록이 없는 경우에는, 기본적으로 설정된 기능 목록을 로드하는 단계를 포함하며,
    상기 추천아이콘 중 선택된 추천아이콘에 대응되는 기능을 실행하는 과정은,
    터치 입력 시, 상기 터치 입력에 의한 상기 추천아이콘의 선택 신호를 수신하는 단계와,
    상기 수신한 선택 신호를 반영하여, 상기 선택된 추천아이콘에 대응되는 기능을 실행하는 단계와,
    상기 실행한 기능의 상기 사용 빈도를 기록하는 단계를 포함함을 특징으로 하는 근접 터치 입력을 통한 사용자 인터페이스 제공 방법.
  4. 제 1항에 있어서, 상기 미리 설정된 기준은,
    애플리케이션의 종류이며,
    상기 다수의 기능 중 적어도 하나를 선택하는 과정은,
    상기 애플리케이션의 종류 중 어느 하나의 애플리케이션의 실행 시, 상기 입력한 근접 터치에 따라 호버링(hovering)을 인식하는 단계와,
    상기 호버링의 인식 시, 상기 애플리케이션의 정보를 획득하여, 상기 애플리케이션과 관련성이 있는 기능의 목록을 로드하는 단계를 포함하며,
    상기 추천아이콘 중 선택된 추천아이콘에 대응되는 기능을 실행하는 과정은,
    터치 입력 시, 상기 터치 입력에 의한 상기 추천아이콘의 선택 신호를 수신하는 단계와,
    상기 수신한 선택 신호를 반영하여, 상기 선택된 추천아이콘에 대응되는 기능을 실행하는 단계를 포함함을 특징으로 하는 근접 터치 입력을 통한 사용자 인터페이스 제공 방법.
  5. 제 3항 또는 제 4항에 있어서, 상기 호버링을 인식하는 단계는,
    사용자 조작에 의해 상기 호버링을 인식하는 거리를 변경 가능하게 하는 것을 포함함을 특징으로 하는 근접 터치 입력을 통한 사용자 인터페이스 제공 방법.
  6. 제 1항에 있어서, 상기 선택한 기능에 대응되는 아이콘을 추천아이콘으로서 디스플레이하는 과정은,
    상기 추천아이콘을 미리 디스플레이되어 있는 메뉴 항목 또는 아이콘과 겹치도록 디스플레이하는 것을 포함함을 특징으로 하는 근접 터치 입력을 통한 사용자 인터페이스 제공 방법.
  7. 제 1항에 있어서, 상기 선택한 기능에 대응되는 아이콘을 추천아이콘으로서 디스플레이하는 과정은,
    전체 디스플레이 영역에서 빈 영역의 크기를 고려하여, 상기 빈 영역에 디스플레이할 상기 추천아이콘의 개수를 결정하는 단계와,
    상기 결정한 추천아이콘의 개수 및 상기 선택한 기능의 미리 정해진 우선순위를 반영하여, 상기 추천아이콘을 상기 빈 영역에 디스플레이하는 단계를 포함함을 특징으로 하는 근접 터치 입력을 통한 사용자 인터페이스 제공 방법.
  8. 제 1항에 있어서, 상기 선택한 기능에 대응되는 아이콘을 추천아이콘으로서 디스플레이하는 과정은,
    상기 추천아이콘을 반투명한 형태 또는 불투명한 형태로 디스플레이하는 것을 포함함을 특징으로 하는 근접 터치 입력을 통한 사용자 인터페이스 제공 방법.
  9. 제 1항에 있어서, 상기 선택한 기능에 대응되는 아이콘을 추천아이콘으로서 디스플레이하는 과정은,
    상기 추천아이콘을 불투명한 형태로 디스플레이하며,
    디스플레이되어 있는 다른 메뉴 항목 또는 아이콘과 겹치는 경우에는, 상기 추천아이콘을 반투명한 형태로 디스플레이하는 것을 포함함을 특징으로 하는 근접 터치 입력을 통한 사용자 인터페이스 제공 방법.
  10. 제 1항에 있어서, 상기 선택한 기능에 대응되는 아이콘을 추천아이콘으로서 디스플레이하는 과정 이후에,
    상기 추천아이콘을 이동시키는 기능을 가진 미리 설정된 키를 구비한 입력 수단의 상기 키 입력 시, 상기 추천아이콘을 상기 호버링의 인식 위치로 이동시켜 디스플레이하는 과정을 추가적으로 포함함을 특징으로 하는 근접 터치 입력을 통한 사용자 인터페이스 제공 방법.
  11. 제 1항에 있어서, 상기 선택한 기능에 대응되는 아이콘을 추천아이콘으로서 디스플레이하는 과정 이후에,
    상기 디스플레이한 추천아이콘 중 어느 하나에 상기 입력 수단의 접근 시, 상기 추천아이콘의 설명을 미리 설정된 영역에 디스플레이하는 과정을 추가적으로 포함함을 특징으로 하는 근접 터치 입력을 통한 사용자 인터페이스 제공 방법.
  12. 제 1항에 있어서, 상기 선택한 기능에 대응되는 아이콘을 추천아이콘으로서 디스플레이하는 과정 이후에,
    상기 추천아이콘의 기능 설명을 디스플레이하는 기능을 가진 미리 설정된 키를 구비한 입력 수단의 상기 키 입력 시, 상기 추천아이콘의 설명을 미리 설정된 영역에 디스플레이하는 과정을 포함함을 특징으로 하는 근접 터치 입력을 통한 사용자 인터페이스 제공 방법.
  13. 근접 터치 입력을 통한 사용자 인터페이스 제공 장치에 있어서,
    사용자의 조작을 입력받으며, 응용 프로그램의 실행 영상과 동작 상태 및 메뉴 상태를 디스플레이하는 터치스크린과;
    상기 터치스크린을 제어하며, 상기 터치스크린에서의 입력 수단의 근접 터치 입력 시, 미리 설정된 기준에 따라 선택된 다수의 기능 중 적어도 하나를 선택하는 동작과, 상기 선택한 기능에 대응되는 아이콘을 추천아이콘으로서 디스플레이하는 동작과, 상기 추천아이콘 중 선택된 추천아이콘에 대응되는 기능을 실행하는 동작을 제어하는 제어부를 포함함을 특징으로 하는 근접 터치 입력을 통한 사용자 인터페이스 제공 장치.
  14. 제 13항에 있어서, 상기 입력 수단은,
    사용자의 신체 또는 전자펜을 포함함을 특징으로 하는 근접 터치 입력을 통한 사용자 인터페이스 제공 장치.
  15. 제 13항에 있어서, 상기 미리 설정된 기준은,
    기록된 기능의 사용 빈도이며,
    상기 다수의 기능 중 적어도 하나를 선택하는 동작은,
    상기 입력한 근접 터치에 따라 호버링(hovering)을 인식하며,
    상기 호버링의 인식 시, 상기 기능의 사용 빈도를 반영하여, 상기 기능의 사용 빈도가 높은 순서대로 상기 기능 목록을 구성하여, 상기 기능 목록을 로드하는 것을 포함하며,
    상기 호버링의 인식 시, 상기 기능의 사용 빈도의 기록이 없는 경우에는, 기본적으로 설정된 기능의 목록을 로드하는 동작을 포함하며,
    상기 추천아이콘 중 선택된 추천아이콘에 대응되는 기능을 실행하는 동작은,
    상기 실행한 기능의 상기 사용 빈도를 기록하는 동작을 포함함을 특징으로 하는 근접 터치 입력을 통한 사용자 인터페이스 제공 장치.
  16. 제 13항에 있어서, 상기 미리 설정된 기준은,
    애플리케이션의 종류이며,
    상기 다수의 기능 중 적어도 하나를 선택하는 동작은,
    상기 애플리케이션의 종류 중 어느 하나의 애플리케이션의 실행 시, 상기 입력한 입력 수단의 근접 터치에 따라 호버링(hovering)을 인식하며,
    상기 호버링의 인식 시, 상기 애플리케이션의 정보를 획득하여, 상기 애플리케이션과 관련성이 있는 기능의 목록을 로드하는 동작을 포함함을 특징으로 하는 근접 터치 입력을 통한 사용자 인터페이스 제공 장치.
KR1020120131020A 2012-11-19 2012-11-19 근접 터치 입력을 통한 사용자 인터페이스 제공 방법 및 장치 KR20140064089A (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020120131020A KR20140064089A (ko) 2012-11-19 2012-11-19 근접 터치 입력을 통한 사용자 인터페이스 제공 방법 및 장치
EP13192789.9A EP2733595A3 (en) 2012-11-19 2013-11-13 Method and apparatus for providing user interface through proximity touch input
US14/079,023 US20140143698A1 (en) 2012-11-19 2013-11-13 Method and apparatus for providing user interface through proximity touch input
CN201310583550.6A CN103823609A (zh) 2012-11-19 2013-11-19 通过接近触摸输入提供用户接口的方法和设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120131020A KR20140064089A (ko) 2012-11-19 2012-11-19 근접 터치 입력을 통한 사용자 인터페이스 제공 방법 및 장치

Publications (1)

Publication Number Publication Date
KR20140064089A true KR20140064089A (ko) 2014-05-28

Family

ID=49584620

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120131020A KR20140064089A (ko) 2012-11-19 2012-11-19 근접 터치 입력을 통한 사용자 인터페이스 제공 방법 및 장치

Country Status (4)

Country Link
US (1) US20140143698A1 (ko)
EP (1) EP2733595A3 (ko)
KR (1) KR20140064089A (ko)
CN (1) CN103823609A (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160074194A (ko) * 2014-12-18 2016-06-28 삼성전자주식회사 화면 표시를 제어하는 전자 장치 및 방법
KR20170119934A (ko) * 2016-04-20 2017-10-30 삼성전자주식회사 제스처 입력을 처리하기 위한 전자 장치 및 방법
KR20180005055A (ko) * 2016-07-05 2018-01-15 삼성전자주식회사 전자 장치의 화면 표시 방법 및 그 장치
KR20190122331A (ko) * 2018-04-20 2019-10-30 삼성전자주식회사 문자를 입력하기 위한 전자 장치 및 그의 동작 방법

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5652652B2 (ja) * 2010-12-27 2015-01-14 ソニー株式会社 表示制御装置および方法
KR102241764B1 (ko) * 2013-11-01 2021-04-19 삼성전자 주식회사 전자 장치의 입력 처리 방법 및 장치
KR20150077774A (ko) * 2013-12-30 2015-07-08 삼성전자주식회사 화면 전환 방법 및 그 장치
US20160378967A1 (en) * 2014-06-25 2016-12-29 Chian Chiu Li System and Method for Accessing Application Program
CN105468133B (zh) * 2014-08-25 2021-02-12 中兴通讯股份有限公司 一种触控处理方法和装置
CN105867602A (zh) * 2015-12-08 2016-08-17 乐视致新电子科技(天津)有限公司 一种基于手势的操作组件控制方法及设备
US10699296B2 (en) * 2015-12-30 2020-06-30 Verizon Patent And Licensing, Inc. Native video advertising with voice-based ad management and machine-to-machine ad bidding
KR20180005071A (ko) * 2016-07-05 2018-01-15 엘지전자 주식회사 이동 단말기 및 그 제어방법
CN108700985A (zh) * 2017-06-28 2018-10-23 华为技术有限公司 一种图标显示方法及装置
CN108008892B (zh) * 2017-11-30 2020-07-28 维沃移动通信有限公司 一种功能启用的方法及终端
CN110515507B (zh) * 2019-08-16 2021-03-19 维沃移动通信有限公司 一种图标显示方法及终端

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5546527A (en) * 1994-05-23 1996-08-13 International Business Machines Corporation Overriding action defaults in direct manipulation of objects on a user interface by hovering a source object
US20040121946A9 (en) * 2000-12-11 2004-06-24 John Fikes Inducing cellular immune responses to her2/neu using peptide and nucleic acid compositions
US7721226B2 (en) * 2004-02-18 2010-05-18 Microsoft Corporation Glom widget
US7966573B2 (en) * 2006-02-17 2011-06-21 Microsoft Corporation Method and system for improving interaction with a user interface
CN101506762B (zh) * 2006-08-16 2012-05-30 日本电气株式会社 便携终端装置及其使用的功能列表提供方法和其程序
JP4773943B2 (ja) * 2006-12-27 2011-09-14 キヤノン株式会社 画像再生装置及びその制御方法
US20080163053A1 (en) * 2006-12-28 2008-07-03 Samsung Electronics Co., Ltd. Method to provide menu, using menu set and multimedia device using the same
US20080238887A1 (en) * 2007-03-28 2008-10-02 Gateway Inc. Method and apparatus for programming an interactive stylus button
US7853894B2 (en) * 2007-10-05 2010-12-14 International Business Machines Corporation Method and system for enveloping a group of toolbar icons
KR100984230B1 (ko) * 2008-03-20 2010-09-28 엘지전자 주식회사 근접 터치 감지 기능을 갖는 휴대 단말기 및 이를 이용한화면 제어 방법
KR101495351B1 (ko) 2008-06-27 2015-02-24 엘지전자 주식회사 근접 터치 감지 기능을 갖는 휴대 단말기
JP4632102B2 (ja) * 2008-07-17 2011-02-16 ソニー株式会社 情報処理装置、情報処理方法及び情報処理プログラム
US8163540B2 (en) * 2008-07-18 2012-04-24 Carlo Acosta Filtered petri dish
KR20100069842A (ko) * 2008-12-17 2010-06-25 삼성전자주식회사 사용자 인터페이스를 구현하는 전자장치 및 그 방법
KR101682710B1 (ko) * 2009-11-17 2016-12-05 엘지전자 주식회사 네트워크에 접속 가능한 tv를 이용한 광고 방법
KR101684704B1 (ko) * 2010-02-12 2016-12-20 삼성전자주식회사 휴대용 단말기에서 메뉴 실행 방법 및 이를 제공하는 장치
US8799815B2 (en) * 2010-07-30 2014-08-05 Apple Inc. Device, method, and graphical user interface for activating an item in a folder
US8890818B2 (en) * 2010-09-22 2014-11-18 Nokia Corporation Apparatus and method for proximity based input
US9201520B2 (en) * 2011-02-11 2015-12-01 Microsoft Technology Licensing, Llc Motion and context sharing for pen-based computing inputs
US20120272144A1 (en) * 2011-04-20 2012-10-25 Microsoft Corporation Compact control menu for touch-enabled command execution

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160074194A (ko) * 2014-12-18 2016-06-28 삼성전자주식회사 화면 표시를 제어하는 전자 장치 및 방법
KR20170119934A (ko) * 2016-04-20 2017-10-30 삼성전자주식회사 제스처 입력을 처리하기 위한 전자 장치 및 방법
KR20180005055A (ko) * 2016-07-05 2018-01-15 삼성전자주식회사 전자 장치의 화면 표시 방법 및 그 장치
KR20190122331A (ko) * 2018-04-20 2019-10-30 삼성전자주식회사 문자를 입력하기 위한 전자 장치 및 그의 동작 방법
US11501069B2 (en) 2018-04-20 2022-11-15 Samsung Electronics Co., Ltd Electronic device for inputting characters and method of operation of same

Also Published As

Publication number Publication date
EP2733595A3 (en) 2017-10-25
US20140143698A1 (en) 2014-05-22
EP2733595A2 (en) 2014-05-21
CN103823609A (zh) 2014-05-28

Similar Documents

Publication Publication Date Title
KR20140064089A (ko) 근접 터치 입력을 통한 사용자 인터페이스 제공 방법 및 장치
KR102158098B1 (ko) 이미지 인식을 이용한 이미지 레이아웃 방법 및 장치
EP2796982B1 (en) Method and apparatus for providing a changed shortcut icon corresponding to a status thereof
KR102147686B1 (ko) 오브젝트 실행 장치 및 방법
KR102064836B1 (ko) 모바일 장치에서의 메뉴 표시 장치 및 방법
US20140201675A1 (en) Method and mobile device for providing recommended items based on context awareness
KR101990567B1 (ko) 외부 입력 장치와 결합된 모바일 장치 및 그 제어 방법
KR102145577B1 (ko) 사용자 인터페이스 표시 방법 및 장치
KR20140139377A (ko) 환경정보를 이용한 화면 표시 제어 장치 및 방법
US20140195964A1 (en) Method and apparatus for dynamic display box management
US20140281962A1 (en) Mobile device of executing action in display unchecking mode and method of controlling the same
KR20150007898A (ko) 태스크를 리마인드하는 전자 장치 및 그 제어 방법
KR102186815B1 (ko) 컨텐츠 스크랩 방법, 장치 및 기록매체
US20140195990A1 (en) Mobile device system providing hybrid widget and associated control
KR102482630B1 (ko) 사용자 인터페이스 표시 방법 및 장치
KR102278676B1 (ko) 사용자 인터페이스 표시 방법 및 장치
KR102239019B1 (ko) 사용자 인터페이스 표시 방법 및 장치
KR102187856B1 (ko) 사용자 인터페이스 표시 방법 및 장치
KR20150026110A (ko) 아이콘들을 관리하는 방법 및 이를 위한 모바일 단말기
KR20130123794A (ko) 메모용 어플리케이션
KR20140117092A (ko) 디스플레이 장치 및 그 제어 방법
KR20150007569A (ko) 동적 위젯을 제공하는 장치 및 방법
KR20140090321A (ko) 트리거를 기반으로 오브젝트를 표시하는 모바일 장치 및 그 제어 방법
KR20140089869A (ko) 스크린을 통해 표시되는 컨텐츠를 제어하는 방법 및 이를 위한 모바일 단말기
KR20140089870A (ko) 사용자 인터페이스 제공 방법 및 그 장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application