KR100891099B1 - 사용성을 향상시키는 터치 스크린 및 터치 스크린에서 사용성 향상을 위한 방법 - Google Patents

사용성을 향상시키는 터치 스크린 및 터치 스크린에서 사용성 향상을 위한 방법 Download PDF

Info

Publication number
KR100891099B1
KR100891099B1 KR1020070007972A KR20070007972A KR100891099B1 KR 100891099 B1 KR100891099 B1 KR 100891099B1 KR 1020070007972 A KR1020070007972 A KR 1020070007972A KR 20070007972 A KR20070007972 A KR 20070007972A KR 100891099 B1 KR100891099 B1 KR 100891099B1
Authority
KR
South Korea
Prior art keywords
touch
movement
pressure
pointer
contact position
Prior art date
Application number
KR1020070007972A
Other languages
English (en)
Other versions
KR20080070226A (ko
Inventor
유병인
김성운
김연배
김남우
이권주
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020070007972A priority Critical patent/KR100891099B1/ko
Priority to US11/979,929 priority patent/US8760410B2/en
Priority to EP08100613.2A priority patent/EP1950653B1/en
Priority to JP2008014719A priority patent/JP5448346B2/ja
Priority to CN200810003567.9A priority patent/CN101231564B/zh
Publication of KR20080070226A publication Critical patent/KR20080070226A/ko
Application granted granted Critical
Publication of KR100891099B1 publication Critical patent/KR100891099B1/ko
Priority to JP2013221022A priority patent/JP5881661B2/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0414Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
    • G06F3/04142Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position the force sensing means being located peripherally, e.g. disposed at the corners or at the side of a touch sensing plate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/023Services making use of location information using mutual or relative location information between multiple location based services [LBS] targets or of distance thresholds

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Devices For Indicating Variable Information By Combining Individual Elements (AREA)

Abstract

사용성을 향상시키는 터치 스크린 및 터치 스크린에서 사용성 향상을 위한 방법이 제공된다. 사용성을 향상시키는 터치 스크린은 제 1 터치 및 제 2 터치를 감지하고, 상기 감지된 터치의 접촉 위치를 파악하는 터치 감지부, 상기 파악된 제 1 터치의 접촉 위치에 포인터를 설정하는 포인터 설정부 및 상기 제 2 터치의 이동에 따른 접촉 위치의 이동을 상기 포인터의 위치 이동으로 변환하는 좌표 변환부를 포함한다.
사용성(Usability), 인터페이스(Interface), 맵 브라우징(Map Browsing), 네비게이션(Navigation)

Description

사용성을 향상시키는 터치 스크린 및 터치 스크린에서 사용성 향상을 위한 방법{Touch screen and method for improvement of usability in touch screen}
도 1a 내지 도 1b는 종래의 위치 기반 서비스 기기에서 맵 브라우징 기능을 통해 지도가 디스플레이된 모습을 도시한 도면이다.
도 2a는 본 발명의 실시예에 따른 사용성을 향상시키는 터치 스크린의 구성을 도시한 블록도이다.
도 2b는 본 발명의 실시예에 따른 사용성을 향상시키는 터치 스크린의 구성을 실제 기기에 적용한 도면이다.
도 3a 내지 도 3b는 본 발명의 실시예에 따른 사용자의 제 1 터치 과정을 도시한 도면이다.
도 3c는 본 발명의 실시예에 따른 포인터 설정을 도시한 도면이다.
도 3d 내지 도 3e는 본 발명의 실시예에 따른 제 2 터치의 이동에 따른 접촉 위치의 이동을 도시한 도면이다.
도 3f는 본 발명의 실시예에 따른 터치 감지부의 제 1 터치 및 제 2 터치의 구분 방법을 도시한 도면이다.
도 3g는 본 발명의 실시예에 따른 제 2 터치의 접촉 위치 이동이 포인터의 이동에 반영되는 모습을 도시한 도면이다.
도 3h는 본 발명의 실시예에 따른 지도 회전 방법을 도시한 도면이다.
도 3i 내지 도 3j는 본 발명의 실시예에 따른 압력 감지부의 동작 지시를 도시한 도면이다.
도 4는 본 발명의 실시예에 따른 터치 스크린에서 사용성 향상을 위한 방법을 도시한 흐름도이다.
<도면의 주요 부분에 관한 부호의 설명>
201 : 터치 감지부
202 : 포인터 설정부
203 : 좌표 변환부
204 : 압력 감지부
205 : 디스플레이부
본 발명은 사용성을 향상시키는 터치 스크린 및 터치 스크린에서 사용성 향상을 위한 방법에 관한 것으로서, 더욱 상세하게는 위치 기반 서비스(Location Based Service, LBS) 기기에서, 사용자가 보기 원하는 화면의 내용이 사용자의 손가락과 같은 신체 일부분이나 스타일러스 펜과 같은 도구에 일부 가리워지는 현상을 해소하고, 포인터의 동작을 세밀하게 조절하도록 하는 터치 스크린 및 터치 스크린에서 사용성 향상을 위한 방법에 관한 것이다.
위치 기반 서비스란 휴대전화, 휴대용 정보 단말기(PDA) 등 이동 통신 단말기의 위치에 따라, 단말기 사용자에게 지리정보시스템(GIS), 인공위성 자동 위치 측정 시스템(GPS) 및 텔레매틱스를 포함한 위치 관련 정보를 제공하는 모든 서비스를 의미하는 것으로, 위치 기반 서비스는 3개의 기지국에서 동시에 위치를 알아내는 삼각 네트워크 방식과 GPS를 이용한 방식이 있으며, 최근에는 위치정보, 교통 항법뿐만 아니라, 모바일 광고, 모바일 쿠폰, 여행정보, 차량 진단지원, 긴급 출동 및 택시 콜 서비스 등의 개인부문 서비스가 활발히 진행되고 있다.
도 1a 내지 도 1b는 종래의 위치 기반 서비스 기기에서 맵 브라우징 기능을 통해 지도가 디스플레이된 모습을 도시한 도면이다.
참고로, 도 1a 내지 도 1b에 도시된 위치 기반 서비스 기기(110)는 터치 스크린 방식으로, 사용자의 터치에 따라 지도의 이동, 검색 및 특정 위치에 대한 정보 조회가 가능하다고 가정하도록 한다.
도 1a에 도시된 것처럼, 위치 기반 서비스 기기(110)의 화면(111)에 지도가 디스플레이되어 있고, 사용자는 지도에서 보기 원하는 특정 지점(111a)을 터치하여, 터치한 지점(111a)에 대한 위도, 경도, 지명 및 지번 정보를 볼 수 있다.
이때, 도 1b에 도시된 것처럼, 해당 지점(111a)을 터치하는 사용자의 손가락(120)과 같은 신체의 일부분으로 인해 지도에서 보기 원하는 소정의 지점(111a) 뿐만 아니라 그 주위의 내용까지 사용자의 시야를 방해하는 문제가 발생한다.
또한, 상술한 것처럼 최근 위치 기반 서비스가 개인부문까지 활발하게 진행됨에 따라, 위치 기반 서비스 기기의 수요도 높아지고 있으며, 최근 디지털 기기들 이 점차 소형화 되어가는 추세임을 생각할 때, 터치 스크린을 사용하는 위치 기반 서비스 기기에서 사용자의 손가락(120)과 같은 신체의 일부분을 이용하여 섬세하게 지도의 이동 및 검색을 조절하기에는 한계가 있다.
이에 본 발명은, 사용성을 향상시키는 터치 스크린 및 터치 스크린에서 사용성 향상을 위한 방법을 통하여, 사용자의 손가락과 같은 신체의 일부가 터치 스크린을 사용하는 위치 기반 서비스 기기에서 사용자의 시야를 방해하지 않도록 하는데 그 목적이 있다.
본 발명의 다른 목적은 터치 스크린을 사용하는 위치 기반 서비스 기기에서 사용자에게 섬세한 지도의 이동 및 검색을 제공하는 것이다.
본 발명의 목적들은 이상에서 언급한 목적들로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
상기 목적을 달성하기 위하여, 본 발명의 실시예에 따른 사용성을 향상시키는 터치 스크린은 제 1 터치 및 제 2 터치를 감지하고, 상기 감지된 터치의 접촉 위치를 파악하는 터치 감지부, 상기 파악된 제 1 터치의 접촉 위치에 포인터를 설정하는 포인터 설정부 및 상기 제 2 터치의 이동에 따른 접촉 위치의 이동을 상기 포인터의 위치 이동으로 변환하는 좌표 변환부를 포함한다.
상기 목적을 달성하기 위하여, 본 발명의 실시예에 따른 터치 스크린에서 사용성 향상을 위한 방법은 제 1 터치를 감지하고, 상기 감지된 터치의 접촉 위치를 파악하는 제 1 터치 감지 단계, 상기 파악된 제 1 터치의 접촉 위치에 포인터를 설정하는 포인터 설정 단계, 제 2 터치를 감지하고 상기 감지된 터치의 접촉 위치를 파악하는 제 2 터치 감지 단계 및 상기 제 2 터치의 이동에 따른 접촉 위치의 이동을 상기 포인터의 위치 이동으로 변환하는 좌표 변환 단계를 포함한다.
기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술 되어있는 실시예들을 참조하면 명확해질 것이다.
그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
이하, 본 발명의 실시예들에 의한 사용성을 향상시키는 터치 스크린 및 터치 스크린에서 사용성 향상을 위한 방법을 설명하기 위한 구성도 또는 처리 흐름도에 대한 도면들을 참고하여 본 발명에 대해 설명하도록 한다.
이때, 처리 흐름도 도면들의 각 구성과 흐름도 도면들의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수 있음을 이해할 수 있을 것이다.
이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기 타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 흐름도 구성(들)에서 설명된 기능들을 수행하는 수단을 생성하게 된다.
이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 흐름도 구성(들)에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다.
컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑제되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 흐름도 구성(들)에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.
또한, 각 구성은 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다.
또, 몇 가지 대체 실행예들에서는 구성들에서 언급된 기능들이 순서를 벗어 나서 발생하는 것도 가능함을 주목해야 한다.
예컨대, 잇달아 도시되어 있는 두 개의 구성들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 구성들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.
이하, 본 발명의 실시예에서는 터치 스크린을 사용하는 위치 기반 서비스 기기의 화면에 지도가 디스플레이되어 있고, 사용자는 지도에서 보기 원하는 지점을 선택한다고 가정하며, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명하도록 한다.
도 2a는 본 발명의 실시예에 따른 사용성을 향상시키는 터치 스크린의 구성을 도시한 블록도이다.
본 발명의 실시예에 따른 사용성을 향상시키는 터치 스크린(200)은 제 1 터치 및 제 2 터치를 감지하고, 감지된 터치의 접촉 위치를 파악하는 터치 감지부(201), 터치 감지부(201)에서 파악된 제 1 터치의 접촉 위치에 포인터를 설정하는 포인터 설정부(202), 제 2 터치의 이동에 따른 접촉 위치의 이동을 포인터의 위치 이동으로 변환하는 좌표 변환부(203), 터치 감지부(201)에서 파악한 접촉 위치의 압력을 감지하고 감지된 압력에 대응하는 동작을 지시하는 압력 감지부(204) 및 포인터의 위치 이동과 감지된 압력에 대응하는 동작을 디스플레이하는 디스플레이부(205)를 포함한다.
본 발명의 실시예에 따른 도 2a에 도시된 구성요소들은 소프트웨어 또는 FPGA(Field Programmable Gate Array) 또는 ASIC(Application Specific Integrated Circuit)와 같은 하드웨어 구성요소를 의미하며, 소정의 역할들을 수행한다.
그렇지만 구성요소들은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, 각 구성요소는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다.
따라서, 일 예로서 구성요소는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다.
구성요소들과 해당 구성요소들 안에서 제공되는 기능은 더 작은 수의 구성요소들로 결합되거나 추가적인 구성요소들로 더 분리될 수 있다.
참고로, 도 2a에 도시된 장치(200)는 도 2b에 도시된 것처럼 위치 기반 서비스 기기에 사용될 수 있다.
터치 감지부(201)는 사용자의 터치를 감지하기 위해 터치 센서를 포함하고 기기의 화면에 해당하는 디스플레이부(205)의 상면에 위치될 수 있으며, 압력 감지부(204)는 터치의 접촉 위치에서 압력을 감지하고 디스플레이부(205)의 하단면에 하나 이상 다수의 갯수로 존재할 수 있다.
먼저, 도 2a에 도시된 장치(200) 중 터치 감지부(201)는 제 1 터치 및 제 2 터치를 감지하고, 감지된 터치의 접촉 위치를 파악한다.
여기에서 제 1 터치는, 위치 기반 서비스 기기의 화면에서 사용자가 보기 원 하는 지점에 대한 물체의 접촉을 의미하며, 이때 물체란, 사용자의 손가락과 같은 신체의 일부분이나 스타일러스 펜과 같은 도구를 의미한다.
이하, 설명의 편의상 본 발명의 실시예에서는, 위치 기반 서비스 기기의 입력 수단으로 사용자의 손가락과 같은 신체의 일부분을 사용하는 경우를 설명하며, 제 2 터치 및 터치 감지부(201)에 대한 보다 상세한 설명은 도 2a에 도시된 다른 장치들(202~205)을 설명하면서 함께 상세히 설명하도록 한다.
도 3a 내지 도 3b는 본 발명의 실시예에 따른 사용자의 제 1 터치 과정을 도시한 도면이다.
도 3a는 위치 기반 서비스 기기(310)의 화면(320)에 지도가 디스플레이되어 있고, 사용자는 지도에서 보기 원하는 특정 지점(321)을 손가락(330)을 사용하여 터치하려고 하는 모습이 도시되어 있다.
도 3b는 도 3a에 도시된 특정 지점(321)을 사용자가 손가락(330)으로 터치한, 즉 제 1 터치의 접촉 위치(321)을 도시하고 있다.
이때, 터치 감지부(201)는 상술한 제 1 터치를 감지하고, 제 1 터치의 접촉 위치(321)를 파악한다.
도 3c는 본 발명의 실시예에 따른 포인터 설정을 도시한 도면이다.
포인터 설정부(202)는 터치 감지부(201)에서 파악된 제 1 터치의 접촉 위치(321)에 포인터(322)를 설정한다.
참고로, 도 3c에서 볼 수 있듯이 사용자의 손가락(330)은 제 1 터치의 접촉 위치(321)에서 분리되어 있음을 알 수 있다.
포인터 설정부(202)에서 포인터(322)를 설정하는, 즉 제 1 터치의 접촉 위치(321)에 포인터(322)를 위치시키는 시점은, 사용자가 제 1 터치 후 제 1 터치의 접촉 위치(321)에서 접촉을 해제하거나, 사용자가 제 1 터치 후 소정의 거리만큼 제 1 터치의 접촉 위치(321)를 이동 시킬 때, 포인터 설정부(202)는 제 1 터치의 처음 접촉 위치(321)에 포인터를 설정한다.
이는, 터치 감지부(201)에서 제 1 터치와 제 2 터치를 구분하는 것과 밀접한 관련이 있으며 도 3f를 참조하여 후술하도록 한다.
도 3d 내지 도 3e는 본 발명의 실시예에 따른 제 2 터치의 이동에 따른 접촉 위치의 이동을 도시한 도면이다.
제 2 터치에 앞서, 도 3a 내지 도 3c를 통해 설명한 것처럼, 터치 감지부(201)의 제 1 터치의 감지 및 해당 접촉 위치(321)의 파악, 그리고 포인터 설정부(202)에 의해서 제 1 터치의 접촉 위치(321)에 포인터(322) 설정이 이루어 졌다.
이후, 사용자는 도 3d에 도시된 것처럼, 위치 기반 서비스 기기(310)의 화면(320)에서 제 2 터치의 예정 위치(323)를 결정하고, 도 3e에 도시된 것처럼 해당 위치(323)를 터치하면, 터치 감지부(201)는 제 2 터치를 감지하고 제 2 터치의 접촉 위치(323)를 파악한다.
좌표 변환부(203)는 터치 감지부(201)로부터 제 1 터치 및 제 2 터치의 접촉 위치를 전달받아, 제 2 터치의 이동에 따른 접촉 위치(323)의 이동(도 3e에서 324위치)을 포인터(322)의 위치 이동으로 변환한다.
여기에서 제 2 터치는, 제 1 터치의 접촉 위치(321)에 설정된 포인터(322)의 이동을 조절하기 위한 사용자의 접촉을 의미하는 것으로, 도 3e에 도시된 것처럼, 제 2 터치의 위치(323)는 위치 기반 서비스 기기(310)의 화면(320)에서 제 1 터치의 접촉 위치(321)에 설정된 포인터(322)의 이동을 조절하기 편리한 영역으로 선택하는 것이 바람직하다..
참고로, 터치 감지부(201)는 제 1 터치 및 제 2 터치를 소정의 시간차로 구분한다.
예를 들어 도 3c에 도시된 것처럼, 사용자의 제 1 터치 후, 제 1 터치의 접촉이 해제되고, 제 1 터치의 접촉 위치(321)가 아닌 다른 위치에 사용자의 터치가 발생하면 터치 감지부(201)는 이를 제 2 터치로 인식하는 것이다.
도 3f는 본 발명의 실시예에 따른 터치 감지부의 제 1 터치 및 제 2 터치의 구분 방법을 도시한 도면이다.
터치 감지부(201)는 제 1 터치 및 제 2 터치를 소정의 거리차로 구분할 수도 있다.
예를 들어, 사용자의 제 1 터치 후, 제 1 터치의 접촉이 유지된 상태에서 소정의 거리를 이동하면, 즉 제 1 터치의 접촉 위치(321)를 중심으로 소정의 경계(325)를 초과하여 이동하면 터치 감지부(201)는 이를 제 2 터치로 인식하는 것이다.
또한, 터치 감지부(201)는 제 1 터치 및 제 2 터치를 압력의 입력 여부로 구분할 수도 있다.
예를 들어, 사용자의 제 1 터치와 압력이 동시에 이루어지면 접촉 위치를 중 심으로 포인터를 설정하고 제 2 터치의 경우 압력 없이 터치만 이루어 지면 터치 감지부(201)는 이를 제 2 터치로 인식하는 것이다.
한편, 좌표 변환부(203)는 제 1 터치 및 제 2 터치의 접촉 위치, 더 자세히 표현하면 접촉 위치에 대한 좌표를 알고 있으므로, 이후 사용자가 제 2 터치의 접촉 위치를 이동시킬 때마다 변화되는 제 2 터치의 접촉 위치에 대한 좌표를 제 1 터치, 즉 포인터의 위치 좌표에 반영한다.
따라서 사용자의 제 2 터치 상태에 대한 접촉 위치의 이동이 포인터의 이동으로 변환되는 것이다.
도 3g는 본 발명의 실시예에 따른 제 2 터치의 접촉 위치 이동이 포인터의 이동에 반영되는 모습을 도시한 도면이다.
제 2 터치의 처음 접촉 위치(323)에서 다른 접촉 위치(324)로 이동하면, 터치 감지부(201)는 이동하는 접촉 위치(324)의 좌표를 파악하고, 파악된 좌표를 제 1 터치의 접촉 위치에 설정된 포인터(322)에 실시간으로 반영하여 포인터를 이동시키며, 상술한 과정으로 좌표 변환부(203)를 통해 이동된 포인터(326)가 도 3g에 도시되어 있다.
이때, 좌표 변환부(203)는 제 2 터치의 접촉 위치 이동에 따른 포인터의 위치 이동을 1 대 1로 변환할 수 있다.
예를 들어, 제 2 터치의 접촉 위치가 기기의 화면에서 3cm만큼 우측으로 이동했다면, 포인터의 위치 역시 현재 위치에서 3cm만큼 우측으로 이동하는 것이다.
또한 좌표 변환부(203)는 제 2 터치의 접촉 위치 이동에 따른 포인터의 위치 이동을 1 대 N으로 변환할 수도 있다
예를 들어, 제 2 터치의 접촉 위치가 기기의 화면에서 3cm만큼 좌측으로 이동했다면, 포인터의 위치는 현재 위치에서 변환비율에 따라 1cm, 0.5cm 혹은 그 이하만큼 좌측으로 이동하는 것이다.
이는, 위치 기반 서비스 기기의 화면에 디스플레이되는 지도의 축적이 높아, 세밀한 포인터 이동이 불가능한 경우에도 세밀한 포인터의 이동을 가능하게 하며, 위치 기반 서비스 기기의 화면뿐만 아니라 터치 스크린을 사용하는 대부분의 디지털 기기의 화면이 점차 소형화 되어가는 추세에서 본 발명에서 제공하는 포인터의 세밀한 이동은 해당 기기의 사용성을 향상시킬 수 있다.
참고로, 본 발명의 실시예에 따른 장치는 제 1 터치와 제 2 터치를 이용하여 포인터를 이동시킬 뿐만 아니라, 버튼(미도시)이나 터치(미도시)와 같은 소정의 모드 전환 입력을 통해서 지도를 회전시킬 수도 있다.
도 3h는 본 발명의 실시예에 따른 지도 회전 방법을 도시한 도면이다.
도 3e에 도시된 것처럼 터치 감지부(201)의 제 1 터치의 감지 및 해당 접촉 위치(321)의 파악, 포인터 설정부(202)에 의해서 제 1 터치의 접촉 위치(321)에 포인터(322) 설정, 그리고 제 2 터치의 접촉이 이루어졌다면, 사용자는 회전 전환 버튼(미도시)이나 회전 전환을 위한 터치(미도시)를 통해서 지도를 원하는 만큼 회전시킬 수 있다.
이때, 도 3h에 도시된 것처럼 지도의 회전은 제 1 터치의 접촉 위치(321)를 중심으로 회전하게 되며, 사용자는 제 2 터치의 접촉 위치를 이동시킴으로써 회전 의 크기를 조절할 수 있다.
좌표 변환부(203)는 제 2 터치의 접촉 위치 이동에 따른 포인터를 중심으로 한 회전을, 상술한 제 2 터치의 접촉 위치 이동과 포인터의 이동 변환 비율처럼, 1 대 1 또는 1 대 N으로 조절하여 섬세하게 지도의 회전을 조절할 수 있다.
한편, 압력 감지부(204)는 터치 감지부(201)에서 파악한 제 1 터치 및 제 2 터치의 접촉 위치에 대한 압력을 감지하고 감지된 압력에 대응하는 동작을 지시한다.
또한, 압력 감지부(204)는 제 1 터치 및 제 2 터치의 접촉 위치에 대해 감지된 압력의 지속 시간 과 압력 정도에 따라 감지된 압력에 대응하는 동작을 지시할 수 있다.
예를 들어 지도의 줌-인(Zoom In) 이나 줌-아웃(Zoom Out) 기능 동작 시 , 압력의 정도에 따라 줌-인이나 줌-아웃의 속도를 조절할 수 있다.
압력이 낮을 경우 줌-인이나 줌-아웃의 속도가 느리며, 압력이 높을 경우 줌-인이나 줌-아웃의 속도가 빨라지는 효과를 줄 수 있다.
도 3i 내지 도 3j는 본 발명의 실시예에 따른 압력 감지부의 동작 지시를 도시한 도면이다.
예를 들어, 제 1 터치 후 접촉 위치의 이동 없이 소정의 시간 동안 압력을 유지하면, 압력 감지부(204)는 도 3i처럼 지도에서 해당 위치의 정보(327)를 디스플레이하도록 디스플레이부(205)에 요청한다.
여기에서 해당 위치의 정보(327)는 지명, 건물명, 위도 및 경도와 같은 정보 가 포함될 수 있다.
또한, 제 2 터치 후 접촉 위치의 이동 없이 소정의 시간 동안 압력을 유지하면, 압력 감지부(204)는 마우스의 왼쪽 버튼 클릭과 오른쪽 버튼 클릭의 효과를 나타낼 수도 있다.
예를 들어, 제 2 터치 후 접촉 위치의 이동 없이 바로 압력을 가하는 경우, 마우스의 왼쪽 버튼 클릭과 같은 효과를 나타낼 수 있고, 도 3j처럼 제 2 터치 후 접촉 위치의 이동 없이 소정의 시간(예를 들어, 2초) 동안 압력을 유지하면 마우스 오른쪽 버튼 클릭의 효과를 나타내어 속성 창(328)을 팝업 시킬 수 있다.
본 발명에서 제시하는 압력의 지속시간 및 압력의 강도는 실시예에 따라 얼마든지 다양하게 실행될 수 있으므로 본 발명의 실시예로 한정하지 않는다.
도 4는 본 발명의 실시예에 따른 터치 스크린에서 사용성 향상을 위한 방법을 도시한 흐름도이다.
참고로, 설명의 편의상 도 2에 도시된 장치를 참조하여 도 4의 흐름도를 설명하도록 한다.
터치 감지부(201)는 사용자의 제 1 터치를 감지하고, 제 1 터치의 접촉 위치를 파악한다(S401).
S401 후, 터치 감지부(201)는 제 1 터치의 접촉이 해제되었는지 판단한다(S402).
판단 결과, 제 1 터치의 접촉이 해제되었다면 포인터 설정부(202)는 제 1 터치의 접촉 위치에 포인터를 설정한다(S403).
S403 후, 터치 감지부(201)는 사용자의 제 2 터치를 감지하고, 제 2 터치의 접촉 위치를 파악한다(S404).
이때, 터치 감지부(201)는 제 1 터치의 접촉이 해제된 후 이루어진 접촉, 즉 소정의 시간차가 발생한 후 이루어진 접촉이므로 이를 제 2 터치로 구분한다.
S404 후, 압력 감지부(204)는 제 2 터치의 접촉 위치에서 압력 감지 여부를 판단한다(S405).
판단 결과, 압력이 감지되지 않은 경우, 터치 감지부(201)는 사용자의 제 2 터치 이동을 감지하고, 제 2 터치가 이동되는 접촉 위치를 파악한다(S406).
만일 S405의 판단 결과, 제 2 터치의 접촉 위치에 압력이 감지되는 경우, 압력 감지부(204)에 의해 추후 설명하게 될 S412~S413의 과정으로 진행된다.
S406 후, 좌표 변환부(203)는 S405에서 파악된 제 2 터치의 이동을 포인터의 이동으로 변환하여 반영한다(S407).
이때, 좌표 변환부(203)는 제 2 터치의 이동에 대한 포인터의 이동을 1 대 1 또는 1 대 N으로 반영하여, 제 2 터치로 포인터의 이동을 섬세하게 조절할 수 있다.
S407 후, 디스플레이부(205)를 통해 포인터의 위치 이동이 디스플레이된다(S408).
만일 S402의 판단 결과, 제 1 터치의 접촉이 해제되지 않은 경우 터치 감지부(201)는 제 1 터치의 이동 여부를 판단한다(S409).
판단 결과, 제 1 터치의 이동이 소정의 거리를 벗어난 경우, 터치 감지 부(201)는 이를 제 2 터치로 판단하고 포인터 설정부(202)는 제 1 터치의 첫 접촉 위치에 포인터를 설정한다(S410).
만일 S409의 판단 결과 제 1 터치의 이동이 소정의 거리를 벗어나지 못했다면, 터치 감지부(201)에서 지속적으로 제 1 터치의 감지 및 접촉 위치를 파악하게 된다
만일 S409의 판단 결과, 제 1 터치의 접촉 위치가 이동되지 않았다면, 압력 감지부(204)는 제 1 터치의 접촉 위치에서 압력 감지 여부를 판단하고(S411), 판단 결과 압력이 감지되는 경우 압력의 지속시간이나 압력의 강도를 파악하여 해당 조건에 대응하는 동작을 지시한다(S412).
S412 후, 디스플레이부(205)는 지시된 동작을 디스플레이한다(S413).
이상과 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.
상기한 바와 같은 본 발명의 실시예에 따른 사용성을 향상시키는 터치 스크린 및 터치 스크린에서 사용성 향상을 위한 방법에 따르면 다음과 같은 효과가 하나 혹은 그 이상 있다.
사용자가 보기 원하는 화면의 내용이 사용자의 손가락과 같은 신체 일부분이나 스타일러스 펜과 같은 도구에 일부 가리워지는 현상을 해소하는 장점이 있다.
또한, 제 1 터치 및 제 2 터치로 포인터의 이동이나 포인터를 통한 동작을 세밀하게 조절할 수 있는 장점도 있다.
또한, 화면의 크기를 확대하지 않고도 포인터의 이동 및 포인터를 통한 동작을 세밀하게 조절함으로써 위치 기반 서비스 기기의 소형화에 기여하는 장점도 있다.

Claims (14)

  1. 제 1 터치 및 제 2 터치를 감지하고, 상기 감지된 터치의 접촉 위치를 파악하는 터치 감지부;
    상기 파악된 제 1 터치의 접촉 위치에 포인터를 설정하는 포인터 설정부; 및
    상기 제 2 터치의 이동에 따른 접촉 위치의 이동을 상기 포인터의 위치 이동으로 변환하는 좌표 변환부를 포함하는, 사용성을 향상시키는 터치 스크린.
  2. 제 1 항에 있어서,
    상기 감지된 제1 터치의 접촉 위치에 대한 제1 압력 및 상기 감지된 제2 터치의 접촉 위치에 대한 제2 압력을 감지하고, 감지된 상기 제1 압력 및 상기 제2 압력에 대응하는 동작을 지시하는 압력 감지부를 더 포함하는, 사용성을 향상시키는 터치 스크린.
  3. 제 2 항에 있어서,
    상기 압력 감지부는 감지된 상기 제1 압력 및 상기 제2 압력의 지속 시간 및 감지된 상기 제1 압력 및 상기 제2 압력의 강도 중 어느 하나에 따라 상기 동작을 지시하는, 사용성을 향상시키는 터치 스크린.
  4. 제 1 항에 있어서,
    상기 터치 감지부는 상기 제 1 터치 및 상기 제 2 터치를 소정의 시간차로 구분하는, 사용성을 향상시키는 터치 스크린.
  5. 제 1 항에 있어서,
    상기 터치 감지부는 상기 제 1 터치 및 상기 제 2 터치를 소정의 거리차로 구분하는, 사용성을 향상시키는 터치 스크린.
  6. 제 1 항에 있어서,
    상기 좌표 변환부는 상기 제 2 터치의 이동에 따른 접촉 위치의 이동과 상기 포인터의 위치 이동을 1 대 1로 변환하는, 사용성을 향상시키는 터치 스크린.
  7. 제 1 항에 있어서,
    상기 좌표 변환부는 상기 제 2 터치의 이동에 따른 접촉 위치의 이동과 상기 포인터의 위치 이동을 1 대 N으로 변환하는, 사용성을 향상시키는 터치 스크린.
  8. 제 1 터치를 감지하고, 상기 감지된 제1 터치의 제1 접촉 위치를 파악하는 제 1 터치 감지 단계;
    상기 파악된 제 1 터치의 제1 접촉 위치에 포인터를 설정하는 포인터 설정 단계;
    제 2 터치를 감지하고, 상기 감지된 제2 터치의 제2 접촉 위치를 파악하는 제 2 터치 감지 단계; 및
    상기 제 2 터치의 이동에 따른 상기 제2 접촉 위치의 이동을 상기 포인터의 위치 이동으로 변환하는 좌표 변환 단계를 포함하는 터치 스크린에서 사용성 향상을 위한 방법.
  9. 제 8 항에 있어서,
    상기 감지된 제1 터치의 제1 접촉 위치에 대한 제1 압력 및 상기 감지된 제2 터치의 제2 접촉 위치에 대한 제2 압력을 감지하고, 감지된 상기 제1 압력 및 상기 제2 압력에 대응하는 동작을 지시하는 압력 감지 단계를 더 포함하는, 터치 스크린에서 사용성 향상을 위한 방법.
  10. 제 9 항에 있어서,
    상기 압력 감지 단계는 감지된 상기 제1 압력 및 상기 제2 압력의 지속 시간 및 감지된 상기 제1 압력 및 상기 제2 압력의 강도 중 어느 하나에 따라 상기 동작을 지시하는, 터치 스크린에서 사용성 향상을 위한 방법.
  11. 제 8 항에 있어서,
    상기 제 2 터치 감지 단계는 상기 제 1 터치 및 상기 제 2 터치를 소정의 시간차로 구분하는 터치 스크린에서 사용성 향상을 위한 방법.
  12. 제 8 항에 있어서,
    상기 제 2 터치 감지 단계는 상기 제 1 터치 및 상기 제 2 터치를 소정의 거리차로 구분하는 터치 스크린에서 사용성 향상을 위한 방법.
  13. 제 8 항에 있어서,
    상기 좌표 변환 단계는 상기 제 2 터치의 이동에 따른 상기 제2 접촉 위치의 이동과 상기 포인터의 위치 이동을 1 대 1로 변환하는 터치 스크린에서 사용성 향상을 위한 방법.
  14. 제 8 항에 있어서,
    상기 좌표 변환 단계는 상기 제 2 터치의 이동에 따른 상기 제2 접촉 위치의 이동과 상기 포인터의 위치 이동을 1 대 N으로 변환하는 터치 스크린에서 사용성 향상을 위한 방법.
KR1020070007972A 2007-01-25 2007-01-25 사용성을 향상시키는 터치 스크린 및 터치 스크린에서 사용성 향상을 위한 방법 KR100891099B1 (ko)

Priority Applications (6)

Application Number Priority Date Filing Date Title
KR1020070007972A KR100891099B1 (ko) 2007-01-25 2007-01-25 사용성을 향상시키는 터치 스크린 및 터치 스크린에서 사용성 향상을 위한 방법
US11/979,929 US8760410B2 (en) 2007-01-25 2007-11-09 Apparatus and method for improvement of usability of touch screen
EP08100613.2A EP1950653B1 (en) 2007-01-25 2008-01-17 Apparatus and method for improvement of usability of touch screen
JP2008014719A JP5448346B2 (ja) 2007-01-25 2008-01-25 タッチスクリーンにおける使用性向上のための装置および方法
CN200810003567.9A CN101231564B (zh) 2007-01-25 2008-01-25 改善触摸屏的可用性的设备和方法
JP2013221022A JP5881661B2 (ja) 2007-01-25 2013-10-24 タッチスクリーンにおける使用性向上のための装置および方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070007972A KR100891099B1 (ko) 2007-01-25 2007-01-25 사용성을 향상시키는 터치 스크린 및 터치 스크린에서 사용성 향상을 위한 방법

Publications (2)

Publication Number Publication Date
KR20080070226A KR20080070226A (ko) 2008-07-30
KR100891099B1 true KR100891099B1 (ko) 2009-03-31

Family

ID=39415137

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070007972A KR100891099B1 (ko) 2007-01-25 2007-01-25 사용성을 향상시키는 터치 스크린 및 터치 스크린에서 사용성 향상을 위한 방법

Country Status (5)

Country Link
US (1) US8760410B2 (ko)
EP (1) EP1950653B1 (ko)
JP (2) JP5448346B2 (ko)
KR (1) KR100891099B1 (ko)
CN (1) CN101231564B (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013062240A1 (ko) * 2011-10-26 2013-05-02 주식회사 한글과컴퓨터 터치스크린 장치 및 터치스크린 화면 크기 조정 방법
KR101390164B1 (ko) 2009-08-17 2014-04-29 노키아 코포레이션 광학적으로 투명한 시트를 포함하는 장치 및 관련된 방법

Families Citing this family (70)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10983665B2 (en) * 2008-08-01 2021-04-20 Samsung Electronics Co., Ltd. Electronic apparatus and method for implementing user interface
JP2010049460A (ja) * 2008-08-21 2010-03-04 Denso Corp 操作入力装置
US8384687B2 (en) * 2008-08-21 2013-02-26 Denso Corporation Manipulation input apparatus
US20100060588A1 (en) * 2008-09-09 2010-03-11 Microsoft Corporation Temporally separate touch input
US8427424B2 (en) * 2008-09-30 2013-04-23 Microsoft Corporation Using physical objects in conjunction with an interactive surface
KR101507840B1 (ko) * 2008-10-23 2015-04-03 엘지전자 주식회사 이동통신 단말기 및 터치 스크린 제어방법
US20100162181A1 (en) * 2008-12-22 2010-06-24 Palm, Inc. Interpreting Gesture Input Including Introduction Or Removal Of A Point Of Contact While A Gesture Is In Progress
JP2010176330A (ja) * 2009-01-28 2010-08-12 Sony Corp 情報処理装置、及び表示制御方法
DE102009008041A1 (de) * 2009-02-09 2010-08-12 Volkswagen Ag Verfahren zum Betrieb eines Kraftfahrzeuges mit einem Touchscreen
KR101062594B1 (ko) * 2009-03-19 2011-09-06 김연수 포인터 디스플레이가 가능한 터치스크린
WO2010122813A1 (ja) * 2009-04-24 2010-10-28 京セラ株式会社 入力装置
US20100283722A1 (en) * 2009-05-08 2010-11-11 Sony Ericsson Mobile Communications Ab Electronic apparatus including a coordinate input surface and method for controlling such an electronic apparatus
US8355007B2 (en) 2009-05-11 2013-01-15 Adobe Systems Incorporated Methods for use with multi-touch displays for determining when a touch is processed as a mouse event
JP5173924B2 (ja) * 2009-05-12 2013-04-03 京セラドキュメントソリューションズ株式会社 画像形成装置
FR2948808B1 (fr) * 2009-07-30 2012-08-03 Dassault Aviat Dispositif numerique d'affichage, notamment pour la preparation d'un trajet
JP2011053974A (ja) * 2009-09-02 2011-03-17 Sony Corp 操作制御装置、操作制御方法およびコンピュータプログラム
CN102033684B (zh) * 2009-09-30 2013-01-02 万达光电科技股份有限公司 触控面板的手势侦测方法
TW201115419A (en) * 2009-10-29 2011-05-01 Sentelic Corp Touch-sensing method and electronic device
CN102103452A (zh) * 2009-12-17 2011-06-22 深圳富泰宏精密工业有限公司 飞点控制***及飞点控制方法
US8730309B2 (en) 2010-02-23 2014-05-20 Microsoft Corporation Projectors and depth cameras for deviceless augmented reality and interaction
US20110224896A1 (en) * 2010-03-09 2011-09-15 Nokia Corporation Method and apparatus for providing touch based routing services
KR101572892B1 (ko) * 2010-05-06 2015-11-30 엘지전자 주식회사 이동 단말기 및 이것의 영상 디스플레이 방법
KR101694157B1 (ko) * 2010-05-11 2017-01-09 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
US8640020B2 (en) * 2010-06-02 2014-01-28 Microsoft Corporation Adjustable and progressive mobile device street view
US9329469B2 (en) 2011-02-17 2016-05-03 Microsoft Technology Licensing, Llc Providing an interactive experience using a 3D depth camera and a 3D projector
US9480907B2 (en) 2011-03-02 2016-11-01 Microsoft Technology Licensing, Llc Immersive display with peripheral illusions
US9597587B2 (en) 2011-06-08 2017-03-21 Microsoft Technology Licensing, Llc Locational node device
US8643616B1 (en) 2011-07-29 2014-02-04 Adobe Systems Incorporated Cursor positioning on a touch-sensitive display screen
EP2562628A1 (en) * 2011-08-26 2013-02-27 Sony Ericsson Mobile Communications AB Image scale alteration arrangement and method
EP2763378B1 (en) * 2011-09-27 2019-07-24 NEC Corporation Portable electronic device, touch operation processing method and program
JP2013080412A (ja) * 2011-10-05 2013-05-02 Sony Corp 情報処理装置、情報処理方法、及びプログラム
KR101338825B1 (ko) 2011-12-14 2013-12-06 현대자동차주식회사 다이나믹 터치 인터렉션을 이용한 선택영역 상세 정보 표시 제어방법 및 그 장치
US9075566B2 (en) 2012-03-02 2015-07-07 Microsoft Technoogy Licensing, LLC Flexible hinge spine
US9158383B2 (en) 2012-03-02 2015-10-13 Microsoft Technology Licensing, Llc Force concentrator
KR101690261B1 (ko) 2012-04-02 2016-12-27 삼성전자주식회사 디지털 영상 처리장치 및 그 제어방법
EP2847661A2 (en) * 2012-05-09 2015-03-18 Apple Inc. Device, method, and graphical user interface for moving and dropping a user interface object
US20130300590A1 (en) 2012-05-14 2013-11-14 Paul Henry Dietz Audio Feedback
CN103425311A (zh) * 2012-05-25 2013-12-04 捷达世软件(深圳)有限公司 移动对象点选定位方法及***
CN102750034B (zh) * 2012-06-20 2017-07-28 中兴通讯股份有限公司 一种上报触摸屏坐标点的方法及移动终端
WO2013192539A1 (en) 2012-06-21 2013-12-27 Nextinput, Inc. Wafer level mems force dies
CN103513908B (zh) * 2012-06-29 2017-03-29 国际商业机器公司 用于在触摸屏上控制光标的方法和装置
JP2014010777A (ja) * 2012-07-02 2014-01-20 Fujitsu Ltd 表示プログラム、表示方法、及び情報処理装置
WO2014008377A1 (en) 2012-07-05 2014-01-09 Ian Campbell Microelectromechanical load sensor and methods of manufacturing the same
JP6015183B2 (ja) * 2012-07-18 2016-10-26 富士ゼロックス株式会社 情報処理装置およびプログラム
JP2014044605A (ja) * 2012-08-28 2014-03-13 Fujifilm Corp タッチ検知ディスプレイにおける入力制御装置および方法並びにプログラム
KR101404505B1 (ko) * 2012-09-24 2014-06-09 (주)이스트소프트 디스플레이를 구비한 전자기기에서 그래픽을 스케일링 또는 회전 조작하는 방법 및 이를 실행하는 전자기기
US10139937B2 (en) 2012-10-12 2018-11-27 Microsoft Technology Licensing, Llc Multi-modal user expressions and user intensity as interactions with an application
JP6029453B2 (ja) * 2012-12-21 2016-11-24 京セラ株式会社 携帯端末、カーソル表示制御プログラム、カーソル表示制御方法、カーソル発生制御プログラム、カーソル発生制御方法、アイコン表示プログラムおよびアイコン表示方法
JP5780438B2 (ja) * 2013-05-21 2015-09-16 カシオ計算機株式会社 電子機器、位置指定方法及びプログラム
CN103530052B (zh) * 2013-09-27 2017-09-29 华为技术有限公司 一种界面内容的显示方法和用户设备
CN104679423A (zh) * 2013-12-03 2015-06-03 方正国际软件(北京)有限公司 一种触摸屏地理位置精确定位的方法和***
WO2015106246A1 (en) 2014-01-13 2015-07-16 Nextinput, Inc. Miniaturized and ruggedized wafer level mems force sensors
US9965173B2 (en) * 2015-02-13 2018-05-08 Samsung Electronics Co., Ltd. Apparatus and method for precise multi-touch input
EP3307671B1 (en) 2015-06-10 2022-06-15 Nextinput, Inc. Ruggedized wafer level mems force sensor with a tolerance trench
CN107168565B (zh) * 2016-03-07 2020-05-15 敦泰电子有限公司 触控装置及其驱动电路和驱动方法、电子设备
CN107229362A (zh) * 2016-03-25 2017-10-03 宇龙计算机通信科技(深圳)有限公司 一种触控压力提示方法和装置
CN107239202B (zh) * 2016-03-29 2020-06-30 中兴通讯股份有限公司 控制指令识别方法和装置
KR101835674B1 (ko) * 2016-04-27 2018-03-07 연세대학교 산학협력단 포스 터치를 기반으로 하는 데이터 입력 장치 및 방법
JP6313395B1 (ja) * 2016-10-17 2018-04-18 グリー株式会社 描画処理方法、描画処理プログラム及び描画処理装置
US20180121000A1 (en) * 2016-10-27 2018-05-03 Microsoft Technology Licensing, Llc Using pressure to direct user input
WO2018148510A1 (en) 2017-02-09 2018-08-16 Nextinput, Inc. Integrated piezoresistive and piezoelectric fusion force sensor
CN110494724B (zh) 2017-02-09 2023-08-01 触控解决方案股份有限公司 集成数字力传感器和相关制造方法
WO2019018641A1 (en) 2017-07-19 2019-01-24 Nextinput, Inc. STACK OF STRAIN TRANSFER IN A MEMS FORCE SENSOR
WO2019023309A1 (en) 2017-07-25 2019-01-31 Nextinput, Inc. FORCE SENSOR AND INTEGRATED FINGERPRINTS
WO2019023552A1 (en) 2017-07-27 2019-01-31 Nextinput, Inc. PIEZORESISTIVE AND PIEZOELECTRIC FORCE SENSOR ON WAFER AND METHODS OF MANUFACTURING THE SAME
WO2019079420A1 (en) 2017-10-17 2019-04-25 Nextinput, Inc. SHIFT TEMPERATURE COEFFICIENT COMPENSATION FOR FORCE SENSOR AND STRAIN GAUGE
US11385108B2 (en) 2017-11-02 2022-07-12 Nextinput, Inc. Sealed force sensor with etch stop layer
US11874185B2 (en) 2017-11-16 2024-01-16 Nextinput, Inc. Force attenuator for force sensor
JP6863918B2 (ja) * 2018-03-19 2021-04-21 グリー株式会社 制御プログラム、制御方法及び情報処理装置
US10962427B2 (en) 2019-01-10 2021-03-30 Nextinput, Inc. Slotted MEMS force sensor

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0651908A (ja) * 1992-07-28 1994-02-25 Sony Corp タッチパネル式入力装置を備えた情報処理装置
KR20040056892A (ko) 2002-12-24 2004-07-01 엘지.필립스 엘시디 주식회사 터치패널의 구동 장치 및 방법

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US1136749A (en) * 1909-02-13 1915-04-20 Union Special Machine Co Feeding mechanism for sewing-machines.
JP3103085B2 (ja) * 1989-12-15 2000-10-23 株式会社東芝 表示入力装置
JPH07104914A (ja) 1993-09-30 1995-04-21 Toshiba Corp タッチ入力装置
US20010040587A1 (en) 1993-11-15 2001-11-15 E. J. Scheck Touch control of cursonr position
GB2286100A (en) * 1994-01-19 1995-08-02 Ibm Touch-sensitive display apparatus
JPH09251347A (ja) 1996-03-15 1997-09-22 Matsushita Electric Ind Co Ltd 座標入力装置
US5854625A (en) * 1996-11-06 1998-12-29 Synaptics, Incorporated Force sensing touchpad
JPH11203044A (ja) 1998-01-16 1999-07-30 Sony Corp 情報処理システム
US7760187B2 (en) * 2004-07-30 2010-07-20 Apple Inc. Visual expander
US6252544B1 (en) * 1998-01-27 2001-06-26 Steven M. Hoffberg Mobile communication device
US6278443B1 (en) * 1998-04-30 2001-08-21 International Business Machines Corporation Touch screen with random finger placement and rolling on screen to control the movement of information on-screen
JPH11338628A (ja) 1998-05-25 1999-12-10 Sharp Corp ポインティングデバイス
JP4044255B2 (ja) * 1999-10-14 2008-02-06 富士通株式会社 情報処理装置、及び画面表示方法
EP1191430A1 (en) 2000-09-22 2002-03-27 Hewlett-Packard Company, A Delaware Corporation Graphical user interface for devices having small tactile displays
JP5109212B2 (ja) * 2001-05-01 2012-12-26 ソニー株式会社 ナビゲーション装置、情報表示装置、オブジェクト生成方法、記憶媒体
FI115254B (fi) 2001-12-20 2005-03-31 Nokia Corp Kosketusnäytön käyttäminen osoitinvälineellä
US7656393B2 (en) * 2005-03-04 2010-02-02 Apple Inc. Electronic device having display and surrounding touch sensitive bezel for user interface and control
US11275405B2 (en) * 2005-03-04 2022-03-15 Apple Inc. Multi-functional hand-held device
JP2004110388A (ja) 2002-09-18 2004-04-08 Sharp Corp タッチパネルを有する装置
KR20040081697A (ko) 2003-03-12 2004-09-22 박경희 마우스식 터치패드
JP4215549B2 (ja) * 2003-04-02 2009-01-28 富士通株式会社 タッチパネル・モードとポインティング・デバイス・モードで動作する情報処理装置
JP4295280B2 (ja) * 2003-08-29 2009-07-15 ノキア コーポレイション タッチベースユーザ入力装置で2点ユーザ入力を認識する方法および装置
US7454713B2 (en) * 2003-12-01 2008-11-18 Sony Ericsson Mobile Communications Ab Apparatus, methods and computer program products providing menu expansion and organization functions
US7366995B2 (en) * 2004-02-03 2008-04-29 Roland Wescott Montague Combination tool that zooms in, zooms out, pans, rotates, draws, or manipulates during a drag
KR20060010579A (ko) 2004-07-28 2006-02-02 안준성 마우스 터치패드
JP2006126997A (ja) 2004-10-27 2006-05-18 Pfu Ltd 3次元タッチパネル
US7489306B2 (en) 2004-12-22 2009-02-10 Microsoft Corporation Touch screen accuracy
JP4642497B2 (ja) * 2005-02-10 2011-03-02 クラリオン株式会社 ナビゲーション装置
US7605804B2 (en) * 2005-04-29 2009-10-20 Microsoft Corporation System and method for fine cursor positioning using a low resolution imaging touch screen
DE102005047648A1 (de) 2005-10-05 2007-04-12 Volkswagen Ag Eingabevorrichtung für ein Kraftfahrzeug

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0651908A (ja) * 1992-07-28 1994-02-25 Sony Corp タッチパネル式入力装置を備えた情報処理装置
KR20040056892A (ko) 2002-12-24 2004-07-01 엘지.필립스 엘시디 주식회사 터치패널의 구동 장치 및 방법

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101390164B1 (ko) 2009-08-17 2014-04-29 노키아 코포레이션 광학적으로 투명한 시트를 포함하는 장치 및 관련된 방법
WO2013062240A1 (ko) * 2011-10-26 2013-05-02 주식회사 한글과컴퓨터 터치스크린 장치 및 터치스크린 화면 크기 조정 방법

Also Published As

Publication number Publication date
EP1950653B1 (en) 2018-08-29
JP2008181523A (ja) 2008-08-07
EP1950653A3 (en) 2009-07-08
CN101231564B (zh) 2014-06-25
EP1950653A2 (en) 2008-07-30
JP2014056590A (ja) 2014-03-27
KR20080070226A (ko) 2008-07-30
US8760410B2 (en) 2014-06-24
JP5448346B2 (ja) 2014-03-19
CN101231564A (zh) 2008-07-30
JP5881661B2 (ja) 2016-03-09
US20080180402A1 (en) 2008-07-31

Similar Documents

Publication Publication Date Title
KR100891099B1 (ko) 사용성을 향상시키는 터치 스크린 및 터치 스크린에서 사용성 향상을 위한 방법
JP5174704B2 (ja) 画像処理装置および画像処理方法
JP5379259B2 (ja) 画面表示装置
KR101667715B1 (ko) 증강현실을 이용한 경로 안내 방법 및 이를 이용하는 이동 단말기
JP5129478B2 (ja) 画面表示装置
US9207096B2 (en) Map magnifier
KR101467766B1 (ko) 이동 단말기 및 이동 단말기의 화면 표시 방법
US9772757B2 (en) Enlarging image based on proximity of a pointing object to a display screen
US20050268253A1 (en) Navigation of an N-dimensional hierarchical structure using a 2-dimensional controller
CN102016783A (zh) 光标导航辅助
KR20100069842A (ko) 사용자 인터페이스를 구현하는 전자장치 및 그 방법
US20160178380A1 (en) Electric device and information display method
JP2010019643A (ja) 情報端末、ナビゲーション装置、選択肢表示方法
CA2779590C (en) Map magnifier
CA2746064C (en) Navigating between a map dialog and button controls displayed outside the map
KR101430475B1 (ko) 이동 단말기 및 이동 단말기의 화면 표시 방법
JP6254803B2 (ja) 地図画像表示装置
KR20120033162A (ko) 영상 투사를 이용한 경로 안내 방법 및 이를 이용하는 이동 단말기
CN106569682B (zh) 触摸屏显示内容选择装置和方法
JP5665838B2 (ja) 画像処理装置、画像表示方法、および、プログラム
KR101455994B1 (ko) 이동 단말기 및 이동 단말기의 화면 표시 방법
CN113296647A (zh) 界面显示方法及装置

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130221

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20140221

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20150212

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20160219

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20170221

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20180220

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20190221

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20200225

Year of fee payment: 12