KR101432878B1 - 터치 스크린, 관련 동작 방법 및 시스템 - Google Patents

터치 스크린, 관련 동작 방법 및 시스템 Download PDF

Info

Publication number
KR101432878B1
KR101432878B1 KR1020117027382A KR20117027382A KR101432878B1 KR 101432878 B1 KR101432878 B1 KR 101432878B1 KR 1020117027382 A KR1020117027382 A KR 1020117027382A KR 20117027382 A KR20117027382 A KR 20117027382A KR 101432878 B1 KR101432878 B1 KR 101432878B1
Authority
KR
South Korea
Prior art keywords
touch screen
user
screen
engagement member
screening
Prior art date
Application number
KR1020117027382A
Other languages
English (en)
Other versions
KR20120020122A (ko
Inventor
이안 서머스
Original Assignee
닛본 덴끼 가부시끼가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 닛본 덴끼 가부시끼가이샤 filed Critical 닛본 덴끼 가부시끼가이샤
Publication of KR20120020122A publication Critical patent/KR20120020122A/ko
Application granted granted Critical
Publication of KR101432878B1 publication Critical patent/KR101432878B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

예시적인 실시예는 사용자의 스크린 인게이지먼트 부재에 의해 터치될 때를 결정하도록 구성되고 또한 상이한 스크린 인게이지먼트 부재들 사이에서 구별하기 위해 상기 인게이지먼트 부재의 식별성을 식별하도록 더 구성되는 터치 스크린에 관한 것이고, 스크린의 후속 동작의 적어도 하나의 양태는 상기 부재의 식별에 응답한다.

Description

터치 스크린, 관련 동작 방법 및 시스템{TOUCH SCREEN, RELATED METHOD OF OPERATION AND SYSTEM}
본 발명은 모바일, 핸드헬드, 전자 디바이스들을 위한 인터페이스 디바이스를 보통 형성할 수 있는 터치 스크린들에 관한 것이고, 또한 일반적으로 더 큰 스케일의 워크 스테이션들 및 제어 시스템들에 관한 것이다.
터치 스크린들은 일반적으로 그것들이 사용자가 그 디바이스/시스템의 동작과 관련된 정보를 디스플레이하는 디바이스/시스템의 요소와 직접적으로 상호작용할 수 있게 하는 한 인터페이스 디바이스들로서 유리하게 고려된다.
또한, 그러한 알려진 터치 스크린들의 통합은 또한 표준 키보드와 같은 별개의 사용자 인터페이스 디바이스에 대한 필요를 없애는 것을 도울 수 있어, 디바이스가 더욱 콤팩트해지고, 쉽게 휴대할 수 있게 된다.
PTL 1: 미국 특허 공개 번호 제2005/193351호 PTL 2: 국제 특허 공개 번호 WO 2009/032638 PTL 3: 미국 특허 공개 번호 제2006/274044호 PTL 4: 미국 특허 공개 번호 제2009/037846호
그러나, 표준 키보드들에 대한 이점들을 제공하면서, 현재의 터치 스크린들은 그럼에도 불구하고 적절한 이용, 제어 및 내비게이션 기능을 허용하기 위해, 과도한 수의 "터치들"이 사용자에 의해 종종 요구되고 이것은 장치 또는 시스템이 이용될 수 있고 겉보기에는 불필요하게 복잡하고 비효율적으로 스크린을 이용하는 것으로 보일 수 있는 속도를 제한하는 역할을 한다는 점에서 단점들 및 제한들을 나타낸다.
그러한 비교적 고레벨의 최종 사용자 상호작용에 의하면, 사용자 인터페이스 렌더링(user interface rendering)에 불리하게 높은 수의 변경들이 요구되고, 이것은 불리하게 CPU 리소스들을 소비할 수 있고 또한 장치 또는 시스템에 대해 더 많은 전력을 요구할 수 있다. 또한 그것이 상이한 사용자 설정들 및 특권들(privileges)을 요구하는 복수 사용자 환경(multi-user environment) 내의 준비된 이용을 허용하는 것이 가능한 것으로 판명되지 않는 한, 알려진 터치 스크린들에 의해 제한된 제어가 나타난다. 따라서 이 기술분야에서 현재 알려진 바와 같은 터치 스크린들을 채용할 때 잠재적인 보안 약점들이 생긴다.
이러한 알려진 터치 스크린들의 예들은 예를 들어, 전술한 특허 문헌들, 즉, US-A-2005/193351, WO-A-2009/032638, US-A-2006/274044 및 US-A-2009/037846에서 찾아볼 수 있다.
이들 선행 문헌들 전부는 터치 스크린들을 일반적으로 이용하는 사용자 인터페이스들에 대해 초점을 맞추고 있지만, 어떤 것도 전술한 단점들을 해결하고자 하지 않아 언급한 제한들이 여전히 남아 있다.
본 발명의 대표적인 목적은 알려진 그러한 스크린들, 방법들 및 시스템들에 대해 이점들을 갖는 터치 스크린, 동작 방법 및 관련 시스템을 제공하는 것이다.
본 발명의 대표적인 양태에 따르면, 사용자의 스크린 인게이지먼트 부재(screen-engagement member)에 의해 터치될 때를 결정하도록 구성되고 또한 상이한 스크린 인게이지먼트 부재들 사이에서 구별하기 위해 상기 인게이지먼트 부재의 식별성(identifying characteristic)을 식별하도록 구성되는 터치 스크린이 제공되고, 스크린의 후속 동작의 적어도 하나의 양태는 상기 부재의 식별에 응답한다.
본 발명의 대표적인 양태에 따르면, 사용자의 스크린 인게이지먼트 부재에 의해 터치될 때를 결정하는 단계를 포함하고 또한 상이한 스크린 인게이지먼트 부재들 사이에서 구별하기 위해 상기 스크린 인게이지먼트 부재의 식별성을 식별하는 단계를 포함하는 터치 스크린의 동작의 적어도 하나의 양태를 제어하는 방법이 제공되고, 상기 적어도 하나의 양태는 상기 스크린 인게이지먼트 부재의 식별에 응답하여 제어된다.
알려진 이러한 스크린들, 방법들 및 시스템들에 대해 이점들을 갖는 터치 스크린, 동작 방법 및 관련 시스템이 제공되었다.
도 1은 본 실시예를 구현하는 터치 스크린의 단면 통과부(section through part)의 개략도.
도 2는 본 실시예를 구현하는 터치 스크린과의 사용자의 인게이지먼트를 도시하는 개략적인 평면도.
도 3은 본 실시예를 구현하는 터치 스크린의 동작을 도시하는 추가 평면도.
도 4는 이용중에 본 실시예를 구현하는 터치 스크린의 추가 평면도.
도 5는 본 실시예를 구현하는 그러한 터치 스크린의 추가 평면도.
도 6은 본 실시예를 구현하는 스크린의 사전 구성된 이용의 예를 도시하는 고레벨 맵핑 표를 도시한 도면.
도 7은 본 실시예를 구현하는 터치 스크린 장치의 이용을 예시하는 흐름도.
본 실시예의 제1 양태에 따르면, 사용자의 스크린 인게이지먼트 부재에 의해 터치될 때를 결정하도록 구성되고 또한 상이한 스크린 인게이지먼트 부재들 사이에서 구별하기 위해 상기 인게이지먼트 부재의 식별성을 식별하도록 더 구성되는 터치 스크린이 제공되고, 스크린의 후속 동작의 적어도 하나의 양태는 상기 부재의 식별에 응답한다.
스크린 인게이지먼트 부재의 식별이 상이한 스크린 인게이지먼트 부재들에 의한 상이한 동시 스크린 터치들 사이에서 구별하는 역할을 하고 또한 상이한 스크린 사용자들에 의한 스크린 터치들 사이에서 더 구별할 수 있는 한 실시예는 유리한 것으로 판명한다. 이러한 기능을 통해 유리하게는 현재 가능한 것보다 훨씬 더 큰 간단함 및 효율성을 갖는 스크린의 동작 및 그와의 상호작용을 제공하는 것이 가능함이 판명되고, 요구되는 정도의 제어 및 상호작용을 실현하기 위해 요구되는 스크린 터치들의 전체 수를 줄이는 역할을 쉽게 할 수 있다. 따라서, 동작의 더 큰 간단함 및 속도가 실현될 수 있다.
디바이스는 동시에 발생하는 복수의 접촉들을 쉽게 인식할 수 있고, 요구되는 경우, 미리 정의된 응답을 개시하기 위해 상이한 접촉 부재들/사용자들과 이들을 쉽게 연관시킬 수 있다.
예를 들어, 본 실시예의 스크린 디바이스는 쉽게 특정 최종 사용자를 식별할 수 있고, 또한 그들의 핑거(finger)들 및 썸(thumb)들과 같은 그 최종 사용자들의 스크린 인게이지먼트 부재들 사이에서 구별할 수 있고, 터치 스크린과 접촉하는 추가의 각각의 그러한 부재는 스크린 및 임의의 관련된 디바이스/시스템이 적절한 방식으로 기능하도록 할 수 있다.
인식되는 바와 같이, 터치 스크린은 유리하게는 인터페이스 디바이스일 수 있고 PDA, 모바일 전화 핸드셋 또는 랩톱/노트북의 형태로 된 휴대용 디바이스와 같은, 인터페이스하는 전자 디바이스의 부분을 포함할 수 있다.
또한, 인터페이스 디바이스는 별개의 디바이스, 장치 또는 시스템과 인터페이스하기 위해 구성될 수 있다.
특히, 터치 스크린은 전자 데이터 관리/제어 시스템을 위한 복수의 인터페이스 디바이스 중 하나를 포함할 수 있다. 특히, 터치 스크린은 다중 사용자 디바이스/시스템에 이용하기 위해 구성될 수 있다.
하나의 특정 실시예에서, 터치 스크린은 사용자의 핑거 및 썸 중 하나 또는 둘다를 포함하는 스크린 인게이지먼트 부재와 상호작용하도록 구성된다.
식별성은 그 다음에 유리하게는 생체 데이터를 포함할 수 있고, 예를 들어 핑거/썸 지문을 포함할 수 있다.
유리하게는, 터치 스크린은 사용자의 썸/핑거 지문을 판정하는 수단으로서 캐패시테이트(capacitate)의 측정을 이용하기 위하여 용량성 센서들을 이용하도록 구성된다.
대안으로서, 스크린 인게이지먼트 부재는, 또한 유리하게는 상기 식별성을 제공하는 역할을 하는, 전자 태그와 같은, 전자 식별 디바이스를 포함할 수 있는 스크린 접촉 디바이스를 포함할 수 있다.
이러한 디바이스들은 유리하게는 사용자의 손 및/또는 핑거에 착용하도록(worn upon) 구성될 수 있다.
추가 예로서, 이러한 스크린 인게이지먼트 부재는 스크린 인게이지먼트 스타일러스를 포함할 수 있다.
인식되는 바와 같이, 상기 식별성은 스크린 인게이지먼트 부재 및/또는 그 부재를 이용하는 디바이스의 실제 최종 사용자를 식별하도록 구성될 수 있다.
스크린의 절대 동작은 스크린 인게이지먼트 부재의 식별에 응답하여 제어될 수 있지만, 언급한 바와 같이, 후속 동작의 적어도 하나의 양태가 그렇게 제어되는 것이 오직 요구된다.
예를 들어, 디스플레이 옵션들, 기능 옵션들, 기능 제어 옵션들 및 스크린 장치 또는 시스템 액세스 기능들 중 적어도 하나는 상기 스크린 인게이지먼트 부재의 식별에 응답하여 제어될 수 있다.
디스플레이 옵션들과 관련하여, 스크린의 일부분은 추가의 인터랙티브 필드를 표현하는 이미지를 디스플레이하도록 구성될 수 있다. 이러한 추가의 인터랙티브 필드는 상이한 스크린 인게이지먼트 부재들 사이에서 구별하기 위해 스크린 인게이지먼트 부재의 특성을 식별하기 위한 적어도 하나의 영역을 포함할 수 있다. 따라서, 일단 특정 디스플레이 필드가 오픈되었다면, 처음에 스크린과 인게이징하는 사용자에 의해 판정된 바와 같이, 디스플레이된 영역과의 사용자 인게이지먼트를 통한 별도 레벨의 사용자 구별을 통해 추가 레벨의 제어가 실현될 수 있다. 상이한 사용자들에 의한 이 영역 내의 인게이지먼트는 그때에 스크린을 인게이징하는 특정 사용자의 아이덴티티에 응답하여 추가의 상이한 후속 액션들/이벤트들을 제공할 수 있다. 임의의 이러한 디스플레이된 영역은 따라서 그러한 추가의 요구되는 액션들/이벤트들을 개시하기 위하여 사용자가 인게이징하는 소위 트리거 포인트를 포함할 수 있다. 물론, 하나 이상의 그러한 트리거 포인트들은 임의의 그러한 디스플레이된 필드 내에 제공될 수 있다.
상기한 것으로부터 인식되는 바와 같이, 그러한 일반적으로 캐스케이딩 제어 구성(cascading control arrangement)은 유리하게는 메뉴 트리 타입 구조(menu-tree type structure)에 의해 이용될 수 있다.
스크린의 후속 동작의 적어도 하나의 양태는 스크린, 또는 스크린이 부분을 형성하는 장치 또는 시스템에 대한 액세스의 제어를 포함하고, 적절한 사용자 설정들 및/또는 특권들은 상기 부재의 식별에 응답하여 제어될 수 있다. 그 다음에 터치 스크린의 후속 동작이 그에 따라 제어된다.
본 실시예의 다른 양태에 따르면, 위에서 정의된 바와 같은 적어도 하나의 터치 스크린 디바이스를 포함하는 복수 사용자 전자 제어 시스템이 제공된다.
본 실시예의 또 다른 양태에 따르면, 스크린이 사용자의 스크린 인게이지먼트 부재에 의해 터치될 때를 결정하는 단계를 포함하고 또한 상이한 스크린 인게이지먼트 부재들 사이에서 구별하기 위해 상기 스크린 인게이지먼트 부재의 식별성을 식별하는 단계를 포함하는 터치 스크린의 동작의 적어도 하나의 양태를 제어하는 방법이 제공되고, 상기 적어도 하나의 양태는 상기 스크린 인게이지먼트 부재의 식별에 응답하여 제어된다.
따라서, 본 실시예는 단일, 또는 복수 접촉 포인트로든 디스플레이 스크린을 터치하면서 예를 들어, 최종 사용자의 핑거들 및 썸들의 각각에 대한 생체 데이터의 고유 특성들 중 하나 이상을 고유하게 식별하기 위해 임의의 적절한 센서 기술을 이용하는 터치 스크린의 제공에 관한 것임을 알아야 한다. 이러한 방식으로, 그들의 핑거/썸 지문과 같은 최종 사용자의 핑거 또는 썸을 식별하는 (생체) 데이터는 어느 핑거 또는 썸이 스크린과 접속해 있는지를 식별하기 위해 또는 사실상 어느 사용자가 현재 스크린을 동작시키고 있는지를 식별하기 위해 쉽게 이용될 수 있다. 미리 결정된, 또는 사용자 선택된 동작 기능들은 상이한 핑거들 및 썸들의 이용을 통해 제어될 수 있다. 예를 들어, 하나의 사용자의 핑거가 스크린 상에 랜덤으로 배치될 때, 스크린 및 그의 관련 디바이스는 특정 사용자를 쉽게 식별할 수 있고, 예를 들어 그 다음에 디바이스 내의 MP3 애플리케이션의 "재생" 기능과 같은 요구되는 기능을 쉽게 호출할 수 있다. 물론, 반면 사용자의 다른 핑거들 및 썸은 "앞으로 감기", "되감기" 또는 "일시정지" 기능들과 같은 상이한 기능들을 호출할 수 있다. 또한, 상이한 사용자가 스크린과 상호작용하는 것으로 식별되면, 그 사용자의 핑거들 및 썸들은 요구되는 바와 같이 상이한 액션들을 호출할 수 있다.
따라서, 실시예는 적절한 레벨들의 상대적인 사용자 설정들, 보안 액세스, 및 특권들이 쉽게 호출되고 제어될 수 있는 한 스크린의 복수 접촉을 통해 및 스크린과의 복수 사용자 상호작용을 통해 향상된 정도의 제어를 허용하는 데에 특히 유용하다. 물론, 본 실시예는 전술한 식별성을 캡처하고, 요구되는 경우, 그것을 적절한 사용자 설정들, 액세스 및 특권들의 레벨 등과 함께 저장하기 위한 수단을 포함할 수 있다는 것을 또한 인식해야 한다.
이하 실시예는 첨부 도면 도 1-7을 참조하여 예시적으로만 더 설명된다.
먼저 도 1을 보면, 본 실시예의 구현에 따른 터치 스크린의 부분의 개략도가 제공된다.
인식되는 바와 같이, 본 실시예의 터치 스크린은 임의의 적절한 센서 어레이를 이용할 수 있고, 이것에 의해 스크린 상의 사용자의 터치의 위치가 결정될 수 있을 뿐만 아니라, 실시예에 따라, 추가 식별 데이터가 쉽게 결정될 수 있다.
아래에서 개요를 설명한 예들에서, 사용자의 핑거는 일반적으로 스크린 인게이지먼트 부재로서 이용되고, 사용자의 핑거 지문에 의해 표현된 생체 데이터는 핑거의 식별성을 포함하는 역할을 한다.
인식되는 바와 같이, 원래의 저항성 센서들 이외에, 터치 스크린들은 이제 표면 탄성파 스크린들, 용량성 스크린들, 투사 용량성 스크린들(projective capacitive screen), 적외선 스크린들 등과 같은 갖가지 특성에 따라 동작한다.
본 실시예와 관련하여, 도 1에 예시된 바와 같이 용량성 센서들을 포함하는 특히 적절한 형태의 터치 스크린이 고려된다. 여기에 터치 스크린의 표면(12)과 인게이지먼트한 사용자의 핑거(10)의 표시가 제공되고, 그 접촉 포인트의 일부분이 스크린 표면(12)의 접촉 부분(12A)을 도시하는 확대도에 예시되고, 또한 사용자의 지문에 의해 정의된 일련의 피크들(peaks) 및 트로프들(troughs)을 포함하는 사용자의 핑거의 아래 표면(14)에 관해서 예시된다.
일련의 용량성 센서들(16)은 도 1에 예시된 바와 같이 사용자의 핑거의 아래 표면(14)과 표면 부분(12a) 사이에 효과적으로 형성된다.
현재의 CMOS 용량성 센서들은 22nm 정도와 같은 고해상도로, 또는 사실상 개별 픽셀의 것에 대응하는 크기로, 사용자의 핑거의 표면(14)과 센서 사이의 캐패시턴스를 측정하는 역할을 할 수 있다. 그러한 해상도는 전자 장치가 따라서 사용자의 지문의 표현을 포함하는 사용자의 핑거(16)의 표면(14)의 윤곽들을 측정하고 기록할 수 있게 한다. 언급한 바와 같이, 이들 윤곽들의 피크들 및 트로프들은 상이한 용량성 값들을 표현한다.
이러한 용량성 값들의 측정을 통해, 3차원의 핑거 접촉의 개별 포인트를 표현하는 것이 쉽게 가능하다고 판명된다. 표면 영역은 제1 및 제2 차원들(X 및 Y축)을 제공하고, 용량의 값은 제3 차원(Z축)의 핑거 표면의 특징들을 표현한다.
x, y 및 z 축에서의 그러한 판독들을 통해서, 개별적인 사용자의 지문의 고유 렌더링을 제공하기 위해 활성화된 센서들의 그룹을 측정, 기록 및 후속하여 식별하는 것이 쉽게 가능해진다.
사용자의 핑거들 각각이 상이한 지문을 제공하는 한, 스크린이 사용자의 핑거들 및 썸들 전부 사이에서 동시에 발생하는 접촉의 유사한 포인트들 사이에서 쉽게 구별할 수 있도록 사용자의 상이한 8개의 핑거 및 2개의 썸 각각에 대해 완전히(quite) 별개의 판독들이 실현될 수 있다.
따라서, 유리하게는, 사용자의 지문의 표현을 판정하는 것을 통해, 도 1의 것과 같이 구성된 터치 스크린이, 요구되는 경우, 먼저 요구되는 바와 같이 준비된 이용을 위해 지문 패턴 및 저장된 것을 포함하는 사용자의 핑거의 3차원 표현을 캡처하도록 구성될 수 있다. 물론, 그러한 지문 데이터는 다른 수단에 의해 캡쳐되어 후속하여 요구에 따라 터치 스크린 디바이스에 로드될 수 있다.
임의의 경우, 구현의 후속 이용 동안, 접촉의 포인트의 위치가 쉽게 판정될 수 있을 뿐만 아니라, 어느 사용자의 아이덴티티가 현재 접촉하고 있는지도 판정될 수 있고, 요구되는 경우, 10개의 가능한 손가락 중 어느 것이 접촉의 포인트에서 또는 각각의 접촉 포인트에서 이용되고 있는지가 판정될 수 있다.
따라서, 터치 스크린은 유리하게는 터치 스크린의 특히 간단하고 시간 효율적인 상호작용을 일으키는 단일 사용자의 복수의 동시 접촉들을 추적할 수 있다. 또한, 미리 정의된 사용자 설정들 및 허용된 특권들에 관한 보안의 특정층, 각각의 특정 사용자의 실제 식별은 그러한 설정들 및 특권들에 따른 동작을 위해 적절한 방식으로 디바이스를 구성하기 위해 그리고 물론 요구에 따라 진행중의 액세스를 허용/거절하기 위해 쉽게 실현될 수 있다. 예로서, 최종 사용자가 MP3 플레이어 기능을 이용하고 있는 경우, MP3 플레이어의 터치 스크린 상의 그들의 손가락들 중 어느 하나의 단순한 접촉이 스크린의 동작을 제어하기 위해 쉽게 식별될 수 있도록 "재생", "일시정지", "앞으로 감기", "리버스(reverse)" 및 "정지" 기능들의 제어가 예를 들어, 사용자의 오른손의 핑거들 및 썸 각각에 할당될 수 있다.
도 2에 대한 추가 예시를 위한 참조가 이루어지고 이것은 사용자의 오른손(20)의 4개의 핑거에 의해 터치된, 본 실시예의 구현에 따른 터치 스크린(18)의 평면도를 도시한다.
터치 스크린은 4개의 가능한 메뉴들(22-28) 중 어느 것이 예시된 바와 같이 사용자의 4개의 핑거 각각의 지문들의 식별에 응답하여 스크린(18) 상의 출현을 위해 오픈될 것인지를 판정하도록 앞서 사전 설정되었다.
따라서, 요구되는 경우, 사용자는 단지 그들의 핑거들 중 선택된 것에 의한 스크린(18)과의 접촉을 통해 메뉴들 중 하나에 간단하게 액세스할 수 있다.
사용자의 상이한 핑거들/썸들 각각의 준비된 식별은 또한 표준 "쿼티(qwerty)" 키보드를 이용하는 것처럼 구성된 그들의 손들과 그리고 스크린과 사용자의 상호작용을 허용할 수 있다. 그러한 예시는 도 3에 제공되고, 이것은 2개의 사용자의 손(30, 32)이 스크린(18)과 인게이지먼트하여 예시되고, 사용자의 썸들/핑거들 각각이 10개의 가능한 메뉴 중 적절한 것을 오픈하기 위해 터치 스크린(18)에 의해 인식되도록 배열된다.
즉, 사용자의 왼손(30)의 핑거들 각각은 메뉴들(34-40)을 오픈하도록 배열될 수 있고, 사용자의 왼손(30)의 썸은 메뉴(42)를 오픈하도록 배열된다.
사용자의 오른손은 관련된 핑거들의 이용을 통해 메뉴들(44-50)을 그리고 관련된 썸의 이용을 통해 메뉴(52)를 오픈하도록 배열된다. 따라서 갖가지 옵션들이 다양한 메뉴들에 의해 그리고 간단히 터치 스크린(18)과 한번 인게이징하는 사용자에 의해 쉽게 제공될 수 있다; 물론 여기서 "한번"은 핑거들 및 썸들 전부와 스크린(18) 사이의 단일의, 그러나 동시 접촉을 의미한다.
또한, 스크린(18)의 사용자 인게이지먼트는 간단히 메뉴들의 적절한 선택의 디스플레이로 이어질 필요가 없다는 것을 알아야 한다.
임의의 적절한 기능, 액세스 제어, 또는 디스플레이 옵션은 디스플레이 스크린(18)과 접촉해 있는 사용자의 다른 손가락들에 따라 선택적으로 결정될 수 있다. 일단 어느 사용자가 스크린과 인게이징하고 있는지가 결정되면, 적절한 제어 인터페이스가 스크린과 인터페이스하는 임의의 장치 또는 시스템에 대한 적절한 레벨의 접촉을 허용하는 스크린에 의해 제공될 수 있다.
물론 스크린(18)은 복수 사용자 환경 내의 동작을 위해 구성된 복수의 스크린 중 하나를 형성할 수 있다. 사실상, 그러한 단일 스크린이 사용자의 아이덴티티가 변경할 때를 쉽게 결정할 수 있고 매우 상이한 사용자들에 따라 적절한 이용 사이에 신속하게 전환할 수 있는 한, 복수 사용자 환경은 첨부 도면들에 예시된 스크린(18)과 같은 단일 스크린을 활용하는 이용을 쉽게 찾을 수 있다. 그것은 별개의 로그온/사용자 액세스 도입 시나리오들이 반드시 그 다음에 요구되지는 않도록 사용자 식별 프로세스의 부분으로서 또한 이용되는 스크린의 기능적 이용을 위해 요구되는 동일한 접촉 동작 중 하나임이 본 실시예의 특정 이점이다.
추가 레벨들의 선택 기능이 요구에 따라 스크린 및 그의 관련된 디바이스/오퍼레이션/시스템 내에 만들어질 수 있다. 예를 들어, 도 2 및 3의 메뉴 옵션들 각각의 디스플레이된 이미지는 추가의 제어/선택 기능을 개시하기 위해 각각의 메뉴 이미지 내에 이용될 수 있는 원형 트리거 포인트를 예시한다.
이제 도 4에 대한 참조가 이루어지고, 여기에는 도 2의 사용자의 오른손(20) 및 다양한 메뉴 옵션들(22-28)이 또한 예시된다.
그러나, 도 4 내에서, 사용자는 메뉴(24)가 후속 이용을 위한 가장 적절한 메뉴라고 결정하였고, 그와 추가의 인게이지먼트, 특히 트리거 포인트(25)에 대한 도 4의 화살표 A의 방향으로 관련된 핑거의 움직임에 의해 그것을 선택한다. 제2 메뉴(24)의 선택을 통해, 다른 3개의 메뉴(22, 26 및 28)는 감소된 콘트라스트로 디스플레이될 수 있거나, 또는 디스플레이(18)로부터 완전히 사라지도록 구성될 수 있다.
이러한 트리거 포인트(25)는 상이한 사용자들, 또는 사실상 사용자의 상이한 핑거들/썸들 사이에서 구별하기 위해 사용자의 식별성을 식별하도록 자체가 구성되는 메뉴(24)의 이미지 필드 표현 내의 영역으로서 역할을 한다. 사용자, 또는 트리거 포인트(25)와 상호작용하는 사용자의 손가락의 식별은 다양한 추가의 옵션들 중 어느 것이 인에이블될지를 쉽게 제어하는 역할을 할 수 있다. 물론 트리거 포인트(25)는 메뉴(24)가 제1 장소에 디스플레이 되게 하는 사용자와 사실상 상이한 사용자의 식별에 응답하여 기능하도록 구성될 수 있다는 것을 알아야 한다.
도 5를 보면, 초기 메뉴(24)의 트리거 포인트(25)와 사용자의 상호작용에 따른 일부 메뉴 옵션들(54)의 출현이 예시되어 있다.
또한, 서브 메뉴(54) 내의 옵션들은 트리거 포인트(25)를 활성화하는 오른손(20)의 특정 핑거의 식별에 따라 결정된다.
트리거 포인트들로서 역할을 하는 이미지 필드들 내의 영역들은 다양한 특성을 포함할 수 있다. 예를 들어, 그러한 트리거 포인트들은 언급한 바와 같이, 메뉴가 사실상 하나의 최종 사용자에 의해 오픈될 수 있고 제2 최종 사용자가 그 다음에 트리거 포인트와의 상호작용에 의해 특정 고유 액션을 호출하도록 요구될 수 있도록 특정 최종 사용자의 핑거와 같은 특정 접촉을 고유하게 판독하고 식별하는 능력을 가지는 스크린의 식별가능한 영역을 포함할 수 있다. 물론, 트리거 포인트에 대한 상이한 인식가능한 접촉들은 상이한 액션들을 호출하는 데 이용될 수 있고, 이미지 영역은 트리거 포인트를 피하는 사용자의 핑거와의 임의의 특정 액션을 호출하지 않고 핑거에 의해 쉽게 내비게이션될 수 있다. 물론, 하나보다 많은 트리거 포인트가 예를 들어 도 5의 서브 메뉴 박스(54)와 같은 각각의 이미지 필드 내에 제공될 수 있고, 또한, 트리거 포인트와 핑거 접촉은 넓은 결합의 가능한 응답들을 제공한다.
트리거 포인트가 잠재적으로 임의의 액션, 예를 들어, 도 5에 도시된 바와 같은 서브 메뉴의 활성화를 잠재적으로 호출할 수 있는 한, 트리거 포인트는 상이한 핑거들에 의해 호출된 액션이 상이한 트리거 액션들을 생성하도록 상이한 핑거들 사이에서 구별할 수 있고 그러한 특징들은 전자 디바이스들의 제어되는 상호작용을 위해 특히 유리한 것으로 판명될 수 있다는 것을 알아야 한다.
특히, 사용자 인터페이스 상의 특정 포인트에서 특정 사용자를 위한 특정 액션을 호출하는 능력은, 특히, 터치 스크린이 예를 들어, 큰 배의 승무원에 의해 다중 액세스를 요구하는 복합 제어 시스템을 위한 인터페이스를 포함할 때 추가의 이점들을 나타낼 수 있다. 적절한 레벨들의 보안은 그 다음에 복수 사용자 환경 내의 다수의 사용자를 위해 쉽게 제공되고 신뢰성 있게 제어될 수 있다.
큰 배의 예를 유지하면, 전자 제어 시스템은, 선장이 선상의 어느 곳에서 터치 스크린과 상호작용하는 경우, 핑거 접촉이 이루어지자마자, 시스템이 그것이 적절한 보안 레벨의 사용자 설정들 및 특권들이 터치 스크린에 의해 쉽게 이용가능하거나 액세스될 수 있도록 접촉하는 것이 선장임을 인식할 수 있도록 사전 설정될 수 있다. 그러나, 예를 들어, 배의 요리사가 그 다음에 동일한 또는 사실상 상이한 단말기를 이용해야 하고, 이러한 액세스가 선장에 의한 액세스 바로 후에 일어날 수 있더라도, 배의 요리사는 터치 스크린을 인게이징하는 사용자로서 즉시 식별될 것이고 사용자 설정들 및 특권들은 그에 따라 달라질 것이다.
그러므로, 선장이 적절한 제어 시나리오들을 통해 스크린과 인게이징하는 것을 계속하는 동안, 요구되는 제어 입력을 야기하는 접촉의 포인트 및 방식이 또한 본 실시예의 사용자 검증 메커니즘의 필수적인 부분을 형성하는 한, 스크린은 그것이 스크린과 접촉한 채로 있는 진정한 선장임을 계속해서 식별한다.
특정 최종 사용자가 터치 스크린 사용자 인터페이스와 상호작용하고 있지만, 최종 사용자의 상호작용은 일반적으로 사용자가 훨씬 더 간단한 방식으로, 예를 들어, 양손으로 "QWERTY" 키보드를 타이핑하는 방식으로, 사용자 인터페이스에 의해 복수의 액티비티를 수행할 수 있도록 하기 위해 동시 발생하는 것으로서 보일 것이다. 그러한 동시 복수 접촉 액티비티는 본 실시예의 중요한 특징 및 개별 터치 스크린 접촉들을 인식하는 능력을 형성할 수 있다.
이제 도 6을 보면, 본원에 설명된 복수의 접촉 시나리오들은 도 6의 표에 도시된 바와 같은 맵핑 표를 이용하여 실현될 수 있다.
"메인 메뉴", "애플리케이션 1" 및 "애플리케이션 2"는 "환경들"을 표현한다. 손의 부속물(hand appendages), 최종 사용자의 핑거들 및 썸들은 "접촉 매체"를 표현한다. 환경들과 접촉 매체의 결합은 도 6의 화살표들에 의해 도시된 바와 같이 고유 액션을 정의한다.
접촉 매체가 비-식별된 최종 사용자로부터의 핑거들 및 썸들을 또한 포함한 경우, 분명히 전자 장치가 그 사용자에 대해 구성될 때까지 맵핑 표는 적절하지 않을 것이다.
이러한 시나리오에서, 각각 고유 번호에 의해 식별된 10개의 메뉴, 즉, 메뉴 1, 메뉴 2, ..., 메뉴 10이 존재한다고 가정한다. 또한 식별되지 않은 최종 사용자는 풀 세트의 핑거들 및 썸들로 구성된 10개의 손가락을 갖는다. 그들이 각각의 손가락으로 터치 스크린과 접촉하기 시작할 때, 메뉴가 각각의 손가락에 할당되는데, 즉, 핑거 1에는 메뉴 1이 할당되고, 핑거 2에는 메뉴 2가 할당되는 등등이다. 이러한 방식으로, 전자 장치는 이제 그것이 그렇게 하도록 허용된 경우, 식별된 및 비-식별된 최종 사용자들 둘다에 대해 작용할 수 있다.
최종 사용자의 사용자 핑거들 및 썸들이 유일한 가능한 접촉 매체가 아님에 주목해야 한다. 예를 들어, 상이한 식별가능한 스타일러스들이 이용될 수 있고, 상이한 개인들로부터의 상이한 손들이 이용되고 식별될 수 있고, 식별가능한 마커들을 갖는 장갑이 이용될 수 있는 등등이고, 요구되는 경우 전자 식별자들 및 태그들을 이용할 수 있다. 이것이 모두 작용하기 위해서는 디바이스는 접촉 매체의 타입을 인식하고 그것에 대해 액션을 맵핑할 수 있도록 요구하고, 그렇지 않으면 그것은 그것을 식별되지 않은 접촉으로서 다룬다.
상이한 접촉 매체들은 후속하여 그것을 식별하기 위해서 그의 고유한 품질들(qualities)을 측정할 수 있도록 상이한 타입들의 센서들을 요구할 수 있다.
예를 들어, 스타일러스의 팁 내로 내장된 상이한 RFID 태그들을 갖는 "스타일러스들"이 이용되는 경우, 개별 스타일러스는 RFID 센서/판독기의 이용을 통해 식별될 수 있다. 또한, RFID 센서는 스타일러스의 위치 및 압력을 측정하기 위해 압력 센서와 결합될 수 있다. 각각의 스타일러스는 상이한 속성들 및 액션들, 예를 들어 환경이 아트 패키지(art package)였다면 컬러를 가질 수 있다.
이제 도 7을 보면, 전자 장치의 부분을 형성할 때 실시예의 터치 스크린의 구현에 따른 터치 스크린의 가능한 동작을 예시하는 흐름도가 제공되어 있다.
단계(56)에서 시작하면, 디바이스는 먼저 예를 들어, 그들의 핑거들 및 썸들 각각의 지문 상세들(details)의 디렉토리와 같은 최종 사용자의 "상세들" 및 접촉 매체를 판독하고, 기록하고, 저장하도록 구성된다.
단계(58)에서 디바이스가 유휴 상태에 있으면, 그것은 후속하여 단계(60)에서 사용자의 접촉 매체, 즉, 그들의 핑거들 또는 썸들 중 하나의 접촉의 포인트의 존재를 검출하고, 그러한 검출을 판정하였다면 라인 62를 통해 진행하고, 단계(64)에서 접촉의 포인트의 상세들이 식별가능한지를 결정한다.
단계(64)에서 그것들이 식별가능하다고 판정되면, 프로세스는 라인 66을 통해 계속되고, 단계(68)에서 관련된 데이터를 특정 이벤트 액션으로서 처리하고, 단계(70)에서 임의의 현재 실행되는 애플리케이션/기능/서비스의 특성에 대한 판정에 기초한다.
임의의 그러한 애플리케이션/기능/서비스의 특정 환경 상세들이 그 다음에 단계(72)에서 접촉 매체의 식별된 상세들에 맵핑되어 단계(74)에서 적절한 응답 액션을 호출한다.
단계(60)에서 사용자의 핑거와 같은 접촉 매체의 존재가 검출되지 않았다면, 프로세스의 제어는 라인 76을 통해 유휴 상태(58)로 돌아간다.
단계(64)에서 사용자의 핑거와 같은 접촉 매체가 식별될 수 없다고 판정되면, 프로세스는 단계(78)로 계속되어, 사용자로부터의 제어 요청이 임의의 특정한 미리 결정된 환경 상세들에 기초한다기보다는 이벤트 시퀀스로서 처리됨이 판명된다. 단계(78)에서, 추가의 가능한 제어 기능들의 옵션이 그 다음에 단계(74)에서 적절한 응답 액션을 실현하기 위해 요구에 따라 선택될 수 있는 요구되는 시퀀스로서 제공될 수 있다.
일단 단계(74)가 완료되었고 적절한 액션이 호출되었다면, 프로세스는 루프(80)를 통해 그의 초기 유휴 상태(58)로 돌아간다.
위의 설명들로부터 알 수 있는 바와 같이, 본 실시예는 유리하게는 개별 터치 스크린 접촉들을 측정하고, 기록하고, 인식하는 능력을 갖는 터치 스크린 인터페이스를 허용할 수 있고, 각각의 개별적으로 인식가능한 접촉은 요구에 따라 특정 응답/액션을 호출하는 데 이용될 수 있다. 또한, 앞서 "트리거 포인트들"로서 설명된 식별된 특정 터치 스크린 영역들은 또한 추가의 인식가능한 액션들을 가능하게 하기 위해 제공되고 이용될 수 있고, 동시 복수 접촉 액티비티가 쉽게 지원될 수 있다. 실시예는 핸드헬드 터치 스크린 디바이스들, 예를 들어, 보통 모바일 핸드셋들, 터치 스크린 모니터들, 터치 스크린 디스플레이들, 터치 감응 패드들(touch sensitive pads)을 이용하는, 큰 및 작은, 인터랙티브 디스플레이들, 터치 스크린 모바일 핸드셋들, 전자 책들 및 터치 스크린 사용자 인터페이스들과의 준비된 이용을 위해 제공할 수 있을 것으로 예상된다.
그러나, 실시예는 그러한 실시예들의 특징들로 제한되지 않는다는 것을 알아야 한다.
소위 인터랙티브 전자 신문, 전자 옷(electronic clothing) 및 인터랙티브 오브젝트들은 보통 비슷하게 본 실시예의 활용을 위한 적절한 기초를 형성할 수 있다.
따라서, 본 실시예의 디바이스, 방법 및 시스템은 그 매체에 의한 임의의 후속 접촉은 특정 응답, 기능 및/또는 액션을 호출하기 위해 전자적으로 인식되도록 내장된 센서들에 의해 터치 스크린 접촉 매체의 고유 특성을 측정하고 기록하는 개념에 기초한다는 것을 알 것이다. 실시예는 유리하게는 오퍼레이터의 개별 핑거들 및 썸들 사이에서 측정하고 구별하기 위해 적절한 해상도의 센서들과 결합된 터치 스크린 디바이스의 이용을 허용하고, 이러한 생체 데이터의 사전의 저장은 터치 스크린 전자 디바이스에 의해 쉽게 실현될 수 있다.
또한, 센서들 또는 터치 스크린 디바이스의 단일 또는 결합을 통해 전자적으로 식별가능한 접촉 매체의 저장이 제공될 수 있고, 접촉 매체는 잠재적으로 생물학적, 광물학적 또는 사실상 화학적일 수 있고, 일반적으로 터치 스크린은 오직 적절한 센서 기술이 구현되고 고유 식별 특징을 허용하는 것을 요구한다는 것을 알아야 한다.
물론, 식별성의 식별은 단지 그래픽의 변경에 한정되지 않고 사용자 인터페이스에서 렌더링하는 임의의 적절한 응답 또는 액션을 호출하는(invoke) 역할을 할 수 있지만, 스크린이 인터페이스하는 전자 장치 또는 시스템의 제어 및 기능과 스크린에 디스플레이될 수 있는 특성의 임의의 양태와 관련할 수 있다.
본 실시예의 하나의 예시적인 양태는 다음과 같이 요약될 수 있다: 본 실시예는 단일 사용자에 의한 빠르고 효율적인 사용자 액세스 및 복수 사용자 액세스를 쉽게 허용하는 터치 스크린을 제공하고, 여기서, 사용자의 핑거 또는 썸과 같은 사용자의 스크린 인게이지먼트 부재에 의해 터치될 때를 식별하는 것 이외에, 스크린은 또한 상이한 사용자들 사이에서 구별하기 위해 사용자의 핑거 또는 썸 지문과 같은 그러한 부재의 식별성을 식별하고, 스크린의 동작의 적어도 하나의 양태의 후속 제어를 허용하도록 구성되고, 이로써, 그에 인터페이스하는 임의의 장치 또는 시스템이 상기 부재의 식별에 응답한다.
본 발명은 그의 예시적인 실시예들을 참조하여 구체적으로 도시되고 설명되었지만, 본 발명은 이들 실시예들로 한정되지 않는다. 형태 및 상세의 다양한 변경들이 청구항들에 의해 정의된 바와 같이 본 발명의 사상 및 범위에서 벗어나지 않고 거기서 행해질 수 있다는 것이 이 기술분야의 통상의 기술자에 의해 이해될 것이다.
<참고에 의한 포함>
이 출원은 2009년 5월 18일자로 출원된 영국 특허 출원 번호 제0908456.7호에 기초하고 그로부터 우선권의 이득을 주장하고, 그 개시는 참고로 전부 본원에 포함된다.
본 발명은 예를 들어, 터치 스크린, 관련 동작 방법 및 시스템에 적용가능하다.
10: 사용자의 핑거
12: 스크린 표면
12A: 접촉부
14: 사용자의 핑거의 아래 표면
16: 일련의 용량성 센서들
18: 터치 스크린
20: 사용자의 오른손
22: 메뉴
24: 메뉴
25: 트리거 포인트
26: 메뉴
28: 메뉴
30: 사용자의 손
32: 사용자의 손
34: 메뉴
36: 메뉴
38: 메뉴
40: 메뉴
42: 메뉴
44: 메뉴
46: 메뉴
48: 메뉴
50: 메뉴
52: 메뉴
54: 메뉴 옵션들

Claims (22)

  1. 터치 스크린으로서,
    사용자의 스크린 인게이지먼트 부재(screen-engagement member)에 의해 터치될 때를 결정하도록 구성되고 또한 상이한 스크린 인게이지먼트 부재들 사이에서 구별하기 위해 상기 스크린 인게이지먼트 부재의 식별성(identifying characteristic)을 식별하도록 더 구성되고, 상기 터치 스크린의 후속 동작의 적어도 하나의 양태는 상기 스크린 인게이지먼트 부재의 식별에 응답하고,
    사용자의 손가락을 포함하는 상기 사용자의 스크린 인게이지먼트 부재와 상호작용하도록 구성되고,
    상기 후속 동작의 적어도 하나의 양태는 상기 터치 스크린의 디스플레이 옵션들 및 미리 결정된 이미지 필드의 제공을 포함하고,
    상기 미리 결정된 이미지 필드는 상이한 스크린 인게이지먼트 부재들 사이에서 구별하기 위해 상기 스크린 인게이지먼트 부재의 식별성을 식별하기 위한 적어도 하나의 영역을 포함하고,
    상기 적어도 하나의 영역은 상기 터치 스크린의 추가 응답을 개시하기 위한 적어도 하나의 트리거 포인트를 포함하고,
    상기 이미지 필드 및 상기 적어도 하나의 영역은 상기 트리거 포인트에 접촉한 사용자의 손가락에 응답한 메뉴 트리 구조(menu-tree structure)를 나타내는
    터치 스크린.
  2. 제1항에 있어서, 핸드헬드 디바이스, 휴대용 디바이스, 원격 디바이스 또는 시스템 중 임의의 하나 이상을 위한 인터페이스 디바이스를 포함하는 터치 스크린.
  3. 제1항 또는 제2항에 있어서, 복수 사용자(multi-user) 장치 또는 시스템을 포함하는 복수 사용자 환경에서 사용하도록 구성되는 터치 스크린.
  4. 삭제
  5. 제1항에 있어서, 상기 스크린 인게이지먼트 부재의 상기 식별성은 생체 데이터(biometric data)를 포함하는 터치 스크린.
  6. 제5항에 있어서, 상기 식별성은 사용자의 손가락 지문을 포함하는 터치 스크린.
  7. 제1항 또는 제2항에 있어서, 상기 스크린 인게이지먼트 부재는 상기 식별성을 제공하는 역할을 하는 수단을 포함하는 스크린 접촉 디바이스를 포함하는 터치 스크린.
  8. 제7항에 있어서, 상기 식별성을 제공하는 역할을 하는 수단은 전자 디바이스를 포함하는 터치 스크린.
  9. 제8항에 있어서, 상기 전자 디바이스는 전자 태그를 포함하는 터치 스크린.
  10. 제7항에 있어서, 상기 스크린 인게이지먼트 부재는 스크린 인게이지먼트 스타일러스를 포함하는 터치 스크린.
  11. 제1항 또는 제2항에 있어서, 상기 식별성은 상기 스크린 인게이지먼트 부재를 식별하는 역할을 하는 터치 스크린.
  12. 제1항 또는 제2항에 있어서, 상기 사용자는 상기 식별성에 의해 식별되는 터치 스크린.
  13. 삭제
  14. 삭제
  15. 삭제
  16. 삭제
  17. 제1항 또는 제2항에 있어서, 상기 후속 동작의 적어도 하나의 양태는 상기 터치 스크린 또는 그에 인터페이스하는 장치 또는 시스템의 기능 옵션들 및/또는 기능 제어 옵션들을 포함할 수 있는 터치 스크린.
  18. 제1항 또는 제2항에 있어서, 상기 적어도 하나의 양태는 상기 터치 스크린 및/또는 그에 인터페이스하는 장치 또는 시스템에의 사용자 액세스를 포함하는 터치 스크린.
  19. 제18항에 있어서, 상기 후속 동작의 적어도 하나의 양태는 상기 터치 스크린 및/또는 그에 인터페이스하는 장치 또는 시스템 내의 사용자 설정들에 관련하는 터치 스크린.
  20. 제1항 또는 제2항에 있어서, 상기 후속 동작을 결정함에 있어서 후속 사용을 위해 하나 이상의 스크린 인게이지먼트 부재들의 식별성을 캡처하도록 더 구성되는 터치 스크린.
  21. 제1항 또는 제2항에 정의된 바와 같은 적어도 하나의 터치 스크린을 포함하는 복수 사용자 전자 제어 시스템.
  22. 터치 스크린의 동작의 적어도 하나의 양태를 제어하는 방법으로서,
    사용자의 스크린 인게이지먼트 부재에 의해 터치될 때를 결정하는 단계를 포함하고, 상이한 스크린 인게이지먼트 부재들 사이에서 구별하기 위해 상기 스크린 인게이지먼트 부재의 식별성을 식별하는 단계를 포함하고, 상기 적어도 하나의 양태는 상기 스크린 인게이지먼트 부재의 식별에 응답하여 제어되고,
    상기 터치 스크린은 사용자의 손가락을 포함하는 상기 사용자의 스크린 인게이지먼트 부재와 상호작용하도록 구성되고,
    상기 적어도 하나의 양태는 상기 터치 스크린의 디스플레이 옵션들 및 미리 결정된 이미지 필드의 제공을 포함하고,
    상기 미리 결정된 이미지 필드는 상이한 스크린 인게이지먼트 부재들 사이에서 구별하기 위해 상기 스크린 인게이지먼트 부재의 식별성을 식별하기 위한 적어도 하나의 영역을 포함하고,
    상기 적어도 하나의 영역은 상기 터치 스크린의 추가 응답을 개시하기 위한 적어도 하나의 트리거 포인트를 포함하고,
    상기 이미지 필드 및 상기 적어도 하나의 영역은 상기 트리거 포인트에 접촉한 사용자의 손가락에 응답한 메뉴 트리 구조를 나타내는
    제어 방법.
KR1020117027382A 2009-05-18 2010-05-14 터치 스크린, 관련 동작 방법 및 시스템 KR101432878B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
GBGB0908456.7A GB0908456D0 (en) 2009-05-18 2009-05-18 Touch screen, related method of operation and systems
GB0908456.7 2009-05-18
PCT/JP2010/058680 WO2010134615A1 (en) 2009-05-18 2010-05-14 Touch screen, related method of operation and system

Publications (2)

Publication Number Publication Date
KR20120020122A KR20120020122A (ko) 2012-03-07
KR101432878B1 true KR101432878B1 (ko) 2014-08-26

Family

ID=40834118

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020117027382A KR101432878B1 (ko) 2009-05-18 2010-05-14 터치 스크린, 관련 동작 방법 및 시스템

Country Status (7)

Country Link
US (1) US20120075229A1 (ko)
EP (1) EP2433208A4 (ko)
JP (1) JP5590048B2 (ko)
KR (1) KR101432878B1 (ko)
CN (1) CN102428436A (ko)
GB (1) GB0908456D0 (ko)
WO (1) WO2010134615A1 (ko)

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9626099B2 (en) 2010-08-20 2017-04-18 Avaya Inc. Multi-finger sliding detection using fingerprints to generate different events
GB2484551A (en) * 2010-10-15 2012-04-18 Promethean Ltd Input association for touch sensitive surface
KR101288251B1 (ko) * 2011-03-23 2013-07-26 엘지전자 주식회사 사용자 인터페이스 제공 방법 및 그를 이용한 영상 표시 장치
CN102594980A (zh) * 2011-12-19 2012-07-18 广东步步高电子工业有限公司 一种基于指纹识别技术的多级菜单显示方法及***
CN104024992A (zh) 2012-01-10 2014-09-03 内奥诺德公司 用于触摸屏的组合式射频识别和触摸输入
US8863042B2 (en) * 2012-01-24 2014-10-14 Charles J. Kulas Handheld device with touch controls that reconfigure in response to the way a user operates the device
CN103246452A (zh) * 2012-02-01 2013-08-14 联想(北京)有限公司 一种切换手写输入中字符类型的方法及一种电子设备
CN103246457B (zh) * 2012-02-09 2016-05-04 宇龙计算机通信科技(深圳)有限公司 终端和应用程序的启动方法
CN102779010B (zh) * 2012-07-02 2017-06-06 南京中兴软件有限责任公司 一种触摸屏多点触摸解锁的方法和移动终端
CN103135931B (zh) * 2013-02-06 2016-12-28 东莞宇龙通信科技有限公司 触摸操作方法及通信终端
DE112013006621T5 (de) * 2013-02-08 2015-11-05 Motorola Solutions, Inc. Verfahren und Vorrichtung zur Handhabung von Anwenderschnittstellenelementen in einer Touchscreen-Vorrichtung
CN103995661A (zh) * 2013-02-20 2014-08-20 腾讯科技(深圳)有限公司 利用手势触发应用程序或应用程序功能的方法及终端
JP6331022B2 (ja) * 2013-09-27 2018-05-30 パナソニックIpマネジメント株式会社 表示装置、表示制御方法、及び表示制御プログラム
EP3090323B1 (en) 2014-01-03 2021-07-21 Pellaton, Eric Systems and methods for controlling electronic devices using radio frequency identification (rfid) devices
GB2522250A (en) * 2014-01-20 2015-07-22 Promethean Ltd Touch device detection
JP2015172799A (ja) * 2014-03-11 2015-10-01 アルプス電気株式会社 タッチ操作入力装置
DE102014208222A1 (de) * 2014-04-30 2015-11-05 Siemens Aktiengesellschaft Verfahren zum Abrufen von Anwendungsbefehlen, Recheneinheit und medizinisches Bildgebungssystem
JP6141796B2 (ja) * 2014-05-28 2017-06-07 京セラドキュメントソリューションズ株式会社 指示入力装置、画像形成装置、及び設定値入力プログラム
CN104063094B (zh) * 2014-07-02 2017-05-10 南昌欧菲生物识别技术有限公司 具有指纹识别功能的触控屏、终端设备及指纹识别方法
CN104282265B (zh) * 2014-09-26 2017-02-01 京东方科技集团股份有限公司 像素电路及其驱动方法、有机发光显示面板及显示装置
CN104484078B (zh) * 2014-11-28 2017-09-15 华中科技大学 一种基于射频识别的人机交互***及方法
CN104571815B (zh) * 2014-12-15 2019-10-29 联想(北京)有限公司 一种显示窗口的匹配方法及电子设备
KR102093196B1 (ko) 2015-04-16 2020-04-14 삼성전자주식회사 지문 인식 기반 조작 방법 및 장치
CN104778923B (zh) * 2015-04-28 2016-06-01 京东方科技集团股份有限公司 一种像素电路及其驱动方法、显示装置
CN104765552B (zh) * 2015-04-28 2019-04-19 小米科技有限责任公司 权限管理方法和装置
CN106200891B (zh) * 2015-05-08 2019-09-06 阿里巴巴集团控股有限公司 显示用户界面的方法、装置及***
KR101663909B1 (ko) * 2015-09-01 2016-10-07 한국과학기술원 전자 장치, 및 이의 동작 방법
CN108762547B (zh) * 2018-04-27 2021-09-21 维沃移动通信有限公司 一种触控终端的操作方法和移动终端
WO2023140340A1 (ja) * 2022-01-19 2023-07-27 メタマティクス プライベート リミテッド 指識別に基づくユーザー・インターフェースを実現するためのシステム、方法及びそのためのプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5856824A (en) 1996-06-25 1999-01-05 International Business Machines Corp. Reshapable pointing device for touchscreens
US20040036682A1 (en) 2002-06-26 2004-02-26 Zobuchi Sachi Mi Stylus UI system and stylus
JP2007334669A (ja) * 2006-06-15 2007-12-27 Nec System Technologies Ltd 個人データ管理装置、個人データ管理方法、プログラム、及び記録媒体
JP2008123032A (ja) * 2006-11-08 2008-05-29 Toyota Motor Corp 情報入力装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5835079A (en) * 1996-06-13 1998-11-10 International Business Machines Corporation Virtual pointing device for touchscreens
US20050193351A1 (en) 2002-08-16 2005-09-01 Myorigo, L.L.C. Varying-content menus for touch screens
US7454713B2 (en) 2003-12-01 2008-11-18 Sony Ericsson Mobile Communications Ab Apparatus, methods and computer program products providing menu expansion and organization functions
JP4702959B2 (ja) * 2005-03-28 2011-06-15 パナソニック株式会社 ユーザインタフェイスシステム
US20060274044A1 (en) 2005-05-11 2006-12-07 Gikandi David C Whole hand computer mouse with a button for each finger
JP2007072578A (ja) * 2005-09-05 2007-03-22 Denso Corp 入力装置
JP2007089732A (ja) * 2005-09-28 2007-04-12 Aruze Corp 入力装置
JP2008046692A (ja) * 2006-08-10 2008-02-28 Fujitsu Ten Ltd 入力装置
US8023700B2 (en) * 2007-07-26 2011-09-20 Nokia Corporation Apparatus, method, computer program and user interface for enabling access to functions
US11126321B2 (en) 2007-09-04 2021-09-21 Apple Inc. Application menu user interface
US9035886B2 (en) * 2008-05-16 2015-05-19 International Business Machines Corporation System and apparatus for a multi-point touch-sensitive sensor user interface using distinct digit identification
CN101598987B (zh) * 2008-06-02 2012-09-05 华硕电脑股份有限公司 组态式指向操作装置与计算机***
KR101004463B1 (ko) * 2008-12-09 2010-12-31 성균관대학교산학협력단 터치 스크린의 드래그를 이용한 메뉴 선택을 지원하는 휴대용 단말 및 그 제어 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5856824A (en) 1996-06-25 1999-01-05 International Business Machines Corp. Reshapable pointing device for touchscreens
US20040036682A1 (en) 2002-06-26 2004-02-26 Zobuchi Sachi Mi Stylus UI system and stylus
JP2007334669A (ja) * 2006-06-15 2007-12-27 Nec System Technologies Ltd 個人データ管理装置、個人データ管理方法、プログラム、及び記録媒体
JP2008123032A (ja) * 2006-11-08 2008-05-29 Toyota Motor Corp 情報入力装置

Also Published As

Publication number Publication date
GB0908456D0 (en) 2009-06-24
CN102428436A (zh) 2012-04-25
EP2433208A4 (en) 2013-01-23
KR20120020122A (ko) 2012-03-07
US20120075229A1 (en) 2012-03-29
JP2012527657A (ja) 2012-11-08
JP5590048B2 (ja) 2014-09-17
WO2010134615A1 (en) 2010-11-25
EP2433208A1 (en) 2012-03-28

Similar Documents

Publication Publication Date Title
KR101432878B1 (ko) 터치 스크린, 관련 동작 방법 및 시스템
EP2805220B1 (en) Skinnable touch device grip patterns
KR102561736B1 (ko) 터치 디스플레이를 가지는 전자 장치 및 이의 지문을 이용한 기능 실행 방법
US8884895B2 (en) Input apparatus
US8878793B2 (en) Input apparatus
US9898191B2 (en) User input apparatus, computer connected to user input apparatus, and control method for computer connected to user input apparatus, and storage medium
US11656711B2 (en) Method and apparatus for configuring a plurality of virtual buttons on a device
US9904394B2 (en) Method and devices for displaying graphical user interfaces based on user contact
CN103262008B (zh) 智能无线鼠标
US20130228023A1 (en) Key Strike Determination For Pressure Sensitive Keyboard
TW200928903A (en) Electronic device capable of transferring object between two display units and controlling method thereof
US20080042979A1 (en) Method and apparatus for executing commands or inputting data based on finger&#39;s characteristics and Multi-Finger key
CA2774867A1 (en) Methods circuits apparatus and systems for human machine interfacing with an electronic appliance
JP2006340370A (ja) 指先装着センサによる入力装置
JP6109788B2 (ja) 電子機器及び電子機器の作動方法
CN103984433B (zh) 用于控制触摸键操作的方法和设备
US8970498B2 (en) Touch-enabled input device
US11429147B2 (en) Electronic device with sensing strip
EP3528103B1 (en) Screen locking method, terminal and screen locking device
US20160378967A1 (en) System and Method for Accessing Application Program
KR20140048756A (ko) 개인휴대단말기의 작동방법
KR20120057817A (ko) 포인팅 디바이스가 구비된 단말장치 및 대기 화면 제어 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee