KR20140094639A - 터치 센서의 동적 스케일링 - Google Patents

터치 센서의 동적 스케일링 Download PDF

Info

Publication number
KR20140094639A
KR20140094639A KR1020147017189A KR20147017189A KR20140094639A KR 20140094639 A KR20140094639 A KR 20140094639A KR 1020147017189 A KR1020147017189 A KR 1020147017189A KR 20147017189 A KR20147017189 A KR 20147017189A KR 20140094639 A KR20140094639 A KR 20140094639A
Authority
KR
South Korea
Prior art keywords
user interface
area
display screen
touch sensor
user
Prior art date
Application number
KR1020147017189A
Other languages
English (en)
Inventor
마이클 씨 밀러
마크 슈웨싱어
호크 겐츠코브
브라이언 애슐리
존 해리스
리차드 행크스
앤소지 존 그랜트
라만 사린
Original Assignee
마이크로소프트 코포레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 마이크로소프트 코포레이션 filed Critical 마이크로소프트 코포레이션
Publication of KR20140094639A publication Critical patent/KR20140094639A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

터치 센서와 디스플레이 스크린 사이의 맵핑을 동적으로 스케일링하는 것과 관련되는 실시형태가 개시된다. 개시된 일실시형태는, 디스플레이 스크린의 제1 영역에 터치 센서의 영역을 맵핑하는 제1 유저 인터페이스 맵핑을 설정하는 단계; 유저 인터페이스의 유저 상호작용 콘텍스트(user interaction context)를 변경하는 유저 입력 디바이스로부터의 유저 입력을 수신하는 단계; 및 유저 입력에 응답하여 디스플레이 스크린의 제2 영역에 터치 센서의 영역을 맵핑하는 제2 유저 인터페이스 맵핑을 설정하는 단계를 포함하는 방법을 제공한다. 상기 방법은 제2 유저 인터페이스 맵핑에 기초하는 위치에서 유저 입력을 나타내는 유저 인터페이스 이미지의 출력을 디스플레이 디바이스에 제공하는 단계를 더 포함한다.

Description

터치 센서의 동적 스케일링{DYNAMIC SCALING OF TOUCH SENSOR}
본 발명은 터치 센서의 동적 스케일링에 관한 것이다.
다수의 컴퓨팅 디바이스는 유저 입력 디바이스로서 터치 센서를 사용한다. 터치 센서를 통해 이루어진 입력은 다양한 방식으로 그래픽 유저 인터페이스 상에서의 동작(action)으로 변환(translate)될 수 있다. 예컨대, 몇가지 경우에, 터치 센서는 커서의 이동을 제어하기 위해 예컨대 표면 상의 손가락의 위치의 변경을 트래킹(tracking)하기 위해서 전적으로 사용될 수 있다. 따라서, 터치 센서 상의 터치의 특정 위치는 그래픽 유저 인터페이스 상의 커서의 특정 위치에 영향을 주지 않는다. 예컨대, 이러한 터치 입력의 해석(interpretation)은 디스플레이 디바이스 상에 터치 센서가 직접 배치되지 않는 랩탑 컴퓨터용 터치 패드에 의해 사용될 수 있다.
다른 경우에, 터치 센서 상의 위치는 그래픽 유저 인터페이스 상의 대응 위치로 맵핑(mapping)될 수 있다. 이러한 경우에, 터치 센서에 이루어지는 터치는, 이 터치 센서 위치로 맵핑되는 특정 디스플레이 스크린에서의 유저 인터페이스 요소에 영향을 줄 수 있다. 이러한 직접 맵핑은 예컨대 디스플레이 상에 투명한 터치 센서가 배치되는 경우에 사용될 수 있다.
터치 센서와 디스플레이 스크린 사이에서의 맵핑을 동적으로 스케일링(scaling)하는 것과 관련되는 다양한 실시형태가 개시된다. 예컨대, 개시된 일실시형태는, 디스플레이 스크린의 제1 영역에 터치 센서의 영역을 맵핑하는 제1 유저 인터페이스 맵핑을 설정하는 단계; 유저 인터페이스의 유저 상호작용 콘텍스트(user interaction context)를 변경하는 유저 입력 디바이스로부터의 유저 입력을 수신하는 단계; 및 유저 입력에 응답하여 디스플레이 스크린의 제2 영역에 터치 센서의 영역을 맵핑하는 제2 유저 인터페이스 맵핑을 설정하는 단계를 포함하는 방법을 제공한다. 상기 방법은 제2 유저 인터페이스 맵핑에 기초하는 위치에서 유저 입력을 나타내는 유저 인터페이스 이미지의 출력을 디스플레이 디바이스에 제공하는 단계를 더 포함한다.
이하 상세한 설명에서 더 개시되는 간략한 형태의 컨셉의 선택을 소개하기 위해 본 요약(summary)이 제공된다. 본 요약은 청구되는 대상(subject matter)의 본질적 특징이나 중요 특징(key feature)의 확인을 의도하지 않고, 청구되는 대상의 범위를 한정하는데 사용되는 것도 의도하지 않는다. 또한, 청구되는 대상은 본 명세서의 임의의 부분에서 언급되는 임의의 또는 모든 단점을 해결하는 구현에 한정되지 않는다.
도 1은 터치 감응형 입력 디바이스를 위한 사용 환경의 예시적 실시형태를 나타낸다.
도 2는 디스플레이 스크린에 터치 센서의 맵핑을 동적으로 스케일링하는 방법의 실시형태를 도시한 플로우 다이어그램을 나타낸다.
도 3은 터치 센서를 포함하는 터치 감응형 유저 입력 디바이스의 실시형태를 나타내고, 또한 디스플레이 스크린에 터치 센서의 예시적 제1 맵핑을 나타낸다.
도 4는 유저 인터페이스 콘텍스트의 변경에 기초하는 도 5의 실시형태의 예시적 제2 맵핑을 나타낸다.
도 5는 상이한 종횡비(aspect ratio)에서의 유저 인터페이스의 대응하는 서브 영역(sub-region)에 맵핑되는 터치 센서의 서브 영역을 도시하는 다른 예시적 맵핑을 나타낸다.
도 6은 전용 리모콘 유저 입력 디바이스의 예시적 실시형태의 블록 다이어그램을 나타낸다.
도 7은 도 6의 실시형태에 의한 유저 상호작용의 실시예를 나타낸다.
도 8은 도 6의 실시형태에 의한 다른 유저 상호작용의 실시예를 나타낸다.
도 9는 유저 입력 디바이스의 작동 방법의 실시형태를 도시하는 플로우 다이어그램을 나타낸다.
도 10은 컴퓨팅 디바이스의 실시형태의 블록 다이어그램을 나타낸다.
상기한 바와 같이, 터치 센서 상의 특정 위치가 그래픽 유저 인터페이스 상의 특정 위치에 대응하도록 그래픽 유저 인터페이스에 터치 센서가 맵핑될 수 있다. 그래픽 유저 인터페이스 상에 이러한 터치 센서가 직접적으로 배치되는 스마트 폰 또는 노트패드 컴퓨터에서와 같이, 원하는 터치 입력을 하기 위해 적절한 위치를 선택하는 것은 간단히 원하는 유저 인터페이스 요소 상에 직접적으로 표면을 터치하는 것을 포함한다.
그러나, 터치 입력을 하기 위해 터치 센서 상의 정확한 위치를 찾는 것은 그래픽 유저 인터페이스 상에 터치 센서가 직접적으로 배치되지 않는 상황에서는 더 어려울 수 있다. 도 1은, 비디오 게임 시스템, 퍼스널 미디어 컴퓨터, 셋탑 박스, 또는 다른 적합한 컴퓨팅 디바이스 등의 매체 표시 디바이스(107)에 접속되는 디스플레이 디바이스(106)(예컨대, 텔레비전 또는 모니터)와 같은 개별 디스플레이 시스템 상에 디스플레이되는 유저 인터페이스와 원격으로 상호작용하기 위해 유저(102)가 터치 감응형 디바이스(104)를 사용하는 사용 환경(100)의 예시적 실시형태를 나타낸다. 사용 환경(100)에서 리모콘 디바이스로서 사용될 수 있는 터치 감응형 디바이스의 예는 스마트 폰, 휴대용 미디어 플레이어, 노트패드 컴퓨터, 랩탑 컴퓨터, 및 전용 리모콘 디바이스를 포함하지만 이것에 한정되지 않는다.
이러한 사용 환경에서, 디스플레이 스크린과 리모콘 디바이스 사이를 번갈아 봐야하는 잠재적으로 번거로운 유저 경험을 회피하기 위해, 사용 중에 리모콘 디바이스 상에 유저 인터페이스의 이미지를 디스플레이하지 않는 것이 바람직할 수 있다. 그러나, 터치 센서가 유저의 직접적인 시야에 있지 않은 경우, 비교적 먼 디스플레이 스크린을 볼 때 유저는 유저 인터페이스 요소를 신속하게 선택하는데 몇가지 어려움을 경험할 수 있다. 이러한 어려움의 극복을 돕기 위해, 현재의 터치 감응형 디바이스는 유저가 더욱 정밀하게 유저 인터페이스의 부분을 줌 인(zoom in)하게 할 수 있다. 그러나, 유저 인터페이스의 다른 영역을 흐리게 할 수 있고, 또한 유저 인터페이스와의 상호작용의 복잡성을 증가시킬 수 있다.
따라서, 유저 인터페이스의 활성 부분으로의 터치 센서의 맵핑을 동적으로 스케일링함으로써 터치 감응형 유저 입력 디바이스의 사용을 용이하게 하는 것과 관련되는 실시형태가 여기에 개시된다. 다시 도 1을 참조하면, 문자 입력 제어(112) 및 텍스트 표시 및 편집 필드(filed)(114)의 레이아웃의 형태에서 활성 영역(예컨대 유저 선택가능 제어를 갖는 영역)을 포함하는 텍스트 입력 유저 인터페이스(110)와 상호작용하는 유저(102)가 도시되어 있다. 유저 인터페이스(110)의 활성 영역은 디스플레이 디바이스(106)의 디스플레이 스크린(116)의 부분만을 점유하고 있다. 따라서, 터치 감응형 디바이스(104)의 전체 터치 센서(118)가 전체 디스플레이 스크린(116)에 맵핑되면, 터치 센서(118)의 일부만 유저 인터페이스(110)의 활성 영역과의 상호작용을 위해 사용가능하게 되고, 터치 센서(118)의 다른 부분은 사용되지 않을 것이다.
따라서, 개시된 실시형태에 의하면, 유저(102)가 텍스트 입력 유저 인터페이스(110)로 조종(navigate)할 때, 터치 센서(118)의 비교적 더 큰 영역이 유저 인터페이스(110)의 활성 영역에 대응하는 디스플레이 디바이스(106)의 영역으로 맵핑되도록 터치 센서(118)의 디스플레이 스크린(116)으로의 맵핑이 동적으로 조정(adjust)될 수 있다. 이것은 유저가 유저 입력을 더 정밀하게 제어하는 것을 가능하게 한다.
일부 실시형태에서, 터치 센서의 상이한 영역은 유저 인터페이스에 관하여 상이한 정도(degree)로 동적으로 스케일링될 수 있다. 예컨대, 이것은, 유저 인터페이스 상의 유사한 사이즈의 덜 자주 사용되는 제어보다 더 자주 사용되는 유저 인터페이스 제어가 터치 센서 상의 비교적 많은 영역에 할당(allot)되게 할 수 있다. 이것은, 유저가 덜 자주 사용되는 제어보다 더 자주 사용되는 제어를 덜 정밀한 터치 입력으로 선택하게 할 수 있다. 마찬가지로, 부정확한 선택에 대한 더 큰 결과를 갖는 유저 인터페이스 제어는, 유사한 사이즈이지만 부정확한 선택에 대한 더 작은 결과를 갖는 제어보다 터치 센서 상의 비교적 작은 영역에 할당될 수 있다. 이것은 유저가 더 높은 결과의 동작을 더 신중하게 선택하는 것을 필요로 할 수 있다. 더 구체적인 실시예에 따르면, 우연히 "중단(stop)" 제어를 선택하는 것보다 우연히 "일시정지(pause)" 제어를 선택하는 것이 결과가 작을 수 있기 때문에, "일시정지" 제어를 선택하는 것이 더 용이하도록, 미디어 재생 유저 인터페이스 상의 "일시정지" 제어와 "중단" 제어에 대하여 터치 센서의 맵핑이 상이하게 스케일링될 수 있다.
도 2는 디스플레이 디바이스의 디스플레이 스크린에 터치 센서의 맵핑을 동적으로 스케일링하는 방법(200)의 실시형태를 도시한 플로우 다이어그램을 나타낸다. 방법(200)은 도 1의 리모콘 디바이스, 미디어 표시 디바이스를 포함하지만 이에 한정되지 않는 임의의 적합한 디바이스에 의해 수행될 수 있는 것으로 생각될 것이다. 방법(200)은 202에서, 디스플레이 스크린의 제1 영역에 리모콘 디바이스의 터치 센서의 영역을 맵핑하는 제1 유저 인터페이스 맵핑을 설정하는 단계를 포함한다. 방법(200)은, 204에서 터치 감응형 유저 입력 디바이스로부터 제1 유저 입력을 수신하는 단계와, 206에서 제1 유저 인터페이스 맵핑에 기초하는 위치에서 제1 유저 입력을 나타내는 제1 유저 인터페이스 이미지의 출력을 디스플레이 디바이스에 제공하는 단계를 더 포함한다. 도 3은 터치 입력과 유저 인터페이스 이미지의 예시적 실시형태를 나타낸다. 도 3의 예에서, 터치 센서(118)의 전체 영역은 단일 종횡비에서 디스플레이 스크린(116)의 전체 영역에 맵핑된다. 이 도면에서, 터치 센서(118)의 선택된 위치들 사이에서의 터치 입력(300)의 이동은 디스플레이 스크린(116)에 디스플레이되는 유저 인터페이스 상에서 비례하는 위치들에서의 커서(302)의 이동을 초래한다.
도 2를 계속 참조하면, 방법(200)은 이어서 208에서 유저 인터페이스와 함께 유저 인터페이스의 콘텍스트를 변경하는 제2 터치 입력을 수신하는 단계를 포함한다. 여기서 사용되는 "콘텍스트의 변경"은 디스플레이되는 제어의 선택, 제어의 위치에 있어서의 변경과 같은 유저 인터페이스의 상호성(interactivity)의 양상에서의 임의의 변경을 나타낼 수 있다. 도 2에서, 예시적 터치 입력은 도 3에서 도시되는 검색 바(search bar)의 선택으로 도시된다. 제2 터치 입력에 응답하여, 방법(200)은 210에서 디스플레이 스크린의 제1 영역과 상이한 디스플레이 스크린의 제2 영역에 터치 센서의 영역을 맵핑하는 제2 유저 인터페이스 맵핑을 설정하는 단계를 포함한다. 디스플레이 스크린의 제2 영역은 212에 나타낸 바와 같이 제1 영역과 상이한 사이즈, 214에 나타낸 바와 같이 상이한 위치, 및/또는 제1 영역에 비해 임의의 다른 적합한 차이점을 가질 수 있다. 또한, 디스플레이 스크린의 제2 영역은 제1 맵핑과 상이한 종횡비를 가질 수도 있다. 방법(200)은 218에서 제2 유저 인터페이스 맵핑에 기초하는 위치에서 제2 유저 입력을 나타내는 제2 유저 인터페이스 이미지의 출력을 제공하는 단계를 더 포함한다. 제2 유저 인터페이스 이미지는 디스플레이 스크린의 제2 영역 내에 디스플레이되도록 구성된 복수의 유저 인터페이스 제어 등의 임의의 다른 적합한 정보를 포함할 수 있다.
도 4는 디스플레이 스크린으로의 터치 센서의 영역의 제2 맵핑의 예시적 실시형태를 나타낸다. 단일 종횡비로 전체 디스플레이 스크린에 전체 센서 영역을 맵핑하는 것을 대신하여, 도 4는 활성 문자 입력 제어(112)와 텍스트 디스플레이 및 편집 필드(114)에 의해 점유되지 않는 디스플레이 스크린의 다른 영역을 제외하고, 이 요소들에 의해 점유되는 디스플레이 스크린의 영역에 단일 종횡비로 맵핑되는 터치 센서의 전체 영역을 나타낸다.
따라서, 도시된 실시형태에서, 디스플레이 스크린의 제2 영역은 디스플레이 스크린의 제1 영역보다 작다. 이러한 맵핑은, 이러한 입력을 만들기 위한 더 많은 터치 센서 영역을 제공함으로써 터치 입력의 입력을 가능하게 하면서, 검색 결과 등의 다른 요소들의 디스플레이를 위한 룸(room)이 디스플레이 스크린에 포함되게 할 수 있다. 여기에서 터치 센서 맵핑의 변경은 텍스트 입력 유저 인터페이스의 콘텍스트에서 예시되어 있지만, 추가 터치 입력 정밀도가 요구될 수 있는 임의의 다른 적합한 유저 인터페이스 콘텍스트에서 동적 터치 센서 맵핑 변경이 사용될 수 있다는 것으로 생각될 것이다.
상기한 바와 같이, 일부 실시형태에서, 상이한 유저 인터페이스 제어가 더 용이하게 또는 덜 용이하게 배치될 수 있도록, 터치 센서의 상이한 영역이 유저 인터페이스에 비해 상이한 정도(degree)로 동적으로 스케일링될 수 있다. 예컨대, 이것은, 유저 인터페이스 상의 유사한 사이즈의 덜 자주 사용되는 제어보다 더 자주 사용되는 유저 인터페이스 제어가 터치 센서 상의 비교적 많은 영역에 할당(allot)되게 할 수 있다.
도 5는 디스플레이 스크린의 제1 서브 영역과 디스플레이 스크린의 제2 서브 영역이 알맞은 사용 패턴에 기초하는 상이한 종횡비에서 터치 센터로 맵핑되는 터치 센터 맵핑의 실시형태를 나타낸다. 특히, 유저는 텍스트 디스플레이 및 편집 필드보다 텍스트 입력 유저 인터페이스 상의 문자 입력 제어(letter entry controls)와 더 자주 상호작용하게 될 수 있으므로, 도 5의 유저 인터페이스로의 터치 센서의 맵핑은 문자 입력 제어의 선택을 용이하게 하고, 텍스트 디스플레이 및 편집 필드를 선택하는 더 의도적인 사용자 입력을 권장(encourage)하도록 구성된다. 디스플레이 스크린의 제1 서브 영역(500)은 문자 입력 제어(112)를 포함하는 것으로 도시되어 있고, 제2 서브 영역은 텍스트 디스플레이 및 편집 필드(114)를 포함하는 것으로 도시되어 있다. 도시된 바와 같이, 제1 서브 영역(500)은 문자 입력 제어(112)에 의해 점유되는 디스플레이 스크린 영역의 상대적 양(relative amount)보다 터치 센서의 더 큰 상대적 영역을 점유하는 터치 센서(118)의 서브 영역(504)에 맵핑된다. 마찬가지로 디스플레이 스크린의 제2 서브 영역(502)은 텍스트 디스플레이 및 편집 필드(114)에 의해 점유되는 디스플레이 스크린 영역의 상대적 양보다 터치 센서(504)의 더 작은 상대적 영역을 점유하는 터치 센서(118)의 서브 영역(506)에 맵핑된다. 이러한 방식으로, 도 5에 도시된 터치 센서 맵핑은 텍스트 디스플레이 및 편집 필드(114)의 의도하지 않은 선택을 회피하는 것에 도움이 되면서, 문자 입력 제어(112)의 선택을 용이하게 할 수 있다.
일부 실시형태에서, 유저 인터페이스 맵핑은 서브 영역들 사이에서 터치 입력이 이동할 때의 일부 히스테리시스(hysteresis)를 나타내도록 구성될 수 있다. 예컨대, 제1 서브 영역으로부터 터치 센서/유저 인터페이스 맵핑의 제2 서브 영역으로의 경계를 교차(cross)함으로써 유저 인터페이스 제어에 대응하는 터치 센서 영역에 유저의 손가락이 들어간(enter) 후에, 경계를 넘은 임계 거리(threshold distance)를 커서가 통과할 때까지, 유저가 제1 서브 영역을 향하여 뒤로 경계를 교차한 이후에도, 터치 입력으로 인해 현재 포커스(focus)에 있는 제2 서브 영역 내의 유저 인터페이스 요소는 변경되지 않을 수 있다. 이것은 유저 인터페이스 제어들 사이에서 이동하기 위한 더 많은 의도적 유저 입력을 포함할 수 있고, 이에 따라 의도하지 않은 입력을 회피하는 것에 도움이 될 수 있다. 다른 실시형태에서, 단일 경계 위치는 이동의 어느 한 방향에서 터치 센서 서브 영역들 간의 전환을 인식하는데 사용될 수 있다. 서브 영역들 간의 히스테리시스의 정도(degree)는 서브 영역들의 맵핑과 마찬가지로 변경될 수 있는 것으로 생각될 것이다. 예컨대, 더 작은 결과를 갖는 영역에 비해 의도하지 않은 선택의 더 큰 결과를 갖는 영역으로의 이동시에 더 큰 양의 히스테리시스가 적용될 수 있다.
상기한 바와 같이, 터치 센서의 유저 인터페이스로의 동적 스케일링은 스마트 폰, 휴대용 미디어 플레이어, 노트패드 컴퓨터, 랩탑 컴퓨터, 및 전용 리모콘 디바이스를 포함하지만 이에 한정되지 않는 임의의 적합한 터치 감응형 입력 디바이스에 의해 사용될 수 있다. 도 6은 종래의 터치 감응형 디바이스에 비해 텍스트 입력을 용이하게 하도록 구성되는 전용 터치 감응형 리모콘 디바이스(600)의 실시형태의 블록 다이어그램을 나타낸다. 리모콘 디바이스(600)는 적어도 제1 터치 영역(604)과 제2 터치 영역(606)을 구비한 터치 센서(602)를 포함한다. 또한, 제1 액추에이터(608)는 제1 터치 영역(604)과 연관된고, 제2 액추에이터(610)는 제2 터치 영역(606)과 연관된다. 제1 액추에이터(608)는 제1 터치 영역(604) 내의 가압(press)을 통해 작동되도록 구성되고, 제2 액추에이터(610)는 제2 터치 영역(606) 내의 가압을 통해 작동되도록 구성된다. 유저는 터치 입력에 의해 원하는 문자 상에 커서를 이동시킴으로써 입력을 위한 문자를 선택할 수 있고, 이어서 대응 액추에이터를 트리거하기 위해 터치 영역을 가압한다. 도 7은 제1 터치 영역(604)을 위한 제1 커서(700), 제2 터치 영역(606)을 위한 제2 커서(702)를 나타내고, 각 커서는 디스플레이 스크린에 맵핑되는 터치 입력의 위치를 나타낸다. 다른 실시형태에서, 전용 리모콘 디바이스는 터치 감응형 표면 상의 가압을 통해 트리거되는 단일 액추에이터를 포함하거나 액추에이터를 포함하지 않을 수 있다. 이러한 실시형태에서, 클릭 타입 유저 의도를 시뮬레이팅하기 위해 다양한 경험적 방법(heuristic)이 사용될 수 있다. 또한, 2개의 터치 영역은 터치 영역들 사이의 묘사(delineation) 없이 단일의 물리적 터치 표면을 포함하고, 2개의 터치 영역이 단일 터치 영역으로 간주되도록 하기 위해 다양한 애플리케이션에서 맵핑될 수 있는 것으로 생각될 것이다.
2개의 터치 영역과 2개의 액추에이터의 사용은, 도 7에 도시된 바와 같이, 유저가 각각의 손에 대한 개별 커서를 독립적으로 조종할 수 있게 하고, 이에 따라 텍스트 입력의 효율을 증가시키는 것을 도울 수 있다. 또한, 일부 실시형태에서, 리모콘 디바이스(600)는 터치 센서 상에 디스플레이 스크린 또는 다른 피처(feature)들이 없을 수 있다. 이것은 제어되는 디스플레이 디바이스의 디스플레이 스크린으로부터 유저의 관심이 벗어나는 것을 방지하는 것을 도울 수 있고, 이에 따라 디스플레이 디바이스 상에 유저의 관심이 집중되는 것을 돕는다.
리모콘 디바이스(600)는 로직 서브시스템(612) 및 유저 입력을 수신하고 미디어 표시 시스템, 디스플레이 시스템 등에 유저 입력을 통신하는 등의 다양한 작업을 수행하기 위해 로직 서브시스템(612)에 의해 실행가능한 명령어가 저장된 데이터 홀딩 서브시스템(614)을 더 포함한다. 이들 콤포넌트들의 예는 이하 더 상세히 논의된다.
독립적으로 동작가능한 액추에이터를 각각 구비한 개별 제1 및 제2 터치 영역의 사용은, 유저가 문자 입력(letter entry)들 사이의 표면의 디지트(digits)를 들어올리지(lift off) 않고 2개의 엄지손가락(thumb) 또는 다른 디지트(digit)에 의해 텍스트를 신속하게 입력하는 것을 가능하게 할 수 있다. 또한, 리모콘 디바이스(600)에는 디스플레이 스크린이 없을 수 있기 때문에, 유저는 사용 중에 리모콘 디바이스(600)를 내려다 보는 것에 의해 산만하게 되지 않고, 디스플레이 디바이스 상에 집중할 수 있다. 이 특징들은, 유저가 디스플레이 스크린을 볼 때 터치 센서가 디스플레이 스크린으로부터 떨어져서 그리고 다이렉트 뷰(direct view)의 외부에 배치될 수 있는 사용 환경에서 텍스트를 입력하는 다른 방법에 비해 다양한 장점을 제공할 수 있다. 예컨대, 일부 리모콘 디바이스는 디스플레이된 알파뉴메릭 키보드 레이아웃(displayed alphanumeric keyboard layout) 상에 커서를 이동시키기 위한 방향 패드(directional pad)(예컨대, 상, 하, 좌, 우 명령을 갖는 제어)를 사용한다. 그러나, 이러한 텍스트 입력은 느리고 지루할 수 있다. 다른 리모콘 디바이스는 하드 키보드(hard keyboard)를 포함할 수 있다. 하드 키보드는 방향 패드의 사용에 비해 텍스트 입력의 효율을 향상시킬 수 있을 뿐만 아니라 입력 디바이스의 사이즈, 복잡성, 및 비용을 증가시킬 수도 있다. 또한, 하드 키보드의 포함은 디바이스를 내려다 보는 것과 디스플레이 스크린을 올려다 보는 것 사이에서 유저의 주의를 분산시킬 수 있다. 반대로, 도 6의 실시형태에서, 하드 키보드의 각 버튼을 위한 엑추에이터 대신 2개의 액추에이터의 포함은 디바이스의 비용을 감소시키는 것을 도울 수 있다. 리모콘 디바이스(600)의 터치 센서(602)는 상기한 바와 같이 텍스트 선택을 더 용이하게 할 수 있는 디스플레이 스크린에 동적으로 맵핑될 수 있다는 것이 이해될 것이다.
제1 액추에이터(608) 및 제2 액추에이터(610)는 임의의 적합한 액추에이션 메카니즘(actuation mechanism)을 사용할 수 있다. 일부 실시형태에서, 액추에이터(608, 610)는 텍스트가 선택될 때 촉각 피드백을 제공하기 위한 물리적 버튼을 포함할 수 있다. 다른 실시형태에서, 액추에이터(608, 610)는 압력 센서 또는 다른 액추에이션 기기를 사용할 수 있다. 압력 센서 등이 사용되는 경우에, 리모콘 디바이스(600)는 등록된 입력에 관한 유저 피드백을 제공하기 위해 진동 기기 등의 햅틱 피드백 시스템(haptic feedback system)(616)을 포함할 수 있다.
도 7의 실시형태에서, 커서(700, 702)는 터치 센서(602) 상의 손가락 위치를 나타내고, 다른 하이라이팅(highlighting)은 유저 인터페이스 제어가 현재 포커스를 갖는다는 것을 나타내는 포커스 인디케이터(indicator)로서 사용된다. 도 7의 특정 실시예에서, 좌측 커서(700)는 문자 "e"에 포커스를 제공하도록 배치되고, 우측 커서(702)는 문자 "j"에 포커스를 제공하도록 배치된다. 다른 실시형태에서, 터치 입력을 위한 터치 위치와 포커스는 단일 유저 인터페이스 엘리먼트를 통해 표시될 수 있다.
디스플레이 스크린에 대한 터치 센서(602)의 맵핑에 더하여 디스플레이되는 커서의 수는 터치 센서(602)를 터치하는 손가락의 수에 의존할 수 있다는 것이 이해될 것이다. 예컨대, 도 7에 도시된 바와 같이, 2개의 손가락이 터치 센서(602)를 터치하고 있을 때, 2개의 커서(700, 702)가 디스플레이될 수 있다. 이 경우에, 터치 센서(602)의 제1 터치 영역(604)과 제2 터치 영역(606)은 디스플레이 스크린의 대응하는 제1 및 제2 영역에 맵핑될 수 있다. 마찬가지로, 하나의 손가락이 터치 센서(602)를 터치하고 있는 경우, 예컨대 리모콘 디바이스(600)가 세로 방향(도 8에 도시된 바와 같음)으로 유지될 때, 하나의 커서(800)가 디스플레이 스크린 상에 디스플레이될 수 있다. 이 경우에, 터치 센서(602)의 하나의 터치 영역[예컨대, 제1 터치 영역(604)]은 디스플레이 스크린의 전체 활성 영역에 맵핑될 수 있다.
도 9는 리모콘 디바이스(600)와 같은 리모콘 디바이스의 동작 방법(900)의 실시형태를 나타낸다. 방법(900)은 902에서 터치 센서(602)의 제1 터치 영역(604)과 제2 터치 영역(606)과 같은 터치 센서의 제1 및 제2 영역에서 개별적으로 발생하는 제1 및 제2 터치 입력의 이동을 독립적으로 검출 및 추적하는 단계를 포함한다. 이어서, 방법(900)은 904에서 제1 터치 표면에 대응하는 제1 액추에이션 및 제2 터치 표면에 대응하는 제2 액추에이션을 독립적으로 추적하는 단계를 포함한다. 또한, 방법(900)은 906에서 검출된 터치 입력과 액추에이션을 갖는 정보를 원격 컴퓨팅 디바이스와 통신하는 단계를 포함한다. 이어서, 원격 컴퓨팅 디바이스는 액추에이션이 유저에 의해 수행될 때 터치 입력의 위치에 기초하여 유저 인터페이스 엘리먼트에 대응하는 동작을 수행할 수 있다.
상기한 바와 같이, 터치 감응형 디바이스(104), 디스플레이 디바이스(106), 미디어 표시 디바이스(107), 및 리모콘 디바이스(600)를 포함하지만 이에 한정되지 않는 상기 터치 감응형 입력 디바이스 및 디스플레이 시스템은 각각 컴퓨팅 시스템의 형태를 취할 수 있다. 도 10은 상기 방법들 및 프로세스들 중 하나 이상을 수행할 수 있는 비제한적이며 예시적인 컴퓨팅 시스템(1000)을 개략적으로 나타낸다. 컴퓨팅 시스템(1000)은 간략한 형태로 도시되어 있다. 가상의 임의의 컴퓨터 아키텍처(computer architecture)가 본 명세서의 범위로부터 벗어나지 않고 사용될 수 있다는 것이 이해될 것이다. 상이한 실시형태에서, 컴퓨팅 시스템(1000)은 메인프레임 컴퓨터, 서버 컴퓨터, 데스크탑 컴퓨터, 랩탑 컴퓨터, 태블릿 컴퓨터, 홈 엔터테인먼트 컴퓨터, 네트워크 컴퓨팅 디바이스, 모바일 컴퓨팅 디바이스, 모바일 통신 디바이스, 게이밍 디바이스 등의 형태를 취할 수 있다.
컴퓨팅 시스템(1000)은 로직 서브시스템(1002) 및 데이터 홀딩 서브시스템(1004)을 포함한다. 컴퓨팅 시스템(1000)은 선택적으로 디스플레이 서브시스템(1006)을 포함하거나 디스플레이 시스템(도 6의 리모콘 디바이스를 참조하여 개시된 바와 같음)을 생략할 수 있다. 컴퓨팅 시스템(1000)은 다른 컴퓨팅 디바이스와 통신하기 위한 통신 서브시스템(1008), 및 터치 입력을 검출하도록 구성되는 터치 센서를 구비하는 센서 서브시스템(1009)를 더 포함할 수 있다. 또한, 컴퓨팅 시스템(1000)은 여기에 개시되지 않은 다른 입력 및/또는 출력 디바이스를 포함할 수 있다.
로직 서브시스템(1002)은 하나 이상의 명령어를 실행하도록 구성되는 하나 이상의 물리적 디바이스를 포함할 수 있다. 예컨대, 로직 서브시스템(1002)은 하나 이상의 애플케이션, 서비스, 프로그램, 루틴(routine), 라이브러리, 오브젝트(object), 콤포넌트(component), 데이터 구조, 또는 다른 논리 구성(logical construct)의 부분인 하나 이상의 명령어들을 실행하도록 구성될 수 있다. 작업 수행하고, 데이터 타입을 구현하고, 하나 이상의 디바이스의 상태를 변환하거나 그렇지 않으면 원하는 결과에 도달하기 위해 이러한 명령어들이 구현될 수 있다.
로직 서브시스템(1002)은 소프트웨어 명령어를 실행하도록 구성되는 하나 이상의 프로세서를 포함할 수 있다. 추가적으로 또는 대안으로서, 로직 서브시스템(1002)은 하드웨어 또는 펌웨어 명령어를 실행하도록 구성되는 하나 이상의 하드웨어 또는 펌웨어 로직 기기를 포함할 수 있다. 로직 서브시스템(1002)의 프로세서는 싱글 코어(single core) 또는 멀티코어(multicore)가 될 수 있고, 여기에서 실행되는 프로그램은 병렬 프로세싱 또는 분산 프로세싱을 위해 구성될 수 있다. 로직 서브시스템(1002)은 통합 프로세싱을 위해 원격 배치 및/또는 구성될 수 있는 2개 이상의 디바이스를 통해 분산되는 개별 콤포넌트를 선택적으로 포함할 수 있다. 로직 서브시스템(1002)의 하나 이상의 양상은 클라우드 컴퓨팅 구조로 구성되는 원격 액세스가능 네트워크 컴퓨팅 디바이스에 의해 가상현실화되고(virtualized) 실행될 수 있다.
데이터 홀딩 서브시스템(1004)은 여기에 개시된 방법들 및 프로세스들을 구현하기 위한 로직 서브시스템에 의해 실행가능한 데이터 및/또는 명령어를 저장하도록 구성되는 컴퓨터 판독가능 매체를 포함하는 하나 이상의 물리적, 비일시적 디바이스를 포함할 수 있다. 이러한 방법들 및 프로세스들이 구현될 때, 데이터 홀딩 서브시스템(1004)의 상태가 변환(예컨대, 상이한 데이터를 유지하도록)될 수 있다.
데이터 홀딩 서브시스템(1004)은 착탈식 매체(removable media) 및/또는 내장 디바이스(built-in device)를 포함할 수 있다. 데이터 홀딩 서브시스템(1004)은 다른 것들 중에서 광학 메모리 디바이스(예컨대, CD, DVD, HD-DVD, 블루레이 디스크 등), 반도체 메모리 디바이스(예컨대, RAM, EPROM, EEPROM 등), 및/또는 자기 메모리 디바이스(예컨대, 하드 디스크 드라이브, 플로피 디스크 드라이브, 테이프 드라이브, MRAM 등)를 포함할 수 있다. 데이터 홀딩 서브시스템(1004)은, 휘발성, 비휘발성, 동적, 정적, 판독/기록(read/write), 판독 전용(read only), 랜덤 액세스, 순차 액세스, 위치 어드레스가능(location addressable), 파일 어드레스가능(file addressable), 및 콘텐츠 어드레스가능의 특성 중 하나 이상을 갖는 디바이스를 포함할 수 있다. 일부 실시형태에서, 로직 서브시스템(1002) 및 데이터 홀딩 서브시스템(1004)은 애플리케이션 특정 집적회로 또는 시스템 온 칩(system on chip) 등의 하나 이상의 공통 디바이스로 통합될 수 있다.
또한, 도 10은 여기에 개시된 방법들 및 프로세스들을 구현하기 위해 실행가능한 데이터 및/또는 명령어를 저장 및 전송하는데 사용될 수 있는 착탈식 컴퓨터 판독가능 저장 매체(1010)의 형태로 데이터 홀딩 서브시스템의 양상을 나타낸다. 착탈식 컴퓨터 판독가능 저장 매체(1010)는 다른 것들 중에서 CD, DVD, HD-DVD, 블루레이 디스크, EEPROM, 및/또는 플로피 디스크의 형태를 취할 수 있다.
데이터 홀딩 서브시스템(1004)은 하나 이상의 물리적, 비일시적 디바이스를 포함한다는 것이 인식될 것이다. 반대로, 일부 실시형태에서, 여기에 개시된 명령어의 양상은, 적어도 한정 기간동안 물리적 디바이스에 의해 유지되지 않는 순수 신호(pure signal)(예컨대, 전자기 신호, 광학 신호 등)에 의해 일시적 방식으로 전파될 수 있다. 또한, 데이터 및/또는 다른 형태의 본 명세서에 존재하는 정보는 순수 신호에 의해 전파될 수 있다.
디스플레이 서브시스템이 포함되는 경우에, 디스플레이 서브시스템(1006)은 데이터 홀딩 서브시스템(1004)에 의해 유지되는 데이터의 시각적 표시를 나타내는데 사용될 수 있다. 여기에 개시된 방법들 및 프로세스들이 데이터 홀딩 서브시스템에 의해 유지되는 데이터를 변경하고 이에 따라 데이터 홀딩 서브시스템의 상태를 변환하기 때문에, 아래에 놓인 데이터의 변경을 시각적으로 표시하기 위해 디스플레이 서브시스템(1006)의 상태가 마찬가지로 변환될 수 있다. 디스플레이 서브시스템(1006)은 임의의 타입의 기술을 가상으로 사용하는 하나 이상의 디스플레이 디바이스를 포함할 수 있다. 이러한 디스플레이 디바이스가 공유 인클로저(shared enclosure)에서 로직 서브시스템(1002) 및/또는 데이터 홀딩 서브시스템(1004)와 결합되거나, 이러한 디스플레이 디바이스가 주변 디스플레이 디바이스가 될 수 있다.
통신 서브시스템(1008)은 컴퓨팅 시스템(1000)을 하나 이상의 다른 컴퓨팅 디바이스와 통신가능하게 연결하도록 구성될 수 있다. 통신 서브시스템(1008)은 하나 이상의 상이한 통신 프로토콜과 호환가능한 유선 및/또는 무선 통신 디바이스를 포함할 수 있다. 비제한적 예로서, 통신 서브시스템은 무선 전화 네트워크, 무선 근거리 통신망, 유선 근거리 통신망, 무선 광역망, 유선 광역망 등을 통한 통신을 위해 구성될 수 있다. 일부 실시형태에서, 통신 서브시스템은 컴퓨팅 시스템(1000)이 인터넷 등의 네트워크를 통해 다른 디바이스로 및/또는 다른 디바이스로부터 메시지를 전송 및/또는 수신하게 할 수 있다.
여기에 개시된 구성 및/또는 방법은 사실상 예시라는 것과 이 특정 실시형태 또는 실시예는 다수의 변형이 가능하기 때문에 한정의 의미로 간주되지 않는다는 것이 이해될 것이다. 여기에 개시된 특정 루틴 또는 방법은 임의의 수의 프로세싱 방식(processing strategy) 중 하나 이상을 대표할 수 있다. 따라서, 도시된 다양한 동작은 예시된 순서로, 다른 순서로, 병렬로, 또는 일부의 경우 생략되어 수행될 수 있다. 마찬가지로, 상기 프로세스의 순서는 변경될 수 있다.
본 명세서의 대상은 임의의 그리고 모든 등가물에 더하여 다양한 프로세스, 시스템, 및 구성과 여기에 개시된 다른 특징, 기능, 동작, 및/또는 속성의 모든 새롭고 명백하지 않은 조합 및 하부조합(subcombination)을 포함한다.

Claims (10)

  1. 방법에 있어서,
    터치 센서를 포함하는 유저 입력 디바이스로부터 입력을 수신하고 상기 터치 센서로부터 분리된 디스플레이 디바이스로 유저 인터페이스 이미지를 출력하도록 구성된 컴퓨팅 디바이스에서,
    상기 디스플레이 디바이스의 디스플레이 스크린의 제1 영역에 상기 터치 센서의 영역을 맵핑하는 제1 유저 인터페이스 맵핑을 설정하는 단계;
    유저 인터페이스의 유저 상호작용 콘텍스트(user interaction context)를 변경하는 상기 유저 입력 디바이스로부터의 유저 입력을 수신하는 단계;
    상기 유저 입력에 응답하여, 상기 디스플레이 스크린의 제2 영역에 상기 터치 센서의 영역을 맵핑하는 제2 유저 인터페이스 맵핑을 설정하는 단계; 및
    상기 제2 유저 인터페이스 맵핑에 기초하는 위치에서 상기 유저 입력을 나타내는 유저 인터페이스 이미지의 출력을 상기 디스플레이 디바이스에 제공하는 단계를 포함하는, 방법.
  2. 제1항에 있어서, 상기 디스플레이 스크린의 상기 제2 영역은 상기 디스플레이 스크린의 상기 제1 영역보다 작은 것인, 방법.
  3. 제2항에 있어서, 상기 유저 인터페이스 이미지는 상기 디스플레이 스크린의 상기 제2 영역 내에 디스플레이되도록 구성되는 복수의 유저 인터페이스 제어를 포함하는 것인, 방법.
  4. 제3항에 있어서, 상기 복수의 유저 인터페이스 제어는 텍스트 입력 키보드를 포함하는 것인, 방법.
  5. 제1항에 있어서, 상기 디스플레이 스크린의 상기 제2 영역은 상기 디스플레이 스크린의 상기 제1 영역과 상이한 위치를 포함하는 것인, 방법.
  6. 제1항에 있어서, 상기 제2 유저 인터페이스 맵핑은 상이한 종횡비에서 상기 터치 센서에 맵핑되는 상기 디스플레이 스크린의 제1 서브영역과 상기 디스플레이 스크린의 제2 서브영역을 포함하는 것인, 방법.
  7. 제1항에 있어서, 상기 유저 인터페이스 이미지는 상기 제1 서브영역 내의 텍스트 입력 제어 및 상기 제2 서브영역 내의 텍스트 박스를 포함하는 것인, 방법.
  8. 제7항에 있어서, 상기 제1 서브영역과 상기 제2 서브영역 사이의 경계 상에서 커서의 이동에 대응하는 터치 입력 데이터를 수신하는 단계 및 상기 경계 이상의 임계 거리를 상기 커서가 통과할 때까지 상기 유저 입력의 포커스를 변경하지 않는 단계를 더 포함하는, 방법.
  9. 컴퓨팅 디바이스에 있어서,
    로직 서브시스템;
    통신 서브시스템; 및
    디스플레이 디바이스의 디스플레이 스크린의 제1 영역에 리모콘 디바이스의 터치 센서의 영역을 맵핑하는 제1 유저 인터페이스 맵핑을 설정하고,
    제1 유저 입력을 수신하고,
    상기 제1 유저 입력에 응답하여, 상기 제1 유저 인터페이스 맵핑에 기초하는 위치에서 상기 제1 유저 입력을 나타내는 제1 유저 인터페이스 이미지의 출력을 상기 디스플레이 디바이스에 제공하고,
    유저 상호작용 콘텍스트를 변경하는 유저 입력 디바이스로부터 제2 유저 입력을 수신하고,
    상기 유저 입력에 응답하여, 상기 디스플레이 스크린의 상기 제1 영역보다 작은 상기 디스플레이 스크린의 제2 영역에 상기 터치 센서의 영역을 맵핑하는 제2 유저 인터페이스 맵핑을 설정하고,
    상기 제2 유저 인터페이스 맵핑에 기초하는 위치에서 상기 제2 유저 입력을 나타내는 제2 유저 인터페이스 이미지의 출력을 상기 디스플레이 디바이스에 제공하기 위해, 상기 로직 서브시스템에 의해 실행가능한 명령어가 저장된 데이터 홀딩 서브시스템(data holding subsystem)을 포함하는, 컴퓨팅 디바이스.
  10. 제9항에 있어서, 상기 제2 유저 인터페이스 이미지는 상기 디스플레이 스크린의 상기 제2 영역 내에 디스플레이되도록 구성되는 복수의 유저 인터페이스 제어를 포함하는 것인, 컴퓨팅 디바이스.
KR1020147017189A 2011-11-23 2012-11-20 터치 센서의 동적 스케일링 KR20140094639A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/304,093 2011-11-23
US13/304,093 US20130127738A1 (en) 2011-11-23 2011-11-23 Dynamic scaling of touch sensor
PCT/US2012/066006 WO2013078171A1 (en) 2011-11-23 2012-11-20 Dynamic scaling of touch sensor

Publications (1)

Publication Number Publication Date
KR20140094639A true KR20140094639A (ko) 2014-07-30

Family

ID=47627894

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020147017189A KR20140094639A (ko) 2011-11-23 2012-11-20 터치 센서의 동적 스케일링

Country Status (6)

Country Link
US (1) US20130127738A1 (ko)
EP (1) EP2597548A3 (ko)
JP (1) JP2014533866A (ko)
KR (1) KR20140094639A (ko)
CN (1) CN102937876B (ko)
WO (1) WO2013078171A1 (ko)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9213482B2 (en) * 2011-11-11 2015-12-15 Elan Microelectronics Corporation Touch control device and method
US20130155171A1 (en) * 2011-12-16 2013-06-20 Wayne E. Mock Providing User Input Having a Plurality of Data Types Using a Remote Control Device
WO2013150637A1 (ja) * 2012-04-05 2013-10-10 パイオニア株式会社 端末装置、表示装置、キャリブレーション方法及びキャリブレーションプログラム
KR101341737B1 (ko) * 2012-06-21 2013-12-16 주식회사 팬택 후면 터치를 이용한 단말 제어 장치 및 방법
WO2014003337A1 (ko) * 2012-06-28 2014-01-03 한양대학교 산학협력단 유아이 조절 방법 및 이를 사용하는 사용자 단말기
TWI467467B (zh) * 2012-10-29 2015-01-01 Pixart Imaging Inc 畫面物件移動控制方法及裝置
US10001918B2 (en) 2012-11-21 2018-06-19 Algotec Systems Ltd. Method and system for providing a specialized computer input device
US8769431B1 (en) * 2013-02-28 2014-07-01 Roy Varada Prasad Method of single-handed software operation of large form factor mobile electronic devices
US9760278B2 (en) * 2013-03-01 2017-09-12 Altaba INC. Finger expressions for touch screens
CN104656881B (zh) * 2013-11-22 2018-03-02 上海斐讯数据通信技术有限公司 一种外接输入的方法及外接输入装置
USD766259S1 (en) * 2013-12-31 2016-09-13 Beijing Qihoo Technology Co. Ltd. Display screen with a graphical user interface
US9996160B2 (en) 2014-02-18 2018-06-12 Sony Corporation Method and apparatus for gesture detection and display control
KR20150107528A (ko) * 2014-03-14 2015-09-23 삼성전자주식회사 사용자 인터페이스를 제공하는 방법과 전자 장치
US9807725B1 (en) * 2014-04-10 2017-10-31 Knowles Electronics, Llc Determining a spatial relationship between different user contexts
CN103955339A (zh) * 2014-04-25 2014-07-30 华为技术有限公司 一种终端操作方法及终端设备
JP2016146104A (ja) * 2015-02-09 2016-08-12 富士ゼロックス株式会社 入力システム、入力装置およびプログラム
US9781468B2 (en) 2015-08-25 2017-10-03 Echostar Technologies L.L.C. Dynamic scaling of touchpad/UI grid size relationship within a user interface
US9826187B2 (en) 2015-08-25 2017-11-21 Echostar Technologies L.L.C. Combined absolute/relative touchpad navigation
GB2541730B (en) * 2015-08-28 2020-05-13 Samsung Electronics Co Ltd Displaying graphical user interface elements on a touch screen
WO2017039125A1 (en) * 2015-08-28 2017-03-09 Samsung Electronics Co., Ltd. Electronic device and operating method of the same
US10785441B2 (en) * 2016-03-07 2020-09-22 Sony Corporation Running touch screen applications on display device not having touch capability using remote controller having at least a touch sensitive surface
US10434405B2 (en) * 2017-10-30 2019-10-08 Microsoft Technology Licensing, Llc Control stick sensitivity adjustment
CN108255397A (zh) * 2018-02-02 2018-07-06 中兴通讯股份有限公司 控制执行方法、装置、存储介质及电子装置
US10969899B2 (en) 2019-07-19 2021-04-06 Samsung Electronics Co., Ltd. Dynamically adaptive sensing for remote hover touch
US11416130B2 (en) * 2019-10-01 2022-08-16 Microsoft Technology Licensing, Llc Moving applications on multi-screen computing device
CN114157889B (zh) * 2020-08-18 2024-04-16 海信视像科技股份有限公司 一种显示设备及触控协助交互方法
KR20230112485A (ko) * 2022-01-20 2023-07-27 엘지전자 주식회사 디스플레이 장치 및 그의 동작 방법
US11797176B1 (en) * 2022-07-06 2023-10-24 Dell Products L.P. Input area segmentation for a touch-based user input device

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6380929B1 (en) * 1996-09-20 2002-04-30 Synaptics, Incorporated Pen drawing computer input device
US6088023A (en) * 1996-12-10 2000-07-11 Willow Design, Inc. Integrated pointing and drawing graphics system for computers
JP4148187B2 (ja) * 2004-06-03 2008-09-10 ソニー株式会社 携帯型電子機器、入力操作制御方法及びそのプログラム
US20060071915A1 (en) * 2004-10-05 2006-04-06 Rehm Peter H Portable computer and method for taking notes with sketches and typed text
WO2006100540A1 (en) * 2005-03-23 2006-09-28 Nokia Corporation Method and mobile terminal device for mapping a virtual user input interface to a physical user input interface
JP2007280019A (ja) * 2006-04-06 2007-10-25 Alps Electric Co Ltd 入力装置およびこの入力装置を使用したコンピュータシステム
CN101675410A (zh) * 2007-02-23 2010-03-17 Tp-I股份有限公司 使用数字装置中的指点设备的虚拟键盘输入***
JP4924164B2 (ja) * 2007-04-09 2012-04-25 パナソニック株式会社 タッチ式入力装置
KR100857508B1 (ko) * 2007-04-24 2008-09-08 (주)비욘위즈 디지털 방송용 셋탑박스 제어장치, 그 구동방법 및 디지털방송 시스템
US8065624B2 (en) * 2007-06-28 2011-11-22 Panasonic Corporation Virtual keypad systems and methods
JP2009087075A (ja) * 2007-09-28 2009-04-23 Toshiba Corp 情報処理装置、情報処理装置の制御方法、及び情報処理装置の制御プログラム
WO2009143294A2 (en) * 2008-05-20 2009-11-26 Citrix Systems, Inc. Methods and systems for using external display devices with a mobile computing device
JP2009282939A (ja) * 2008-05-26 2009-12-03 Wacom Co Ltd グラフィックタブレットを関連ディスプレイにマッピングする装置、方法、およびコンピュータ可読媒体
US9524085B2 (en) * 2009-05-21 2016-12-20 Sony Interactive Entertainment Inc. Hand-held device with ancillary touch activated transformation of active element
US20100302190A1 (en) * 2009-06-02 2010-12-02 Elan Microelectronics Corporation Multi-functional touchpad remote controller
TWI518561B (zh) * 2009-06-02 2016-01-21 Elan Microelectronics Corp Multi - function touchpad remote control and its control method
US8188969B2 (en) * 2009-06-26 2012-05-29 Panasonic Corporation Dual pointer management method using cooperating input sources and efficient dynamic coordinate remapping
TW201104529A (en) * 2009-07-22 2011-02-01 Elan Microelectronics Corp Touch device, control method and control unit for multi-touch environment
US20110113371A1 (en) * 2009-11-06 2011-05-12 Robert Preston Parker Touch-Based User Interface User Error Handling
US9542097B2 (en) * 2010-01-13 2017-01-10 Lenovo (Singapore) Pte. Ltd. Virtual touchpad for a touch device
CN102918490B (zh) * 2010-04-01 2014-07-23 思杰***有限公司 与在平板计算装置的虚拟桌面内显示的远程应用交互
JP2011242386A (ja) * 2010-04-23 2011-12-01 Immersion Corp 接触センサと触覚アクチュエータとの透明複合圧電材結合体
TWI413922B (zh) * 2010-04-23 2013-11-01 Primax Electronics Ltd 觸控板之控制方法與應用該方法之觸控裝置
WO2011145330A1 (ja) * 2010-05-18 2011-11-24 パナソニック株式会社 座標決定装置、座標決定方法及び座標決定プログラム
US20120068938A1 (en) * 2010-09-16 2012-03-22 Research In Motion Limited Electronic device with touch-sensitive display
JP5790203B2 (ja) * 2011-06-29 2015-10-07 ソニー株式会社 情報処理装置、情報処理方法、プログラム、および遠隔操作システム
JP6141596B2 (ja) * 2011-12-27 2017-06-07 セイコーエプソン株式会社 表示装置、表示システム及び表示装置のデータ供給方法

Also Published As

Publication number Publication date
EP2597548A2 (en) 2013-05-29
CN102937876B (zh) 2017-03-01
JP2014533866A (ja) 2014-12-15
US20130127738A1 (en) 2013-05-23
CN102937876A (zh) 2013-02-20
EP2597548A3 (en) 2013-12-11
WO2013078171A1 (en) 2013-05-30

Similar Documents

Publication Publication Date Title
KR20140094639A (ko) 터치 센서의 동적 스케일링
US10346016B1 (en) Nested zoom in windows on a touch sensitive device
JP5684291B2 (ja) オンおよびオフスクリーン・ジェスチャーの組み合わせ
US11752432B2 (en) Information processing device and method of causing computer to perform game program
JP5883400B2 (ja) オンスクリーン入力を作るためのオフスクリーン・ジェスチャー
US9256917B1 (en) Nested zoom in windows on a touch sensitive device
KR102052771B1 (ko) 선택 및 재배열을 위한 교차-슬라이드 제스처 기법
JP6039801B2 (ja) 透明なヘッドマウントディスプレイ用のユーザインターフェースとの対話
US9146672B2 (en) Multidirectional swipe key for virtual keyboard
US20150067582A1 (en) Content navigation structure and transition mechanism
EP4080347A1 (en) Method and apparatus for displaying application
KR102037481B1 (ko) 디스플레이 장치, 디스플레이 장치를 제어하는 방법 및 그 방법을 수행하는 프로그램이 기록된 기록 매체
JP2008276776A (ja) タッチ式タグ・ナビゲーション方法及び関連装置
KR20170056695A (ko) 멀티핑거 터치패드 제스쳐
US9477373B1 (en) Simultaneous zoom in windows on a touch sensitive device
EP2790096A2 (en) Object display method and apparatus of portable electronic device
TW201405413A (zh) 觸控模式
KR20170057823A (ko) 에지 스크린을 통한 터치 입력 방법 및 전자 장치
JP2013109667A (ja) 情報処理装置および情報処理方法
JP2015060303A (ja) 情報処理装置
US10140003B1 (en) Simultaneous zoom in windows on a touch sensitive device
KR20090017828A (ko) 인터페이스 제어 방법 및 인터페이스 제어 장치
WO2013119477A1 (en) Presentation techniques
JP6872883B2 (ja) 表示制御装置、表示システム、表示方法及びプログラム
US10552022B2 (en) Display control method, apparatus, and non-transitory computer-readable recording medium

Legal Events

Date Code Title Description
N231 Notification of change of applicant
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid