KR101577106B1 - 인간 기계가 가전 기기와 인터페이싱하기 위한 방법, 회로, 장치 및 시스템 - Google Patents

인간 기계가 가전 기기와 인터페이싱하기 위한 방법, 회로, 장치 및 시스템 Download PDF

Info

Publication number
KR101577106B1
KR101577106B1 KR1020127010067A KR20127010067A KR101577106B1 KR 101577106 B1 KR101577106 B1 KR 101577106B1 KR 1020127010067 A KR1020127010067 A KR 1020127010067A KR 20127010067 A KR20127010067 A KR 20127010067A KR 101577106 B1 KR101577106 B1 KR 101577106B1
Authority
KR
South Korea
Prior art keywords
touch
input element
user input
activated user
touch screen
Prior art date
Application number
KR1020127010067A
Other languages
English (en)
Other versions
KR20120093224A (ko
Inventor
도 기본
Original Assignee
익스트림 리얼리티 엘티디.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 익스트림 리얼리티 엘티디. filed Critical 익스트림 리얼리티 엘티디.
Publication of KR20120093224A publication Critical patent/KR20120093224A/ko
Application granted granted Critical
Publication of KR101577106B1 publication Critical patent/KR101577106B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

본 발명은 컴퓨터를 이용한 플랫폼 또는 다른 전자 장치, 예를 들면, 셀-폰, 스마트-폰, e-북, 노트북 컴퓨터, 태블릿 컴퓨터 등과 인간 기계가 인터페이싱하기 위한 방법, 회로, 장치 및 시스템을 개시한다. 일부 실시예들에 따르면, 터치 스크린 디스플레이 상에 투영되거나 제공될 수 있는 제공되거나 투영된 키들 또는 버튼들과 같은 하나 이상의 입력 요소들을 포함한 키보드, 키패드 또는 다른 터치 스크린 입력 장치들과 같은 적응형 터치-스크린 입력 장치가 제공될 수 있다. 적응형 터치-스크린 입력 장치는 사용자가 스크린을 접촉하는데 사용되는 손가락, 사지, 또는 도구에 근접하는 입력 요소들의 크기, 형상 또는 위치를 변경하도록 구성될 수 있다.

Description

인간 기계가 가전 기기와 인터페이싱하기 위한 방법, 회로, 장치 및 시스템{METHODS CIRCUITS APPARATUS AND SYSTEMS FOR HUMAN MACHINE INTERFACING WITH AN ELECTRONIC APPLIANCE}
본 발명은 일반적으로 전자 기기의 분야에 관한 것이다. 특히, 본 발명은 이동 장치들, 셀 폰들, PDA(Personal Digital Assistants), 디지털 카메라, 또는 전자 장치들에 속한 조합물과 같은 전자 장치들과의 인간 인터페이스를 용이하게 하는 방법, 회로, 장치 및 시스템에 관한 것이다.
최근 몇 수십 년 동안, 통신 기술을 포함한 전자 기술은 생활 속에서 놀라운 변화를 가지고 왔다. 전자 장치들, 예를 들면, PDA, 셀 폰들, e-북들, 노트북 컴퓨터들, 이동 미디어 플레이어 및 디지털 카메라들은 선진국에서 거의 모든 사람들의 삶에 젖어 들어갔으며, 후진국에서도 수많은 사람들의 삶에 상당하게 젖어 들어갔다. 이동 통신 및 컴퓨팅 장치들은 특히, 수많은 가정 속에서 세상과 개인과의 상호 작용 및 세상과 전문인과의 상호 작용을 하는 수단이 되어 왔다. 많은 사람이, 특히 생산성 및 기능성을 개선시키는 수단으로서 이러한 장치들을 사용하는 업계의 당업자가 이러한 전자 장치들로 접근하지 않고는 거의 불가능하게 되었다.
그러나, 전자 장치의 사용에 있어 이러한 엄청난 확산으로 인해, 증가된 생산성과 평이성 또는 편리성 사이에는 트레이드오프(tradeoff)가 개발되어왔다. 업무를 보다 많이 하기 위해서 소형 장치가 진화됨에 따라서, 마찬가지로 이러한 장치들과 상호 작용하는데 필요한 인터페이스들의 복잡성도 증가되어 왔다. 오늘날 많은 소형 장치들에는 풀 타입라이터 키보드(full typewriter keyboard)의 일부 변화물 또는 또 다른 것이 구비되어있다. 일부 장치들은 사실상 전기 기계적인 고정형 키보드를 가지는 반면, 다른 장치들은 키보드, 키 패드 또는 일부 변화물을 터치 스크린 센서 어레이와 관련된 디스플레이 상에 투영시킨다. 이동 장치 또는 소형 장치가 이동하는데 충분하도록 작게 유지해야할 필요성으로 인해, 이러한 장치들 상에서 실행되는 수많은 물리적이고 가상적인 것들(즉, 투영 키보드들 및 키패드들)은, 평균 인간 손가락에 비해 상당히 작아 동작시키기 어려운 키들 또는 다른 인터페이스 구성요소들을 가진다.
이로써, 전자 장치와 인터페이싱하기 위한 방법, 회로, 장치 및 시스템을 개선할 필요가 있다.
본 발명의 실시예에 따르면, 셀-폰, 스마트-폰, e-북, 노트북 컴퓨터, 태블릿 컴퓨터 등과 같은 다른 전자 장치 또는 컴퓨터를 이용한 플랫폼(computational platform)과 인간 기계가 인터페이싱하기 위한 방법, 회로, 장치 및 시스템이 제공된다. 본 발명의 일부 실시예들에 따르면, 터치 스크린 디스플레이 상에 투영되거나 제공될 수 있는 제공되거나 투영된 키들 또는 버튼들과 같은 하나 이상의 입력 요소들을 포함한 키보드, 키패드 또는 다른 터치 스크린 입력 장치들과 같은 적응형 터치-스크린 입력 장치(adaptive touch-screen input arrangement)가 제공될 수 있다. 적응형 터치-스크린 입력 장치는 사용자가 스크린을 접촉하는데 사용되는 손가락, 사지, 또는 도구에 근접하는 입력 요소들의 크기, 형상 또는 위치를 변경하도록 구성될 수 있다.
본 발명의 일부 실시예에 따르면, 하나 이상의 센서들 예를 들면: (1) 이미지 센서들, (2) 이미지 센서 어레이들, (3) 정전식 센서들(electrostatic sensors), (4) 정전 용량식 센서들(capacitive sensors), 또는 (5) 기능성을 가진 다른 센서는 터치 스크린에 접근하는 손가락, 사지 또는 도구의 위치 및/또는 움직임 벡터를 감지할 수 있다. 센서(들)는 입력 요소들 또는 키들에 대한 손가락/사지/도구의 감지된 위치 또는 움직임 벡터의 지시를 적응형 터치 스크린 입력 장치에 제공할 수 있어서, 어느 입력 요소들 또는 키들에 접근되었는지를 나타낼 수 있다. 지시에 대한 응답으로, 터치 스크린 입력 장치는 감지된 손가락, 사지 또는 도구에 근접하는 입력 요소들의 크기, 형상 또는 위치를 변경할 수 있어서, 입력 요소들은 두드러지고(예를 들면, 보다 큰 크기 또는 양호한 위치), 손가락, 사지 또는 도구가 보다 용이하게 맞닿을 수 있다.
본 발명의 추가적인 실시예에 따르면, 표시 소자들 및 감지 소자들을 포함한 인간 인터페이스 표면(예를 들면, 터치 스크린 디스플레이)이 제공될 수 있다. 표시 소자들 및 감지 소자들은 단일 기판 소재에 집적화될 수 있거나, 중첩 방식(overlapping manner)으로 서로 기계적으로 부착되는 개별적인 기판들의 부분일 수 있다. 본 발명의 추가적인 실시예들에 따르면, 표시 구성 테이블(예를 들면, 키의 위치 및 크기를 포함한 가상 키보드 레이아웃)에 저장된 데이터에 적어도 부분적으로 기반하고, 장치의 현재 상태에 기반하여, 인간 인터페이스 표면의 표시 소자들의 하나 이상의 표시 신호를 전송하도록 구성된 제어기(예를 들면, 디스플레이 구동 회로)가 제공될 수 있다. 장치의 현재 상태는 감지 소자들로부터 수신된 하나 이상의 신호에 기반하여, 그리고/또는 장치로부터 수신된 하나 이상의 신호에 기반하여 판별될 수 있다.
본 발명의 추가적인 실시예들에 따라서, 제어기는 감지 소자들로부터 수신된 하나 이상의 신호 각각과 기능 또는 장치 명령 신호를 결합시킬 수 있고(예를 들면, 감지 소자가 접촉되는 경우), 명령 또는 기능의 결합은 감지 소자 구성 테이블에서 설정된 제 1 데이터로부터 나온 데이터에 적어도 부분적으로 기반할 수 있다. 감지 소자 구성 테이블로부터 선택된 데이터는 표시 소자들로 하나 이상의 신호를 전송하도록, 제어기에 의해 사용된 표시 구성으로부터 나온 데이터와 상관 관계를 가질 수 있다.
본 발명에 관한 내용은 특히 명세서의 결말 부분에서 나오고 명백하게 청구된다. 그러나, 본 발명은 본 발명의 목적, 특징 및 이점과 함께, 구성 및 동작 방법 모두로서, 첨부된 도면과 함께 고려될 시에 다음의 상세한 설명을 참조하여 가장 잘 이해될 수 있으며 도면에서:
도 1은 본 발명의 일부 실시예들에 따른 대표적인 이동 장치의 블록도로서, 인터페이스 표면, 및 인터페이스 표면을 구동하고 상호 작용시키는 다양한 전기 기능성 블럭들을 포함하여 도시된다.
인식될 수 있는 바와 같이, 제시의 평이성 및 명료성을 위해, 도면에서 도시된 소자들은 크기에 반드시 맞춰져 도시되지 않았다. 예를 들면, 소자들의 일부 치수는 명료성을 위해 다른 소자들에 비해 과장되어 도시될 수도 있다. 나아가, 타당하게 여겨지는 바와 같이, 참조 번호는 해당 또는 동일한 소자들을 나타내기 위해 도면들에서 반복될 수 있다.
다음의 상세한 설명에서, 수많은 특정 사항은 본 발명의 이해를 통하여 제공되기 위해 설명된다. 그러나, 기술분야의 통상의 기술자라면, 본 발명이 이러한 특정 사항 없이 이행될 수 있다는 것을 이해할 것이다. 다른 예에서, 매우 잘 알려진 방법, 절차, 구성요소 및 회로는 본 발명을 명확하게 하기 위해, 상세한 설명에서 기술되지는 않는다.
다른 말이 없는 한, 다음 설명에서부터 명확해지는 바와 같이, "처리(processing)", "컴퓨팅", "계산(calculating)", "판별(determining)" 등과 같은 용어를 이용하는 본원은, 컴퓨팅 시스템 레지스터들 및/또는 메모리들 내의 전자 기기, 수량 등의 물리적인 것으로 나타내는 데이터를, 컴퓨팅 시스템 메모리들, 레지스터들 또는 다른 정보 저장부, 전송 또는 디스플레이 장치 내의 물리적인 수량으로 유사하게 나타나는 다른 데이터로 변형하거나/변형하고 조종하는 컴퓨터 또는 컴퓨팅 시스템 또는 이와 유사한 전자 컴퓨팅 장치의 작동 및/또는 처리를 의미하는 것이 인식되어야 한다.
본 발명의 실시예들은 본원에서 동작을 실행하는 장치들을 포함할 수 있다. 이러한 장치는 원하는 목적에 대해 특별하게 구성될 수 있거나, 컴퓨터에 저장된 컴퓨터 프로그램에 의해 선택적으로 작동되거나 재구성되고 일반적인 목적을 가진 컴퓨터를 포함할 수 있다. 상기와 같은 컴퓨터 프로그램은, 예를 들면, 플로피 디스크들, 광학 디스크들, CD-ROM들, 자기-광학 디스크들, 판독 전용 메모리들(ROMs), 랜덤 액세스 메모리들(RAMs), 전기적으로 프로그램이 가능한 판독 전용 메모리들(EPROMs), 전기적으로 삭제가 가능하고 프로그램이 가능한 판독 전용 메모리들(EEPROMs), 자기 또는 광학 카드들, 또는 전자적인 명령을 저장하는데 적합하고 컴퓨터 시스템 버스에 연결될 수 있는 다른 유형의 매체를 포함한 임의의 유형의 디스크를 포함하지만 이에 제한되지 않는 컴퓨터로 판독 가능한 저장 매체에 저장될 수 있다.
본원에 나타난 처리부들 및 디스플레이들은 특정 컴퓨터 또는 다른 장치와 본질적으로 관련되지는 않는다. 다양하고 일반적인 목적을 가진 시스템들은 본원의 교시에 따른 프로그램들과 함께 사용될 수 있거나, 원하는 방법을 실행하기 위해 보다 전문화된 장치의 구성을 편리하게 해줄 수 있다. 다양한 이러한 시스템들을 위해 필요한 구조는 이하의 설명으로부터 나타날 것이다. 게다가, 본 발명의 실시예들은 특별한 프로그램밍 언어에 관하여 기술되지는 않는다. 다양한 프로그램밍 언어들이 본원에서 기술된 바와 같이 본 발명을 교시하는데 사용될 수 있다는 것을 인식하여야 할 것이다.
실시예들에 따르면, 손가락, 사지 또는 도구의 위치 또는 움직임 벡터에 대하여 비접촉 센서(touchless sensor)로부터 나온 신호 또는 지시를 기반으로 입력 요소의 크기, 위치 또는 형상을 변경시키도록 구성되는 적응형 터치-스크린 입력 장치를 포함한 전자 장치에 인터페이스 장치가 구비될 수 있다. 적응형 터치-스크린 입력 장치는, 하나 이상의 입력 요소들을 제공하고 하나 이상의 입력 요소들이 디스플레이 상에서 투영되도록 구성된 그래픽 처리 회로와 기능적으로 결합된 디스플레이를 포함할 수 있다. 장치는 상기 디스플레이에 근접하는 손가락, 사지 또는 도구의 위치 또는 움직임 벡터를 감지하도록 구성된 비접촉 센서를 포함할 수 있다. 비접촉 센서의 출력으로부터 나온 신호는 그래픽 처리 회로에 제공될 수 있고, 그래픽 처리 회로가 하나 이상의 투영된 인터페이스 요소들의 특징부를 변화시키도록 할 수 있다 - 예를 들면, 손가락, 사지 또는 도구의 위치에 근접하는 입력 요소 크기(예를 들면, 디스플레이 상에 투영된 키보드 키 및 그와 관련된 터치-스크린 센서 영역)는 커질 수 있다. 비접촉 센서는 (1) 근접 센서들, (2) 이미지 센서들, (3) 이미지 센서 어레이들, (4) 정전식 센서들, 및 (5) 정전 용량식 센서들로 구성된 센서들의 그룹으로부터 선택될 수 있다. 인터페이스 장치는 오늘날 알려지거나 조만간 개발된 컴퓨팅 장치, 통신 장치 또는 다른 전자 장치의 일부일 수 있다.
이제, 도 1을 참조하면, 도 1은 본 발명의 일부 실시예들에 따른 대표적인 이동 장치의 블록도로서, 인터페이스 표면, 및 인터페이스 표면 또는 터치-스크린 어셈블리를 구동하고 상호 작용시키는 다양한 전기 기능성 블럭들을 포함하여 도시된다. 대표적인 장치는 표시 소자 구동기(presentation element driver)(300)에 대한 신호를 조정하도록 구성된 제어기(100)를 포함할 수 있고, 표시 소자 구동기(300)는 인터페이스 표면(10)의 표시 소자들(예를 들면, 발광 다이오드들, LCD 등)과 기능적으로 결합될 수 있다. 제어기는 또한 터치 감지 소자 디코더(400)로부터 나온 신호들을 수신하도록 구성될 수 있고, 터치 감지 소자 디코더(400)는 인터페이스 표면의 터치 감지 소자들(예를 들면, 터치 센서들 등)과 기능적으로 결합될 수 있다. 제어기는 비접촉 센서(600)로부터 나온 손가락/사지/도구 위치 또는 움직임 표시 또는 정보를 수신하도록 구성될 수도 있다.
제어기(100)가 프로세서, 그래픽 프로세서, 전용 제어 로직 또는 그의 조합물일 수 있다는 것을 이해하여야 한다.
구성 데이터베이스(200)는, 표시 소자 구동기에 대한 신호 흐름을 조정하고 제어기(100)에 의해 사용되는 정보를 포함할 수 있다. 도 1에 도시된 바와 같이, 구성 데이터베이스(200)는, 장치에 설치된 가전 기기들(500A 내지 500N) 마다 인터페이스 요소(예를 들면, 버튼들 또는 디스플레이 영역) 형상 및 위치, 디스플레이 속성 등과 같은 정보를 포함할 수 있다. 기술 분야의 통상의 기술자라면, 상술된 버튼들 및 표시들과 같은 인터페이스 요소들이 물리적인 버튼들 또는 표시들이 아니라, 오히려 표시 표면(10)을 통하여 투영된 가상 요소들(virtual elements)이라는 것을 이해하여야 한다. 주어진 가전 기기(500A 내지 500N) 마다, 구성 데이터베이스(200)는 또한 주어진 가전 기기에 관련된 표시 정보/요소들에 대응하는 정보를 특정 기능에 맵핑시키는(mapping) 감지 소자를 포함할 수 있다. 제어기(100)는 어느 인터페이스 요소가 사용자에 의해 상호 작용하는지(스크린에 접촉될 시), 그리고 어느 기능/명령이 그 상호 작용을 트리거하는지를 판별하기 위해 맵핑 정보를 사용할 수 있다.
제어기는, 감지 표면 상에 투영된 요소들 또는 감지 표면에 대한 손가락/사지/도구 위치 또는 움직임에 대해 비접촉 센서(600)에 의해 제공된 신호 또는 지시를 기반으로, 디스플레이 소자들에 의해 투영되고/제공되고 다른 특징을 갖는 요소 또는 크기, 형상, 위치를 변경하도록 구성될 수 있다. 제어기는 입력 요소를 구현할 수 있고, 손가락/사지/도구는 입력 요소를 향하여 보다 두드러지게 접근할 수 있다. 제어기는 또한, 조정되고 투영되고/표시되는 입력 요소 크기, 형상 또는 위치와 상관 관계를 가지기 위해, 맵핑을 작용시키도록 제어기의 터치-센서 요소를 조정할 수 있다.
본 발명의 일부 실시예들에 따라서, 비접촉 센서(600)는 투영되고/제공되고/표시되는 요소들에 관하여, 또는 터치 스크린에 관하여 손가락/사지/도구의 위치 및/또는 움직임을 판별하도록 구성될 수 있다. 비접촉 센서는 인간 기계 인터페이스(human machine interface)에 기반한 이미지의 부분일 수 있다. 인간 기계 인터페이스에 기반한 이미지는 제어기 상에서, 생성 가능한 목적을 가진 또 따른 프로세서 상에서, 또는 전용 프로세서 상에서 운영되는 소프트웨어 및 하나 이상의 이미지 센서들을 포함할 수 있다. 본 발명의 추가적인 실시예에 따라서, 센서(600)는 정전식 감지 장치의 부분일 수 있다. 기술분야의 통상의 기술자라면, 기능적으로 상관 관계를 가진(즉, 동일한 기능을 할 수 있음) 비접촉 센서가 본 발명의 일부 실시예의 부분으로 사용될 수 있다는 것을 이해하여야 한다.
본 발명의 특정한 특징이 본원에서 제시되고 기술되었지만, 수많은 변경물, 대체물, 변화물 및 균등물이 기술분야의 통상의 기술자에게 일어날 수 있을 것이다. 그러므로, 첨부된 청구항이 본 발명의 참된 권리 범위 내에 있는 한 모든 변형물 및 변화물을 포함할 수 있다는 것을 이해하여야 한다.

Claims (12)

  1. 터치 스크린, 및 상기 터치 스크린 상에 터치 활성화된 사용자 입력 요소를 제공하도록 구성된 그래픽 처리 회로를 포함하고, 터치 활성화된 사용자 입력 요소는, 요소가 제공되는 터치 스크린 상의 지점을 사용자가 물리적으로 터치하여 트리거되는 관련 기능을 갖는 제어 요소인, 터치 스크린 입력 장치;
    상기 터치 활성화된 사용자 입력 요소에 대해, 상기 터치 스크린에 접근하는 사용자 손가락, 사지 또는 제어 도구의 위치 또는 움직임 벡터를 감지하도록 구성된 하나 이상의 이미지 센서; 및
    제공된 터치 활성화된 사용자 입력 요소의 위치를 기기의 기능에 관련시키는 맵핑 정보를 포함하고,
    상기 그래픽 처리 회로는, 하나 이상의 이미지 센서에 의해 감지된 위치 또는 움직임 벡터에 기초하여, 제공된 터치 활성화된 사용자 입력 요소에 사용자 손가락, 사지 또는 제어 도구가 접근하는지를 결정하도록 구성되고,
    (1) 상기 그래픽 처리 회로가, 손가락, 사지 또는 제어 도구에 대해 상기 제공된 터치 활성화된 사용자 입력 요소의 크기, 형상 또는 위치를 변경하여 상기 제공된 터치 활성화된 사용자 입력 요소와의 상호작용을 용이하게 하도록 하고, (2)상기 제공된 터치 활성화된 사용자 입력 요소의 변경된 크기, 형상 또는 위치를 고려하여 맵핑 정보를 변경하도록 구성되는 제어기를 더 포함하는 것을 특징으로 하는 사용자 인터페이스 장치.
  2. 프로세서;
    배터리;
    터치 스크린, 및 상기 터치 스크린 상에 터치 활성화된 사용자 입력 요소를 제공하도록 구성된 그래픽 처리 회로를 포함하고, 터치 활성화된 사용자 입력 요소는, 요소가 제공되는 터치 스크린 상의 지점을 사용자가 물리적으로 터치하여 트리거되는 관련 기능을 갖는 제어 요소인, 터치 스크린 입력 장치;
    상기 터치 활성화된 사용자 입력 요소에 대해, 상기 터치 스크린에 접근하는 사용자 손가락, 사지 또는 제어 도구의 움직임 벡터를 감지하도록 구성된 비접촉 센서; 및
    (1) 사용자 손가락, 사지 또는 제어 도구의 움직임 벡터를 비접촉 센서로부터 수신하고, (2) 수신한 움직임 벡터로부터 상기 제공된 터치 활성화된 사용자 입력 요소가 어디를 향하는지 결정하고, (3) 상기 그래픽 처리 회로가, 상기 제공된 터치 활성화된 사용자 입력 요소의 크기, 형상 또는 위치를 변경하여 상기 제공된 터치 활성화된 사용자 입력 요소와의 상호작용을 용이하게 하도록 구성되는 제어기를 포함하고,
    상기 제공된 처리 활성화된 사용자 입력 요소를 변경하는 것은, 주어진 입력 요소가 커지는 것을 포함하는 것을 특징으로 하는 전자 장치.
  3. 제 2 항에 있어서,
    상기 비접촉 센서는 (1) 근접 센서들, (2) 이미지 센서들, (3) 이미지 센서 어레이들, (4) 정전식 센서들, 및 (5) 정전 용량식 센서들로 구성된 센서들의 그룹으로부터 선택되는 것을 특징으로 하는 전자 장치.
  4. 터치 스크린 상에 터치 활성화된 사용자 입력 요소를 포함하는 그래픽 사용자 인터페이스를 제공하는 단계로, 터치 활성화된 사용자 입력 요소는, 요소가 제공되는 터치 스크린 상의 지점을 사용자가 물리적으로 터치하여 트리거되는 관련 기능을 갖는 제어 요소인 것인, 단계;
    상기 터치 활성화된 사용자 입력 요소에 대해, 터치 스크린 입력 장치에 접근하는 사용자 손가락, 사지 또는 제어 도구의 움직임 벡터를 하나 이상의 이미지 센서를 사용하여 결정하는 단계;
    사용자 손가락, 사지 또는 제어 도구의 움직임 벡터의 결정에 기초하여, 제공된 터치 활성화된 사용자 입력 요소가 어디를 향하는지 결정하는 단계; 및
    제공된 터치 활성화된 사용자 입력 요소의 크기, 형상 또는 위치를 변경하여 제공된 터치 활성화된 사용자 입력 요소와의 상호작용을 용이하게 하는 단계를 포함하고,
    상기 제공된 처리 활성화된 사용자 입력 요소를 변경하는 것은, 주어진 입력 요소가 커지는 것을 포함하는 것을 특징으로 하는 인간 기계 인터페이싱 방법.
  5. 삭제
  6. 삭제
  7. 삭제
  8. 삭제
  9. 삭제
  10. 삭제
  11. 삭제
  12. 삭제
KR1020127010067A 2009-09-21 2010-09-21 인간 기계가 가전 기기와 인터페이싱하기 위한 방법, 회로, 장치 및 시스템 KR101577106B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US24413609P 2009-09-21 2009-09-21
US61/244,136 2009-09-21

Publications (2)

Publication Number Publication Date
KR20120093224A KR20120093224A (ko) 2012-08-22
KR101577106B1 true KR101577106B1 (ko) 2015-12-11

Family

ID=43758175

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020127010067A KR101577106B1 (ko) 2009-09-21 2010-09-21 인간 기계가 가전 기기와 인터페이싱하기 위한 방법, 회로, 장치 및 시스템

Country Status (7)

Country Link
US (1) US9218126B2 (ko)
EP (1) EP2480951A4 (ko)
JP (1) JP2013505493A (ko)
KR (1) KR101577106B1 (ko)
CA (1) CA2774867A1 (ko)
IL (1) IL218765A0 (ko)
WO (1) WO2011033519A1 (ko)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8872899B2 (en) 2004-07-30 2014-10-28 Extreme Reality Ltd. Method circuit and system for human to machine interfacing by hand gestures
KR101183000B1 (ko) 2004-07-30 2012-09-18 익스트림 리얼리티 엘티디. 이미지 프로세싱을 기반으로 한 3d 공간 차원용 시스템 및방법
US8681100B2 (en) 2004-07-30 2014-03-25 Extreme Realty Ltd. Apparatus system and method for human-machine-interface
US9046962B2 (en) 2005-10-31 2015-06-02 Extreme Reality Ltd. Methods, systems, apparatuses, circuits and associated computer executable code for detecting motion, position and/or orientation of objects within a defined spatial region
US20070285554A1 (en) 2005-10-31 2007-12-13 Dor Givon Apparatus method and system for imaging
WO2010046901A2 (en) 2008-10-24 2010-04-29 Extreme Reality Ltd. A method system and associated modules and software components for providing image sensor based human machine interfacing
US8878779B2 (en) 2009-09-21 2014-11-04 Extreme Reality Ltd. Methods circuits device systems and associated computer executable code for facilitating interfacing with a computing platform display screen
US9218126B2 (en) 2009-09-21 2015-12-22 Extreme Reality Ltd. Methods circuits apparatus and systems for human machine interfacing with an electronic appliance
CA2806520C (en) 2011-01-23 2016-02-16 Extreme Reality Ltd. Methods, systems, devices and associated processing logic for generating stereoscopic images and video
US9857868B2 (en) 2011-03-19 2018-01-02 The Board Of Trustees Of The Leland Stanford Junior University Method and system for ergonomic touch-free interface
US8840466B2 (en) 2011-04-25 2014-09-23 Aquifi, Inc. Method and system to create three-dimensional mapping in a two-dimensional game
US10684768B2 (en) * 2011-10-14 2020-06-16 Autodesk, Inc. Enhanced target selection for a touch-based input enabled user interface
US20130104039A1 (en) * 2011-10-21 2013-04-25 Sony Ericsson Mobile Communications Ab System and Method for Operating a User Interface on an Electronic Device
US8854433B1 (en) 2012-02-03 2014-10-07 Aquifi, Inc. Method and system enabling natural user interface gestures with an electronic system
CN103365861A (zh) 2012-03-28 2013-10-23 国际商业机器公司 用于在移动设备上显示网页的方法和***
US8934675B2 (en) 2012-06-25 2015-01-13 Aquifi, Inc. Systems and methods for tracking human hands by performing parts based template matching using images from multiple viewpoints
US9111135B2 (en) 2012-06-25 2015-08-18 Aquifi, Inc. Systems and methods for tracking human hands using parts based template matching using corresponding pixels in bounded regions of a sequence of frames that are a specified distance interval from a reference camera
US8836768B1 (en) 2012-09-04 2014-09-16 Aquifi, Inc. Method and system enabling natural user interface gestures with user wearable glasses
US9092665B2 (en) 2013-01-30 2015-07-28 Aquifi, Inc Systems and methods for initializing motion tracking of human hands
US9129155B2 (en) 2013-01-30 2015-09-08 Aquifi, Inc. Systems and methods for initializing motion tracking of human hands using template matching within bounded regions determined using a depth map
US9298266B2 (en) 2013-04-02 2016-03-29 Aquifi, Inc. Systems and methods for implementing three-dimensional (3D) gesture based graphical user interfaces (GUI) that incorporate gesture reactive interface objects
US9798388B1 (en) 2013-07-31 2017-10-24 Aquifi, Inc. Vibrotactile system to augment 3D input systems
US10394442B2 (en) 2013-11-13 2019-08-27 International Business Machines Corporation Adjustment of user interface elements based on user accuracy and content consumption
US9507417B2 (en) 2014-01-07 2016-11-29 Aquifi, Inc. Systems and methods for implementing head tracking based graphical user interfaces (GUI) that incorporate gesture reactive interface objects
US9619105B1 (en) 2014-01-30 2017-04-11 Aquifi, Inc. Systems and methods for gesture based interaction with viewpoint dependent user interfaces
CN114168236A (zh) * 2020-09-10 2022-03-11 华为技术有限公司 一种应用接入方法及相关装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080007533A1 (en) 2006-07-06 2008-01-10 Apple Computer, Inc., A California Corporation Capacitance sensing electrode with integrated I/O mechanism
US20080111710A1 (en) 2006-11-09 2008-05-15 Marc Boillot Method and Device to Control Touchless Recognition

Family Cites Families (125)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4376950A (en) 1980-09-29 1983-03-15 Ampex Corporation Three-dimensional television system using holographic techniques
US5130794A (en) 1990-03-29 1992-07-14 Ritchey Kurtis J Panoramic display system
US5515183A (en) 1991-08-08 1996-05-07 Citizen Watch Co., Ltd. Real-time holography system
US5691885A (en) 1992-03-17 1997-11-25 Massachusetts Institute Of Technology Three-dimensional interconnect having modules with vertical top and bottom connectors
JP3414417B2 (ja) 1992-09-30 2003-06-09 富士通株式会社 立体画像情報伝送システム
US5745719A (en) 1995-01-19 1998-04-28 Falcon; Fernando D. Commands functions invoked from movement of a control input device
US5835133A (en) 1996-01-23 1998-11-10 Silicon Graphics, Inc. Optical system for single camera stereo video
US6115482A (en) 1996-02-13 2000-09-05 Ascent Technology, Inc. Voice-output reading system with gesture-based navigation
US5909218A (en) 1996-04-25 1999-06-01 Matsushita Electric Industrial Co., Ltd. Transmitter-receiver of three-dimensional skeleton structure motions and method thereof
JP3337938B2 (ja) 1996-04-25 2002-10-28 松下電器産業株式会社 3次元骨格構造の動き送受信装置、および動き送受信方法
US6445814B2 (en) 1996-07-01 2002-09-03 Canon Kabushiki Kaisha Three-dimensional information processing apparatus and method
US5852450A (en) 1996-07-11 1998-12-22 Lamb & Company, Inc. Method and apparatus for processing captured motion data
US5831633A (en) 1996-08-13 1998-11-03 Van Roy; Peter L. Designating, drawing and colorizing generated images by computer
JPH10188028A (ja) 1996-10-31 1998-07-21 Konami Co Ltd スケルトンによる動画像生成装置、該動画像を生成する方法、並びに該動画像を生成するプログラムを記憶した媒体
US6243106B1 (en) 1998-04-13 2001-06-05 Compaq Computer Corporation Method for figure tracking using 2-D registration and 3-D reconstruction
US6681031B2 (en) 1998-08-10 2004-01-20 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US6303924B1 (en) 1998-12-21 2001-10-16 Microsoft Corporation Image sensing operator input device
US6529643B1 (en) 1998-12-21 2003-03-04 Xerox Corporation System for electronic compensation of beam scan trajectory distortion
US6657670B1 (en) 1999-03-16 2003-12-02 Teco Image Systems Co., Ltd. Diaphragm structure of digital still camera
DE19917660A1 (de) 1999-04-19 2000-11-02 Deutsch Zentr Luft & Raumfahrt Verfahren und Eingabeeinrichtung zum Steuern der Lage eines in einer virtuellen Realität graphisch darzustellenden Objekts
US6597801B1 (en) 1999-09-16 2003-07-22 Hewlett-Packard Development Company L.P. Method for object registration via selection of models with dynamically ordered features
US7123292B1 (en) 1999-09-29 2006-10-17 Xerox Corporation Mosaicing images with an offset lens
JP2001246161A (ja) 1999-12-31 2001-09-11 Square Co Ltd ジェスチャー認識技術を用いたゲーム装置およびその方法ならびにその方法を実現するプログラムを記憶した記録媒体
GB2358098A (en) 2000-01-06 2001-07-11 Sharp Kk Method of segmenting a pixelled image
EP1117072A1 (en) 2000-01-17 2001-07-18 Koninklijke Philips Electronics N.V. Text improvement
US6674877B1 (en) 2000-02-03 2004-01-06 Microsoft Corporation System and method for visually tracking occluded objects in real time
US7370983B2 (en) 2000-03-02 2008-05-13 Donnelly Corporation Interior mirror assembly with display
US9607301B2 (en) * 2000-04-27 2017-03-28 Merck Patent Gmbh Photovoltaic sensor facilities in a home environment
US6554706B2 (en) 2000-05-31 2003-04-29 Gerard Jounghyun Kim Methods and apparatus of displaying and evaluating motion data in a motion game apparatus
US7227526B2 (en) 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
US6906687B2 (en) 2000-07-31 2005-06-14 Texas Instruments Incorporated Digital formatter for 3-dimensional display applications
JP4047575B2 (ja) 2000-11-15 2008-02-13 株式会社セガ 情報処理装置における表示物体生成方法、これを実行制御するプログラム及びこのプログラムを格納した記録媒体
IL139995A (en) 2000-11-29 2007-07-24 Rvc Llc System and method for spherical stereoscopic photographing
US7116330B2 (en) 2001-02-28 2006-10-03 Intel Corporation Approximating motion using a three-dimensional model
US7061532B2 (en) 2001-03-27 2006-06-13 Hewlett-Packard Development Company, L.P. Single sensor chip digital stereo camera
US6862121B2 (en) 2001-06-05 2005-03-01 California Institute Of Technolgy Method and apparatus for holographic recording of fast phenomena
JP4596220B2 (ja) 2001-06-26 2010-12-08 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP4304337B2 (ja) 2001-09-17 2009-07-29 独立行政法人産業技術総合研究所 インタフェース装置
CA2359269A1 (en) 2001-10-17 2003-04-17 Biodentity Systems Corporation Face imaging system for recordal and automated identity confirmation
WO2003039698A1 (en) 2001-11-02 2003-05-15 Atlantis Cyberspace, Inc. Virtual reality game system with pseudo 3d display driver & mission control
US20050063596A1 (en) 2001-11-23 2005-03-24 Yosef Yomdin Encoding of geometric modeled images
US6833843B2 (en) 2001-12-03 2004-12-21 Tempest Microsystems Panoramic imaging and display system with canonical magnifier
WO2003067360A2 (en) 2002-02-06 2003-08-14 Nice Systems Ltd. System and method for video content analysis-based detection, surveillance and alarm management
WO2004004320A1 (en) 2002-07-01 2004-01-08 The Regents Of The University Of California Digital processing of video images
JP3866168B2 (ja) 2002-07-31 2007-01-10 独立行政法人科学技術振興機構 多重構造を用いた動作生成システム
US8013852B2 (en) 2002-08-02 2011-09-06 Honda Giken Kogyo Kabushiki Kaisha Anthropometry-based skeleton fitting
US8460103B2 (en) 2004-06-18 2013-06-11 Igt Gesture controlled casino gaming system
EP1574039A1 (en) * 2002-12-18 2005-09-14 Orange S.A. Mobile graphics device and server
JP2006513502A (ja) 2003-01-17 2006-04-20 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 完全な奥行きマップを得る方法
US9177387B2 (en) 2003-02-11 2015-11-03 Sony Computer Entertainment Inc. Method and apparatus for real time motion capture
US7257237B1 (en) 2003-03-07 2007-08-14 Sandia Corporation Real time markerless motion tracking using linked kinematic chains
US7103852B2 (en) * 2003-03-10 2006-09-05 International Business Machines Corporation Dynamic resizing of clickable areas of touch screen applications
US8745541B2 (en) 2003-03-25 2014-06-03 Microsoft Corporation Architecture for controlling a computer using hand gestures
WO2004094943A1 (ja) 2003-04-22 2004-11-04 Hiroshi Arisawa モーションキャプチャ方法、モーションキャプチャ装置、及びモーションキャプチャ用マーカ
EP1627294A2 (en) 2003-05-01 2006-02-22 Delta Dansk Elektronik, Lys & Akustik A man-machine interface based on 3-d positions of the human body
WO2005036456A2 (en) 2003-05-12 2005-04-21 Princeton University Method and apparatus for foreground segmentation of video sequences
US7831088B2 (en) 2003-06-13 2010-11-09 Georgia Tech Research Corporation Data reconstruction using directional interpolation techniques
JP2005020227A (ja) 2003-06-25 2005-01-20 Pfu Ltd 画像圧縮装置
JP2005025415A (ja) 2003-06-30 2005-01-27 Sony Corp 位置検出装置
US7755608B2 (en) 2004-01-23 2010-07-13 Hewlett-Packard Development Company, L.P. Systems and methods of interfacing with a machine
JP2007531113A (ja) 2004-03-23 2007-11-01 富士通株式会社 携帯装置の傾斜及び並進運動成分の識別
CA2600938A1 (en) 2004-03-24 2005-10-06 Andre Hoffmann Identification, verification, and recognition method and system
US8036494B2 (en) 2004-04-15 2011-10-11 Hewlett-Packard Development Company, L.P. Enhancing image resolution
US7308112B2 (en) 2004-05-14 2007-12-11 Honda Motor Co., Ltd. Sign based human-machine interaction
US7519223B2 (en) 2004-06-28 2009-04-14 Microsoft Corporation Recognizing gestures and using gestures for interacting with software applications
US7366278B2 (en) 2004-06-30 2008-04-29 Accuray, Inc. DRR generation using a non-linear attenuation model
US8381135B2 (en) * 2004-07-30 2013-02-19 Apple Inc. Proximity detector in handheld device
KR101183000B1 (ko) 2004-07-30 2012-09-18 익스트림 리얼리티 엘티디. 이미지 프로세싱을 기반으로 한 3d 공간 차원용 시스템 및방법
US8432390B2 (en) 2004-07-30 2013-04-30 Extreme Reality Ltd Apparatus system and method for human-machine interface
US8872899B2 (en) 2004-07-30 2014-10-28 Extreme Reality Ltd. Method circuit and system for human to machine interfacing by hand gestures
WO2008126069A2 (en) 2007-04-15 2008-10-23 Xtr - Extreme Reality An apparatus system and method for human-machine-interface
GB0424030D0 (en) 2004-10-28 2004-12-01 British Telecomm A method and system for processing video data
US7386150B2 (en) 2004-11-12 2008-06-10 Safeview, Inc. Active subject imaging with body identification
US7903141B1 (en) 2005-02-15 2011-03-08 Videomining Corporation Method and system for event detection by multi-scale image invariant analysis
US7317836B2 (en) 2005-03-17 2008-01-08 Honda Motor Co., Ltd. Pose estimation based on critical point analysis
US7774713B2 (en) 2005-06-28 2010-08-10 Microsoft Corporation Dynamic user experience with semantic rich objects
US9046962B2 (en) 2005-10-31 2015-06-02 Extreme Reality Ltd. Methods, systems, apparatuses, circuits and associated computer executable code for detecting motion, position and/or orientation of objects within a defined spatial region
US20070285554A1 (en) 2005-10-31 2007-12-13 Dor Givon Apparatus method and system for imaging
US8265349B2 (en) 2006-02-07 2012-09-11 Qualcomm Incorporated Intra-mode region-of-interest video object segmentation
JP2009527041A (ja) * 2006-02-16 2009-07-23 エフティーケー テクノロジーズ エルティーディー. コンピューティングシステムにデータを入力するシステム及び方法
US9395905B2 (en) * 2006-04-05 2016-07-19 Synaptics Incorporated Graphical scroll wheel
JP2007302223A (ja) 2006-04-12 2007-11-22 Hitachi Ltd 車載装置の非接触入力操作装置
CN102685533B (zh) 2006-06-23 2015-03-18 图象公司 对2d电影进行转换用于立体3d显示的方法和***
US7783118B2 (en) 2006-07-13 2010-08-24 Seiko Epson Corporation Method and apparatus for determining motion in images
US7701439B2 (en) 2006-07-13 2010-04-20 Northrop Grumman Corporation Gesture recognition simulation system and method
US7907117B2 (en) 2006-08-08 2011-03-15 Microsoft Corporation Virtual controller for visual displays
US7936932B2 (en) 2006-08-24 2011-05-03 Dell Products L.P. Methods and apparatus for reducing storage size
US20080055259A1 (en) * 2006-08-31 2008-03-06 Honeywell International, Inc. Method for dynamically adapting button size on touch screens to compensate for hand tremor
US20080104547A1 (en) 2006-10-25 2008-05-01 General Electric Company Gesture-based communications
US8356254B2 (en) 2006-10-25 2013-01-15 International Business Machines Corporation System and method for interacting with a display
US8354997B2 (en) * 2006-10-31 2013-01-15 Navisense Touchless user interface for a mobile device
US8756516B2 (en) 2006-10-31 2014-06-17 Scenera Technologies, Llc Methods, systems, and computer program products for interacting simultaneously with multiple application programs
US7885480B2 (en) 2006-10-31 2011-02-08 Mitutoyo Corporation Correlation peak finding method for image correlation displacement sensing
US8075499B2 (en) 2007-05-18 2011-12-13 Vaidhi Nathan Abnormal motion detector and monitor
US7916944B2 (en) 2007-01-31 2011-03-29 Fuji Xerox Co., Ltd. System and method for feature level foreground segmentation
WO2008134745A1 (en) 2007-04-30 2008-11-06 Gesturetek, Inc. Mobile video-based therapy
US20080284726A1 (en) * 2007-05-17 2008-11-20 Marc Boillot System and Method for Sensory Based Media Control
US8219936B2 (en) * 2007-08-30 2012-07-10 Lg Electronics Inc. User interface for a mobile device using a user's gesture in the proximity of an electronic device
KR20100055516A (ko) 2007-08-30 2010-05-26 넥스트 홀딩스 인코포레이티드 개선된 조광을 가진 광학 터치 스크린
US8041116B2 (en) 2007-09-27 2011-10-18 Behavioral Recognition Systems, Inc. Identifying stale background pixels in a video analysis system
US8005263B2 (en) 2007-10-26 2011-08-23 Honda Motor Co., Ltd. Hand sign recognition using label assignment
JP2009116769A (ja) * 2007-11-09 2009-05-28 Sony Corp 入力装置、入力装置の制御方法、及びプログラム
WO2009069392A1 (ja) * 2007-11-28 2009-06-04 Nec Corporation 入力装置、サーバ、表示管理方法および記録媒体
US9451142B2 (en) 2007-11-30 2016-09-20 Cognex Corporation Vision sensors, systems, and methods
KR101352994B1 (ko) * 2007-12-10 2014-01-21 삼성전자 주식회사 적응형 온 스크린 키보드 제공 장치 및 그 제공 방법
EP2085865A1 (en) * 2008-01-30 2009-08-05 Research In Motion Limited Electronic device and method of controlling the same
CN101533320B (zh) * 2008-03-10 2012-04-25 神基科技股份有限公司 触控显示装置区域影像的近接放大显示方法及其装置
US8107726B2 (en) 2008-06-18 2012-01-31 Samsung Electronics Co., Ltd. System and method for class-specific object segmentation of image data
US8443302B2 (en) * 2008-07-01 2013-05-14 Honeywell International Inc. Systems and methods of touchless interaction
US9189886B2 (en) 2008-08-15 2015-11-17 Brown University Method and apparatus for estimating body shape
JP5599400B2 (ja) 2008-09-04 2014-10-01 エクストリーム リアリティー エルティーディー. 画像センサベースのヒューマンマシンインタフェースを提供する方法システムおよびソフトウェア
WO2010046901A2 (en) 2008-10-24 2010-04-29 Extreme Reality Ltd. A method system and associated modules and software components for providing image sensor based human machine interfacing
US8289440B2 (en) 2008-12-08 2012-10-16 Lytro, Inc. Light field data acquisition devices, and methods of using and manufacturing same
WO2010096279A2 (en) 2009-02-17 2010-08-26 Omek Interactive , Ltd. Method and system for gesture recognition
US8352884B2 (en) * 2009-05-21 2013-01-08 Sony Computer Entertainment Inc. Dynamic reconfiguration of GUI display decomposition based on predictive model
US8320619B2 (en) 2009-05-29 2012-11-27 Microsoft Corporation Systems and methods for tracking a model
US8466934B2 (en) 2009-06-29 2013-06-18 Min Liang Tan Touchscreen interface
KR20110020082A (ko) * 2009-08-21 2011-03-02 엘지전자 주식회사 이동 단말기의 제어 장치 및 그 방법
US8270733B2 (en) 2009-08-31 2012-09-18 Behavioral Recognition Systems, Inc. Identifying anomalous object types during classification
US8878779B2 (en) 2009-09-21 2014-11-04 Extreme Reality Ltd. Methods circuits device systems and associated computer executable code for facilitating interfacing with a computing platform display screen
US9218126B2 (en) 2009-09-21 2015-12-22 Extreme Reality Ltd. Methods circuits apparatus and systems for human machine interfacing with an electronic appliance
US8659592B2 (en) 2009-09-24 2014-02-25 Shenzhen Tcl New Technology Ltd 2D to 3D video conversion
US20110292036A1 (en) 2010-05-31 2011-12-01 Primesense Ltd. Depth sensor with application interface
CA2806520C (en) 2011-01-23 2016-02-16 Extreme Reality Ltd. Methods, systems, devices and associated processing logic for generating stereoscopic images and video
WO2013069023A2 (en) 2011-11-13 2013-05-16 Extreme Reality Ltd. Methods systems apparatuses circuits and associated computer executable code for video based subject characterization, categorization, identification and/or presence response

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080007533A1 (en) 2006-07-06 2008-01-10 Apple Computer, Inc., A California Corporation Capacitance sensing electrode with integrated I/O mechanism
US20080111710A1 (en) 2006-11-09 2008-05-15 Marc Boillot Method and Device to Control Touchless Recognition

Also Published As

Publication number Publication date
WO2011033519A1 (en) 2011-03-24
EP2480951A1 (en) 2012-08-01
EP2480951A4 (en) 2014-04-30
KR20120093224A (ko) 2012-08-22
IL218765A0 (en) 2012-06-28
CA2774867A1 (en) 2011-03-24
US9218126B2 (en) 2015-12-22
US20120176414A1 (en) 2012-07-12
JP2013505493A (ja) 2013-02-14

Similar Documents

Publication Publication Date Title
KR101577106B1 (ko) 인간 기계가 가전 기기와 인터페이싱하기 위한 방법, 회로, 장치 및 시스템
US8878779B2 (en) Methods circuits device systems and associated computer executable code for facilitating interfacing with a computing platform display screen
US9304949B2 (en) Sensing user input at display area edge
US20090213081A1 (en) Portable Electronic Device Touchpad Input Controller
US20140062875A1 (en) Mobile device with an inertial measurement unit to adjust state of graphical user interface or a natural language processing unit, and including a hover sensing function
US20090289902A1 (en) Proximity sensor device and method with subregion based swipethrough data entry
US20110285653A1 (en) Information Processing Apparatus and Input Method
US20160147310A1 (en) Gesture Multi-Function on a Physical Keyboard
US20090288889A1 (en) Proximity sensor device and method with swipethrough data entry
US20120075202A1 (en) Extending the touchable area of a touch screen beyond the borders of the screen
US20110285625A1 (en) Information processing apparatus and input method
US8947378B2 (en) Portable electronic apparatus and touch sensing method
CN107340906A (zh) 触摸输入装置的显示方法
KR101438231B1 (ko) 하이브리드 터치스크린을 구비한 단말 장치 및 그 제어방법
EP3857343A1 (en) Multi-modal touchpad
US10042440B2 (en) Apparatus, system, and method for touch input
TWI478017B (zh) 觸控裝置及其觸控方法
TWI405105B (zh) Signal handling method of compound touch panel
JP2011204092A (ja) 入力装置
KR20150122021A (ko) 디스플레이 대상의 이동 방향 조절 방법 및 단말기
US20130271415A1 (en) Mechanism for employing and facilitating a touch panel thumb sensor pad at a computing device
WO2021091567A1 (en) Keyboards with haptic outputs
CN104656964B (zh) 输入模式切换方法及***
US8860692B2 (en) Touch pad and method for detecting multi-touch using the same
US20130249813A1 (en) Apparatus, system, and method for touch input

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20181128

Year of fee payment: 4