KR20100106432A - 사용자 인터페이스를 제공하는 방법 - Google Patents

사용자 인터페이스를 제공하는 방법 Download PDF

Info

Publication number
KR20100106432A
KR20100106432A KR1020107014254A KR20107014254A KR20100106432A KR 20100106432 A KR20100106432 A KR 20100106432A KR 1020107014254 A KR1020107014254 A KR 1020107014254A KR 20107014254 A KR20107014254 A KR 20107014254A KR 20100106432 A KR20100106432 A KR 20100106432A
Authority
KR
South Korea
Prior art keywords
user
user interface
rate
body part
displacement
Prior art date
Application number
KR1020107014254A
Other languages
English (en)
Other versions
KR101537524B1 (ko
Inventor
루카스 제이. 에프. 게르츠
가빈 엠. 프록터
스투어트 알. 필
안구스 디. 딕
다니엘 케이. 페주티
플로리스 엠. 에이치. 크롬프보에츠
Original Assignee
코닌클리케 필립스 일렉트로닉스 엔.브이.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 코닌클리케 필립스 일렉트로닉스 엔.브이. filed Critical 코닌클리케 필립스 일렉트로닉스 엔.브이.
Publication of KR20100106432A publication Critical patent/KR20100106432A/ko
Application granted granted Critical
Publication of KR101537524B1 publication Critical patent/KR101537524B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

시스템(1; 27)을 제어하는 사용자 인터페이스를 제공하는 방법은 디바이스(6, 14 내지 17; 30)의 특정 환경에서 사용자의 신체 또는 신체 부분의 존재를 관측하는 단계를 포함한다. 적어도 상기 사용자 인터페이스의 지각 가능한 부분(28, 34)이 상기 특정 환경에서 관측된 상기 사용자의 신체 또는 신체 부분의 변위 레이트에 따라 상기 사용자 인터페이스에 의해 제어되는 시스템(1; 27)과 상호작용하기 위해 특정 기능과 관련하여 상기 사용자에게 이용 가능하게 된다.

Description

사용자 인터페이스를 제공하는 방법{METHOD OF PROVIDING A USER INTERFACE}
본 발명은 시스템(system)을 제어하는 사용자 인터페이스(user interface)를 제공하는 방법에 관한 것이다.
본 발명은 또한 시스템을 제어하는 사용자 인터페이스를 제공하는 시스템에 관한 것이다.
본 발명은 또한 컴퓨터 프로그램(computer programme)에 관한 것이다.
Vogel, D, Balakrishnan, R.의 "Interactive public ambient displays: transitioning from implicit to explicit, public to personal, interaction with multiple users" Proc. 17th annual ACM symposium on user interface software and technology, 2004, pp. 137-146은 공공 및 개인 정보와의 암시적인 상호작용(implicit interaction)으로부터 명시적인 상호작용(explicit interaction)으로의 전이(transition)를 지원하는 공유 가능한 대화식 공공 앰비언트 디스플레이들(public ambient displays)에 대한 상호작용 프레임워크(interaction framework)를 개시한다. 디스플레이 및 상호작용 기술들은 신체 방향 및 디스플레이로의 사용자 근접성과 같은 암시적인 컨텍스츄얼 큐(implicit contextual cue)들, 및 손 제스처(hand gesture)들 및 터치 스크린 입력(touch screen input)과 같은 명시적인 동작들을 이용한다. 사용자가 디스플레이에 접근하고 잠시 동안의 멈춤과 같은 암시적인 큐를 제공할 때, 시스템은 미묘한 상호작용 페이스(interaction phase)를 입력해야 한다. 이용 가능한 공공 정보의 현재 상태 및/또는 통지들의 더 상세한 디스크립션(description)들이 디스플레이된다.
공지된 방법의 문제점은 사용자에게 제공되는 제어들이 본질적으로 거리에 따라 이진 방식으로 제공된다는 점에서, 사용자에게 제공되는 제어들이 상대적으로 비반응적이라는 것이다. 큐들의 검출은 단지 사용자의 디스플레이까지의 거리에 따라 선택되는 상이한 기능들을 제공하는 상태들 사이를 전이하도록 하는 역할을 한다.
본 발명의 목적은 사용자 인터페이스의 상이한 버전(version)들이 사용자의 동작들에 상대적으로 반응적인 방식으로 이용 가능해지도록 하는 방법, 시스템, 소비자 전자 시스템 및 컴퓨터 프로그램을 제공하는 것이다.
이 목적은 디바이스의 특정 환경에서 사용자의 신체 또는 신체 부분의 존재를 관측하는 단계 및 상기 특정 환경에서 관측된 상기 사용자의 신체 또는 신체 부분의 변위 레이트(rate of displacement)에 따라 적어도 상기 사용자 인터페이스의 지각 가능한 부분이 사용자 인터페이스에 의해 제어되는 시스템과 상호작용하기 위해 특정 기능과 관련하여 상기 사용자에게 이용 가능하도록 하는 단계를 포함하는 본 발명에 따른 방법에 의해 성취된다.
상기 특정 환경에서 관측된 상기 사용자의 신체 또는 신체 부분의 변위 레이트에 따라 적어도 상기 사용자 인터페이스의 지각 가능한 부분이 사용자 인터페이스에 의해 제어되는 시스템과 상호작용하기 위해 특정 기능과 관련하여 상기 사용자에게 이용 가능하도록 함으로써, 상기 변위 레이트가 입력 파라미터(input parameter)가 되거나, 연속적으로 또는 준-연속적으로 변화하는 종류의 입력 파라미터와 같이 되어서, 사용자에 의해 발생될 수 있는 사용자 인터페이스 구성들의 범위가 증가하게 된다. 적절한 구성만이 시스템을 제어할 시에 나중에 사용하는데 이용 가능해지기 때문에, 적어도 상기 사용자 인터페이스의 지각 가능한 부분이 더 간단해질 수 있다. 더구나, 사용자 인터페이스의 적절한 구성만이 이용 가능하도록 하는 것은 적어도 더 큰 효율에 대한 가능성을 생성한다. 변위 레이트는 반드시 계산될 필요는 없다. 사용자 인터페이스가 하나의 존(zone)으로부터 다음 존으로 변화하는 적어도 3개의 존들을 사용함으로써, 유사한 효과가 성취될 수 있다. 상기 신체 부분은 예를 들어, 사람의 손일 수 있다.
상기 방법의 실시예는 상기 특정 환경에서 관측되는 상기 사용자의 신체 또는 신체 부분의 변위 레이트의 변화에 반응하여 적어도 상기 사용자 인터페이스의 요소의 가용성 상태(state of availability)를 변화시키는 단계를 포함한다.
효과는 사용자 인터페이스가 덜 어수선하게 보이도록 하거나 또는 적어도 사용자의 부분 상에서의 혼돈의 가능성을 감소시키는 것이다. 사용자 인터페이스는 (사용자 인터페이스의 많은 요소들이 이용 가능할 때) 더 큰 인식 요구들이 사용자에 행해지는 상태로부터 (요소들이 제공되지 않을 때) 더 낮은 요구들이 행해지는 상태로 변화한다.
실시예에서, 적어도 상기 사용자 인터페이스의 지각 가능한 부분이 상기 사용자의 신체 또는 신체 부분이 상기 특정 환경에서 존재하는 것으로 관측되는 위치 및 상기 사용자의 신체 또는 신체 부분의 변위 레이트에 따른 방식으로 사용자에게 이용 가능하게 된다.
효과는 사용자가 상기 사용자 인터페이스의 구성을 통하여 행사할 수 있는 제어의 범위를 확장시키는 것이다. 이는 2개의 입력 변수들이 상기 구성을 조정하기 위한 입력의 역할을 하기 때문이다.
상기 방법의 실시예는 상기 특정 환경에서 관측되는 상기 사용자의 신체 또는 신체 부분의 변위 레이트에 따른 레이트에서 상기 사용자 인터페이스의 구성 중 적어도 일부를 조정하는 단계를 포함한다.
효과는 (사용자의 신체 부분의 위치의) 하나의 변화 레이트가 (사용자 인터페이스의 구성의) 또 다른 변화 레이트에 링크(link)되기 때문에, 사용자 인터페이스가 더 직관적이도록 한다는 것이다.
실시예에서, 사용자 인터페이스가 가시 출력(visible output)을 제공하는 디바이스를 포함하며, 상기 방법이 상기 가시 출력을 구성하기 위한 신호를 상기 디바이스에 제공하는 단계를 포함한다.
효과는 디스플레이 디바이스를 사용하여 제공된 인터페이스의 외관(appearance)을 변화시키는 것이 상대적으로 간단하기 때문에, 사용자 인터페이스가 구현하기가 용이해진다는 것이다.
변형은 가시 출력을 제공하는 디바이스의 부분에서의 존재 및 상기 부분으로의 접근 중 적어도 하나를 검출하는 단계를 포함하며, 상기 부분이 상기 가시 출력의 요소에 대응한다.
따라서, 한 세트의 터치-감지 제어들(touch-sensitive controls)의 구성이 적어도 부분적으로 사용자가 관측 시스템에 포함된 디바이스에 얼마나 빨리 접근하는지에 따라 상대적으로 용이하게 변화된다.
실시예는 상기 신체 또는 신체 부분의 변위 레이트에 의해 결정되는 레이트에서 적어도 특정 기능과 관련되는 적어도 가시 출력의 요소의 가시도 상태(state of visibility)를 조정하는 단계를 포함한다.
효과는 전체 가시도로의 전이가 점진적이기 때문에 사용자가 의도되지 않은 결과들을 갖는 동작들을 행하지 않도록 한다는 것이다. 변위 레이트에 의해 결정되는 레이트에서 변화하는 가시도 상태 형태의 피드백(feedback)의 제공은 사용자 인터페이스가 충분히 반응적인 방식으로 변화하는 것을 보장한다. 상기 변위 레이트는 특정 환경에서의 하나의 이산 존(discrete zone)으로부터 다음 존으로의 전이들 사이의 시간에 의하여 결정되는 레이트일 수 있다.
실시예는 상기 특정 환경에서 관측되는 신체 또는 신체 부분의 변위 레이트에 따라 상기 사용자 인터페이스에 의해 제어되는 시스템의 각각의 상이한 동작들과 관련된 복수의 제어들 중 하나를 제공하는 단계를 포함한다.
효과는 관련된 제어들만이 이용 가능해지기 때문에 사용자 인터페이스를 간소화시킨다는 것이며, 관련성(relevance)이 움직이는 신체 또는 신체 부분의 변위를 관측함으로써 평가된다.
실시예에서, 상기 사용자 인터페이스가 소비자 전자 시스템의 사용자 인터페이스를 제어하기 위하여 제공된다.
상기 소비자 전자 시스템은 상대적으로 넓은 범위의 입력 정보에 반응하는 재구성 가능한 사용자 인터페이스를 갖는다.
또 다른 양태에 따르면, 본 발명에 따른 사용자 인터페이스를 제공하는 시스템은:
디바이스의 특정 환경에서 사용자의 신체 또는 신체 부분의 존재를 관측하는 관측 콤포넌트로부터의 적어도 하나의 신호를 처리하는 신호 처리 컴포넌트(signal processing component), 및
상기 특정 환경에서 관측되는 상기 사용자의 신체 또는 신체 부분의 변위 레이트에 따라 적어도 상기 사용자 인터페이스의 지각 가능한 부분이 상기 사용자 인터페이스에 의해 제어되는 시스템과 상호작용하기 위해 특정 기능과 관련하여 상기 사용자에게 이용 가능하도록 하는 제어 컴포넌트를 포함한다.
상기 시스템은 더 넓은 범위의 입력을 처리할 수 있기 때문에, 이진 시스템보다 더 반응적일 수 있다.
실시예에서, 상기 시스템이 본 발명에 따른 방법을 실행하도록 구성된다.
본 발명의 또 다른 양태에 따르면, 기계-판독 가능한 매체 내에 통합될 때, 정보 처리 능력들을 갖는 시스템이 본 발명에 따른 방법을 수행하도록 할 수 있는 한 세트의 명령들을 포함하는 컴퓨터 프로그램이 제공된다.
본 발명에 의하면, 사용자 인터페이스의 상이한 버전(version)들이 사용자의 동작들에 상대적으로 반응적인 방식으로 이용 가능해지도록 하는 방법, 시스템, 소비자 전자 시스템 및 컴퓨터 프로그램이 제공된다.
도 1은 가정용 엔터테인먼트 시스템(home entertainment system)의 매우 개략적인 블록도.
도 2는 가정용 엔터테인먼트 시스템의 사용자 인터페이스의 기능들을 도시한 상태도.
도 3은 커피 머신(coffee machine)을 제어하는 사용자 인터페이스가 제공된 커피 머신의 부분들의 간단한 도면.
본 발명은 이제 첨부 도면들을 참조하여 더 상세히 설명될 것이다.
도 1에 도시된 바와 같이, 가정용 엔터테인먼트 시스템(1)은 미디어 플레이어(media player)(2) 및 텔레비전 세트(television set)(3)를 포함한다. 상기 시스템은 휴대용 미디어 플레이어(5)를 위한 도킹 스테이션(docking station)(4)을 추가로 포함한다.
가정용 엔터테인먼트 시스템(1)은 적어도 부분적으로 허브(6)에 의해 제어된다. 허브(6)는 사용자 인터페이스가 제공될 수 있도록 하는 소프트웨어(software)를 실행하는 데이터 처리 유닛(7) 및 주 메모리(8)를 포함한다. 소프트웨어는 사용자 인터페이스의 여러 구성들을 정의하는 데이터와 함께, 데이터 저장 디바이스(9) 상에 저장된다. 사용자 인터페이스는 사용자가 시스템을 조작하도록 하는 입력 수단들 및 시스템이 사용자의 조작들의 효과들을 나타내는 정보를 나타내도록 하는 출력 수단들을 포함하는, 홈 엔터테인먼트 시스템(1)과 사람이 상호작용할 수 있는 수단들의 어셈블리(assembly)를 포함한다.
도시된 실시예에서, 출력 수단들은 가청 출력을 제공하는 스피커(speaker)(10) 및 가시 출력을 제공하는 디스플레이 디바이스(11)를 포함한다. 디스플레이 디바이스(11)는 아마도 어떤 다른 물체를 잡은 신체 부분(또는 전체 신체)가 매우 근접하거나 터칭 관계(touching relationship)로 유지되는 디스플레이 디바이스 상의 위치를 결정하는 디바이스(13)를 추가로 포함하는 터치 스크린 디바이스(touch screen device)(12)에 포함된다.
허브(6)는 적외선 트랜스듀서(infrared transducer)(14), 초음파 트랜스듀서(ultrasound transducer)(15) 및 카메라(16)에 동작적으로 접속된다. 적외선 트랜스듀서(14)는 초음파 트랜스듀서(15)보다 더 큰 거리들에서 물체들을 검출할 수 있고, 상기 초음파 트랜스듀서는 이어서 카메라(16)보다 더 큰 범위에 걸쳐 동작한다. 도 1에 도시된 것 이외의 실시예들은 사용자의 신체 부분의 존재에 대해 허브(6)의 환경의 적어도 일부를 관측하기 위해 이러한 디바이스들 모두보다 더 적은 디바이스를 사용할 수 있다. 또 다른 실시예에서, 사용자의 신체 부분의 존재는 사용자가 잡거나 경고한 태그(tag)의 존재를 결정함으로써 간접적으로만 관측된다. 실제로, 도시된 실시예에서, 도킹 스테이션(4)은 또한 휴대용 미디어 플레이어(5)의 자신(4)으로의 접근을 관측하여, 휴대용 미디어 플레이어를 잡은 손의 접근을 간접적으로 관측하는 거리 센서(distance sensor)(17)를 포함한다.
허브(6)는 적외선 트랜스듀서(14), 초음파 트랜스듀서(15), 카메라(16) 및 거리 센서(17)에 의해 제공되는 신호들 중 적어도 하나를 처리하고, 사용자 인터페이스의 적어도 하나의 요소가 허브(6)의 특정 환경에서 관측되는 움직이는 신체 부분의 변위 레이트에 따르는 방식으로 사용자에게 이용 가능해지도록 한다. 더 구체적으로는, 사용자 인터페이스의 어떤 요소들에 어느 정도까지, 그리고 어떤 모드에서 관여하는지, 이들이 출력 수단들인지 또는 사용자 제어들인지 중 적어도 하나를 결정하는데 있어서 접근 속도가 변수로서 사용된다.
눈에 매력적이고, 사용자를 혼란시킬 확률이 낮고, 그래픽 사용자 인터페이스가 어수선하게 보이도록 하는 모호한 인터페이스(obfuscating interface)들을 갖지 않는 그래픽 사용자 인터페이스(graphical user interface)를 제공하기 위하여, 허브(6)는 통상적으로 디스플레이 디바이스(11)에 대한 모든 가시 출력을 사용자에게 숨긴다. 적외선 트랜스듀서(14), 초음파 트랜스듀서(15) 및 카메라(16)가 허브(6)의 소정의 주변 내에서의 사용자의 신체 또는 신체 부분의 존재, 거리(상태 18) 및 이동 거리(상태 19)를 검출하기 위하여 연속적으로 사용된다. 하나 이상의 이러한 디바이스들로부터의 신호들을 기초하여, 움직이는 신체 부분의 접근 속도가 결정된다(상태 20).
예에서, 인터페이스는 일단 사용자의 신체 부분이 허브(6)의 특정 범위(r2) 내에서 검출되면, 활성이 된다.
도 2에 도시된 바와 같이, 신체 부분이 범위 내에 있고 소정의 임계값(v1)보다 더 큰 속도(변위 레이트)로 접근한다고 결정할 시에 오디오 출력의 가용성 상태가 변화된다(상태 21). 도시된 실시예에서, 스피커(10)가 스위치 오프(switch off)된다.
그렇지 않은 경우에, 적어도 접근 속도(즉, 변위 레이트)에 따라 디스플레이 디바이스(11) 상에 가시 출력을 구성하기 위하여 신호가 터치 스크린 디바이스(12)에 제공된다. 도 2에 도시된 바와 같이, 디스플레이 디바이스(11)의 스크린의 부분은 가시 출력의 특정 요소에 대응하고, 손가락 또는 스타일러스(stylus)의 스크린의 상기 부분에서의 존재 및 상기 부분으로의 접근이 검출 가능하여, 사용자 제어가 제공된다. 도시된 실시예에서, 미디어 플레이어(2)의 상이한 동작들과 각각 관련되는 2개의 제어들(C1, C2) 중 하나가 제공된다. 어느 것이 제공되는지는 사용자가 잡은 도구 또는 사용자의 팔다리(limb)의 접근 속도에 따른다. 접근 속도가 제 2 임계값(v2)보다 더 큰 경우에, 2개의 제어들 중 제 2 제어가 터치 스크린 디바이스(12) 상에 표시된다(상태 22). 그렇지 않은 경우에, 제 1 제어(C1)가 표시된다(상태 23).
제 1 제어는 허브(6)로의 접근 속도에 따라 시변 방식(time-varying manner)으로 표시된다. 허브(6)는 디스플레이 디바이스(11)에 적절한 신호들을 제공함으로써, 제 1 제어가 접근 속도에 따라 페이드 인(fade in)되는(상태 25) 속도를 변화시킨다(상태 24). 따라서, 사용자 인터페이스의 그래픽 부분의 구성이 관측되는 변위 레이트에 따르는 레이트에서 조정된다.
변형에서, 휴대용 미디어 플레이어(5)가 도킹 스테이션(4) 내에 배치될 때 피드백을 제공하기 위하여 유사한 원리들이 적용된다. 도킹 스테이션(4)은 조명 효과들을 제공하는 조명 디바이스(26)를 포함한다. 휴대용 미디어 플레이어(5)가 도킹 스테이션(4)에 접근하는 레이트에 따라, 광 출력이 증가된다. 접근 속도가 특정 임계값을 초과하는 경우에, 상이한 조명 효과가 선택되는데, 예를 들어, 조명 디바이스(26)가 섬광 효과(flashing light effect)를 제공한다.
부가적인 변형에서, 접근 속도가 직접적으로 계산되는 것이 아니라, 적어도 사용자 인터페이스의 지각 가능한 부분이 사용자 인터페이스에 의해 제어되는 시스템과 상호작용하기 위해 특정 기능과 관련하여 상기 사용자에게 이용 가능하도록 하는 것이 간접적으로 특정 환경에서 관측되는 사용자의 신체 또는 신체 부분의 변위 레이트에 따르며, 변위는 스테이지(stage)들/존들에서 결정된다. 특히, 조명 장치(26)에 의해 제공되는 조명 효과의 가시도 상태가 휴대용 미디어 플레이어(2)가 복수의 거리 임계값들 각각을 교차하는 레이트에서 조정된다. 이것은 거리 센서(17)가 거리 임계값들의 교차를 감지하고 조명 디바이스(26)가 실시간 또는 준 실시간으로 조정할 때 고유하게 발생한다.
사용자 인터페이스가 제공되는 디바이스의 더 간단한 예를 참조하면, 도 3은 커피 메이커(coffee maker)(27)를 도시한다. 기계적 스위치(28)는 커피 메이커(27)를 제어하는 사용자 인터페이스의 지각 가능한 부분을 구성한다. 제어기(29)는 스위치 및 사용자의 손이 스위치(28)에 접근하는 레이트를 결정하는 센서(30)로부터 신호들을 수신한다. 접근 레이트가 특정 임계 레벨보다 더 높은 경우에, 제어기(29)는 온수 도관(hot water conduit)(도시되지 않음) 내의 밸브(valve)(31)를 조절한다. 접근 레이트가 특정 임계 레벨보다 더 낮은 경우에, 제어기(29)는 가열 디바이스(33)용 조절기(32)를 활성화 또는 활성화해제하는 신호를 제공한다. 따라서, 스위치(28)를 누르기 위한 빠른 동작은 스위치(28)가 자신의 인게이지먼트(engagement)가 제 1 동작(커피를 따르는 것의 중단)을 발생시키는 방식으로 제공되어야 하는 큐의 역할을 한다. 느린 동작은 스위치에 부착된 기능이 커피 메이커(27)를 스위치 온 또는 오프하도록 하기 위하여 변화되어야 하는 큐의 역할을 한다. 사용자 인터페이스를 사용하기 더 용이하게 하기 위하여, 스위치(28)의 현재 기능이 스위치 상의 OLED 디스플레이 디바이스(34)에 의해 표시된다.
위에 상세히 설명된 실시예들에서, 제어될 시스템의 기능에 대한 지각 가능한 피드백을 제공하는 사용자 인터페이스의 요소들 또는 사용자가 시스템을 제어하기 위하여 입력을 제공하도록 하는 요소들, 또는 이들 둘 모두는 사용자의 신체 또는 신체 부분이 접근하는 것으로 관측되는 속도에 따른 방식으로 제공된다. 더 넓은 범위의 사용자 인터페이스 구성들이 실제로 사용자에 의해 지각될 때 사용자 인터페이스의 명확성을 감소시킴이 없이 제공될 수 있다.
모든 변형들에서, 적어도 사용자 인터페이스의 지각 가능한 부분이 사용자 인터페이스에 의해 제어되는 시스템과 인터페이싱하기 위해 특정 기능과 관련하여 사용자에게 이용 가능하도록 하는 프로세스는 특정 환경에서 관측되는 사용자의 신체 또는 신체 부분의 변위 레이트에 따라 적응된다. 상기 적응은 상이한 기능이 사용자 인터페이스의 특정 지각 가능한 부분과 관련하여 이용 가능하도록 하는 것, 사용자 인터페이스의 지각 가능한 부분들의 상이한 조합이 특정 기능과 관련하여 이용 가능하도록 하는 것 또는 사용자 인터페이스의 지각 가능한 부분 및 특정 기능의 고정된 조합이 이용 가능하게 되는 방식을 적응시키는 것, 예를 들어, 사용자 인터페이스의 시각적으로 지각 가능한 부분을 페이드 인하는 것을 포함할 수 있다.
상술된 실시예들이 본 발명을 제한하기보다는 오히려 설명한다는 점, 및 당업자들이 첨부된 청구항들의 범위로부터 벗어남이 없이 많은 대안적인 실시예들을 설계할 수 있을 것이라는 점이 주의되어야 한다. 청구항들에서, 괄호들 사이에 배치된 임의의 참조 부호들은 청구항을 제한하는 것으로 해석되어서는 안될 것이다. 동사 "포함한다" 및 이의 활용형들의 사용이 청구항에서 진술된 요소들 또는 단계들 이외의 요소들 또는 단계들의 존재를 배제하지 않는다. 요소 앞의 단수 관사는 복수의 이와 같은 요소들의 존재를 배제하지 않는다. 본 발명은 여러 상이한 요소들을 포함하는 하드웨어, 및 적절하게 프로그래밍된 컴퓨터에 의해 구현될 수 있다. 여러 수단을 열거한 디바이스 청구항에서, 이러한 수단들 중 여러 개가 하드웨어의 하나이고 동일한 아이템에 의해 구현될 수 있다. 어떤 수단들이 서로 상이한 종속 청구항들에서 재인용된다는 단순한 사실이 이러한 수단들의 조합이 유용하게 사용될 수 없다는 것을 나타내지는 않는다.
또 다른 실시예에서, 터치 스크린 디바이스(12)를 사용하는 대신에, 디바이스의 표면에는 그래픽들을 디스플레이하기 위하여 전자 잉크(electronic ink) 또는 전기습윤 디스플레이 기술(electrowetting display technique)에 기초하는 디스플레이 디바이스가 제공될 수 있다. 적외선 트랜스듀서(14), 초음파 트랜스듀서(15) 또는 카메라(16)를 사용하는 대신에, RFID 또는 다른 무선 송신 기술을 사용하여 근접 감지(proximity sensing)가 수행될 수 있다.
'수단들'은 당업자에게 명백한 바와 같이, 동작 시에 수행되거나 지정된 기능을 수행하도록 설계되는(별도의 또는 통합된 회로들 또는 전자 요소들과 같은) 임의의 하드웨어 또는 (프로그램들 또는 프로그램들의 부분들과 같은) 소프트웨어를 포함하고, 단독이거나 다른 기능들과 함께이고, 분리되거나 다른 요소들과 협동하도록 설계된다. '컴퓨터 프로그램'은 인터넷과 같은 네트워크를 통해 다운로드 가능하거나 임의의 다른 방식으로 구매 가능한 광 디스크와 같은 컴퓨터 판독 가능한 매체 상에 저장되는 임의의 소프트웨어 제품을 의미한다는 것이 이해될 것이다.
1: 가정용 엔터테인먼트 시스템 2 : 미디어 플레이어
3 : 텔레비전 세트 4 : 도킹 스테이션
5 : 휴대용 미디어 플레이어 6 : 허브
7 : 데이터 처리 유닛 8 : 주 메모리
9 : 데이터 저장 디바이스 10 : 스피커
11 : 디스플레이 디바이스 12 : 터치 스크린 디바이스

Claims (11)

  1. 시스템(1; 27)을 제어하는 사용자 인터페이스를 제공하는 방법에 있어서:
    디바이스(6, 14 내지 17; 30)의 특정 환경에서 사용자의 신체 또는 신체 부분의 존재를 관측하는 단계; 및
    상기 특정 환경에서 관측된 상기 사용자의 신체 또는 신체 부분의 변위 레이트에 따라 적어도 상기 사용자 인터페이스의 지각 가능한 부분(28, 34)이 상기 사용자 인터페이스에 의해 제어되는 시스템(1; 27)과 상호작용하기 위해 특정 기능과 관련하여 상기 사용자에게 이용 가능하게 하는 단계를 포함하는, 사용자 인터페이스 제공 방법.
  2. 제 1 항에 있어서,
    상기 특정 환경에서 관측되는 상기 사용자의 신체 또는 신체 부분의 변위 레이트의 변화에 응하여 적어도 상기 사용자 인터페이스의 요소의 가용성 상태를 변화시키는 단계를 포함하는, 사용자 인터페이스 제공 방법.
  3. 제 1 항에 있어서,
    적어도 상기 사용자 인터페이스의 지각 가능한 부분(28, 34)이 상기 사용자의 신체 또는 신체 부분이 상기 특정 환경에서 존재하는 것으로 관측되는 위치 및 상기 사용자의 신체 또는 신체 부분의 변위 레이트에 따른 방식으로 사용자에게 이용 가능하게 되는, 사용자 인터페이스 제공 방법.
  4. 제 1 항에 있어서,
    상기 특정 환경에서 관측되는 상기 사용자의 신체 또는 신체 부분의 변위 레이트에 따른 레이트에서 상기 사용자 인터페이스의 구성 중 적어도 일부를 조정하는 단계를 포함하는, 사용자 인터페이스 제공 방법.
  5. 제 1 항에 있어서,
    상기 사용자 인터페이스는 가시 출력을 제공하는 디바이스(11; 34)를 포함하며,
    상기 방법은 상기 가시 출력을 구성하기 위해 신호를 상기 디바이스(11; 34)에 제공하는 단계를 포함하는, 사용자 인터페이스 제공 방법.
  6. 제 5 항에 있어서,
    상기 가시 출력을 제공하는 상기 디바이스(11; 34)의 부분에서의 존재 및 상기 부분으로의 접근 중 적어도 하나를 검출하는 단계를 포함하며,
    상기 부분은 상기 가시 출력의 요소에 대응하는, 사용자 인터페이스 제공 방법.
  7. 제 5 항 또는 제 6 항에 있어서,
    상기 특정 환경에서 관측되는 상기 사용자의 신체 또는 신체 부분의 변위 레이트에 의해 결정되는 레이트에서 특정 기능과 관련되는 적어도 가시 출력의 요소의 가시도 상태를 조정하는 단계를 포함하는, 사용자 인터페이스 제공 방법.
  8. 제 1 항에 있어서,
    상기 특정 환경에서 관측되는 상기 사용자의 신체 또는 신체 부분의 변위 레이트에 따라 상기 사용자 인터페이스에 의해 제어되는 상기 시스템의 각각의 상이한 동작들과 관련된 복수의 제어들 중 하나를 제공하는 단계를 포함하는, 사용자 인터페이스 제공 방법.
  9. 제 1 항에 있어서,
    상기 사용자 인터페이스가 소비자 전자 시스템의 사용자 인터페이스를 제어하기 위하여 제공되는, 사용자 인터페이스 제공 방법.
  10. 디바이스(6, 14 내지 17; 30)의 특정 환경에서 사용자의 신체 또는 신체 부분의 존재를 관측하는 관측 콤포넌트로부터의 적어도 하나의 신호를 처리하는 신호 처리 컴포넌트(6 내지 8; 29), 및
    상기 특정 환경에서 관측되는 상기 사용자의 신체 또는 신체 부분의 변위 레이트에 따라 상기 사용자 인터페이스의 적어도 지각 가능한 부분(28, 34)이 상기 사용자 인터페이스에 의해 제어되는 시스템(1; 27)과 상호작용하기 위해 특정 기능과 관련하여 상기 사용자에게 이용 가능하도록 하는 제어 컴포넌트(6 내지 8; 29)를 포함하는, 시스템(1; 27).
  11. 기계-판독 가능한 매체 내에 통합될 때, 정보 처리 능력들을 갖는 시스템이 제 1 항 내지 9 항 중 어느 한 항에 따른 사용자 인터페이스 제공 방법을 수행하도록 할 수 있는 한 세트의 명령들을 포함하는, 컴퓨터 프로그램.
KR1020107014254A 2007-11-29 2008-11-21 사용자 인터페이스를 제공하는 방법 KR101537524B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP07121839.0 2007-11-29
EP07121839 2007-11-29

Publications (2)

Publication Number Publication Date
KR20100106432A true KR20100106432A (ko) 2010-10-01
KR101537524B1 KR101537524B1 (ko) 2015-07-21

Family

ID=40377126

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020107014254A KR101537524B1 (ko) 2007-11-29 2008-11-21 사용자 인터페이스를 제공하는 방법

Country Status (6)

Country Link
US (2) US8881064B2 (ko)
EP (1) EP2227729B1 (ko)
JP (1) JP5734661B2 (ko)
KR (1) KR101537524B1 (ko)
CN (1) CN101878463B (ko)
WO (1) WO2009069050A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023277311A1 (ko) * 2021-06-30 2023-01-05 삼성전자주식회사 지식 그래프를 이용하여 사용자의 상태 및 신체 부위의 사용량을 인식하기 위한 전자 장치 및 방법

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9223426B2 (en) 2010-10-01 2015-12-29 Z124 Repositioning windows in the pop-up window
US8686951B2 (en) 2009-03-18 2014-04-01 HJ Laboratories, LLC Providing an elevated and texturized display in an electronic device
US20110199342A1 (en) * 2010-02-16 2011-08-18 Harry Vartanian Apparatus and method for providing elevated, indented or texturized sensations to an object near a display device or input detection using ultrasound
EP2395413B1 (en) * 2010-06-09 2018-10-03 The Boeing Company Gesture-based human machine interface
US9372618B2 (en) 2010-10-01 2016-06-21 Z124 Gesture based application management
KR101646616B1 (ko) * 2010-11-30 2016-08-12 삼성전자주식회사 객체 제어 장치 및 방법

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2695745B1 (fr) 1992-09-15 1994-10-28 Sextant Avionique Procédé de dialogue gestuel multimode dans un environnement virtuel.
JPH06274270A (ja) 1993-03-10 1994-09-30 Roehm Properties Bv 仮想現実空間データ入力装置
JP3521456B2 (ja) 1993-11-25 2004-04-19 カシオ計算機株式会社 画像表示制御装置および画像表示制御方法
US5704836A (en) * 1995-03-23 1998-01-06 Perception Systems, Inc. Motion-based command generation technology
JP3795647B2 (ja) * 1997-10-29 2006-07-12 株式会社竹中工務店 ハンドポインティング装置
US8479122B2 (en) * 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US7358956B2 (en) 1998-09-14 2008-04-15 Microsoft Corporation Method for providing feedback responsive to sensing a physical presence proximate to a control of an electronic device
US6616284B2 (en) * 2000-03-06 2003-09-09 Si Diamond Technology, Inc. Displaying an image based on proximity of observer
US20020075334A1 (en) * 2000-10-06 2002-06-20 Yfantis Evangelos A. Hand gestures and hand motion for replacing computer mouse events
GB0118020D0 (en) * 2001-07-24 2001-09-19 Memco Ltd Door or access control system
US7047500B2 (en) * 2001-11-16 2006-05-16 Koninklijke Philips Electronics N.V. Dynamically configurable virtual window manager
GB2406634A (en) 2003-10-02 2005-04-06 Mathmos Ltd An object sensing lighting apparatus
WO2006103541A1 (en) * 2005-04-01 2006-10-05 Abb Research Ltd Method and system for providing a user interface
US7676767B2 (en) * 2005-06-15 2010-03-09 Microsoft Corporation Peel back user interface to show hidden functions
TWI412392B (zh) * 2005-08-12 2013-10-21 Koninkl Philips Electronics Nv 互動式娛樂系統及其操作方法
US7620316B2 (en) * 2005-11-28 2009-11-17 Navisense Method and device for touchless control of a camera
TWI348639B (en) * 2005-12-16 2011-09-11 Ind Tech Res Inst Motion recognition system and method for controlling electronic device
US7937667B2 (en) * 2006-09-27 2011-05-03 Donnelly Corporation Multimedia mirror assembly for vehicle
US8904312B2 (en) * 2006-11-09 2014-12-02 Navisense Method and device for touchless signing and recognition
US20080143559A1 (en) * 2006-12-18 2008-06-19 Dietz Paul H Appliance Control Panel
US20080256494A1 (en) * 2007-04-16 2008-10-16 Greenfield Mfg Co Inc Touchless hand gesture device controller
US8669938B2 (en) * 2007-11-20 2014-03-11 Naturalpoint, Inc. Approach for offset motion-based control of a computer

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023277311A1 (ko) * 2021-06-30 2023-01-05 삼성전자주식회사 지식 그래프를 이용하여 사용자의 상태 및 신체 부위의 사용량을 인식하기 위한 전자 장치 및 방법

Also Published As

Publication number Publication date
US8881064B2 (en) 2014-11-04
US20140310621A1 (en) 2014-10-16
CN101878463B (zh) 2013-07-31
EP2227729A1 (en) 2010-09-15
WO2009069050A1 (en) 2009-06-04
CN101878463A (zh) 2010-11-03
JP5734661B2 (ja) 2015-06-17
KR101537524B1 (ko) 2015-07-21
US20100257491A1 (en) 2010-10-07
EP2227729B1 (en) 2022-10-19
JP2011505624A (ja) 2011-02-24

Similar Documents

Publication Publication Date Title
US11604510B2 (en) Zonal gaze driven interaction
US20140310621A1 (en) Method of providing a user interface
US10928921B2 (en) Gesture based user interface
CN105393190B (zh) 经由位置信号选择用户界面元素
JP6145099B2 (ja) タッチ対応移動体デバイスにおけるゲーム・コントローラー
KR101984590B1 (ko) 디스플레이 디바이스 및 그 제어 방법
EP2406700B1 (en) System and method for providing features in a friction display
US8760432B2 (en) Finger pointing, gesture based human-machine interface for vehicles
EP3088997A1 (en) Delay warp gaze interaction
US9395816B2 (en) Display device for selectively outputting tactile feedback and visual feedback and method for controlling the same
US8754872B2 (en) Capacitive touch controls lockout
US20150049020A1 (en) Devices and methods for electronic pointing device acceleration
EP2930604B1 (en) Causing feedback to a user input
US20220091722A1 (en) Devices, methods, and graphical user interfaces for interacting with three-dimensional environments
CN115914701A (zh) 功能选择方法、装置、电子设备及存储介质
CA3212746A1 (en) A method for integrated gaze interaction with a virtual environment, a data processing system, and computer program

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
FPAY Annual fee payment

Payment date: 20180703

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20190710

Year of fee payment: 5