JP2017535002A - 多表面コントローラ - Google Patents

多表面コントローラ Download PDF

Info

Publication number
JP2017535002A
JP2017535002A JP2017530960A JP2017530960A JP2017535002A JP 2017535002 A JP2017535002 A JP 2017535002A JP 2017530960 A JP2017530960 A JP 2017530960A JP 2017530960 A JP2017530960 A JP 2017530960A JP 2017535002 A JP2017535002 A JP 2017535002A
Authority
JP
Japan
Prior art keywords
controller
button
buttons
thumb
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017530960A
Other languages
English (en)
Other versions
JP6408156B2 (ja
Inventor
インボ・リィ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Publication of JP2017535002A publication Critical patent/JP2017535002A/ja
Application granted granted Critical
Publication of JP6408156B2 publication Critical patent/JP6408156B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/24Constructional details thereof, e.g. game controllers with detachable joystick handles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03543Mice or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C23/00Non-electrical signal transmission systems, e.g. optical systems
    • G08C23/04Non-electrical signal transmission systems, e.g. optical systems using light waves, e.g. infrared
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/18Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for optical projection, e.g. combination of mirror and condenser and objective
    • G02B27/20Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for optical projection, e.g. combination of mirror and condenser and objective for imaging minute objects, e.g. light-pointer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/033Indexing scheme relating to G06F3/033
    • G06F2203/0333Ergonomic shaped mouse for one hand
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C2201/00Transmission systems of control signals via wireless link
    • G08C2201/30User interface
    • G08C2201/32Remote control based on movements, attitude of remote control device

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Optics & Photonics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Selective Calling Equipment (AREA)

Abstract

タッチセンサがボタンの上に取り付けられた複数のボタンを有するコントロールデバイスが提供される。ボタン及びタッチセンサは、指の運動及び/またはジェスチャの信号を検出し得る。検出された信号は、コントローラの様々な動作モードにおいて様々な動作を制御するために使用され得る。本コントロールデバイスは、複数のデバイスとインターフェースを取り得る。

Description

本明細書は、コントロールデバイスに関する。
背景技術の欄に記述される主題は、単に、背景技術の欄におけるその言及の結果として先行技術であると想定されるべきではない。同様に、背景技術の欄に言及されるまたは背景技術の欄の主題と関連付けられる問題は、以前より先行技術において認識されていたと想定されるべきではない。背景技術の欄における主題は、単に、異なるアプローチを表わし、それら自体もまた、発明であり得る。
パーソナルコンピュータまたはワークステーションは、電子マウスをコントロールデバイスとして使用し得る。異なる形状、サイズ、及び設計に関わらず、電子マウスの大部分は、人間の手によって保持されて平坦面上を動き、電子マウスの運動は、ユーザの手首及び/または腕の運動によって生み出される。電子マウスの下のゴム加工ボールまたはレーザのいずれかが、下にある表面上における変位を測定するために使用され、次いで、その変位が、コンピュータディスプレイ上のカーソルの運動に変換される。伝統的なマウスは、2つまたは3つのアクチュエータボタンを上面に含み得、それらのボタンは、コンピュータの動作を制御するために人差し指及び/または中指によってクリックされ得る。親指は、ほとんどの場合において、電子マウスを保持する及び動かす目的のためだけのものである。
伝統的なマウスを操作するためには平坦面が要求されることから、マウスのユーザは、体から離して腕及び手を机の表面上へと延ばす必要がある。通常、腕が休息し得る支持構造は存在せず、腕及び手は、コンピュータ動作の全期間にわたってまたは長期間に対して少なくとも時折、不自然な位置に維持される必要があり得る。平坦面上での電子マウスの長期間の使用は、多くのユーザに肩及び背痛を引き起こしている。医学会は、長年、電子マウスの長期間の使用と、腕への反復運動過多損傷、例えば、手根管症候群との間の直接的な関係を認識している。無線マウスは、電子マウスをコンピュータに接続するために使用される通信方法において有線マウス(シリアルまたはUSB)とは異なるが、無線マウスは、依然として、平坦面上で動作する必要があり、したがって、ユーザに同様の健康問題を引き起こす。
パーソナルコンピュータ及びワークステーションは、限定されるものではないが、マウス、キーボード、マイクロホン、及びスピーカ、モニタを含む様々なアクセサリ機能を実現するために別個のハードウェア/ソフトウェアユニットを含む場合がある。ユーザは、コンピュータとインタラクトするために、例えば、ナビゲーションのためのマウス、テキスト入力のためのキーボード、ならびに音声コマンドを与えるためまたはコンピュータのオーディオ出力を受信するためのマイクロホン及びスピーカ、ならびにコンピュータの視覚出力を受信するためのモニタを使用するために、様々なインターフェースデバイス間で切り換える必要があり得る。その上、複数の電子デバイスが、家で異なるプラットフォームを使用して異なる場所において使用される場合もある。ユーザは、異なる目的のために異なるデバイスにアプローチするために家を歩き回る必要があり得る。例えば、ユーザは、デスクトップコンピュータまたはラップトップの前に座り得、いくつかのドキュメントについて作業するまたはいくつかを読む、あるいは寝室内でタブレットを使用してインターネットを閲覧する、あるいは居間へ行ってフラットスクリーンテレビの前に座ってTVを見るまたはビデオゲームをする、あるいはユーザがどこに行ってもスマートホンを使用してメールを作成する及び電話をかける可能性がある。したがって、種々のコンピューティング/電子システム上で作業するユーザエクスペリエンスは、セグメント化される。
少なくとも1つの実施形態では、コントロールデバイスが、複数のインターフェーシング要求に適合するために提供される。少なくとも1つの実施形態では、コントロールデバイスが、複数のコンピューティング/電子デバイスを制御するために提供される。少なくとも1つの実施形態では、本コントローラは、複数のボタンを含み、タッチセンサが、ボタンの頂部において接続され、タッチパッドを形成する。少なくとも1つの実施形態では、ボタン及びタッチパッドが、指の運動及び/またはジェスチャによって引き起こされる様々な指の動作を検出し、検出された指の動作を、様々なデバイスを制御するための制御コマンドに変換する。少なくとも1つの実施形態では、コントローラは、動作するための平坦面を必要とせず、それゆえ、ユーザが、彼の首、肩、背、及び/または手首にストレスをかけずに、自然な体勢でコントローラを保持して操作することを可能にする。少なくとも1つの実施形態では、コントローラは、無線及び/または有線通信経由で、種々のコンピューティングデバイス及び/または電子デバイスと通信する。
少なくとも1つの実施形態では、コントローラは、親指が操作するための親指タッチパッドを有する親指ボタンと、人差し及び中指がそれぞれ操作するためのタッチパッドをそれぞれ有する2つのボタンと、を含む。別の実施形態では、人差し指及び中指に専用の2つのボタンが、1つのボタンに結合されてもよい。少なくとも1つの実施形態では、指が動くときにならびに/あるいはボタン及び/またはタッチパッド上でジェスチャを行うときに、ボタンがクリック動作を検出し、タッチパッドがタッチ動作を検出する。少なくとも1つの実施形態では、ボタンの抵抗のうちのいくつかまたは全てが、ユーザが構成メニューにおいてそれらを調整することができるようにプログラム可能であってもよい。少なくとも1つの実施形態では、ボタンのうちのいくつかまたは全てが、触角/触知フィードバックを有してもよい。少なくとも1つの実施形態では、コントローラが、親指タッチパッド上の親指の動きの軌跡による手書きを認識することができる。少なくとも1つの実施形態では、コントローラは、指のどのクリック及び/またはタッチ動作が、コンピューティングデバイス及び/または他のデバイスを制御するための様々な制御コマンドに変換されるかに従って、種々のユーザ選択可能な構成及び/またはモードにおいて動作し得る。少なくとも1つの実施形態では、コントローラは、異なるボタン及び/またはタッチパッド上の異なる指の運動の組み合わせに基づいて制御コマンドを生成する。少なくとも1つの実施形態では、コントローラは、制御コマンドに変換される音声コマンドを受信するためのマイクロホンを含む。少なくとも1つの実施形態では、コントローラは、異なる種類の情報(例えば、電力状態、動作状態等)を示すために異なる手法で点灯する光源を含む。少なくとも1つの実施形態では、コントローラは、プレゼンテーション及び/または指し示す目的のためのレーザを含む。少なくとも1つの実施形態では、コントローラは、例えば、ヘッドセット及び/または一組のゴーグルなどの外部デバイスに接続するための少なくとも1つのコネクタを含む。少なくとも1つの実施形態では、コントローラは、コントローラの動き及び/または配向を検出するための動きセンサを含み、それは、制御コマンドを生成するために他の検出される信号と個別にまたは組み合わせて解釈され得る。少なくとも1つの実施形態では、コントローラが動きセンサを装備しているときに、コントローラは、空中のコントローラの動きの軌跡に基づいて手書きを認識し得る。少なくとも1つの実施形態では、コントローラは、ユーザがインタラクトするためのコンテンツを表示し得るタッチスクリーンを含む。少なくとも1つの実施形態では、コントローラは、テキスト及び/または他のコンテンツを入力するためにディスプレイ上のソフトキーボードを制御し得る。少なくとも1つの実施形態では、コントローラは、右手のみならず左手によって操作され得る鏡面対称性であり得る。
少なくとも1つの実施形態では、コントローラは、ユーザが複数のコンピューティング/電子デバイスとインタラクトするための人間・機械インターフェースとして機能する。例えば、コントローラは、例えば、パーソナルコンピュータ、ラップトップコンピュータ、ワークステーション、スマートホン、タブレットコンピュータ、モバイルデバイス、及び/またはテレビ(TV)を遠隔に制御するように構成される。少なくとも1つの実施形態では、コントローラは、種々の異なる表示デバイス(例えば、フラットスクリーンTV、プロジェクタ、一組の投影ゴーグル、及び/またはヘッドセット)のための単一の表示プラットフォームを提供する。
上記実施形態のいずれも、単独でまたは任意の組み合わせで互いと共に使用され得る。本明細書内に包含される発明はまた、本概要においてもしくは要約において部分的にのみ言及または暗示されるあるいは少しも言及または暗示されない実施形態も含み得る。
以下の図面中、同様の参照番号が、同様の要素を参照するために使用される。以下の図面は、本発明の様々な実施例を描写するが、本発明は、図面に描写される実施例に限定されない。
コントローラの実施形態を示す。 図1のコントローラの実施形態の上面図を示す。 図1のコントローラの実施形態の側面図を示す。 図1のコントローラの実施形態の下面図を示す。 光源を有するコントローラの実施形態のビューを示す。 レーザを有するコントローラの実施形態のビューを示す。 マイクロホンを有するコントローラの実施形態のビューを示す。 図7Aのコントローラの実施形態の尾端部のビューを示す。 2つのボタンを有するコントローラの別の実施形態のビューを示す。 右手に保持されたコントローラの実施形態のビューを示す。 スクローリング動作を作動するためにコントローラを操作するユーザの実施例を示す。 スワイプ動作を作動するためにコントローラを操作するユーザの実施例を示す。 ズームアウト動作を作動するためにコントローラを操作するユーザの実施例を示す。 ズームイン動作を作動するためにコントローラを操作するユーザの実施例を示す。 切り換え動作を作動するためにコントローラを操作するユーザの実施例を示す。 回転動作を作動するためにコントローラを操作するユーザの実施例を示す。 右手を使用してコントローラを操作するユーザの実施例を示す。 左手を使用してコントローラを操作するユーザの実施例を示す。 異なる動作を行うための異なる領域を有する親指タッチパッドの実施形態のビューを示す。 テキスト入力モードの間に動作を行うように構成された親指ボタンの実施形態のビューを示す。 人差しボタンと組み合わせて、テキスト入力モードの間に動作を行うように構成された、親指ボタンの実施形態のビューを示す。 手書きを認識する親指タッチパッドの実施形態のビューを示す。 タッチスクリーンを有する親指ボタンの実施形態のビューを示す。 ヘッドセットに接続されたコントローラの実施形態のビューを示す。 一組のゴーグルに接続されたコントローラの実施形態のビューを示す。 コントローラによって制御され得る表示システムのブロック図を示す。 図1のコントローラの実施形態のブロック図を示す。 ユーザ入力を受信するためにコントローラを使用する方法の実施形態のフローチャートである。 様々なモードにおいてコントローラを使用する方法の実施形態のフローチャートである。 ビデオ及び/またはオーディオデータを表示するためにコントローラを使用する方法の実施形態のフローチャートである。 コントローラを組み立てる方法の実施形態のフローチャートである。 コントローラの実施形態の断面側面図を示す。
本発明の様々な実施形態は、本明細書内の1つ以上の箇所に記述または暗示され得る、先行技術に関する様々な欠陥によって動機付けられた可能性があるが、本発明の実施形態は、必ずしもこれらの欠陥のいずれにも対処するものではない。換言すれば、本発明の異なる実施形態が、本明細書に記述され得る異なる欠陥に対処し得る。いくつかの実施形態は、本明細書に記述され得るいくつかの欠陥またはただ1つの欠陥に部分的にのみ対処し得、いくつかの実施形態は、これらの欠陥のいずれにも対処しない可能性がある。
一般に、各要素の簡潔な記載が、図1〜26及び29のそれぞれの記述の最初にあり、それらは、記述されている図1〜26及び29のうちの1つにおける要素のそれぞれの名前を有するにすぎない可能性がある。各要素の簡潔な記載の後に、各要素が、番号順に更に記述される。一般に、図1〜29のそれぞれは、番号順に記述され、図1〜29内の要素もまた、通常、番号順に記述され、ある特定の要素の記述を簡単に探し出すのを容易にする。それにも関わらず、図1〜29の任意の要素の情報の全てが必ずしも位置するような場所は存在しない。図1〜29のうちのいずれかの任意の特定の要素または任意の他の態様についての固有の情報が、本明細書の任意の部分において見付けられ得るか、あるいはその部分によって暗示され得る。
本明細書に記載される具体的な実施形態は、少なくとも1つの実施形態を説明するためにのみ使用されるが、本発明を限定するために使用されないことを理解されたい。
図1は、コントローラ100の実施形態を示す。コントローラ100は、少なくとも1つのハウジング101、上面102、前方傾斜103、凹状領域104、親指ボタン105、人差しボタン106、中央ボタン107、尾端部108、及び先頭端部109を含む。他の実施形態では、コントローラ100は、列挙された要素もしくは特徴の全てを有さなくてもよいし、及び/あるいは列挙されたものに代えてまたはそれに加えて他の要素もしくは特徴を有してもよい。
図1は、指の動き及び/またはジェスチャを検出するための複数のボタンならびに/あるいはタッチパッドを有するコントローラの概略図を示す。
コントローラ100は、機能、例えば、限定するものではないが、指し示すこと、選択、ズーム、回転、メニュー起動、ナビゲーション、ならびにコンテンツ及び/またはコマンド入力などを実行するために、複数のコンピューティングデバイス及び/または電子デバイスを制御するように構成された手持ち式コントロールデバイスである。少なくとも1つの実施形態では、コントローラ100は、指の運動及び/またはジェスチャを検出するために複数のボタンに接続されるセンサを含む。少なくとも1つの実施形態では、コントローラ100は、人間工学的な形状を有すると共に、鏡面対称性であり、それゆえ、(例えば、左手モードにおいて)左手及び(例えば、右手モードにおいて)右手に適合することができる。ある実施形態では、左利きの人間がコントローラ100を使用するとき、左利きの人間の指先は、右利きの人間がコントローラ100を使用するときと比べてコントローラ100の反対側にあるので、左手モード及び右手モードが提供される。左手モードでは、タッチパッドのどの部分が、タッチパッドの異なる部分における押圧及び/またはタッチに応答するかが、それらの位置が右手モードにあるときに対してタッチパッドの鏡に映した位置にある。少なくとも1つの実施形態では、コントローラ100は、操作するための平坦面(例えば、机の表面)上に載せられる必要がなく、それゆえ、ユーザの筋肉のストレス及び疲労を最小限にする。少なくとも1つの実施形態では、コントローラ100は、平坦面に対してコントローラ100の動きを検出するゴム加工ボールまたはレーザを含まない。少なくとも1つの実施形態では、コントローラ100は、伝統的な電子マウスによって行われ得る動作のみならず多くの他の動作を実現し得る。
少なくとも1つの実施形態では、コントローラ100は、無線で及び/またはケーブルもしくはワイヤ経由で様々なコンピューティング/電子デバイスと通信する。少なくとも1つの実施形態では、コントローラ100は、ユーザが様々なコンピューティングデバイスとインタラクトするための一体型ユーザインターフェースを提供し、それゆえ、ユーザエクスペリエンスを向上する。本明細書全体を通して、用語「コントローラ」、「コントローリングデバイス」、「コントロールデバイス」、「ポンティングデバイス」、「マウス」、及び「インターフェースデバイス」は、交換可能に使用され、異なる実施形態を得るために1つが他と置換されてもよい。
ハウジング101は、コントローラ100の機械及び電子構成要素を保持ならびに/または支持するハウジングである。少なくとも1つの実施形態では、ハウジング101は、途中まで閉じた人間の手のアーチに適合する湾曲した取っ手形状を有する。少なくとも1つの実施形態では、ハウジング101は、異なるサイズの手のために異なるサイズを有し得る。少なくとも1つの実施形態では、ハウジング101は、鏡面対称性である。他の実施形態では、ハウジング101は、他の形状及び/または構造を含んでもよい。例えば、ハウジング101は、前方端部に位置する2つのボタン(もしくは1つのボタン)及び頂部上の1つのボタンを有する、ボール形状またはボールに近い形状を有してもよい。
上面102は、図1に示されるような配向において、ハウジング101の上面である。少なくとも1つの実施形態では、コントローラ100がユーザの手に保持されるときに、親指が、上面102上で休息し得る。少なくとも1つの実施形態では、上面102は、ユーザがコントローラ100を保持するときに親指と接触している表面として定義される。他の実施形態では、上面102は、コントローラ100が通常の使用中にあるときに異なる方向に向き得る。
前方傾斜103は、コントローラ100の先頭端部にある傾斜であり、コントローラ100の上面102からある角度で延在している。少なくとも1つの実施形態では、前方傾斜103は、上面102上の親指ボタンと、コントローラ100の先頭端部上の人差しボタンとの間に位置する。少なくとも1つの実施形態では、前方傾斜103が湾曲している。
凹状領域104は、ハウジング101の底面上の凹状領域である。少なくとも1つの実施形態では、コントローラ100を手の中に保持しているときに、手の薬指及び小指は、より良い支持及び把持をもたらすために凹状領域104の下を包む。本明細書全体を通して、用語「凹状領域」、「凹状」、及び「くぼみ」は、交換可能に使用され、異なる実施形態を得るために1つが他と置換されてもよい。
親指ボタン105は、コントローラ100の先頭端部の近くで、上面102に位置するボタンである。少なくとも1つの実施形態では、親指ボタン105は、円形または楕円形を有する。少なくとも1つの実施形態では、ユーザが彼の右手または左手でコントローラ100を保持するときに、右手または左手の親指は、自然な体勢で親指ボタン105上で休息し、親指ボタン105をクリック及び/または動かし得る。少なくとも1つの実施形態では、親指ボタン105は、親指ボタン105上のクリック動作(例えば、シングルクリック、ダブルクリック、下に保持すること等)を検出するためにボタンスイッチ及び/または他のセンサに接続される。少なくとも1つの実施形態では、ユーザのクリック動作に応答してコントローラ100のボタンの抵抗が調整可能である。少なくとも1つの実施形態では、ボタン(またはボタンの一部分)上の指のクリック及び/または押下の圧力が所定の閾値よりも高いときに、クリック/押圧が、ボタンによって登録される(閾値が低くなればなるほど、ボタンの抵抗が少なくなり、かつボタンの感度がより高くなる)。少なくとも1つの実施形態では、ユーザは、異なる動作モードまたは状況においてボタンの感度を調整するようにコントローラ100のボタンの閾値を選び得る及び/または変更し得る(例えば、ユーザは、ビデオゲームをするために通常の制御モード及びTVモードにおけるものよりも感度の高いボタンを必要とし得る)。少なくとも1つの実施形態では、ゲームモード及び他の種類のタスクを行うための1つ以上の他のモード(例えば、TVモード及び制御モード)が存在し、ゲームモードにあるときに、ボタンに加えられる必要がある圧力についてのデフォルトの閾値が、制御モード及び/またはTVモードの間のデフォルトの事前設定される閾値よりも低い閾値に事前設定される。他の実施形態では、親指ボタン105は、他の形状及び/またはサイズを有してもよい。本明細書全体を通して、用語「メインボタン」、「機能ボタン」、及び「親指ボタン」は、交換可能に使用され、異なる実施形態を得るために1つが他と置換されてもよい。
少なくとも1つの実施形態では、親指ボタン105の上面は、高解像度タッチセンサを含み、それゆえ、親指ボタン105の上面は、親指タッチパッドとして機能する。少なくとも1つの実施形態では、親指タッチパッドのタッチセンサは、親指が親指タッチパッド上で運動及び/またはジェスチャを行うときにタッチ動作(例えば、シングルタップ、ダブルタップ、スクロール、スワイプ等)を検出する。少なくとも1つの実施形態では、親指タッチパッドは、ユーザに彼/彼女のタッチ動作が実行されたことを通知するために、触角/触知フィードバックを有し得る(例えば、振動またはクリックが、コマンドをタッチパッドに入力することに応答して生成され得る)。少なくとも1つの実施形態では、親指タッチパッドは、異なるタッチ動作について異なる種類の触角/触知フィードバックを有し得る。
少なくとも1つの実施形態では、親指ボタン105及び親指タッチパッドによって検出されるクリック動作及び/またはタッチ動作は、それぞれ、コントローラ100が様々なデバイスを制御するための制御コマンドを生成するための他のデータ(例えば、動作モード、他のボタン及び/またはタッチパッドからの入力データ、音声コマンド、動きの信号等)と組み合わされてもよい。少なくとも1つの実施形態では、コントローラ100は、信号を収集及び分析して、種々のデバイスを制御するための制御命令を生成する回路を含む。本明細書全体を通して、用語「データ」、「情報」、及び「コンテンツ」は、交換可能に使用され、異なる実施形態を得るために1つが他と置換されてもよい。本明細書全体を通して、用語「親指タッチパッド」、「メインパッド」、「メインタッチパッド」、「機能パッド」、及び「親指パッド」は、交換可能に使用され、異なる実施形態を得るために1つが他と置換されてもよい。本明細書全体を通して、用語「タッチパッド」、「タッチ表面」、「タッチスクリーン」、及び「タッチ画面」は、交換可能に使用され、異なる実施形態を得るために1つが他と置換されてもよい。
少なくとも1つの実施形態では、親指ボタン105上のどこかでのトリプルクリックが、セットアップメニューを呼び出す。セットアップメニューは、ユーザが、異なる構成、動作モード、及び/または様々な設定、例えば、限定するものではないが、左手及び右手構成、制御モード、テキスト入力モード、プレゼンテーションモード、テレビモード、ゲームモード、3次元(3D)モード、メディア制御モード、手書きモード、音声コマンドモード、遊休モード、スリープモード、ソフトキーボード設定、エネルギー節約設定、動きセンサ設定、光指示設定、ならびにボタン抵抗設定などから選ぶことを可能にする。構成、モード、及び/または設定は、図6、7A、7B、及び9〜22と関連して記述される。
人差しボタン106は、前方傾斜103の隣に、コントローラ100の先頭端部に位置するボタンである。少なくとも1つの実施形態では、人差しボタン106は、コントローラ100の先頭端部の円弧形状と整合するように曲げられた細長片の形状を有する。少なくとも1つの実施形態では、人差しボタン106は、先頭端部の円弧形状の前側に沿って延在し、コントローラ100が右手または左手によって保持されるかどうかに関わらず、人差しボタン106が、人差し指によって効果的に作動されることを可能にする。少なくとも1つの実施形態では、人差しボタン106は、人差し指が人差しボタン106をクリックするもしくは押し下げるときにクリック動作を検出するためのボタンスイッチ及び/または他のセンサに接続される。他の実施形態では、人差しボタン106は、他の形状及び/またはサイズを有してもよい。少なくとも1つの実施形態では、人差しボタン106は、多くの他の機能の他に、伝統的な電子マウスの「左ボタン」の機能を含んでもよい。本明細書全体を通して、用語「人差しボタン」、「人差し指ボタン」、及び「左ボタン」は、交換可能に使用され、異なる実施形態を得るために1つが他と置換されてもよい。
少なくとも1つの実施形態では、人差しボタン106の表面が、親指ボタン105の上面に垂直に、外側に向く。少なくとも1つの実施形態では、高解像度タッチセンサは、人差しボタン106の上に接続され、それゆえ、人差しタッチパッドとして機能する。少なくとも1つの実施形態では、人差しタッチパッドのタッチセンサは、人差しタッチパッド上で人差し指が動く及び/またはジェスチャを行うときに、タッチ動作を検出する。少なくとも1つの実施形態では、人差しタッチパッドは、ユーザに彼/彼女のタッチ動作が実行されたことを通知するために触角/触知フィードバックを有し得る。少なくとも1つの実施形態では、人差しタッチパッドは、異なるタッチ動作について異なる種類の触角/触知フィードバックを有してもよい。例えば、スクロール動作についての触角フィードバックは、スワイプ動作のものとは異なり得る。少なくとも1つの実施形態では、人差しボタン106及び人差しタッチパッドによって検出されたクリック動作ならびにタッチ動作が、それぞれ、コントローラ100が制御コマンドを生成するために他のデータと組み合わされ得る。本明細書全体を通して、用語「人差しタッチパッド」、「人差し指タッチパッド」、「人指しパッド」、及び「左タッチパッド」は、交換可能に使用され、異なる実施形態を得るために1つが他と置換されてもよい。
中央ボタン107は、人差しボタン106に並行に、かつハウジング101の底面の近くで、コントローラ100の先頭端部に位置するボタンである。少なくとも1つの実施形態では、中央ボタン107は、人差しボタン106と類似の形状を有し、人差しボタン106の隣に配置される。少なくとも1つの実施形態では、中央ボタン107は、円弧形状の先頭端部に沿って人差しボタン106が延在するのと同程度まで延在し、右手または左手が使用されるかどうかに関わらず、中央ボタン107が中指によって効果的に作動されることを可能にする。少なくとも1つの実施形態では、中央ボタン107は、中指が中央ボタン107上でクリックもしくは押下するときにクリック動作を検出するためのボタンスイッチ及び/または他のセンサに接続される。少なくとも1つの実施形態では、中央ボタン107は、多くの他の機能の他に、伝統的な電子マウスの「右ボタン」の機能を含んでもよい。他の実施形態では、中央ボタン107は、他の形状及び/またはサイズを有してもよい。本明細書全体を通して、用語「中央ボタン」、「中指ボタン」、「中央パッド」、及び「右ボタン」は、交換可能に使用され、異なる実施形態を得るために1つが他と置換されてもよい。
少なくとも1つの実施形態では、中央ボタン107の表面が、人差しボタン106の表面と同様の方向に外側に向く。少なくとも1つの実施形態では、高解像度タッチセンサが、中央ボタン107の上に接続され、それゆえ、中央タッチパッドとして機能する。少なくとも1つの実施形態では、中央タッチパッド上のタッチセンサは、中指が中央タッチパッド上で動く及び/またはジェスチャを行うときにタッチ動作を検出する。少なくとも1つの実施形態では、中央タッチパッドは、ユーザに彼/彼女のタッチ動作が実行されたことを通知するために触角/触知フィードバックを有し得る。少なくとも1つの実施形態では、中央タッチパッドは、異なるタッチ動作について異なる種類の触角/触知フィードバックを有し得る。例えば、スクロール動作についての触角フィードバックは、スワイプ動作のものとは異なり得る。少なくとも1つの実施形態では、中央ボタン107及び中央タッチパッドによって検出されるクリック動作及びタッチ動作は、それぞれ、コントローラ100が制御コマンドを生成するために他のデータと組み合わされ得る。本明細書全体を通して、用語「中央タッチパッド」、「中指タッチパッド」、及び「右タッチパッド」は、交換可能に使用され、異なる実施形態を得るために1つが他と置換されてもよい。
少なくとも1つの実施形態では、ユーザがコントローラ100を彼の手の中に保持するときに、人差し指及び中指は、それぞれ、自然な体勢で人差しボタン106及び中央ボタン107と接触する。少なくとも1つの実施形態では、人差しタッチパッド及び中央タッチパッドのタッチセンサは、人差し指及び中指が、それぞれ、人差しタッチパッド及び中央タッチパッドに沿って動くとき(それは、画面をスクロールさせ得る)、ならびに人差し指及び中指が、それぞれ、人差しタッチパッド及び中央タッチパッドにわたって動くとき(それは、画面にスワイプ動作を表示させ得、それは、カーソルがスマートホンのタッチスクリーン上の指によるスワイプを模倣する様式で動かされることに応答して1つのページから別のページにスライドすることである)の両方を検出して、それらを区別することができる。少なくとも1つの実施形態では、親指タッチパッドのタッチセンサが、人差し及び/または中央タッチパッドのものよりも高い精度を有し得、それゆえ、(例えば、手書き認識のためのポインティング制御の間等に)高精度で親指のより複雑な運動を検出することができる。ある実施形態では、各ボタンの所望の機能に従って、異なるボタン上に異なる解像度を有する異なるタッチセンサを取り付けることが費用効果的であり得る。
本明細書全体を通して、ボタン(例えば、親指ボタン105、人差しボタン106、及び中央ボタン107)に接続されたセンサが、クリック動作を検出するように構成され、一方で、タッチパッド(例えば、親指タッチパッド、人差しタッチパッド、及び中央タッチパッド)のタッチセンサが、タッチ動作を検出するように構成される。ある実施形態では、コントローラ100のボタンのそれぞれが、異なる指によって操作されるように専用のものである。したがって、各ボタンが異なる指に専用のものであるときに、各ボタンの上のタッチパッドは、同じタッチパッド上の複数のタッチを同時に検出するように構成されたマルチタッチ技術を要求しなくてもよい。ある実施形態では、各ボタンが異なる指に専用のものであるときに、各タッチパッド上のマルチタッチ信号を検出して処理するための複雑な論理及び/または回路を含まないことが費用効果的であり得る。別の実施形態では、コントローラ100のタッチパッドの1つ以上が、複数の指によって動作され得(例えば、人差しボタン106及び中央ボタン107が、人差し指と中指の両方によって動作され得る単一のボタンと交換されてもよく)、それゆえ、マルチタッチ技術が、マルチタッチ信号を検出して処理するために採用されてもよい。
尾端部108は、コントローラ100がユーザの手に保持されるときに手首に最も近いコントローラ100の端部である。
先頭端部109は、コントローラ100がユーザの手に保持されるときに人差し指及び中指によって包まれるコントローラ100の端部である。
少なくとも1つの実施形態では、コントローラ100は、5インチの長さ、最も狭い点において5/8インチ及び最も広い点において7/4インチの幅、ならびに7/4インチの高さを有する。凹状領域104は、1/4インチの深さを有する。本発明の本質的な教示から逸脱することなく、修正がなされ得ることを理解されたい。コントローラ100の寸法は、10%の許容差を有し得る。勿論、互いにぴったり収まるように意図された構成要素は、それらの構成要素が依然として互いにぴったり収まるように共に変更する必要がある。他の実施形態では、これらの寸法の10%の許容差の範囲外にある他の寸法が、使用されてもよい。
図2は、図1のコントローラ100の実施形態の上面図200を示す。ビュー200は、少なくとも、ハウジング101、上面102、前方傾斜103、親指ボタン105、尾端部108、及び先頭端部109を示す。他の実施形態では、ビュー200におけるデバイスは、列挙された要素もしくは特徴の全てを有さなくてもよいし、及び/あるいは列挙されたものに代えてまたはそれに加えて他の要素もしくは特徴を有してもよい。
図2は、ユーザがコントローラ100の上面102を見るときの上面図200を示す。少なくとも1つの実施形態では、親指タッチパッドに関する方向が、図2において矢印によって示され、以下のように定義される。左は、親指タッチパッドの左縁の方に向く方向として定義される。右は、親指タッチパッドの右縁の方に向く方向として定義される。上は、前方傾斜103の方に向く方向として定義される。下は、尾端部108の方に向く方向として定義される。
図3は、図1のコントローラ100の実施形態の側面図300を示す。ビュー300は、少なくとも、ハウジング101、上面102、前方傾斜103、凹状領域104、親指ボタン105、人差しボタン106、中央ボタン107、尾端部108、及び先頭端部109を示す。他の実施形態では、ビュー300におけるデバイスは、列挙された要素もしくは特徴の全てを有さなくてもよいし、及び/あるいは列挙されたものに代えてまたはそれに加えて他の要素もしくは特徴を有してもよい。
図3は、親指ボタン105が上面に位置する一方で、人差しボタン106及び中央ボタン107が先頭端部109の前側に位置する、コントローラ100の側面図300を示す。ある実施形態では、先頭端部109は、人差し指及び中指が快適かつ自然な体勢で先頭端部109の周りを包むように湾曲される。ある実施形態では、親指ボタン105と人差しボタン106との間の前方傾斜103は、上面102から90度よりも小さい角度にある。ある実施形態では、人差しボタン106及び中央ボタン107の表面は、親指ボタン105の表面に垂直である平面にある。少なくとも1つの実施形態では、親指ボタン105と人差しボタン106との間の前方傾斜103は、上面102に対して60度よりも大きいが、120度よりも小さい角度にある。ある実施形態では、前方傾斜103は、上面102に対して60度と70度との間の角度にある。ある実施形態では、前方傾斜103は、上面102に対して70度と80度との間の角度にある。ある実施形態では、前方傾斜103は、上面102に対して80度と90度との間の角度にある。ある実施形態では、前方傾斜103は、上面102に対して90度と100度との間の角度にある。ある実施形態では、前方傾斜103は、上面102に対して100度と110度との間の角度にある。ある実施形態では、前方傾斜103は、上面102に対して110度と120度との間の角度にある。ある実施形態では、前方傾斜103は、上面102に対して60度よりも小さい角度にある。ある実施形態では、前方傾斜103は、上面102に対して120度よりも大きい角度にある。ある実施形態では、人差しボタン106及び中央ボタン107は、同じ方向に向く。別の実施形態では、人差しボタン106は、中央ボタン107の方向とは異なる方向に向く。例えば、上面102が上向きに向くときに、人差しボタン106は、上向きにある角度においてある方向に向き得、中央ボタン107は、下向きにある角度においてある方向に向き得る。コントローラがボール形状である別の実施例では、人差しボタン及び中央ボタンは、異なる方向に向く。
図4は、図1のコントローラ100の実施形態の下面図400を示す。ビュー400は、少なくとも、ハウジング101、尾端部108、及び先頭端部109を示す。ビュー400は、更に、底面402及びスイッチ404を示す。他の実施形態では、ビュー400におけるデバイスは、列挙された要素もしくは特徴の全てを有さなくてもよいし、及び/あるいは列挙されたものに代えてまたはそれに加えて他の要素もしくは特徴を有してもよい。
図4は、コントローラ100の底からのビュー400を示す。
底面402は、コントローラ100の底における表面である。少なくとも1つの実施形態では、底面402は、凹状領域104において湾曲され、そこで、薬指及び小指が、コントローラ100の保持を支えるように包む。他の実施形態では、底面402は、他の形状及び/または構造を含んでもよい。少なくとも1つの実施形態では、底面402の凹状領域104は、より良い把持のための構造、例えば、***及び/または凸状曲線などを有してもよい。
スイッチ404は、尾端部108の近くで、底面上に位置するオン及びオフスイッチである。ある実施形態では、スイッチ404は、コントローラ100がオンまたはオフのいずれかにされる2つの位置において停止するように押され得る、摺動スイッチである。他の実施形態では、スイッチ404は、押しボタン、トグル、ロータリセレクタスイッチ、または任意の他のスイッチであってもよい。少なくとも1つの実施形態では、スイッチ404は、動作中のときにコントローラ100の凹状領域104の下を包む薬指及び小指から離れて位置する。他の実施形態では、スイッチ404は、コントローラ100上の任意の他の場所にあってもよい。他の実施形態では、スイッチ404は、スイッチが他のタスクを行っている間に不注意にオン及び/またはオフにされるならびに/あるいは不便にさせる可能性がないように、スイッチが普通の指及び/または手の動作を妨害する可能性のない場所のみに位置してもよい。
図5は、光源を有するコントローラの実施形態のビュー500を示す。ビュー500は、少なくとも、ハウジング101、上面102、前方傾斜103、親指ボタン105、尾端部108、及び先頭端部109を示す。ビュー500は、更に、光源502を示す。他の実施形態では、ビュー500におけるデバイスは、列挙された要素もしくは特徴の全てを有さなくてもよいし、及び/あるいは列挙されたものに代えてまたはそれに加えて他の要素もしくは特徴を有してもよい。
図5は、指示を表示するために光源を有するコントローラ100の実施形態のビュー500を示す。
光源502は、指示目的のために上面102上に実装される光源である。ある実施形態では、光源502は、親指ボタン105の縁の輪郭を描く環形状を有する。ある実施形態では、光源502は、発光ダイオード(LED)を含む。ある実施形態では、光源502は、コントローラ100のハウジング101の内側の1つ以上のバッテリまたは組み込み型バッテリによって動力を付される。他の実施形態では、光源502は、他の形状であってもよいし、他のサイズであってもよいし、及び/または他の場所にあってもよい。少なくとも1つの実施形態では、光源502は、コントローラ100の動作モード及び/または状態を指示する様々な手法で点灯してもよい。少なくとも1つの実施形態では、光源502によって放出される光は、異なる色を有し得、ならびに/あるいは光源502の表面の異なる部分を照明すること、及び/または異なる情報をユーザに指示するために、周波数をフラッシュさせることができ得る。少なくとも1つの実施形態では、光源502によって放出される光が、異なる色で異なる部分を同時に照明することができ得、及び/または異なる部分の色を変化させ得る。
ある実施形態では、光源502は、バッテリ/複数のバッテリの電力状態を指示するために異なる色の光を放出してもよい。例えば、光源502は、バッテリが十分な電力を有する(例えば、30%を超える電力がバッテリ内に残っている)ときに青く輝いてもよい。残りの電力が30%よりも低いときには、光源502は、ユーザにコントローラ100の再充電をすぐに気付かせるために黄色い光を放出してもよい。電力が10%を下回るとき、光源502は、ユーザにコントローラ100の再充電を即時に気付かせるために赤色に点滅してもよい。バッテリが十分に充電されると、光源502は、充電の完了を指示するために緑色に輝いてもよい。少なくとも1つの実施形態では、光源502は、ソフトな周囲光の輝きを有してもよい。
別の実施形態では、点灯する光源502のパーセンテージは、電力状態を指示し得る。ある実施形態では、光源502のパーセンテージは、残りの電力に比例する。例えば、バッテリの電力が満杯であるとき、光源502の環全体が輝く。電力の50%が残っているとき、光源502の半分のみが点灯する。ある実施形態では、電力状態が点灯する光源502のパーセンテージによって指示されるときに、光源502はまた、例えば、異なる色を使用することによって、動作モードを指示してもよい。例えば、光源502によって放出される青い光は、コントローラ100が制御モードにあることを指示し得、一方で、赤い光は、プレゼンテーションモードを指示し、黄色い光は、テレビモードを指示する。少なくとも1つの実施形態では、光が何色/パーセントであるかは、何のモード/状態がセットアップメニューにおいてコントローラ100を使用して選択または再設定され得るかを指示する。
ある実施形態では、光源502は、コントローラ100が活動または非活動状態であるかどうかを指示してもよい。例えば、ある時間閾値(例えば、30秒、1分、2分、5分等)内に何の活動もコントローラ100によって検出されないとき、コントローラ100は、光源502をオフにして、自動的に遊休モードまたはスリープモードに入ってもよい。少なくとも1つの実施形態では、遊休モード及びスリープモードは、互いに区別される。遊休モードは、コントローラ100が短期間(例えば、30秒、1分)にわたって非活動状態であるときに作動される。遊休モードでは、カーソルは、ディスプレイから見えなくなってもよい。ある実施形態では、コントローラ100の運動、タッチパッドのうちのいずれかのタッチ、またはボタンのうちのいずれかのクリックが、コントローラ100を遊休モードから抜け出させ得、光源502がオンに戻されて、カーソルがディスプレイ上に現れる。コントローラ100がある期間(例えば、10分、30分)にわたって非活動状態のままである場合、コントローラ100は、更に、スリープモードに入り得、任意選択的に、コンピューティングデバイスへの無線接続がオフにされる。コントローラ100をスリープモードから抜け出させるために、ユーザは、例えば、2秒超にわたって3つのボタンの全てを同時に押し得、下に保持し得る。メディア制御モードの間、コントローラ100は、映画及び/または音楽等の間にスリープモードに入らないように構成される。ある実施形態では、遊休モードは、コンピュータ上のスリープモードと類似し得、それにおいて、ユーザがコントローラ100とインタラクトすることを試みていることを検出することを必要とされた構成要素のみがオンのままにされ、一方で、他の構成要素の全てが、遮断され得、及び/または電力を供給され得ない。別の実施形態では、用語「スリープモード」及び「遊休モード」は、交換可能に使用され得、いずれの用語も、異なる実施形態を得るために他方と置換されてもよい。本明細書全体を通して、時間閾値(例えば、2秒、30秒、1分、5分)は、異なる実施例を描写するためのものであり、他の時間閾値が、異なる実施形態において使用され得ることを理解されたい。少なくとも1つの実施形態では、ユーザは、設定を修正して、時間閾値を変更してもよいし、あるいはセットアップメニューにおいて様々な動作及び/またはモードについてデフォルトの閾値設定を使用してもよい。
図6は、レーザを有するコントローラ100の実施形態のビュー600を示す。ビュー600は、少なくとも、ハウジング101、上面102、前方傾斜103、凹状領域104、親指ボタン105、人差しボタン106、中央ボタン107、尾端部108、及び先頭端部109を示す。ビュー600は、更に、レーザ602を示す。他の実施形態では、ビュー600におけるデバイスは、列挙された要素もしくは特徴の全てを有さなくてもよいし、及び/あるいは列挙されたものに代えてまたはそれに加えて他の要素もしくは特徴を有してもよい。
図6は、プレゼンテーションモードにおいて使用されるレーザを有するコントローラ100の実施形態の側面図600を示す。プレゼンテーションモードは、コントローラ100を使用してセットアップメニューから選択することによって作動され得る。あるいは、コントローラ100は、プレゼンテーションスライドを開いたことを検出し、自動的にプレゼンテーションモードを作動させてもよい。
レーザ602は、レーザビーム、可干渉性光のビームを放出する構成要素であり、レーザビームが狭いままであり、タイトなスポットに集束されることを可能にする。ある実施形態では、コントローラ100は、プレゼンテーションモードにあるときに(プレゼンテーションの提示を支援するためのデバイスである)プレゼンテーションデバイス及び/またはレーザポインタとして使用されてもよい。少なくとも1つの実施形態では、レーザ602は、親指ボタン105と人差しボタン106との間で、前方傾斜103の中央に実装される。プレゼンテーションモードでは、レーザ602は、ユーザが親指ボタン105の任意の部分をクリックして、事前設定された閾値(例えば、0.5秒、1秒、2秒等)よりも長く下に保持するときに作動される。少なくとも1つの実施形態では、作動されるときに、レーザ602は、光ビームを放出して、ディスプレイ上または他の場所に示される所望の対象を正確にねらう。
図7Aは、マイクロホンを有するコントローラ100の実施形態のビュー700aを示す。ビュー700aは、少なくとも、ハウジング101、上面102、前方傾斜103、親指ボタン105、尾端部108、及び先頭端部109を示す。ビュー700aは、更に、マイクロホン702を示す。他の実施形態では、ビュー700aにおけるデバイスは、列挙された要素もしくは特徴の全てを有さなくてもよいし、及び/あるいは列挙されたものに代えてまたはそれに加えて他の要素もしくは特徴を有してもよい。
図7Aは、上面102上にマイクロホンを実装されたコントローラ100の実施形態の上面図700aを示す。
マイクロホン702は、音響信号を検出するためのマイクロホンまたはミニマイクロホンである。ある実施形態では、マイクロホン702は、親指ボタン105から離れて、かつ尾端部108の近くで、上面102上に実装される。少なくとも1つの実施形態では、マイクロホン702は、音声コマンドモードにおいて、発話認識及び自然言語理解方法を使用して認識され得るならびに制御コマンドに変換され得る音声データを受信する。少なくとも1つの実施形態では、コントローラ100の音声コマンド特徴は、ユーザが迅速かつ好都合に命令を入力するための代替の手法を提供し、それは、システムによるユーザエクスペリエンス及びユーザインタラクションを向上する。図7Aの実施形態では、1つのマイクロホンのみが存在するが、他の実施形態では、コントローラ100は、マイクロホンがコントローラ100を保持する手によって遮られない他の場所において別の数のマイクロホンを含んでもよい。
図7Bは、図7Aのコントローラの実施形態の尾端部のビュー700bを示す。ビュー700bは、少なくとも、ハウジング101、上面102、尾端部108、先頭端部109、及びマイクロホン702を示す。ビュー700aは、更に、スピーカ704a〜b及びコネクタ706を示す。他の実施形態では、ビュー700bにおけるデバイスは、列挙された要素もしくは特徴の全てを有さなくてもよいし、及び/あるいは列挙されたものに代えてまたはそれに加えて他の要素もしくは特徴を有してもよい。
図7Bは、コネクタ及び複数のスピーカが実装された、尾端部108のビュー700bを示す。
スピーカ704a〜bは、電気信号を音響に変換してオーディオコンテンツを再生するための電気音響変換器を含む。ある実施形態では、スピーカ704a〜bは、コネクタの両側で、尾端部108上に位置する一対のスピーカを含む。他の実施形態では、スピーカ704a〜bは、他の場所にあってもよい。他の実施形態では、スピーカ704a〜bは、スピーカがコントローラ100を保持する手によって遮られない他の場所にあってもよい。図7Bに描かれる実施形態では、2つのスピーカが存在するが、別の実施形態では、コントローラ100は、別の数のスピーカを含んでもよい。
コネクタ706は、コントローラ100を他のデバイスに接続するための電気機械デバイスである。ある実施形態では、コネクタ706は、インターフェース、ポート、及び/またはプラグを含む。ある実施形態では、コネクタ706は、電源出力を接続するための充電ポートとして機能してもよい。あるいはまたは更に、コネクタ706は、オーディオ/ビデオデバイスに接続するためのオーディオ/ビデオ拡張コネクタとして使用されてもよい。少なくとも1つの実施形態では、コネクタ706は、オーディオ及び/またはビデオコンテンツを頭部着用型デバイス、例えば、ヘッドセット及び/または一組のゴーグルなどに伝送するのに十分な帯域幅を有する。少なくとも1つの実施形態では、コネクタ706は、充電ポート及びデータコネクタの両方である。ある実施形態では、コネクタ706は、ユニバーサルシリアルバス(USB)コネクタまたはマイクロUSBコネクタである。ある実施形態では、コネクタ706は、データケーブル(例えば、USBケーブル)経由でコンピューティングデバイスに接続されてもよく、コントローラ100が局所的に接続されることを可能にすると同時に、制御コマンドは、無線通信の代わりにデータケーブル経由で伝送される。
図8は、2つのタッチ面を有するコントローラの別の実施形態のビュー800を示す。コントローラ800は、少なくとも1つのハウジング801、上面802、前方傾斜803、凹状領域804、親指ボタン805、補助ボタン806、尾端部808、及び先頭端部809を示す。他の実施形態では、コントローラ800は、列挙された要素もしくは特徴の全てを有さなくてもよいし、及び/あるいは列挙されたものに代えてまたはそれに加えて他の要素もしくは特徴を有してもよい。
図8は、タッチセンサにそれぞれ接続された、2つのタッチボタンのみを含むコントローラ800のビューを示す。少なくとも1つの実施形態では、コントローラ800は、人差しボタン106及び中央ボタン107が1つのボタンに併合されると同時に人差しタッチパッド及び中央タッチパッドが1つのタッチパッドに併合されるときに、別のバージョンのコントローラ100であり得る。少なくとも1つの実施形態では、コントローラ800は、対称性であり、かつ左手及び右手の両方に適合することができる。
ハウジング801、上面802、前方傾斜803、凹状領域804、親指ボタン805、及び尾端部808は、図1と関連して記述された、ハウジング101、上面102、前方傾斜103、凹状領域104、親指ボタン105、及び尾端部108と類似し得る。
補助ボタン806は、コントローラ800の先頭端部109上に位置する単一のボタンであり、コントローラ800がユーザの手に保持されるときに、そのボタン上に人差し及び中指が自然な体勢で休息する。ある実施形態では、補助ボタン806は、コントローラ100の人差しボタン106及び中央ボタン107の代わりとなる。少なくとも1つの実施形態では、高解像度タッチセンサは、補助ボタン806の頂部に接続され、それゆえ、補助タッチパッドとして機能する。少なくとも1つの実施形態では、補助タッチパッドは、人差し指及び中指の両方が補助タッチパッド上をクリックするまたは動くときに、マルチタッチ動作を検出するように構成される。
少なくとも1つの実施形態では、前方傾斜803の近くにある補助ボタン806及び補助タッチパッドの頂部部分は、それぞれ、人差しボタン106及び人差しタッチパッドに対応し、一方で、底面の近くにある補助ボタン806及び補助タッチパッドの底部分が、それぞれ、中央ボタン107及び中央タッチパッドに対応する。ある実施形態では、人差し指が、補助ボタン806の頂部部分をクリックし得、一方で、中指が、補助ボタン806の底部分をクリックし得る。少なくとも1つの実施形態では、補助ボタン806のどの部分がクリックされるかに従って、コントローラ800は、人差し指による左クリックまたは中指による右クリックのいずれかとしてクリックを解釈し得る。同様に、人差し指及び中指のいずれか1つもしくは両方での補助タッチパッド上のスクロールまたはスワイプ動作は、コントローラ100の人差しタッチパッド及び/または中央タッチパッド上のスクロールまたはスワイプ動作と同様の手法で解釈され得る。少なくとも1つの実施形態では、コントローラ800の2つのボタン/タッチパッド上及びコントローラ100の3つのボタン/タッチパッド上の指の動作は、同様の手法で制御コマンド及び命令を生成し得る。
先頭端部809は、コントローラ800がユーザの手に保持されるときに人差し指及び中指によって包まれ得るコントローラ800の端部である。ある実施形態では、先頭端部809は、コントローラ100の先頭端部109と同様の湾曲部及び/または形状を有する。補助ボタン806は、先頭端部809の前側に位置する。他の実施形態では、先頭809は、他の形状及び/またはサイズを有してもよい。
図9は、右手に保持されたコントローラ100の実施形態のビュー900を示す。ビュー900は、少なくとも、コントローラ100、上面102、前方傾斜103、親指ボタン105、人差しボタン106、中央ボタン107、尾端部108、及び先頭端部109を示す。ビュー900は、更に、親指902、人差し指903、中指904、薬指905、及び小指906を含む、右手901を示す。他の実施形態では、ビュー900は、列挙された要素もしくは特徴の全てを有さなくてもよいし、及び/あるいは列挙されたものに代えてまたはそれに加えて他の要素もしくは特徴を有してもよい。
図9は、ユーザの右手に保持されるコントローラ100のビュー900を示し、親指が親指ボタン105上で休息しており、人差し指及び中指がそれぞれ、人差しボタン106及び中央ボタン107と接触し、薬指及び小指が、凹状領域104の下を包んでいる。
ユーザが右利きである場合、右手901が、コントローラ100を保持する。あるいは、コントローラ100は、左利きのユーザによって彼の左手に保持されてもよい。少なくとも1つの実施形態では、右手901が、コントローラ100を空中で、膝の上で、またはユーザの体の近くのどこかで、保持し得る。少なくとも1つの実施形態では、右手901は、平坦面上でコントローラ100を動作させる必要はない。
右手901がコントローラ100を保持しているときに、親指902は、親指ボタン105と接触しており、一方で、人差し指903及び中指904は、それぞれ、自然な体勢で人差しボタン106及び中央ボタン107と接触している。親指ボタン105に対する親指902の運動の方向は、図2に関して定義された。人差しタッチパッド及び中央タッチパッド上での、それぞれ、人差し指903及び中指904の運動の方向は、以下のように図9に定義される。時計回り運動は、図9に示されるように、コントローラ100の左側から右側に向かって始まる時計回り方向における、人差しタッチパッド及び中央タッチパッドにそれぞれ沿った人差し指903ならびに中指904の運動として定義される。反時計回り運動は、図9に示されるように、コントローラ100の右側から左側に向かって始まる反時計回り方向における、人差し指903及び中指904の運動として定義される。上方運動は、上面102に向かって、人差しタッチパッド及び中央タッチパッドをそれぞれ横切る、人差し指903及び中指904の運動として定義される。下方運動は、底面402に向かって、人差しタッチパッド及び中央タッチパッドをそれぞれ横切る、人差し指903及び中指904の運動として定義される。
薬指905及び小指906は、支持のために凹状領域104の下を包む。
図10は、スクローリング動作を作動するためにコントローラ100を操作するユーザの実施例1000を示す。ビュー1000は、少なくとも、コントローラ100、上面102、前方傾斜103、親指ボタン105、人差しボタン106、中央ボタン107、尾端部108、右手901、親指902、人差し指903、中指904、薬指905、及び小指906を示す。ビュー1000はまた、矢印1002を示す。他の実施形態では、ビュー1000は、列挙された要素もしくは特徴の全てを有さなくてもよいし、及び/あるいは列挙されたものに代えてまたはそれに加えて他の要素もしくは特徴を有してもよい。
図10は、右手901の人差し指903が、人差しタッチパッドに沿ってスクロールしてスクローリング動作を作動させる、実施例1000を示す。図10に示されるように、人差し指902が時計回り方向において人差しタッチパッド上をスクロールするときに、ディスプレイ上の開かれたウェブページまたはドキュメントが、(例えば、伝統的な電気マウスのスクロールホイールまたはスクロールボール上のスクローリングダウンと同様に)下にスクロールされる。人差しタッチパッド上での反時計回りのスクローリング運動は、(例えば、伝統的な電気マウスのスクロールホイールまたはスクロールボール上のスクローリングアップと同様に)スクロールアップ動作を作動させる。
矢印1002は、人差し指903が人差しタッチパッド上でスクロールする方向を示す。図10は、コントローラ100が右手901に保持されるときに、時計回りのスクローリング運動が、スクロールダウン動作に対応し、一方で、反時計回りのスクローリング運動が、スクロールアップ動作に対応することを示す。別の実施形態では、ユーザが左手モードにおいて彼の左手を使用してコントローラ100を操作するときに、コントローラ100は、同様の動作を実現するような異なる構成を採用してもよい。例えば、スクローリングダウン動作を作動させるために、左人差し指が、反時計回り方向においてスクロールしてもよい。人差しタッチパッドに沿う左人差し指の時計回り運動は、スクロールアップ動作に対応し得る。ユーザは、セットアップメニューにおいて右手構成または左手構成のいずれかを選択することができる。少なくとも1つの実施形態では、右手モードにあるときに、ユーザが彼の左手を使用してコントローラ100を保持し、ボタンの右端部の近くの部分上で人差しボタン106及び中央ボタン107の両方をダブルクリックする場合、コントローラ100は、ユーザが左手モードに切り換えることを望むかどうかを尋ねるメッセージがディスプレイ上に自動的に促されるように命令してもよい。逆に右手モードの切り換えもまた同様である。
図11は、スワイプ動作を作動するためにコントローラ100を操作するユーザの実施例1100を示す。ビュー1100は、少なくとも、コントローラ100、上面102、前方傾斜103、親指ボタン105、人差しボタン106、中央ボタン107、尾端部108、右手901、親指902、人差し指903、中指904、薬指905、及び小指906を示す。ビュー1100はまた、矢印1102を示す。他の実施形態では、ビュー1100は、列挙された要素もしくは特徴の全てを有さなくてもよいし、及び/あるいは列挙されたものに代えてまたはそれに加えて他の要素もしくは特徴を有してもよい。
図11は、人差し指903が、人差しタッチパッドを横切ってスワイプして、スワイプ動作を作動させる、実施例1100を示す。
矢印1102は、スワイプ動作に対応する、人差し指903が人差しタッチパッドを横切ってスワイプする方向を示す。図11は、コントローラ100が右手901に保持されるときに、人差しタッチパッド上で上向きにスワイプすることが、左スワイプ動作(例えば、ディスプレイ上の開かれたウェブページまたはドキュメントが左にスワイプされる)に対応し、一方で、人差しタッチパッド上で下向きにスワイプすることが、右スワイプ動作に対応することを示す。ある実施形態では、左手モードにおいて、左の人差し指を使用して上向き及び下向きにスワイプすることが、それぞれ、左スワイプ及び右スワイプに対応する。
図12は、ズームアウト動作を作動するためにコントローラ100を操作するユーザの実施例1200を示す。ビュー1200は、少なくとも、コントローラ100、上面102、前方傾斜103、親指ボタン105、人差しボタン106、中央ボタン107、尾端部108、右手901、親指902、人差し指903、中指904、薬指905、及び小指906を示す。ビュー1200はまた、矢印1202及び1204を示す。他の実施形態では、ビュー1200は、列挙された要素もしくは特徴の全てを有さなくてもよいし、及び/あるいは列挙されたものに代えてまたはそれに加えて他の要素もしくは特徴を有してもよい。
図12は、親指タッチパッド及び人差しタッチパッドの両方が、ズームアウト動作を作動させるために同時に操作される、実施例1200を示す。
矢印1202は、親指902がコントローラ100の左上側に向かって親指タッチパッド上を動く方向を示す(コントローラに関する方向は、図2と関連して記述された)。矢印1204は、人差し指903が、コントローラ100の左側に向かって人差しタッチパッドに沿って動く方向を示す。少なくとも1つの実施形態では、(右手モードにおいて)親指902及び人差し指903が、それぞれ、矢印1202及び1204によって指示されるような方向に同時に動くときに、コントローラ100は、親指タッチパッド及び人差しタッチパッドによって検出される信号を組み合わせて、ズームアウト制御コマンドを生成して、ディスプレイ上に示される画像(例えば、ドキュメント、ウェブページ、またはマップの画像)をズームアウトし、それによって、画像の特徴のサイズを小さくする。
右手が図12(及び以下の図13)に描写されるが、左手の指はまた、左手モードにおいてズームアウト動作を作動するために、親指タッチパッド及び人差しタッチパッドを操作する(左手の親指が右上側に向かって動き、一方で、左手の人差し指が右側に向かって動く)ことができることを理解されたい。
図13は、ズームイン動作を作動するためにコントローラ100を操作するユーザの実施例1300を示す。ビュー1300は、少なくとも、コントローラ100、上面102、前方傾斜103、親指ボタン105、人差しボタン106、中央ボタン107、尾端部108、右手901、親指902、人差し指903、中指904、薬指905、及び小指906を示す。ビュー1300はまた、矢印1302及び1304を示す。他の実施形態では、ビュー1300は、列挙された要素もしくは特徴の全てを有さなくてもよいし、及び/あるいは列挙されたものに代えてまたはそれに加えて他の要素もしくは特徴を有してもよい。
図13は、親指タッチパッド及び人差しタッチパッドの両方が、ズームイン動作を作動するために同時に操作され、それによって、画像の特徴のサイズを大きくする、実施例1300を示す。
矢印1302は、親指902が、コントローラ100の右下側に向かって親指タッチパッド上を動く方向を示す。矢印1304は、人差し指903が、コントローラ100の右側に向かって人差しタッチパッドに沿って動く方向を示す。少なくとも1つの実施形態では、親指902及び人差し指903は、それぞれ、矢印1302及び1304によって指示されるような方向に同時に動くときに、ズームイン制御コマンドがコントローラ100によって生成され、ディスプレイ上に示される画像(例えば、ドキュメント、ウェブページ、またはマップの画像)をズームインする。少なくとも1つの実施形態では、コントローラ100を使用するズームアウト及びズームイン動作は、中指904の運動を要求しない。
左手モードにおいて、例えば、ズームイン動作を作動するために、左手の親指は左下側に向かって動き得、一方で、左手の人差し指は左側に向かって動き得る。
図14は、切り換え動作を作動するためにコントローラ100を操作するユーザの実施例1400を示す。ビュー1400は、少なくとも、コントローラ100、上面102、前方傾斜103、親指ボタン105、人差しボタン106、中央ボタン107、尾端部108、右手901、親指902、人差し指903、中指904、薬指905、及び小指906を示す。ビュー1400はまた、矢印1402を示す。他の実施形態では、ビュー1300は、列挙された要素もしくは特徴の全てを有さなくてもよいし、及び/あるいは列挙されたものに代えてまたはそれに加えて他の要素もしくは特徴を有してもよい。
図14は、人差しタッチパッド及び中央タッチパッドの両方上でのスワイプ動作がスイッチ動作を行うために組み合わされる、実施例1400を示す。
矢印1402は、人差し指903及び中指904の両方がスワイプされる方向を示す。スワイプ動作の間に、人差し指903及び中指904は、それぞれ、(人差しボタン106の上にある)人差しタッチパッド及び(中央ボタン107の上にある)中央タッチパッドを横切って同時にスワイプされる。少なくとも1つの実施形態では、人差し指903及び中指904の両方が前方傾斜103に向かってスワイプされるときに、コントローラ100が、コンピューティングデバイスまたはアプリケーションを制御して、選択されたコンテンツを前のコンテンツに切り換える(例えば、ブラウザ内で現在のウェブページから前のウェブページに切り換える、写真鑑賞アプリケーションにおいて現在の写真から前の写真に切り換える、プレゼンテーションアプリケーションにおいて前のスライドを示す等)。同様に、人差し指903及び中指904の両方を底面402に向かって同時にスワイプすることは、次のコンテンツへの切り換え動作をもたらす。別の実施例では、テキスト入力モードの間に、ソフトキーボードがディスプレイ上に表示されるときに、人差し指903及び中指904の両方でスワイプすることが、異なるソフトキーボード(例えば、英語または国際的な文字数字記号を有するキーボード、数字及び符号を表示するキーボード、特殊文字を表示するキーボード)間で迅速に切り換えることができる。
図15は、回転動作を作動するためにコントローラ100を操作するユーザの実施例1500を示す。ビュー1500は、少なくとも、コントローラ100、上面102、前方傾斜103、親指ボタン105、人差しボタン106、中央ボタン107、尾端部108、右手901、親指902、人差し指903、中指904、薬指905、及び小指906を示す。ビュー1500はまた、矢印1502及び矢印1504を示す。他の実施形態では、ビュー1500は、列挙された要素もしくは特徴の全てを有さなくてもよいし、及び/あるいは列挙されたものに代えてまたはそれに加えて他の要素もしくは特徴を有してもよい。
図15は、人差し指903及び中指904が、回転動作を作動させるために、それぞれ、人差しタッチパッド及び中央タッチパッドに沿って同時に逆方向に(例えば、一方が時計回り方向にまたは図15の右側に向かって、一方で、他方が反時計回り方向にまたは図15の左側に向かって)動かされる、実施例1500を示す。
矢印1502は、人差し指903が人差しタッチパッドに沿って左向きに動く方向を示す実線の矢印と、中指904が中央タッチパッドに沿って右向きに動く方向を示す破線の矢印と、を含む。少なくとも1つの実施形態では、人差し指903及び中指904が、それぞれ、矢印1502によって指示されるような方向に同時に動くときに、コントローラ100は、制御コマンドを生成して、ユーザインターフェースに表示される選択された対象をディスプレイに対して時計回り方向に回転させる。
矢印1504は、人差し指903が動く方向であって、右向きである方向を示す実線の矢印と、中指904が動いて、選択された対象の反時計回りの回転をもたらす方向であって、左向きである方向を示す破線の矢印と、を含む。換言すれば、少なくとも1つの実施形態、人差し指903及び中指904をそれぞれ、矢印1504によって指示されるような方向に同時に動かすことは、選択された対象をディスプレイに対して反時計回り方向に回転させる。
少なくとも1つの実施形態では、3次元(3D)モードにおいて、コントローラ100は、ボタン及び/またはタッチパッド上の指動作の様々な組み合わせを使用して、3D対象の運動及び配向を制御してもよい。例えば、ユーザは、人差し指903及び中指904を使用して、それぞれ、人差しボタン106及び中央ボタン107の両方をクリックして下に保持してもよく、その間に、3D視点を左、右、前、または後にそれぞれシフトするように、親指タッチパッド上で親指902を左、右、上、または下に動かしてもよい。別の実施例では、ユーザは、親指902を使用して、親指ボタン105を押し下げてもよく、その間に、3D視野角を増やすまたは減らすように、人差し指903及び中指904の両方をそれぞれ、人差しタッチパッド及び中央タッチパッドにわたって上向きまたは下向きにスワイプしてもよい。更に別の実施例では、ユーザは、親指902を使用して、親指ボタン105を押し下げてもよく、その間に、3D視野角を時計回りまたは反時計回り方向に回転するように、人差し指903及び中指904の両方をそれぞれ、人差しタッチパッド及び中央タッチパッドに沿って左向きまたは右向きに動かしてもよい。少なくとも1つの実施形態では、コントローラ100が動きセンサを装備しているときに、親指ボタン105を下に保持する間に、ユーザは、コントローラ100を同じ水平面上で左、右、前、または後に動かすことによって3D視点をシフトしてもよいし、コントローラ100を異なる水平面に対して持ち上げるまたは降ろすことによって視野角を変更してもよいし、及び/あるいはコントローラ100を同じ水平面内で回転することによって3D視野角を時計回りまたは反時計回りに回転してもよい。
少なくとも1つの実施形態では、3Dモードは、セットアップメニューにおいて作動されてもよい。少なくとも1つの実施形態では、コントローラ100は、コンピュータアプリケーション、例えば、限定するものではないが、Google Earth及びコンピュータ援用設計(CAD)ソフトウェアなどにおいて、3D対象またはビューを制御するために3Dモードにおける動作を使用してもよい。ある実施形態では、プレゼンテーションモードは、3Dモードがオンにあるときに自動的に非作動にされる。
図16は、右手901を使用してコントローラ100を操作するユーザの実施例1600を示す。ビュー1600は、少なくとも、コントローラ100、親指ボタン105、右手901、及び親指902を示す。ビュー1600はまた、カーソル1601、ディスプレイ1602、コンピューティングデバイス1604、ディスプレイ1605、ならびに座標フレーム1606及び1608を示す。他の実施形態では、ビュー1600は、列挙された要素もしくは特徴の全てを有さなくてもよいし、及び/あるいは列挙されたものに代えてまたはそれに加えて他の要素もしくは特徴を有してもよい。
図16は、ユーザが、コンピューティングデバイス及び別個のディスプレイを制御するために彼の右手901を使用してコントローラ100を操作する、実施例1600を示す。
カーソル1601は、ポインティングデバイスからの入力またはテキスト入力に応答して、コンピュータモニタまたは他の表示デバイス上に位置を指示するインジケータである。少なくとも1つの実施形態では、カーソル1601は、ポインタまたはマウスカーソルであってもよく、図16に示されるような矢印形状を有してもよい。別の実施形態では、カーソル1601は、点滅するテキストカーソルまたはキャレットであってもよい。少なくとも1つの実施形態では、カーソル1601の運動は、親指タッチパッド上の親指の運動及び/または全体としてコントローラ100の運動に対応する。少なくとも1つの実施形態では、親指タッチパッド上のシングルタップは、ディスプレイ上のカーソル1601を立ち上げるまたはそのカーソルの位置を定める。テキスト入力窓にあるとき、親指タッチパッド上のタップまたは人差しボタン106上のクリックは、テキストカーソルの位置を定める。
ディスプレイ1602は、表示デバイスまたはコンピューティングデバイスのモニタとは別個の表示デバイスである。ある実施形態では、ディスプレイ1602は、コンピューティングデバイスのモニタと比較して大きな画面を有する。ある実施形態では、ディスプレイ1602は、コンピューティングデバイスから離れた別の場所にある。ある実施形態では、ディスプレイ1602は、テレビの画面である。ある実施形態では、ディスプレイ1602は、コンピュータデバイスのモニタ上に表示されることが意図されるユーザインターフェースのビュー(例えば、Windowsをベースとしたシステムにおけるデスクトップビュー)がディスプレイ1602の上に映され得るように、ケーブル経由でまたは無線で、コンピューティングデバイスに接続されてもよい。少なくとも1つの実施形態では、ディスプレイ1602は、コンピューティングデバイス1604への無線接続を確立するために無線通信モジュールまたはハードウェア(例えば、ワイヤレスドングル)を必要としてもよい。少なくとも1つの実施形態では、ディスプレイ1602は、少なくとも1つの画面及びスピーカを含むテレビであってもよく、一方で、コンピューティングデバイス1604は、画像/ビデオコンテンツのみならずオーディオコンテンツを無線接続またはデータケーブルによって伝送する。画像/ビデオコンテンツは、テレビの画面上に表示されてもよく、オーディオコンテンツは、TVのスピーカ経由で再生されてもよい。
コンピューティングデバイス1604は、一組の算術または論理演算を自動的に実行するようにプログラムされ得るデバイスである。コンピューティングデバイス1604は、図16においてデスクトップコンピュータとして例示されるが、コンピューティングデバイス1604は、種々のコンピューティングデバイス、例えば、限定するものではないが、モバイルデバイス、ラップトップコンピュータ、タブレットコンピュータ、ワークステーション、ゲームコンソール、及びスマートホンなどを表わし得ることを理解されたい。少なくとも1つの実施形態では、コントローラ100は、コンピューティングデバイス1604と対にされ、制御モードにおけるコンピューティングデバイス1604上の動作を制御する。少なくとも1つの実施形態では、コンピューティングデバイス1604は、コントローラ100との無線接続を確立するために無線通信モジュールまたはハードウェア(例えば、ワイヤレスドングル)を必要としてもよい。少なくとも1つの実施形態では、コンピューティングデバイス1604は、ケーブルまたはワイヤ経由でコントローラ100と接続されてもよい。少なくとも1つの実施形態では、コンピューティングデバイス1604は、それ自体のディスプレイを含み、データケーブル経由でまたは無線で1つ以上の外部表示デバイスに接続され得る。
少なくとも1つの実施形態では、コントローラ100は、コンピューティングデバイス1604への無線接続を確立するために無線通信モジュールまたはハードウェアを含む。少なくとも1つの実施形態では、ユーザは、スイッチ404をオンにし得(図4)、コントローラ100の3つのボタン(例えば、親指ボタン105、人差しボタン106、及び中央ボタン107)の全てをクリックし得、3つのボタンの全てを1秒超にわたって下に保持し得、例えば、コンピューティングデバイス1604及び/または他のデバイスとの無線接続を確立するためのプロセスをトリガする。無線接続が一旦成功裏に確立されると、コントローラ100及び/またはコンピューティングデバイス1604のソフトウェアアプリケーションが自動的に作動され得、それによって、コントローラ100の検出される指の動作が、コンピューティングデバイス1604を制御することを可能にする。ある実施形態では、複数の表示デバイスは、オンであり得、コンピューティングデバイス1604に接続され得、コントローラ100をコンピューティングデバイスに接続するとすぐに、接続された表示デバイスのリストが、全ての接続された表示デバイス上に提示される。ユーザは、コンピューティングデバイス1604のユーザインターフェースを表示するために接続された表示デバイスのリストから少なくとも1つを選ぶことができる。ユーザがその表示デバイス及び/または興味のあるデバイスを選択した後、選択されなかった他の表示デバイスは、コンピューティングデバイス1604によって自動的にオフにされる(またはスリープモードに入る)。少なくとも1つの実施形態では、ユーザは、例えば、選択された表示デバイス上にタスクマネージャを呼び出すために(例えば、Windowsシステムにおける「Ctrl−Alt−Del」ショートカット動作と同様に)3つのボタンの全てを0.5秒超にわたって下に保持してもよい。ある実施形態では、ユーザが、例えば、3つのボタンの全てを1秒超にわたって下に保持する場合、ウィンドウは、ユーザがコントローラ100の制御セッションを閉じることを望むかまたはコンピューティングデバイス1604をオフにすることを望むかを尋ねようと促す。
ディスプレイ1605は、表示デバイスまたはコンピューティングデバイス1604のモニタである。ある実施形態では、ディスプレイ1605は、ユーザがコンピューティングデバイス1604とインタラクトするためのユーザインターフェースを表示する。少なくとも1つの実施形態では、コンピューティングデバイス1604のユーザインターフェースがディスプレイ1602上に表示されるときに、ディスプレイ1605は、ユーザインターフェースを同時に表示してもよいし、または表示しなくてもよい。
方向1606は、親指902が、コントローラ100の親指タッチパッド上で動き得る方向を示す。ある実施形態では、方向1606は、例えば、左(l)、右(r)、上(u)、及び下(d)などの方向を含む。少なくとも1つの実施形態では、方向1606は、図2に定義されたような方向に類似する。ある実施形態では、コントローラ100は、ユーザがコントローラ100を全体として保持して動かすときに、全体として方向1606に動き得る。
方向1608は、カーソル1601がディスプレイ1602上で動き得る方向を示す。ある実施形態では、方向1608が、例えば、左(l)、右(r)、上(u)、及び下(d)などの方向を含む。少なくとも1つの実施形態では、方向1608が、それぞれ、方向1606に対応し、親指タッチパッドに対する親指902の運動が、ディスプレイ1602に対するカーソル1601の運動に対応する。例えば、ユーザの親指902が左に向かって親指タッチパッドにわたって動くときに、ディスプレイ1602上のカーソル1601もまた、ディスプレイ1602に対して左に動く。ある実施形態では、親指タッチパッド上の親指902の運動の距離は、ディスプレイ1602上のカーソル1601の運動の距離に比例し得る。ある実施形態では、親指タッチパッド上の親指902の運動の速度が測定されて、ディスプレイ1602上のカーソル1601の変位の計算に取り入れられてもよい。例えば、親指902が親指タッチパッド上を速く動くほど、カーソル301がより遠くに移動し得る。
少なくとも1つの実施形態では、ユーザがコントローラ100を保持して動かすときに、コントローラ100は、コントローラ100の方向及び速度を検出するために、動きセンサ、例えば、加速度計及び/またはジャイロスコープなどを含んでもよい。少なくとも1つの実施形態では、コントローラ100の運動は、親指902の運動と組み合わせて、どのくらい遠くに及び/またはどのくらい速くカーソル1601が移動するかを決定する。例えば、ユーザは、左に向かってコントローラ100を軽く払うまたは動かし、かつ同時に親指902を左に動かしてもよい。結果として、カーソル1601は、親指902のみが動かされるときよりも更に左に動き得る。別の実施形態では、コントローラ100は、動きセンサ及び親指タッチパッドがカーソル1601の運動を独立して制御する、別の構成を採用してもよい。例えば、ユーザは、カーソル1601をディスプレイ1602上の所望の領域に迅速に再配置するようにコントローラ100を振って、次いで、カーソル1601の運動の微細な制御のために親指タッチパッド上で親指902を動かしてもよい。
少なくとも1つの実施形態では、コントローラ100は、コントローラ100の動作の間にコンピューティングデバイス1604及び/またはディスプレイ1602を指し示すことを要求されない。例えば、ユーザは、コントローラ100を彼の手に保持し得、彼の手をひざ上またはカウチのひじ掛け上に休息させ得、コントローラ100は横向きに向いて、ディスプレイ1602から離れた所を指し示す。カーソル1601の運動の方向は、親指タッチパッドに対する親指902の運動及び/またはコントローラ100の運動によって決定されるが、コントローラ100が指し示す方向によって影響を及ぼされ得ない。
少なくとも1つの実施形態では、ディスプレイ1602は、テレビの画面であり得、コントローラ100は、テレビモードにおいてテレビを遠隔から制御するために使用されてもよい。ある実施形態では、コントローラ100は、赤外線送信機を含み、TVの遠隔制御として機能することができる。ユーザは、セットアップメニューにおいてテレビモードを作動させてもよく、チャンネル切り換え、音量調整等のためにコントローラ100をテレビに向けている間にコントローラ100上で操作してもよい。少なくとも1つの実施形態では、コントローラ100は、ユーザが、人差しボタン106及び中央ボタン107を同時にクリックする間に親指ボタン105を下に保持するときに、様々なモード(例えば、制御モード、TVモード、プレゼンテーションモード)間でトグル操作するために使用されてもよい。ある実施形態では、光源502によって放出される光の色が、コントローラ100が入っているモードのインジケータとして機能する。少なくとも1つの実施形態では、TVが現在オフにされるときに、ユーザは、コントローラ100を使用してTVモードにトグル操作するかまたはTVモードを作動させ、次いで、例えば、TVをオンにするために、3つのボタンの全てを0.5秒超にわたって下に保持してもよい。TVをオフにするために、逆もまた同様である。少なくとも1つの実施形態では、コントローラ100は、テレビモードにおいてクリック及び/またはタッチ動作を制御コマンドに変換するための様々な設定を含んでもよい。例えば、チャンネルを切り換えるために、ユーザは、何の設定がユーザによって選択されるかに従って、親指ボタン105の頂部/底部分上をクリックしてもよいし、あるいは、親指902をメインタッチパッドにわたって左/右にスワイプする、または人差し指903を人差しタッチパッド上で上向き/下向きにスワイプする。ある実施例では、音量を上げる/下げるために、ユーザは、選択された設定に従って、親指ボタン105の右/左部分上をクリックしてもよいし、または親指902をメインタッチパッドにわたって上向き/下向きにスワイプしてもよいし、あるいは人差し指903を人差しタッチパッドに沿って、それぞれ、時計回り/反時計回り方向にスクロールする。更に別の実施例では、チャンネル番号を直接的に入力するために、ユーザは、人差しボタン106及び中央ボタン107の両方を下に保持し、その間に、親指902を使用して親指タッチパッド上に数字を書いてもよい。ユーザは、TVがこの数字を登録するまで待って、次いで、依然として2つのボタンを下に保持しながら次の数字を書いてもよい。ユーザは、全ての数字が入力されるまで、前述のステップを繰り返してもよい。あるいは、別の設定では、ユーザは、親指ボタンを下に保持し、コントローラ100を空中で動かしてチャンネル番号を空中で書いてもよく、コントローラ100の手書き認識ソフトウェアが、入力されたチャンネル番号を認識して、テレビの所望のチャンネルに切り換えてもよい。別の実施例では、通常のTVの遠隔制御上の使用頻度の低い機能(例えば、ガイド、メニュー、ミュート等)が、コントローラ100のボタン及び/またはタッチパッド上の指の動作の様々な組み合わせを使用して実現されてもよい。ある実施形態では、ユーザは、どの設定がテレビを制御するために使用されるかをセットアップメニューから選んでもよい。
少なくとも1つの実施形態では、コントローラ100は、ゲームモードにあるときにコンピューティングデバイス1604上でゲームコンソールまたはビデオゲームを制御するために使用されてもよい。ゲームモードは、セットアップメニューにおいて作動されてもよい。少なくとも1つの実施形態では、コントローラ100のボタン及び/またはタッチパッドは、ゲーム内の選択及び/またはナビゲーションのために使用されてもよい。少なくとも1つの実施形態では、コントローラ100の動きセンサは、ユーザが、ビデオゲームを制御するためにコントローラ100を振る及び/または回転させるときに、ユーザ入力の余剰次元を提供する。
少なくとも1つの実施形態では、コントローラ100は、メディア制御モードにおいてマルチメディアコンテンツのディスプレイを制御するために使用される。本明細書において、マルチメディアコンテンツは、限定するものではないが、テキスト、静止画像、アニメーション、ビデオ、オーディオ、及び/もしくは対話型コンテンツ形態を含むコンテンツ形態のいずれか、またはそれらの任意の組み合わせであり得る。メディア制御モードは、セットアップメニューにおいて、または再生するビデオもしくはオーディオファイルを選択することによって作動されてもよい。ある実施形態では、メディア制御モードにおいて、ユーザは、オーディオコンテンツの音量を上げるまたは下げるために、それぞれ、親指タッチパッド上で親指902を上向きまたは下向きに動かしてもよい。別の実施形態では、ユーザは、ビデオクリップを巻き戻すまたは早送りするために、それぞれ、親指タッチパッド上で親指902を反時計回りまたは時計回り方向に動かしてもよい。
図17は、左手を使用してコントローラ100を操作するユーザの実施例1700を示す。ビュー1700は、少なくとも、コントローラ100、親指ボタン105、カーソル1601、ディスプレイ1602、ならびに座標フレーム1606及び1608を示す。ビュー1700は、更に、左手1701、親指1702、人差し指1703、中指1704、薬指1705、及び小指1706を示す。他の実施形態では、ビュー1700は、列挙された要素もしくは特徴の全てを有さなくてもよいし、及び/あるいは列挙されたものに代えてまたはそれに加えて他の要素もしくは特徴を有してもよい。
図17は、ユーザが彼の左手を使用してコントローラ100を操作する、実施例1700を示す。
ユーザが左利きである場合、左手1701がコントローラ100を保持する。少なくとも1つの実施形態では、左手1701は、コントローラ100を平坦面上で動作させる必要がない。ある実施形態では、左手1701は、コントローラを保持して、カーソル1601が図16と関連して記述されたのと同様の手法でディスプレイ1602上を動く方向1608に対応する方向1606に動かす。
左手1701の親指1702は、左手1701がコントローラ100を保持しているときに自然な体勢で親指ボタン105と接触している。少なくとも1つの実施形態では、親指1702は、コマンドを入力するために親指ボタン105及び/または親指タッチパッド上で動作し得る。少なくとも1つの実施形態では、親指1702が方向1606に動いて、それに応じて、カーソル運動を図16と関連して記述されたのと同様の手法で制御する。
左手1701の人差し指1703及び中指1704は、左手1701がコントローラ100を保持しているときに自然な体勢で、それぞれ、人差しボタン106及び中央ボタン107と接触する。少なくとも1つの実施形態では、人差し指1703は、人差しボタン106及び/または人差しタッチパッド上で動作し得、一方で、中指1704は、中央ボタン107及び/または中央タッチパッド上で動作し得る。少なくとも1つの実施形態では、左手1701の人差し指1703及び中指1704は、図10〜15と関連して記述されたような手法で、それぞれ、人差しタッチパッド及び中央タッチパッドに沿って動いてもよいし、または人差しタッチパッド及び中央タッチパッドにわたってスワイプしてもよい。
薬指1705及び小指1706は、支持のために凹状領域104の下を包む。
図18は、様々な動作を行うように構成された親指タッチパッドの実施形態のビュー1800を示す。ビュー1800は、少なくとも、上面102、前方傾斜103、親指ボタン105、及び先頭端部109を示す。ビュー1800は、更に、左部分1801、頂部部分1802、右部分1803、底部分1804、及び中心部分1805を示す。他の実施形態では、ビュー1800は、列挙された要素もしくは特徴の全てを有さなくてもよいし、及び/あるいは列挙されたものに代えてまたはそれに加えて他の要素もしくは特徴を有してもよい。
図18は、ウェブページまたはマップを閲覧しているときに、コンピューティングデバイス1604を制御するために使用される親指タッチパッドのビュー1800を示す。少なくとも1つの実施形態では、ユーザがある画像を閲覧している(例えば、ウェブページ/ドキュメントを閲覧しているまたはマップを見ている)ときに、親指タッチパッド上のダブルタップは、親指タッチパッドのどの部分がタップされたかに従って、ディスプレイ1602または1605上に表示されるユーザインターフェースのコンテンツを再整列させる。
左部分1801は、左側の近くの親指タッチパッドの一部分である。ある実施形態では、左部分1801上のダブルタップは、(例えば、キーボード上でホームキーをクリックすることと同様に)ユーザをホームのページに戻す。別の実施形態では、左部分1801上のダブルタップは、画像(例えば、マップ)の焦点を左に動かす。
頂部部分1802は、前方傾斜103の近くの親指タッチパッドの一部分である。ある実施形態では、頂部部分1802上のダブルタップが、(例えば、キーボード上でページアップキーをクリックすることと同様に)ユーザを前のページに導く。別の実施形態では、頂部部分1802上のダブルタップが、画像(例えば、マップ)の焦点を上向きに動かす。
右部分1803は、右側の近くの親指タッチパッドの一部分である。ある実施形態では、右部分1803上のダブルタップは、(例えば、キーボード上で終了キーをクリックすることと同様に)ユーザをウェブページまたはドキュメントの終了に導く。別の実施形態では、右部分1803上のダブルタップは、マップの焦点を右に動かす。
底部分1804は、底側の近くの親指タッチパッドの一部分である。ある実施形態では、底部分1804上のダブルタップは、(例えば、キーボード上でページダウンをクリックすることと同様に)ユーザを次のページに導く。別の実施形態では、底部分1804上のダブルタップは、画像の焦点を下向きに動かす。
中心部分1805は、中心における親指タッチパッドの一部分である。ある実施形態では、中心部分1805上のダブルタップは、画像(例えば、ウェブページもしくはマップ)をディスプレイ1602または1605上のユーザインターフェース表示の中心に再整列させる。
図19は、テキスト入力モードの間に動作を行うように構成された親指ボタン105の実施形態のビュー1900を示す。ビュー1900は、少なくとも、上面102、前方傾斜103、親指ボタン105、及び先頭端部109を示す。ビュー1900は、更に、左部分1901、頂部部分1902、右部分1903、及び底部分1904を示す。他の実施形態では、ビュー1900は、列挙された要素もしくは特徴の全てを有さなくてもよいし、及び/あるいは列挙されたものに代えてまたはそれに加えて他の要素もしくは特徴を有してもよい。
図19は、テキスト入力モードの間にテキスト入力場所を制御する親指ボタン105のビュー1900を示す。図19は、親指ボタン105上のクリック動作が、テキスト入力モードの間に様々な矢印キー動作に変換され得ることを示す。
少なくとも1つの実施形態では、テキスト入力モードを作動させるために、ユーザは、テキスト入力領域の上でカーソル1601を再配置するように親指タッチパッド上で親指902動かし得、次いで、ユーザは、親指タッチパッド上でタップするまたは人差しボタン106をクリックして、テキスト入力領域内でテキストカーソルを強調し得、ソフトキーボードをディスプレイ1602または1605上に出現させる。ユーザは、更に、カーソル1601をソフトキーボード上の所望のキーの上で動かすように親指902を親指タッチパッド上で動かし得る。ある実施形態では、キーは、選択の後に、膨らむまたは強調されることになる。次いで、ユーザは、強調されたキーを選択するために人差しボタン106をクリックし得る。ある文字または数字が選択される場合、その文字/数字が、テキストカーソル1601の現在の場所に挿入される。ファンクションキーが選択される場合、対応する動作が作動される。例えば、ソフトキーボード上の「Caps Lock」キーが選択される場合、次の文字入力が大文字で書かれ得る。テキスト入力モードを非作動にするために、カーソル1601が、非入力領域の上に再配置され得、人差しボタン106がクリックされ、ソフトキーボードをディスプレイ1602または1605から見えなくさせる。少なくとも1つの実施形態では、ユーザは、(例えば、伝統的な電気マウスを使用する右クリックと同様に)カーソル1601の隣のコンテクストメニューを作動させるために中央ボタン107をクリックし得る。
左部分1901は、左側の近くの親指ボタン105の一部分である。テキスト入力モードの間に、左部分1901上をクリックすることは、(例えば、ソフトキーボードまたは実際のキーボード上で左矢印キーをクリックすることと同様に)カーソル1601を前のカーソル位置の左に動かす。少なくとも1つの実施形態では、親指ボタン105上の各シングルクリックは、テキストカーソル1601をただ1つの位置の距離(例えば、1つの文字によって占有される空間の距離)だけ動かす。
頂部部分1902は、前方傾斜103の近くの親指ボタン105の一部分である。テキスト入力モードの間に、頂部部分1902上でクリックすることが、(例えば、ソフトキーボードまたは実際のキーボード上で上矢印キーをクリックすることと同様に)カーソル1601を前のテキストラインまで上に動かす。
右部分1903は、右側の近くの親指ボタン105の一部分である。テキスト入力モードの間に、右部分1903上でクリックすることは、(例えば、ソフトキーボードまたは実際のキーボード上で右矢印キーをクリックすることと同様に)カーソル1601を前のカーソル位置の右に動かす。ある実施形態では、カーソル1601がテキストラインの終わりにあるときに、右部分1903をクリックすることは、カーソル1601を、利用可能な場合、次のテキストラインの始まりまで動かす。
底部分1904は、底側の近くの親指ボタン105の一部分である。テキスト入力モードの間に、底部分1904上でクリックすることは、(例えば、ソフトキーボードまたは実際のキーボード上で下矢印キーをクリックすることと同様に)カーソル1601を次のテキストラインまで下に動かす。
図20は、テキスト入力モードの間に動作を作動するように、人差しボタン106と組み合わせて、構成された親指ボタン105の実施形態のビュー2000を示す。ビュー2000は、少なくとも、前方傾斜103、親指ボタン105、及び先頭端部109を示す。ビュー2000は、更に、左部分2001、頂部部分2002、右部分2003、及び底部分2004を示す。他の実施形態では、ビュー2000は、列挙された要素もしくは特徴の全てを有さなくてもよいし、及び/あるいは列挙されたものに代えてまたはそれに加えて他の要素もしくは特徴を有してもよい。
図20は、人差しボタン106と組み合わせてテキスト入力を制御する親指ボタン105のビュー2000を示す。テキスト入力モードの間に、人差しボタン106を下に保持しながら親指ボタン105の様々な部分上でクリックすることは、テキストを操作すること及び/またはテキスト内をナビゲートすることに関連した様々なコマンドに変換され得る。
左部分2001は、左部分1901のある実施形態であり得る。ある実施形態では、人差しボタン106が押し下げられるときに左部分2001をクリックすることは、(例えば、ソフトキーボードまたは実際のキーボード上でバックスペースキーをクリックすることと同様に)カーソル1601の左のテキストを削除する。
頂部部分2002は、頂部部分1902のある実施形態であり得る。ある実施形態では、人差しボタン106が押し下げられるときに頂部部分2002をクリックすることは、(例えば、ソフトキーボードまたは実際のキーボード上で削除キーをクリックすることと同様に)カーソル1601の右のテキストを削除する。
右部分2003は、右部分1903のある実施形態であり得る。ある実施形態では、人差しボタン106が押し下げられるときに右部分2003をクリックすることは、(例えば、ソフトキーボードまたは実際のキーボード上でスペースキーを押圧することと同様に)1つのスペースを現在のテキストカーソル位置に挿入させる。
底部分2004は、底部分1904のある実施形態であり得る。ある実施形態では、人差しボタン106が押し下げられるときに底部分2004をクリックすることは、(例えば、ソフトキーボードまたは実際のキーボード上でリターンキーまたはエンターキーを押圧することと同様に)新しいラインを開始して、カーソル1601を新しいラインの始まりまで動かす。
図21は、手書きを認識する親指タッチパッドの実施形態のビュー2100を示す。ビュー2100は、少なくとも、文字2101、2102、2103、2104、2015、及び2106、ならびに親指タッチパッド2108を示す。他の実施形態では、ビュー2100は、列挙された要素もしくは特徴の全てを有さなくてもよいし、及び/あるいは列挙されたものに代えてまたはそれに加えて他の要素もしくは特徴を有してもよい。
図21は、コマンドを制御するためにコントローラ100によって変換される手書きを認識し得る親指タッチパッドのビュー2100を示す。図21は、親指タッチ上の手書き文字の実施例を示し、それは、人差しボタン106及び中央ボタン107の両方が下に保持されるときに、様々な「ショートカット」動作に変換され得る。
文字2101は、親指タッチパッド上で親指902によって書かれた文字「C」を示す。ある実施形態では、人差しボタン106及び中央ボタン107の両方を下に保持する間に文字2101を書くことは、(例えば、Windowsシステムにおけるキーボード上の「Ctrl−C」ショートカットと同様に)選択された内容をクリップボードにコピーさせる。
文字2102は、親指タッチパッド上で親指902によって書かれた文字「V」を示し、それは、人差しボタン106及び中央ボタン107の両方が押し下げられるときに、(例えば、Windowsシステムにおけるキーボード上の「Ctrl−V」ショートカットと同様に)クリップボードに記憶された内容をカーソル位置に貼り付ける。
文字2103は、親指タッチパッド上で親指902によって書かれた文字「Z」を示し、それは、人差しボタン106及び中央ボタン107の両方が押し下げられるときに、(例えば、Windowsシステムにおけるキーボード上の「Ctrl−Z」ショートカットと同様に)最後の動作を戻させる/アンドゥさせる。
文字2104は、親指タッチパッド上で親指902によって書かれた文字「S」を示し、それは、(例えば、Windowsシステムにおけるキーボード上の「Ctrl−S」ショートカットと同様に)人差しボタン106及び中央ボタン107の両方が押し下げられるときに、ドキュメント/ウェブページを保存させる。
文字2015は、親指タッチパッド上で親指902によって書かれた文字「A」を示し、それは、(例えば、Windowsシステムにおけるキーボード上の「Ctrl−A」ショートカットと同様に)人差しボタン106及び中央ボタン107の両方が押し下げられるときに、全内容を選択させる。
文字2106は、親指タッチパッド上で親指902によって書かれた文字「X」を示し、それは、人差しボタン106及び中央ボタン107の両方が押し下げられるときに、(例えば、Windowsシステムにおけるキーボード上の「Ctrl−X」ショートカットと同様に)選択された内容の切り取り及びクリップボードへの記憶をもたらす。
代替の実施形態では、単に文字を描くことまたはタッチパッド上に描くことが、同じ文字を使用するキーボードショートカットとして解釈されるか、またはある特定のモードにあるときに、単に文字を描くことが、描かれた文字と関連付けられた同じキーボードショートカットとして解釈され、そのため、例えば、Xを描くことが、「Ctrl−X」として解釈される。
多くの他の文字が、他の「ショートカット」動作を作動させるために使用され得ることを理解されたい。図21における矢印は、文字が描かれる方向を示す。あるいは、ユーザは、他の方向にまたは手書き文字/パターンが認識され得る別の手法を使用して書くことを選んでもよい。ある実施形態では、各文字入力が、異なるショートカット動作に対応してもよい。
親指タッチパッド2108は、図1と関連して記述されたように、親指ボタン105の上に接続される親指タッチパッドの実施形態であり得る。少なくとも1つの実施形態では、コントローラ100は、親指タッチパッド2108上で親指902によって直接的に描かれるキャラクタ、文字、形状、及び/または描いたものの手書きを認識し得る。テキスト入力モードの間に、ユーザは、ソフトキーボードまたは実際のキーボードを使用してテキストを入力することを選んでもよいし、または親指タッチパッド2108上で直接的に内容を書く/描くために(例えば、セットアップメニューから選択することによって)手書きモードを作動させてもよい。ある実施形態では、外国語が手書きモードの設定において選択されるときに、親指タッチパッド2108が、外国語キャラクタ(文字)の手書きを認識することができる。少なくとも1つの実施形態では、コントローラ100は、コントローラ100自体を空中で動かすことによって直接的に描かれるキャラクタ、文字、形状、及び/または描いたものの手書きを認識してもよい。
図22は、タッチスクリーンを備えた親指ボタン105の実施形態のビュー2200を示す。ビュー2200は、少なくとも、上面102、前方傾斜103、及び先頭端部109を示す。ビュー2200は、更に、タッチスクリーン2202及びキーパネル2204を示す。他の実施形態では、ビュー2200は、列挙された要素もしくは特徴の全てを有さなくてもよいし、及び/あるいは列挙されたものに代えてまたはそれに加えて他の要素もしくは特徴を有してもよい。
図22は、ユーザが直接的にインタラクトするための情報を表示することができるタッチスクリーンを備えた親指ボタン105のビュー2200を示す。ある実施形態では、親指ボタン105上の親指タッチパッドは、情報を表示しなくてもよい。
タッチスクリーン2202は、電子視覚ディスプレイの頂部上に層状にされた入力デバイスである。少なくとも1つの実施形態では、タッチスクリーン2202は、ユーザがタッチスクリーン2202をタッチすることによってインタラクトするための画像及び/または他のコンテンツを表示する。少なくとも1つの実施形態では、タッチスクリーン2202の表示機能は、指の運動を検出するタッチセンサとは独立して動作してもよい。例えば、タッチスクリーン2202のディスプレイは、常時、作動される必要はない。ある特定のモードでは、例えば、テレビモードなどでは、タッチスクリーン2202は、ユーザがチャンネル番号をタッチして入力するための数値パネルを表示してもよい。別の実施例では、Voice over IP(VoIP:ボイス・オーバー・アイピー)アプリケーションが作動されるとき、タッチスクリーン2202は、ユーザが電話番号をダイヤルしてインターネット上で電話をかけるための電話ダイヤル呼び出しパネルを表示してもよい。他の実施形態では、タッチスクリーン2202は、ユーザが選択及び/または入力するための他のキーパッド、ボタン、ならびに/あるいはコンテンツを表示してもよい。
キーパッド2204は、タッチスクリーン2202上に表示される一組のボタンまたはキーを含む。ユーザは、対応する番号/文字を選択するためにボタンまたはキーをタッチし得る。図22において電話機キーパッドとして示されるが、キーパッド2204のキーは、任意の種類の情報、例えば、限定するものではないが、数字、文字、記号、及び/または他のキャラクタなどを有してもよい。
図23は、ヘッドセットに接続されたコントローラ100の実施形態のビュー2300を示す。ビュー2300は、少なくとも、コントローラ100、右手901、ディスプレイ1602、コンピューティングデバイス1604、及びディスプレイ1605を示す。ビュー2300は、更に、ユーザ2301、ヘッドセット2302、及びケーブル2304を示す。他の実施形態では、ビュー2300は、列挙された要素もしくは特徴の全てを有さなくてもよいし、及び/あるいは列挙されたものに代えてまたはそれに加えて他の要素もしくは特徴を有してもよい。
図23は、ディスプレイ1602及びヘッドセットによって表示されるマルチメディアコンテンツを制御するコントローラ100の実施形態のビュー2300を示す。
ユーザ2301は、彼/彼女の家でコントローラ100を使用して様々なデバイスを制御し得る人間である。少なくとも1つの実施形態では、ユーザ2301は、異なるコンピューティング/電子デバイスとインタラクトするために家において異なる場所/部屋に歩く必要はないが、彼/彼女が望む場合は必ず立ち止まって、単一のコントローラ100を使用して複数のデバイスにアクセスすることができる。例えば、ユーザ2301は、居間のカウチに快適に座って、コンピューティングデバイス1604のユーザインターフェースを表示するフラットスクリーンTVのディスプレイ1602を観てもよいし、あるいはヘッドセット及び/または一組のゴーグルを装着してコンピューティングデバイス1604のユーザインターフェースを見てもよい。
ヘッドセット2302は、ユーザ2301の耳の近くの適所に保持されるように設計された一対の小型拡声器を含むデバイスであり、ユーザ2301が個人的に音源を聞くことを可能にする。ヘッドセット2302は、ダブルイヤホンまたはシングルイヤホンを含み得る。ある実施形態では、ヘッドセット2302は、ケーブル経由でコントローラ100に接続される。あるいは、ヘッドセット2302は、無線でコントローラ100及び/またはコンピューティングデバイス1604に接続されてもよい。少なくとも1つの実施形態では、オーディオデータは、コンピューティングデバイス1604からコントローラ100に伝送され、次いで、ヘッドセット2302によって再生されてもよい。あるいは、ヘッドセット2302は、コントローラ100のメモリシステム内に記憶されたオーディオデータを再生してもよい。ある実施形態では、ヘッドセット2302は、それ自体の音量制御を有してもよい。あるいはまたは更に、マルチメディアコンテンツの再生は、図16と関連して記述されたように、メディア制御モードにおいて、コントローラ100によって制御されてもよい。
少なくとも1つの実施形態では、ヘッドセット2302が、音声コマンドに変換され得る音声データを検出するためにマイクロホンを含む。あるいは、コントローラ100は、マイクロホンを装備していないヘッドホンまたはイヤホンに接続されてもよい。あるいはまたは更に、ユーザは、コントローラ100上に実装されたマイクロホン702経由で音声コマンドを入力してもよい。
ケーブル2304は、ヘッドセット2302をコントローラ100のコネクタ706に接続するために複数の電気ワイヤを含んでもよい。少なくとも1つの実施形態では、ケーブル2304は、再生されるオーディオデータをコントローラ100からヘッドセット2302に伝送し、及び/または音声データをヘッドセット2302からコントローラ100に伝送する。
図24は、一組のゴーグルに接続されたコントローラ100の実施形態のビュー2400を示す。ビュー2400は、少なくとも、コントローラ100、右手901、コンピューティングデバイス1604、ディスプレイ1605、及びユーザ2301を示す。ビュー2400は、更に、一組のゴーグル2402、ヘッドセット2403、及びケーブル2304を示す。他の実施形態では、ビュー2400は、列挙された要素もしくは特徴の全てを有さなくてもよいし、及び/あるいは列挙されたものに代えてまたはそれに加えて他の要素もしくは特徴を有してもよい。
図24は、マルチメディアコンテンツを表示するために一組のゴーグルに接続されるコントローラ100の実施形態のビュー2400を示す。
ゴーグル2402は、一組のゴーグル2402を装着しているときにユーザ2301によって見られる画像及び/またはビデオを表示するための表示デバイスとして機能するアイウェアの類のものである。少なくとも1つの実施形態では、一組のゴーグル2402は、ユーザ2301の顔の前に着用される及びグラフィカル画像を投影する1つまたは2つのディスプレイ画面の形態を取る。ある実施形態では、一組のゴーグル2402を着用しているときに、ユーザ2301は、2つの別個の画像、すなわち、脳が3次元(3D)画像を形成するように結合する、それぞれの目において1つの画像を見ることができる。一組のゴーグル2402は、仮想環境に特有の特徴である奥行きの錯覚を表示し得る。ある実施形態では、一組のゴーグル2402は、投影ゴーグルまたは一組の仮想現実(VR)ゴーグルである。ある実施形態では、一組のゴーグル2402は、ユーザ2301が、一組のゴーグル2402を着用しているときに画像及び/またはビデオを見てそれらとインタラクトすることを可能にする。少なくとも1つの実施形態では、一組のゴーグル2402は、ビデオディスプレイと共に動くようにオーディオデータを再生するための一体型ヘッドセットを含んでもよい。少なくとも1つの実施形態では、一組のゴーグル2402は、ケーブル経由でコントローラ100に接続される。あるいは、一組のゴーグル2402は、無線でコントローラ100及び/またはコンピューティングデバイス1604に接続されてもよい。少なくとも1つの実施形態では、コントローラ100または一組のゴーグル2402がコンピューティングシステム1604に通信可能に接続されるときに一組のゴーグル2402は、コンピューティングシステム1604のディスプレイ1605によって表示されることを意図されたユーザインターフェースを投影してもよい。ある実施形態では、一組のゴーグル2402は、バッテリによって電力を供給されるか、または組み込み型バッテリユニットと共に実装されてもよい。少なくとも1つの実施形態では、一組のゴーグル2402は、別個に充電されてもよい。あるいは、ゴーグル2402は、バッテリで動作される。
少なくとも1つの実施形態では、一組のゴーグル2402及びコントローラ100は、外部コンピュータ、例えば、コンピューティングシステム1604などに接続される必要なくして、独立したコンピューティングシステムを形成することができる。ユーザは、一組のゴーグル2402によって表示されるセットアップメニューまたはユーザインターフェースを見て、様々な動作を行うようにコントローラ100を構成してもよい。例えば、ユーザは、パーソナルコンピュータ(PC)上の操作と同様の手法で、ただし、より容易かつ柔軟に(例えば、ユーザ2301が、PCの前に座る代わりにカウチに横たわっていてもよい)、コントローラ100のメモリシステム内に記憶された音楽もしくはビデオコンテンツを再生するために、ドキュメントを編集するために、及び/または(コントローラ100がインターネットに接続されるときに)インターネットを閲覧するために、コントローラ100を使用して一組のゴーグル2402を制御してもよい。少なくとも1つの実施形態では、一組のゴーグル2402は、コントローラ100に接続される場合、コントローラ100のためのデフォルト表示デバイスとして構成される。一組のゴーグル2402は、コントローラ100が一旦オンにされたら、セットアップメニューまたはスタートメニューを表示してもよい。ある実施形態では、ユーザは、単純に、コントローラ100を使用して、一組のゴーグル2402経由で、表示されるセットアップメニューまたはスタートメニューから選択して、コンピューティングデバイス1604への接続を確立して、コンピューティングデバイス1604上の操作を開始することができる。あるいは、ユーザ2301は、図1と関連して記述されたように、3つのボタンの全てを同時に押し下げることによって、コントローラ100及びコンピューティングデバイス1604間の接続を確立してもよい。
ある実施形態では、一組のゴーグル2402は、一組のゴーグル2402を着用しているユーザ2301に個人的及び独占的にコンテンツ(例えば、ユーザインターフェース、ウェブページ、ドキュメント、画像、ビデオ等)を投影し、一方で、一組のゴーグル2402のヘッドセットは、ユーザ2301の耳に個人的にオーディオコンテンツを再生し、第三者が通信コンテンツを見たり聴いたりすることを防止する。それゆえ、ヘッドセットを備えるゴーグル2402の使用は、ユーザ2301のプライバシーを効果的に保護する。
ヘッドセット2403は、ヘッドセット2302が独立型のデバイスとして使用され得ることを除いて、ヘッドセット2302に類似し得、一方で、ヘッドセット2403は、一組のゴーグル2402に一体化されてもよいし、またはそれに接続されてもよい。ある実施形態では、一組のゴーグル2402及びヘッドセット2403は、互いに独立してもよいし、コントローラ100は、一組のゴーグル2402及びヘッドセット2403に個別に接続されてもよい。
ケーブル2404は、コントローラ100を一組のゴーグル2402及びヘッドセット2403に接続する。ケーブル2404は、ケーブル2404が、ビデオデータのみならずオーディオデータを一組のゴーグル2402及びヘッドセット2403に伝送することを除いて、ケーブル2304に類似し得、一方で、ケーブル2304は、オーディオデータ/音声データのみをヘッドセット2302に伝送する。少なくとも1つの実施形態では、コントローラ100は、無線接続によってコンピューティングデバイス1604からデータ(例えば、ユーザインターフェース、ビデオ、オーディオ)を受信し、次いで、コントローラ100は、ケーブル2404経由で受信データをゴーグル2402に伝送する。別の実施形態では、コントローラ100は、無線でゴーグル2402及び/または他の表示システムに接続されてもよいし、コントローラ100は、データをゴーグル2402に(及び/または表示のための他の表示システムに)伝送してもよい。
少なくとも1つの実施形態では、コントローラ100は、(例えば、一組のゴーグル2402経由でディスプレイ1602上の、もしくは他の表示デバイス上の)ディスプレイコンテンツ、例えば、ビデオまたは映画など、ならびに(例えば、ヘッドセット2403、もしくは他のスピーカ経由で)ビデオまたは映画のサウンドトラックを調整して、同期された表示効果を達成する。例えば、映画が途中で一時停止されると、コントローラ100は、ディスプレイ1602または一組のゴーグル2402上のビデオの表示を一時停止するように制御し、また、ヘッドセット2403またはスピーカ経由で音声の再生を停止するように制御する。ある実施形態では、ディスプレイ1602またはゴーグル2402上のディスプレイコンテンツは、オーディオコンテンツの再生とは独立してもよいし(例えば、ユーザは、音楽を聞いている間に異なるタスク間を切り換えてもよいし)、コントローラ100は、ディスプレイ1602/ゴーグル2402及びヘッドセット2403または他のスピーカを個別に制御してもよい。
図25は、コントローラ100によって直接的または間接的に制御され得る表示システムのブロック図2500を示す。ブロック図2500は、コントローラ100、コンピューティングデバイス2501、コンピュータディスプレイ2502、プロジェクタ2503、テレビディスプレイ2504、テレビ2504b、2503、及び一組のゴーグル2508を示す。他の実施形態では、ブロック図2500は、列挙された要素もしくは特徴の全てを有さなくてもよいし、及び/あるいは列挙されたものに代えてまたはそれに加えて他の要素もしくは特徴を有してもよい。
図25は、種々の異なる表示システムのために単一の表示プラットフォームを提供するコントローラ100のブロック図2500を示す。
コンピューティングデバイス2501及びコンピュータディスプレイ2502は、図16と関連して記述された、コンピューティングデバイス1604及びコンピューティングデバイス1604のディスプレイ1605の実施形態であり得る。少なくとも1つの実施形態では、図25のコンピュータディスプレイ2502及び他の表示システムは、ケーブル経由または無線で、コンピューティングデバイス2501に接続されてもよい。ある実施形態では、制御モードにおいて、コントローラ100が一旦コンピューティングデバイス2501に接続されると、コンピューティングデバイス2501は、それぞれ接続された表示システムに接続された表示システムの全てのリストを表示することを命令し得る。少なくとも1つの実施形態では、制御モードにおいて、表示システムは、表示システムのそれぞれが、接続された表示システムのリストを表示し得るように、コンピューティングデバイス2501上にある及びそれに接続される必要がある。ユーザ2301は、リストからある表示システムを選んで、彼/彼女に最も近いディスプレイを観ることによって見てもよい。例えば、ユーザ2301は、リストからテレビディスプレイを選択してもよく、次いで、コンピュータディスプレイ2502上のユーザインターフェースが、テレビディスプレイの上に専ら反映される。
プロジェクタ2503は、ある表面(例えば、投影画面)の上に画像またはビデオを投影する光学デバイスである。少なくとも1つの実施形態では、プロジェクタ2503は、ケーブル経由または無線で、コンピューティングデバイス2501に接続される。ある実施形態では、制御モードにおいて、コントローラ100は、投影画面上にコンピューティングデバイス2501のユーザインターフェースを投影するためにデータをプロジェクタ2503に送信するようにコンピューティングデバイス2501を制御する。
テレビディスプレイ2504aは、テレビの表示システムである。少なくとも1つの実施形態では、テレビディスプレイ2504aは、ケーブル経由または無線で、コンピューティングデバイス2501に接続され、コンピューティングデバイス2501は、テレビディスプレイ2504aの上にユーザインターフェースを反映する。
テレビ2504bは、限定するものではないが、電子テレビ、デジタルテレビ、フラットスクリーンTV、スマートTV、3DTV、ケーブルTV、衛星TV、及びウェブTV/インターネットTVを含む、任意の種類のテレビ(TV)であり得る。少なくとも1つの実施形態では、テレビ2504bは、少なくとも1つの画面(例えば、テレビディスプレイ2504a)及び1つ以上のスピーカを含む。少なくとも1つの実施形態では、テレビ2504bは、赤外線信号もしくは他の無線信号を伝送することができる遠隔コントローラまたはデバイスを使用して制御されてもよい。少なくとも1つの実施形態では、テレビ2504bは、TVモードにおいてコントローラ100によって制御され得、一方で、ユーザは、赤外線モジュールを有するコントローラ100をテレビ2504bの方へ向ける。ある実施形態では、テレビ2504bは、居間において、カウチまたは椅子の前に位置してもよい。少なくとも1つの実施形態では、コントローラ100は、(テレビモードにおいて)TVを観るまたは(制御モードにおいて)テレビディスプレイ2504a上にコンピューティングデバイス2501のユーザインターフェースを表示するようにテレビ2504bを制御する。
ゴーグル2508は、図24と関連して記述された、一組のゴーグル2402の実施形態である。ある実施形態では、ゴーグル2508は、少なくとも1つのデータケーブル経由で、コントローラ100に接続され、コントローラ100は、ユーザインターフェースを及び/コンピューティングデバイス2501から受信されるビデオコンテンツを表示のためにゴーグル2508に送信する。別の実施形態では、コントローラ100は、コントローラ100のメモリシステム内に記憶されるビデオコンテンツをゴーグル2508に送信する。任意選択的に、ゴーグル2508は、コンピューティングデバイス2502に無線接続されてもよいし、コンピューティングデバイス2501からデータを受信してもよい。
少なくとも1つの実施形態では、コントローラ100は、表示システム(例えば、ゴーグル2505、TVモードにおいてテレビ2504b)に直接的に接続され得、それらを制御する。別の実施形態では、コントローラ100は、コンピューティングデバイス1604に表示システム(例えば、制御モードにおけるテレビディスプレイ2504a、プロジェクタ)の上に画像/ビデオコンテンツを反映することを命令することによって、表示システム上でディスプレイコンテンツを間接的に操作してもよい。
図26は、図1のコントローラ100の実施形態のブロック図2600を示す。コントローラ100は、少なくとも1つのプロセッサシステム2602、送受信機2604、メモリシステム2606、電力管理2608、LED2610、赤外線2612、レーザ2614、ネットワーク制御2616、動きセンサ2618、親指タッチパッド2620、人差しタッチパッド2622、中央タッチパッド2624、親指ボタン2626、人差しボタン2628、中央ボタン2630、オーディオシステム2632、マイクロホン2634、スピーカ2636、及びビデオシステム2638を含む。他の実施形態では、ブロック図2600におけるシステムは、列挙された要素もしくは特徴の全てを有さなくてもよいし、及び/あるいは列挙されたものの代わりにまたはそれに加えて他の要素もしくは特徴を有してもよい。
図26は、コントローラ100における構成要素のブロック図2600を示す。
プロセッサシステム2602は、複数の並列プロセッサ、単一のプロセッサ、1つ以上の中央プロセッサを有するプロセッサのシステム、及び/または特定のタスクに専門の1つ以上の特殊プロセッサのうちのいずれか1つ、それらのうちのいくつか、それらの任意の組み合わせ、あるいはそれらの全てを含んでもよい。少なくとも1つの実施形態では、プロセッサシステム2602は、メモリシステム内に記憶された機械命令、例えば、入力情報を分析し、それに応じて様々な周辺装置を制御するためのソフトウェアなどを実装してもよい。少なくとも1つの実施形態では、プロセッサシステム2602は、コントローラ100のボタン、タッチパッド、動きセンサ、及び/またはマイクロホンから入力データを収集して分析し、その入力データを制御コマンドに変換してもよい。
送受信機2604は、送信機及び受信機の両方を含むデバイスである。少なくとも1つの実施形態では、送受信機2604は、少なくとも1つのアンテナを含む。少なくとも1つの実施形態では、送受信機2604は、信号を受信し、信号を外部デバイスに伝送する。あるいはまたは更に、コントローラ100は、別個の送信機及び受信機を含む。
メモリシステム2606は、例えば、ハードドライブなどのような長期記憶システム、ランダムアクセスメモリなどのような短期記憶システム、フロッピードライブもしくは取り外し可能なドライブなどのような取り外し可能な記憶システム、及び/またはフラッシュモリのうちのいずれか1つ、それらのうちのいくつか、それらの任意の組み合わせ、あるいはそれらの全てを含んでもよい。メモリシステム2606は、プロセッサ2602によってアクセス可能なキャッシュメモリを含んでもよい。メモリシステム2606は、種々の異なる種類の情報を記憶し得る1つ以上の機械可読媒体を含んでもよい。機械可読媒体という用語は、機械によって読み取り可能な情報を運ぶことができる任意の非一時的な媒体を言うために使用される。機械可読媒体の一実施例は、非一時的なコンピュータ可読媒体である。少なくとも1つの実施形態では、メモリシステム2606は、コンピューティングデバイス1604、テレビ2504b、プロジェクタ2503、ゴーグル2402/2508、及び/または他の電子デバイスと通信するためのソフトウェアを含んでもよい。メモリシステム2606におけるソフトウェアは、入力データに基づいて信号を伝送及び処理して制御命令を生成するための機械命令を含んでもよい。少なくとも1つの実施形態では、メモリシステム2606は、コントローラ100の様々な動作モードに関連した様々な設定及び/または構成を記憶してもよい。例えば、メモリシステム2606は、右手モード及び左手モードのための構成を含んでもよい。
電力管理2608は、電力状態及び/または消費を監視ならびに/あるいは管理するシステムである。少なくとも1つの実施形態では、電力管理2608は、光源502についての電力状態を記録及び更新して、電力状態の指示を表示する。少なくとも1つの実施形態では、電力管理2608は、異なる動作モードにあるときにコントローラ100の異なるモジュールへの電力供給を管理する。少なくとも1つの実施形態では、電力管理2608は、コントローラ100が非活動状態であるときに、電力をオフにするか、またはコントローラ100を低電力状態(例えば、遊休モード、スリープモード等)に切り換える。
光モジュール2610は、光源502を制御するように構成されたモジュールである。少なくとも1つの実施形態では、光モジュール2610は、光源502のオン及びオフ、照明される光源502の色、ならびに/またはパーセンテージを制御する。
赤外線モジュール2612は、赤外線放射のデジタル符号化されたパルスを生成及び伝送して、外部デバイス(例えば、テレビ2504b)を遠隔で制御するように構成されたモジュールである。少なくとも1つの実施形態では、赤外線モジュール2612の送信機は、コントローラ100の先頭端部109に組み込まれた発光ダイオード(LED)であってもよい。少なくとも1つの実施形態では、テレビモードにおいて、ユーザが赤外線モジュール2612の送信機をテレビ2504bの方へ向けるときに、赤外線モジュール2612は、遠隔で制御コマンドをテレビ2504bに送信し、機能及び/または設定、例えば、電力、音量、チャンネル等を制御する。少なくとも1つの実施形態では、赤外線モジュール2612はまた、無線信号を他の電子デバイス及び/またはコンピューティングデバイスに送信してもよい。
レーザモジュール2614は、図6と関連して記述された、レーザ602を制御するように構成されたモジュールである。ある実施形態では、レーザモジュール2614は、プレゼンテーションモードにおいてレーザ602を制御する及び/または作動させる。
ネットワーク制御2616は、コントローラ100と様々な電子デバイス及び/またはコンピューティングデバイスとの間のネットワーク通信を制御するシステムである。少なくとも1つの実施形態では、ネットワーク制御2616は、コントローラ100と外部デバイスとの間の無線及び/または有線接続を制御して管理する。ある実施形態では、ネットワーク制御2616は、モバイル通信ネットワーク、ローカルネットワーク、及び/またはインターネットと通信するためにネットワークインターフェースを含んでもよい。あるいはまたは更に、コントローラ100は、例えば、電気ケーブル、光ファイバケーブル、及び/または空気もしくは水によって信号を送信する手段(例えば、無線通信)のうちのいずれか1つ、それらのうちのいくつか、それらの任意の組み合わせ、あるいはそれらの全てを含んでもよい。空気によって信号を送信する手段のうちのいくつかの実施例は、例えば赤外線及び/または電波などの電磁波を伝送するためのシステム、ならびに/あるいは音波を送信するためのシステムを含む。
動きセンサ2618は、コントローラ100の運動及び/または回転を検出するために加速度計ならびに/あるいはジャイロスコープを含んでもよい。ある実施形態では、動きセンサ2618は、適切な加速の大きさ及び方向を検出し、それゆえ、コントローラ100の配向を検知するために、加速度計の単軸及び/または多軸モデルを含んでもよい。ある実施形態では、動きセンサは、コントローラ100の配向を判断してコントローラ100の回転運動を測定することに役立つために、地球の重力を使用するジャイロスコープを含んでもよい。
親指タッチパッド2620、人差しタッチパッド2622、及び人差しタッチパッド2624は、それぞれ、図1と関連して記述された、親指ボタン105、人差しボタン106、及び中央ボタン107の上に接続されるタッチセンサによって形成されるタッチパッドである。
親指ボタン2626、人差しボタン2628、及び中央ボタン2630は、それぞれ、図1と関連して記述された、親指ボタン105、人差しボタン106、及び中央ボタン107の実施形態であり得る。
オーディオシステム2632は、オーディオデータを受信、分析、管理、解釈、及び/または伝送するように構成されたシステムである。少なくとも1つの実施形態では、オーディオシステム2632は、コントローラ100のマイクロホン702またはヘッドセット2302のマイクロホンから音声データを受信し、次いで、プロセッサシステムは、発話認識及び自然言語理解アルゴリズムならびに方法を使用してそのデータを音声コマンドに変換する。少なくとも1つの実施形態では、オーディオシステム2632は、コンピューティングデバイス1604からオーディオデータを受信して、ヘッドセット2302/2502またはスピーカによって再生されるオーディオデータを伝送する。例えば、ユーザがコントローラ100を使用してコンピュータ1604上で映画またはオーディオファイルを開くとき、オーディオシステム2632は、コンピュータ1604からオーディオデータを受信し、ユーザ選択に従って、オーディオデータをテレビ2504bのスピーカ、またはヘッドセット2302/2502、またはコントローラ100のスピーカ704a〜bに伝送する。少なくとも1つの実施形態では、オーディオシステム2632は、オーディオデータの音量及び/またはチャンネルを制御し得る。
マイクロホン2634は、図7Aと関連して記述された、マイクロホン702の実施形態であり得る。少なくとも1つの実施形態では、マイクロホン2634は、ユーザから音声データを受信し、解釈され、かつ制御コマンドに変換される音声データをオーディオシステム2632に伝送する。
スピーカ2636は、図7Bと関連して記述された、スピーカ704a〜bの実施形態であり得る。少なくとも1つの実施形態では、スピーカ2636は、オーディオコンテンツ及び/またはシステム警告音及び/または通知着信音を再生してもよい。
ビデオシステム2638は、ビデオデータを受信、制御、管理、及び/または伝送するように構成されたシステムである。少なくとも1つの実施形態では、ビデオシステム2638は、コンピューティングデバイス1604からビデオデータを受信し、選択された表示システムによって再生されるビデオデータを伝送する。例えば、ユーザがコントローラ100を使用してコンピュータ1604上で映画またはビデオファイルを開くとき、ビデオシステム2638は、コンピュータ1604からビデオデータを受信し、ビデオデータをディスプレイ1602または一組のゴーグル2402に伝送して、映画またはビデオファイルを再生する。
使用方法
図27Aは、ユーザ入力を受信するためにコントローラ100を使用する方法2700aの実施形態のフローチャートである。
ステップ2702では、コントローラ100は、音声データがマイクロホン702によって受信されるかどうかを判断する。音声データが受信される場合、方法2700aは、ステップ2704に進む。そうではない場合、方法2700aは、ステップ2708に進む。
ステップ2704では、マイクロホン702は、受信された音声データをオーディオシステム2632に送信する。
ステップ2706では、オーディオシステム2632は、発話認識及び相互関係アルゴリズムならびに方法を使用して、受信された音声データを分析及び解釈し、音声コマンドを生成する。
ステップ2708では、コントローラ100は、動きセンサ2618からの信号が事前設定された閾値を上回るかどうかを判断する。信号が閾値を上回る場合、方法2700aは、ステップ2710に進む。信号が閾値を下回る場合、方法2700aは、ステップ2712に進む。
ステップ2710では、動きセンサ2618によって検出された信号が閾値を上回る場合、プロセッサシステム2602は、信号を分析して、運動の配向及び/または回転に関連するパラメータに変換する。ステップ2710の一部として、プロセッサシステム2602は、信号をカーソル運動に変換する。
ステップ2712では、親指タッチパッド2620、人差しタッチパッド2622、及び中央タッチパッド2624は、タッチ動作が検出されるかどうかを判断する。タッチ動作が受信される場合、方法2700aは、ステップ2714に進む。そうではない場合、方法2700aは、ステップ2716に進む。
ステップ2714では、プロセッサシステム2602は、各タッチ動作信号を対応するタッチパッドに対して登録する。ある実施形態では、単一のジェスチャ(例えば、シングルタップ)が、1つのタッチパッド上に記録される。別の実施形態では、2つタップ動作が、同じタッチパッド上で連続的に記録される(例えば、親指タッチパッド2620上のダブルタップ)。更なる別の実施形態では、2つジェスチャが、(例えば、ズームイン動作において)2つ異なるタッチパッド上で同時に検出される。
ステップ2716では、親指ボタン2626、人差しボタン2628、及び中央ボタン2630は、クリック動作が受信されるかどうかを判断する。クリック動作が受信される場合、方法2700aは、ステップ2718に進む。そうではない場合、方法2700aは、ステップ2720に進む。
ステップ2718では、クリック動作が受信される場合、プロセッサシステム2602は、各クリック動作信号を対応するボタンに対して登録する。ある実施形態では、1つのボタン上のシングルクリックが、コマンドとして解釈される。別の実施形態では、ボタンがある期間にわたって押し下げられることを指示する長期信号が、別のコマンドとして解釈される。別の実施形態では、同じボタン上の2つ連続するクリックが、別のコマンド(例えば、人差しボタン2628上のダブルクリック)として解釈される。ある実施形態では、異なるボタン上のコマンドが、同時に受信される。少なくとも1つの実施形態では、ステップ2712及び2716が、同時に行われ、タッチ動作及びクリック動作が、同時に検出され得る。例えば、人差しボタン2628が下に保持され、その間に、親指が親指タッチパッド2620上でスワイプされるかまたは文字「C」を書いている。
ステップ2720では、プロセッサシステム2602は、記録された音声コマンド、カーソル運動、タッチ動作、及び/またはクリック動作を組み合わせて、制御コマンドを生成する。少なくとも1つの実施形態では、コントローラ100の動作モードに従って、プロセッサシステム2602は、入力信号を制御コマンドに変換する(あるモードでは、ある特定の信号が1つのコマンドとして解釈され得るが、一方で、別のモードでは、同じ信号が別のコマンドとして解釈される)。
ある実施形態では、方法2700aのステップのそれぞれが、別個のステップである。別の実施形態では、図27Aでは別個のステップとして描写されるが、ステップ2702〜2720は、別個のステップでなくてもよい。他の実施形態では、方法2700aは、上記ステップの全てを有さなくてもよいし、及び/あるいは列挙されたものに加えてまたはその代わりに他のステップを有してもよい。方法2700aのステップは、別の順序で行われてもよい。
図27Bは、様々なモードにおいてコントローラ100を使用する方法2700bの実施形態のフローチャートである。
ステップ2722では、プロセッサシステム2602は、コントローラ100がどの動作モードにあるかを判断及び/または記録する。ある実施形態では、図27Aのステップ2722及びステップ2720が、1つのステップに併合されてもよい。
ステップ2724では、コントローラ100がTVモードにあると判断される場合、プロセッサシステム2602は、制御コマンドを赤外線モジュール2612に送信する。ステップ2724の一部として、赤外線モジュール2612は、無線信号を送信して、テレビ2504bを制御する。
ステップ2726では、コントローラ100がプレゼンテーションモードにあると判断される場合、プロセッサシステム2602は、制御コマンドをレーザモジュール2614に送信するのみならず制御コマンドをコンピューティングデバイス1604に送信して、選択された表示デバイス上に画像またはプレゼンテーションスライドを表示する。ステップ2726の一部として、レーザモジュール2614は、ユーザコマンドに基づいてレーザ602を作動させる。
ステップ2728では、コントローラ100が制御モードにあると判断される場合、プロセッサシステム2602は、更に、コントローラ100がコンピューティングデバイス1604または他のデバイスに局所的に接続されるかどうかを判断する。コントローラ100をコンピューティングデバイス1604または他のデバイスに接続する際にデータケーブルが検出されない場合、方法2700bは、ステップ2730に進む。コントローラ100をコンピューティングデバイス1604または他のデバイスに接続するデータケーブルが検出される場合、方法2700bは、ステップ2732に進む。ステップ2728の一部として、データケーブルが検出されようが、無線接続が確立される。
ステップ2730では、送受信機2604は、無線で制御コマンドをコンピューティングデバイス1604または他のデバイス(例えば、一組のゴーグル2402、ヘッドセット2302)に伝送する。
ステップ2732では、コントローラ100は、ケーブル経由で制御コマンドをコンピューティングデバイス1604または他のデバイスに伝送する。少なくとも1つの実施形態では、コントローラ100が、無線で1つのデバイスと通信し、かつケーブル経由で別のデバイスと通信してもよく、それによって、ステップ2730及び2732が同時に行われてもよい。例えば、コントローラ100は、ディスプレイ1602及び/または一組のゴーグル2402上にユーザインターフェースを表示するようにコンピューティングデバイス1604を制御してもよく、その間に、コントローラ100は、ケーブル経由でオーディオデータをヘッドセット2302/2403に伝送してもよい。
ステップ2734では、コントローラ100は、コントローラモード、電力状態、及びエラー状態についてのデータを記録する。
ステップ2736では、コントローラ100は、コントローラモード、電力状態、及びエラー状態についてのデータを光モジュール2610に送信する。ステップ2736の一部として、光モジュール2610またはプロセッサシステム2602は、受信されたデータを分析し、受信されたデータに基づいて制御命令を生成する。ステップ2736の一部として、光モジュール2610またはプロセッサシステム2602は、制御命令を光源502に送信する。
ステップ2738では、光源502は、制御命令を受信して、コントローラモード、電力状態、及びエラー状態をユーザに指示するために光指示を表示する。
ある実施形態では、方法2700bのステップのそれぞれが、別個のステップである。別の実施形態では、図27Bにおいて別個のステップとして描写されるが、ステップ2722〜2738は、別個のステップでなくてもよい。他の実施形態では、方法2700bは、上記ステップの全てを有さなくてもよいし、及び/あるいは上記したものに加えてまたはその代わりに他のステップを有してもよい。方法2700bのステップは、別の順序で行われてもよい。
図27Cは、ビデオを表示する及び/またはオーディオデータを再生するためにコントローラ100を使用する方法2700cの実施形態のフローチャートである。
ステップ2740では、コントローラ100は、ビデオデータが受信されるかどうかを判断する。ビデオデータが受信される場合、方法2700cは、ステップ2742に進む。そうではない場合、方法2700cは、ステップ2746に進む。
ステップ2742では、コントローラ100は、ビデオデータを処理のためにビデオシステム2638に送信する。ステップ2724の一部として、ビデオシステム2638は、ユーザによって選択される表示システム(例えば、ディスプレイ1602、一組のゴーグル2402、コンピューティングデバイス1604のディスプレイ1605、プロジェクタ2503)により再生され得る互換性のある形式にビデオデータを変換する。
ステップ2744では、コントローラ100は、ビデオデータをユーザによって選択されるディスプレイに送信する。
ステップ2746では、コントローラ100は、オーディオデータが受信されるかどうかを判断する。オーディオデータが受信される場合、方法2700cは、ステップ2748に進む。そうではない場合、方法2700cは終了する。
ステップ2748では、コントローラ100は、オーディオデータを処理のためにオーディオシステム2632に送信する。ステップ2728の一部として、オーディオシステム2632は、オーディオデータを処理して、及び/またはユーザによって選択されるスピーカ(例えば、コントローラ100のスピーカ704a〜b、テレビ1603のスピーカ、ヘッドセット2302のスピーカ、コンピューティングデバイス1604に接続されるスピーカ)により再生され得る互換性のある形式に変換する。
ステップ2750では、コントローラ100は、オーディオデータを、ユーザによって選択されるスピーカに送信する。
ある実施形態では、方法2700cのステップのそれぞれが、別個のステップである。別の実施形態では、図27Cにおいて別個のステップとして描写されるが、ステップ2740〜2750は、別個のステップでなくてもよい。他の実施形態では、方法2700cは、上記ステップの全てを有さなくてもよいし、及び/あるいは上記したものに加えてまたはその代わりに他のステップを有してもよい。方法2700cのステップは、別の順序で行われてもよい。
少なくとも1つの実施形態では、コントローラ100は、方法2700cを使用してマルチメディアコンテンツを再生するようにディスプレイ及び/またはスピーカを制御し、一方で、その再生の間に方法2700aを使用してユーザコマンドを入力(例えば、音量、一時停止、再生、早送り等を制御)してもよい。入力されたユーザコマンドは、方法2700bに描写されたように、様々なモードにおいて送出され得る。
組み立て方法
図28は、コントローラ100を組み立てる方法2800の実施形態のフローチャートである。
ステップ2802では、ハウジング101の底部分及び上部部分、親指ボタン105、人差しボタン106、中央ボタン107、回路基板、動きセンサ2618、スピーカ704a〜b、マイクロホン702、光源502、スイッチ404、送受信機2604、コネクタ706、レーザ602、ならびに/またはバッテリホルダが形成される。ある実施形態では、ハウジング101は、上部部分によって覆われる底部分を含んでもよい。上部部分は、少なくとも、上部表面102及び前方傾斜103を含み得る。底部分は、ハウジング101の残りを含む。カバーが容器に適合するのと同様に、上部部分は底部分に適合する。
ステップ2804では、タッチセンサは、親指ボタン105、人差しボタン106、及び中央ボタン107の頂部に接続され、それぞれ、親指タッチパッド2620、人差しタッチパッド2622、及び人差しタッチパッド2624を形成する。
ステップ2806では、人差しボタン106及び中央ボタン107は、先頭端部109において、ハウジング101の底部分に接続される。ステップ2806の一部として、人差しボタン106及び中央ボタン107は、それぞれ、2つのボタンスイッチに接続される。
ステップ2808では、スピーカ704a〜b及びコネクタ706は、尾端部108において、ハウジング101の底部分に接続される。ステップ2808の一部として、スイッチ404は、ハウジング101の底部分に接続される。ステップ2808の一部として、動きセンサ2618及び送受信機2604は、ハウジング101の底部分に取り付けられる。
ステップ2810では、組み込み型の再充電可能なバッテリが、ハウジング101の底部分内に取り付けられる。任意選択的に、代替案として、バッテリホルダは、ハウジング101の底部分内に接続されてもよい。ある実施形態では、ハウジング101内のバッテリホルダが、バッテリから、電気をコントローラ100のシステムの残りに適したものにフォーマルする(例えば、その電圧、電流、及び/または周波数を変換する)電力供給/アダプタシステムまでのリード線を含んでもよい。ステップ2810において任意選択的に、バッテリ(複数のバッテリ)は、電気をコントローラ100に供給するためにバッテリホルダの内側に配置される。あるいは、バッテリは、製造の間に及び/または販売のために実装されなくてもよく、ユーザは、コントローラ100を使用して開始する前にバッテリを挿入してもよい。
ステップ2812では、回路基板は、ハウジング101の底部分の内側に取り付けられる。ステップ2812の一部として、回路基板は、ワイヤ経由で、人差しボタン106及び中央ボタン107にそれぞれ接続されるボタンスイッチ及びタッチセンサ、スイッチ404、組み込み型バッテリ、動きセンサ2618、送受信機2604、スピーカ704a〜b、ならびにコネクタ706に接続される。
ステップ2814では、光源502が、先頭端部109の近くの、ハウジング101の上部部分の上面102上に取り付けられる。
ステップ2816では、親指ボタン105は、光源502の内側において、ハウジング101の上部部分に接続される。あるいは、ボタンは、最初に、ハウジング101に接続されてもよく、次いで、タッチセンサが、ボタンの頂部に取り付けられてもよい。ステップ2816の一部として、親指ボタン105は、ボタンスイッチに接続される。あるいは、その代わりに、親指ボタン105のためのボタンスイッチが、ハウジング101の底部分に接続されてもよい。
ステップ2818では、マイクロホン702は、尾端部108の近くの、ハウジング101の上部部分に接続される。ステップ2818の一部として、レーザ602は、ハウジング101の上部部分上で前方傾斜103に接続される。
ステップ2820では、回路基板は、ワイヤ経由で、光源502、親指ボタン105のタッチセンサ及びボタンスイッチ、マイクロホン702、ならびにレーザ602に接続される。
ステップ2822では、ハウジング101の上部部分は、ハウジング101の底部分に接続される。ステップ2822の一部として任意選択的に、上部部分は、ハウジング101の2つの部分を一緒に永久的に接続するようにハウジング101の底部分に接着される。
ある実施形態では、方法2800のステップのそれぞれが、別個のステップである。別の実施形態では、図28において別個のステップとして描写されるが、ステップ2802〜2822は、別個のステップでなくてもよい。他の実施形態では、方法2800は、上記ステップの全てを有さなくてもよく、及び/あるいは上記したものに加えてまたはその代わりに他のステップを有してもよい。方法2800のステップは、別の順序で行われてもよい。
図29は、図1のコントローラ100の実施形態の断面側面図(ビュー)2900を示す。ビュー2900におけるデバイスは、少なくとも1つのハウジング2901、上面2902、前方傾斜2903、凹状領域2904、親指ボタン2905、人差しボタン2906、中央ボタン2907、尾端部2908、先頭端部2909、ラック2910、親指ボタンバー2911、旋回軸2912、人差しボタンバー2913、旋回軸2914、中央ボタンバー2915、旋回軸2916、ボタンスイッチ2917、2918、及び2919、回路2920、支持構造2922、光源2930、親指タッチパッド2931、人差しタッチパッド2932、ならびに中央タッチパッド2933を含む。他の実施形態では、ビュー2900におけるデバイスは、列挙された要素もしくは特徴の全てを有さなくてもよいし、及び/あるいは列挙されたものに代えてまたはそれに加えて他の要素もしくは特徴を有してもよい。
図29は、内部機械及び電気構成要素を実証する、コントローラ100の実施形態の断面側面図2900を示す。
ハウジング2901、上面2902、前方傾斜2903、凹状領域2904、親指ボタン2905、人差しボタン2906、中央ボタン2907、尾端部2908、及び先頭端部2909は、図1と関連して記述された、ハウジング101、上面102、前方傾斜103、凹状領域104、親指ボタン105、人差しボタン106、中央ボタン107、尾端部108、及び先頭端部109の実施形態である。光源2930は、図5と関連して記述された、光源502の実施形態である。少なくとも1つの実施形態では、タッチセンサは、本明細書全体を通して記述された手法で、指の運動及び/またはジェスチャを検出するためのタッチパッドを形成するために、それぞれ、親指ボタン2905、人差しボタン2906、中央ボタン2907上に接続される。
ラック2910は、先頭端部2909の近くの、ハウジング2901の内側に固定される構造である。少なくとも1つの実施形態では、ラック2910は、上面2902に垂直である。少なくとも1つの実施形態では、ラック2910は、先頭端部2909の底においてハウジング2901の内面に取り付けられる。あるいはまたは更に、ラック2910は、人差しボタン2906と中央ボタン2907の間においてハウジング2901の一部分に、及び/またはハウジング2901の内側から前方傾斜2903に接続される。少なくとも1つの実施形態では、ラック2910は、親指ボタン2905、人差しボタン2906、及び/または中央ボタン2907のボタンスイッチを支持する。他の実施形態では、ラック2910は、他の形状及び/または構造を含んでもよい。
親指ボタンバー2911は、親指ボタン2905の底側に一端部上で接続され、他方端部が、上面2902の内側に枢動可能に接続される。ある実施形態では、親指ボタン2905が押される(及び解放される)ときに、親指ボタン2905及び親指ボタンバー2911は、ボタンスイッチを作動させる(及び非作動にさせる)ように枢動し、それは、回路を閉じ得るまたは開き得、それによって、親指ボタン2905が押下されたときを指示する。
旋回軸2912は、親指ボタンバー2911及び突起部をハウジング2901の内部表面上に一緒に保持する旋回軸である。旋回軸2912は、親指ボタンバー2911が、旋回軸2912の周りに回転することを可能にし、一方で、一端部は、ハウジング2901に取り付けられる。少なくとも1つの実施形態では、旋回軸2912は、バネで負荷をかけられ、ユーザが親指ボタン2905をクリックするまで、押されていない位置にとどまるように親指ボタン2905を付勢する。
人差しボタンバー2913は、人差しボタン2906の内側に一端部上で接続され、他方の端部は、前方傾斜2903の近くのラック2910の一部分に枢動可能に接続される。あるいは、人差しボタンバー2910は、前方傾斜2903の近くのハウジング2901の内側の突起部に枢動可能に接続される。ある実施形態では、人差しボタン2906が押される(及び解放される)ときに、人差しボタン2906及び人差しボタンバー2913は、ボタンスイッチを作動させる(及び非作動にさせる)ように枢動し、それは、回路を閉じ得るまたは開き得、それによって、人差しボタン2906が押下されたときを指示する。
旋回軸2914は、人差しボタンバー2913及びラック2910を一緒に保持する旋回軸である。旋回軸2914は、人差しボタンバー2913が、旋回軸2914の周りに回転することを可能にし、一方で、一端部は、ラック2910に取り付けられる。少なくとも1つの実施形態では、旋回軸2914は、バネで負荷をかけられ、ユーザが人差しボタン2906をクリックするまで、押されない位置にとどまるように人差しボタン2906を付勢する。
中央ボタンバー2915は、中央ボタン2907の内側に一端部上で接続され、他方の端部は、先頭2909の底においてハウジング2901の内側の突起部に枢動可能に接続される。あるいは、中央ボタンバー2915は、ラック2910に枢動可能に接続されてもよい。ある実施形態では、中央ボタン2907が押される(及び解放される)ときに、中央ボタン2907及び中央ボタンバー2915は、ボタンスイッチを作動させる(及び非作動にさせる)ように枢動し、それは、回路を閉じ得るまたは開き得、そのことは、中央ボタン2907が押下されたときを指示する。
旋回軸2916は、中央ボタンバー2915及びハウジング2901の突起部を一緒に保持する旋回軸である。旋回軸2916は、中央ボタンバー2915が旋回軸2916の周りに回転することを可能にし、一方で、一端部は、ハウジング2901に取り付けられる。少なくとも1つの実施形態では、旋回軸2916は、バネで負荷をかけられ、ユーザが中央ボタン2907をクリックするまで、押されていない位置にとどまるように中央ボタン2907を付勢する。
ボタンスイッチ2917、2918、及び2919は、それぞれ、親指ボタン2905、人差しボタン2906、及び中央ボタン2907上のクリック動作を検出する電気スイッチまたは検知デバイスである。少なくとも1つの実施形態では、ボタンスイッチ2917、2918、及び2919は、マイクロスイッチである。ある実施形態では、ボタンスイッチ2917は、親指ボタン2905の底側に接続され、親指ボタン2905がクリックされるまたは下に保持されるときに作動される。ある実施形態では、ボタンスイッチ2918及び2919は、それぞれ、人差しボタン2906及び中央ボタン2907の内側に接続され、人差しボタン2906及び中央ボタン2907がそれぞれクリックされるまたは下に保持されるときに作動される。
回路2920は、回路2920の電子構成要素を機械的に支持する及び電気的に接続する回路基板を含む。回路2902は、ブロック図2600(図26)に示された回路を含んでもよい。ある実施形態では、回路2920の回路基板は、一側性(1つの層)、または両側性(2つの層)、あるいは多重層(外側及び内側層)であってもよい。少なくとも1つの実施形態では、回路2920は、指の動作、音声コマンド、及び/またはコントローラ100の動きに対応する信号を受信して処理し、コンピューティングデバイス1604及び/または他のデバイスと通信してそれらを制御する。少なくとも1つの実施形態では、回路基板は、ハウジング2901の内側のラック2910及び/または他の支持構造に取り付けられてもよい。少なくとも1つの実施形態では、2つ以上の回路基板が、コントローラ100のハウジング101に取り付けられてもよい。
支持構造2922は、回路2920をハウジング2901の内側で保持及び支持する構造である。少なくとも1つの実施形態では、支持構造2922は、ハウジング2901の内部表面に固定される複数のバー及び/またはタブを含み、回路2920は、支持構造2922に取り付けられる。
親指タッチパッド2931、人差しタッチパッド2932、及び中央タッチパッド2933は、図1と関連して記述された、丁寧に、親指ボタン105、人差しボタン106、及び中央ボタン107の上に取り付けられた、親指タッチパッド、人差しタッチパッド、及び中央タッチパッドの実施形態である。
ある実施形態では、人差しボタン106及び中央ボタン107は、タッチセンサと接続される1つのボタンに併合されてもよい。併合された単一のボタンは、人差し指と中指の両方によって操作されてもよいし、または人差し指のみを使用して制御されてもよい。ある実施形態では、コントローラの形状及び/またはサイズは、図1〜7に描写されたコントローラ100のものとは異なってもよく、ここで、コントローラは、コントローラを操作しているときに、ユーザの筋肉のストレスを減らすように快適な体勢で人間の手の中に保持され得る。各ボタンの位置はまた、コントローラ100のものとは異なってもよく、ここで、各ボタンに専用の指が、コントローラの動作の間にボタン上で快適に休息する及び動くことができる。
代替及び拡張案
ある実施形態では、ホームコンピューティングエクスペリエンスは、ユーザが家の中の異なる場所に位置し得る異なるコンピューティング/電子デバイス上で作業する必要があるときに、セグメント化される。例えば、パーソナルコンピュータが、勉強部屋の机上にセットアップされてもよいし、フラットスクリーンTVが、居間の中の娯楽中心としてセットアップされてもよいし、ラップトップコンピュータまたはタブレットが、様々な場所、例えば、寝室もしくは食事部屋などにおいて見付けられてもよく、その間、スマートホンが、ユーザによって、彼が行く場合はどこにでも運ばれ得る。したがって、少なくとも1つのいくつかの状況では、ユーザが、ナビゲーション、テキスト入力、オーディオ通信機能、ディスプレイミラーリングを組み込む単一のコントロールデバイスを用いて、コンピューティングデバイスに通信することが望ましいであろう。また、少なくとも1つのいくつかの状況では、ユーザが、単一のコントロールデバイスを使用して様々なコンピューティング/電子デバイスを制御することも望ましいであろう。したがって、異なるインターフェース経由で異なるデバイスとインタラクトする代わりに、ユーザは、複数のコンピューティング/電子デバイスとインタラクトするためにコントローラ100を単一の人間・機械インターフェースとして使用することができる。例えば、ユーザは、コントローラ100を使用してパーソナルコンピュータ上の動作を制御して、TVの画面上でまたはプロジェクタを使用してユーザインターフェースを見るために、あるいは仮想現実ゴーグル及びヘッドセットを使用して映画を観るまたはビデオゲームで遊ぶために、居間の中でカウチに快適に座っていてもよい。更に、ある表面上で伝統的な電気マウスを操作するために腕を延ばす代わりに、ユーザは、コントローラ100を保持して彼の腕及び手首を自然な体勢でリラックスさせてもよく、その間、コントローラ100のボタン及び/もしくはタッチパッド上でクリックするならびに/またはジェスチャするために彼の指を使用してもよい。ユーザはまた、カーソル運動及び/または手書き認識の更なる制御のために空中でコントローラ100を動かしてもよい。その上、コントローラ100は、ユーザから音声コマンドを検出してもよい。コントローラ100は、ユーザが、異なるモードにおいて様々なデバイス及び/または動作を制御すること(例えば、テレビモードにおいてTVを制御すること、プレゼンテーションモードにおいてレーザを制御すること、ソフトキーボードを制御すること、及びテキスト入力モードの間にテキスト編集すること等)を可能にする。
コンピューティングデバイス1604上で、少なくとも一種類のソフトウェア(例えば、ドライバ)が、ユーザが意図した動作の全てを達成するようにコントローラ100を支援するために使用され得ることを理解されたい。例えば、コントローラ100が、制御コマンドをコンピューティングデバイス1604に送信するとき、ドライバは、制御コマンドを対応する動作、例えば、カーソルの移動、ソフトキーボードの作動、アプリケーションの開始、ビデオ及びオーディオストリームの再生等に変換する。
本明細書に開示された各実施形態は、開示された他の実施形態のいずれかと共に使用され得るまたはさもなければ組み合わされてもよい。任意の実施形態の任意の要素が、任意の実施形態において使用されてもよい。
本発明は、具体的な実施形態を参照して記載されたが、本発明の真の趣旨及び範囲から逸脱することなく、様々な変更がなされてもよいこと、ならびに等価物がそれらの要素と置換されてもよいことが当業者によって理解される。更に、修正が、本発明の本来の教示から逸脱することなく、なされ得る。

Claims (24)

  1. 本体と、
    前記本体に接続される2つ以上のボタンであって、前記2つ以上のボタンのそれぞれが、外側に向く表面を有する、2つ以上のボタンと、
    信号を検知する複数のセンサであって、第1の種類の信号が、前記2つ以上のボタンのうちの少なくとも1つが押されるときに検知され、第2の種類の信号が、前記2つ以上のボタンのうちの少なくとも1つの前記表面が触られるときに検知される、複数のセンサと、
    少なくとも1つのプロセッサを有するプロセッサシステムと、
    少なくとも1つの外部デバイスと通信するための通信インターフェースと、
    1つ以上の非一時的なコンピュータ可読媒体上に1つ以上の機械命令を記憶するメモリシステムと、を備えるデバイスであって、
    前記1つ以上の機械命令が、実現されるときに、前記プロセッサシステムに、前記複数のセンサによって検知された前記信号に基づいて制御命令を生成させ、前記制御命令が、前記通信インターフェース経由で送信され、前記少なくとも1つの外部デバイスを制御する、デバイス。
  2. 前記デバイスが、平坦面上で動作する必要がない、請求項1に記載のデバイス。
  3. 前記本体が、人間の手のアーチに適合する人間工学的な形状を有する、請求項1に記載のデバイス。
  4. 前記本体が、ある長さ及び幅を有し、前記長さが前記幅よりも長く、前記本体が、前記本体の前記長さに沿って延在する長手方向軸を有し、前記本体が、前記本体の前記長手方向軸の周りにおいて対称的である、請求項1に記載のデバイス。
  5. 前記2つ以上のボタンのうちの第1のボタンが第1の方向に向き、前記2つ以上のボタンのうちの第2のボタンが第2の方向に向き、前記第1の方向が、前記第2の方向とは異なる、請求項1に記載のデバイス。
  6. 前記第1のボタンが、前記本体の一端部に近い、前記本体の第1の表面上に位置し、前記第2のボタンが、前記本体の前記端部において第2の表面上に位置する、請求項5に記載のデバイス。
  7. 前記第1のボタンが、前記本体の表面上に位置し、前記デバイスが、
    前記第1のボタンが位置する前記表面の反対側の、前記本体の別の表面上に位置する凹状領域を更に備え、前記凹状領域が、前記第1のボタンとは異なる方向を向く、請求項5に記載のデバイス。
  8. 前記2つ以上のボタンのうちの少なくとも1つの前記表面が、複数の部分を含み、異なる信号が、前記複数の部分の異なる部分が触られるときに検知される、請求項1に記載のデバイス。
  9. 前記2つ以上のボタンのうちの少なくとも1つが、作動されるときに、前記第1の種類の信号及び前記第2の種類の信号を生成する、請求項1に記載のデバイス。
  10. 前記複数のセンサが、複数のタッチが前記2つ以上のボタンのうちの少なくとも1つの同じボタン上で同時に行われるときに信号を検知する、請求項1に記載のデバイス。
  11. 前記複数のセンサが、全体として、前記デバイスの運動を検出するための少なくとも1つのセンサを更に備える、請求項1に記載のデバイス。
  12. 音響信号を検出するための少なくとも1つのマイクロホンを更に備える、請求項1に記載のデバイス。
  13. 前記メモリシステムが命令を記憶し、前記命令が、作動されるときに、前記プロセッサシステムに、音声によって生成された音響信号を制御命令に変換させる、請求項12に記載のデバイス。
  14. 前記2つ以上のボタンのうちの少なくとも1つが、触角フィードバックを有する、請求項1に記載のデバイス。
  15. 音響信号をブロードキャストするための1つ以上のスピーカを更に備える、請求項1に記載のデバイス。
  16. 作動されるときに、対象を指すためのレーザ光のビームを放出するレーザを更に備える、請求項1に記載のデバイス。
  17. 作動されるときに、前記デバイスの状態を示す光を放出する光源を更に備える、請求項1に記載のデバイス。
  18. 前記通信インターフェースが、作動されるときに、前記デバイスを少なくとも1つのコンピューティングデバイスに接続し、前記コンピューティングデバイスが、複数の表示システムに通信可能に接続され、前記デバイスが、前記コンピューティングデバイスを制御して、前記コンピューティングデバイスのコンテンツを前記複数の表示システムのうちの少なくとも1つに表示する、請求項1に記載のデバイス。
  19. 前記メモリシステムが命令を記憶し、前記命令が、作動されるときに、前記プロセッサシステムに、前記2つ以上のボタンのうちの少なくとも1つが触られるときに生成される第1の信号と、前記2つ以上のボタンのうちの別の少なくとも1つが触られるときに生成される第2の信号とを組み合わせ、前記プロセッサシステムが、前記第1の信号及び前記第2の信号の前記組み合わせによって定義される制御命令を生成する、請求項1に記載のデバイス。
  20. 同じ信号が、前記デバイスが動作するモードに従って異なって解釈される、請求項1に記載のデバイス。
  21. 前記デバイスが、前記第1の種類の信号及び前記第2の種類の信号を検出するためのセンサにそれぞれ接続される、3つのボタンを含む、請求項1に記載のデバイス。
  22. 前記2つ以上のボタンのうちの少なくとも1つが、同じボタン上の複数のタッチを独立して検出するセンサに接続される、請求項1に記載のデバイス。
  23. 複数のセンサによって、信号を検知することであって、前記複数のセンサが2つ以上のボタンに接続され、前記2つ以上のボタンが、デバイスの本体に接続され、前記2つ以上のボタンのそれぞれが、外側に向く表面を有する、検知することと、
    前記複数のセンサによって検知される前記信号を、前記デバイスにおいて、受信することであって、前記デバイスが、少なくとも、
    少なくとも1つのプロセッサを有するプロセッサシステム、
    少なくとも1つの外部デバイスと通信するための通信インターフェース、
    1つ以上の非一時的なコンピュータ可読媒体上に1つ以上の機械命令を記憶するメモリシステム、を更に含む、受信することと、
    前記プロセッサシステムによって、前記信号を分析して、前記信号に基づいて制御命令を生成することと、
    前記制御命令を前記少なくとも1つの外部デバイスに送信することと、を含む方法であって、
    第1の種類の信号が、前記2つ以上のボタンのうちの少なくとも1つが押されるときに検知され、第2の種類の信号が、前記2つ以上のボタンのうちの少なくとも1つの前記表面が触られるときに検知される、方法。
  24. 2つ以上のボタンをデバイスの本体に接続することであって、前記2つ以上のボタンのそれぞれが、外側に向く表面を有する、接続することと、
    複数のセンサを前記2つ以上のボタンに接続することであって、前記複数のセンサのうちの少なくとも一組が、前記2つ以上のボタンのうちの少なくとも1つの前記表面上に取り付けられる、接続することと、
    少なくとも1つのプロセッサを有するプロセッサシステムを導入することと、
    通信インターフェースを導入することと、
    1つ以上の非一時的なコンピュータ可読媒体上に1つ以上の機械命令を記憶するメモリシステムを導入することと、を含む方法であって、
    前記1つ以上の機械命令が、作動されるときに、前記プロセッサシステムに、前記複数のセンサによって検知される信号に基づいて制御命令を生成させる、方法。
JP2017530960A 2014-09-01 2015-08-25 多表面コントローラ Expired - Fee Related JP6408156B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201462044372P 2014-09-01 2014-09-01
US62/044,372 2014-09-01
US14/829,512 US10444849B2 (en) 2014-09-01 2015-08-18 Multi-surface controller
US14/829,512 2015-08-18
PCT/US2015/046790 WO2016036543A1 (en) 2014-09-01 2015-08-25 Multi-surface controller

Publications (2)

Publication Number Publication Date
JP2017535002A true JP2017535002A (ja) 2017-11-24
JP6408156B2 JP6408156B2 (ja) 2018-10-17

Family

ID=55402450

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017530960A Expired - Fee Related JP6408156B2 (ja) 2014-09-01 2015-08-25 多表面コントローラ

Country Status (6)

Country Link
US (1) US10444849B2 (ja)
EP (1) EP3189403A4 (ja)
JP (1) JP6408156B2 (ja)
KR (1) KR102257168B1 (ja)
CN (1) CN107003750B (ja)
WO (1) WO2016036543A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019185175A (ja) * 2018-04-03 2019-10-24 株式会社栗本鐵工所 力覚提示装置
WO2020039507A1 (ja) * 2018-08-21 2020-02-27 株式会社ソニー・インタラクティブエンタテインメント コントローラ装置
JP2021518612A (ja) * 2018-03-23 2021-08-02 バルブ コーポレーション タッチセンシティブコントロールを備えるハンドヘルドコントローラ
JP7238090B1 (ja) 2021-12-28 2023-03-13 レノボ・シンガポール・プライベート・リミテッド 入力装置、電子機器、及び入力設定方法

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10444849B2 (en) 2014-09-01 2019-10-15 Yinbo Li Multi-surface controller
US10534447B2 (en) 2014-09-01 2020-01-14 Yinbo Li Multi-surface controller
DE102015221123A1 (de) * 2015-10-29 2017-05-04 Bayerische Motoren Werke Aktiengesellschaft Bedienelement
JP5996079B1 (ja) * 2015-12-10 2016-09-21 レノボ・シンガポール・プライベート・リミテッド 情報処理装置、ソフトウェアキーボード表示方法、及びプログラム
JP7075357B2 (ja) * 2016-06-07 2022-05-25 コーニンクレッカ フィリップス エヌ ヴェ 無線センサの動作制御
JP6776067B2 (ja) * 2016-09-05 2020-10-28 東芝テック株式会社 操作入力装置及びプログラム
US20180174581A1 (en) * 2016-12-19 2018-06-21 Pilot, Inc. Voice-activated vehicle lighting control hub
US20180170242A1 (en) * 2016-12-19 2018-06-21 Pilot, Inc. Bluetooth-enabled vehicle lighting control hub
KR102292988B1 (ko) * 2017-03-20 2021-08-24 텍추얼 랩스 컴퍼니 손 감지 컨트롤러
WO2018201067A1 (en) 2017-04-27 2018-11-01 Magic Leap, Inc. Light-emitting user input device
USD828337S1 (en) * 2017-06-20 2018-09-11 Yinbo Li Multi-surface controller
SE543016C2 (en) * 2017-09-14 2020-09-29 Zound Industries Int Ab A detachable knob for controlling a function of a loudspeaker
CN111566651A (zh) * 2017-11-13 2020-08-21 阿基奥私人有限责任公司 用于架构的虚拟/增强现实建模应用
USD879881S1 (en) * 2018-02-02 2020-03-31 Kynoa Sa Video game controller
US20190265880A1 (en) * 2018-02-23 2019-08-29 Tsimafei Sakharchuk Swipe-Board Text Input Method
CN110494792B (zh) 2018-03-07 2021-07-09 奇跃公司 ***设备的视觉跟踪
US10592104B1 (en) * 2018-06-08 2020-03-17 Facebook Technologies, Llc Artificial reality trackpad-based keyboard
USD930614S1 (en) * 2018-07-24 2021-09-14 Magic Leap, Inc. Totem controller having an illumination region
USD918176S1 (en) * 2018-07-24 2021-05-04 Magic Leap, Inc. Totem controller having an illumination region
USD924204S1 (en) * 2018-07-24 2021-07-06 Magic Leap, Inc. Totem controller having an illumination region
WO2020068087A1 (en) * 2018-09-27 2020-04-02 Hewlett-Packard Development Company, L.P. Microphone control
US10824244B2 (en) * 2018-11-19 2020-11-03 Facebook Technologies, Llc Systems and methods for transitioning between modes of tracking real-world objects for artificial reality interfaces
CN109979181B (zh) * 2019-04-22 2024-06-04 深圳市特力电器有限公司 一种无线遥控组件
JP6947776B2 (ja) * 2019-04-26 2021-10-13 株式会社ソニー・インタラクティブエンタテインメント コントローラ装置、その制御方法、及びプログラム
USD962905S1 (en) * 2019-12-16 2022-09-06 Magic Leap, Inc. Device controller
USD940688S1 (en) * 2020-02-19 2022-01-11 XRSpace CO., LTD. Controller
CN111267129B (zh) * 2020-02-24 2022-07-29 东南大学 陪护机器人的控制装置
CN112068696B (zh) * 2020-08-28 2024-06-28 深圳晶泰科技有限公司 Vr头盔、晶体交互***及方法
US11554320B2 (en) * 2020-09-17 2023-01-17 Bogie Inc. System and method for an interactive controller
USD994025S1 (en) * 2021-01-29 2023-08-01 Sheel, Llc Controller
JP7311550B2 (ja) * 2021-03-25 2023-07-19 株式会社ソニー・インタラクティブエンタテインメント 入力デバイス
US11972067B2 (en) * 2022-01-09 2024-04-30 Tiffany A. Cruz Handheld wireless pointing device not requiring flat surface

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09212288A (ja) * 1996-01-31 1997-08-15 Canon Inc 情報入力システムおよび情報入力方法
JP2001290598A (ja) * 2000-04-10 2001-10-19 Toshiba Corp 情報入出力装置およびこれを用いたシステム
US20050179658A1 (en) * 2004-02-18 2005-08-18 Benq Corporation Mouse with a built-in laser pointer
US20060001657A1 (en) * 2004-07-02 2006-01-05 Logitech Europe S.A. Scrolling device
JP2008532185A (ja) * 2005-03-04 2008-08-14 アップル インコーポレイテッド マルチタッチセンシングデバイスを持つハンドヘルド電子装置
WO2008111138A1 (ja) * 2007-03-09 2008-09-18 Sony Computer Entertainment Inc. 情報処理システム、操作デバイス及び情報処理方法
JP2008542915A (ja) * 2005-06-03 2008-11-27 アップル インコーポレイテッド 改良された入力メカニズムを備えたマウス
JP2009064449A (ja) * 2005-08-24 2009-03-26 Nintendo Co Ltd コントローラおよびコンピュータシステム
JP2014002719A (ja) * 2012-06-20 2014-01-09 Samsung Electronics Co Ltd 遠隔制御装置、ディスプレイ装置およびその制御方法

Family Cites Families (73)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS648156A (en) 1987-06-29 1989-01-12 Sharp Kk Double surface copying sheet conveying device
US5144594A (en) * 1991-05-29 1992-09-01 Cyber Scientific Acoustic mouse system
USD366875S (en) 1994-02-15 1996-02-06 Sony Corporation Remote commander
USD380473S (en) 1995-03-08 1997-07-01 Sharp Kabushiki Kaisha Remote controller
US6127990A (en) 1995-11-28 2000-10-03 Vega Vista, Inc. Wearable display and methods for controlling same
USD392945S (en) 1996-10-16 1998-03-31 Motorola, Inc. Portable electronic package for a visual display
USD420006S (en) 1996-10-23 2000-02-01 U.S. Philips Corporation Remote control unit
USD426232S (en) 1999-01-20 2000-06-06 Avicor Digital Imaging Systems Hand-held infrared remote control unit for a digital image viewer system
US6809722B2 (en) 1999-03-29 2004-10-26 Yu Mei Hand-held mobile mouse
US20020084986A1 (en) * 2001-01-04 2002-07-04 Armstrong Brad A. Computer mouse with specialized button(s)
USD486144S1 (en) 2002-05-03 2004-02-03 Disney Enterprises, Inc. Remote control
JP4791687B2 (ja) * 2003-09-05 2011-10-12 修司 北澤 入力装置
USD511750S1 (en) 2004-02-17 2005-11-22 Hunter Fan Company Ceiling fan remote
USD502929S1 (en) 2004-03-02 2005-03-15 Select Comfort Corporation Remote control
USD512027S1 (en) 2004-03-15 2005-11-29 Nokia Corporation Remote control
USD528103S1 (en) 2004-10-12 2006-09-12 Thomas Licensing S.A. Universal remote control
USD550168S1 (en) 2005-01-24 2007-09-04 Rhine Electronic Co., Ltd. Remote control transmitter
USD520462S1 (en) 2005-02-04 2006-05-09 Sony Corporation Remote controller
USD527006S1 (en) 2005-02-25 2006-08-22 Hillcrest Laboratories, Inc. Remote control device
KR100710060B1 (ko) 2005-07-11 2007-04-20 주식회사 애트랩 마이크로폰 내장형의 마우스
USD556760S1 (en) 2005-08-17 2007-12-04 Nintendo Co., Ltd. Controller for electronic game machine
US8870655B2 (en) 2005-08-24 2014-10-28 Nintendo Co., Ltd. Wireless game controllers
US8308563B2 (en) 2005-08-30 2012-11-13 Nintendo Co., Ltd. Game system and storage medium having game program stored thereon
KR100792290B1 (ko) * 2006-06-08 2008-01-07 삼성전자주식회사 지자기센서 및 가속도센서를 구비한 입력 장치, 입력장치의 모션에 따라 커서를 표시하는 디스플레이 장치,이를 이용한 커서 표시 방법
US8022935B2 (en) 2006-07-06 2011-09-20 Apple Inc. Capacitance sensing electrode with integrated I/O mechanism
WO2008057100A1 (en) * 2006-11-10 2008-05-15 Razer( Asia-Pacific) Pte Ltd Ergonomically configurable game controller
US8516393B2 (en) * 2006-12-18 2013-08-20 Robert Pedersen, II Apparatus, system, and method for presenting images in a multiple display environment
USD550654S1 (en) 2006-12-29 2007-09-11 Clarion Co., Ltd. Remote control for a speaker
TW200909032A (en) 2007-08-20 2009-03-01 Tai Sol Electronics Co Ltd Three-dimensional wireless rocking lever
CN101878464A (zh) * 2007-12-05 2010-11-03 奥克斯摩斯有限公司 数据输入设备
WO2009072475A1 (ja) 2007-12-07 2009-06-11 Sony Corporation 入力装置、制御装置、制御システム、ハンドヘルド装置及び制御方法
USD597038S1 (en) 2008-07-09 2009-07-28 Sears Brands, Llc Remote control
JP4936479B2 (ja) 2009-03-26 2012-05-23 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
TWI505140B (zh) * 2009-05-20 2015-10-21 Asustek Comp Inc 適應性滑鼠
US20100302190A1 (en) * 2009-06-02 2010-12-02 Elan Microelectronics Corporation Multi-functional touchpad remote controller
CN102033642B (zh) * 2009-09-29 2012-10-10 联想(北京)有限公司 一种手势识别的方法及电子设备
US8633916B2 (en) 2009-12-10 2014-01-21 Apple, Inc. Touch pad with force sensors and actuator feedback
USD620925S1 (en) 2009-12-27 2010-08-03 Hillcrest Laboratories, Inc. Presenter
USD632673S1 (en) 2010-04-21 2011-02-15 Estefano Emilio Isaias Remote control
US9152244B2 (en) * 2011-01-30 2015-10-06 Lg Electronics Inc. Image display apparatus and method for operating the same
CN102778961A (zh) 2011-05-12 2012-11-14 鸿富锦精密工业(深圳)有限公司 触摸式鼠标
AU341265S (en) 2011-08-24 2012-02-29 Lg Electronics Inc Remote control for television receivers
JP2013117885A (ja) * 2011-12-02 2013-06-13 Nintendo Co Ltd 情報処理プログラム、情報処理装置、情報処理システム及び情報処理方法
JP6055961B2 (ja) 2012-04-07 2017-01-11 グーグル テクノロジー ホールディングス リミティド ライアビリティ カンパニー テキスト選択及び入力
USD690684S1 (en) 2012-05-30 2013-10-01 Samsung Electronics Co., Ltd. Remote controller
KR20130134545A (ko) * 2012-05-31 2013-12-10 주식회사 다음커뮤니케이션 리모컨을 이용한 디지털tv 음성 검색 시스템 및 방법
FR2982722B3 (fr) 2012-06-20 2014-03-14 Samsung Electronics Co Ltd Dispositif d'affichage, dispositif de commande a distance et fonction de commande connexe
KR20140060818A (ko) * 2012-11-12 2014-05-21 삼성전자주식회사 원격 제어 장치, 디스플레이 장치 및 그 제어 방법
CN103841442B (zh) * 2012-11-22 2017-06-27 华为技术有限公司 一种控制空中鼠标的方法,空中鼠标以及机顶盒
USD693333S1 (en) 2013-01-03 2013-11-12 Lg Electronics Inc. Remote control
USD716767S1 (en) 2013-03-05 2014-11-04 Samsung Electronics Co., Ltd. Remote controller
USD716768S1 (en) 2013-03-05 2014-11-04 Samsung Electronics Co., Ltd. Remote controller
USD715774S1 (en) 2013-03-05 2014-10-21 Samsung Electronics Co., Ltd. Remote controller
USD723008S1 (en) 2013-03-05 2015-02-24 Samsung Electronics Co., Ltd. Remote controller
USD724059S1 (en) 2013-03-12 2015-03-10 Samsung Electronics Co., Ltd. Remote controller
USD746266S1 (en) 2013-10-23 2015-12-29 Samsung Electronics Co., Ltd. Remote controller
USD729208S1 (en) 2013-12-13 2015-05-12 Samsung Electronics Co., Ltd. Remote controller
USD725609S1 (en) 2014-01-16 2015-03-31 Umm Al-Qura University Remote control
CN103885707A (zh) * 2014-02-27 2014-06-25 四川长虹电器股份有限公司 基于多点触控技术的人机交互的方法及遥控器
USD734743S1 (en) 2014-05-16 2015-07-21 Hillcrest Laboratories, Inc. Remote control device
USD717279S1 (en) 2014-06-30 2014-11-11 Victor K. Wai Handheld remote control
US10534447B2 (en) 2014-09-01 2020-01-14 Yinbo Li Multi-surface controller
US10444849B2 (en) 2014-09-01 2019-10-15 Yinbo Li Multi-surface controller
USD773407S1 (en) 2015-02-10 2016-12-06 Samsung Electronics Co., Ltd. Remote control
USD769227S1 (en) 2015-02-13 2016-10-18 Hunter Douglas Inc. Remote control housing
USD776091S1 (en) 2015-11-06 2017-01-10 Mary A. Spio Controller
USD812041S1 (en) 2016-05-25 2018-03-06 Fibar Group S.A. Keyfob
USD796454S1 (en) 2016-06-21 2017-09-05 Power Vision Robot, Inc. Somatosensory controller
USD797743S1 (en) 2016-08-22 2017-09-19 Magic Leap, Inc. Totem controller
USD813203S1 (en) 2016-10-26 2018-03-20 Muzik LLC Hand held controller
USD798275S1 (en) 2016-12-23 2017-09-26 Shanghai Knorvay Technology Ltd. Wireless presenter
USD844608S1 (en) 2017-04-28 2019-04-02 Facebook Technologies, Llc Electronic input device
USD828337S1 (en) 2017-06-20 2018-09-11 Yinbo Li Multi-surface controller

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09212288A (ja) * 1996-01-31 1997-08-15 Canon Inc 情報入力システムおよび情報入力方法
JP2001290598A (ja) * 2000-04-10 2001-10-19 Toshiba Corp 情報入出力装置およびこれを用いたシステム
US20050179658A1 (en) * 2004-02-18 2005-08-18 Benq Corporation Mouse with a built-in laser pointer
US20060001657A1 (en) * 2004-07-02 2006-01-05 Logitech Europe S.A. Scrolling device
JP2008532185A (ja) * 2005-03-04 2008-08-14 アップル インコーポレイテッド マルチタッチセンシングデバイスを持つハンドヘルド電子装置
JP2008542915A (ja) * 2005-06-03 2008-11-27 アップル インコーポレイテッド 改良された入力メカニズムを備えたマウス
JP2009064449A (ja) * 2005-08-24 2009-03-26 Nintendo Co Ltd コントローラおよびコンピュータシステム
WO2008111138A1 (ja) * 2007-03-09 2008-09-18 Sony Computer Entertainment Inc. 情報処理システム、操作デバイス及び情報処理方法
JP2014002719A (ja) * 2012-06-20 2014-01-09 Samsung Electronics Co Ltd 遠隔制御装置、ディスプレイ装置およびその制御方法

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021518612A (ja) * 2018-03-23 2021-08-02 バルブ コーポレーション タッチセンシティブコントロールを備えるハンドヘルドコントローラ
JP7391864B2 (ja) 2018-03-23 2023-12-05 バルブ コーポレーション ハンドヘルドコントローラを備えるシステム
JP2019185175A (ja) * 2018-04-03 2019-10-24 株式会社栗本鐵工所 力覚提示装置
JP7273459B2 (ja) 2018-04-03 2023-05-15 株式会社栗本鐵工所 力覚提示装置
WO2020039507A1 (ja) * 2018-08-21 2020-02-27 株式会社ソニー・インタラクティブエンタテインメント コントローラ装置
JPWO2020039507A1 (ja) * 2018-08-21 2021-03-11 株式会社ソニー・インタラクティブエンタテインメント コントローラ装置
US11353959B2 (en) 2018-08-21 2022-06-07 Sony Interactive Entertainment Inc. Controller device
JP7238090B1 (ja) 2021-12-28 2023-03-13 レノボ・シンガポール・プライベート・リミテッド 入力装置、電子機器、及び入力設定方法
JP2023098249A (ja) * 2021-12-28 2023-07-10 レノボ・シンガポール・プライベート・リミテッド 入力装置、電子機器、及び入力設定方法

Also Published As

Publication number Publication date
KR20170054423A (ko) 2017-05-17
EP3189403A4 (en) 2018-08-01
EP3189403A1 (en) 2017-07-12
WO2016036543A1 (en) 2016-03-10
KR102257168B1 (ko) 2021-05-26
US10444849B2 (en) 2019-10-15
CN107003750A (zh) 2017-08-01
CN107003750B (zh) 2020-10-30
US20160062489A1 (en) 2016-03-03
JP6408156B2 (ja) 2018-10-17

Similar Documents

Publication Publication Date Title
JP6408156B2 (ja) 多表面コントローラ
US10534447B2 (en) Multi-surface controller
US10416789B2 (en) Automatic selection of a wireless connectivity protocol for an input device
JP6275839B2 (ja) リモコン装置、情報処理方法およびシステム
CN107037876B (zh) ***及控制其的方法
US9535516B2 (en) System for projecting content to a display surface having user-controlled size, shape and location/direction and apparatus and methods useful in conjunction therewith
US20150187357A1 (en) Natural input based virtual ui system for mobile devices
KR20170126295A (ko) 헤드 마운티드 디스플레이 장치 및 그것의 제어방법
KR20150007799A (ko) 영상 디스플레이를 제어하는 전자 장치 및 방법
JP2009042967A (ja) 情報入力表示システム、情報端末および表示装置
Lissermann et al. EarPut: augmenting ear-worn devices for ear-based interaction
US10474324B2 (en) Uninterruptable overlay on a display
US20180267624A1 (en) Systems and methods for spotlight effect manipulation
CN109844702B (zh) 一种对电子设备的控制方法以及输入设备
CN110045843A (zh) 电子笔、电子笔控制方法及终端设备
US20240211044A1 (en) Object Engagement Based on Finger Manipulation Data and Untethered Inputs
WO2021061310A1 (en) Displaying representations of environments
US20240045501A1 (en) Directing a Virtual Agent Based on Eye Behavior of a User
US20240094819A1 (en) Devices, methods, and user interfaces for gesture-based interactions
US20230297168A1 (en) Changing a Dimensional Representation of a Content Item
CN116802589A (zh) 基于手指操纵数据和非系留输入的对象参与
KR20210014386A (ko) 시각장애인을 위한 촉지시트 및 이를 이용한 휴대용 단말기
KR20200091550A (ko) 이동 단말 및 그 제어 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170829

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180508

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180807

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180821

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180919

R150 Certificate of patent or registration of utility model

Ref document number: 6408156

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees