JP2019537084A - タッチセンサ式キーボード - Google Patents
タッチセンサ式キーボード Download PDFInfo
- Publication number
- JP2019537084A JP2019537084A JP2019511924A JP2019511924A JP2019537084A JP 2019537084 A JP2019537084 A JP 2019537084A JP 2019511924 A JP2019511924 A JP 2019511924A JP 2019511924 A JP2019511924 A JP 2019511924A JP 2019537084 A JP2019537084 A JP 2019537084A
- Authority
- JP
- Japan
- Prior art keywords
- touch
- keyboard
- keys
- key
- sensitive
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
- G06F3/0202—Constructional details or processes of manufacture of the input device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
- G06F3/023—Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
- G06F3/023—Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
- G06F3/0233—Character input methods
- G06F3/0234—Character input methods using switches operable in different directions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
- G06F3/023—Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
- G06F3/0233—Character input methods
- G06F3/0235—Character input methods using chord techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
- G06F3/023—Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
- G06F3/0238—Programmable keyboards
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
- G06F3/0426—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected tracking fingers with respect to a virtual keyboard projected or printed on the surface
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04108—Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
- Electronic Switches (AREA)
- Input From Keyboards Or The Like (AREA)
Abstract
Description
一実施形態において、行に送信される直交信号は、未変調のシヌソイドであってもよく、その各々が異なる周波数を有しており、該周波数は、受信器において互いに容易に区別され得るように選択される。一実施形態では、周波数は、受信器において互いにより容易に区別され得るように、それらの間に十分な間隔を設けるように選択される。一実施形態では、周波数は、選択された周波数間に単純な調波関係が存在しないように選択される。単純な調波関係の欠如は、1つの信号に別の信号を模倣させ得る非線形のアーチファクト(non−linear artifacts)を緩和し得る。
行1:5.000MHz 行6:5.005MHz
行2:5.001MHz 行7:5.006MHz
行3:5.002MHz 行8:5.007MHz
行4:5.003MHz 行9:5.008MHz
行5:5.004MHz 行10:5.009MHz
一実施形態において、変調されたシヌソイドは、上述のシヌソイドの実施形態の代わりとして、それと組み合わせて、および/またはそれを改良したものとして使用され得る。未変調のシヌソイドの使用は、タッチ面付近の他のデバイスに無線周波干渉を引き起こす場合もあり、したがってそれらを使用するデバイスは、規定上の試験(例えばFCC、CE)を通過するという問題に遭遇する場合がある。加えて、未変調のシヌソイドの使用は、意図的な送信器または他の干渉装置(恐らく、別の同一のタッチ面)のいずれかから、環境内にある他のシヌソイドからの干渉を受けやすい場合もある。一実施形態において、そのような干渉は、記載の装置での誤った、または劣化したタッチ測定を引き起こし得る。
一実施形態において、シヌソイドは、フーリエ変換検出スキームを備えた完全な無線受信器を使用して、受信器において検出され得る。そのような検出は、高速RF波形をデジタル化し、その後にデジタル信号処理を行なうことを必要とする場合がある。別々のデジタル化と信号処理は、面の全ての列ごとに実施されてもよい。これにより、信号プロセッサが、どの行信号がその列とタッチ状態にあるのかを見つけることが可能となる。上述の例において、タッチ面に40の行と40の列を備えることで、この信号チェーンの40のコピーが必要とされる。今日、デジタル化とデジタル信号処理は、ハードウェア、コスト、および電力の点で比較的高価な操作である。シヌソイドを検出するためのよりコスト効率の良い方法、特に、容易に複製することができ且つ電力をほとんど必要としない方法を利用することが、有用である。
主として、各行が1つの信号(またはより少ない数の信号)の生成を必要としながら、列の受信器は多くの信号間で検出と区別を行う必要があるため、低レイテンシのタッチセンサにおける送信信号(例えばシヌソイド)の生成は通常、検出に比べてさほど複雑ではない。一実施形態において、シヌソイドは、一連の位相ロックループ(PLL)により生成することができ、その各々は共通の基準周波数に異なる倍数を掛ける。
各列内の各行からの信号強度が、例えば上記の手順を使用して算出された後、結果として得た2−Dの「ヒートマップ」(または「マトリックス」とも呼ばれる)を使用可能なタッチ事象へと変換するために後処理を行う。一実施形態において、そのような後処理は、以下の4つ手順の少なくともいくつかを含む:フィールド平坦化、タッチポイント検出、補間、およびフレーム間で一致するタッチ点。フィールド平坦化の手順は、行と列の間のクロストークを取り除くためにオフセットレベルを控除し、減衰により特定の行/列の組み合わせの間の振幅の差を補う。タッチ点の検出手順は、平坦化された信号の極大値を見出すことにより、粗いタッチ点を計算する。補間の手順は、粗いタッチ点に関連したデータを放物面に適合させることにより、細かいタッチ点を計算する。フレームマッチングの手順は、計算されたタッチ点をフレーム全体で互いに一致させる。以下、4つの手順の各々を順に説明する。さらに、各処理工程ごとに実装、可能な不良モード、および結果の例が開示される。非常に低いレイテンシを必要とするため、処理工程は最適化され、且つ平行処理されねばならない。
Ax2+Bxy+Cy2+Dx+Ey+F=z
この方程式は、追加の交差項と、xまたはy以外の方向でモデルが伸長を補うことを可能にする新たな係数を有する。再び、中心点に対してすべての要素の位置は一定であり、値は既知である。9の連立方程式(1つの要素につき1つ)が、6つの未知の多項式係数を判定(つまり過剰に判定)するために使用され得る。最小自乗技術が、6つの未知の整式の係数を解くために使用されてもよい。
xf=(BE−2CD)/(4AC−B2)およびyf=(DB−2AE)/(4AC−B2)
フレームi+1の物体のタッチ点は、それに幾何学的に最も近いフレームiのタッチ点である可能性がより高い;
フレームi+1の物体のタッチ点は、物体の速度の履歴を与えられると予測される点に最も近いフレームiのタッチ点である可能性がより高い;および、
フレームi+1の物体のタッチ点は、フレームiのそのタッチ点に似たサイズになる可能性がより高い。
仮想現実または拡張現実感(以下「VR/AR」、2つの用語は相互排他的であり得る)の環境における物理キーボードの使用は、VR/AR環境内ではユーザーにはキーボードが全く見えない、またはその全体は見えないであろうという事実によって複雑になる。本明細書に開示されるキーボードとキーボードスイッチは、1つ以上のキー、タッチ面、またはキーボードを、従来のキーボードとキー入力アプリケーションの両方、およびキーまたは面から入手可能な追加の情報によって可能となる多くの新規なアプリケーションに使用可能な、感度のある、動的で、ホバーする、接触および圧力の感度面へ変える。一実施形態において、物理キーボードは、従来のキーボード入力を検出可能なだけでなく、指とキーの接触および指のホバーを識別することが可能な場合もあり、したがってキーボードが使用されている時にユーザーの指、手、手首、および可能性として前腕のそれぞれの位置の判定を可能にする。一実施形態において、キーボードデータは、VR/AR環境においてユーザーの指、手、手首、前腕およびを可能性としてキーボード(キートップまたはサイドラベル、または例えばツールチップの付加などのキーボードへの変更を含む)の位置と向きを再構成するために使用される。そのような再構成は、ユーザーがVR/AR環境においてキーボードに対する自身の指、手、手首、および場合によって前腕を「見る」ことを可能にし、VR/AR環境でのキーボードの使用を可能にする。
1)送信アンテナはキーの片面に配置され、および受信アンテナは反対側にある;
2)送信アンテナは、キーベース内に配置され、および1つの受信アンテナリングはキーベースのまわりにある;
3)送信アンテナは、キーベースの両側に配置され、および受信アンテナは、キーベースの中央に配置される;
4)受信アンテナは、キーベースの両側に配置され、および送信アンテナはキーベースの中央に配置される;または、
5)送信アンテナはキーベースの両側に配置され、および受信アンテナはキーベースの正面および後面に配置される。
以下では、タッチ、空中でのもの、およびハイブリッドタッチ/空中でのキーボードユーザー入力インタラクションの新たな形態が論じられる。一実施形態において、タッチ、空中でのもの、およびハイブリッドタッチ/空中でのキーボードユーザー入力インタラクションの新たな形態は、上記に特定された同時係属中の出願に開示された新規なデバイスの1つ以上によって実施可能となり、または向上され得る。一実施形態において、インタラクションの開示された形態は、本明細書に記載の1つ以上の実施形態を可能にする特定のAPIを提示する、専用のデバイスに特徴として含ませることができ、またはソフトウェア開発者キット(SDK)に含ませることができる。SDKに含ませることにより、OSメーカー、OEM、アプリケーション開発者およびユーザーは、通常のまたは標準的なインターフェースに基づいたタッチセンサ式デバイスを開発し、構築し、またはそれに接続することができ、および望ましい場合には、本明細書に記載のものを含むジェスチャのメカニズムのいくつか、またはすべてを支持することができる。様々な実施形態では、新規なインタラクション技術は、限定されないが以下を含む様々な物体上で実装され、またはそのような物体と接触して使用され得る:多数の物理キーキャップを含むキーボード;限定されないが単一の物理キーキャップ(例えばボタン)を含むキーボード;限定されないがスイッチ、スライダおよびダイヤルを含む他の物理制御を含むキーボード;限定されないが電気静力学、電気ショックおよびバイブロ・触覚フィードバックを含む触覚技術によってシミュレートされる、仮想キーキャップ、ボタン、スイッチ、スライダ、およびダイヤルを制限なく含む仮想制御を含むキーボード;限定されないがマイクロ電気機械的ロボット工学および電気的活性のあるポリマーを含むコンピュータ制御された物理的変形技術を通じて形成し、または改造することができる、物理キーキャップ、ボタン、スイッチ、スライダおよびダイヤルを制限なく含む、ジャスト・イン・タイムまたは再形成(リシェイプ)可能な物理制御を含むキーボード;タッチ/ホバーパッド;およびゲームコントローラ、ステアリングホイール、スポーツ用品の柄とボールを含む他のタッチセンサ式物理オブジェクト。本開示全体にわたって、「タッチセンサ式キーボード」「タッチパッド」「ホバーパッド」および、「タッチセンサ式デバイス」等の用語は、接触と様々な度合のホバーを検出可能なタッチセンサ式デバイスのカテゴリーを指し、区別なく使用される。そのようなタッチセンサ式デバイスは、同時係属中の米国特許出願第15/200,642号、2016年7月1日出願の「TOUCH SENSITIVE KEYBOARD」;米国特許出願第15/221,391号;2016年7月29日出願の米国特許出願第15/224,226号、「HOVER−SENSITIVE TOUCHPAD」;および、「TOUCH−SENSITIVE OBJECTS」と題した、2016年8月30日出願の米国特許出願第15/251,859号に記載され、開示される。それらの開示とそこで使用される用語に精通しているものと仮定する。
一実施形態において、タッチセンサ式キーボード上で、キーボードを左から右へ、キーボードを右から左へ、上から下へ、または下から上へと、空中でまたはキーボードのキーと接触しながら動く1つの手は、ユーザーによって行われる入力ジェスチャと認めることができる。実施形態において、キーの平面におよそ垂直な平面では、キーボードの表面から上に離れる、またはキーボードの表面に向かって下に動く手の動きもまた、認めることができる。
タッチセンサ式デバイス上の空間で両手を動作させることで、さらなる忠実度が可能になるであろう。そのようなジェスチャの検出に適用される検出と認識のための技術は、交換可能である;例えば、同じ手にある2つの点 対 2つの手の各々にある1つの点の追跡は、検出アルゴリズム選択のレベルにおいて機能的に異なってはいない。検出され得るジェスチャの観点において:2つの手は、例えば協調して動いてもよく(例えば、2つの手はタッチセンサ式デバイスの左から右へ動く)、または例えば互いに反対方向に動いてもよい(例えば、2つの手はキーボード上を離れて、または一緒に動く)。両手はまた、同時に手の一部を動かしながら動く場合もある。一実施形態において、ジェスチャの用語は、手の機敏さのすべて、または実質的にすべてに及ぶ。
タッチセンサ式デバイスを用いて行われる点ベースの入力およびマルチポイントベースの入力に加えて、一実施形態では、キー面上でなされたタッチまたはキーの上で行われた動きは、ダイヤリングジェスチャと解される。ダイヤリングジェスチャは、連続入力の本来の手段を提供し得る。一実施形態において、例えば、キーボードの上の指または他の物体を反時計回りに回すと、スクロールアップまたはスクロールダウンされるだろう。ダイヤリングジェスチャには、本来の範囲がない(すなわち、例えばジョイントムーブメントとは異なり、最大位置または最小位置がない)。したがって、一実施形態において、ダイヤリングジェスチャは、非常に長い文書を含む文書のスクロールのために使用されてもよい。一実施形態において、ダイヤリングが、ダイヤリングされるオブジェクトに対して多かれ少なかれ効果を生み出し得るように、恣意的な抑制/表示利得機能が提供される。
物理制御によって抑制されるインタラクションは、限定的な自由度を提供し、およびユーザーが縮小されたインタラクション空間に集中することができるため、さらなる正確さを可能にすることが知られている。例として、ステアリングホイールで自動車の向きを変えるのは、ジョイスティックで方向と燃料の流れを同時に制御するよりも単純である。したがって、一実施形態において、手の動作は、仮想物理オブジェクトにマッピングされ、その操作は制御信号を提供する。一実施形態において、ユーザーは、2Dモニターまたはヘッドマウント型のVRまたはARディスプレイを介してステアリングホイールのデジタル画像を提示されてもよく、それらは回転してドライブシミュレータへの入力を供給する;3D空間での手の動きは、ユーザーがホイールを保持しているかのように、ホイールの動きにマッピングすることができる。一実施形態において、3D空間内での手の動きは、従来のものではない(例えばより速い、またはより遅い)ホイールの動きにマッピングすることができ、したがって、この技術を使用して、ユーザーがホイールを保持していたならば不可能であろう方法で制御を行うことができる。
キーボード付近の片方または両方の手の認識に加えて、一実施形態において、タッチセンサ式デバイスは、手がいつ物理オブジェクトをつかむかを検出することができる。例として限定されないが、片方の手がキーボードの上でモバイルデバイスを持っている時、または両方の手が物理的なステアリングホイール制御をつかんでいる時があげられる。一実施形態において、タッチセンサ式デバイスの上に生成された電気的な検出フィールドは、入力処理アルゴリズムがタッチセンサ式デバイスの上でユーザーまたは複数のユーザーによってつかまれている物理オブジェクトを識別するのを助けるために、物理オブジェクトの表面の上または下で3Dマーカーまたはマーカーのセットを検出することができる。一実施形態において、タッチセンサ式デバイスの上で保持された物理オブジェクトの形状またはカテゴリーは、物理オブジェクトを保持するユーザーまたは複数のユーザーの3Dハンドおよび掌握姿勢の分析によって、タッチセンサ式デバイスにより推論され得る。一実施形態において、3D空間内のタッチセンサ式デバイスに近位の物理オブジェクトは、タッチセンサ式デバイスによって検出された既知の周波数またはコード分割変調信号を介して、または限定さないが近距離無線通信、WiFi、およびbluetoothなどの個別の無線周波数通信チャネル経由で、その正体とカテゴリー、および3D位置をタッチセンサ式デバイスに通信することができる。
一実施形態において、タッチセンサ式デバイス近くの片方または両方の手の認識に加えて、手とデバイス入力の組み合わせがジェスチャに対して使用される。一実施形態において、手とデバイス入力の組み合わせは、(i)マウスまたはタッチセンサ式スクリーンを使用してコンピュータディスプレイ上の標的を選択する時、そして次に(ii)手のジェスチャで選択された標的を編集する時に、使用される。一実施形態において、ユーザーは、マウスを使用して地図アプリケーション上の関心地点を選択し、次に、手をキーボードから上へと離れるように移動させることによって、地図をズームアウトさせる。一実施形態において、限定されないが、検出される2D手モデル、3D手モデル、2D指モデル、3D指モデル、タッチセンサ式デバイス面の上の2D指先位置、タッチセンサ式デバイス面の上の3D指先位置、キーボード面に平行またはその上にある2D/3D面で起こる複数の指によるジェスチャ、手の識別、およびユーザーの識別などの任意の入力ストリームに適合した、個別のフィルタリング、処理、後処理、およびアプリケーションプログラムインターフェースを用いて、タッチセンサ式デバイスは、その行検出データを多数の入力ストリームへと細分化する。
一実施形態において、タッチセンサ式デバイスまたはapiは、容積内の手およびホバージェスチャを検出し、および表面の幾可学的形状を描写するためにそれらの位置と形状を使用する。一実施形態において、これは、平面のポインティングデバイス(すなわちマウスまたはトラックパッド)を使用して、3次元面、特に複雑な幾可学的形状のものの描写を容易にする。一実施形態において、3次元のNURBS(非一様有理Bスプライン)面は、想像上の面の上で1つ以上の手を動かすことによって予想され得る。一実施形態において、主要な曲率または等高線は、3D面を規定するために容積内で追跡され得る。一実施形態において、ジェスチャは、3Dモデル化機能を開始させるのに使用することができ、限定されないが以下を含む:押し出す、払う、回転、押す/引く動作、および彫刻をすること。一実施形態において、容積内のジェスチャは3Dモデル化機能を開始させるのに使用することができる。一実施形態において、片手でのジェスチャは、3Dモデル化機能を開始させるのに使用することができる。一実施形態において、両手でのジェスチャは、3Dモデル化機能を開始させるのに使用することができる。
電話などのモバイルデバイス、とりわけスマートウォッチのように小さなスクリーンをベースにした小さなモバイルデバイス等にタイプするのは困難であろう。一実施形態において、モバイルデバイスがタッチセンサ式デバイスの近位にある容積に配置される時に、例えばモバイルデバイスへのキーボード入力として、タッチセンサ式デバイスへの認識されたジェスチャまたは入力が転送される。一実施形態において、ユーザーは、タッチセンサ式デバイスまたはキーボードの上の容積にスマートウォッチを着用している腕を保つことができる。一実施形態において、ユーザーは、タッチセンサ式デバイスまたはキーボードの上の容積に携帯電話を置くことができる。いずれの場合も、ユーザーは、タッチセンサ式デバイスとインタラクトする(例えば、キーボードにタイプする)ために、別の手(またはデバイスが静止していれば両方の手)を使用することができ、およびインタラクションはモバイル機器(例えばスマートウォッチまたは携帯電話)に転送され得る。一実施形態において、タッチセンサ式デバイスに関する比容積にデバイス(例えばスマートウォッチまたは携帯電話)を配置することは、デバイスがタッチセンサ式デバイスからキーボード入力を受信すべきであることを示す。一実施形態において、タッチセンサ式デバイスまたはキーボードは、デバイスにキーボードデータを出力する。一実施形態において、タッチセンサ式デバイスとのインタラクションに対応する情報が、それぞれのデバイスのスクリーンに自動的に現われる。一実施形態において、タッチセンサ式キーボードのタイプに対応する情報が、タッチセンサ式キーボードに関係する容積に近接するモバイル機器のスクリーンに自動的に現われる。
従来のラップトップディスプレイでは、ホバー情報は限定されており、離れた指先の位置を検出することはできない。垂直ディスプレイ(例えばラップトップディスプレイ)の下に配されたタッチセンサ式デバイスを使用して、指がどのようにスクリーン、例えばラップトップスクリーンに接近し、接触するのかを検出することができる。一実施形態において、タッチセンサ式ではないディスプレイは、そのディスプレイ上でのタッチ性能を可能にするために、タッチセンサ式デバイスと組み合わせて使用される。一実施形態において、タッチ性能を備えた既存のラップトップディスプレイは、キーボードからの垂直ホバーデータを有する既存のディスプレイ2Dタッチ情報を補うために、タッチセンサ式デバイスと組み合わせて使用される。一実施形態において、(例えばタッチセンサ式キーボードからの)垂直ホバーデータを有する既存のディスプレイ2Dタッチ情報を補うために、タッチセンサ式デバイスを組み合わせることで、ディスプレイからの3D検出が可能になる。一実施形態において、入力情報と組み合わせたそのようなタッチセンサ式デバイス/ディスプレイのサブセットは、アプリケーションに提供される。一実施形態において、タッチセンサ式キーボードからのホバー入力は、指がいつスクリーンに接近したのかを示すために使用することができる。一実施形態において、指がスクリーンに接近していることを示すタッチセンサ式キーボードからのホバー入力は、例えばディープスリープから、ディスプレイのタッチセンサを覚醒させるのに使用される。一実施形態において、指がスクリーンに接触し、ユーザーインターフェースを準備し、かつ標的選択精度を改善するのに使用される前に、指の軌道が算出される。
本発明の実施形態において、タッチセンサ式キーボードからのユーザーの身体(指、手など)の距離は、連続変数(例えば「z」の値)として、アプリケーションまたは他のソフトウェアに提示され得る。一実施形態において、この距離は、「状態」と名付けられ得るものへと離散化されてもよく、およびそのような状態へのエントリ、その様な状態の存在、および/またはそのような状態からの脱出を判定するために利用されてもよい。一実施形態において、そのような「状態」は、反応を提供する(例えば開始する)ための方法の一部として使用される。一実施形態において、ホバー情報は、「ホバーしている」状態および「タイプしている」状態、または「キーに置かれている」状態へと離散化されてもよい。一実施形態において、離散化された情報は、ユーザーが関連する状態にある場合、例えばタイプを始める準備ができている時に、意味をなす動作を引き起こすのに使用される。一実施形態において、状態は、「遠くにホバーする」および「近くにホバーする」等の他の離散化を含む場合もある。一実施形態において、より多くの状態が使用される。一実施形態において、状態は下位状態を含み得る。一実施形態において、「ホバー」状態は下位状態を含む。一実施形態において、「ホバー」状態は、「遠くにホバーする」および「近くにホバーする」等の少なくとも2つの下位状態を含む。
タイプしている時にいくつかの指、特に親指には、いくらかの動きの自由がある。親指は、スペースキー以外にはめったに使用されない。しかしながら、多数のボタンを有する親指アイランドは生産性を高めるであろう。ホバー検出は、例えば以下のものなどの、親指のジェスチャを検出するのに使用されてもよい:親指の接近を考慮してスペースバーに過負荷をかける;イタリック体および/またはボールドなどのテキストフォーマットを変更するジェスチャとして識別された親指のホバー運動を有する;および/または、「ホバー」状態で識別された水平運動が取り消しまたは削除動作を引き起こす。一実施形態において、親指検出は、キーボードから手全体を持ち上げる必要なく、変更を開始させるのに利用可能である。一実施形態において、タイピング中に使われていない指の指追跡(finger tracking pose)は、タイプされるテキストに自動的にラベル付けする関連するエモティコンに使用することができる。これは、テキストベースの会話の表現性を高めるのに非常に有用であり、共有されているテキストを補う1セットのあらかじめ定義されたラベルへの迅速で広範なアクセスを可能にする。これはまた、文書をタイピングしている時に適用可能であり、ラベルまたは脚注として追加情報を加えることができる。
「ホバー」状態にある手は、手が閉じたり開いたりしている時はいつでも、異なるサインを提示する。一実施形態において、この情報は、ホバーをやめることなく、選択した動作を引き起こすために使用することができる。一実施形態において、この挙動は、例えば、特定ウィンドウへと「alt−tab」する水平運動を使用し、およびウィンドウを「つかんで」左半分または右半分の最大化へとそれを視覚的にドラッグするために、使用することができる。ラップトップ上でトラックパッドを有するタッチセンサ式デバイスを使用する場合、一実施形態において、「ドラッグ」は、トラックパッドを使用して片手で制御可能であり、および選択の開始と終了は、タッチセンサ式デバイスによって検出される容積に位置する場合にもう一方の手を開いたり閉じたりすることにより識別され得る。より一般的には、手が開いているか閉じているかの検出、または手で形を作ることは、スタイラスのインタラクション(例えばインクの色、または、線の厚みまたは消しゴム対ペン)、他の手のジェスチャ(例えば、より速くまたはゆっくりスクロールする)、キーボード上の別の手のインタラクション等の他のインタラクションを解釈するために使用することができる。一実施形態において、手が開いているか閉じているかの検出は、その手の動作を解釈するために使用されてもよく、例えば、ある形状に手を置くことは、それがマウス上であれば、その手はマウスの移動として解釈されるだろう。
より深遠な状態はマルチキーショートカットによって達成することができる。一実施形態において、例えば、ズームは制御され、control+とcontrol−はしばしば、ウェブページ上で漸増的にズームするために使用されるマルチキーの組み合わせである。一実施形態において、「ホバー」状態は、どのキーが押されているかに基づいた異なる意味を有し得る。したがって例えば、一実施形態では、固有キー(例えばZキー)が押されている間、「ホバー」情報は連続的な(相対的または絶対的な)ズームとして解釈され得る。別の例では、「space」を押すと、「ホバー」情報はグーグルマップ上のパン動作として解釈される。
「ホバー」の導入は、キーからキーへの完全な指の推移を提供することができる。一実施形態において、この情報は、ユーザーが誤って自身の手を配置し、間違った文字列をタイプしたために始まる多数の文字の誤植を識別するために使用することができる。例えば、tomorrowとタイプする代わりに、ユーザーがtonirriwとタイプすると、最初の「o」から始まる適切な位置に右手を置いていなかったことを示すだろう。一実施形態において、一旦この種の誤植が識別されると、「ホバー」情報は、残りのキー押を適切に修正するために使用することができる。一実施形態において、一旦この種の誤植が識別されると、「ホバー」情報は、スペルチェックアルゴリズムで使用される追加の情報を加えるために使用することができる。そのような実装は、「書かれた言語」だけでなくユーザーの典型的な手の位置の誤りに基づいたリアルタイムでのスペルチェックを達成し、および手の位置が悪かったとしても正しいタイピングを提供し、したがって場合によってはスクリーン上で目視可能な誤植を先んじて回避し得る。
本発明のいくつかの実施形態では、タッチセンサ式キーボードは、ムーブなどの他の入力デバイスによって囲まれていてもよく、「ホバー」状態は、タイピングとマウスへのエンゲージメントとの間の推移を示すことができる(右手の水平運動がキーボードの右に去るのを観察することによって)。一実施形態において、これは、マウスのサンプリング速度を高めるために、またはちょうどマウスが使用されようとしている時にマウスカーソルを強調するために、合図を提供することができる。一実施形態では、ラップトップコンピュータなどの、キーボードの下のデバイスに組み込まれたトラックパッドが含まれ、そのようなトラックパッドはしばしば、ユーザーの掌がキーボードの下にあるために、偶発的な入力の主体となる。一実施形態において、ユーザーの指がホバーキーボードに載っている場合、そのような偶発的な入力は、トラックパッドをオフにする、そうでなければ無視することによって、緩和または回避される。一実施形態において、ユーザーの指がホバーキーボードに載っている場合、そのような偶発的な入力は、トラックパッドをオフにする、そうでなければ無視することによって、緩和または回避される。
一実施形態において、単一のキーまたはキーの集合は、等大のジョイスティックとして作用する。一実施形態において、ジョイスティックの方向は、キーボード上の近傍のキーの間で信号強度を補間することにより算出される。一実施形態において、キーボード上の単一のキーは、「center」キーとして示され、および等大のジョイスティックの方向は、この「center」キーおよびそのすぐ近くのキーの信号強度の補間によって判定される。
一実施形態において、単一のキーまたはキーの集合は、ジョイスティックとして作用する。一実施形態において、ジョイスティックの方向は、キーボード上の近傍のキーの間で信号強度を補間することにより算出される。一実施形態において、キーボード上の単一のキーは、「センタ」キーとして示され、および等大のジョイスティックの方向は、この「センタ」キーおよびそのすぐ近くのキーの信号強度の補間によって判定される。一実施形態において、2つの(またはより多くの)キーまたは2つの(またはより多くの)キーの集合は、独立したジョイスティックとして作用する。
フェーダー制御は、しばしば線形の様式で範囲を選択するスライドスイッチである。一実施形態において、タッチセンサ式キーボードはフェーダーをエミュレートすることができる。タッチセンサ式キーボードがフェーダーをエミュレートすると、キーボードのセクションは、フェーダー制御に相当する入力を提供するように支持され、ここでデジタル配列またはアナログ値が仮想フェーダーの位置を示すために提供される。一実施形態において、仮想フェーダーは、解放されると真中に戻ることができる。一実施形態において、仮想フェーダーは、解放されるとその最後の位置に留まることができる。一実施形態において、仮想フェーダーの解放は、タッチまたはホバー信号の欠如によって開始される。一実施形態において、フェーダー制御は、キーボードのスペースバーを使用する場合もある。スペースバーの長い形状は、その上で人の指を左と右にスライドさせるのに当然のことながら適している。一実施形態において、多数のセンサが、そのようなスライド動作またはホバー動作を検出するために、スペースバー内にある。一実施形態において、スペースバーの上にあるユーザーの指の左/右の位置が研鑽され、アプリケーションに流される。
一実施形態において、タッチセンサ式キーボードには1つ以上のモードが提供され、そこでタッチパッドポインタデバイスのように挙動する。一実施形態において、タッチセンサ式キーボードは、通常タッチパッドに関するジェスチャの少なくともいくつか、可能性としてはその全てに関する入力を提供する。一実施形態において、タッチパッドモードにある時、タッチセンサ式キーボードは以下の少なくともいくつかに関する入力を提供する:タップ、ダブルタップ、スワイプ、ピンチズーム、スクロール、全てのウィンドウを開ける、デスクトップを示す、ウィンドウ間の切り替え、およびデスクトップインタラクションに提供されるものなどの、ホストによってインタラクションとして受け入れられる他のジェスチャ。
M=T+E
タッチセンサはMを受信するが、Tがより望ましい。
キーボードとマウスからの入力は、最近のコンピューティングシステムにおいて最も速く有効なものと考えられており、ゲーム産業のおかげで近年のいくつかの機械的な革新に好都合である。しかしながら、既存の計算用の入力デバイスとしてのそれらの優位性を考慮したとしても、機械のみのキーボードは依然として、通信チャネルと、それらがオペレーティングシステムによって処理される方法に固有のレイテンシを示す。一実施形態において、新たな情報チャネルは、キーボードに関するレイテンシ問題に取り組むことを可能にする。特に、一実施形態において、タッチセンサ式キーボードの検出能力は、同時係属中の米国特許出願第14/490,363号に記載されているようなキーボードへの、レイテンシ低減技術の適用を可能にする。本明細書に開示されるタッチセンサ式デバイスは、タッチスクリーンにこれまでに委託された技術が、物理ボタンをベースにしたデバイスを使用するのを可能にし、指の軌道を理解するために、および指がいつキーに触れてその動作を引き起こすかをより正確に予測するために、物理キーボード付近での動きを分析するためにヒートマップホバー検出情報を使用する。ホバー性能は、ハードウェアまたはソフトウェア通信による応答時間を減少させ、コンピューティングシステディスプレイ適合技術におけるより即時の視覚応答を提供する、予測方法の適用を可能にする。
ホバーキーボードは、タッチとタッチ近接についての高解像度データを提供する。一実施形態において、アプリケーションは、検証、開発またはエンターテインメント用に、タッチとタッチの近接についての詳細情報を表示するために、このデータを使用してもよい。一実施形態において、タッチとタッチ近接データは、アプリケーションインタラクションについてユーザーにビジュアルキューを提供するために、アプリケーションキャンバスに重ねて表示され得る。一実施形態において、タッチとタッチ近接データは、ヒートマップ、ヒストグラム、手と指の表現、ツール、キャラクター、アバター、および他のアプリケーションの適切なビジュアル化の形態であり得る。
一実施形態において、タッチセンサ式デバイスは、キーキャップとの物理的接触および空中事象におよぶハイブリッドジェスチャを可能にする。ここで、タッチセンサ式デバイス面との検出された物理的接触の瞬間は、空中ジェスチャのキーキャップ標的を指定し、かつ多数のキーキャップ(書き言葉における句読点のようなもの)の上、またはそれをまたがる空中ジェスチャの「開始」と「停止」を区切るために、使用される。および、空中ジェスチャの検出は、検出された入力事象に表現性とモダリティを加えるために使用される。任意のタッチセンサ式デバイスのキーキャップでの単一の指による入力に関する一実施形態において、以下の空中+接触ハイブリッドジェスチャボキャブラリが可能である:図14は、本明細書に開示されるタッチセンサ式デバイスと関連して使用され得る空中ジェスチャのサンプルリスト(つまり、サンプルジェスチャボキャブラリ)を提供する。一実施形態において、1つ以上のハイブリッドジェスチャは、あらかじめ決められた、またはプログラム可能な機能を行なうために使用することができる。以下の例は、そのようなハイブリッドジェスチャを使用することができる方法の例示を意図しているが、本開示のより一般的な性質を制限するようには意図されておらず、それらは添付された特許請求の範囲によってのみ制限される。
一実施形態において、これらのハイブリッドタッチセンサ式デバイス入力ジェスチャは、2つ以上の別個のキーキャップ入力起動を、単一のキーキャップ起動にリンクするために使用されてもよく、限定されないが、多数のキーキャップ起動にわたってキーボード上のFunction−/Crtl−/Shift−Lockを保つこと、または多数のキーキャップの同時または連続した入力が結合されて単一のキーキャップ起動にリンクされる連続キーボードマクロコマンドを生成することを含む。
一実施形態において、3つのハイブリッドタッチセンサ式デバイス入力ジェスチャは、キーを指に接触させ(しかし起動しない、すなわち単にキーキャップに載せている)、次にキーキャップを持ち上げ、その後、後々その物理キーの起動に関係するキーキャップ機能の連続したリストを繰り返すために直線スワイプを行うことによって、タッチセンサ式デバイスの任意のキーキャップの起動機能を変更するために使用されてもよい。
一実施形態において、これらの3つのタッチセンサ式デバイス入力ジェスチャは、キーに接触する前に空中で時計回りまたは反時計回りに円を描くことによって、2つの状態間でキーキャップ機能を素早く変更するために使用されてもよい。一実施形態において、起動前に「j」キーキャップの上で空中で右回りに円を描くことで、「j」文字入力を小文字に設定し、他方で起動前に「j」キーキャップ上で空中で左回りに円を描くことで、「j」文字入力を大文字に設定する。一実施形態において、2つの状態の機能キーキャップは、キーキャップの左側に音量ミュートコマンドアイコンを、およびキーキャップの右側にF4機能アイコンを示してもよい。音量ミュートコマンドに向けた反時計回りの空中ジェスチャは、キーキャップ起動にそのコマンドを記録し、F4機能アイコンに向けた時計回りの空中ジェスチャは、キーキャップ起動にそのコマンドを記録する。
一実施形態において、これらのハイブリッドタッチセンサ式デバイス入力ジェスチャは、2つ以上の別個のキーキャップ入力起動を、単一のキーキャップ起動にリンクするために使用されてもよく、限定されないが、多数のキーキャップ起動にわたってキーボード上のFunction−/Crtl−/Shift−Lockを保つこと、または多数のキーキャップの同時または連続した入力が結合されて単一のキーキャップ起動にリンクされる連続キーボードマクロコマンドを生成することを含む。
一実施形態において、これらのハイブリッドタッチセンサ式デバイス入力ジェスチャは、音量機能専用のキーキャップに接触することによって(しかし起動しない、すなわち単にキーキャップに載せている)、次にキーキャップを持ち上げ、その後に円形運動を行って、右回りまたは左回りの回転が音量レベルの増減に直線的にマッピングされることにより、タッチセンサ式デバイスによって制御されるコンピュータシステムの音量または明るさを変更するために使用されてもよい。
一実施形態において、これらのハイブリッドタッチセンサ式デバイス入力ジェスチャは、2つ以上の別個のキーキャップ入力起動を、単一のキーキャップ起動にリンクするために使用されてもよく、限定されないが、多数のキーキャップ起動にわたってキーボード上のFunction−/Crtl−/Shift−Lockを保つこと、または多数のキーキャップの同時または連続した入力が結合されて単一のキーキャップ起動にリンクされる連続キーボードマクロコマンドを生成することを含む。
一実施形態において、これらのハイブリッドタッチセンサ式デバイス入力ジェスチャは、音量機能専用のキーキャップに接触することによって(しかし起動しない、すなわち単にキーキャップに載せている)、次にキーキャップを持ち上げ、その後に円形運動を行って、右回りまたは左回りの回転が音量レベルの増減に直線的にマッピングされることにより、タッチセンサ式デバイスによって制御されるコンピュータシステムの音量または明るさを変更するために使用されてもよい。
一実施形態において、これらのハイブリッドタッチセンサ式デバイス入力ジェスチャは、2つ以上の別個のキーキャップ入力起動を、単一のキーキャップ起動にリンクするために使用されてもよく、限定されないが、多数のキーキャップ起動にわたってキーボード上のFunction−/Crtl−/Shift−Lockを保つこと、または多数のキーキャップの同時または連続した入力が結合されて単一のキーキャップ起動にリンクされる連続キーボードマクロコマンドを生成することを含む。
一実施形態において、これらのハイブリッドタッチセンサ式デバイス入力ジェスチャは、空中のジグザグジェスチャを検出する前にちょうど行なわれたキーキャップ起動の連続したセットを削除または取消すために使用されてもよい。
一実施形態において、これらのハイブリッドタッチセンサ式デバイス入力ジェスチャは、キーキャップ起動の力に関するプロキシとして、またはキーキャップ起動前に指の軌道の空中でのZの高さが、特定の閾値の高さまたは傾斜を超えるかどうかを測定することによって、任意のキーキャップに関する2つの可能な入力コマンド間を素早くトグルで切り替えるための手段として、使用されてもよい。
一実施形態において、これらのハイブリッドタッチセンサ式デバイス入力ジェスチャは、特定の傾斜または高さの閾値の空中ジェスチャによってリンクされた2つ以上の別個のキーキャップ入力起動を、単一のキーキャップ起動にリンクするために使用されてもよく、限定されないが、多数のキーキャップ起動にわたってキーボード上のFunction−/Crtl−/Shift−Lockを保つこと、または多数のキーキャップの同時または連続した入力が結合されて単一のキーキャップ起動にリンクされる連続キーボードマクロコマンドを生成することを含む。
一実施形態において、これらのハイブリッドタッチセンサ式デバイス入力ジェスチャは、物理キーキャップ起動に現在割り当てられているキーキャップコマンドとまず接触し、次にキーボード面から「それを捨てる、または引き離す」ために空中スパイクジェスチャを行なうことによって、任意の物理キーキャップにマッピングされた1セットの入力コマンドのうち可能性のある潜在的な入力コマンドを取り出すために使用されてもよい。
タッチセンサ式デバイスの一実施形態において、ソフトウェアの補足的情報は、そのキーボードASCIIコードへのアタッチメントとしてのキーボードの各キーに提供され得る。これは、キーの意味を修正する近距離動作に使用することができる。例えば、チェックボックス、コンボリスト、ラジオボタン、およびスライダなどの既存のGUIウィジェットは、キーによって表され識別されたUI要素を制御するためにそのホバー検出性能を使用してキー上に直接マッピングされてもよい。例えば、1セットのキーは、任意のキーに対するホバー距離に基づいた1セットの範囲値を特定するために1セットのスライダをマッピングすることができる。オンキー(On key)ジェスチャはまた、キーボードをGUIインタラクションとユーザーがキーを押している時のタイピングのための同じタイプとして使用できるようにするUI要素の選択を確認するために使用可能である。
タッチセンサ式デバイスの一実施形態において、キーボードの上のヒートマップ情報と動きは、次元を導入するためにキーボードの上部にオブジェクトを置くことによる、または任意のキーに近づくのにかかる時間に基づいて時間を規定するのを可能にするキーとのインタラクションによる測定システムとして、またはキーに近づくときの動きを見ることによる力として、使用される。これらのモードは、他の領域またはキーボードのキーを使用して起動され得る。測定値と形状は、センサによって提供されるヒートマップの足跡を使用して規定され得る。指が実際にキーを打つまで、指がいつ任意のキーの範囲にあるかを検出して、時間を特定することができる。指がキーの範囲にある時から指がキーを打つ時までの動作を見て、力を推定することができる。
「動作」は、音楽の表記法、研究および実施において特定の意味を有する「ジェスチャ」と区別するために選ばれる。「ジェスチャ」が使用される場合、これはキーボードまたはその入力データの処理によるジェスチャの定義と認識を指す。以下の実施形態は、音楽の動作を支持するために調整されたタッチセンサ式デバイスの使用を実証する。各楽器とのインタラクションは、ホバーとタッチデータの分析、および楽器の操作に関して予期されるジェスチャとの一致によってシミュレートすることができる。この方法では、楽器とのインタラクションがシミュレートされ、関係するソフトウェアが、シンセサイザーとシーケンサーで現在使用されている従来のピアノ様式のキーボードを越える方法で、実際の楽器の調子、音声、振幅および音を演奏する。パーカッション動作には、たたく、はらいのける、タップする、および他の動作が含まれる。これらの動作は、キーボードが仮想ドラムセットになる仮想の打楽器を動かすためのジェスチャとして識別され、および様々な打楽器の音と特徴を演奏することができる。キーボードからの入力は、ドラムスティック、ブラシおよび他のパーカッションデバイスの形状で、タッチデータのオーバーレイを用いてディスプレイを駆動する。ギターまたはバイオリンなどの弦楽器とのインタラクションは、ソフトウェアによって特定のジェスチャに識別され、および仮想弦楽器の状態と出力を変更することができる、様々な動作を有している。楽器および楽器に対する動作は、手、(打楽器の)つめ、および弓の形態で視覚化可能である。
これまでの試みは、従来の機械的キーキャップとのインタラクションに関連する特定の特徴をみることによって、異なるキーボードのユーザーを区別するためになされてきた。そのような特徴は、個々のキー押の長さ、続くキー押間の時間、一連のキー押の時間、およびタイプされたキーへの圧力を含む。これらの技術は、「他者のタイプの仕方」から「あなたのタイプの仕方」を区別しようと試みる。
キーボードに対するユーザーの手の正確な位置と姿勢を理解することは、VR、ARおよびバイオメトリックスにおける価値のある応用を有している。そのため、一実施形態において、タッチセンサ式デバイスによって測定されたヒートマップと、追加のセンサによって測定された手の姿勢との間に一致を確立する。そのような追加のセンサは、限定されないが、モーションキャプチャシステム、飛行時間型3Dセンサ(例えばKinect、およびLeap−Motion Controller)、およびカメラを含む。タッチセンサ式デバイスの上で検出されたヒートマップデータは、まず距離画像として解釈することができ、そのような変換されたマップからの特定の特徴は、キーボードの範囲にある時のユーザーの手の手骨格モデルを計算するために使用することができる。手骨格は、指に対応するすべての関節と同様に手の位置も含む。そのような手骨格の適用は、上記のジェスチャを可能にする確実なジェスチャ認識を可能にするであろう。そのような手骨格情報を衝突検出と物理演算エンジン(game physic engine)と組み合わせて、ユーザーの存在と仮想コンテンツの物理的リアリズムを増強する、仮想環境のための手の仮想表現を提示することも可能である。
一実施形態において、タッチセンサ式デバイスは、ユーザーがVR環境でキーボードとインタラクトしている時に、ユーザーの手を追跡するために使用される。キーボードと手の両方を、参照システムとして使用することができる。そうすることで、タッチセンサ式デバイスの手検出性能によるキーボードの仮想表現の提示が可能になる。一実施形態において、手がキーボードによって検出されると、キーボードの仮想表現をユーザーに提示することができ、VR環境を去ることなくユーザーはキーボードとインタラクトすることができる。一実施形態において、手が物理キーボードの範囲にない場合(例えばタイピングが終わっている場合)、キーボードの仮想表現は、ユーザーをVR環境に没頭させたまま消えることができる。一実施形態において、仮想キーボード表現は、キーボードの物理的表現と一致できる。一実施形態において、仮想キーボード表現は、キーのレイアウトを示すフローティング式オーバーレイである。一実施形態において、仮想手ミラーリングは、キーボードの上に現実的に表される。一実施形態において、仮想手ミラーリングは、仮想キーボードのレイアウトの上に象徴的に表される。
一実施形態において、タッチセンサ式デバイスは、タッチセンサ式デバイス上またはその上にあるユーザーの指または手の姿勢/モデルの2Dまたは3Dの手モデルを検出および表示するための、ARとVRアプリケーションのためのアプリケーションプログラムインターフェイスを提供する。一実施形態において、この2Dまたは3Dの指または手の姿勢/モデルは、タッチセンサ式デバイス面上の、またはその上にある検出された指と手の解剖学的に正確な再構成である。一実施形態において、この2Dまたは3Dの指または手の姿勢/モデルは、タッチセンサ式デバイス面上の、またはその上にある検出された指と手の解剖学的に正確な再構成として単数または複数のユーザーに表示される。一実施形態において、この2Dまたは3Dの指または手の姿勢/モデルは、タッチセンサ式デバイス面上の、またはその上にある検出された指と手の架空の、または改良された再現として単数または複数のユーザーに表示され、限定されないが、ユーザーの2Dまたは3Dの指と手の姿勢モデルの解剖学的構造と検出された動きを、限定されないがビデオゲームの架空のキャラクターの3Dロボット爪などの人工3Dモデルにマッピングすることなどである。一実施形態において、ARまたはVRにおいて、この2Dまたは3Dの手の姿勢/モデルが、タッチセンサ式デバイスの物理面に垂直な固定されたz高さにある任意の平行面の上を動いていると検出されると、タッチセンサ式デバイスはユーザーには見えなくなる。一実施形態において、ARまたはVRにおいて、この2Dまたは3Dの手の姿勢/モデルが、タッチセンサ式デバイスの物理面に垂直な固定されたz高さにある任意の平行面の下を動いていると検出されると、タッチセンサ式デバイスはユーザーには見えるようになる。一実施形態において、ARまたはVRにおいて、この2Dまたは3Dの手の姿勢/モデルの垂直なz高さは、タッチセンサ式デバイスの物理面の与えられた透明度にリンクされ、その結果、タッチセンサ式デバイスは、単数または複数のユーザーの手がその面に近づいたり遠ざかったりすると、視界にフェードインおよび視界からフェードアウトし、逆もまた同じである。一実施形態において、協同的なインタラクション中に、1つのタッチセンサ式デバイスのユーザーの検出された2Dまたは3Dの指および/または手の姿勢モデルは、別のユーザーのタッチセンサ式デバイスの3Dまたは物理モデルにマッピングされる、2D、AR、またはVRディスプレイ上に与えられる。そのような実施形態は、両方のユーザーに、彼らの間での指/手の姿勢の通信の意図に関する優れたコンテキストを提供し、一実施形態においては、タッチセンサ式デバイス上のコマンドのいくつかを使用する方法を1人のユーザーが別のユーザーに教えるためのツールとして特に有用であり得る。
一実施形態において、VR環境では、タッチセンサ式デバイスは、アプリケーション開発者および/またはコンピュータシステムが、任意の物理的なまたは仮想のキーキャップ、制御、スライダまたはボタンに正確にマッピングされた2Dおよび3DのVRホログラムを生成することができるようにする、1セットのアプリケーションプログラムインターフェイスを有する。これらは、物理的なキーキャップ起動に際して生じ得る入力コマンドの、現在マッピングされているセットを示し、一方で、キーボードのショートカットを学習するための視覚的なアフォーダンスを提供する。一実施形態において、それは、タッチセンサ式デバイスに接続されたコンピュータシステム上の稼働中のアプリケーションに関連する利用可能なキーキャップコマンドを特定することができる。一実施形態において、任意のVR技術(限定されないがヘッドマウントディスプレイ、ペイント目視可能な2Dおよび3DのVRホログラフィ)を使用してブランク物理キーキャップ(blank physical keycap)が仮想環境から観察される一方で、インタラクティブアイコンがユーザーに表示されてもよく、それは特定の物理キーボード位置にマッピングされ、その上をフローティングする。一実施形態において、多段階の物理ボタン/デジタルボタンが提示され、ここで任意の物理ボタンが多層のデジタルボタンへと拡張され、後者は、キーボードの物理面の上の漸進的により高くなるz高さで蝶のように開く、1セットの連続的なホログラフィUI層として存在する。一実施形態において、2Dおよび3Dの視覚フィードバックは、面につながれ、および/またはキーキャップの近接、休止、および起動状態に応答する任意の物理キーキャップ面の上の特定のz高さに設定され、これは、例えば視覚フィードバックを爆発等のように活気づけるために使用することができ、VR環境により多くの映像をもたらす。
一実施形態において、ユーザーインターフェースにマッピングされたVR物理オブジェクトはまた、仮想コンテンツと物理的なタッチセンサ式デバイスの両方が、フォトリアリスティックな、またはフォトリアリスティックではない方法でシームレスに重複する拡張現実環境において、適用可能である。一実施形態において、AR環境では、タッチセンサ式デバイスは、アプリケーション開発者および/またはコンピュータに制御された2Dおよび3DのARホログラムが、任意の物理的なキーキャップ、制御、またはボタンに正確にオーバーレイされるのを可能にする、1セットのアプリケーションプログラムインターフェイスを有する。
一実施形態において、タッチセンサ式デバイスは、ユーザーの物理的な指および/または手の姿勢の3Dの指および/または手のモデルを検出することができるように、提供される。一実施形態において、そのようなタッチセンサ式デバイスは、ユーザー入力に応じて、キーキャップ−および指特異的触覚を、ユーザーの指および/または手に向けるために使用され得る。
一実施形態において、タッチセンサ式デバイスが提供され、ここでその入力制御のいくつか、またはすべては、限定されないが振動触覚、静電気、物理的アフォーダンス、または電気ショック技術を含む手段を通じて、局所的な触覚フィードバックによりシミュレートされる。
一実施形態において、タッチセンサ式デバイスが提供され、ここでその物理的な入力制御のいくつかまたはすべては、限定されないが電気的活性のあるポリマーおよびマイクロ電気機械的ロボット工学を含む、制御された物理的変形技術を通じて形成され、または再形成される。
Claims (22)
- タッチセンサ式キーボードであって:
a.各々が指の近接に応じてタッチ信号を出力するのに適した複数のキー;
b.キーから分離しており、タッチに感度のあるタッチパッド領域;および
c.複数のキーに動作可能に連結されたプロセッサであって、それによってタッチ信号出力を受信することができ、および、少なくとも1つの近接信号が受信された時にタッチに対するタッチパッドの感度を無効にするように構成された、プロセッサ、
を含む、タッチセンサ式キーボード。 - プロセッサは、近接信号のあらかじめ構成されたグループが受信されると、タッチパッドのタッチへの感度を無効にするように構成される、請求項1に記載のタッチセンサ式キーボード。
- プロセッサは、1セットのあらかじめ構成されたキーからの近接信号に応じて、タッチパッドのタッチへの感度を無効にしないように構成される、請求項1に記載のタッチセンサ式キーボード。
- 複数のキーは、あらかじめ選択されたキーのグループを含まない、請求項1に記載のタッチセンサ式キーボード。
- あらかじめ選択されたキーのグループは、control、shift、およびaltから成る群から選択される少なくとも1つを含む、請求項4に記載のタッチセンサ式キーボード。
- 制御としてタッチセンサ式キーボードを使用する方法であって、タッチセンサ式キーボード上の複数のキーの各キーは、制御として動作するキーと指の間の距離に対応する信号強度を出力するのに適しており、該方法は、
a.タッチセンサ式キーボードに対する少なくとも1つの指の少なくとも一部のあらかじめ規定された位置付けに基づいて、タッチセンサ式キーボードを制御状態に置く工程;
b.制御状態にある間に、キーボード上の近傍のキーのグループの間で信号強度を補間することにより、繰り返し制御方向を判定する工程;および
c.制御に使用するためのホストに制御方向を出力する工程、
を含む、方法。 - a.キーボード上の近傍のキーのグループの間の信号強度の補間によって制御規模を判定する工程;および
b.制御に使用されるホストに制御規模を出力する工程、
をさらに含む、請求項6に記載の方法。 - あらかじめ規定された位置付けは、ctrlキーとaltキーに載っている片方の手の2つの指;およびスペースバーに載っている両方の親指、の群から選択される1つである、請求項6に記載の方法。
- あらかじめ規定された位置付けは、人間工学的に容易であるが、通常のキーボードの使用中には起こらないであろうように、あらかじめ選択される、請求項6に記載の方法。
- 近傍のキーのグループはセンタキーおよび各隣接キーを含む、請求項6に記載の方法。
- 近傍のキーのグループはセンタキーに隣接している各キーを含む、請求項6に記載の方法。
- 近傍のキーのグループは、センタキーの一定距離内にある各キーを含む、請求項6に記載の方法。
- 近傍のキーのグループは、タッチセンサ式キーボードの1つの行の隣接するキーのグループを含む、請求項6に記載の方法。
- 近傍のキーのグループは、タッチセンサ式キーボードの少なくとも2つの隣接する行の隣接するキーのグループを含む、請求項6に記載の方法。
- 制御方向と制御規模は、ジョイスティックをエミュレートするために使用される、請求項7に記載の方法。
- 制御方向と制御規模は、コンピュータマウスをエミュレートするために使用される、請求項7に記載の方法。
- a.制御として動作する指のベースライン位置を確立する工程;および
b.制御方向を判定する工程は、ベースライン位置からデルタを確立する、
工程をさらに含む、請求項6に記載の方法。 - 制御方向は、上、下、左、および右から成る群から選択される、請求項6に記載の方法。
- タッチセンサ式キーボードは、一定期間、制御状態に留まる、請求項6に記載の方法。
- タッチセンサ式キーボードは、タッチセンサ式キーボードに対する少なくとも1つの指の少なくとも一部のあらかじめ規定された第二の位置付けが起こるまで、制御状態に留まる、請求項6に記載の方法。
- 第2のあらかじめ規定された位置付けは、ホーム行の位置である、請求項20に記載の方法。
- タッチセンサ式キーボードであって:
a.複数のタッチセンサ式キー;
b.複数のタッチセンサ式キーの各々と、その近位にある少なくとも1つの指の間の距離に対応する信号強度を測定するのに適した信号プロセッサ;
c.プロセッサであって、
i.押されている複数のタッチセンサ式キーの1つに応えてキーストロークを出力し、および
ii.キーボード上の複数のタッチセンサ式キーの各々に関する信号強度を補間することによって判定された1つ以上のタッチ点を出力するように構成された、
プロセッサ、
を含む、タッチセンサ式キーボード。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662395835P | 2016-09-16 | 2016-09-16 | |
US62/395,835 | 2016-09-16 | ||
PCT/US2017/051918 WO2018053357A1 (en) | 2016-09-16 | 2017-09-15 | Touch sensitive keyboard |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019537084A true JP2019537084A (ja) | 2019-12-19 |
JP2019537084A5 JP2019537084A5 (ja) | 2020-10-22 |
Family
ID=61619763
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019511924A Pending JP2019537084A (ja) | 2016-09-16 | 2017-09-15 | タッチセンサ式キーボード |
Country Status (5)
Country | Link |
---|---|
US (1) | US11029843B2 (ja) |
JP (1) | JP2019537084A (ja) |
CN (1) | CN109952551A (ja) |
DE (1) | DE112017004677T5 (ja) |
WO (1) | WO2018053357A1 (ja) |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9858754B2 (en) | 2012-06-14 | 2018-01-02 | Bally Gaming, Inc. | System and method for augmented reality gaming |
DE102016212240A1 (de) * | 2016-07-05 | 2018-01-11 | Siemens Aktiengesellschaft | Verfahren zur Interaktion eines Bedieners mit einem Modell eines technischen Systems |
US10394342B2 (en) * | 2017-09-27 | 2019-08-27 | Facebook Technologies, Llc | Apparatuses, systems, and methods for representing user interactions with real-world input devices in a virtual space |
CN107833251B (zh) * | 2017-11-13 | 2020-12-04 | 京东方科技集团股份有限公司 | 瞳孔定位装置和方法、虚拟现实设备的显示驱动器 |
US20190213519A1 (en) * | 2018-01-05 | 2019-07-11 | Saent Holding Ltd. | Productivity Improvement Device |
US10318811B1 (en) * | 2018-04-22 | 2019-06-11 | Bubbler International Llc | Methods and systems for detecting objects by non-visible radio frequencies and displaying associated augmented reality effects |
US11177093B1 (en) * | 2018-09-27 | 2021-11-16 | Apple Inc. | Touch-sensitive mechanical keyboard with sensing circuits for touch events and key depression events |
WO2020081943A1 (en) | 2018-10-19 | 2020-04-23 | Hit Box, L.L.C. | Ergonomic game controller and system |
US10769874B2 (en) * | 2018-12-11 | 2020-09-08 | Ford Global Technologies, Llc | Variable height exterior keypad |
WO2020147840A1 (zh) * | 2019-01-17 | 2020-07-23 | 北京钛方科技有限责任公司 | 触控板按压力检测方法、装置、存储介质和计算机设备 |
US10852844B1 (en) * | 2019-05-09 | 2020-12-01 | Dell Products, L.P. | Configuring the layout of a keyboard using gestures |
US10719137B1 (en) * | 2019-05-09 | 2020-07-21 | Dell Products, L.P. | User identification via hand detection using a hovering keyboard |
CN211555751U (zh) * | 2019-05-20 | 2020-09-22 | 光宝电子(广州)有限公司 | 剪刀件与按键结构 |
JP2021005127A (ja) * | 2019-06-25 | 2021-01-14 | 株式会社東海理化電機製作所 | 認証装置およびプログラム |
US10852842B1 (en) * | 2019-07-29 | 2020-12-01 | Cirque Corporation, Inc. | Keyboard capacitive backup |
KR20210069491A (ko) * | 2019-12-03 | 2021-06-11 | 삼성전자주식회사 | 전자 장치 및 이의 제어 방법 |
DE102020113863A1 (de) * | 2020-05-23 | 2021-11-25 | Andreas Fischer | Elektronisches Labor- und Prüfgerät und Verfahren zum Betreiben eines solchen |
US11471765B2 (en) * | 2020-11-30 | 2022-10-18 | Sony Interactive Entertainment Inc. | Handwriting recognition using cardinal directions between sample points |
US11614824B2 (en) * | 2021-07-29 | 2023-03-28 | Talent Unlimited Online Services Pvt. Ltd. | System and method to measure latency in displaying a key tap event |
US11983327B2 (en) * | 2021-10-06 | 2024-05-14 | Fotonation Limited | Method for identifying a gesture |
US20230121241A1 (en) * | 2021-10-20 | 2023-04-20 | Dell Products L.P. | System and method of utilizing a keyboard with a display |
TWI824632B (zh) * | 2022-07-26 | 2023-12-01 | 達方電子股份有限公司 | 具有鍵擊手感的可靜音輸入裝置 |
DE102022127225A1 (de) | 2022-10-17 | 2024-04-18 | Inventus Engineering Gmbh | Vorrichtung und Verfahren zum Steuern von Tasteneinheiten |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11345076A (ja) * | 1998-04-30 | 1999-12-14 | Hewlett Packard Co <Hp> | スクリ―ンポインタ位置制御装置 |
JP2003208261A (ja) * | 2002-01-16 | 2003-07-25 | Toshiba Corp | 電子機器およびポインティング手段制御方法 |
JP2004295727A (ja) * | 2003-03-28 | 2004-10-21 | Toshiba Corp | 情報処理装置、および入力制御方法 |
JP2008004000A (ja) * | 2006-06-26 | 2008-01-10 | Toshiba Corp | 入力装置 |
JP2008134836A (ja) * | 2006-11-28 | 2008-06-12 | Wacom Co Ltd | タッチパネル装置 |
JP2014515147A (ja) * | 2011-06-21 | 2014-06-26 | エンパイア テクノロジー ディベロップメント エルエルシー | 拡張現実のためのジェスチャベースユーザインターフェース |
US20150309589A1 (en) * | 2014-04-23 | 2015-10-29 | Wistron Corporation | Electronic device and associated control method and computer program product |
JP2015219663A (ja) * | 2014-05-15 | 2015-12-07 | アルプス電気株式会社 | キーボード装置 |
JP2015219664A (ja) * | 2014-05-15 | 2015-12-07 | アルプス電気株式会社 | キーボード装置 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20010040550A1 (en) * | 1998-03-12 | 2001-11-15 | Scott Vance | Multiple pressure sensors per finger of glove for virtual full typing |
US20020180704A1 (en) * | 2001-05-30 | 2002-12-05 | Rudd Michael L. | Automatic disabling of computer keyboard insertion point control during typing |
US20060132447A1 (en) * | 2004-12-16 | 2006-06-22 | Conrad Richard H | Method and apparatus for automatically transforming functions of computer keyboard keys and pointing devices by detection of hand location |
JP2010533329A (ja) * | 2007-07-12 | 2010-10-21 | アトメル・コーポレイション | 2次元タッチパネル |
US9448721B2 (en) * | 2008-03-19 | 2016-09-20 | Blackberry Limited | Electronic device including touch-sensitive input device and method of determining selection |
US8471814B2 (en) * | 2010-02-26 | 2013-06-25 | Microsoft Corporation | User interface control using a keyboard |
EP2592566A1 (en) * | 2011-11-10 | 2013-05-15 | Research In Motion Limited | Touchscreen keyboard predictive display and generation of a set of characters |
CN203838674U (zh) * | 2014-05-21 | 2014-09-17 | 合肥联宝信息技术有限公司 | 一种笔记本电脑的触摸装置硬件 |
US9612664B2 (en) * | 2014-12-01 | 2017-04-04 | Logitech Europe S.A. | Keyboard with touch sensitive element |
US9746937B2 (en) * | 2015-10-02 | 2017-08-29 | Blackberry Limited | Method and apparatus for movable assembly position sensing and virtual keyboard display |
US10365775B2 (en) * | 2016-01-21 | 2019-07-30 | Microchip Technology Incorporated | Method and system for sensing impedance change in the local space between electrodes |
-
2017
- 2017-09-15 US US16/334,010 patent/US11029843B2/en active Active
- 2017-09-15 JP JP2019511924A patent/JP2019537084A/ja active Pending
- 2017-09-15 DE DE112017004677.7T patent/DE112017004677T5/de not_active Withdrawn
- 2017-09-15 WO PCT/US2017/051918 patent/WO2018053357A1/en active Application Filing
- 2017-09-15 CN CN201780070622.3A patent/CN109952551A/zh active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11345076A (ja) * | 1998-04-30 | 1999-12-14 | Hewlett Packard Co <Hp> | スクリ―ンポインタ位置制御装置 |
JP2003208261A (ja) * | 2002-01-16 | 2003-07-25 | Toshiba Corp | 電子機器およびポインティング手段制御方法 |
JP2004295727A (ja) * | 2003-03-28 | 2004-10-21 | Toshiba Corp | 情報処理装置、および入力制御方法 |
JP2008004000A (ja) * | 2006-06-26 | 2008-01-10 | Toshiba Corp | 入力装置 |
JP2008134836A (ja) * | 2006-11-28 | 2008-06-12 | Wacom Co Ltd | タッチパネル装置 |
JP2014515147A (ja) * | 2011-06-21 | 2014-06-26 | エンパイア テクノロジー ディベロップメント エルエルシー | 拡張現実のためのジェスチャベースユーザインターフェース |
US20150309589A1 (en) * | 2014-04-23 | 2015-10-29 | Wistron Corporation | Electronic device and associated control method and computer program product |
JP2015219663A (ja) * | 2014-05-15 | 2015-12-07 | アルプス電気株式会社 | キーボード装置 |
JP2015219664A (ja) * | 2014-05-15 | 2015-12-07 | アルプス電気株式会社 | キーボード装置 |
Also Published As
Publication number | Publication date |
---|---|
US20190294258A1 (en) | 2019-09-26 |
WO2018053357A1 (en) | 2018-03-22 |
CN109952551A (zh) | 2019-06-28 |
DE112017004677T5 (de) | 2019-06-06 |
US11029843B2 (en) | 2021-06-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11029843B2 (en) | Touch sensitive keyboard | |
US10620707B2 (en) | Systems and methods for interfaces featuring surface-based haptic effects | |
US20160364138A1 (en) | Front touchscreen and back touchpad operated user interface employing semi-persistent button groups | |
US9891820B2 (en) | Method for controlling a virtual keyboard from a touchpad of a computerized device | |
US9678662B2 (en) | Method for detecting user gestures from alternative touchpads of a handheld computerized device | |
US9891821B2 (en) | Method for controlling a control region of a computerized device from a touchpad | |
US20170017393A1 (en) | Method for controlling interactive objects from a touchpad of a computerized device | |
US9529523B2 (en) | Method using a finger above a touchpad for controlling a computerized system | |
CN106716317B (zh) | 解决触摸不连续性的方法和装置 | |
EP2717120B1 (en) | Apparatus, methods and computer program products providing finger-based and hand-based gesture commands for portable electronic device applications | |
KR101670109B1 (ko) | 표면-기반 햅틱 효과를 특징으로 하는 인터페이스에 대한 시스템 및 방법 | |
US9477874B2 (en) | Method using a touchpad for controlling a computerized system with epidermal print information | |
US9542032B2 (en) | Method using a predicted finger location above a touchpad for controlling a computerized system | |
JP2019527400A (ja) | タッチセンシティブキーボード | |
US20150363038A1 (en) | Method for orienting a hand on a touchpad of a computerized system | |
US10175772B2 (en) | Touch sensitive keyboard | |
US11656718B2 (en) | Method and apparatus for variable impedance touch sensor array force aware interaction in large surface devices | |
Rekimoto | Organic interaction technologies: from stone to skin | |
US20200218418A1 (en) | Method and apparatus for indirect force aware touch control with variable impedance touch sensor arrays | |
US9639195B2 (en) | Method using finger force upon a touchpad for controlling a computerized system | |
WO2015178893A1 (en) | Method using finger force upon a touchpad for controlling a computerized system | |
WO2015013662A1 (en) | Method for controlling a virtual keyboard from a touchpad of a computerized device | |
WO2015042444A1 (en) | Method for controlling a control region of a computerized device from a touchpad | |
WO2018035353A1 (en) | Front touchscreen and back touchpad operated user interface employing semi-persistent button groups | |
CN109558007B (zh) | 手势控制装置及其方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190419 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200910 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200911 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210716 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210726 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220302 |