JP5062898B2 - ユーザインタフェイス装置 - Google Patents

ユーザインタフェイス装置 Download PDF

Info

Publication number
JP5062898B2
JP5062898B2 JP2008167796A JP2008167796A JP5062898B2 JP 5062898 B2 JP5062898 B2 JP 5062898B2 JP 2008167796 A JP2008167796 A JP 2008167796A JP 2008167796 A JP2008167796 A JP 2008167796A JP 5062898 B2 JP5062898 B2 JP 5062898B2
Authority
JP
Japan
Prior art keywords
gui
fingertip
unit
image
hand
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008167796A
Other languages
English (en)
Other versions
JP2010009311A (ja
Inventor
敦士 山下
智裕 寺田
卓哉 平井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2008167796A priority Critical patent/JP5062898B2/ja
Publication of JP2010009311A publication Critical patent/JP2010009311A/ja
Application granted granted Critical
Publication of JP5062898B2 publication Critical patent/JP5062898B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Description

本発明は、コンピュータ装置等に対し、実行すべき機能をユーザが指定可能なユーザインタフェイス装置に関し、より特定的には、手の動きに応じて各機能を指先に割り当て、指先への各機能の割り当てを操作者が直感的に把握できるユーザインタフェイス装置に関するものである。
情報機器端末が多機能化するに従って、より使い勝手の良いユーザインタフェイスが求められている。使いやすいユーザインタフェイスの一例として、タッチパネルディスプレイがある。このタッチパネルディスプレイは、ディスプレイに表示されているGUI(Graphical User Interface)を押す操作をすることで、命令や情報を入力することができ、初心者にとっても直感的なユーザインタフェイス装置である。しかし、タッチパネルディスプレイでは、ユーザの指の接触位置を検知するタッチパネルと、ディスプレイが一体になっているため、ディスプレイが手元にないと操作を実行できないという課題があった。
この課題を解決するため、タッチパネルとディスプレイを分離し、タッチパネル上のユーザの手を、ディスプレイに表示されるGUIに重畳表示することで、ディスプレイから離れた位置からでも直感的な操作感を維持したユーザインタフェイス装置が開発されている(例えば、特許文献1を参照)。
特許文献1には、指先の位置を表す座標群それぞれに対し、GUI部品が一意に関連づけられた、GUI画像を作成するユーザインタフェイスシステムが開示されている。これにより、それぞれの指先に関連づけられた機能が明確になり、どのような機能が実現可能であるのかを視認可能にユーザに提示でき、より使い勝手の良いユーザインタフェイスシステムを提供することができる。
国際公開第2006/104132号パンフレット
しかし、前記の構成では、GUI部品とそれぞれの指先が、一意に関連づけられているため、同一の場面で実行できる機能はその場面で使用できる指の本数に限定される。そのため、更に多くの機能が実現可能であることを視認可能に提示することができない。
本発明は、前記従来の課題を解決するもので、使用できる指の本数に限定されずに、多数の機能が実現可能であることを視認可能に提示できるユーザインタフェイス装置を提供することを目的とする。
上記目的を達成するために、本発明のユーザインタフェイス装置は、機器を操作するためのユーザインタフェイス装置であって、操作者の手形状を取得する手形状取得部と、取得した手形状の指先位置を検出する指先位置検出部と、機器を操作するための機能に対して一意に割り当てられたGUI(Graphical User Interface)部品を表すGUI部品データを記憶するGUI部品データ記憶部と、手形状取得部が取得した手形状の各指先位置にGUI部品データ記憶部から読み出したGUI部品データを割り当てるGUI部品割り当て部と、GUI部品割り当て部が割り当てたGUI部品の画像と手形状の画像との合成画像を作成する重畳表示映像作成部と、重畳表示映像作成部が作成した合成画像を表示する表示部とを備え、表示部に表示される手形状の画像の手首から中指の指先に向う方向にほぼ等しい表示部の縦方向をY軸方向とし、Y軸方向に直交する表示部の横方向をX軸方向とすると、GUI部品割り当て部は、前記手形状の少なくとも1本の指に対して複数のGUI部品を指先位置からY軸方向に所定のオフセット値を持たせて割り当て、重畳表示映像作成部は、指先位置のX軸方向の動きに対してはGUI部品の画像を各指先位置に追従させ、指先位置のY軸方向の動きに対してはGUI部品の画像を動かさずに手形状の画像との合成画像を作成することを特徴とする。
本発明のユーザインタフェイス装置によれば、使用できる指の本数に限定されずに、多数の機能が実現可能であることを視認可能に提示することができる。これにより、より使い勝手の良いユーザインタフェイス装置を提供することができる。
以下、本発明の実施の形態にかかるユーザインタフェイス装置について図面を用いて説明する。
(実施の形態1)
図1は本実施の形態におけるユーザインタフェイス装置100の構成を説明するための概念図である。図1において、ユーザインタフェイス装置100は、接触位置検出部110、コンピュータ120、ディスプレイ130から構成される。
接触位置検出部110は、代表的には複数の接触点を検知することができるタッチパッドからなる。タッチパッドの検知方式には、静電容量方式、感圧方式、抵抗膜方式などが存在するが、どの方式を選択するかは問わない。また、接触位置検出部110は、上部または下部に設置された、単独または複数のカメラであってもよい。カメラの検知対象としては、可視光、赤外線、超音波などが存在するが、どの検知方式を選択するかは問わない。操作者は、接触位置検出部110上に自身の手111を置き、ユーザインタフェイス装置100の操作を行う。
コンピュータ120は、接触位置検出部110からの信号を入力するインタフェイスと、CPUまたはMPU、ROM、RAM、各モジュール間を結ぶバスと、映像出力インタフェイスからなる。コンピュータ120は、パーソナルコンピュータ(以下PC)でもよいし、専用機であってもよい。コンピュータ120は、接触位置検出部110において取得した接触位置情報122を入力とし、RAM121に記憶した手形状モデルを変形して操作者の手形状画像123を作成する。ここで、接触位置検出部110にカメラを用いた場合には、カメラで取得した画像を手形状画像123としてもよい。RAM121には、機器を操作するための機能に対して一意に割り当てられたGUI部品を表すGUI部品データが記憶されている。コンピュータ120は、手形状画像の各指に割り当てられる機能に対応するGUI部品データをRAM121から読み出し、操作者の手形状画像123の各指にGUI部品の画像を重畳させた合成画像131を作成し、ディスプレイ130に出力する。
ディスプレイ130は、コンピュータ120が生成した合成画像131を表示する装置である。ディスプレイの方式には液晶、ELなどが存在するが、どの方式を選択するかは問わない。操作者はディスプレイ130の合成画像131の映像を見ながら接触位置検出部110上の手111を動かすことで入力操作を行う。
次に、接触位置検出部110が複数の接触点を検知することができるタッチパッドである場合において、タッチパッドが出力するデータについて図2を用いて説明する。複数の点を検出するタッチパッドの方式は、主に2つの方式に大別される。第1の方式は、図2(a)に示すように、個別に接触の有無を検知する素子や電極が全面に配置され、指などの接触を領域201として判定するものであり、発光部となる液晶のセルと共にイメージセンサを並べたものがある。第2の方式は、図2(b)に示すように、縦および横方向の直線上に接触物の存在を検知する素子や電極が配置され、指などの接触領域を2つの方向の検知結果202の交わり203として検知する方式である。
次に、図3を用いて、接触位置検出部110が下部に設置された単独のカメラである場合における設置方法の一例を説明する。図3(a)は接触位置検出部110を操作面に垂直な面で切ったときの断面図を表しており、操作面301の下部に、発光部302およびカメラ303が設置されている。発光部302およびカメラ303が関わる波長帯は可視光でも良いが、外光の影響を最小限にするために近赤外線または遠赤外線とすることもできる。ユーザが操作面301の上部に手304を置くと、発光部302から出た光は手304で反射してカメラ303で撮像される。これにより、図3(b)のような手形状画像305を検出することができる。なお、手304に当たる光の照度がカメラで撮像するのに十分な場合には、発光部302は無くても構わない。また、発光部302およびカメラ303は、操作面301およびユーザの手304の上部にあって、上部より操作面301を撮像する構成であっても構わず、カメラも単独ではなく複数台であってもよい。
次に、図4を用いて、本実施の形態におけるコンピュータ120の動作フローを説明する。
まず、コンピュータ120は接触位置検出部110より接触位置座標を入力する(ステップS401)。次に、入力した指先座標に基づいてモード遷移を行う(ステップS402)。次に、ユーザの指先座標およびモードに基づいて、フリック(操作面上で指をはじく様な操作)、タップの操作が行われたか検出を行う(ステップS403)。次に、検出結果に基づいて描画情報の作成を行い、ディスプレイ130に出力する(ステップS404)。更に、ユーザが所望する機能の実行を行う(ステップS405)。以上の動作を、特定の時間(例えば、10ミリ秒)ごとに繰り返して行う。
次に、図5を用いて接触位置検出部110が複数の接触点を検知することができるタッチパッドである場合における、ステップS401の詳細動作フローを説明する。
まず、コンピュータ120は、接触位置検出部110から接触領域のデータを入力する。次に、接触領域の面積が所定値より小さいものをノイズと見なしカットする(ステップS501)。残ったものを接触領域として認識する(ステップS502)。次に、認識した各接触領域について、重心位置を求める(ステップS503)。次に、各重心位置を横方向にソートする(ステップS504)。例えば、横方向にソートした重心位置の右から順に、認識した各接触領域について指先1・指先2・・・と名前付けを行う。次に、ソートされた重心位置を指先座標としてRAM121に格納する(ステップS505)。
次に、図6を用いて、接触位置検出部110が上部または下部に設置された単独または複数のカメラである場合における、ステップS401の詳細動作フローを説明する。
まず、コンピュータ120は、カメラから撮像データを入力する。次に、所定の値を閾値として二値化処理を行う。次に、二値化画像の各領域について、面積が所定値より小さいものをノイズと見なしカットする(ステップS601)。残ったものを手の領域として認識する(ステップS602)。次に、認識された手の領域について画像認識により指先座標を特定する(ステップS603)。次に、各指先位置を横方向にソートする(ステップS604)。例えば、横方向にソートした指先位置の右から順に、認識した各指先位置について指先1・指先2・・・と名前付けを行う。次に、ソートされた指先位置を指先座標としてRAM121に格納する(ステップS605)。
次に、図7を用いて、ステップS402の詳細動作フローを説明する。
まず、コンピュータ120は入力した指先座標に基づいて、指先ボタンモードに遷移するトリガーを検出したかどうかを判定する(ステップS701)。ここでのトリガーの選択は任意である。例えば、画面上に表示されたボタンに対応する位置がタップされた、あるいは定められたルールにのっとった軌跡を描くように操作面が指でなぞられた等をトリガーとして検出する。次に、トリガーが検出されたと判定された場合、指先ボタンモードに遷移する(ステップS702)。トリガーが検出されていない場合は、何もせずにステップS402の処理を終了する。
次に、図8を用いて、ステップS404の詳細動作フローを説明する。
まず、コンピュータ120は、指先ボタンモードに遷移した場合、GUI部品の情報をオフセット情報と共に読み出す(ステップS801)。このGUI部品の情報とオフセット情報の構成については後述する。次に、GUI部品に対応する指先座標を参照する(ステップS802)。次に、各指先座標に対し、ステップS801で読み込んだGUI部品のオフセット情報を加味した位置を計算し、その位置にGUI部品を描画する命令群を生成する(ステップS803)。ここでは、命令を描画キューにセットするだけで実際の描画は行わない。最後に、必要なGUI部品の描画処理が終わったかどうかをチェックする(ステップS804)。終わっていない場合には、ステップS801に戻り、残りのGUI部品の描画を行う。必要なGUI部品を手形状画像に重畳させた描画処理が終わった場合は、ステップS404の処理を終了する。
次に、図9を用いて、ステップS801で読み出されるオフセット情報付きGUI部品データのフォーマットの一例を説明する。
図9の表の1行目は、GUI部品IDである。各部品に固有の値が割り当てられる。2行目は、GUI部品の種別を表す番号または文字列であり、例えばコマンドボタン、トグルスイッチ、チェックボックスなど表示形態の種類を表す値が割り当てられる。3行目は形状データであり、長方形などの大きさ、ポリゴンなどの形状を表す値が割り当てられる。4行目は色、テキスチャデータであり、GUI部品の表面に貼られるビットマップデータおよび塗りつぶしや枠線に用いられる色に関するデータである。5行目は、テキストデータであり、コマンドボタンやトグルスイッチ等の表面にラベルとして記される文字列が割り当てられる。6行目は、実行コマンドでありGUI部品が選択されたときに実行すべきコマンドのIDが割り当てられる。7行目は、対応する指であり、GUI部品が追従するべき指の識別(親指、人差し指など)が格納される。8行目は、指先座標からの縦方向(Y軸方向)オフセットであり、モード遷移時の指先座標から、GUI部品を表示するべき位置(典型的には中心位置)までのオフセット値である。
例えば、対応する指が中指でありオフセット値が+10であるとする。モード遷移時の中指の座標が画面座標系で (x,y)=(30,80) であった場合、モード遷移時にGUI部品を表示するべき位置は、縦方向であるy座標にオフセット値を加えて、(30,90)となる。この場合、指先の位置の上部に該当するGUI部品が描画されることになる。
次に、手形状画像にGUI部品を重畳して合成画像を作成する処理が終わり、2回目以降にユーザが操作面上の手を動かした場合の処理について、図10のフローチャートを用いて説明する。図10は、2回目以降の処理であって、図8のステップS404のフローチャートに変えて行われる。なお、図8と同じ処理については同じステップ番号を付してその説明を省略する。図8と異なるところは、ステップS1001およびS1002の処理が追加されている点である。図8の1回目の描画処理で、ディスプレイ上には既に手形状画像にGUI部品を重畳した合成画像が表示されている。ここで、コンピュータ120は、RAM121に保存されている最新の指先座標のY座標と前回のY座標を比較して、所定値以上変化しているかを調べ、所定値以上変化していると判断すると(ステップS1001でYes)、ステップS1002に進み、指先座標を前回の指先座標にする。
すなわち、ユーザが手をX軸方向に動かした場合には、最新の指先座標を用いてステップS801〜S804の処理が行われ、GUI部品が手形状画像の指先の動きに追従して動く。ユーザが指を曲げたり伸ばしたりすることで指先座標のY座標が変化した場合には、前回の指先座標でステップS801〜S804の描画処理が実行されるため、GUI部品は指先の動きに追従して動かない。
次に、図11、12を用いて、ステップS404で描画される画面の一例を説明する。
図11は、指先ボタンモード遷移時に十字カーソルキーを表示する例である。図11において、薬指の指先座標1102、中指の指先座標1103、人差し指の指先座標1104に対応する位置に、左キー1105、決定キー1106、右キー1107を描画する。これらのボタンには図9におけるオフセット値が設定されていない。一方、上キー1108は、中指の指先座標1103の上部に描画される。これは、上キー1108にあたるGUI部品にオフセット値が設定されているためである。同様に、下キー1109は、オフセット値に従って中指の指先座標1103の下部に描画される。この結果、中指には3つの機能が割り当てられたことになる。
ここで、ユーザが上キー1108を選択したい場合には、モード遷移時の位置よりも中指を伸ばして上方でタップすることにより上キー1108を選択することができる。指を伸ばすと指先座標が上方(Y軸正方向)にずれるが、指のY軸方向の動きに対しては割り当てられたGUI部品の位置は動かない。そのため、中指を伸ばして上方でタップすることにより上キー1108を選択することができる。
また、ユーザが下キー1109を選択したい場合には、モード遷移時の位置よりも中指を曲げ下方でタップすることにより下キー1109を選択することができる。指を曲げると指先座標が下方(Y軸正方向)にずれるが、上記同様に指のY軸方向の動きに対しては割り当てられたGUI部品の位置は動かない。そのため、中指を曲げて下方でタップすることにより下キー1109を選択することができる。
Y軸方向は手首から中指の指先に向う方向にほぼ等しく、指を曲げたり伸ばしたりすることで上記の様に、所望のGUI部品を容易に選択することができる。
このように十字カーソルキーを表すGUI部品を各指先に割り当て、特に中指に3つのGUI部品を割り当てることによって、十字カーソルキーが示す各方向とボタンの位置が一致しているため、ユーザはより直感的な操作によってこれらのキーを選択することができる。
図12は、モード遷移時の指先位置より手が右に移動した場合の表示画面の例である。各GUI部品には、表示される絶対座標ではなく指先からの縦方向(Y軸方向)のオフセット値が設定されているため、各GUI部品は横方向(X軸方向)の手の動きに追従して動く。これにより、モード遷移時からユーザの手が意図せぬ動きにより(例えば、振動環境下で手がぶれたなど)横方向(X軸方向)に動いても、ボタンが追従するので継続して操作を行うことができる。
次に、図13を用いて、本実施の形態で表示される画面の一例を説明する。
図13は、携帯電話などに搭載されているテンキーを各指に複数個ずつ割り当てた例である。このように、各指に複数個のボタンをオフセット値つきで割り当てることによって、指の本数以上の機能を実行できるようにすることができる。各指の機能の割り当ても、指を曲げる、伸ばすによって区分されるため、押し分けが容易であり、慣れればブラインド操作も可能となる。
次に、図14、15を用いて、ユーザインタフェイス装置が車内に設置される場所の一例を説明する。
図14は、センタコンソール上に設置された場合を示す。ディスプレイ1401に対しタッチパッド1402をセンタコンソールに設置することによって、遠くの画面を見ながら手元で操作をすることができる。図15は、タッチパッド1502をハンドル上に設置した場合を示す。ハンドル1503の中央部にタッチパッド1502を設置することにより、図14と同様に、遠くの画面を見ながら手元で操作をすることができる。いずれの場合も、図13のような表示を行うことによって、多数の機能をブラインド操作で起動することが可能となる。
本発明のユーザインタフェイス装置によれば、使用できる指の本数に限定されずに、多数の機能が実現可能であることを視認可能に提示することができるため、カーナビゲーション装置等の車載機器の入力装置等に利用することができる。
本発明の実施形態にかかるユーザインタフェイス装置の構成を説明するための概念図 接触位置検出部110として用いる複数の接触点を検知できるタッチパッドの検知方式を説明するための図で、(a)個別に接触の有無を検知する素子や電極が全面に配置された方式を説明するための図、(b)接触領域を縦横方向の検知結果の交わりとして検知する方式を説明するための図 接触位置検出部110が下部に設置された単独のカメラである場合における設置方法の一例を示す図で、(a)接触位置検出部110を操作面に垂直な面で切ったときの断面図、(b)カメラにより撮像された手形状画像を示す図 本実施の形態におけるユーザインタフェイス装置のコンピュータ120の動作を示すフローチャート 接触位置検出部110が複数の接触点を検知することができるタッチパッドである場合における、図4のステップS401の詳細動作を示すフローチャート 接触位置検出部110が上部または下部に設置された単独または複数のカメラである場合における、図4のステップS401の詳細動作を示すフローチャート 図4のステップS402の詳細動作を示すフローチャート 図4のステップS404の詳細動作を示すフローチャート 図8のステップS801で読み出されるオフセット情報付きGUI部品データのフォーマットの一例を示す図 2回目以降に図8のフローチャートに変えて処理されるステップS404の詳細動作を示すフローチャート 図4のステップS404で描画される画面の一例を示す図 図4のステップS404で描画される画面の一例を示す図 図4のステップS404で描画される画面の一例を示す図 本発明の実施形態にかかるユーザインタフェイス装置のタッチパッドが車内のセンタコンソールに設置された一例を示す図 本発明の実施形態にかかるユーザインタフェイス装置のタッチパッドが車内のハンドルに設置される一例を示す図
符号の説明
100 ユーザインタフェイス装置
110 接触位置検出部
111、304 手
120 コンピュータ
121 RAM
122 接触位置情報
123、305、1101、1211 手形状画像
130、1401、1501 ディスプレイ

Claims (1)

  1. 機器を操作するためのユーザインタフェイス装置であって、
    操作者の手形状を取得する手形状取得部と、
    前記取得した手形状の指先位置を検出する指先位置検出部と、
    前記機器を操作するための機能に対して一意に割り当てられたGUI(Graphical User Interface)部品を表すGUI部品データを記憶するGUI部品データ記憶部と、
    前記手形状取得部が取得した手形状の各指先位置にGUI部品データ記憶部から読み出したGUI部品データを割り当てるGUI部品割り当て部と、
    前記GUI部品割り当て部が割り当てたGUI部品の画像と手形状の画像との合成画像を作成する重畳表示映像作成部と、
    前記重畳表示映像作成部が作成した合成画像を表示する表示部とを備え、
    前記表示部に表示される手形状の画像の手首から中指の指先に向う方向にほぼ等しい前記表示部の縦方向をY軸方向とし、前記Y軸方向に直交する前記表示部の横方向をX軸方向とすると、
    前記GUI部品割り当て部は、前記手形状の少なくとも1本の指に対して複数のGUI部品を前記指先位置からY軸方向に所定のオフセット値を持たせて割り当て、
    前記重畳表示映像作成部は、前記指先位置のX軸方向の動きに対しては前記GUI部品の画像を各指先位置に追従させ、前記指先位置のY軸方向の動きに対しては前記GUI部品の画像を動かさずに手形状の画像との合成画像を作成することを特徴とする、ユーザインタフェイス装置。
JP2008167796A 2008-06-26 2008-06-26 ユーザインタフェイス装置 Expired - Fee Related JP5062898B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008167796A JP5062898B2 (ja) 2008-06-26 2008-06-26 ユーザインタフェイス装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008167796A JP5062898B2 (ja) 2008-06-26 2008-06-26 ユーザインタフェイス装置

Publications (2)

Publication Number Publication Date
JP2010009311A JP2010009311A (ja) 2010-01-14
JP5062898B2 true JP5062898B2 (ja) 2012-10-31

Family

ID=41589730

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008167796A Expired - Fee Related JP5062898B2 (ja) 2008-06-26 2008-06-26 ユーザインタフェイス装置

Country Status (1)

Country Link
JP (1) JP5062898B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5631700B2 (ja) * 2010-11-09 2014-11-26 株式会社竹中工務店 影画像表示システム、影画像表示方法、及び影画像表示プログラム
JP6167932B2 (ja) * 2014-02-20 2017-07-26 トヨタ自動車株式会社 入力装置および入力取得方法
JP2015172799A (ja) * 2014-03-11 2015-10-01 アルプス電気株式会社 タッチ操作入力装置
CN111104821A (zh) * 2018-10-25 2020-05-05 北京微播视界科技有限公司 图像生成方法和装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5764222A (en) * 1996-05-28 1998-06-09 International Business Machines Corporation Virtual pointing device for touchscreens
JP4071550B2 (ja) * 2002-06-05 2008-04-02 一好 小谷 仮想キー片手入力装置における仮想キー配列方法
US7810050B2 (en) * 2005-03-28 2010-10-05 Panasonic Corporation User interface system

Also Published As

Publication number Publication date
JP2010009311A (ja) 2010-01-14

Similar Documents

Publication Publication Date Title
US11093086B2 (en) Method and apparatus for data entry input
JP5179378B2 (ja) ユーザインターフェイス装置
CN108700957B (zh) 用于虚拟环境中文本输入的电子***和方法
US7810050B2 (en) User interface system
US9389779B2 (en) Depth-based user interface gesture control
EP2480955B1 (en) Remote control of computer devices
US10042438B2 (en) Systems and methods for text entry
US20040021663A1 (en) Information processing method for designating an arbitrary point within a three-dimensional space
EP2538305A2 (en) System and method for close-range movement tracking
US9354780B2 (en) Gesture-based selection and movement of objects
GB2470654A (en) Data input on a virtual device using a set of objects.
JP2009042796A (ja) ジェスチャー入力装置および方法
JP2010033158A (ja) 情報処理装置及び情報処理方法
JP2012027515A (ja) 入力方法及び入力装置
US9760758B2 (en) Determining which hand is being used to operate a device using a fingerprint sensor
US10656746B2 (en) Information processing device, information processing method, and program
JP5062898B2 (ja) ユーザインタフェイス装置
US9189075B2 (en) Portable computer having pointing functions and pointing system
US20150309601A1 (en) Touch input system and input control method
US20170139545A1 (en) Information processing apparatus, information processing method, and program
JP5027084B2 (ja) 入力装置及び入力方法
KR20160115022A (ko) 비접촉식 마우스 장치 및 이 장치를 채용한 디지털 응용 시스템
CA2855064A1 (en) Touch input system and input control method
JP2012194729A (ja) 手書き入力装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110317

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20110826

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120502

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120608

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120621

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120802

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120806

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150817

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees