JP2014085966A - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
JP2014085966A
JP2014085966A JP2012236127A JP2012236127A JP2014085966A JP 2014085966 A JP2014085966 A JP 2014085966A JP 2012236127 A JP2012236127 A JP 2012236127A JP 2012236127 A JP2012236127 A JP 2012236127A JP 2014085966 A JP2014085966 A JP 2014085966A
Authority
JP
Japan
Prior art keywords
gesture
information processing
palm
specified
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012236127A
Other languages
English (en)
Other versions
JP5831883B2 (ja
Inventor
Masahiko Harada
雅彦 原田
Nao Kitamoto
直 北本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Personal Computers Ltd
Original Assignee
NEC Personal Computers Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Personal Computers Ltd filed Critical NEC Personal Computers Ltd
Priority to JP2012236127A priority Critical patent/JP5831883B2/ja
Publication of JP2014085966A publication Critical patent/JP2014085966A/ja
Application granted granted Critical
Publication of JP5831883B2 publication Critical patent/JP5831883B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

【課題】ジェスチャー動作の認識率の向上を図った情報処理装置、情報処理方法、及びプログラムを提供する。
【解決手段】ユーザーの手の平を撮影して画像データに変換し、複数の画像データに基づいて手の平の動作を解析し、手の平の動作パターンとして予め定義されたジェスチャーを特定し、実行されているアプリケーションと特定されたジェスチャーとに関連づけて予め定義された処理を実施する際に、ジェスチャーが特定されたとき、特定されたジェスチャーに対応する表示を行う。
【選択図】図4

Description

本発明は、ジェスチャー操作が可能な情報処理装置、情報処理方法、及びプログラムに関する。
近年、技術の進歩により種々の機能を有する情報処理装置が開発されており、ジェスチャー操作が可能なパーソナルコンピュータが挙げられる(例えば、特許文献1参照)。
特許文献1に記載の発明は、「インターフェース装置及びその方法」に関するものであり、具体的には「テレビやコンピュータ等の機器を操作するためのインターフェース装置におけるジェスチャー情報表示部は、操作に用いるジェスチャーの一覧、ジェスチャー認識部の認識結果、及び操作者の手と思われる部分の画像を表示し、操作者はジェスチャーを覚えることなく画面を確認しながら操作を行えるようになると共に、ジェスチャー認識部に認識させやすいように操作者が行うジェスチャーを修正することが可能となり、操作性が向上する」ものである。
特開2008−52590号公報
しかしながら、特許文献1に記載の発明は、ジェスチャーを覚えることなくその都度画面を確認しながら操作を行うため、ジェスチャー動作開始から認識まで時間がかかり、画面を確認しながらジェスチャー動作を行うため認識率について改善の余地がある。
そこで、本発明の目的は、ジェスチャー動作の認識率の向上を図った情報処理装置、情報処理方法、及びプログラムを提供することにある。
上記課題を解決するため、請求項1記載の発明は、アプリケーションを実行する実行手段と、前記アプリケーションの実行結果を表示する表示手段と、ユーザーの手の平を撮影して画像データに変換する撮影手段と、前記撮影手段からの複数の像データに基づいて前記手の平の動作を解析し、前記手の平の動作パターンとして予め定義されたジェスチャーを特定する解析手段と、前記実行手段で実行されているアプリケーションと前記特定されたジェスチャーとに関連づけて予め定義された処理を実施する制御手段と、を備えた情報処理装置において、解析手段によってジェスチャーが特定されたとき、前記特定されたジェスチャーに対応する表示を行う表示手段をさらに備えたことを特徴とする。
本発明によれば、ジェスチャー動作の認識率の向上を図った情報処理装置、情報処理方法、及びプログラムの提供を実現できる。
(a)は、一実施形態に係るノートパソコンを使用中の状態を示す外観斜視図であり、(b)は、(a)に示したノートパソコンのユーザー側から見た外観斜視図である。 情報処理装置としてのノートパソコンの一実施形態を示すブロック図である。 (a)〜(n)は、図1に示したノートパソコン100に用いられるジェスチャーの一例を示す説明図である。 図1に示したノートパソコンの動作を説明するためのフローチャートの一例である。 図1に示したノートパソコンにおいて、ジェスチャーアプリの初回起動時に表示される画面の一例である。 ジェスチャー練習をする場合に表示されるジェスチャー認識成功の場合の画面の一例である。 ジェスチャー練習をする場合に表示されるジェスチャー認識失敗の場合の画面の一例である。 ジェスチャー練習を終了したときに表示される画面の一例である。 ジェスチャー機能を起動させたときに表示される画面の一例である。
次に本実施形態について図面を参照して説明する。
本実施形態では、情報処理装置がノートパソコンの場合で説明するが、本発明はノートパソコンに限定されるものではなく、デスクトップパソコンであってもよい。
<構 成>
図1(a)は、一実施形態に係るノートパソコンを使用中の状態を示す外観斜視図であり、図1(b)は、図1(a)に示したノートパソコンのユーザー側から見た外観斜視図である。
このノートパソコン100は、キーボード101やマウス102による操作の他、Webカメラ(以下、カメラと表記する。)103でユーザーの手の平を認識し、認識した手の平の動き(ジェスチャー、もしくはハンドジェスチャーとも言う)によりノートパソコン100で一定の操作を行うことができるようになっている。
液晶表示装置104は、通常の表示を行う他、ユーザーの顔や手を表示したり、ジェスチャー操作練習のための画像を表示したりできるようになっている。
図2は、情報処理装置としてのノートパソコンの一実施形態を示すブロック図である。
ノートパソコン100は、ハードウェア的には通常のノートパソコンと同様であり、キーボード101、マウス102、撮影手段としてのカメラ(Webカメラ)103、表示装置104、光学読取装置105、HDD(Hard Disc Drive)106、制御部107、RAM(Random Access Memory:読み出し/書き込みメモリ)108、ROM(Read Only Memory:読み出し専用メモリ)109、及びI/O(Input/Output)110を有するが、本発明はこれに限定されるものではなく、地上波デジタルテレビジョン放送を視聴するためのチューナーやインターネット接続を行うためのモデムをそなえていてもよい。尚、111はバスラインである。
キーボード101は、QWERTY配列の英字キー、数字キー、テンキー、スペースキー、エンターキー、ファンクションキー、デリートキー、スペースキー等の通常の入力キーを有する。
マウス102は、少なくとも左ボタン、右ボタンを有しており、ホイールボタンを有してもよい。尚、図ではマウス102はケーブルでノートパソコン100に接続されているが、本発明はこれに限定されるものではなく、マウス102はワイヤレスでノートパソコン100に接続されていてもよい。
カメラ103は、ノートパソコン100の上側筐体の上側の中央にユーザー側に向かって設けられており、例えばCCD(Charge-Coupled Device)が用いられる。
表示装置104は、解析手段107cによってジェスチャーが特定されたとき、特定されたジェスチャーに対応する表示もしくは制御部の制御による表示を行う機能を有し、例えば液晶ディスプレイが用いられるが、液晶ディスプレイの代わりにプラズマディスプレイを用いてもよい。
光学読取装置105は、例えば、DVD(Digital Versatile Disc)、CD(Compact Disc)、CDR(CD Recordable)等の光学媒体を読み取る装置である。
HDD106は、文字データ、画像データ、音声データ等のデータをRAM108に比べて大容量のデータを記憶するための記憶装置である。HDD106の代わりにSSD(Solid State Drive)を用いてもよい。
制御部107は、ノートパソコン100を統括制御する機能を有し、例えば、マイクロプロセッサのCPU(Central Processing Unit:中央演算処理装置)を含む回路である。制御部107は、ソフトウェアとして入力制御手段107a、トレーニング手段107b、解析手段107c、割り込み制御手段107d、ディスク制御手段107e、表示装置制御手段107f、及び実行手段107gを有する。
入力制御手段107aは、キーボード101、マウス102、カメラ103、及び光学読取装置105からデータを管理する。
トレーニング手段107bは、ソフトウェアで構成され、ユーザーの手の平の動作をジェスチャーとして認識する認識精度を向上させるため、ジェスチャーアプリケーション(以下、ジェスチャーアプリと表記)の初回起動時に、強制的にジェスチャーの練習を実行させる機能を有する。
本実施形態におけるジェスチャーは、ノートパソコン100のカメラ103の撮影可能な範囲(カメラ画像内とも言う)におけるユーザーの手の平の動作を意味する。
解析手段107cは、ソフトウェアで構成され、カメラ103からの画像データを解析してユーザーの手の平の動作をジェスチャーとして認識する機能を有する。
割り込み制御手段107dは、あるプログラムの処理中に他のプログラムの処理を割り込ませる割り込み処理の制御を行う。
ディスク制御手段107eは、光学読取装置105に挿入された光学媒体の種類を判別し、文字データ、画像データ、音声データの読み出しの管理を行う。
表示装置制御手段107fは、表示装置104の画像表示を管理する。
実行手段107gは、アプリケーションを実行する。
RAM108は、例えばフラッシュメモリが用いられる。
ROM109は、例えばマスクROMが用いられる。
I/O109は、ノートパソコン100と、図には示されないUSB(Universal Serial Bus)フラッシュメモリを含む外部のデバイスとのデータの授受を管理する。
図3(a)〜(n)は、図1に示したノートパソコン100に用いられるジェスチャーの一例を示す図であり、ユーザー自身の手の動きをユーザーの視点から見た図である。本実施形態では、ユーザーが右手をカメラ103にかざした場合で説明するが左手であってもよい。
図中の矢印で、一本線の矢印(→)は手形状や手の状態の遷移を表し、中抜きの矢印は手の平の移動を表す。
本実施形態において12種類のジェスチャーにより、ノートパソコン100を操作しているが、本発明はこれに限定されるものではない。
図3(a)は、ユーザーの右手によるマウスカーソル操作を示す図であり、両矢印のように移動させる場合を示しているが限定されるものではない。
図3(b)は、「パー→グー→パー」のように手の平を開いたり閉じたりすることで左クリックのジェスチャー動作となる。
図3(c)〜(e)は、「パー→グー→グーで動かす→パー」のように手の平を動かすことでドラッグ及びドロップのジェスチャー動作となる。
図3(f)は、手の平を拡げたまま矢印方向(右方向)にクリックより素早く動かすことで右フリックのジェスチャー動作となる。ここで、「フリック」とは、本来タッチパネルにおける操作の一種であり、画面を軽く払うように指を動かすことであるが、手の平を素早く動かすことを含む。
図3(g)は、手の平を拡げたまま矢印方向(左方向)にクリックより素早く動かすことで左フリックのジェスチャー動作となる。
図3(h)は、手の平を拡げたまま矢印方向(上方向)にクリックより素早く動かすことで上フリックのジェスチャー動作となる。
図3(i)は、手の平を拡げたまま矢印方向(下方向)にクリックより素早く動かすことで下フリックのジェスチャー動作となる。
図3(j)は、手の平を拡げたままノートパソコン100の表示装置104程度の大きさの時計方向の円(直径10cm〜20cm程度)を描くことで時計回りのサークルのジェスチャー動作となる。
図3(k)は、手の平を拡げたままノートパソコン100の表示装置104程度の大きさの反時計方向の円(直径10cm〜20cm程度)を描くことで反時計回りのサークルのジェスチャー動作となる。
図3(l)は、手の平を拡げたままノートパソコン100の表示装置104に向かって押し指すことでプッシュのジェスチャー動作となる。
図3(m)は、手の平を拡げたままノートパソコン100の表示装置104から離れる方向に押し指すことでプルのジェスチャー動作となる。
図3(n)は、手の平を拡げたままノートパソコン100の表示装置104に向かって左右に振ることでウェイブのジェスチャー動作となる。本ジェスチャー動作をウェイブともいう。
ここで、「クリック」はマウスの左クリック、「ドラッグ&ドロップ」はマウスのドラッグ&ドロップに対応する。また、右フリックは、「進む」、左フリックは「戻る」、上フリックは「上スクロール」、下フリックは「下スクロール」、時計回りのサークルは「拡大」、反時計回りのサークルは「縮小」、「プル」は、図示しない携帯情報端末の起動、「ウェイブ」は、スタート画面に戻るコマンド操作に対応する。
<動 作>
図4は、図1に示したノートパソコンの動作を説明するためのフローチャートの一例である。図5は、図1に示したノートパソコンにおいて、ジェスチャーアプリの初回起動時に表示される画面の一例である。図6は、ジェスチャー練習をする場合に表示されるジェスチャー認識成功の場合の画面の一例であり、図7は、ジェスチャー練習をする場合に表示されるジェスチャー認識失敗の場合の画面の一例である。図8は、ジェスチャー練習を終了したときに表示される画面の一例であり、図9は、ジェスチャー機能を起動させたときに表示される画面の一例である。
図4に示すフローチャートの動作の主体は、図2に示した制御部107である。
制御部107は、ジェスチャーアプリが起動されたか否かを判断し(ステップS1)、ジェスチャーアプリが起動されない場合は待機し(ステップS1/No)、ジェスチャーアプリが起動された場合は、図5に示すメニュー画面を表示する。
図5において、メニュー画面としてのジェスチャー機能の設定の画面には、注意書きの一例として、「ハンドジェスチャーでは、リモコンやマウスを使わずに手の平のジェスチャーだけで情報処理装置の操作をおこなうことができます。」の文字情報が表示される。情報処理装置の操作とは、前述したカーソル操作やコマンド操作を意味する。
図5に示す画面の左側には複数(図では4つであるが限定されない。)のボタンB1〜B4が表示される。このうち「練習する」及び「キャンセル」のボタンB1、B4のみアクティブになっている。これは、ジェスチャーアプリの初回起動時にユーザーに強制的に練習させるためである。「練習する」のボタンB1の横には例えば、「各ジェスチャーの方法を練習することができます。ハンドジェスチャーを快適に使うには練習することをおすすめします。」の文字情報が表示される。ハンドジェスチャーを快適に使うにはジェスチャーの認識率を向上させる必要があり、そのため、ユーザーに練習することを促しているのである。「キャンセル」のボタンB4は表示されている画面を終了するためのボタンである。
ユーザーによりボタンB1がマウス102もしくはキーボード101により押されることで練習画面1頁目を表示するか否か判断する(ステップS2)。
制御部107は、ユーザーにより、ボタンB1が押されたと判断した場合(ステップS2/Yes)、カメラ103で撮影したユーザーの手を含む画像を図6に示すようにハンドジェスチャーの練習画面として表示する。練習画面の表示と共に音声や文字による説明を行ってもよい。このとき、制御部107は、ユーザーの手の平の動作を解析する(ステップS3)。
ジェスチャーの認識が成功したか否かを判断し(ステップS4)、認識に成功した場合(ステップS4/Yes)、認識成功のアイコン表示を行う。
ここで、図6に示す画面において、左側にジェスチャーのお手本画像が表示され、右側にモニターウィンドウが表示される。モニターウィンドウの上側にはガイドアイコンが表示される。お手本動画とモニターウィンドウ、ガイドアイコンの位置関係はこの限りではない。尚、本実施形態ではガイドアイコンが表示される場合で説明しているが、本発明はこれに限定されるものではなく、ガイドアイコンは表示されなくてもよい。
モニターウィンドウにはユーザーの手の平の位置を抽出していることを表示するための枠が表示される。
お手本画像としては、例えば、インストラクターの動画像またはアニメ動画像もしくはインストラクターの静止画像またはアニメ静止画像を1コマずつ表示するスライド表示画像が挙げられる。お手本画像が表示されると同時にジェスチャーの説明の音声を発生させるか、もしくは説明文をお手本画像中に表示してもよい。
モニターウィンドウは、カメラ103で撮影されたユーザーの手を含む画像が表示されるが、そのまま表示すると、お手本画像としてのインストラクターの手の平の動きと左右が逆になり、ユーザーが混乱するおそれがあるので、左右反転させてインストラクターと同じ動きを表示するようになっている。モニターウィンドウのうち、ユーザーの手の平を囲むように矩形が表示される。これは、ノートパソコン100の画像処理において、手の平を抽出していることを表示することにより、ユーザーに手の平が画面内に位置するように注意を促すためである。
お手本画像の上側には、認識成功の説明文として例えば、「認識されると右側にあるガイドアイコンが光ります。認識されました。よかったですねぇ〜。じゃあ次頁へ。」と表示され、お手本画像のインストラクターが笑顔になっていてもよい。この場合、認識成功の説明文の右側に表示されるガイドアイコンの中の該当するアイコンが明るくなる(もしくはアイコンが点滅してもよい。)。この光るアイコンが認識成功のアイコンとなる。
認識結果の下には、「次のジェスチャー練習に進むには「>」を押してください。前のジェスチャーの練習に戻るには「<」を押してください。」の文字情報が表示されている。この表示に従ってユーザーが「>」、もしくは「<」を選択することにより、練習したいジェスチャーのお手本画像が表示される。
モニターウィンドウの右下側には終了のボタンが表示されている。
ジェスチャーの認識が失敗した場合(ステップS4/No)、認識失敗の画像表示を行う(ステップS12)。
認識失敗の画像表示としての図7において、お手本画面の上側の説明文として例えば「認識されると右側にあるガイドアイコンが光ります。認識されませんでした。もう一回やってみて。もう少し早く動かしてね〜。」と表示される。この場合にはガイドアイコンは発光したり点滅したりせず、インストラクターの笑顔が真顔になっていてもよい。
ユーザーは、再度手の平をインストラクターの動きに会わせて動かしてノートパソコン100に解析させることができる。
認識成功のアイコン表示がなされると(ステップS5)、制御部107は練習を終了するか否かを判断し(ステップS6)、練習を終了しない場合、すなわちジェスチャー練習を継続する場合(ステップS6/No)、ユーザーが選択したジェスチャーの練習画面の表示を行い(ステップS11)、ステップS3に戻る。
終了のボタンをキーボード101もしくはマウス102の操作によりクリックすると(ステップS6/Yes)、ハンドジェスチャーの画面が終了して、ステップS7に進む。
ステップS7に進むと、図8に示すジェスチャー機能の設定画面が表示される。図8に示す画面と図5に示す画面との相違点は、ボタンB2、B3がアクティブになっている点である。ボタンB2は、ジェスチャー機能を使用するためのボタンであり、ボタンB3はジェスチャー機能を終了するためのボタンである。
すなわち、ジェスチャー練習が終了すると、ジェスチャー機能を使用することができるのである。
ユーザーがキーボード101もしくはマウス102によりボタンB2をクリックすると、ジェスチャー入力の動作が開始し(ステップS7)、図9に示す画面が表示される。画面の中央には、例えば数秒間「ジェスチャー機能起動」の文字情報が表示される。画面の右下の隅には画面の十数分の1程度の大きさのモニターウィンドウが表示される。画面の上方にはジェスチャーのアイコンが表示される。ガイドアイコンは、練習画面同様、ジェスチャーが認識されると明るくなって(もしくは点滅してもよい)、ユーザーにジェスチャーが認識されたことのフィードバックを与える。
ここで、アイコンは、画面の中央ではなく周辺に表示されるようになっている。これは、画面に例えば地上デジタルテレビジョン放送やインターネット放送の画面を表示する際に邪魔にならないようにするためである。
制御部107は、ユーザーの手の平の動作を解析し(ステップS8)、ジェスチャーに対応した動作(例えば、クリックやフリック等の動作)を行う(ステップS9)。ジェスチャー入力を終了する場合には、画面の中の終了ボタン(例えば、画面右下の閉じるボタン)をクリックすることで終了する(ステップS10)。
ここで、図8に示す画面は、ユーザーが2回目以降のジェスチャー操作を行う場合にジェスチャーの練習画面を表示するか否かを選択するための選択画面に対応する。
すなわち、ユーザーが練習画面の表示を選択した場合には練習画面を表示し、選択しない場合には、練習画面を省略してジェスチャー操作の本番画面としての図9を表示するのである。
<作用効果>
以上において、本実施形態によれば、ジェスチャー認識結果のアイコン表示を行うので、ジェスチャー動作の認識率の向上を図ることができる。
<プログラム>
以上で説明した本発明にかかる情報処理装置は、コンピュータで処理を実行させるプログラムによって実現されている。コンピュータとしては、例えばパーソナルコンピュータやワークステーションなどの汎用的なものが挙げられるが、本発明はこれに限定されるものではない。よって、一例として、プログラムにより本発明を実現する場合の説明を以下で行う。
例えば、
情報処理装置のコンピュータに、
実行手段が、アプリケーションを実行する手順、
表示手段が、アプリケーションの実行結果を表示する手順、
撮影手段が、ユーザーの手の平を撮影して画像データに変換する手順、
解析手段が、前記撮影手段からの複数の画像データに基づいて前記手の平の動作を解析し、前記手の平の動作パターンとして予め定義されたジェスチャーを特定する手順、
制御手段が、前記実行手段で実行されているアプリケーションと前記特定されたジェスチャーとに関連づけて予め定義された処理を実施する手順、
を実行させるプログラムにおいて、
表示手段が、ジェスチャーが特定されたとき、前記特定されたジェスチャーに対応する表示を行う手順、
を実行させるプログラムが挙げられる。
これにより、プログラムが実行可能なコンピュータ環境さえあれば、どこにおいても本発明に係る情報処理装置を実現することができる。
このようなプログラムは、コンピュータに読み取り可能な記憶媒体に記憶されていてもよい。
<記憶媒体>
ここで、記憶媒体としては、例えば、CD−ROM(Compact Disc Read Only Memory)、フレキシブルディスク(FD)、CD−R(CD Recordable)などのコンピュータで読み取り可能な記憶媒体、フラッシュメモリ、RAM(Random Access Memory)、ROM(Read Only Memory)、FeRAM(強誘電体メモリ)等の半導体メモリやHDD(Hard Disc Drive)が挙げられる。
尚、上述した実施の形態は、本発明の好適な実施の形態の一例を示すものであり、本発明はそれに限定されることなく、その要旨を逸脱しない範囲内において、種々変形実施が可能である。
例えば、上述した実施の形態では、ジェスチャー練習をする場合で説明したが、本発明は、これに限定されるものではなく、ジェスチャー入力する場合に適用してもよい。
100 ノートパソコン
101 キーボード
102 マウス
103 Webカメラ(カメラ)
104 液晶表示装置
105 光学読取装置
106 HDD
107 制御部
107a 入力制御手段
107b トレーニング手段
107c 解析手段
107d 割り込み手段
107e ディスク制御手段
107f 表示装置制御手段
107g 実行手段
108 RAM
109 ROM
110 I/O
111 バスライン

Claims (6)

  1. アプリケーションを実行する実行手段と、
    前記アプリケーションの実行結果を表示する表示手段と、
    ユーザーの手の平を撮影して画像データに変換する撮影手段と、
    前記撮影手段からの複数の像データに基づいて前記手の平の動作を解析し、前記手の平の動作パターンとして予め定義されたジェスチャーを特定する解析手段と、
    前記実行手段で実行されているアプリケーションと前記特定されたジェスチャーとに関連づけて予め定義された処理を実施する制御手段と、を備えた情報処理装置において、
    解析手段によってジェスチャーが特定されたとき、前記特定されたジェスチャーに対応する表示を行う表示手段をさらに備えたことを特徴とする、情報処理装置。
  2. 前記制御手段は、前記実行手段で実行されているアプリケーションと特定されたジェスチャーとに関連づけて予め定義された処理に対応する表示を行うことを特徴とする請求項1記載の情報処理装置。
  3. 前記制御手段は、ガイドアイコンを表示させることを特徴とする、請求項1又は2記載の情報処理装置。
  4. 前記制御手段は、定義されたジェスチャーに対応して表示されているガイドアイコンのうち特定されたジェスチャーに対応するものの表示を、それ以外のガイドアイコンの表示と異なる表示を行うことを特徴とする、請求項1から3の何れか一項記載の情報処理装置。
  5. ユーザーの手の平を撮影して画像データに変換し、複数の画像データに基づいて前記手の平の動作を解析し、前記手の平の動作パターンとして予め定義されたジェスチャーを特定し、実行されているアプリケーションと前記特定されたジェスチャーとに関連づけて予め定義された処理を実施する情報処理方法において、
    ジェスチャーが特定されたとき、前記特定されたジェスチャーに対応する表示を行うことを特徴とする情報処理方法。
  6. 情報処理装置のコンピュータに、
    実行手段が、アプリケーションを実行する手順、
    表示手段が、前記アプリケーションの実行結果を表示する手順、
    撮影手段が、ユーザーの手の平を撮影して画像データに変換する手順、
    解析手段が、前記撮影手段からの複数の画像データに基づいて前記手の平の動作を解析し、前記手の平の動作パターンとして予め定義されたジェスチャーを特定する手順、
    制御手段が、前記実行手段で実行されているアプリケーションと前記特定されたジェスチャーとに関連づけて予め定義された処理を実施する手順、
    を実行させるプログラムにおいて、
    前記表示手段が、ジェスチャーが特定されたとき、前記特定されたジェスチャーに対応する表示を行う手順、
    を実行させることを特徴とするプログラム。
JP2012236127A 2012-10-25 2012-10-25 情報処理装置、情報処理方法、及びプログラム Active JP5831883B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012236127A JP5831883B2 (ja) 2012-10-25 2012-10-25 情報処理装置、情報処理方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012236127A JP5831883B2 (ja) 2012-10-25 2012-10-25 情報処理装置、情報処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2014085966A true JP2014085966A (ja) 2014-05-12
JP5831883B2 JP5831883B2 (ja) 2015-12-09

Family

ID=50788943

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012236127A Active JP5831883B2 (ja) 2012-10-25 2012-10-25 情報処理装置、情報処理方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP5831883B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021068085A (ja) * 2019-10-21 2021-04-30 株式会社東海理化電機製作所 制御装置、コンピュータプログラム、および認証システム
CN114489462A (zh) * 2021-12-31 2022-05-13 广州视声智能股份有限公司 一种无线按键开关面板及其控制方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008052590A (ja) * 2006-08-25 2008-03-06 Toshiba Corp インターフェース装置及びその方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008052590A (ja) * 2006-08-25 2008-03-06 Toshiba Corp インターフェース装置及びその方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021068085A (ja) * 2019-10-21 2021-04-30 株式会社東海理化電機製作所 制御装置、コンピュータプログラム、および認証システム
CN114489462A (zh) * 2021-12-31 2022-05-13 广州视声智能股份有限公司 一种无线按键开关面板及其控制方法

Also Published As

Publication number Publication date
JP5831883B2 (ja) 2015-12-09

Similar Documents

Publication Publication Date Title
JP6286599B2 (ja) 文字入力インターフェース提供方法及び装置
CN105814522B (zh) 基于运动识别来显示虚拟输入设备的用户界面的设备和方法
RU2591671C2 (ru) Краевой жест
US7849421B2 (en) Virtual mouse driving apparatus and method using two-handed gestures
US9182838B2 (en) Depth camera-based relative gesture detection
US11706476B2 (en) User terminal apparatus, electronic apparatus, system, and control method thereof
JP6991486B2 (ja) 文字列に文字を挿入するための方法およびシステム
CA2836265A1 (en) Edge gesture
US20110304649A1 (en) Character selection
US20140009395A1 (en) Method and system for controlling eye tracking
JP5344651B2 (ja) 情報処理装置、制御方法、プログラム、および情報処理システム
US20230291955A1 (en) User terminal apparatus, electronic apparatus, system, and control method thereof
JP2010139686A (ja) プロジェクター、プログラムおよび情報記憶媒体
JP5963291B2 (ja) タッチセンシティブ・スクリーンからシンボルを入力する方法および装置
KR101488662B1 (ko) Nui 장치를 통하여 사용자와 상호작용하는 인터페이스 제공방법 및 제공장치
TW201403386A (zh) 眼動操控方法及系統
JP5831882B2 (ja) 情報処理装置、情報処理方法、及びプログラム
TWI442305B (zh) 多點控制的操作方法及其控制系統
US20140317549A1 (en) Method for Controlling Touchscreen by Using Virtual Trackball
US20130127745A1 (en) Method for Multiple Touch Control Virtual Objects and System thereof
JP5831883B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2014085967A (ja) 情報処理装置、情報処理方法、及びプログラム
JP2014085964A (ja) 情報処理方法、情報処理装置、及びプログラム
US20120151409A1 (en) Electronic Apparatus and Display Control Method
JP2014085965A (ja) 情報処理装置、情報処理方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140401

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150413

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150924

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151020

R150 Certificate of patent or registration of utility model

Ref document number: 5831883

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250