JP2006209563A - インターフェース装置 - Google Patents

インターフェース装置 Download PDF

Info

Publication number
JP2006209563A
JP2006209563A JP2005022365A JP2005022365A JP2006209563A JP 2006209563 A JP2006209563 A JP 2006209563A JP 2005022365 A JP2005022365 A JP 2005022365A JP 2005022365 A JP2005022365 A JP 2005022365A JP 2006209563 A JP2006209563 A JP 2006209563A
Authority
JP
Japan
Prior art keywords
user
movement
display
target part
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005022365A
Other languages
English (en)
Inventor
Masato Horiuchi
正人 堀内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Victor Company of Japan Ltd
Original Assignee
Victor Company of Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Victor Company of Japan Ltd filed Critical Victor Company of Japan Ltd
Priority to JP2005022365A priority Critical patent/JP2006209563A/ja
Publication of JP2006209563A publication Critical patent/JP2006209563A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【目的】利用者の直感的な簡単操作で操作デバイス無しに電子機器の操作を実現するインターフェース装置を提供する。
【構成】ディスプレイ装置11を備えた電子機器における利用者の操作入力のためのインターフェース装置であって、表示画面に対向する利用者Mを撮像するための撮像手段と、撮像された利用者Mの動画像から特定の対象部位W(手の平)を検出する対象部位検出手段と、検出された対象部位Wの位置情報を検出する位置情報検出手段と、検出された対象部位Wの位置情報に基づき、対象部位Wの動きの方向と動きの速さ又は加速度とを検出する動き情報検出手段と、検出された動き情報に対応させた操作コマンドを対象部位Wの動きに応じて電子機器に出力する操作コマンド出力手段と、電子機器の操作コマンドによる状態遷移をディスプレイ装置11の表示画面に表示する表示制御手段と、を備える構成。
【選択図】 図1

Description

本発明は、パーソナルコンピュータシステムやテレビジョンシステムなどのディスプレイ装置を備える電子機器におけるインターフェース装置の技術分野に属する。
パーソナルコンピュータシステムやテレビ・ビデオシステムなどの民生用電子機器の多機能化に伴い、その操作手順は複雑化の一途を辿っている。特に、民生用電子機器の操作環境においては、コンピュータ環境にて多用されてきたマウスに代表される操作デバイス(ポインティング装置)の代替手段として、赤外線リモコンを使って、ディスプレイ装置の表示スクリーン上のグラフィカルユーザインターフェース(略してGUI)を操作することが常套手段となりつつある。
しかしながら、前記GUIは操作環境が必ずしも良好でなく、特に、高年齢者には操作が複雑で分りにくくなりがちである。また、操作対象の電子機器ごとに赤外線リモコンを常に手元に持っておく必要があるなどの煩わしさを伴っている。
このような従来の電子機器におけるインターフェース装置としての欠点を解消する一つの方法として、利用者の手の動き(手振りのジェスチャー)を利用して前記マウスや赤外線リモコンなどの操作デバイス無しに電子機器を操作する方法が提案されている。
例えば、下記[特許文献1]では、図6に示されるように、ホストコンピュータ42のインターフェース装置として、ディスプレイ装置44に付設されたCCDカメラ41に向かい合う利用者Mの手の形状、動きを捉えてホストコンピュータ42の画像処理装置で認識し、利用者Mの手に対応する特定形状(指差しなどを表す矢印カーソル)のアイコン43をディスプレイ装置44の表示画面上に表し、このディスプレイ装置44の表示画面上に表示した仮想スイッチ45、46、47を前記利用者Mの前記CCDカメラ41の光軸に直角な図6におけるハッチ入りの矢印F1、F2で示される縦横方向の手振りによって前記アイコン43で選択できるようにして、前記ホストコンピュータ42などの電子機器に操作コマンドを出力する構成のインターフェース装置のアイデアが開示されている。
特開平8−44490号公報
前記[特許文献1]に開示されたインターフェース装置においては、操作手段として使われる利用者Mの手の位置情報を検出して、その位置情報をディスプレイ装置44の操作メニュー画面上のX−Y座標系にアイコン43としてプロットさせた上で、操作メニュー画面上のX−Y座標系に表示された仮想スイッチ45、46、47などのオブジェクトを操作する手段を用いている。
これは換言すれば、利用者Mの手の形状認識を通してこれを従来のマウスに代替させてポインティング装置の機能を実現させていることになり、手を使って操作画面上のアイコン43(カーソルに該当する。)を動かす、という操作系は、電子機器への操作コマンドの出力を手からアイコン(カーソル)、表示オブジェクトを経て間接的に伝達することに他ならない。
その結果、利用者Mの手がマウスに代替して操作デバイスは不要となるものの、直感的に電子機器を操作しにくい場合が少なからず生じる。例えば、図6におけるディスプレイ装置44上に表示される選択肢としてのオブジェクトの仮想スイッチ45、46、・・・が縦横に多数配置されているような場合は、マウスとしての利用者Mの手によるアイコン43の正確で細かな操作が要求される。
また、前記対象部位(利用者Mの手)と撮像手段である前記CCDカメラ41との光軸上の位置関係の取り方や、対象部位の実空間での移動距離とディスプレイ44上のアイコン(カーソル)移動距離との対応などについて、利用者M個人の直感に即するように手振りの大小の個人差などに適合させる細かな調整が必要であった。
本発明は上記事情に鑑みてなされたものであり、利用者の手などの部位を利用したジェスチャーなどによって操作デバイス無しで電子機器を操作するためのインターフェース装置であって、特に、実空間と表示座標系との対応や利用者の動作から操作コマンド出力に至る間接性をより減らし、利用者のより直感的な操作感覚に適合した簡単操作を実現するインターフェース装置を提供することを目的とする。
本発明は、
(1)ディスプレイ装置11を備えた電子機器における利用者Mの操作入力のためのインターフェース装置であって、前記ディスプレイ装置11の表示画面に対向する前記利用者Mを撮像するための撮像手段(12)と、前記撮像手段(12)により撮像された前記利用者Mの動画像から特定の対象部位Wを検出する対象部位検出手段(22)と、前記対象部位検出手段(22)により検出された前記対象部位Wの位置情報を検出する位置情報検出手段(24)と、前記位置情報検出手段(24)により検出された前記位置情報に基づき、前記対象部位Wの動きの方向と動きの速さ又は加速度とを動き情報として検出する動き情報検出手段(25)と、前記動き情報検出手段(25)により検出された前記動き情報に対応させた操作コマンドを、前記対象部位Wの動きに応じて前記電子機器に出力する操作コマンド出力手段(26)と、前記操作コマンドによる前記電子機器の状態遷移を前記ディスプレイ装置11の前記表示画面に表示する表示制御手段(27)と、を備えたインターフェース装置を提供することにより、前記課題を解決する。
(2)前記動き情報検出手段(25)は、前記対象部位Wの前記ディスプレイ装置11の前記表示画面に平行な面上の直交方向の動きと前記表示画面に対して垂直方向の動きとからなる3次元空間において前記動き情報を検出することを特徴とする上記(1)に記載のインターフェース装置を提供することにより、前記課題を解決する。
尚、上記各手段の括弧内の数字は本明細書で説明される具体的な部材に付された符合に対応する。
本発明に係るインターフェース装置は、上述のような構成のため、
(1)ディスプレイ装置を備えた電子機器において、マウスや赤外線リモコンなどの操作デバイスを使わず、利用者の直感に即した、より自然な簡単な動作によって操作コマンドを電子機器に出力することが可能な利用者の操作入力のための対話型のインターフェース環境を提供できる。
(2)ディスプレイ装置を利用して操作コマンドを入力する構成の全ての情報処理システムを含む電子機器に適用できる。
本発明に係るインターフェース装置の実施の形態について図面に基づいて説明する。
図1は本発明の第1の実施の形態のインターフェース装置におけるオブジェクト選択動作のシーケンス(始めの状態)を説明するための図である。図2は同じく上記インターフェース装置におけるオブジェクト選択動作のシーケンス(遷移後の状態)を説明するための図である。図3は同じく上記インターフェース装置におけるオブジェクト確定動作のシーケンスを説明するための図である。図4は本発明の第2の実施の形態のインターフェース装置におけるオブジェクト選択動作のシーケンスを説明するための図である。図5は本発明の第1及び第2の実施の形態のインターフェース装置を実現させるインターフェース装置のブロック構成図である。
先ず、本発明の基本形態である第1の実施の形態を説明する。
図1において、11はパーソナルコンピュータシステムやテレビジョンシステムなどの情報処理システムを典型とする電子機器に付設或いは構成要素として備えられたCRT、液晶、PDP、有機ELなどのディスプレイ装置であり、Mは前記ディスプレイ装置11の表示画面に対向する利用者であり、12は前記ディスプレイ装置11の表示画面に対向する前記利用者Mを撮像するための撮像手段としての前記ディスプレイ装置11或いは図示されない電子機器本体側に付設された撮像用カメラ(例えばビデオカメラ)であり、14a、14b、14cは前記ディスプレイ装置11の表示画面上に表示された操作メニュー画面中のオブジェクトである。
また、本発明のインターフェース装置の主要な回路ブロックは電子機器内部に格納されており、図5に示されるようなシステム構成を備えている。即ち、前記ディスプレイ装置11の表示画面に対向する利用者Mの動画像を撮像するための撮像手段としての前記ディスプレイ装置11に組み込まれた撮像用カメラ12及び撮像されたデータを一時格納するDRAMなどのフレームメモリ21と、前記撮像手段により撮像された前記利用者Mの動画像から特定の対象部位W(好ましい例として利用者Mの手の平)の形状認識などを行い対象部位Wを抽出する対象部位検出手段としての対象部位抽出部22と、前記対象部位検出手段により検出された前記対象部位Wの位置情報を検出する位置情報検出手段としての位置情報検出部24、前記位置情報検出手段により検出された前記対象部位Wの位置情報の時間変化を元に前記対象部位W(利用者Mの手の平)の動きの方向と動きの速さ又は加速度とを動き情報として検出する動き情報検出手段としての動き情報検出部25、及び前記動き情報検出手段により検出された前記対象部位Wの動き情報に対応させた操作コマンド(電子機器本体の制御部への指示情報)を前記対象部位Wの動きに応じて生成し前記電子機器に出力する操作コマンド出力手段としての操作コマンド生成出力部26を備える画像情報処理装置23と、更に、前記電子機器の前記操作コマンドによる指示の一環として電子機器の状態遷移を前記ディスプレイ装置11の前記表示画面に操作結果のフィードバック情報として表示する表示制御手段27と、を備える構成である。
ここに、上記対象部位抽出部22と、位置情報検出部24、動き情報検出部25及び操作コマンド生成出力部26を擁する上記画像情報処理装置23には、例えば人型ロボットに搭載されているビデオカメラによる自動追尾装置のハードを転用することができる。これは特定の対象部位の形状や色情報を予め記憶しておき、撮像された特定の形状、色に該当する対象部位を認識、抽出し、その動きを追尾することができるものである。
次に、前記利用者Mによる前記ディスプレイ装置11の前記表示画面上のオブジェクト選択・確定の操作は、以下のように行われる。
第1に、図1のように利用者Mがディスプレイ装置11に対向した状態で、自然に操作指示の対象部位Wとなる手の平を掲げた状態を基準位置とする。例えば、手の平を掲げた状態を数秒間(2〜3秒程度が適当)維持することによって、前記基準位置が前記対象部位抽出部22と前記位置情報検出部24によって認識され、電子機器本体に入力される。その結果として表示制御手段27によってディスプレイ装置11の画面上にメニュー操作画面が現れてその略中央位置に配置されているオブジェクト、即ち図1においては現在確定状態又は選択状態にある「2番」が表示されたオブジェクト14bが基準位置にあるものとして手の平に対応して選択状態のハイライトがなされる。
第2に、上記状態から例えば前記利用者Mが前記「2番」のオブジェクト14bではなくその左側にある「1番」のオブジェクト14aを選択し確定したいと考えた場合の動作のシーケンスは次のようになる。先ず、利用者Mは自身の手の平をディスプレイ装置11の画面に向かってしっかり開いたまま右側に素早くスライドさせ(太い実線矢印15の方向)、その後、手の力を抜いて基準位置にゆっくりと戻す(太い破線矢印16の方向)手振りジェスチャーを行う。この基準位置に戻す破線矢印16の動作時には、手の平を撮像用カメラ12に写すことを意識しないのが好ましい。そして前記基準位置に戻す破線矢印16の動作終了後に、再び基準位置で手の平を掲げて静止する。
第3に、前記ディスプレイ装置11のメニュー画面上の表示情報は、前記動き情報検出部25が利用者Mの手の平の動きの方向と動きの速さ又は加速度について前記利用者Mの上記矢印15から矢印16に至る一連の手の平の動作を検出した結果、表示されたオブジェクトを右に1単位(オブジェクト1個分)ずらす操作コマンドであると判断して、前記表示制御手段27によって図2に示されるように、表示画面の表示内容を変化させる。即ち、手の平の矢印15の動作によって、前記ディスプレイ装置11の表示画面上のオブジェクトも矢印15の方向と同じ方向に移動し、基準位置に対応する表示位置にあった「2番」のオブジェクト14bの代りに「1番」のオブジェクト14aが基準位置の画面中央に表示されて選択状態になる。他方、「1番」のオブジェクト14aの元の位置には画面に表示されていなかったその左側に位置している「0番」のオブジェクト14zが現れる。始めに右側に位置していた「3番」のオブジェクト14cは更に右にずれて画面から消える。
第4に、図3に示されるように、基準位置に対象部位Wの手の平を掲げた状態で、前記ディスプレイ装置11に向かって特定の動作、例えば前記ディスプレイ装置11に向かっての奥行き方向(Z軸方向)に利用者Mの手の平をスライドさせる(実線矢印17)。直感的にいえば、手の平を広げたまま対向する前記ディスプレイ装置11に向かって手の平を押し込むイメージである。
第5に、前記動き情報検出部25は、上記利用者Mの矢印17の手の平の動作を検出してそれが状態確定動作であると判断することによって、前記操作コマンド生成出力部26が「1番」のオブジェクト14aが選択状態から確定状態に遷移することに対応する操作コマンド(指示情報)を生成し電子機器本体に出力することで利用者Mの意図に沿った操作コマンド出力(電子機器の制御部に入力)がなされ、前記表示制御手段27は電子機器の「1番」のオブジェクト確定に基づく状態遷移を前記ディスプレイ装置11の操作画面上に操作結果のフィードバック情報として表示する(「1番」のオブジェクト14aに対応する状態に確定したことを示すハイライトを行う)ことにより完了する。
以上のように、オブジェクト選択の操作はディスプレイ装置11を見ている利用者Mが前記ディスプレイ装置11の操作画面上に表示される左右に連続して並べられた・・・、X−2、X−1、X、X+1、X+2、・・・番(Xは自然数)のオブジェクトの帯を手で左右の任意方向に1つずつ番号がずれるように動かして所望の番号のオブジェクトが中央の基準位置に来るように動かす感覚で行われる。また、確定操作は、ボタンスイッチを押すかのように画面中央の基準位置にある選択されたオブジェクトを押すという感覚で行われる。これらの操作は利用者Mの手の平の動きと適合的であり、高年齢者にとっても直感的で分かりやすい自然な操作感覚といえる。
次に、第2の実施の形態を図4を基に説明する。システム構成は第1の実施の形態で説明した図5に示されるものと同様であり、撮像用カメラ12を付設したディスプレイ装置32に向かって利用者Mが手の平を掲げて静止した位置が基準位置として設定される。
以下、基準位置に静止した状態を初期状態として、メニュー項目としてディスプレイ装置32に表示されている2次元操作メニュー画面のオブジエクトを選択決定する手順を説明する。
基準位置はディスプレイ装置32上での中心領域(図4においてオブジェクト33の位置)に対応される。複数のオブジェクトは、ディスプレイ面を含む巨大な仮想球面31の表面上に縦横に並べてマッピングされているものとモデル化し、オブジェクトの選択操作は、この仮想球面31を例えば上下方向、左右方向或いは斜め方向に手で回転させて、選択したいオブジエクトが、ディスプレイ装置の表示画面である「窓」に見えるようにする、という動作のシーケンスとなる。
前記仮想球面31に貼り付けてあるメニュー項目が左右方向だけでなく上下方向にも整列されていれば、2次元のメニュー領域の「窓」をパンすることによって多数のオブジェクトから1つを選択することが容易にできるのである。
また、メニュー項目が張り付いた仮想球面31のサイズを変えることによって、ディスプレイ装置302の表示画面の「窓」に表示される情報の解像度を制御することができる。これにより、回す仮想球面31のサイズを小さくすれば大局情報を、サイズを大きくすれば詳細情報を、それぞれ「窓」に表示させることができる。この点、高齢者にとっては煩雑な詳細操作メニューは不要の場合が多く、このような場合は限定された必要最小限の操作メニューのオブジェクトを表示画面の「窓」に大きく表示可能にするといった表示形態の予めの表示設定の選択が考えられる。
ところで、前記対象部位検出手段は、公知技術のビデオカメラによる特定対象部位の認識装置が適用できるが、特に、手の平などを対象部位Wとする本実施の形態の場合には、動画像中の同系色領域の形状を認識し、その定常状態における形状と非定常状態における形状の差異を識別するように肌色のフィルターを用いることが好ましい。
また、特定の対象部位Wとしては、前記利用者Mの手の平以外の身体の一部、指先(人差し指など)や頭を対象部位として、その左右の振りや頷き、前後の動きで以ってオブジェクトの選択、確定の操作とすることもできる。
また、前記撮像カメラは1つに限られず、2乃至3個用いられてもよい。複数個の撮像カメラをディスプレイ装置11の左右に配置しての対象部位Wの認識は、対象部位の特定及び3次元的な動きに対するより詳細で正確な情報が得られるので、解析に複雑さは伴うものの確実で誤動作の少ない安定したインターフェース装置が実現する。
また、一回の手振り(1操作)でオブジェクトの移動は上記実施の形態の如く1単位動くことを基本とするが、特定の動作によっては操作画面上で連続的或いは間歇的にオブジェクトが上下左右に移動するようにしてもよい。
なお、ディスプレイ装置に同時に表示されるオブジェクトの配置は、上記両実施の形態では1行3列の3個であったが、3行3列の計9個のオブジェクト或いは5行5列の計25個のオブジェクトを同時に表示することでもよい。
本発明の第1の実施の形態のインターフェース装置におけるオブジェクト選択動作のシーケンス(始めの状態)を説明するための図である。 本発明の第1の実施の形態のインターフェース装置におけるオブジェクト選択動作のシーケンス(遷移後の状態)を説明するための図である。 本発明の第1の実施の形態のインターフェース装置におけるオブジェクト確定動作のシーケンスを説明するための模式図である。 本発明の第2の実施の形態のインターフェース装置におけるオブジェクト選択動作のシーケンスを説明するための図である。 本発明の第1及び第2の実施の形態のインターフェース装置を実現させるインターフェース装置のブロック構成図である。 公知文献に開示されたインターフェース装置の構成を説明する図である。
符号の説明
11、32、44 ディスプレイ装置
12 撮像用カメラ
14a、14b、14c オブジェクト
15 オブジェクト選択動作の矢印
16 オブジェクト選択動作の矢印
17 オブジェクト確定動作の矢印
21 フレームメモリ
22 対象部位抽出部
23 画像情報処理装置
24 位置情報検出部
25 動き情報検出部
26 操作コマンド生成出力部
27 表示制御手段
31 仮想球面
33 基準位置において選択されているオブジェクト
41 CCDカメラ
42 ホストコンピュータ
43 アイコン
45、46、47 仮想スイッチ
M 利用者

Claims (2)

  1. ディスプレイ装置を備えた電子機器における利用者の操作入力のためのインターフェース装置であって、
    前記ディスプレイ装置の表示画面に対向する前記利用者を撮像するための撮像手段と、
    前記撮像手段により撮像された前記利用者の動画像から特定の対象部位を検出する対象部位検出手段と、
    前記対象部位検出手段により検出された前記対象部位の位置情報を検出する位置情報検出手段と、
    前記位置情報検出手段により検出された前記位置情報に基づき、前記対象部位の動きの方向と動きの速さ又は加速度とを動き情報として検出する動き情報検出手段と、
    前記動き情報検出手段により検出された前記動き情報に対応させた操作コマンドを、前記対象部位の動きに応じて前記電子機器に出力する操作コマンド出力手段と、
    前記操作コマンドによる前記電子機器の状態遷移を前記ディスプレイ装置の前記表示画面に表示する表示制御手段と、
    を備えたインターフェース装置。
  2. 前記動き情報検出手段は、前記対象部位の前記ディスプレイ装置の前記表示画面に平行な面上の直交方向の動きと前記表示画面に対して垂直方向の動きとからなる3次元空間において前記動き情報を検出することを特徴とする請求項1に記載のインターフェース装置。
JP2005022365A 2005-01-31 2005-01-31 インターフェース装置 Pending JP2006209563A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005022365A JP2006209563A (ja) 2005-01-31 2005-01-31 インターフェース装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005022365A JP2006209563A (ja) 2005-01-31 2005-01-31 インターフェース装置

Publications (1)

Publication Number Publication Date
JP2006209563A true JP2006209563A (ja) 2006-08-10

Family

ID=36966339

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005022365A Pending JP2006209563A (ja) 2005-01-31 2005-01-31 インターフェース装置

Country Status (1)

Country Link
JP (1) JP2006209563A (ja)

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010515170A (ja) * 2006-12-29 2010-05-06 ジェスチャー テック,インコーポレイテッド 機能強化したインタラクティブシステムを用いた仮想オブジェクトの操作
JP2010176510A (ja) * 2009-01-30 2010-08-12 Sanyo Electric Co Ltd 情報表示装置
EP2241964A2 (en) 2009-04-14 2010-10-20 Sony Corporation Information processing apparatus, information processing method, and information processing program
JP2011003136A (ja) * 2009-06-22 2011-01-06 Sony Corp 操作制御装置および操作制御方法
JP2011145744A (ja) * 2010-01-12 2011-07-28 Nintendo Co Ltd 情報処理装置、情報処理プログラム、情報処理システム、および、選択対象の選択方法
EP2400371A2 (en) 2010-06-24 2011-12-28 Sony Corporation Gesture recognition apparatus, gesture recognition method and program
US8102380B2 (en) 2007-08-30 2012-01-24 Kabushiki Kaisha Toshiba Information processing device, program and method to detect hand rotation gestures
JP2012043195A (ja) * 2010-08-19 2012-03-01 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP2012053557A (ja) * 2010-08-31 2012-03-15 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP2012146304A (ja) * 2011-01-06 2012-08-02 Samsung Electronics Co Ltd モーションによって制御されるディスプレイ装置及びそのモーション制御方法
JP2012234317A (ja) * 2011-04-28 2012-11-29 Ntt Docomo Inc 表示装置、表示装置の制御方法及びプログラム
JP2013037499A (ja) * 2011-08-05 2013-02-21 Toshiba Corp ジェスチャ認識装置、ジェスチャ認識方法およびジェスチャ認識プログラム
JP2014504751A (ja) * 2010-12-22 2014-02-24 トムソン ライセンシング カードまたはウィンドーに適用されるときにユーザー操作を制約する方法および装置
WO2014034188A1 (ja) * 2012-08-30 2014-03-06 楽天株式会社 衣服画像処理装置、衣服画像表示方法、およびプログラム
JP2014509103A (ja) * 2011-01-12 2014-04-10 ミュエシュトロ インターアクティーフェ ゲーエムベーハー 移動する物体をもとにして機構を制御する遠隔制御装置及びインタフェースモジュール
JP2014096804A (ja) * 2013-12-02 2014-05-22 Hitachi Consumer Electronics Co Ltd 操作制御装置及び操作表示方法
KR20140089845A (ko) * 2013-01-07 2014-07-16 삼성전자주식회사 전자 장치 및 그 제어 방법
US9086726B2 (en) 2010-12-27 2015-07-21 Hitachi Maxell, Ltd. Image processing device and image display device
US9134800B2 (en) 2010-07-20 2015-09-15 Panasonic Intellectual Property Corporation Of America Gesture input device and gesture input method
JP2016194957A (ja) * 2011-10-07 2016-11-17 カシオ計算機株式会社 電子機器、及びプログラム
US9939912B2 (en) 2014-03-05 2018-04-10 Denso Corporation Detection device and gesture input device
US9965028B2 (en) 2010-04-07 2018-05-08 Samsung Electronics Co., Ltd. Method for suspension sensing in interactive display, method for processing suspension sensing image, and proximity sensing apparatus
JP2019021338A (ja) * 2018-10-04 2019-02-07 株式会社三菱Ufj銀行 情報処理装置
JP2019086916A (ja) * 2017-11-02 2019-06-06 オリンパス株式会社 作業支援装置、作業支援方法、作業支援プログラム
US11861077B2 (en) 2017-07-11 2024-01-02 Apple Inc. Interacting with an electronic device through physical movement

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08315154A (ja) * 1995-02-21 1996-11-29 Mitsubishi Electric Res Lab Inc ジェスチャ認識システム
JPH10255052A (ja) * 1997-03-14 1998-09-25 Atr Chinou Eizo Tsushin Kenkyusho:Kk ジェスチャインタフェース装置
JP2000075991A (ja) * 1998-08-28 2000-03-14 Aqueous Research:Kk 情報入力装置
JP2003067108A (ja) * 2001-08-23 2003-03-07 Hitachi Ltd 情報表示装置とその操作認識方法
JP2003186596A (ja) * 2001-12-13 2003-07-04 Seiko Epson Corp 表示装置及び表示装置の入力方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08315154A (ja) * 1995-02-21 1996-11-29 Mitsubishi Electric Res Lab Inc ジェスチャ認識システム
JPH10255052A (ja) * 1997-03-14 1998-09-25 Atr Chinou Eizo Tsushin Kenkyusho:Kk ジェスチャインタフェース装置
JP2000075991A (ja) * 1998-08-28 2000-03-14 Aqueous Research:Kk 情報入力装置
JP2003067108A (ja) * 2001-08-23 2003-03-07 Hitachi Ltd 情報表示装置とその操作認識方法
JP2003186596A (ja) * 2001-12-13 2003-07-04 Seiko Epson Corp 表示装置及び表示装置の入力方法

Cited By (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010515170A (ja) * 2006-12-29 2010-05-06 ジェスチャー テック,インコーポレイテッド 機能強化したインタラクティブシステムを用いた仮想オブジェクトの操作
US8102380B2 (en) 2007-08-30 2012-01-24 Kabushiki Kaisha Toshiba Information processing device, program and method to detect hand rotation gestures
JP2010176510A (ja) * 2009-01-30 2010-08-12 Sanyo Electric Co Ltd 情報表示装置
EP2241964A2 (en) 2009-04-14 2010-10-20 Sony Corporation Information processing apparatus, information processing method, and information processing program
EP2241964A3 (en) * 2009-04-14 2011-01-05 Sony Corporation Information processing apparatus, information processing method, and information processing program
US8947463B2 (en) 2009-04-14 2015-02-03 Sony Corporation Information processing apparatus, information processing method, and information processing program
JP2011003136A (ja) * 2009-06-22 2011-01-06 Sony Corp 操作制御装置および操作制御方法
JP2011145744A (ja) * 2010-01-12 2011-07-28 Nintendo Co Ltd 情報処理装置、情報処理プログラム、情報処理システム、および、選択対象の選択方法
US8917236B2 (en) 2010-01-12 2014-12-23 Nintendo Co., Ltd. Storage medium having information processing program stored therein, information processing apparatus, and information processing system
US9965028B2 (en) 2010-04-07 2018-05-08 Samsung Electronics Co., Ltd. Method for suspension sensing in interactive display, method for processing suspension sensing image, and proximity sensing apparatus
EP2400371A2 (en) 2010-06-24 2011-12-28 Sony Corporation Gesture recognition apparatus, gesture recognition method and program
US8756508B2 (en) 2010-06-24 2014-06-17 Sony Corporation Gesture recognition apparatus, gesture recognition method and program
US9134800B2 (en) 2010-07-20 2015-09-15 Panasonic Intellectual Property Corporation Of America Gesture input device and gesture input method
JP2012043195A (ja) * 2010-08-19 2012-03-01 Sony Corp 情報処理装置、情報処理方法およびプログラム
US10241582B2 (en) 2010-08-19 2019-03-26 Sony Corporation Information processing device, information processing method, and program for graphical user interface
US9411410B2 (en) 2010-08-19 2016-08-09 Sony Corporation Information processing device, method, and program for arranging virtual objects on a curved plane for operation in a 3D space
JP2012053557A (ja) * 2010-08-31 2012-03-15 Sony Corp 情報処理装置、情報処理方法およびプログラム
US9836190B2 (en) 2010-12-22 2017-12-05 Jason Douglas Pickersgill Method and apparatus for restricting user operations when applied to cards or windows
US10514832B2 (en) 2010-12-22 2019-12-24 Thomson Licensing Method for locating regions of interest in a user interface
US9990112B2 (en) 2010-12-22 2018-06-05 Thomson Licensing Method and apparatus for locating regions of interest in a user interface
JP2014504751A (ja) * 2010-12-22 2014-02-24 トムソン ライセンシング カードまたはウィンドーに適用されるときにユーザー操作を制約する方法および装置
US9746931B2 (en) 2010-12-27 2017-08-29 Hitachi Maxell, Ltd. Image processing device and image display device
US9086726B2 (en) 2010-12-27 2015-07-21 Hitachi Maxell, Ltd. Image processing device and image display device
JP2012146304A (ja) * 2011-01-06 2012-08-02 Samsung Electronics Co Ltd モーションによって制御されるディスプレイ装置及びそのモーション制御方法
JP2014509103A (ja) * 2011-01-12 2014-04-10 ミュエシュトロ インターアクティーフェ ゲーエムベーハー 移動する物体をもとにして機構を制御する遠隔制御装置及びインタフェースモジュール
US9451237B2 (en) 2011-01-12 2016-09-20 Myestro Interactive Gmbh Remote control device for controlling a mechanism with the aid of a movable object and an interface module based on movement and distance of the movable object with respect to a camera
JP2012234317A (ja) * 2011-04-28 2012-11-29 Ntt Docomo Inc 表示装置、表示装置の制御方法及びプログラム
JP2013037499A (ja) * 2011-08-05 2013-02-21 Toshiba Corp ジェスチャ認識装置、ジェスチャ認識方法およびジェスチャ認識プログラム
JP2016194957A (ja) * 2011-10-07 2016-11-17 カシオ計算機株式会社 電子機器、及びプログラム
JP5791812B2 (ja) * 2012-08-30 2015-10-07 楽天株式会社 衣服画像処理装置、衣服画像表示方法、およびプログラム
JPWO2014034188A1 (ja) * 2012-08-30 2016-08-08 楽天株式会社 衣服画像処理装置、衣服画像表示方法、およびプログラム
US9996909B2 (en) 2012-08-30 2018-06-12 Rakuten, Inc. Clothing image processing device, clothing image display method and program
WO2014034188A1 (ja) * 2012-08-30 2014-03-06 楽天株式会社 衣服画像処理装置、衣服画像表示方法、およびプログラム
KR101713784B1 (ko) 2013-01-07 2017-03-08 삼성전자주식회사 전자 장치 및 그 제어 방법
KR20140089845A (ko) * 2013-01-07 2014-07-16 삼성전자주식회사 전자 장치 및 그 제어 방법
JP2014096804A (ja) * 2013-12-02 2014-05-22 Hitachi Consumer Electronics Co Ltd 操作制御装置及び操作表示方法
US9939912B2 (en) 2014-03-05 2018-04-10 Denso Corporation Detection device and gesture input device
US11861077B2 (en) 2017-07-11 2024-01-02 Apple Inc. Interacting with an electronic device through physical movement
JP2019086916A (ja) * 2017-11-02 2019-06-06 オリンパス株式会社 作業支援装置、作業支援方法、作業支援プログラム
JP2019021338A (ja) * 2018-10-04 2019-02-07 株式会社三菱Ufj銀行 情報処理装置

Similar Documents

Publication Publication Date Title
JP2006209563A (ja) インターフェース装置
JP5167523B2 (ja) 操作入力装置および操作判定方法並びにプログラム
US9569010B2 (en) Gesture-based human machine interface
CN107077169B (zh) 扩增现实中的空间交互
EP2733574B1 (en) Controlling a graphical user interface
KR100783552B1 (ko) 휴대 단말기의 입력 제어 방법 및 장치
JP5515067B2 (ja) 操作入力装置および操作判定方法並びにプログラム
JP5802667B2 (ja) ジェスチャ入力装置およびジェスチャ入力方法
JP6812579B2 (ja) 仮想基体として使用するための平面及び/又は四分木を検出するための方法及びデバイス
WO2012039140A1 (ja) 操作入力装置および方法ならびにプログラム
US20160098094A1 (en) User interface enabled by 3d reversals
US11402922B2 (en) Method for outputting command by detecting object movement and system thereof
EP2278823A2 (en) Stereo image interaction system
US20110298708A1 (en) Virtual Touch Interface
EP2558924B1 (en) Apparatus, method and computer program for user input using a camera
KR20130105725A (ko) 콘텐츠의 양 손 제어에 기반한 컴퓨터 비전
US20180253149A1 (en) Information processing system, information processing apparatus, control method, and program
US20180032139A1 (en) Interactive system control apparatus and method
US20130227477A1 (en) Semaphore gesture for human-machine interface
JP6008904B2 (ja) 表示制御装置、表示制御方法、及び、プログラム
KR101394604B1 (ko) 모션 감지를 통한 사용자 인터페이스 구현 방법 및 그 장치
KR101436588B1 (ko) 멀티 포인트 터치를 이용한 사용자 인터페이스 제공 방법 및 이를 위한 장치
GB2535730A (en) Interactive system control apparatus and method
Vanoni Human-centered interfaces for large, high-resolution visualization systems
US20150323999A1 (en) Information input device and information input method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070629

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090602

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090619

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090804

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100824