JP5515067B2 - 操作入力装置および操作判定方法並びにプログラム - Google Patents

操作入力装置および操作判定方法並びにプログラム Download PDF

Info

Publication number
JP5515067B2
JP5515067B2 JP2011149037A JP2011149037A JP5515067B2 JP 5515067 B2 JP5515067 B2 JP 5515067B2 JP 2011149037 A JP2011149037 A JP 2011149037A JP 2011149037 A JP2011149037 A JP 2011149037A JP 5515067 B2 JP5515067 B2 JP 5515067B2
Authority
JP
Japan
Prior art keywords
operator
area
display
image
determination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011149037A
Other languages
English (en)
Other versions
JP2013016060A (ja
Inventor
賢二 泉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shimane Prefecture
Original Assignee
Shimane Prefecture
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2011149037A priority Critical patent/JP5515067B2/ja
Application filed by Shimane Prefecture filed Critical Shimane Prefecture
Priority to US13/824,955 priority patent/US9329691B2/en
Priority to CN201180045563.7A priority patent/CN103154858B/zh
Priority to EP11826586.7A priority patent/EP2620849B1/en
Priority to CA2811868A priority patent/CA2811868C/en
Priority to PCT/JP2011/005354 priority patent/WO2012039140A1/ja
Priority to KR1020137007392A priority patent/KR101522991B1/ko
Publication of JP2013016060A publication Critical patent/JP2013016060A/ja
Application granted granted Critical
Publication of JP5515067B2 publication Critical patent/JP5515067B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、操作入力装置および操作判定方法に関し、より詳細には、ビデオカメラ等により撮影した画像から測定対象の動作の判定を行う操作入力装置および操作判定方法に関する。
近年、コンピュータやゲーム機器などにおいて、種々の入力方法が採用されている。たとえば、操作者の予め定めたジェスチャ等の動作をカメラで撮像する等して認識し、そのジェスチャがいずれの操作内容かを判定するシステムが提案されている。例えば、特許文献1には、CCDカメラで撮像した画像中の物体の形状、動きを認識するホストコンピュータと、ホストコンピュータによって認識した物体の形状、動きを表示するディスプレイとを備え、CCDカメラにユーザが向い、手振り等によって指示を与えると、与えた手振りがディスプレイの表示画面上に表示され、表示画面上に表示した仮想スイッチ等を手振りによって矢印カーソルのアイコンで選択でき、マウス等の入力装置を必要とせず、非常に簡便な機器の操作が可能となる技術が提案されている。
一方、コンピュータの操作において、操作者は、マウスを動かすことによって、ディスプレイに表示されたボタンや入力フィールドなどの所定の位置にポインタを合わせ、クリック等により、「ボタンを押下する」あるいは「入力フィールドの入力を開始する」といった操作内容を確定させる。このように、従来、マウスを用いることにより、ポインティングあるいはフォーカス(選択)し、所定の位置でクリックボタンを1度押すことによりその場所の選択等をすることができる。また、クリックボタンを連続して2度押下することによりポインティングされた位置に関連付けされた様々なアプリケーションを実行させることができる(いわゆる、ダブルクリック)。あるいは、ポインティングされた位置と移動先とを紐付けるドラッグなどの操作が可能となっている。入力キーボードは通常、数値や文字などの具体的な情報の入力に用いられ、したがって、操作者は所望の情報を出力させたり、必要な情報を入力したりするため、マウスによる移動とキーボードによる入力を繰り返し行うこととなる。
また、操作者が特別な機器を装着することなく、操作者の操作に関する利便性をより向上させることを目的とし、操作者に対して、キーボードやマウス等に相当する操作手段を適切な空間部分に、例えば仮想平面Gや仮想キーボードHを定義することで、操作者が表示画像に対して、マウス操作であるクリック操作、ドラック操作、ダブルクリック操作等を行うことや、所望する線、図形、或いは、文字等を描画、入力することを可能にする技術が提案されている(例えば特許文献2を参照)。
特開2004−78977号公報 特開2004−258714号公報
しかしながら、マウスやキーボード、タッチパネル等のデバイスを使用しないジェスチャ操作等は、非直感的で複雑な動作を要するものや、大振りな動作により身体的負担を強いられるもの、特許文献2の発明のような操作する手で操作対象画面を自ら見えにくくするもの、ジェスチャ操作の動作間の「つなぎ」の曖昧さに起因する誤認識の問題等により、実既存の技術では満足されていなかった。特に、特許文献2の発明は、特別な機器等を装着せずに操作入力ができ、一見有効な技術と思われる。しかし、操作する手自体が対象画面を覆い隠してしまうといった視認性の問題と、「選択」から「決定」へ至る2つの操作ステップが明確に区別されていない問題とから、その実施は非常に困難と言える。
本発明は、このような問題に鑑みてなされたもので、操作者が表示装置に相対して操作する際に直感的かつ簡素でありながら、誤認識の発生率が低く、長時間の操作においても操作者に負担が少ない動作入力を的確に判定することが可能な操作入力装置および操作判定方法並びにプログラムを提供することを目的とする。
このような目的を達成するために、請求項1に記載の発明は、操作入力装置であって、操作者が閲覧する画像を表示する表示手段と、操作者に向けて表示手段の近傍に配置され、操作者の画像データを生成する撮像手段と、撮像手段により読取られた操作者の画像により定められる領域であって、操作者の一部が表示手段に表示された所定の標示を制御することができる制御領域、および標示の表示手段の表示面上の位置に関連する操作が行われたか否かを判定する判定領域を予め設定する領域設定手段と、操作者の画像から操作者の一部を抽出して、操作者の一部が設定された制御領域内にあるとき、操作者の一部と表示手段との位置関係に応じて標示を移動する制御手段と、操作者の画像から操作者の一部を抽出して、設定された判定領域内における操作者の一部の動作に応じて、標示の表示手段の表示面上の位置に関連する操作が行われたか否かを判定する操作判定手段とを備え、前記領域設定手段は、前記制御領域および前記判定領域を、前記操作者の画像から抽出された顔面を中心とした左右領域に分割配置し、前記制御手段は、指の動きに応じて、アイコンの形状、色、および透明度の少なくとも一つを変化させることを特徴とする。
請求項2に記載の発明は、請求項1に記載の操作入力装置において、制御領域と判定領域とは、操作者を中心にそれぞれ左右のいずれかにあり、制御範囲設定手段で抽出される操作者の一部と、操作判定手段で抽出される操作者の一部とは異なることを特徴とする。
請求項3に記載の発明は、請求項2に記載の操作入力装置において、領域設定手段は、読み取られた画像から操作者の顔面を抽出して操作者の中心を定めることを特徴とする。
請求項4に記載の発明は、請求項1ないし4のいずれかに記載の操作入力装置において、操作判定手段は、撮像手段により読取られた操作者の予め定められた一連の動作により、制御領域と判定領域とがそれぞれ左右のいずれに配置するかを定めることを特徴とする。
請求項5に記載の発明は、領域設定手段は、請求項2または3に記載の操作入力装置において、撮像手段により読取られた操作者の予め定められた一連の動作に基づいて、制御領域および判定領域を予め設定することを特徴とする。
請求項6に記載の発明は、請求項1ないし5のいずれかに記載の操作入力装置において、領域設定手段は、判定領域と、制御領域とが重ならないように予め設定することを特徴とする。
請求項7に記載の発明は、請求項1ないし6のいずれかに記載の操作入力装置において、制御領域および判定領域は、操作者の視点と表示手段の表示面の各頂点とを結んで定められる領域にかからない領域であることを特徴とする。
請求項8に記載の発明は、操作者が閲覧する画像を表示する表示手段と、表示手段の操作者に向けて表示手段の近傍に配置され、表示手段を見る操作者の画像データを生成する撮像手段とを備えた操作入力装置により操作入力をする方法であって、撮像手段により読取られた操作者の画像により定められる領域であって、操作者の一部が表示手段に表示された所定の標示を制御することができる制御領域、および標示の表示手段の表示面上の位置に関連する操作が行われたか否かを判定する判定領域を予め設定する領域設定ステップと、操作者の画像から操作者の一部を抽出して、操作者の一部が設定された制御領域内にあるとき、操作者の一部と前記表示手段との位置関係に応じて標示を移動する制御ステップと、操作者の画像から操作者の一部を抽出して、設定された判定領域内における操作者の一部の動作に応じて、標示の表示手段の表示面上の位置に関連する操作が行われたか否かを判定する操作判定ステップと、を備え、前記領域設定ステップにおいて、前記制御領域および前記判定領域を、前記操作者の画像から抽出された顔面を中心とした左右領域に分割配置し、前記制御ステップにおいて、指の動きに応じて、アイコンの形状、色、および透明度の少なくとも一つを変化させることを特徴とする。
請求項9に記載の発明は、操作者が閲覧する画像を表示する表示手段と、表示手段の操作者に向けて表示手段の近傍に配置され、表示手段を見る操作者の画像データを生成する撮像手段とを備えた操作入力装置に操作入力方法を実行させるプログラムであって、操作入力方法は、撮像手段により読取られた操作者の画像により定められる領域であって、操作者の一部が表示手段に表示された所定の標示を制御することができる制御領域、および標示の表示手段の表示面上の位置に関連する操作が行われたか否かを判定する判定領域を予め設定する領域設定ステップと、操作者の画像から操作者の一部を抽出して、操作者の一部が設定された制御領域内にあるとき、操作者の一部と表示手段との位置関係に応じて前記標示を移動する制御ステップと、操作者の画像から操作者の一部を抽出して、設定された判定領域内における操作者の一部の動作に応じて、標示の前記表示手段の表示面上の位置に関連する操作が行われたか否かを判定する操作判定ステップとを備え、前記領域設定ステップにおいて、前記制御領域および前記判定領域を、前記操作者の画像から抽出された顔面を中心とした左右領域に分割配置し、前記制御ステップにおいて、指の動きに応じて、アイコンの形状、色、および透明度の少なくとも一つを変化させることを特徴とする。
本実施形態の操作入力システムの一例を説明するための図である。 本実施形態の操作入力システムのコンピュータとの関係を模式的に示すブロック図である。 本実施形態の原理を説明するための図である。 本実施形態の処理のフローチャートである。 本発明の一実施形態にかかる左右の操作領域を説明するための図である。 本発明の一実施形態にかかる左右の操作領域の役割を説明するための図である。 本発明の一実施形態にかかる画面および対応する操作面の機能を模式的に示す図である。 本発明の一実施形態にかかる画面および対応する操作面の機能を模式的に示す図である。 本発明の一実施形態の仮想的な操作面の側面図である。 本発明の一実施形態の仮想的な操作面の上面図である。 本発明の一実施形態にかかる左右2つの操作領域の機能例を説明するための図である。 本発明の一実施形態にかかる左右2つの操作領域の別の機能例を説明するための図である。 本発明の一実施形態にかかる操作入力システムによる入力操作の一例を示す図である。 本発明の一実施形態にかかる操作者の動きと画面に表示されるアイコンとの関係を示す図である。 本発明の一実施形態にかかる操作入力画面の具体的な表示の一例を示す図である。 本発明の一実施形態にかかる操作入力画面で使用可能な種々のアイコンの例を示す図である。 本発明の一実施形態にかかる操作者の動きと画面に表示されるアイコンとの関係を示す図である。 本実施形態の操作入力システムの操作姿勢の一例を示す図である。 本実施形態の操作入力システムの一例を示す図である。 本実施形態の操作入力システムの一例を示す図である。 本実施形態のコンピュータのCPU内で処理されるプログラムの機能モジュールの一例を示すブロック図である。 本実施形態の処理のフローチャートである。 本発明の一実施形態にかかる指定された操作面の位置の抽出する処理を示すフローチャートである。
以下、図面を参照しながら本発明の実施形態について詳細に説明する。
(第1実施形態)
図1は、本実施形態の操作入力システムの一例を示す図である。本実施形態では、後述するように。操作者102の頭部を基準として右側領域124および左側領域125を、それぞれ右手114および左手115の操作領域として定め、各々操作内容を判定して操作入力として処理される。図1を参照すれば理解できるように、右側領域124および左側領域125を一定の距離をおいて配置することにより、操作者の右手114および左手115の動きが錯綜していずれの動きであるか誤認識することが回避できる。
このように2つの領域を定めることにより、図20に示すようにディスプレイ111に相対して、右手114および左手115で異なる種類の操作を行い、より効率的な操作判定が可能になる。例えば、本実施形態では、右手114でカーソルを移動させ、左手115で操作内容を確定(マウスのクリック押下に相当)するように構成することができるが、これに限られず種々の操作を組み合わせることができる。
本実施形態のディスプレイ111は、操作者102の前面に配置され、操作者102は、ディスプレイ111との間の左右の一定の位置に設定された領域内で、指などの形状が操作判定の対象になることを意識して操作を行うことができる。ここで、ディスプレイ111には、通常パソコンで使用される様々なアプリケーション用の種々の映像が表示されるが、これに加え操作入力を支援、すなわち例えば対象となる操作者102の部位などを画面の隅の方に表示して、操作者102に、現時点でシステムがどのような操作が行われていると認識しているかを表示することができる。本実施形態では、操作者が視聴するモニタとして、通常のパソコン用ディスプレイを使用することができる。また、本実施形態では、右手で位置決定を、左手で操作判定を行うシステムを用いて説明するが、これに限られず、利き手や操作者の嗜好などにより左右を逆にすることもできる。
本実施形態では図5に示すように、画像を取得するためにビデオカメラ511ないし514のいずれかの位置のカメラを使用する。ここで、図5では、4つのカメラが示されているが、いずれか1つあるいは2つ以上を設けることができる。複数カメラを使用するときは、左右のカメラで左右の手の動きを別々に撮影して、画像の精度を上げることもできる。また、カメラとしては赤外線カメラ等、本技術分野で知られたいずれの撮像手段を用いることもでき、図5のような4つの位置以外でも設置場所としてモニタの付近の何処を選択することもできる。したがって、カメラ511等は対象の画像を撮影できるものであればいずれのタイプのものでも良く、その方式については問わないが、設置レイアウト上、広角範囲を取得できるカメラであるのが好ましい。
また、近年パソコン等で使用されている安価なウェブカメラなども使用することができる。高価なカメラに代え、安価なウェブカメラを利用して、カメラ512及び514の様に、各カメラを対象画面の両端に設置し、上述のように左右カメラそれぞれに左操作、右操作のセンシングを独立して担当させる方法によりセンシング精度を高めることもできる。この場合、取得された二次元的な画像情報から、利き腕でカーソル移動(指先の画像認識)、もう片方の腕のジェスチャの輪郭画像認識で意志決定といった本技術分野で知られた方法で、操作を二段階にしたPC操作が可能となる。
次に、本実施形態の操作入力方法を図19を参照してより具体的に説明する。図19は、本実施形態の操作入力システムの一例を示す図である。図19を参照すると、本実施形態の操作は、図19の例ではかなり大きな緩衝領域、すなわち、上述の視点501と操作対象画面520の四隅を結ぶ四角錐を隔てて左右に分かれた領域124、125内で手を動かしたときのみ操作対象にするので、操作入力動作で操作者が手を動かしてもディスプレイ111に表示された画面を遮ることはなく、通常のパソコン操作時の視認性を確保することができる。ここで、左右の手の錯綜が起こらない限り緩衝領域はいずれの大きさとすることもできる。また、同様に左右の動作する領域124、125は上述の緩衝領域によって分割配置されていることから、それぞれの領域における動作を操作者の左手、右手と正確に分別しての判定が可能となる。従来の通常のジェスチャ認識においては、操作者の両腕の交差や身体と腕との重なり等で、誤認識が生ずることが多かったが、これにより、操作者による操作領域設定や中央の非センシングエリアによって分割された左右の手の操作領域をそれぞれ制限し区別することが可能となり、安定した操作が実現できることとなる。
本実施形態では、左右いずれかの手をXY座標のポインティングあるいはフォーカス(従来のマウスによるカーソル移動に相当)機能のみに使用するようにし(仮想トラックパッドの機能)、もう片方の手をフォーカスに対する決定動作、例えばクリック、ダブルクリック、ドラッグのトリガを受け付ける機能のみに使用する。このようにして、左右それぞれに完全に機能を分担し、二段階で操作を判断することでジェスチャ操作に多く見られる入力ミスや誤認識を圧倒的に低減することができる。なお、具体的なジェスチャとしては、手のひらを開いて(じゃんけんのパーの形)「クリック、ダブルクリック操作」としたり、人差し指を立ててクリック、二本の指を立ててダブルクリック等としたりすることができる。なお、以下便宜上右手を仮想トラックパッド機能として使用し、左手を操作決定機能として使用するが、これに限られず左右を逆にしたり、さらに機能を分割、あるいは統合させたりすることができる。
(本実施形態のシステム構成)
図2は、本実施形態の操作入力装置のコンピュータ110の構造を模式的に示すブロック図である。コンピュータ110には、ディスプレイ111に取り付けられ、操作者102などを撮影するビデオカメラ511などが接続され、撮影した画像をコンピュータ110に取り込む。撮影により得られた画像は、CPU210において本実施形態の特徴である操作者の一部である右左の手の画像を抽出する。コンピュータ110は、一般にCPU210を備え、ROM211等に記憶されたプログラムをRAM212上で実行して、操作入力装置から入力した画像に基づいた処理結果をディスプレイ111等に出力する。本実施形態では、ディスプレイ111は、上述の操作者の手の動作により表示されるアイコンなどのほか、操作者が体験しようとする様々なアプリケーションにより提供される種々の映像を出力することができ、また後述するように操作入力の支援となるような情報も表示する。
図21は、本実施形態のコンピュータ110のCPU210内で処理されるプログラムの機能モジュールの一例を示すブロック図である。図21に示すように、本システムにおける処理は、画像読取部301、画像抽出部302、画像位置算出部303、操作判定部304および標示制御部305により実行される。なお、本実施形態では、ビデオカメラ511からの画像を受取ってからデータの出力を行うまでの処理をこの5つのモジュールにより実行するが、これに限られることなく、その他のモジュールを用い、あるいはより少ないモジュールで処理することもできる。
また、本実施形態では、ディスプレイ111として立体表示可能な3Dディスプレイを使用して、操作者102から見て操作面が設定あるいは調整された位置に存在するように見えるようにアイコンを表示することもできる。これにより、操作者102は、あたかもアイコンなどがそこに存在するように立体映像として認識して、認識した立体映像に対し手や指を用いて操作を実行することができる。操作者102は、その右目と左目とによりディスプレイ111上に表示された画像およびアイコンなどを見るが、アイコンなどは立体表示させるため、例えば視差を含んだ2枚の画像からなっており、それぞれ右目及び左目で見ることによりディスプレイ111から操作者の前面にあるように立体表示されるような面を形成することができる。なお、立体表示される面の位置は、操作者の操作感として実際にアイコンなどが形成される位置とは若干異なる位置に表示させる場合もあるが必ずしも一致する必要はない。
(操作領域の設定)
図3は、本実施形態の操作領域を設定する処理を説明するための図である。本実施形態では、左右の操作領域をより簡易に設定するため、上述したビデオカメラ111により撮像された操作者の画像から、顔面131を抽出して左右領域の設定の際の基準とする。図3を参照すると、本技術分野で知られた方法で操作者102の顔面131を抽出した後、顔の中心部を判断し、中心部を通る垂線を操作者102の中心線132と判断する。この中心線の左右に、いずれの操作領域にもならない一定の緩衝領域を設けて左右の操作領域125および124を設定する。このようにして、より簡易に図6に示すような右側領域124および左側領域125を中心線132に基づいて定めることができるが、各操作領域の大きさ、位置は、システムや操作者の体系などに応じて適切な値とする。同様に緩衝領域も左右の手の動きの錯綜の程度に応じて、適切な大きさを設定する。なお、本実施形態では顔面を抽出するが、頭部自体、あるいはその他頭部近傍にある操作者の一部を基準とすることもできる。
本実施形態では、このような有効な動作範囲の設定処理は、システムの電源投入後や特定の操作、例えばリモコンで指示するなどにより開始されるが、これに限られず本技術分野で知られたいずれの方法、タイミングで開始することができる。
また、本実施形態においては、通常のPC操作で図18に示すような両肘をついてのジェスチャ入力が一般的な形態となるので、動作範囲の設定に当たっては、このような操作姿勢を考慮して操作者の身体に適合した位置に範囲設定することが有用である。なお、このような両肘をついた操作姿勢によると、従来のPC操作におけるマウスやキーボードに比して、両腕の重みによる両肩への筋負担が、かなり軽減されること、必要最小限の小振りなジェスチャ操作のみで済むことから、身体的な負担が大幅に軽減される上、マウス、キーボードをカメラ一台で置き換えることが可能となるため大きなメリットとなる。加えて、両肘を机面につくことで、右手114によるカーソル移動(フォーカス)や、左手115による操作判定の際も、常に安定したジェスチャ位置が確保できる。
本実施形態では、以上の操作範囲設定処理を行う前提として、本技術分野で知られた初期設定、例えば本実施形態の操作入力装置が新たに設置された場合を想定すると、事前準備として利用するビデオカメラ511の利用レンズの歪み、ディスプレイ111とレンズとの距離等の情報を装置に入力しておく必要がある。さらに閾値設定等を予め調整しておく。
(本実施形態の操作判定処理)
本実施形態では、図4および図19を参照すると、ビデオカメラ511等で撮影した操作者102の一部である手や指114、115の位置を定めるとともに、これらの位置とディスプレイ上の対応する点との相対的な位置や、形状に基づいて、ディスプレイ上のアイコンを移動させたり、一定の操作と判定したりする。まず、画像読取部301においてビデオカメラ511等で撮影されたデータを読取り、そのデータから操作者の手の画像を、画像抽出部302により抽出する(S401および402)。
このような準備の結果、上述の操作領域の設定で予め設定し(S403)、記憶手段などに記憶していた有効な動作領域124、125の位置、大きさを読み出す。ここで、右手の操作開始位置を適当に定めておき、本技術分野で知られたいずれかの方法で、右手114の位置に対応するディスプレイ111上の位置にアイコン等が標示制御部305により表示され、手の動きとともに移動するよう制御される。したがって、操作者は表示されたアイコンの動きに合わせて有効な動作領域124内で的確に指や手を動かすことにより、表示面に表示されたアイコンを移動するなどの操作を行うことができる(S404、405および408)。
操作判定部304は、操作者102の動作領域125内の左手115の形状や動きにより、予め定めた操作が行われた判断し、右手114の位置に基づいて、左手の形状あるいは動きに関連付けて予め定められた操作内容とともに、操作が実行されたことをシステムに通知する(S406および407)。
ここで、どのような形状、動きがどのような操作に対応するかは、システム独自に取り決めることもできるし、本技術分野で知られたいずれかの手法を取り入れて決定することもでき、あるいはまた、単にその位置が操作者により触れられた、例えばアイコンが選択され、若しくはボタンが押されたと判定することができる。判定した結果は、そのような操作の入力があったものとしてコンピュータ110で実行される。操作内容の判定はここで説明した手法に限られることなく、本実施形態で知られたいずれの方法も用いることができる。また、具体的な判定方法も省略したが、一般には予め定めたジェスチャなどの操作者の身体の形状、動きと、それが意味する操作内容とをデータベース等に格納しておいて、画像抽出後、このデータベースにアクセスして、操作内容を判定する。この際にももちろん、画像認識技術や人工知能などを本技術分野で知られた手法により利用し、判定精度を向上させることもできる。ここで、手が有効な動作領域124、125にない場合は操作とは判定されない。例えば、右手が有効な領域124を外れると、その位置でアイコンが停止するか、初期の位置に戻る。また、左手が有効な領域125を外れると、予め定めた形状や動きであっても操作とは判定されない。
以上、本実施形態によれば、操作者の頭部等を基準に左右の動作領域124、125を定め、左右の手で異なる機能、例えばアイコンの移動あるいは選択と、クリック、ドラッグなどの操作内容とに分別して実行することにより、ジェスチャのみの入力にもかかわらず、操作者に負担をかけることなく、パソコン等でキーボードを使用しない正確な操作入力が可能となる。
(第2実施形態)
上述の第1実施形態では、操作者とディスプレイとの間で左右で機能を分担して手を動かすことによる操作入力方法の中でも、左右の操作領域を操作者の中心線に基づいて定める方法について説明したが、本実施形態では基本的に同じシステム構成を使用して、操作者のジェスチャ等、手などの位置や動作などにより、中心線を考慮せずに操作領域を定めるものである。また、本実施形態では基本的に左右の手を各々ディスプレイから見て左側及び右側の一定の範囲で動かして操作を判定するが、これに限らず、手が自然に届く範囲の位置で手を動かすことにより操作判定に使用することもできる。例えば、図19に示す視点501と表示面520とで形成される四角錐の下側をスペースキーとして使用するなど、種々の機能を設定することができる。
本実施形態の操作入力方法でも、図19に示すように、本実施形態の操作は、上述の視点501と操作対象画面520の四隅を結ぶ四角錐を隔てて左右に分かれた領域124、125内で手を動かしたときのみ操作対象にするので、操作入力動作で操作者が手を動かしてもディスプレイ111に表示された画面を遮ることはなく、通常のパソコン操作時の視認性を確保することができる。第1実施形態では、このような四角錐も含む緩衝領域という概念を用いて左右領域を隔てたが、本実施形態では、原則として左右の動作する領域124、125は上述の四角錐によって分割配置して処理を実行する手、右手と正確に分別しての判定が可能となる。従来の通常のジェスチャ認識においては、操作者の両腕の交差や身体と腕との重なり等で、誤認識が生ずることが多かったが、これにより、操作者による操作領域設定や中央の非センシングエリアによって分割された左右の手の操作領域をそれぞれ制限し区別することが可能となり、安定した操作が実現できることとなる。
(第2実施形態の操作範囲の設定)
本実施形態では、操作範囲設定処理を行う前提として、本技術分野で知られた初期設定、例えば本実施形態の操作入力装置が新たに設置された場合を想定すると、事前準備として利用するビデオカメラ511の利用レンズの歪み、ディスプレイ111とレンズとの距離等の情報を装置に入力しておく必要がある。さらに閾値設定等を予め調整しておく。システムの初期設定が終了すると、本実施形態の処理を行うが、図20を参照して、本実施形態にかかる操作者のジェスチャにより左右の動作範囲を設定する処理を説明する。図20に示す例のように、カメラで撮影された操作者の画像の手114、115により動作範囲の位置、大きさが決定される。具体的には、図20に示すように、操作者が手114、115で示した位置を含む一定の範囲が有効な動作範囲として設定される。動作範囲の例として、図19に範囲124、125を示す。ここで、上述の四角錐によって左右の有効な範囲を分割配置するため、設定された範囲が上述の四角錐にかかる部分は有効な動作とはみなされず、したがって、有効な動作範囲から除かれる。
本実施形態では、このような有効な動作範囲の設定処理は、システムの電源投入後や特定の操作、例えばリモコンで指示するなどにより開始されるが、これに限られず本技術分野で知られたいずれの方法、タイミングで開始することができる。
また、本実施形態においては、通常のPC操作で図18に示すような両肘をついてのジェスチャ入力が一般的な形態となるので、動作範囲の設定に当たっては、このような操作姿勢を考慮して操作者の身体に適合した位置に範囲設定することが有用である。なお、このような両肘をついた操作姿勢によると、従来のPC操作におけるマウスやキーボードに比して、両腕の重みによる両肩への筋負担が、かなり軽減されること、必要最小限の小振りなジェスチャ操作のみで済むことから、身体的な負担が大幅に軽減される上、マウス、キーボードをカメラ一台で置き換えることが可能となるため大きなメリットとなる。加えて、両肘を机面につくことで、右手114によるカーソル移動(フォーカス)や、左手115による操作判定の際も、常に安定したジェスチャ位置が確保できる。
さらに、机上を有効な動作範囲とすることもできる。すなわち、右手114で机上を移動させてアイコンを移動させ、左手115は通常机上に浮かしておいて、机面に触れると操作と判定するようにすることもできる。
以上、本実施形態によれば、表示画面の視界、すなわち上述の四角錐により明確に分離される左右の動作範囲124、125を定め、左右の手で異なる機能、例えばアイコンの移動あるいは選択と、クリック、ドラッグなどの操作内容とに分別して実行することにより、ジェスチャのみの入力にもかかわらず、操作者に負担をかけることなく、パソコン等でキーボードを使用しない正確な操作入力が可能となる。
(第3実施形態)
上述の第1および第2実施形態では、操作者とディスプレイとの間で左右で機能を分担して手を動かすことによる操作入力について説明したが、本実施形態では基本的に同じシステム構成を使用して、さらに精度の高い操作入力を可能とする。すなわち、本実施形態では、仮想的な操作面の概念を導入して、操作面に対する手の動きや操作面により形成される領域を用いて、操作のトリガや操作内容を判定する。このため、本実施形態では第1実施形態のカメラの代わりに三次元カメラを使用することにより、操作者自身、手あるいは指のz方向の位置も取得して、仮想的な操作面上の手の位置を正確に取得したり、操作面を横切ったか否かを判定したりすることができる。したがって、三次元カメラを使用する点を除きシステム構成は第1実施形態と同様なので、以下重複する点は省略する。なお、本実施形態の仮想的な操作面を使用した処理は、左右の操作の双方に適用することができるが、右または左のいずれかの操作に上述の第1実施形態の処理を適用し、もう片方に本実施形態の処理を適用することもでき、システムの構成や使用状況に合わせて適宜選択することができる。
図5は、本発明の一実施形態にかかる左右の仮想的な操作面を説明するための図である。図5に示すビデオカメラ511ないし514のうち、実際にシステムで使用する場合は、基本的に三次元カメラ1台あればいい。本実施形態ではビデオカメラ511として三次元(あるいは3D)カメラを用いることにより、操作者を含め立体画像が作成できるようにする。もちろん、左右に通常の二次元カメラを配置して使用することもできる。例えば、ビデオカメラ512および514の両方を備えるようにし、この場合カメラとしては二次元カメラを使用してビデオカメラ512および514の2つで立体画像を生成するようにすることもできる。
図9および10は、操作面を側面から見た図および上面から見た図である。図9および10を参照すると理解できるように、操作面104、105は、操作者の視点501と操作対象画面520の四隅を結ぶ四角錐を避けるように左右に配置する。ここで、位置決定面104および操作判定面105の位置は、後述するPC設置段階の初期設定ステップで操作者が利用環境に合わせ、入力操作に最適な位置で両手を広げて設定する。この際に、例えば、カメラ側で操作者の頭部両肩等の上半身の位置情報や両眼の位置等も補足し、机に向かった操作者が肘をついたまま両手の操作がしやすい左右の対照位置に配置設定するが、これに限られず操作者の操作環境に最適に設定することができる。なお、図9及び10に示す位置決定面104及び操作判定面105は、上述の四角錐を避けるように左右に配置されているが、これは、上述のように操作者の視界を操作時の手114、115が遮らないようにするためであり、したがって、この目的を達成することができる限り、位置決定面104及び操作判定面105は概ね左右に配置されていれば良く、四角錐に多少かかっても問題はない。
図11および12は、本発明の一実施形態にかかる左右2つの操作面の典型的な機能の例を説明するための図である。図11および12とも位置決定面104は、ポインティングあるいはフォーカスの機能を担い、例えば図7に示すように位置決定面104に対応する領域1202をディスプレイ111の適当な場所に表示、現在、手114がフォーカスしている対応する箇所の色を変えたり、図示しないアイコンなどを表示したりすることができる。このように位置決定面104上の手114の動きに連動して、ディスプレイ111上の画像を変化させることにより、操作者は直感的にディスプレイ111を見ながら手114でフォーカスすることができるようになる。
また、操作判定面105は、図11に示すように一定の領域901を持たせて、操作判定面105を手115が超えると操作が開始されたと判定し、領域901内の手115の形状やジェスチャに基づいて、操作内容を判定することができる。すなわち、本実施形態の操作面は、操作者102の身長や腕の長さ、あるいは身長や肩幅等の身体寸法情報に基づいて設定され、操作者102は、予め設定した操作判定面105が仮想的に存在すると捉え、種々の操作をしようとする場合は操作判定面105を基準に手115を前にある操作領域901に突き出してジェスチャを示したりすることができる。
あるいは、図12に示すように、操作判定面を、例えば2階層902、1001として手115が1階層目1001までしか貫いていないとクリックと判定し、2階層目902まで到達しているとダブルクリックと判定するようにすることができる。本実施形態では、操作判定面として2階層を有する例を示したが、これに限られることなく3階層やそれ以上の階層を設定して、各々種々の機能を対応させることができる。
また、上述の例えば図7に示すような例では、本実施形態の操作入力システムは、簡易的なキーボードの機能を有することとなるが、図8に示すように、通常のキーボードの機能を有するようにすることもできる。すなわち、右操作面104は通常のキーボードの右半分を割当て、左操作面は通常のキーボードの左半分を割当てることにより、操作者はディスプレイ111上のキーボードレイアウト1202、1301を見ながらフォーカスさせて、操作を決定することができる。なお、この場合の操作の決定には、通常は利用しない操作画面下にもう1つの操作面を設定するなどして、操作判定面とすることもできる。また、このような操作画面下に操作面を設ける場合、単にスペースキーを割り当てる等することもできる。
(操作面の設定)
本実施形態では、システムの初期設定が終了すると、本実施形態にかかる操作面の設定処理を行う。図20に示す例のように、三次元カメラで撮影された操作者の画像の手114、115により操作面の形状(大きさ、ディスプレイに対する角度を含む)が決定され、例えばz方向のディスプレイから手114、115までの距離により操作面104、105の位置を決定する。具体的には、図1に示すように、操作者が手114、115で示した位置に操作面104、105を形成すれば良いことが理解される。
次に、図23を参照して操作面抽出処理を説明する。図23は、本実施形態にかかる指定された操作面の位置を抽出する処理を示すフローチャートである。まず、データ、すなわち操作者の立体画像データの入力がなされると(S601)、手の形状および頭部を認識して(S602、S603)、操作面を形成するか否かを判定する(S604)。具体的には、例えば肘を机上について手をかざすジェスチャを一定時間維持していたときは、操作面の設定処理であると判断して、操作者が手により指示した位置に操作面を、取得した立体画像から抽出して操作面を形成し(S605)、必要なときは操作者の身体の測定値、例えば腕の長さ、胴や頭部の位置に基づいて操作領域を設定し(S606)データを出力して終了する(S609)。ここで、本実施形態では肘を机上について手をかざす動きを一定時間静止することにより、操作面の設定指示と判断するようにしているが、これに限らず種々のジェスチャ、リモコン操作等で指示するなど本技術分野で知られたいずれの手法により指示を判断させることができる。なお、本実施形態では基本的に手により形づくられた形状、位置に操作面を形成するが、操作者の身体的特徴やディスプレイの位置、使用状況等に合わせて調整することもできる。
頭部の認識や手のジェスチャから操作面の設定処理ではないと判断すると、既に操作面が設定された状態か否かを判定し(S607)、操作面が設定されている場合は通常の操作と判断して操作領域内の手の位置を取得する(S608)。以上により、操作者の指示に基づく操作面の設定処理を行う。
ここで、操作面の形状は図1などを参照すると垂直に立てた長方形となっているが、これに限られず、操作者の操作態様に応じて様々な形状(大きさ、ディスプレイに対する角度を含む)の操作面を形成することができる。例えば、机上に位置決定面および操作判定面を配置することもでき、キーボードやマウスを使用する感覚で操作入力することもできる。もちろん、このような操作面の配置とするためには、操作面の設定時に机上に手を置いたり、予め定めたジェスチャをしたりして操作面を設定しておけばよい。
(本実施形態の操作判定処理)
本実施形態では、ビデオカメラ511等で撮影した操作者102の一部である手や指114、115の位置を定めるとともに、操作面104、105と操作者102の手指114、115との位置関係を算出する処理を行う。この処理については図22を参照して以下に説明する。
図22は、本実施形態の操作判定処理のフローチャートである。まず、画像読取部301においてビデオカメラ511等で撮影されたデータを読取り(S401)、そのデータから操作者の像を、画像抽出部302により抽出する(S402)。
このような準備の結果、上述の操作面の設定で予め設定し、記憶手段などに記憶していた操作面の位置、形状を読み出す(S403)。このように、操作面の形状及び位置が読み出されると、本技術分野で知られたいずれかの方法で、操作面104上の手114位置に対応するディスプレイ111上の位置にアイコン等が標示制御部305により表示され、手の動きとともに移動するよう制御される。したがって、操作者は表示されたアイコンに対応する操作面上の位置に的確に指や手を触れさせることができるようになるため、表示面に表示されたアイコンをタッチするなどの操作を行うことができる。
操作判定部304は、操作入力システムが形成した操作面と、操作者102との相対的な位置関係を用い(S404)、操作者102の一部が操作面のビデオカメラ511などから見て手前に来ると、操作が開始されたと判断し(S405)、位置決定面104上での手114の位置を決定して、表示部の対応する位置にアイコンを移動するとともに、一方操作判定面105を基準として手115の形状(手を開いている、あるいは指を2本立てているなど)や動きから、その形状、動きが予め想定されたいずれの操作であるかを判定する(S406)。判定した結果は、そのような操作の入力があったものとしてコンピュータ110で実行され(S407)、もともと操作面から手前側に手が出ていない場合、操作は行われていないと判定して終了する(S408)。操作内容の判定はここで説明した手法に限られることなく本実施形態で知られたいずれの方法も用いることができる。
(操作面の手前側の操作支援)
本実施形態では、操作者が空間上に仮想的に設定した操作面を基準に、そこにあたかもマウスの代替となるような入力機器が存在するかのように操作することにより、その操作内容を確実に判定しようとするものであるが、操作者の一部である手または指などが操作面に至るまで、つまり操作者が何らかの操作を実行しようと手または指を動かし始めてから、操作面を押下するまでの間も操作支援することにより、さらに操作入力を容易に、より高精度に行うようにすることができる。本機能は、特にポインティングあるいはフォーカスの機能において有効であるが、操作判定面を使用した操作判定においても有効な場合が少なくないため、一般的な仮想的に設定される操作面として位置決定面を例に説明する。
基本的には、このような操作支援の原理は操作面に対する操作者の部位、例えば手あるいは指の位置の動きにあわせて、ディスプレイ111上に操作者がどのような操作をしようとしているかをビジュアルに表示させることにより、操作者を誘導して的確な操作入力を可能にするというものである。
この点について、図14を参照して説明すると、本実施形態では予め操作者が操作面への操作が適した位置に操作面104設定する。図14に示すように、操作者はシステムに対し何らかの操作を行おうとする場合、本例ではディスプレイ111に対し、腕2401を前後に動かすことにより、手あるいは指114の位置が変化するため、その様子をディスプレイ111に表示すると、突き出した指114が一定の位置まで来ると、そのときディスプレイ111の画面上で指示された項目が実行される等、システムとして一定の処理が行われる。図14の例では、操作面104に対する指114の位置(深さ)によってアイコンの大きさが変化するようになっており、操作面に近づくほどアイコンが小さくなって操作者には自己の操作により一定の場所にフォーカスされていることが認識できるようになっている。そして、最もアイコンが小さくなった位置で、操作が確定し、それに応じた処理が実行される。
以上の操作の結果、アイコンがディスプレイ111の画面2501上でどのように変化するかを示したのが図15である。図15を参照すると、ディスプレイ111の画面2501には例えばテレビ番組表が表示されており、ある番組に関する操作を行おうとしている。このような状態で、例えば操作者が「設定変更」のメニューボタンを選択しようとする場合、操作者は上述のようにディスプレイ111に向かって指114を突き出して選択しようとする。本実施形態では、指114が操作面であるテレビ番組表に対し一定の距離まで近づくと、画面2501にアイコン2503が表示される。このアイコンは指の位置がまだ遠いため図14に示すアイコンのうち右の方にある比較的大きなものが表示される。操作者がさらに腕2401を伸ばすと、このアイコンは目標である選択項目「設定変更」に近づきつつ、小さくなり一定の大きさのアイコン2502のときに特別なアイコンとなる。ここで、本実施形態の操作判定面105によりいずれかの操作であると判定されるとアイコンを異なる形状や色などに変化させて、操作が判定されたことを示すことが出来る。
このように、図15の例では、指114の位置に応じて画面2501に表示されるアイコンの大きさを変化させることにより、操作者は自己の動作がシステムでどのように認識されているかを把握することができ、操作面の位置をより認識し易くして、メニューの選択などの操作を行うことができる。ここで、指114、腕2401を含む操作者全体及び各部位の位置や大きさは、操作者の全体像と同様三次元カメラを用いることにより抽出することができる。これにより画面内の物体は奥行きも含めて把握することができるから、これらの情報に基づき操作面との距離や位置関係を算出することができる。ただし、本実施形態で使用する三次元カメラや位置の抽出、距離の算出などは本技術分野で知られたいずれの方法も用いることができるので、ここではその説明を省略する。
ここで画面に表示されるアイコンは円形で操作者の動作に合わせて大きさが変化するが、これに限られず図16に示すように様々な形態のアイコンを用い、様々な変化をさせることができる。すなわち、図16を参照すると、(1)は指の形態のアイコンであり、上述の例と同様に操作面に近づくほどに小さくするようになっている。(2)は、円形で次第に小さくなるようになっているが、操作判定面により入力あるいは選択が確定すると特別な形状に変化して確定したことが示される。このアイコンや他のアイコンの場合も形状(大きさ、ディスプレイに対する角度を含む)の変化に代えて、あるいは合わせてアイコンの色を変化させることもできる。例えば、青、緑、黄、赤等、寒色系から暖色系に変化させることにより、直感的に操作がフォーカスされ確定することを操作者は認識することができる。(3)は、Xのような形状で、遠くにある場合は大きいだけでなくぼかしが入っており、近づくにしたがって、アイコンの大きさが小さくなるとともに、ぼかしが消えシャープな形状になる。(4)はアイコン全体の大きさは変化することなく、中に描かれた図形が形状変化を起こしてフォーカスされる様子を認識するようになっている。この場合、図形の色も変化させることができる。図16に示す(5)も、形状を変化させるものである。図23において、指の動きに応じてアイコンの形状や色などが変化していき、操作面を越えるとその瞬間に、欄2601に示すように種々の形状や色に変化させたり、点滅させたりして操作として判定されたことを操作者に認識させるようにすることもできる。また、図示しないがこの他のアイコンの変化としては最初透明で、指が操作面に近づくほどに不透明になるような変化も効果的である。さらに図示しないが、後述するようにディスプレイの立体表示機能を別途設けて、フォーカスしていくとアイコンが画面から飛び出すように見せるような画像を作成し、操作者にフォーカスの状況を知らせることもできる。
ここで、アイコンのバリエーションのうち特に形状をあまり変化させず色や濃さを変化させる場合は、図16に示すようにアイコンはあまり移動せず指114を近づけていくと、色が暖色系になったり濃くなったりして、入力を確定することができる。
また、以上の例では操作の判定状況を確認するためアイコンを操作面の位置に表示させ、操作者の動作に応じて色や形状を変化させたが、例えば元々メニューのように予め指示する位置が固定されているような場合は、わざわざアイコンを表示しなくても、指が指し示す位置が表示されたメニューのどの項目ボタンに最も近いかにより決定し、指の動き、特に操作面からの距離に応じて指し示されている項目ボタンを塗りつぶす色または塗りつぶす濃さを変化させることにより、操作面の位置をより分かりやすくし、操作入力を容易にすることができる。
以上、操作面が操作者の水平方向前面にほぼ垂直に形成される場合について、本実施形態の原理を説明してきたが、この原理はこのような操作者とディスプレイとの位置関係や形状には影響されることはなく、種々の配置や構成が可能である。

Claims (9)

  1. 操作者が閲覧する画像を表示する表示手段と、
    前記操作者に向けて前記表示手段の近傍に配置され、前記操作者の画像データを生成する撮像手段と、
    前記撮像手段により読取られた操作者の画像により定められる領域であって、前記操作者の一部が前記表示手段に表示された所定の標示を制御することができる制御領域、および前記標示の前記表示手段の表示面上の位置に関連する操作が行われたか否かを判定する判定領域を予め設定する領域設定手段と、
    前記操作者の画像から操作者の一部を抽出して、前記操作者の一部が前記設定された制御領域内にあるとき、該操作者の一部と前記表示手段との位置関係に応じて前記標示を移動する制御手段と、
    前記操作者の画像から操作者の一部を抽出して、前記設定された判定領域内における前記操作者の一部の動作に応じて、前記標示の前記表示手段の表示面上の位置に関連する操作が行われたか否かを判定する操作判定手段と
    を備え、
    前記領域設定手段は、前記制御領域および前記判定領域を、前記操作者の画像から抽出された顔面を中心とした左右領域に分割配置し、
    前記制御手段は、指の動きに応じて、アイコンの形状、色、および透明度の少なくとも一つを変化させることを特徴とする操作入力装置。
  2. 前記制御領域と前記判定領域とは、前記操作者を中心にそれぞれ左右のいずれかにあり、
    前記制御範囲設定手段で抽出される操作者の一部と、前記操作判定手段で抽出される操作者の一部とは異なることを特徴とする請求項1に記載の操作入力装置。
  3. 前記領域設定手段は、前記読み取られた画像から操作者の顔面を抽出して操作者の中心を定めることを特徴とする請求項2に記載の操作入力装置。
  4. 前記操作判定手段は、前記撮像手段により読取られた操作者の予め定められた一連の動作により、前記制御領域と前記判定領域とがそれぞれ左右のいずれに配置するかを定めることを特徴とする請求項2または3に記載の操作入力装置。
  5. 前記領域設定手段は、前記撮像手段により読取られた操作者の予め定められた一連の動作に基づいて、前記制御領域および前記判定領域を予め設定することを特徴とする請求項1ないし4のいずれかに記載の操作入力装置。
  6. 前記領域設定手段は、前記判定領域と、前記制御領域とが重ならないように予め設定することを特徴とする請求項1ないし5のいずれかに記載の操作入力装置。
  7. 前記制御領域および前記判定領域は、前記操作者の視点と前記表示手段の表示面の各頂点とを結んで定められる領域にかからない領域であることを特徴とする請求項1ないし6のいずれかに記載の操作入力装置。
  8. 操作者が閲覧する画像を表示する表示手段と、前記表示手段の操作者に向けて前記表示手段の近傍に配置され、前記表示手段を見る操作者の画像データを生成する撮像手段とを備えた操作入力装置により操作入力をする方法であって、
    前記撮像手段により読取られた操作者の画像により定められる領域であって、前記操作者の一部が前記表示手段に表示された所定の標示を制御することができる制御領域、および前記標示の前記表示手段の表示面上の位置に関連する操作が行われたか否かを判定する判定領域を予め設定する領域設定ステップと、
    前記操作者の画像から操作者の一部を抽出して、前記操作者の一部が前記設定された制御領域内にあるとき、該操作者の一部と前記表示手段との位置関係に応じて前記標示を移動する制御ステップと、
    前記操作者の画像から操作者の一部を抽出して、前記設定された判定領域内における前記操作者の一部の動作に応じて、前記標示の前記表示手段の表示面上の位置に関連する操作が行われたか否かを判定する操作判定ステップと
    を備え、
    前記領域設定ステップにおいて、前記制御領域および前記判定領域を、前記操作者の画像から抽出された顔面を中心とした左右領域に分割配置し、
    前記制御ステップにおいて、指の動きに応じて、アイコンの形状、色、および透明度の少なくとも一つを変化させることを特徴とする操作入力方法。
  9. 操作者が閲覧する画像を表示する表示手段と、前記表示手段の操作者に向けて前記表示手段の近傍に配置され、前記表示手段を見る操作者の画像データを生成する撮像手段とを備えた操作入力装置に操作入力方法を実行させるプログラムであって、該操作入力方法は、
    前記撮像手段により読取られた操作者の画像により定められる領域であって、前記操作者の一部が前記表示手段に表示された所定の標示を制御することができる制御領域、および前記標示の前記表示手段の表示面上の位置に関連する操作が行われたか否かを判定する判定領域を予め設定する領域設定ステップと、
    前記操作者の画像から操作者の一部を抽出して、前記操作者の一部が前記設定された制御領域内にあるとき、該操作者の一部と前記表示手段との位置関係に応じて前記標示を移動する制御ステップと、
    前記操作者の画像から操作者の一部を抽出して、前記設定された判定領域内における前記操作者の一部の動作に応じて、前記標示の前記表示手段の表示面上の位置に関連する操作が行われたか否かを判定する操作判定ステップと
    を備え、
    前記領域設定ステップにおいて、前記制御領域および前記判定領域を、前記操作者の画像から抽出された顔面を中心とした左右領域に分割配置し、
    前記制御ステップにおいて、指の動きに応じて、アイコンの形状、色、および透明度の少なくとも一つを変化させることを特徴とするプログラム。
JP2011149037A 2010-09-22 2011-07-05 操作入力装置および操作判定方法並びにプログラム Active JP5515067B2 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2011149037A JP5515067B2 (ja) 2011-07-05 2011-07-05 操作入力装置および操作判定方法並びにプログラム
CN201180045563.7A CN103154858B (zh) 2010-09-22 2011-09-22 操作输入装置与方法及程序
EP11826586.7A EP2620849B1 (en) 2010-09-22 2011-09-22 Operation input apparatus, operation input method, and program
CA2811868A CA2811868C (en) 2010-09-22 2011-09-22 Operation input apparatus, operation input method, and program
US13/824,955 US9329691B2 (en) 2010-09-22 2011-09-22 Operation input apparatus and method using distinct determination and control areas
PCT/JP2011/005354 WO2012039140A1 (ja) 2010-09-22 2011-09-22 操作入力装置および方法ならびにプログラム
KR1020137007392A KR101522991B1 (ko) 2010-09-22 2011-09-22 조작입력장치 및 방법, 그리고 프로그램

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011149037A JP5515067B2 (ja) 2011-07-05 2011-07-05 操作入力装置および操作判定方法並びにプログラム

Publications (2)

Publication Number Publication Date
JP2013016060A JP2013016060A (ja) 2013-01-24
JP5515067B2 true JP5515067B2 (ja) 2014-06-11

Family

ID=47688685

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011149037A Active JP5515067B2 (ja) 2010-09-22 2011-07-05 操作入力装置および操作判定方法並びにプログラム

Country Status (1)

Country Link
JP (1) JP5515067B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9467602B2 (en) 2014-11-20 2016-10-11 Olympus Corporation Control terminal, imaging system, control method, and non-transitory medium saving program for controlling a target terminal responsive to detection of a predetermined state of an object or a predetermined motion of the object

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5858059B2 (ja) 2013-04-02 2016-02-10 株式会社デンソー 入力装置
US9407779B2 (en) 2013-05-28 2016-08-02 Kyocera Document Solutions Inc. Display apparatus and image forming apparatus
JP6207240B2 (ja) * 2013-06-05 2017-10-04 キヤノン株式会社 情報処理装置及びその制御方法
JP6255954B2 (ja) * 2013-12-03 2018-01-10 富士通株式会社 動作入力装置、動作入力プログラム及び動作入力方法
JP6207410B2 (ja) * 2014-01-24 2017-10-04 Kddi株式会社 情報提示装置、情報処理方法およびコンピュータプログラム
CN106030460B (zh) * 2014-02-18 2017-12-19 三菱电机株式会社 移动体用手势引导装置、移动体用手势引导***及移动体用手势引导方法
KR102265143B1 (ko) 2014-05-16 2021-06-15 삼성전자주식회사 입력 처리 장치 및 방법
US9575560B2 (en) 2014-06-03 2017-02-21 Google Inc. Radar-based gesture-recognition through a wearable device
KR102210633B1 (ko) 2014-07-09 2021-02-02 엘지전자 주식회사 가상 오브젝트의 뎁스와 연계된 인정범위를 가진 디스플레이 디바이스 및 그 제어 방법
WO2016006759A1 (en) * 2014-07-09 2016-01-14 Lg Electronics Inc. Display device having scope of accreditation in cooperation with depth of virtual object and controlling method thereof
US9778749B2 (en) 2014-08-22 2017-10-03 Google Inc. Occluded gesture recognition
US11169988B2 (en) 2014-08-22 2021-11-09 Google Llc Radar recognition-aided search
US9600080B2 (en) 2014-10-02 2017-03-21 Google Inc. Non-line-of-sight radar-based gesture recognition
EP3521853B1 (en) 2015-04-30 2021-02-17 Google LLC Rf-based micro-motion tracking for gesture tracking and recognition
US10817065B1 (en) 2015-10-06 2020-10-27 Google Llc Gesture recognition using multiple antenna
JP6822473B2 (ja) * 2016-06-28 2021-01-27 株式会社ニコン 表示装置
JP6762812B2 (ja) * 2016-09-05 2020-09-30 東芝テック株式会社 操作入力装置及びプログラム
CN115016678A (zh) * 2017-02-02 2022-09-06 麦克赛尔株式会社 显示装置
JP2022022568A (ja) * 2020-06-26 2022-02-07 沖電気工業株式会社 表示操作部および装置
JP2021015637A (ja) * 2020-11-05 2021-02-12 マクセル株式会社 表示装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3997392B2 (ja) * 2001-12-13 2007-10-24 セイコーエプソン株式会社 表示装置及び表示装置の入力方法
JP4286556B2 (ja) * 2003-02-24 2009-07-01 株式会社東芝 画像表示装置
JP4781181B2 (ja) * 2006-07-07 2011-09-28 株式会社ソニー・コンピュータエンタテインメント ユーザインタフェースプログラム、装置および方法、情報処理システム
US8726194B2 (en) * 2007-07-27 2014-05-13 Qualcomm Incorporated Item selection using enhanced control
JP2009087095A (ja) * 2007-09-28 2009-04-23 Victor Co Of Japan Ltd 電子機器の制御装置、制御方法及び制御プログラム
JP2009151424A (ja) * 2007-12-19 2009-07-09 Sony Ericsson Mobilecommunications Japan Inc 情報処理装置、情報処理方法、情報処理プログラム及び携帯端末装置
US8166421B2 (en) * 2008-01-14 2012-04-24 Primesense Ltd. Three-dimensional user interface
US8971565B2 (en) * 2008-05-29 2015-03-03 Hie-D Technologies, Llc Human interface electronic device
JP4318056B1 (ja) * 2008-06-03 2009-08-19 島根県 画像認識装置および操作判定方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9467602B2 (en) 2014-11-20 2016-10-11 Olympus Corporation Control terminal, imaging system, control method, and non-transitory medium saving program for controlling a target terminal responsive to detection of a predetermined state of an object or a predetermined motion of the object

Also Published As

Publication number Publication date
JP2013016060A (ja) 2013-01-24

Similar Documents

Publication Publication Date Title
JP5515067B2 (ja) 操作入力装置および操作判定方法並びにプログラム
JP5167523B2 (ja) 操作入力装置および操作判定方法並びにプログラム
WO2012039140A1 (ja) 操作入力装置および方法ならびにプログラム
US20220084279A1 (en) Methods for manipulating objects in an environment
JP4701424B2 (ja) 画像認識装置および操作判定方法並びにプログラム
EP2972669B1 (en) Depth-based user interface gesture control
JP5604739B2 (ja) 画像認識装置および操作判定方法並びにプログラム
US20120113223A1 (en) User Interaction in Augmented Reality
KR101890459B1 (ko) 3차원으로 디스플레이된 오브젝트의 사용자 선택 제스쳐에 응답하기 위한 방법 및 시스템
CN109155821A (zh) 相机的可移动用户界面快门按钮
US20140240267A1 (en) Method Using a Finger Above a Touchpad for Controlling a Computerized System
US9544556B2 (en) Projection control apparatus and projection control method
JP2006209563A (ja) インターフェース装置
WO2012122007A2 (en) Keyboards and methods thereof
EP3262505B1 (en) Interactive system control apparatus and method
TWI403922B (zh) 徒手人機介面操作系統及其方法
EP2558924B1 (en) Apparatus, method and computer program for user input using a camera
JP2014219938A (ja) 入力支援装置、入力支援方法、および、プログラム
KR20120126508A (ko) 포인터를 사용하지 않는 가상 터치 장치에서의 터치 인식 방법
CN107179876B (zh) 基于虚拟现实***的人机交互装置
Menzner et al. Above surface interaction for multiscale navigation in mobile virtual reality
JP2013114647A (ja) ジェスチャー入力システム
KR101708455B1 (ko) 핸드 플로트 입체 메뉴 시스템
JP2013171529A (ja) 操作入力装置、操作判定方法およびプログラム
JP5401675B1 (ja) 情報入力装置および情報入力方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130531

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20130531

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20130619

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130716

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130911

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20131015

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140114

RD13 Notification of appointment of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7433

Effective date: 20140116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20140116

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20140205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140225

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140307

R150 Certificate of patent or registration of utility model

Ref document number: 5515067

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250