JP5515067B2 - 操作入力装置および操作判定方法並びにプログラム - Google Patents
操作入力装置および操作判定方法並びにプログラム Download PDFInfo
- Publication number
- JP5515067B2 JP5515067B2 JP2011149037A JP2011149037A JP5515067B2 JP 5515067 B2 JP5515067 B2 JP 5515067B2 JP 2011149037 A JP2011149037 A JP 2011149037A JP 2011149037 A JP2011149037 A JP 2011149037A JP 5515067 B2 JP5515067 B2 JP 5515067B2
- Authority
- JP
- Japan
- Prior art keywords
- operator
- area
- display
- image
- determination
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Description
(第1実施形態)
図1は、本実施形態の操作入力システムの一例を示す図である。本実施形態では、後述するように。操作者102の頭部を基準として右側領域124および左側領域125を、それぞれ右手114および左手115の操作領域として定め、各々操作内容を判定して操作入力として処理される。図1を参照すれば理解できるように、右側領域124および左側領域125を一定の距離をおいて配置することにより、操作者の右手114および左手115の動きが錯綜していずれの動きであるか誤認識することが回避できる。
図2は、本実施形態の操作入力装置のコンピュータ110の構造を模式的に示すブロック図である。コンピュータ110には、ディスプレイ111に取り付けられ、操作者102などを撮影するビデオカメラ511などが接続され、撮影した画像をコンピュータ110に取り込む。撮影により得られた画像は、CPU210において本実施形態の特徴である操作者の一部である右左の手の画像を抽出する。コンピュータ110は、一般にCPU210を備え、ROM211等に記憶されたプログラムをRAM212上で実行して、操作入力装置から入力した画像に基づいた処理結果をディスプレイ111等に出力する。本実施形態では、ディスプレイ111は、上述の操作者の手の動作により表示されるアイコンなどのほか、操作者が体験しようとする様々なアプリケーションにより提供される種々の映像を出力することができ、また後述するように操作入力の支援となるような情報も表示する。
図3は、本実施形態の操作領域を設定する処理を説明するための図である。本実施形態では、左右の操作領域をより簡易に設定するため、上述したビデオカメラ111により撮像された操作者の画像から、顔面131を抽出して左右領域の設定の際の基準とする。図3を参照すると、本技術分野で知られた方法で操作者102の顔面131を抽出した後、顔の中心部を判断し、中心部を通る垂線を操作者102の中心線132と判断する。この中心線の左右に、いずれの操作領域にもならない一定の緩衝領域を設けて左右の操作領域125および124を設定する。このようにして、より簡易に図6に示すような右側領域124および左側領域125を中心線132に基づいて定めることができるが、各操作領域の大きさ、位置は、システムや操作者の体系などに応じて適切な値とする。同様に緩衝領域も左右の手の動きの錯綜の程度に応じて、適切な大きさを設定する。なお、本実施形態では顔面を抽出するが、頭部自体、あるいはその他頭部近傍にある操作者の一部を基準とすることもできる。
本実施形態では、図4および図19を参照すると、ビデオカメラ511等で撮影した操作者102の一部である手や指114、115の位置を定めるとともに、これらの位置とディスプレイ上の対応する点との相対的な位置や、形状に基づいて、ディスプレイ上のアイコンを移動させたり、一定の操作と判定したりする。まず、画像読取部301においてビデオカメラ511等で撮影されたデータを読取り、そのデータから操作者の手の画像を、画像抽出部302により抽出する(S401および402)。
上述の第1実施形態では、操作者とディスプレイとの間で左右で機能を分担して手を動かすことによる操作入力方法の中でも、左右の操作領域を操作者の中心線に基づいて定める方法について説明したが、本実施形態では基本的に同じシステム構成を使用して、操作者のジェスチャ等、手などの位置や動作などにより、中心線を考慮せずに操作領域を定めるものである。また、本実施形態では基本的に左右の手を各々ディスプレイから見て左側及び右側の一定の範囲で動かして操作を判定するが、これに限らず、手が自然に届く範囲の位置で手を動かすことにより操作判定に使用することもできる。例えば、図19に示す視点501と表示面520とで形成される四角錐の下側をスペースキーとして使用するなど、種々の機能を設定することができる。
本実施形態では、操作範囲設定処理を行う前提として、本技術分野で知られた初期設定、例えば本実施形態の操作入力装置が新たに設置された場合を想定すると、事前準備として利用するビデオカメラ511の利用レンズの歪み、ディスプレイ111とレンズとの距離等の情報を装置に入力しておく必要がある。さらに閾値設定等を予め調整しておく。システムの初期設定が終了すると、本実施形態の処理を行うが、図20を参照して、本実施形態にかかる操作者のジェスチャにより左右の動作範囲を設定する処理を説明する。図20に示す例のように、カメラで撮影された操作者の画像の手114、115により動作範囲の位置、大きさが決定される。具体的には、図20に示すように、操作者が手114、115で示した位置を含む一定の範囲が有効な動作範囲として設定される。動作範囲の例として、図19に範囲124、125を示す。ここで、上述の四角錐によって左右の有効な範囲を分割配置するため、設定された範囲が上述の四角錐にかかる部分は有効な動作とはみなされず、したがって、有効な動作範囲から除かれる。
上述の第1および第2実施形態では、操作者とディスプレイとの間で左右で機能を分担して手を動かすことによる操作入力について説明したが、本実施形態では基本的に同じシステム構成を使用して、さらに精度の高い操作入力を可能とする。すなわち、本実施形態では、仮想的な操作面の概念を導入して、操作面に対する手の動きや操作面により形成される領域を用いて、操作のトリガや操作内容を判定する。このため、本実施形態では第1実施形態のカメラの代わりに三次元カメラを使用することにより、操作者自身、手あるいは指のz方向の位置も取得して、仮想的な操作面上の手の位置を正確に取得したり、操作面を横切ったか否かを判定したりすることができる。したがって、三次元カメラを使用する点を除きシステム構成は第1実施形態と同様なので、以下重複する点は省略する。なお、本実施形態の仮想的な操作面を使用した処理は、左右の操作の双方に適用することができるが、右または左のいずれかの操作に上述の第1実施形態の処理を適用し、もう片方に本実施形態の処理を適用することもでき、システムの構成や使用状況に合わせて適宜選択することができる。
本実施形態では、システムの初期設定が終了すると、本実施形態にかかる操作面の設定処理を行う。図20に示す例のように、三次元カメラで撮影された操作者の画像の手114、115により操作面の形状(大きさ、ディスプレイに対する角度を含む)が決定され、例えばz方向のディスプレイから手114、115までの距離により操作面104、105の位置を決定する。具体的には、図1に示すように、操作者が手114、115で示した位置に操作面104、105を形成すれば良いことが理解される。
本実施形態では、ビデオカメラ511等で撮影した操作者102の一部である手や指114、115の位置を定めるとともに、操作面104、105と操作者102の手指114、115との位置関係を算出する処理を行う。この処理については図22を参照して以下に説明する。
本実施形態では、操作者が空間上に仮想的に設定した操作面を基準に、そこにあたかもマウスの代替となるような入力機器が存在するかのように操作することにより、その操作内容を確実に判定しようとするものであるが、操作者の一部である手または指などが操作面に至るまで、つまり操作者が何らかの操作を実行しようと手または指を動かし始めてから、操作面を押下するまでの間も操作支援することにより、さらに操作入力を容易に、より高精度に行うようにすることができる。本機能は、特にポインティングあるいはフォーカスの機能において有効であるが、操作判定面を使用した操作判定においても有効な場合が少なくないため、一般的な仮想的に設定される操作面として位置決定面を例に説明する。
Claims (9)
- 操作者が閲覧する画像を表示する表示手段と、
前記操作者に向けて前記表示手段の近傍に配置され、前記操作者の画像データを生成する撮像手段と、
前記撮像手段により読取られた操作者の画像により定められる領域であって、前記操作者の一部が前記表示手段に表示された所定の標示を制御することができる制御領域、および前記標示の前記表示手段の表示面上の位置に関連する操作が行われたか否かを判定する判定領域を予め設定する領域設定手段と、
前記操作者の画像から操作者の一部を抽出して、前記操作者の一部が前記設定された制御領域内にあるとき、該操作者の一部と前記表示手段との位置関係に応じて前記標示を移動する制御手段と、
前記操作者の画像から操作者の一部を抽出して、前記設定された判定領域内における前記操作者の一部の動作に応じて、前記標示の前記表示手段の表示面上の位置に関連する操作が行われたか否かを判定する操作判定手段と
を備え、
前記領域設定手段は、前記制御領域および前記判定領域を、前記操作者の画像から抽出された顔面を中心とした左右領域に分割配置し、
前記制御手段は、指の動きに応じて、アイコンの形状、色、および透明度の少なくとも一つを変化させることを特徴とする操作入力装置。 - 前記制御領域と前記判定領域とは、前記操作者を中心にそれぞれ左右のいずれかにあり、
前記制御範囲設定手段で抽出される操作者の一部と、前記操作判定手段で抽出される操作者の一部とは異なることを特徴とする請求項1に記載の操作入力装置。 - 前記領域設定手段は、前記読み取られた画像から操作者の顔面を抽出して操作者の中心を定めることを特徴とする請求項2に記載の操作入力装置。
- 前記操作判定手段は、前記撮像手段により読取られた操作者の予め定められた一連の動作により、前記制御領域と前記判定領域とがそれぞれ左右のいずれに配置するかを定めることを特徴とする請求項2または3に記載の操作入力装置。
- 前記領域設定手段は、前記撮像手段により読取られた操作者の予め定められた一連の動作に基づいて、前記制御領域および前記判定領域を予め設定することを特徴とする請求項1ないし4のいずれかに記載の操作入力装置。
- 前記領域設定手段は、前記判定領域と、前記制御領域とが重ならないように予め設定することを特徴とする請求項1ないし5のいずれかに記載の操作入力装置。
- 前記制御領域および前記判定領域は、前記操作者の視点と前記表示手段の表示面の各頂点とを結んで定められる領域にかからない領域であることを特徴とする請求項1ないし6のいずれかに記載の操作入力装置。
- 操作者が閲覧する画像を表示する表示手段と、前記表示手段の操作者に向けて前記表示手段の近傍に配置され、前記表示手段を見る操作者の画像データを生成する撮像手段とを備えた操作入力装置により操作入力をする方法であって、
前記撮像手段により読取られた操作者の画像により定められる領域であって、前記操作者の一部が前記表示手段に表示された所定の標示を制御することができる制御領域、および前記標示の前記表示手段の表示面上の位置に関連する操作が行われたか否かを判定する判定領域を予め設定する領域設定ステップと、
前記操作者の画像から操作者の一部を抽出して、前記操作者の一部が前記設定された制御領域内にあるとき、該操作者の一部と前記表示手段との位置関係に応じて前記標示を移動する制御ステップと、
前記操作者の画像から操作者の一部を抽出して、前記設定された判定領域内における前記操作者の一部の動作に応じて、前記標示の前記表示手段の表示面上の位置に関連する操作が行われたか否かを判定する操作判定ステップと
を備え、
前記領域設定ステップにおいて、前記制御領域および前記判定領域を、前記操作者の画像から抽出された顔面を中心とした左右領域に分割配置し、
前記制御ステップにおいて、指の動きに応じて、アイコンの形状、色、および透明度の少なくとも一つを変化させることを特徴とする操作入力方法。 - 操作者が閲覧する画像を表示する表示手段と、前記表示手段の操作者に向けて前記表示手段の近傍に配置され、前記表示手段を見る操作者の画像データを生成する撮像手段とを備えた操作入力装置に操作入力方法を実行させるプログラムであって、該操作入力方法は、
前記撮像手段により読取られた操作者の画像により定められる領域であって、前記操作者の一部が前記表示手段に表示された所定の標示を制御することができる制御領域、および前記標示の前記表示手段の表示面上の位置に関連する操作が行われたか否かを判定する判定領域を予め設定する領域設定ステップと、
前記操作者の画像から操作者の一部を抽出して、前記操作者の一部が前記設定された制御領域内にあるとき、該操作者の一部と前記表示手段との位置関係に応じて前記標示を移動する制御ステップと、
前記操作者の画像から操作者の一部を抽出して、前記設定された判定領域内における前記操作者の一部の動作に応じて、前記標示の前記表示手段の表示面上の位置に関連する操作が行われたか否かを判定する操作判定ステップと
を備え、
前記領域設定ステップにおいて、前記制御領域および前記判定領域を、前記操作者の画像から抽出された顔面を中心とした左右領域に分割配置し、
前記制御ステップにおいて、指の動きに応じて、アイコンの形状、色、および透明度の少なくとも一つを変化させることを特徴とするプログラム。
Priority Applications (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011149037A JP5515067B2 (ja) | 2011-07-05 | 2011-07-05 | 操作入力装置および操作判定方法並びにプログラム |
CN201180045563.7A CN103154858B (zh) | 2010-09-22 | 2011-09-22 | 操作输入装置与方法及程序 |
EP11826586.7A EP2620849B1 (en) | 2010-09-22 | 2011-09-22 | Operation input apparatus, operation input method, and program |
CA2811868A CA2811868C (en) | 2010-09-22 | 2011-09-22 | Operation input apparatus, operation input method, and program |
US13/824,955 US9329691B2 (en) | 2010-09-22 | 2011-09-22 | Operation input apparatus and method using distinct determination and control areas |
PCT/JP2011/005354 WO2012039140A1 (ja) | 2010-09-22 | 2011-09-22 | 操作入力装置および方法ならびにプログラム |
KR1020137007392A KR101522991B1 (ko) | 2010-09-22 | 2011-09-22 | 조작입력장치 및 방법, 그리고 프로그램 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011149037A JP5515067B2 (ja) | 2011-07-05 | 2011-07-05 | 操作入力装置および操作判定方法並びにプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013016060A JP2013016060A (ja) | 2013-01-24 |
JP5515067B2 true JP5515067B2 (ja) | 2014-06-11 |
Family
ID=47688685
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011149037A Active JP5515067B2 (ja) | 2010-09-22 | 2011-07-05 | 操作入力装置および操作判定方法並びにプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5515067B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9467602B2 (en) | 2014-11-20 | 2016-10-11 | Olympus Corporation | Control terminal, imaging system, control method, and non-transitory medium saving program for controlling a target terminal responsive to detection of a predetermined state of an object or a predetermined motion of the object |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5858059B2 (ja) | 2013-04-02 | 2016-02-10 | 株式会社デンソー | 入力装置 |
US9407779B2 (en) | 2013-05-28 | 2016-08-02 | Kyocera Document Solutions Inc. | Display apparatus and image forming apparatus |
JP6207240B2 (ja) * | 2013-06-05 | 2017-10-04 | キヤノン株式会社 | 情報処理装置及びその制御方法 |
JP6255954B2 (ja) * | 2013-12-03 | 2018-01-10 | 富士通株式会社 | 動作入力装置、動作入力プログラム及び動作入力方法 |
JP6207410B2 (ja) * | 2014-01-24 | 2017-10-04 | Kddi株式会社 | 情報提示装置、情報処理方法およびコンピュータプログラム |
CN106030460B (zh) * | 2014-02-18 | 2017-12-19 | 三菱电机株式会社 | 移动体用手势引导装置、移动体用手势引导***及移动体用手势引导方法 |
KR102265143B1 (ko) | 2014-05-16 | 2021-06-15 | 삼성전자주식회사 | 입력 처리 장치 및 방법 |
US9575560B2 (en) | 2014-06-03 | 2017-02-21 | Google Inc. | Radar-based gesture-recognition through a wearable device |
KR102210633B1 (ko) | 2014-07-09 | 2021-02-02 | 엘지전자 주식회사 | 가상 오브젝트의 뎁스와 연계된 인정범위를 가진 디스플레이 디바이스 및 그 제어 방법 |
WO2016006759A1 (en) * | 2014-07-09 | 2016-01-14 | Lg Electronics Inc. | Display device having scope of accreditation in cooperation with depth of virtual object and controlling method thereof |
US9778749B2 (en) | 2014-08-22 | 2017-10-03 | Google Inc. | Occluded gesture recognition |
US11169988B2 (en) | 2014-08-22 | 2021-11-09 | Google Llc | Radar recognition-aided search |
US9600080B2 (en) | 2014-10-02 | 2017-03-21 | Google Inc. | Non-line-of-sight radar-based gesture recognition |
EP3521853B1 (en) | 2015-04-30 | 2021-02-17 | Google LLC | Rf-based micro-motion tracking for gesture tracking and recognition |
US10817065B1 (en) | 2015-10-06 | 2020-10-27 | Google Llc | Gesture recognition using multiple antenna |
JP6822473B2 (ja) * | 2016-06-28 | 2021-01-27 | 株式会社ニコン | 表示装置 |
JP6762812B2 (ja) * | 2016-09-05 | 2020-09-30 | 東芝テック株式会社 | 操作入力装置及びプログラム |
CN115016678A (zh) * | 2017-02-02 | 2022-09-06 | 麦克赛尔株式会社 | 显示装置 |
JP2022022568A (ja) * | 2020-06-26 | 2022-02-07 | 沖電気工業株式会社 | 表示操作部および装置 |
JP2021015637A (ja) * | 2020-11-05 | 2021-02-12 | マクセル株式会社 | 表示装置 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3997392B2 (ja) * | 2001-12-13 | 2007-10-24 | セイコーエプソン株式会社 | 表示装置及び表示装置の入力方法 |
JP4286556B2 (ja) * | 2003-02-24 | 2009-07-01 | 株式会社東芝 | 画像表示装置 |
JP4781181B2 (ja) * | 2006-07-07 | 2011-09-28 | 株式会社ソニー・コンピュータエンタテインメント | ユーザインタフェースプログラム、装置および方法、情報処理システム |
US8726194B2 (en) * | 2007-07-27 | 2014-05-13 | Qualcomm Incorporated | Item selection using enhanced control |
JP2009087095A (ja) * | 2007-09-28 | 2009-04-23 | Victor Co Of Japan Ltd | 電子機器の制御装置、制御方法及び制御プログラム |
JP2009151424A (ja) * | 2007-12-19 | 2009-07-09 | Sony Ericsson Mobilecommunications Japan Inc | 情報処理装置、情報処理方法、情報処理プログラム及び携帯端末装置 |
US8166421B2 (en) * | 2008-01-14 | 2012-04-24 | Primesense Ltd. | Three-dimensional user interface |
US8971565B2 (en) * | 2008-05-29 | 2015-03-03 | Hie-D Technologies, Llc | Human interface electronic device |
JP4318056B1 (ja) * | 2008-06-03 | 2009-08-19 | 島根県 | 画像認識装置および操作判定方法 |
-
2011
- 2011-07-05 JP JP2011149037A patent/JP5515067B2/ja active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9467602B2 (en) | 2014-11-20 | 2016-10-11 | Olympus Corporation | Control terminal, imaging system, control method, and non-transitory medium saving program for controlling a target terminal responsive to detection of a predetermined state of an object or a predetermined motion of the object |
Also Published As
Publication number | Publication date |
---|---|
JP2013016060A (ja) | 2013-01-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5515067B2 (ja) | 操作入力装置および操作判定方法並びにプログラム | |
JP5167523B2 (ja) | 操作入力装置および操作判定方法並びにプログラム | |
WO2012039140A1 (ja) | 操作入力装置および方法ならびにプログラム | |
US20220084279A1 (en) | Methods for manipulating objects in an environment | |
JP4701424B2 (ja) | 画像認識装置および操作判定方法並びにプログラム | |
EP2972669B1 (en) | Depth-based user interface gesture control | |
JP5604739B2 (ja) | 画像認識装置および操作判定方法並びにプログラム | |
US20120113223A1 (en) | User Interaction in Augmented Reality | |
KR101890459B1 (ko) | 3차원으로 디스플레이된 오브젝트의 사용자 선택 제스쳐에 응답하기 위한 방법 및 시스템 | |
CN109155821A (zh) | 相机的可移动用户界面快门按钮 | |
US20140240267A1 (en) | Method Using a Finger Above a Touchpad for Controlling a Computerized System | |
US9544556B2 (en) | Projection control apparatus and projection control method | |
JP2006209563A (ja) | インターフェース装置 | |
WO2012122007A2 (en) | Keyboards and methods thereof | |
EP3262505B1 (en) | Interactive system control apparatus and method | |
TWI403922B (zh) | 徒手人機介面操作系統及其方法 | |
EP2558924B1 (en) | Apparatus, method and computer program for user input using a camera | |
JP2014219938A (ja) | 入力支援装置、入力支援方法、および、プログラム | |
KR20120126508A (ko) | 포인터를 사용하지 않는 가상 터치 장치에서의 터치 인식 방법 | |
CN107179876B (zh) | 基于虚拟现实***的人机交互装置 | |
Menzner et al. | Above surface interaction for multiscale navigation in mobile virtual reality | |
JP2013114647A (ja) | ジェスチャー入力システム | |
KR101708455B1 (ko) | 핸드 플로트 입체 메뉴 시스템 | |
JP2013171529A (ja) | 操作入力装置、操作判定方法およびプログラム | |
JP5401675B1 (ja) | 情報入力装置および情報入力方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130531 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20130531 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20130619 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130716 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130911 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20131015 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140114 |
|
RD13 | Notification of appointment of power of sub attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7433 Effective date: 20140116 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20140116 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20140205 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140225 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140307 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5515067 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |