JP2011003136A - 操作制御装置および操作制御方法 - Google Patents

操作制御装置および操作制御方法 Download PDF

Info

Publication number
JP2011003136A
JP2011003136A JP2009147726A JP2009147726A JP2011003136A JP 2011003136 A JP2011003136 A JP 2011003136A JP 2009147726 A JP2009147726 A JP 2009147726A JP 2009147726 A JP2009147726 A JP 2009147726A JP 2011003136 A JP2011003136 A JP 2011003136A
Authority
JP
Japan
Prior art keywords
detection target
movement
point
target point
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009147726A
Other languages
English (en)
Other versions
JP5187280B2 (ja
Inventor
Fumitada Honma
文規 本間
Tatsushi Nashida
辰志 梨子田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009147726A priority Critical patent/JP5187280B2/ja
Priority to US12/791,357 priority patent/US9128526B2/en
Priority to CN2010102060278A priority patent/CN101930286B/zh
Priority to EP10166068.6A priority patent/EP2273345A3/en
Publication of JP2011003136A publication Critical patent/JP2011003136A/ja
Application granted granted Critical
Publication of JP5187280B2 publication Critical patent/JP5187280B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Manipulator (AREA)

Abstract

【課題】ユーザの動作からユーザの意図する動作と意図しない動作とを判別し、空間ジェスチャにおける検出精度を向上することが可能な操作制御装置を提供する。
【解決手段】本発明の操作制御装置は、操作対象を操作するために行われるユーザの動作によって移動する検出対象点と、検出対象点の上位に位置する上位点とを検出する対象点検出部と、上位点に対する検出対象点の相対位置を算出する相対位置算出部と、前時間における位置から現在の位置への検出対象点の移動量および移動方向を示す移動ベクトルを算出する移動情報算出部と、上位点に対する検出対象点への向きを順方向として、検出対象点の移動方向が順方向であるか否かを判定する動き方向判定部と、動き方向判定部により検出対象点の移動方向が順方向であると判定された場合に、ユーザの動作と関連付けられた操作処理を実行する実行部と、を備える。
【選択図】図5

Description

本発明は、操作制御装置および操作制御方法に関する。
ITの発達に伴い、高度な機能を有する電子機器が普及してきた。電子機器の高機能化につれて、ユーザが電子機器に機能を実行させるための指示の内容も多様化している。このため、分かりやすく操作性に優れたユーザインタフェース(User Interface:UI)の要求が高まっている。例えば、パーソナルコンピュータ(以下、「PC」とする。)においては、従来、ユーザがキーボードによりコマンド文字列を入力するキャラクタベースのUIが主として用いられていた。しかし、現在では、表示画面に提示されたアイコンやウィンドウ等の画像を、表示画面上のポインタをユーザがマウス等のポインティングデバイスにより操作して指示を入力するグラフィカルユーザインタフェース(Graphical User Interface:GUI)が広く利用されている。
GUIを用いることによって、PC等の電子機器の操作性は向上した。しかし、マウス等の操作に慣れておらず抵抗を感じるユーザもおり、すべてのユーザにとって操作性のよいものではない。そこで、より直感的に、自然な感覚で指示を入力することの可能なUIの開発が要求されている。例えば、空間においてユーザの体の一部を動作させる動作と、その動作から直感的に想像しやすい操作内容とを関連付けておき、ユーザが体を動かすことで所定の操作を実行できるようにすることができる。
例えば、図9に示すように、画面10上に音楽や映像などを再生、早送り、巻き戻し、停止等の操作を行う再生操作部12や、音量を操作する音量調節部14等が表示されているとする。このとき、ユーザは、指Fを左右に動かすことにより、音楽の再生状態を変更したり音量を調節したりする等再生操作部12や音量調節部14を操作することができる。また、例えば、ポインタ等を上下左右に移動させるとともに選択・決定を行うことができる5wayキーによる上下左右の移動操作を、空間上の腕や手のひら、指等の移動ジェスチャに割り当てて操作可能とした制御システムが開示されている(例えば、特許文献1)。
特開2005−31799号公報
しかし、腕や指等を上下左右に移動させるような移動ジェスチャには、必ず、元の位置に戻す動作が発生する。すなわち、例えば指を右方向に繰り返し移動させるときには、右側に移動させる動作の終端位置から始端位置に向かって、指を左方向に移動させる必要がある。上記の従来の入力インタフェースでは、このようなユーザが意図しない元の位置に戻す操作を、意図する移動方向と逆方向の移動ジェスチャとして誤検出するという問題があった。
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、ユーザの動作からユーザの意図する動作と意図しない動作とを判別し、空間ジェスチャにおける検出精度を向上することが可能な、新規かつ改良された操作制御装置および操作制御方法を提供することにある。
上記課題を解決するために、本発明のある観点によれば、操作対象を操作するために行われるユーザの動作によって移動する検出対象点と、検出対象点の上位に位置する上位点とを検出する対象点検出部と、上位点に対する検出対象点の相対位置を算出する相対位置算出部と、前時間における位置から現在の位置への検出対象点の移動量および移動方向を示す移動ベクトルを算出する移動情報算出部と、上位点に対する検出対象点への向きを順方向として、検出対象点の移動方向が順方向であるか否かを判定する動き方向判定部と、動き方向判定部により検出対象点の移動方向が順方向であると判定された場合に、ユーザの動作と関連付けられた操作処理を実行する実行部と、を備える、操作制御装置が提供される。
本発明によれば、ユーザの動作の判定の対象となる検出対象点とその上位点との相対位置に対して、検出対象点の移動ベクトルの向きが順方向であるか否かを動き方向判定部により判定する。検出対象点の移動ベクトルの向きが順方向であれば、実行部によりユーザの動作と関連付けられた操作処理が実行され、検出対象点の移動ベクトルの向きが逆方向であれば、実行部によりユーザの動作と関連付けられた操作処理は実行されない。これにより、ユーザが意図する動作と意図しない動作とを区別し、空間ジェスチャにおける検出精度を向上させることができる。
移動情報算出部は、検出対象点の移動加速度をさらに算出することもできる。このとき、動き方向判定部は、検出対象点の移動方向が順方向ではないと判定した場合であっても、検出対象点の移動加速度が所定の移動加速度以上である場合には、実行部にユーザの動作と関連付けられた操作処理を実行させる。
また、動き方向判定部は、上位点を始点とし検出対象点を終点とする基準ベクトルの操作対象を移動させる方向における成分ベクトルの向きを順方向としてもよい。このとき、動き方向判定部は、このように決定された順方向を用いて、検出対象点の移動ベクトルの操作対象を移動させる方向における成分ベクトルの向きが順方向であるか否かを判定する。
さらに、移動情報算出部は、移動ベクトルの第1成分ベクトルおよび第2成分ベクトルを算出することもできる。このとき、動き方向判定部は、第1成分ベクトルと第2方向成分ベクトルとのうちいずれか大きい方に対応する方向を、操作対象を移動させる方向と判定する。
また、動き方向判定部は、ユーザの動作と検出対象点との関係に応じて、上位点に対する検出対象点への向きにより規定される順方向を変更してもよい。
さらに、動き方向判定部は、上位点を始点とし検出対象点を終点とする基準ベクトルを含む所定の領域を、前時間において設定した順方向を引き続き順方向とする引き継ぎ領域として設定することもできる。このとき、動き方向判定部は、引き継ぎ領域に検出対象点が位置するとき、検出対象の移動方向が前時間における順方向であるか否かを判定する。
また、上記課題を解決するために、本発明の別の観点によれば、操作対象を操作するために行われるユーザの動作によって移動する検出対象点を検出するステップと、検出対象点の上位に位置する上位点を検出するステップと、上位点に対する検出対象点の相対位置を算出するステップと、前時間における位置から現在の位置への検出対象点の移動量および移動方向を示す移動ベクトルを算出するステップと、上位点に対する検出対象点への向きを順方向として、検出対象点の移動方向が順方向であるか否かを判定するステップと、動き方向判定部により検出対象点の移動方向が順方向であると判定された場合に、ユーザの動作と関連付けられた操作処理を実行するステップと、を含む、操作制御方法が提供される。
以上説明したように本発明によれば、ユーザの動作からユーザの意図する動作と意図しない動作とを判別し、空間ジェスチャにおける検出精度を向上することが可能な、操作制御装置および操作制御方法を提供することができる。
ユーザのジェスチャにより操作される画面構成の一例を示す説明図である。 本発明の実施形態にかかる操作制御装置のハードウェア構成を示すブロック図である。 同実施形態にかかる操作制御装置の機能構成を示す機能ブロック図である。 検出対象関節と上位関節との関係を示す説明図である。 同実施形態にかかる操作制御装置による操作制御方法を示すフローチャートである。 動きの順方向についての説明図である。 手首を検出対象関節とするときの操作処理の有効化の可否を示す説明図である。 指の付け根を検出対象関節とするときの操作処理の有効化の可否を示す説明図である。 従来の移動ジェスチャによる操作方法を示す説明図である。
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.操作制御装置により操作制御される画面の操作例
2.操作制御装置の構成
3.操作制御装置による操作制御方法
<1.操作制御装置により操作制御される画面の操作例>
まず、図1に基づいて、本発明の実施形態にかかる操作制御装置によりユーザのジェスチャを認識して操作制御されている画面操作例について説明する。なお、図1は、ユーザのジェスチャにより操作される画面構成の一例を示す説明図である。
本実施形態では、テレビやゲームのインタフェースとして一般的に使用されている5wayキーによる操作を想定している。5wayキーを用いると、例えば、画面に表示されたアイコン等のオブジェクトの表示を上下左右にスクロールさせたり、オブジェクトを選択するポインタを移動させたりする操作やオブジェクトの選択・決定操作を容易に行うことができる。本実施形態にかかる操作制御装置では、このような5wayキーにより実行可能な操作を、ユーザのジェスチャにより実行可能とする。
例えば、本実施形態にかかる操作制御装置は、上下左右方向への手Hのフリックジェスチャを検出して、その方向に応じた画面インタラクションを行うことができる。画面インタラクションとしては、例えば図1に示すように、画面200に表示されているコンテンツ一覧において、上下左右にコンテンツ210をスクロールさせるという操作が考えられる。手Hが右方向に移動されると、コンテンツ一覧が右方向にスクロールされ、手Hが左方向に移動されると、コンテンツ一覧が左方向にスクロールされる。本実施形態にかかる操作制御装置では、手Hのフリックジェスチャにおける手戻り操作の誤検出を防ぐことを目的としている。手戻り動作の誤検出を防ぐことにより、ユーザが意図しない動作に対して操作処理は実行されず、操作性を向上することができる。
なお、本実施形態では、コンテンツの決定や選択等の操作については、例えば手を握ったり開いたりするといった他の任意のジェスチャによって行うものとし、手H等を上下左右に移動させるジェスチャによってはスクロール処理のみが実行されるものとする。以下、ジェスチャの誤検出を防止することの可能な操作制御装置の構成とこれによる操作制御方法について詳細に説明していく。
<2.操作制御装置の構成>
[ハードウェア構成]
まず、図2に基づいて、本実施形態にかかる操作制御装置100のハードウェア構成について説明する。なお、図2は、本実施形態にかかる操作制御装置100のハードウェア構成を示すブロック図である。
本実施形態にかかる操作制御装置100は、図2に示すように、CPU(Central Processing Unit)101と、RAM(Random Access Memory)102と、不揮発性メモリ103とを備える。さらに、操作制御装置100は、ステレオカメラ104と、表示装置105とを備える。
CPU101は、演算処理装置および制御装置として機能し、各種プログラムに従って操作制御装置100内の動作全般を制御する。また、CPU101は、マイクロプロセッサであってもよい。RAM102は、CPU101の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバスなどから構成されるホストバスにより相互に接続されている。不揮発性メモリ103は、CPU101が使用するプログラムや演算パラメータ等を記憶する。不揮発性メモリ103は、例えばROM(Read Only Memory)やフラッシュメモリ等を用いることができる。
ステレオカメラ104は、奥行方向の位置を認識可能な入力デバイスである。ステレオカメラ104は、2つのカメラによって異なる方向からユーザにより動かされる複数の入力部位を同時撮像することにより、撮像画像の奥行方向の情報も記録することができる。ステレオカメラ104の代わりに、例えば視差を利用した距離計であるレンジファインダー等を用いてもよい。ステレオカメラ104は、ユーザの行うジェスチャを撮像する撮像手段と、撮像手段により撮像された撮像画像をCPU101に出力する入力制御回路などから構成されている。ユーザの行うジェスチャをステレオカメラ104で取得することにより、操作制御装置100に対して各種のデータを入力したり処理動作を指示したりすることができる。
表示装置105は、情報を出力する出力装置の一例である。表示装置105として、例えばCRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Diode)装置などを用いることができる。
[機能構成]
次に、図3および図4に基づいて、本実施形態にかかる操作制御装置100の機能構成について説明する。なお、図3は、本実施形態にかかる操作制御装置100の機能構成を示す機能ブロック図である。図4は、検出対象関節と上位関節との関係を示す説明図である。以下では、ユーザが腕等を上下左右に動かすことにより画面の表示内容をスクロールさせる場合について説明する。本実施形態にかかる操作制御装置100は、画面をスクロールさせる方向および速さを決定するために検出対象点を検出し、検出対象点とその上位点との関係からジェスチャに関連付けられた操作処理の実行の可否を判定する。本実施形態では、検出対象および上位点は、腕や手に備わる関節とするが、例えば人体の他の部位に備わる関節や、ユーザにより操作されるリモートコントローラ等の物体等を含む部位を設定することもできる。
本実施形態にかかる操作制御装置100は、入力情報取得部110と、部位検出部120と、相対位置算出部130と、移動情報算出部140と、動き方向判定部150と、実行部160と、設定記憶部170とを備える。
入力情報取得部110は、ユーザにより動かされる複数の部位を検出する機能部であって、図2のステレオカメラ104に相当する。入力情報取得部110は、ユーザのジェスチャに対応付けられた操作処理を実行の可否を判定するとともに、操作処理における操作量を決定するために用いる部位を認識する画像を取得する。入力情報取得部110により取得された撮像画像は、部位検出部120に出力される。
部位検出部120は、撮像画像に含まれる腕や手などの部位や部位間にある関節を認識する。部位検出部120は、入力情報取得部110から入力された撮像画像の奥行情報および任意の画像認識手法を用いて画面を操作するユーザの検出対象関節および上位関節を認識する。奥行情報は、例えば対象物の3次元的な位置を測定可能なステレオ画像処理等を用いて取得することができる。また、部位や関節は、例えば形状検出や肌色検出、テクスチャマッチング等の画像処理手法を用いてその位置を推定することにより認識できる。
ここで、検出対象関節および上位関節について説明する。上述したように、操作制御装置100は、ユーザのジェスチャを特定するためにその動きが検出される検出対象点と、検出対象点に対して動きの軸となる上位点とを認識する。本実施形態では、検出対象点および上位点となり得る箇所を人体の任意の関節とする。例えば、図4に示すように、腕の関節である肩A、肘A、手首A、指の付け根A、指Fの中から検出対象点である検出対象関節を設定することができる。また、上位点である上位関節は、各関節のより肩に近い側に隣接して位置する関節と規定される。すなわち、指Fの上位関節は指の付け根A、指の付け根Aの上位関節は手首A、手首Aの上位関節は肘A、肘Aの上位関節は肩Aとなる。
検出対象関節は例えば設定記憶部170に予め設定されており、検出対象関節が定まることにより上位関節は決定する。部位検出部120は、撮像画像から特徴点としての関節を抽出し、既存の画像認識手法を用いて検出対象関節およびその上位関節を特定する。そして、部位検出部120は、検出対象関節および上位関節の位置情報を相対位置算出部130および移動情報算出部140へ出力する。
相対位置算出部130は、検出対象関節および上位関節の相対位置を算出する。相対位置算出部130は、部位検出部120から入力された検出対象関節および上位関節の位置情報から、上位関節を始点として検出対象関節を終点とするベクトル(以下、「基準ベクトル」という。)を算出する。基準ベクトルは、ユーザが行ったジェスチャに関連付けられた操作処理を実行するか否かを判定するために用いられる。相対位置算出部130は、算出した基準ベクトルを相対位置情報として動き方向判定部150へ出力する。
移動情報算出部140は、検出対象関節の移動量、移動方向、移動速度、移動加速度等の移動情報を算出する。移動情報算出部140は、部位検出部120により検出された検出対象関節について、前時間における位置から現時点での位置の移動量および移動方向を算出し、動き方向判定部150へ出力する。移動情報算出部140により算出された検出対象関節の移動量および移動方向は、実行される操作処理における操作対象の操作量および操作方向を決定する情報として用いられる。また、移動情報算出部140は、動き方向判定部150からの要求により、検出対象関節の移動加速度を算出して、動き方向判定部150へ出力する。
動き方向判定部150は、検出対象関節の動き方向が順方向であるか否かを判定する。動き方向判定部150は、まず、操作処理の有効化の可否の判定基準となる動きの順方向を決定する。動き方向判定部150は、相対位置算出部130から入力された相対位置情報から、上位関節から検出対象関節へ向かう基準ベクトルの向きを動きの順方向として決定する。そして、動き方向判定部150は、移動情報算出部140から入力された検出対象関節の移動方向と決定した動きの順方向とを比較し、比較結果に応じて実行部160へ操作実行指示を検出対象関節の移動情報とともに出力する。すなわち、動き方向判定部150は、検出対象関節の動き方向が順方向であるか否かを判定することによって、その動きがユーザの意図するジェスチャであるか否かを推定している。
また、動き方向判定部150は、比較結果に応じて、移動情報算出部140に検出対象関節の移動加速度を算出させて取得することもできる。このとき、動き方向判定部150は、検出対象関節の移動加速度を考慮して、実行部160に対して操作実行指示を出力するか否かを判定することができる。
実行部160は、ユーザにより行われたジェスチャに対応する操作処理を実行する。実行部160は、動き方向判定部150によって検出対象関節の動きが、ユーザが意図して行ったジェスチャであると判定した場合に、動き方向判定部150の操作実行指示によって機能する。実行部160は、ユーザの行うジェスチャに対応付けられた操作処理を検索するジェスチャ検索エンジンであって、動き方向判定部150から入力された検出対象関節の移動情報から、ジェスチャに対応する操作処理を記憶部(図示せず。)から検索し、実行する。実行部160により実行された操作処理は、例えば、ディスプレイやスピーカ等の出力部(図示せず。)の出力情報に反映される。
設定記憶部170は、操作制御処理に用いられる情報を記憶する記憶部であって、図2の不揮発性メモリに相当する。設定記憶部170は、例えば、検出対象点および上位点がどの関節や物体であるか、人体の部位や関節等の位置をモデル化した人体構造モデル等の設定情報を記憶する。
以上、本実施形態にかかる操作制御装置100の機能構成について説明した。次に、図5〜図8に基づいて、本実施形態にかかる操作制御装置100による操作制御方法を説明する。なお、図5は、本実施形態にかかる操作制御装置100による操作制御方法を示すフローチャートである。図6は、動きの順方向についての説明図である。図7は、手首を検出対象関節とするときの操作処理の有効化の可否を示す説明図である。図8は、指の付け根を検出対象関節とするときの操作処理の有効化の可否を示す説明図である。
<3.操作制御方法>
上述したように、操作制御装置100は、検出対象関節および上位関節を特定して、操作処理の実行の可否を判定し、ユーザが行ったジェスチャを認識して当該ジェスチャに関連付けられた操作処理を実行する。このため、操作処理装置100による操作制御方法では、まず、部位検出部120により検出対象関節の位置を検出する(ステップS100)。部位検出部120は、上述した任意の画像認識手法を用いて、入力情報取得部110により取得された撮像画像から特徴点である関節を抽出する。そして、部位検出部120は、抽出した各関節から検出対象関節の位置を検出する。検出対象関節の特定は、上述した任意の画像処理手法を用いて行うことができ、例えば記憶部170に記憶された人体構造モデルを参照して、検出対象関節として設定された関節の位置を推定することができる。
次いで、部位検出部120により検出対象関節に対する上位関節の位置を検出する(ステップS110)。部位検出部120は、撮像画像から抽出した特徴点のうち、検出対象関節との位置関係から検出対象関節に対して肩方向に隣接する特徴点を上位関節として検出する。このとき、検出対象関節と上位関節とが奥行方向に重なって上位関節が検出できなかった場合には、部位検出部120は、人体の重心位置から尤もらしい位置を上位関節の位置として推定する。部位検出部120は、ステップS110で算出した検出対象関節の空間における位置情報および上位関節の空間における位置を位置情報として、相対位置算出部130および移動情報算出部140へ出力する。
さらに、相対位置算出部130は、検出対象関節と上位関節との相対位置を算出する(ステップS120)。検出対象関節と上位関節との相対位置は、基準ベクトルとして算出することができ、ユーザの動作が意図して行われた動作であるか否かを判別するために用いられる。例えば、図6に、手首を検出対象関節としたときのフリックジェスチャの様子を示す。ここでフリックジェスチャとは、空間にて画面上に表示されたオブジェクト一覧やWebサイトなどを軽く払ったりさすったりする動作をいう。フリックジェスチャは、例えば図1に示したように、コンテンツ一覧等を、指等を払った方向にスクロールさせる操作に対応付けることができる。
図6(a)は、検出対象関節A1である手首を左から右にフリックした場合を示す。このとき、検出対象関節A1は、検出対象関節A1の上位関節A2である肘より右側に位置する。一方、図6(b)に示すように、手首を右から左にフリックした場合には、検出対象関節A1は、上位関節A2より左側に位置する。なお、本実施形態では、ユーザが正面を向いた状態を基準として、検出対象関節A1が上位関節A2に対して左右いずれの方向に位置するかを判定している。図6より、一般に、ユーザがフリックしたい方向は、上位関節A2に対する検出対象関節A1の位置方向と同一であることがわかる。すなわち、この向きは、上位関節A2の鉛直方向に直交する水平方向における位置L2から検出対象関節A1の水平方向における位置L1へ向かう向きである。そこで、相対位置算出部130は、検出対象関節A1と上位関節A2との位置関係からユーザがフリックしたい方向を推定するため、検出対象関節A1と上位関節A2との相対位置を算出する。
その後、移動情報算出部140は、検出対象関節の移動情報を算出する(ステップS130)。移動情報算出部140は、前時間において算出された検出対象関節の位置と現時点における検出対象関節の位置とから、検出対象関節の移動量および移動方向(すなわち、移動ベクトル)を算出する。算出された移動情報は、移動情報算出部140から動き方向判定部150へ出力される。
次いで、動き方向判定部150により、検出対象関節の移動ベクトルが検出対象関節の上位関節に対する相対位置と順方向であるか否かを判定する(ステップS140)。動き方向判定部150は、まず、上位関節に対する検出対象関節の位置する方向を順方向とする。そして、動き方向判定部150は、検出対象関節の移動ベクトルの方向が順方向であるか否かを判定する。
順方向であるか否かの判定は、例えば検出対象関節の移動ベクトルと、上位関節に対する検出対象関節の位置を表す基準ベクトルとのなす角に基づいて行うことができる。このとき、検出対象関節の移動ベクトルと基準ベクトルとの方向が厳密に一致しなくとも、所定の範囲内であれば順方向であると判定することができる。例えば、上位関節での重力方向上向きを基準(0°)として、移動ベクトルの傾きθが0°<θ<180°の領域にある場合と−180°<θ<0°の領域にある場合とによって、移動ベクトルの方向を規定することができる。言い換えると、移動ベクトルを鉛直方向と鉛直方向に直交する水平方向との成分に分けたとき、移動ベクトルの水平成分の向きを移動ベクトルの方向とすることができる。
例えば、手首を検出対象関節とし、肘を上位関節とした場合の、検出対象関節の動きの順方向および逆方向を図7に示す。図7では、上位関節A2の水平方向の位置L2から検出対象関節A1の水平方向の位置L1へ向かう向きが順方向となっている。
図7(a)に示すように、ユーザに向かって検出対象関節A1が上位関節A2より左側に位置するときに、検出対象関節A1が上位関節A2からさらに離隔するように左方向へ移動された場合、検出対象関節A1の移動ベクトルは上位関節に対する方向と順方向となる。したがって、かかる動作はユーザが意図して行ったものであると推定され、このジェスチャに関連付けられた操作処理は有効化される。一方、図7(b)に示すように、ユーザに向かって検出対象関節A1が上位関節より左側に位置するときに、検出対象関節A1が上位関節A2側に向かうように右方向へ移動された場合には、当該検出対象関節A1の移動ベクトルは上位関節に対する方向の逆方向となる。この場合、かかる動作はユーザが移動しない動作であると推定され、このジェスチャに関連付けられた操作処理は実行されない。
同様に、例えば、指の付け根を検出対象関節とし、手首を上位関節とした場合の、検出対象関節の動きの順方向および逆方向を図8に示す。図8においても、上位関節A2の水平方向の位置L2から検出対象関節A1の水平方向の位置L1へ向かう向きが順方向となっている。
図8(a)に示すように、ユーザに向かって検出対象関節A1が上位関節A2より左側に位置するときに、検出対象関節A1が上位関節A2からさらに離隔するように左方向へ移動された場合には、当該検出対象関節A1の移動ベクトルは上位関節に対する方向と順方向となる。したがって、かかる動作はユーザが意図して行ったものであると推定され、このジェスチャに関連付けられた操作処理は有効化される。一方、図8(b)に示すように、ユーザに向かって検出対象関節A1が上位関節より左側に位置するときに、検出対象関節A1が上位関節A2側に向かうように右方向へ移動された場合には、当該検出対象関節A1の移動ベクトルは上位関節に対する方向の逆方向となる。この場合、かかる動作はユーザが移動しない動作であると推定され、このジェスチャに関連付けられた操作処理は実行されない。
このように、検出対象関節の移動ベクトルの方向が基準ベクトルの方向と順方向となる、動きとして自然な動作が検出された場合には、ユーザの意図する動作と判断して、ジェスチャに関連付けられた操作処理を有効化する。このようにして、ユーザが意図する動作と意図しない動作とを区別することができ、空間ジェスチャにおける検出精度を向上させることができる。
そして、検出対象関節の移動ベクトルが基準ベクトルと順方向であると判定した場合には、動き方向判定部150は、実行部160に対して検出対象関節の移動ベクトルおよび移動加速度とともに操作処理実行指示を出力する(ステップS150)。実行部160は、操作処理実行指示を受けて、検出対象関節の動きから推定されるジェスチャに対応付けられた操作処理を記憶部(図示せず。)から検索して、実行する(ステップS160)。
一方、ステップS140にて検出対象関節の移動ベクトルが基準ベクトルと順方向ではないと判定した場合には、動き方向判定部150は、移動ベクトルが加速する動作であるか否か判定する(ステップS170)。移動ベクトルが逆方向の場合、ユーザが意図しない動作とみなされてしまうが、そのような場合であってもユーザが意図した動作も起こり得る。そこで、ユーザが意図したにも関わらずステップS140において意図しない動作とみなされた動作も許容するため、検出対象関節の移動加速度が所定の値以上であるか否かを判定する。
検出対象関節を移動させてフリックジェスチャを行う場合、一般に、操作する方向に検出対象関節を移動させる動作は、検出対象関節を操作方向に移動させた後、元の位置に戻す動作に比べて加速度が大きい。この特性を利用して、移動加速度が所定の値以上である場合にはユーザが意図しない動作とみなされた動作もユーザが意図する動作とする。この場合には、ステップS150およびS160の処理を行い、当該ジェスチャに対応付けられた操作処理を実行する。一方、検出対象関節の移動加速度が所定の値より小さい場合には、当該ジェスチャに対応付けられた操作処理は実行されず、そのまま操作制御処理を終了する。
以上、本実施形態にかかる操作制御装置100による操作制御方法について説明した。本実施形態によれば、ジェスチャ判定の対象となる検出対象関節とその上位関節との相対位置に対して、検出対象関節の移動が順方向であればそのジェスチャに対応付けられた操作処理の実行を有効化する。一方、検出対象関節とその上位関節との相対位置に対して、検出対象関節の移動が順方向ではない場合には、そのジェスチャに対応付けられた操作処理の実行を無効化する。これにより、ユーザの意図する動作と意図しない動作とを判別することができ、空間ジェスチャにおける検出精度を向上させることができる。
また、検出対象関節とその上位関節との相対位置に対して、検出対象関節の移動が順方向ではない場合であっても、その動作の加速度が所定の値以上である場合には、ユーザの意図する動作とみなして操作処理の実行を有効化することもできる。これにより、ユーザのジェスチャによる操作処理の実行を許容する範囲が広がり、ユーザの意図する動作をより的確に判別することができる。なお、図5に示した操作制御は、ジェスチャ認識が必要となる任意の時点で実行される。
[基準ベクトル引き継ぎ領域の設定]
本実施形態では、検出対象関節の移動ベクトルの方向が基準ベクトルの方向と順方向となる場合、あるいは検出対象関節の移動ベクトルの方向が基準ベクトルの方向と逆方向であっても所定の移動加速度以上で検出対象関節が移動している場合にのみ、このジェスチャに関連付けられた操作処理を実行した。このとき、検出対象関節の移動ベクトルの方向が基準ベクトルの方向と逆方向であっても、逆方向に移動する範囲が所定の範囲内である間は前時間における操作処理の有効性を引き継ぐようにしてもよい。
例えば、図7(a)に示すように、ユーザに向かって、基準ベクトルが左方向を向いている場合、上位関節A2の水平方向の位置を示すL2より左側の領域において検出対象関節A1が左方向に移動した場合には操作処理は有効化される。しかし、検出対象関節A1を繰り返し左方向にフリックさせたいが、腕の振り方によっては位置L2の右側の領域から位置L2を通過して左方向に検出対象関節A1を移動させるようになってしまうこともある。このような場合、検出対象関節A1が位置L2の右側の領域にある場合でも、位置L2を通過するまでの基準ベクトルに対する逆方向の検出対象関節A2の動きによる操作も有効となるように、前の基準ベクトルを引き継ぐ領域を設定することもできる。
図7(a)においては、上位関節A2の位置L2の右側に位置L3を設け、位置L2から位置L3までの間では前の基準ベクトルを引き継いで、動き判定部150は操作処理の有効性を判定するようにしてもよい。この場合、検出対象関節A1が位置L2と位置L3の間に位置し、左方向に移動している場合、実際の基準ベクトルは右方向であり、検出対象関節A1の動きは逆方向であると判定されるが、前の基準ベクトルが左方向である場合には、順方向と判定される。これにより、繰り返し行われるフリックジェスチャをより的確に認識することができ、ユーザの動作に即した操作処理の実行が可能となる。
[基準ベクトルの変更]
また、上述の説明では、検出対象関節と上位関節とにより決定される基準ベクトルに基づき、検出対象関節の移動ベクトルの方向から操作処理の有効性を判断した。しかし、検出対象点および上位点の設定や検出対象点の移動方向によってはその判断が困難となる場合がある。例えば、検出対象点を指の付け根とし、上位点を手首とした場合に、ユーザが指の付け根を上下方向に移動させるとする。このとき、基準ベクトルを上記と同様、上位点である手首を始点として検出対象点である指の付け根を終点とするベクトルにより規定すると、自然な姿勢で指の付け根を動かすと基準ベクトルはほぼ常に鉛直上向き方向となる。したがって、鉛直下向きに検出対象点を動かす動作による操作処理が有効化され難くなる。
このような場合には、基準ベクトルを変更するようにしてもよい。例えば、上位点である手首を支点として検出対象点である指の付け根を上下に移動させたときに、指の付け根を鉛直上向きに最大移動させたときと鉛直下向きに最大移動させたときの中間位置を基準ベクトルとして設定することができる。このとき、基準ベクトルは、動作前にキャリブレーションして決定し、設定記憶部170に予め記憶させておく。動作に応じて基準ベクトルの設定を変更することにより、ユーザが意図して動作を行っているか否かを的確に判定することができる。また、ユーザは自然な姿勢で動作することができる。
なお、検出対象点を左右にフリックさせる場合と上下にフリックさせる場合との判別は、例えば、移動ベクトルの重力成分と水平成分の長さを比較して、長い方をフリック方向として決定することができる。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
100 操作制御装置
110 入力情報取得部
120 部位検出部
130 相対位置算出部
140 移動情報算出部
150 動き方向判定部
160 実行部
170 設定記憶部
A1 検出対象関節
A2 上位関節

Claims (7)

  1. 操作対象を操作するために行われるユーザの動作によって移動する検出対象点と、前記検出対象点の上位に位置する上位点とを検出する対象点検出部と、
    前記上位点に対する前記検出対象点の相対位置を算出する相対位置算出部と、
    前時間における位置から現在の位置への前記検出対象点の移動量および移動方向を示す移動ベクトルを算出する移動情報算出部と、
    前記上位点に対する前記検出対象点への向きを順方向として、前記検出対象点の移動方向が前記順方向であるか否かを判定する動き方向判定部と、
    前記動き方向判定部により前記検出対象点の移動方向が順方向であると判定された場合に、前記ユーザの動作と関連付けられた操作処理を実行する実行部と、
    を備える、操作制御装置。
  2. 前記移動情報算出部は、前記検出対象点の移動加速度をさらに算出し、
    前記動き方向判定部は、前記前記検出対象点の移動方向が前記順方向ではないと判定した場合であっても、前記検出対象点の移動加速度が所定の移動加速度以上である場合には、前記実行部にユーザの動作と関連付けられた操作処理を実行させる、請求項1に記載の操作制御装置。
  3. 前記動き方向判定部は、前記上位点を始点とし前記検出対象点を終点とする基準ベクトルの前記操作対象を移動させる方向における成分ベクトルの向きを順方向として、前記検出対象点の移動ベクトルの前記操作対象を移動させる方向における成分ベクトルの向きが前記順方向であるか否かを判定する、請求項1または2に記載の操作制御装置。
  4. 前記移動情報算出部は、前記移動ベクトルの第1成分ベクトルおよび第2成分ベクトルを算出し、
    前記動き方向判定部は、前記第1成分ベクトルと前記第2方向成分ベクトルとのうち、いずれか大きい方に対応する方向を前記操作対象を移動させる方向と判定する、請求項3に記載の操作制御装置。
  5. 前記動き方向判定部は、ユーザの動作と検出対象点との関係に応じて、前記上位点に対する前記検出対象点への向きにより規定される順方向を変更する、請求項1に記載の操作制御装置。
  6. 前記動き方向判定部は、
    前記上位点を始点とし前記検出対象点を終点とする基準ベクトルを含む所定の領域を、前時間において設定した順方向を引き続き順方向とする引き継ぎ領域として設定し、
    前記引き継ぎ領域に前記検出対象点が位置するとき、前記検出対象の移動方向が前時間における順方向であるか否かを判定する、請求項1に記載の操作制御装置。
  7. 操作対象を操作するために行われるユーザの動作によって移動する検出対象点を検出するステップと、
    前記検出対象点の上位に位置する上位点を検出するステップと、
    前記上位点に対する前記検出対象点の相対位置を算出するステップと、
    前時間における位置から現在の位置への前記検出対象点の移動量および移動方向を示す移動ベクトルを算出するステップと、
    前記上位点に対する前記検出対象点への向きを順方向として、前記検出対象点の移動方向が前記順方向であるか否かを判定するステップと、
    前記動き方向判定部により前記検出対象点の移動方向が順方向であると判定された場合に、前記ユーザの動作と関連付けられた操作処理を実行するステップと、
    を含む、操作制御方法。
JP2009147726A 2009-06-22 2009-06-22 操作制御装置および操作制御方法 Expired - Fee Related JP5187280B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2009147726A JP5187280B2 (ja) 2009-06-22 2009-06-22 操作制御装置および操作制御方法
US12/791,357 US9128526B2 (en) 2009-06-22 2010-06-01 Operation control device, operation control method, and computer-readable recording medium for distinguishing an intended motion for gesture control
CN2010102060278A CN101930286B (zh) 2009-06-22 2010-06-13 操作控制装置及操作控制方法
EP10166068.6A EP2273345A3 (en) 2009-06-22 2010-06-15 Movement controlled computer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009147726A JP5187280B2 (ja) 2009-06-22 2009-06-22 操作制御装置および操作制御方法

Publications (2)

Publication Number Publication Date
JP2011003136A true JP2011003136A (ja) 2011-01-06
JP5187280B2 JP5187280B2 (ja) 2013-04-24

Family

ID=42555590

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009147726A Expired - Fee Related JP5187280B2 (ja) 2009-06-22 2009-06-22 操作制御装置および操作制御方法

Country Status (4)

Country Link
US (1) US9128526B2 (ja)
EP (1) EP2273345A3 (ja)
JP (1) JP5187280B2 (ja)
CN (1) CN101930286B (ja)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012234317A (ja) * 2011-04-28 2012-11-29 Ntt Docomo Inc 表示装置、表示装置の制御方法及びプログラム
JP2012234316A (ja) * 2011-04-28 2012-11-29 Ntt Docomo Inc 表示装置、表示装置の制御方法及びプログラム
JP2013037499A (ja) * 2011-08-05 2013-02-21 Toshiba Corp ジェスチャ認識装置、ジェスチャ認識方法およびジェスチャ認識プログラム
JP2013093011A (ja) * 2011-10-07 2013-05-16 Casio Comput Co Ltd 電子機器、及びプログラム
JP2014509103A (ja) * 2011-01-12 2014-04-10 ミュエシュトロ インターアクティーフェ ゲーエムベーハー 移動する物体をもとにして機構を制御する遠隔制御装置及びインタフェースモジュール
JP2015146058A (ja) * 2014-01-31 2015-08-13 富士通株式会社 情報処理装置、情報処理方法および情報処理プログラム
JP2015219885A (ja) * 2014-05-21 2015-12-07 株式会社デンソー ジェスチャ入力装置
WO2017065051A1 (ja) * 2015-10-16 2017-04-20 コニカミノルタ株式会社 入力装置、電子機器、電子機器の入力方法及びその入力プログラム
WO2017065050A1 (ja) * 2015-10-16 2017-04-20 コニカミノルタ株式会社 入力装置、電子機器、電子機器の入力方法及びその入力プログラム
JP2017182381A (ja) * 2016-03-30 2017-10-05 Necパーソナルコンピュータ株式会社 電子スタンプ認証装置、電子スタンプ認証方法、プログラム、及び電子スタンプ
JP2017531226A (ja) * 2014-08-07 2017-10-19 スターシップ ベンディング−マシーン コーポレーション 動作認識方法及び動作認識装置
JP2017224161A (ja) * 2016-06-15 2017-12-21 株式会社東海理化電機製作所 ジェスチャ判定装置
JP2018109873A (ja) * 2017-01-04 2018-07-12 京セラ株式会社 電子機器、プログラムおよび制御方法
JP2019204505A (ja) * 2018-05-25 2019-11-28 キヤノン株式会社 オブジェクト検出装置及び方法及び記憶媒体
JP7182324B1 (ja) 2022-03-14 2022-12-02 mirrorX株式会社 プログラム、情報処理装置及び方法

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120139827A1 (en) * 2010-12-02 2012-06-07 Li Kevin A Method and apparatus for interacting with projected displays using shadows
WO2012129474A1 (en) * 2011-03-24 2012-09-27 Beth Israel Deaconess Medical Center Medical image viewing and manipulation contactless gesture-responsive system and method
US9619018B2 (en) * 2011-05-23 2017-04-11 Hewlett-Packard Development Company, L.P. Multimodal interactions based on body postures
JP2013065112A (ja) * 2011-09-15 2013-04-11 Omron Corp ジェスチャ認識装置、電子機器、ジェスチャ認識装置の制御方法、制御プログラムおよび記録媒体
CN102662462B (zh) * 2012-03-12 2016-03-30 中兴通讯股份有限公司 电子装置、手势识别方法及手势应用方法
CN102662464A (zh) * 2012-03-26 2012-09-12 华南理工大学 一种手势漫游控制***的手势控制方法
US9789393B2 (en) * 2012-06-25 2017-10-17 Omron Corporation Motion sensor, object-motion detection method, and game machine
US10241639B2 (en) 2013-01-15 2019-03-26 Leap Motion, Inc. Dynamic user interactions for display control and manipulation of display objects
WO2014113507A1 (en) * 2013-01-15 2014-07-24 Leap Motion, Inc. Dynamic user interactions for display control and customized gesture interpretation
WO2014112635A1 (ja) * 2013-01-18 2014-07-24 株式会社東芝 動作情報処理装置
US10620709B2 (en) 2013-04-05 2020-04-14 Ultrahaptics IP Two Limited Customized gesture interpretation
CN104460976B (zh) * 2014-02-19 2017-01-11 同济大学 基于等心率步行速度换算在被动式漫游控制模块中的应用
CN103941857A (zh) * 2014-02-22 2014-07-23 浙江大学 基于手势交互中人体骨骼提取的自适应界面生成方法
KR102265143B1 (ko) * 2014-05-16 2021-06-15 삼성전자주식회사 입력 처리 장치 및 방법
KR20150144179A (ko) * 2014-06-16 2015-12-24 삼성전자주식회사 영상에서 대상체 부위의 위치를 추정하기 위한 방법 및 장치
US9946354B2 (en) * 2014-08-29 2018-04-17 Microsoft Technology Licensing, Llc Gesture processing using a domain-specific gesture language
KR101729195B1 (ko) * 2014-10-16 2017-04-21 한국전자통신연구원 질의동작기반 안무 검색 시스템 및 방법
CN107961022A (zh) * 2016-10-20 2018-04-27 上海东软医疗科技有限公司 控制医疗设备的运动机构的方法及装置
DE102017216000A1 (de) * 2017-09-11 2019-03-14 Conti Temic Microelectronic Gmbh Gestensteuerung zur Kommunikation mit einem autonomen Fahrzeug auf Basis einer einfachen 2D Kamera
US11875012B2 (en) 2018-05-25 2024-01-16 Ultrahaptics IP Two Limited Throwable interface for augmented reality and virtual reality environments

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003228458A (ja) * 2002-02-05 2003-08-15 Takenaka Komuten Co Ltd 指示動作認識装置及び方法
JP2004258837A (ja) * 2003-02-25 2004-09-16 Nippon Hoso Kyokai <Nhk> カーソル操作装置、その方法およびそのプログラム
JP2005031799A (ja) * 2003-07-08 2005-02-03 Sony Computer Entertainment Inc 制御システムおよび制御方法
JP2006209563A (ja) * 2005-01-31 2006-08-10 Victor Co Of Japan Ltd インターフェース装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999035633A2 (en) * 1998-01-06 1999-07-15 The Video Mouse Group Human motion following computer mouse and game controller
US6950534B2 (en) * 1998-08-10 2005-09-27 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US20020126090A1 (en) * 2001-01-18 2002-09-12 International Business Machines Corporation Navigating and selecting a portion of a screen by utilizing a state of an object as viewed by a camera
US7180502B2 (en) * 2004-03-23 2007-02-20 Fujitsu Limited Handheld device with preferred motion selection
JP4172793B2 (ja) * 2004-06-08 2008-10-29 株式会社東芝 ジェスチャ検出方法、ジェスチャ検出プログラムおよびジェスチャ検出装置
JP4686595B2 (ja) * 2005-03-17 2011-05-25 本田技研工業株式会社 クリティカルポイント解析に基づくポーズ推定
JP4267648B2 (ja) * 2006-08-25 2009-05-27 株式会社東芝 インターフェース装置及びその方法
KR100855471B1 (ko) * 2006-09-19 2008-09-01 삼성전자주식회사 입력 장치 및 상기 입력 장치의 이동 정보를 제공하는 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003228458A (ja) * 2002-02-05 2003-08-15 Takenaka Komuten Co Ltd 指示動作認識装置及び方法
JP2004258837A (ja) * 2003-02-25 2004-09-16 Nippon Hoso Kyokai <Nhk> カーソル操作装置、その方法およびそのプログラム
JP2005031799A (ja) * 2003-07-08 2005-02-03 Sony Computer Entertainment Inc 制御システムおよび制御方法
JP2006209563A (ja) * 2005-01-31 2006-08-10 Victor Co Of Japan Ltd インターフェース装置

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014509103A (ja) * 2011-01-12 2014-04-10 ミュエシュトロ インターアクティーフェ ゲーエムベーハー 移動する物体をもとにして機構を制御する遠隔制御装置及びインタフェースモジュール
US9451237B2 (en) 2011-01-12 2016-09-20 Myestro Interactive Gmbh Remote control device for controlling a mechanism with the aid of a movable object and an interface module based on movement and distance of the movable object with respect to a camera
JP2012234316A (ja) * 2011-04-28 2012-11-29 Ntt Docomo Inc 表示装置、表示装置の制御方法及びプログラム
JP2012234317A (ja) * 2011-04-28 2012-11-29 Ntt Docomo Inc 表示装置、表示装置の制御方法及びプログラム
JP2013037499A (ja) * 2011-08-05 2013-02-21 Toshiba Corp ジェスチャ認識装置、ジェスチャ認識方法およびジェスチャ認識プログラム
JP2013093011A (ja) * 2011-10-07 2013-05-16 Casio Comput Co Ltd 電子機器、及びプログラム
JP2015146058A (ja) * 2014-01-31 2015-08-13 富士通株式会社 情報処理装置、情報処理方法および情報処理プログラム
JP2015219885A (ja) * 2014-05-21 2015-12-07 株式会社デンソー ジェスチャ入力装置
JP2017531226A (ja) * 2014-08-07 2017-10-19 スターシップ ベンディング−マシーン コーポレーション 動作認識方法及び動作認識装置
US10713479B2 (en) 2014-08-07 2020-07-14 Starship Vending-Machine Corp. Motion recognition method and motion recognition device for recognizing motion of user received via NUI device by comparing with preset comparison target information
WO2017065051A1 (ja) * 2015-10-16 2017-04-20 コニカミノルタ株式会社 入力装置、電子機器、電子機器の入力方法及びその入力プログラム
WO2017065050A1 (ja) * 2015-10-16 2017-04-20 コニカミノルタ株式会社 入力装置、電子機器、電子機器の入力方法及びその入力プログラム
JP2017182381A (ja) * 2016-03-30 2017-10-05 Necパーソナルコンピュータ株式会社 電子スタンプ認証装置、電子スタンプ認証方法、プログラム、及び電子スタンプ
JP2017224161A (ja) * 2016-06-15 2017-12-21 株式会社東海理化電機製作所 ジェスチャ判定装置
JP2018109873A (ja) * 2017-01-04 2018-07-12 京セラ株式会社 電子機器、プログラムおよび制御方法
JP2019204505A (ja) * 2018-05-25 2019-11-28 キヤノン株式会社 オブジェクト検出装置及び方法及び記憶媒体
JP7182324B1 (ja) 2022-03-14 2022-12-02 mirrorX株式会社 プログラム、情報処理装置及び方法
JP2023133885A (ja) * 2022-03-14 2023-09-27 mirrorX株式会社 プログラム、情報処理装置及び方法

Also Published As

Publication number Publication date
EP2273345A2 (en) 2011-01-12
US9128526B2 (en) 2015-09-08
JP5187280B2 (ja) 2013-04-24
CN101930286A (zh) 2010-12-29
US20100325590A1 (en) 2010-12-23
CN101930286B (zh) 2013-01-09
EP2273345A3 (en) 2014-11-26

Similar Documents

Publication Publication Date Title
JP5187280B2 (ja) 操作制御装置および操作制御方法
US9746934B2 (en) Navigation approaches for multi-dimensional input
US10592049B2 (en) Systems and methods for using hover information to predict touch locations and reduce or eliminate touchdown latency
US8466934B2 (en) Touchscreen interface
KR100827243B1 (ko) 3차원 공간상에서 정보를 입력하는 정보 입력 장치 및 그방법
KR20100059698A (ko) 유저인터페이스 제공 장치, 제공방법, 및 이를 기록한 컴퓨터 판독 가능한 기록매체
JP2010224764A (ja) タッチパネル式ディスプレイを持った携帯型ゲーム装置
JP2019505024A (ja) タッチ感知面−ディスプレイによるジェスチャー制御式インタラクティブ方法及び装置
WO2018177156A1 (zh) 一种移动终端的操作方法及移动终端
JP6033061B2 (ja) 入力装置およびプログラム
US20150091803A1 (en) Multi-touch input method for touch input device
CN108132721B (zh) 生成拖动手势的方法、触控装置以及便携式电子设备
TW201626168A (zh) 手勢辨識裝置及手勢辨識方法
JP5769841B2 (ja) タッチパネル式ディスプレイを持った携帯型ゲーム装置
US9720513B2 (en) Apparatus and method for receiving a key input
JP6126639B2 (ja) タッチパネル式ディスプレイを持った携帯型ゲーム装置及びゲームプログラム。
TWI603226B (zh) 體感偵測器之手勢辨識方法
JP6204414B2 (ja) ゲーム装置及びプログラム
JP5769765B2 (ja) タッチパネル式ディスプレイを持った携帯型ゲーム装置
KR101634907B1 (ko) 터치스크린 입력 방법 및 장치
JP2011172939A (ja) タッチパネル式ディスプレイを持った携帯型ゲーム装置
HANI Detection of Midair Finger Tapping Gestures and Their Applications
US20100271304A1 (en) Method for determining mouse command according to trigger points
JP2014219879A (ja) 情報処理装置、情報処理方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121225

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130107

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160201

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160201

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees