JP2013069273A - 入力体の動き検出方法およびそれを用いた入力デバイス - Google Patents

入力体の動き検出方法およびそれを用いた入力デバイス Download PDF

Info

Publication number
JP2013069273A
JP2013069273A JP2012185199A JP2012185199A JP2013069273A JP 2013069273 A JP2013069273 A JP 2013069273A JP 2012185199 A JP2012185199 A JP 2012185199A JP 2012185199 A JP2012185199 A JP 2012185199A JP 2013069273 A JP2013069273 A JP 2013069273A
Authority
JP
Japan
Prior art keywords
coordinates
hand
fist
fingertip
gravity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012185199A
Other languages
English (en)
Inventor
Noriyuki Juji
紀行 十二
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nitto Denko Corp
Original Assignee
Nitto Denko Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nitto Denko Corp filed Critical Nitto Denko Corp
Priority to JP2012185199A priority Critical patent/JP2013069273A/ja
Publication of JP2013069273A publication Critical patent/JP2013069273A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Health & Medical Sciences (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Image Input (AREA)

Abstract

【課題】1台の光学的撮像手段を用いた画像解析から、人の手先の三次元的な動きを検出することのできる入力体の動き検出方法と、この動き検出方法を用いた指示操作用の入力デバイスを提供する。
【解決手段】光源Lと、手先Hに対して光源Lと同じ側に配置された光学的撮像手段(カメラC)と、制御手段と、上記カメラCで得られた二次元画像から、拳の形状の分布重心の座標Gと指の先端の座標Tとを算出する形状認識手段と、上記拳の重心座標Gと指先座標Tの間の距離(d)を比較する動き判定手段と、を備えている。これにより、上記拳の重心座標Gと指先座標Tの間の距離(d)が、計測前後で縮小または拡大した場合に、その際の手先Hの動きを、上記カメラCの仮想撮影平面Pに対する指の上下動(Z方向の動き)として判断することができる。
【選択図】図1

Description

本発明は、入力デバイスにおいて座標の入力に用いられる手先の動きの検出方法と、それを用いた入力デバイスに関するものである。
表示された二次元映像または三次元映像とインタラクションすることのできる装置のユーザインタフェースとして、人の手先や指等を操作用の入力体として用いる入力デバイスが開発されている。この入力デバイスは、カメラ等の光学的撮像手段を複数有する三次元位置計測システムを備えており、撮影位置や撮影角度が決められた各カメラから得られる画像(二次元画像)にもとづいて、対象となる物体(入力体)の三次元位置や三軸(XYZ軸)座標等を演算により求め、その座標値を、表示装置等の制御手段(コンピュータ等)に出力する(例えば、特許文献1,2を参照)。
例えば、図8に示すような、互いに直交する三軸(XYZ軸)方向の入力体(手先H)の座標を検出する入力デバイスの場合、入力体を撮影する光学的撮像手段として、上記入力体を下方(Z軸方向)から撮影するカメラC1と、この入力体を上記カメラC1の撮影方向と直交する方向(図では左方:X軸方向)から撮影するカメラC2の2台のカメラを備えている。そして、光源(図示省略)から投射された光の入力体(手先H)による反射光(像)を、上記下方のカメラC1に対応する二次元画像(仮想撮影平面P1,XY方向)と、上記左方のカメラC2に対応する二次元画像(仮想撮影平面P2,YZ方向)として取得するとともに、得られた各画像にもとづいて、コンピュータ等を用いた演算により、手先Hの指先等の形状を認識して抽出し、各画像に共通のパラメータ(この例ではY軸方向の座標値)を用いてデータを合成することにより、上記手先Hの三軸(XYZ軸)方向の座標を検知・出力することができる。また、上記画像取得−形状認識−座標合成の各ステップを繰り返すことにより、上記手先Hの三次元的な動き(座標および軌跡)を検知・出力することができる。
特開平9−53914号公報 特開平11−23262号公報
しかしながら、上記のような従来の入力デバイスに用いられる三次元位置計測システムは、必ず複数台のカメラが必要で、設備が大掛かりかつ高価になってしまう場合が多い。しかも、周囲の環境や装置の構造によっては、各カメラを、撮影に最適な位置に配設できるとは限らず、操作者が違和感を感じる位置に配置される場合もある。さらに、そのカメラが、操作者の認識できる視野内に入ってしまう場合は、操作に慣れていない人の手の動きが、不自然になったり、滑らかでなくなってしまうおそれもある。
本発明は、このような事情に鑑みなされたもので、1台の光学的撮像手段を用いた画像解析から、人の手先の三次元的な動きを検出することのできる入力体の動き検出方法と、この動き検出方法を用いた指示操作用の入力デバイスの提供をその目的とする。
上記の目的を達成するため、本発明は、入力デバイスにおいて座標の入力に用いられる手先の三次元の動きをひとつの光学的撮像手段で検出する方法であって、拳を含む手先の上方または下方に配置された光源から、この手先に向けて光を投射するステップと、上記手先に対して光源と同じ側に光学的撮像手段を配置して、この手先による上記光の反射を、仮想撮影平面上の二次元画像として取得するステップと、上記二次元画像に、互いに直交する二軸の座標を割り当て、この画像のなかから、拳の形状とこの拳から突出する指の先端位置とを認識して抽出した後、演算により、拳の面積の分布重心の座標と指先の座標とを算出するステップと、上記光を投射するステップと二次元画像を取得するステップと拳の重心座標および指先座標を算出するステップとを繰り返し、この繰り返しの前後における上記拳の重心座標と指先座標の間の距離とを比較するとともに、上記繰り返しの前後で上記拳の重心座標と指先座標の間の距離が変化していない場合は、上記拳を含む手先が上記仮想撮影平面方向にスライド移動したと判定し、上記繰り返しの前後で上記拳の重心座標と指先座標の間の距離が変化している場合は、この指先が上記手先の手首または肘を支点に上下方向に回動したと判定するステップと、を備える入力体の動き検出方法を第1の要旨とする。
また、同じ目的を達成するために、本発明は、デバイスの入力体として使用する拳を含む手先の上方または下方に配置された光源と、上記手先に対して上記光源と同じ側に配置された光学的撮像手段と、これら光源と光学的撮像手段を制御する制御手段と、上記光源から手先に向かって投射された光の反射を二次元画像として取得し、この二次元画像から、拳の形状の分布重心に相当する座標とこの拳から突出する指の先端位置に相当する座標とを算出する形状認識手段と、所定の時間間隔の前後で、上記拳の重心座標と上記指先座標の間の距離を比較し、この距離が上記時間間隔の前後で縮小または拡大した場合に、その際の手先の動きを、上記光学的撮像手段の仮想撮影平面に対する指の上下動として判断する動き判定手段と、を備える入力デバイスを第2の要旨とする。
すなわち、本発明者は、前記課題を解決するため鋭意研究を重ね、1台のカメラで撮影した時の手先の動き(画像)を詳細に検証した。そして、手先のなかでも、指先部分の動き方と、拳(掌)部分の動き方に違いがあること発見し、そこに着目して、さらに研究を重ねた。その結果、手先を傾けた時でも比較的移動の少ない拳の重心座標(画像上のドット分布の重心点であり、手首の回動支点に近い略不動点)を基準に、手先を傾けた時に大きく移動する指先の座標の動きを追跡することにより、上記カメラの撮影面に対して垂直な方向成分を含む指先の動き(すなわち「上下動」)を検出できることを見出し、本発明に到達した。
本発明は、以上のような知見にもとづきなされたものであり、本発明の入力体の動き検出方法は、拳を含む手先に向けて光を投射するステップと、1台の光学的撮像手段で、この手先による上記光の反射を二次元画像として取得するステップと、この画像のなかから、拳の面積の分布重心の座標と指先の座標とを認識するステップと、上記各ステップを繰り返し、その繰り返しの前後における上記拳の重心座標と指先座標の間の距離を比較するとともに、この比較結果から、上記指先および拳の動きを判定するステップと、を備える。これにより、本発明の入力体の動き検出方法は、上記繰り返しの前後で上記拳の重心座標と指先座標の間の距離が変わらない場合は、上記拳を含む手先全体が上記光学的撮像手段の撮影平面(仮想平面)方向にスライド移動したと判定し、上記拳の重心座標と指先座標の間の距離が変化した場合は、この指先が上記手先の手首または肘を支点に、上記撮影平面に対して上下方向に回動したと判定する。したがって、本発明の入力体の動き検出方法は、1台の光学的撮像手段のみを用いて、その画像解析から、人の手先の三次元的な動きを検出することができる。
また、本発明の入力デバイスは、光源と、上記光源と同じ側に配置された光学的撮像手段と、制御手段と、上記学的撮像手段で得られた二次元画像から、拳の形状の分布重心の座標と指の先端の座標とを算出する形状認識手段と、所定の時間間隔の前後で、上記拳の重心座標と上記指先座標の間の距離を比較する動き判定手段と、を備えている。そのため、上記拳の重心座標と上記指先座標の間の距離が、上記時間間隔の前後で縮小または拡大した場合に、その際の手先の動きを、上記光学的撮像手段の仮想撮影平面に対する指の上下動(光学的撮像手段に対して垂直方向の動き)として判断することができる。これにより、本発明の入力デバイスは、装備している1台の光学的撮像手段のみを用いて、その画像解析から、人の手先の三次元的な動きを検出することが可能になる。
また、本発明の入力デバイスは、上記のように、1台の光学的撮像手段のみで済むことから、簡単な設備かつ低コストで、三次元的な動きを検出する入力デバイスを構成することができる。しかも、上記光学的撮像手段(カメラ等)の配置の自由度が向上するため、このカメラ等を、操作者が意識することのない位置に配設する(隠す)ことが可能になる。したがって、本発明の入力デバイスは、操作初心者でも入力が容易な、直感的でユーザフレンドリーなデバイスとすることができる。
(a)〜(c)は、本発明の実施形態の入力デバイスにおける手先の座標の検出方法を説明する図である。 本発明の入力デバイス内における手先の動きの第1のパターンを示す図である。 (a),(b)は、本発明の実施形態の入力デバイスにおける手先の動き(XY方向)の検出方法を説明する図である。 本発明の入力デバイス内における手先の動きの第2のパターンを示す図である。 (a),(b)は、本発明の実施形態の入力デバイスにおける手先の動き(Z方向)の検出方法を説明する別の図である。 本発明の入力デバイスにおけるカメラユニットの他の配置例を示す図である。 本発明の入力デバイスにおけるカメラユニットのさらに他の配置例を示す図である。 従来の入力デバイスにおける三次元位置計測システムを説明する図である。
つぎに、本発明の実施の形態を、図面にもとづいて詳しく説明する。ただし、本発明は、この実施の形態に限定されるものではない。
図1(a)は、本発明の実施形態の入力デバイスにおける手先Hの座標の検出方法を説明する図であり、図1(b)は上記入力デバイスの光学的撮像手段(カメラC)で撮影した二次元(仮想撮影平面P)の画像H’の模式図、図1(c)は上記手先Hの二次元画像H’を二値化した画像H”の模式図である。なお、図1を含め、後記の各図においては、カメラCと光源Lを制御する制御手段や形状認識手段,動き判定手段等の機能を備え、上記カメラCと接続されるコンピュータの図示を省略している。
本実施形態における入力デバイスは、デバイスの入力体として使用する、拳を含む手先Hの三次元の動きを、ひとつの光学的撮像手段(カメラC)で検出するためのものであり、図1(a)のように、上記手先Hの下方(略鉛直下方)に、イメージセンサを備えるカメラCと、このカメラCの周囲に配置された複数の光源Lとからなるカメラユニットが、配設されている。
そして、この入力デバイスは、形状認識手段(図示省略)により、上記各光源Lから手先Hに向かって投射された光の反射(像)を、図1(b)に示すように、XY方向の座標軸を有する仮想撮影平面P上の二次元画像H’として取得した後、この取得した二次元画像H’を、図1(c)のように、しきい値にもとづいて二値化したうえで、その二値化画像H”のなかから、上記手先Hの拳の形状(図中の実線斜線部分)を識別して、この拳の面積分布の重心に相当する座標(重心座標G)を算出・特定するとともに、上記二値化画像H”のなかから、拳から突出する指(図中の点線斜線部分)を識別し、その先端位置に相当する座標(指先座標T)を算出・特定する。
さらに、上記入力デバイスは、上記光源Lからの光の投射と、カメラCによる二次元画像H’の取得と、この二次元画像にもとづく拳の重心座標Gおよび指先座標Tの算出とを繰り返すとともに、動き判定手段(図示省略)により、上記繰り返しの前後で、拳の重心座標Gと指先座標Tの間の距離が変化した場合〔図4および図5(a)参照〕に、その際の手先Hの動きを、上記カメラCの仮想撮影平面Pに対する指の上下動(Z方向の動き)として判断するようになっている。これが、本発明の入力デバイスの特徴である。
上記入力デバイスおよびその入力体(手先H)の動きの検出に用いられる検出方法を、より詳しく説明すると、上記手先Hの下方に配置されるカメラユニットは、図1(a)のように、カメラCと、このカメラCの周囲に配置された複数(この例では3個)の光源Lとから構成されている。上記カメラCとしては、CMOSあるいはCCD等のイメージセンサを用いることができる。なお、本発明の入力デバイスで使用する光学的撮像手段としては、上記CMOSイメージセンサまたはCCDイメージセンサを用いたカメラCの他、フォトダイオード,フォトトランジスタ,フォトIC,フォトリフレクタ等の光電変換素子を用いた各種光学式センサ、具体的には、1次元または2次元PSD(Position Sensitive Detector)や、焦電型赤外線センサ,CdSセンサ等を用いることができる。
また、上記光源Lとしては、例えば、赤外LED等の発光体あるいはランプ等を用いることができる。なお、上記光源Lとしては、入力する操作者の視界を妨げないように、可視光以外の領域の光を発する発光体を使用することが望ましい。さらに、上記カメラユニットは、入力体(手先H)の下方に手先Hに対して傾斜して配置(図6参照)してもよく、上記手先Hの上方に配設(図7参照)してもよい。
上記入力デバイスの検知領域内に差し入れた手先Hの動きの検出方法を、その過程(ステップ)ごとに順を追って説明する。
上記手先Hの動きを検出する際は、まず、図1(a)に示すように、拳を含む手先Hの下方(または上方)に配置された各光源Lから、この手先Hに向けて光を投射する。なお、この投光は間欠発光でもよい〔投光ステップ〕。ついで、光を投射した状態で、上記手先Hに対して光源Lと同じ側(この例では下方)に配設されたカメラCによりこの手先Hを撮影し、その手先Hによる上記光の反射(反射光あるいは反射像)を、図1(b)に示すように、互いに直交するXY方向の座標軸を有する二次元画像H’(仮想撮影平面Pに対応する画像)として取得する〔撮像ステップ〕。
つぎに、得られた上記二次元画像H’を、しきい値にもとづいて二値化した後、図1(c)に示すように、その二値化画像H”のなかから、上記手先Hの拳の形状(図中の実線斜線部分)を識別し、この拳の面積の分布重心に相当する座標(重心座標G)を、演算により算出する。同様に、上記二値化画像H”のなかから、拳から突出する指(図中の点線斜線部分)を識別し、その先端位置に相当する座標(指先座標T)を、演算により算出する。そして、これら拳の重心座標Gおよび指先座標Tを、制御手段(コンピュータ)等の記憶手段に記憶する〔座標特定ステップ〕。
その後、決められた時間間隔で、上記光を投射するステップ〔投光ステップ〕と、二次元画像を取得するステップ〔撮像ステップ〕と、拳の重心座標Gおよび指先座標Tを算出するステップ〔座標特定ステップ〕とを繰り返し、この繰り返し後の拳の重心座標Gおよび指先座標Tを改めて計測する〔計測ステップ〕。
そして、上記繰り返しの経過前後の拳の重心座標G(Xm,Yn)と指先座標T(Xp,Yq)の値を用いて、上記拳の重心座標Gと指先座標Tの間の距離の変化を算出し、その結果により、上記手先Hの動きを、後記の2つのパターン、すなわち、手先Hが水平にスライドした第1のパターン(図2参照)か、手先Hが上下に振れた第2のパターン(図4参照)かを判定し、上記指先座標Tの移動方向(XYZ方向)とその移動量を、制御手段等を介して表示装置等の外部に出力する〔判定ステップ〕。
上記手先Hの動きを判定する第1のパターンとして、まず、図2に示すような、手先(入力体)が水平方向にスライド移動(H0→H1)した場合を説明する。このように、手先H0がH1までスライドした場合、先に述べた拳の重心座標Gと指先座標Tは、図3(a)の二値化画像のように移動する。すなわち、拳の重心座標Gは、図中に二点鎖線で示される移動前の最初の位置(座標G0)から、実線で示す移動後の位置(座標G1)まで移動し、上記指先座標Tは、上記拳の重心座標Gと平行に、移動前の最初の位置(座標T0)から、実線で示す移動後の位置(座標T1)まで移動する。この際、上記〔計測ステップ〕の繰り返しにより、移動前の手先H0の拳の重心座標G0と指先座標T0の間の距離d0と、移動後の手先H1の拳の重心座標G1と指先座標T1の間の距離d1が算出される。そして、上記〔判定ステップ〕により、上記移動前の座標G0−座標T0間の距離d0と、移動後の座標G1−座標T1間の距離d1とを比較して、これら間に差がなければ(変化がなければ)、この入力デバイスの動き判定手段が、手先Hが図2のように水平方向にスライド移動したと判断し、移動後の指先座標T1のXY座標値あるいは指先座標Tの移動方向と距離(座標T0−座標T1間)を、入力体のデータとして外部に出力する。
なお、上記手先Hの動きを判定する際に、図3(b)に示すように、XY方向の座標軸を有する仮想撮影平面P上に、上記指先座標Tの動き(T0→T1)をエリアごとに4つの方向〔X(+),X(−),Y(+),Y(−)〕に割り当てる識別領域を設定しておいてもよい。このように構成すれば、上記〔判定ステップ〕による手先Hの動きの判定と同時に、上記入力デバイスを、コンピュータ等におけるマウス装置やタブレット装置等のように、上記手先Hの動きに対応して、この指先座標Tの移動により4方向(XYそれぞれの+−方向)の信号を簡易的に出力する、ポインティングデバイスとして機能させることができる。なお、上記識別領域におけるエリアの設定角度αや形状,配置等は、上記信号を出力する機器やアプリケーション等に応じて設定すればよい。
つぎに、上記〔判定ステップ〕において手先Hの動きを判定する第2のパターンとして、図4に示すように、手先(入力体)が上下動(H0→H2)した場合は、上記拳の重心座標Gと指先座標Tは、図5(a)の二値化画像のように移動する。すなわち、上記のような場合、上記手先Hの動きは、手首または肘等を支点にした回動運動であるため、拳の重心座標Gは、図中に二点鎖線で示される移動前の最初の位置(座標G0)からほとんど移動せず、近傍の実線で示す位置(座標G2)に留まる。一方、指先座標Tは、上記のような手首または肘等を支点にした回動運動であっても、移動前の最初の位置(座標T0)から比較的離れた、実線で示す移動後の位置(座標T2)まで移動し、拳の重心座標G位置に近づくように動く。この際、先に述べたスライド移動のパターンと同様、上記〔計測ステップ〕の繰り返しにより、移動前の手先H0の拳の重心座標G0と指先座標T0の間の距離d0と、移動後の手先H2の拳の重心座標G2と指先座標T2の間の距離d2を算出し、上記〔判定ステップ〕により、上記移動前の距離d0と移動後の距離d2とを比較してみると、移動後の距離d2が短く(d2<d0)なっていることがわかる。これにより、上記入力デバイスおよびその動き判定手段は、上記手先Hが図4のように上下方向(Z方向)に揺動したと判断し、その信号を入力体のデータとして外部に出力する。
上記手先HのZ軸方向への上下動、すなわち、二値化画像上において上記指先座標Tが重心座標Gへ近づく動きの検出方法(画像処理のフロー)をより詳しく説明すると、まず、先に述べたように、拳を含む手先Hの下方に配置された各光源L(赤外LED)から赤外線を投射し、同様に手先Hの下方に配置されたカメラCで、手先Hの反射(二次元画像)を撮影し、この二次元画像に、XY方向の座標軸を割り振る。ついで、形状認識手段(プログラム)により、二値化するための明るさ(輝度)のしきい値を最適に設定し、上記二次元画像に二値化処理を施したうえで、細線化処理により、図5(a)のように、手先Hの外形形状を鮮明化する。
つぎに、上記鮮明化した二値化画像を用いて、形状認識手段(プログラム)により指の部位を識別し、その先端部分に相当する座標〔指先座標T(Xp,Yq)〕を算出する。ついで、同様のプログラムにより、上記手先Hの拳の形状(図1(c)の実線斜線部分を参照)を識別して、この拳の面積分布の重心に相当する座標〔重心座標G(Xm,Yn)〕を算出する。
この算出の際、重心座標GのX軸方向の座標の演算には、下記式(1)が用いられる。
重心座標GのXm=拳の形状内に存在する画素のX座標の値の合計値/拳の形状内に存在する画素の数・・・(1)
また、重心座標GのY軸方向の座標の演算には、下記式(2)が用いられる。
重心座標GのYn=拳の形状内に存在する画素のY座標の値の合計値/拳の形状内に存在する画素の数・・・(2)
つぎに、指先座標T(Xp,Yq)および拳の重心座標G(Xm,Yn)が特定されたところで、先に述べたように、上記光を投射するステップ〔投光ステップ〕と、二次元画像を取得するステップ〔撮像ステップ〕と、拳の重心座標Gおよび指先座標Tを算出するステップ〔座標特定ステップ〕とを繰り返し、図5(a)のように、移動前の手先H0の拳の重心座標G0と指先座標T0の間の距離d0と、移動後の手先H2の拳の重心座標G2と指先座標T2の間の距離d2とを、比較する。
これら拳の重心座標Gと指先座標Tの間の距離dの比較方法について、さらに詳しく説明する。図5(b)は、上記拳の重心座標Gと指先座標Tの間の距離dの比較方法を、原理的に説明する図である。
上記拳の重心座標Gと指先座標Tの間の距離dを比較して、手先Hが上下動したと判断する場合、本例では、この距離dの差にしきい値(下限)を設ける他に、もう1つの条件が設けられている。その条件とは、図5(b)に示すように、移動前の手先H0の拳の重心座標G0と指先座標T0を結んだ線分Aと、移動後の手先H2の拳の重心座標G2と指先座標T2を結んだ線分Bとの間の角度θ〔図面上では、基準線と線分Aがなす角度θ1と、同じ基準線と線分Bがなす角度θ2の差(θ1−θ2)の絶対値、として表される〕が、所定のしきい値以下であることである。この条件は、指の折り曲げ等の動作を、上記手先Hの上下動と誤判定しないために設けられているもので、このように、上記動き判定手段または動き判定プログラムに、上記「距離dの差」が設定値以上で、かつ、「角度θ1と角度θ2の差」が設定値以上、との判断基準を設定することにより、上記手先Hの上下動の誤判定を防止することができる。なお、手先Hの動きが上記2つの条件を同時に満たさない場合、その手先の動きは、先に述べた手先Hのスライド移動(前記第1のパターン)として判断されるようになっている。
上記のように、本発明の入力体の動き検出方法は、上記拳の重心座標Gと上記指先座標Tの間の距離が計測の前後で縮小または拡大した場合に、その際の手先Hの動きを、上記光学的撮像手段(カメラC)の仮想撮影平面Pに対する指の上下動として判断することができる。
また、上記入力体の動き検出方法を用いた本発明の入力デバイスは、上記手先Hの下方または上方に配置された1台のカメラCのみを用いて、その画像解析から、人の手先HのZ軸方向への動き、すなわち三次元的な動きを検出することができる。
さらに、上記入力デバイスは、Z軸方向への動きが検出可能なことから、例えば、手先Hの水平方向(XY方向)への動きを、表示装置等のカーソル移動操作に割り当て、上記Z軸方向への動きを、決定(クリック)操作に割り当てることも可能である。
また、別の操作方法として、X軸(左右)方向およびZ軸(上下)方向の手先Hの動きを、表示装置上の対象物の移動操作に割り当て、Y軸(前後)方向の動きを、上記対象物の拡大・縮小操作に割り当てることができる。このように、本発明の入力デバイスは、三次元(3D)映像等に対しても、本来の三次元(XYZの三軸)情報に見合った操作が可能である。また、現実の三次元空間と同じ操作環境に近づくことで、より直感的な操作が可能になるというメリットもある。
なお、先にも述べたように、本発明の入力体の動き検出方法は、上記カメラユニットを、入力体(手先H)の下方に傾斜状に配置(図6)しても、上記手先Hの上方に配置(図7)しても、同様に、人の手先Hの三次元的な動きを検出することができる。すなわち、図6のように、手先Hの下方に傾斜状に配置した場合、この光学的撮像手段(カメラC)は、上記手先Hの真下に配設した場合(図4)と同様にして、仮想撮影平面P’に対する手先Hの上下動(Z方向の動き)を認識・判定することができる。
また、図7のように、手先Hの上方に配置した場合でも、同様に、光学的撮像手段(カメラC)が、仮想撮影平面P”に対する手先Hの上下動(Z方向の動き)を認識・判定することが可能である。したがって、上記カメラユニットは、手先Hが、腕やその他の撮像の障害となるものに隠れて影とならない位置であれば、どのようにでも配設することができる。ただし、本発明の光学的撮像手段は、上記手先Hの反射光を撮像・認識するものであるため、カメラユニットを構成するカメラCと光源Lとは、入力体(手先H)に対して上方または下方の同じ側に配置される。
本発明の入力体の動き検出方法およびそれを用いた入力デバイスは、複数台のカメラを用いることなく、1台のカメラのみを用いて、人の手先の三次元的な動きを検出することができる。これにより、三次元(3D)映像等に対しても、現実の三次元空間と同様、より直感的な操作が可能になる。
H 手先
C カメラ
L 光源
P 仮想撮影平面
G 拳の重心座標
T 指先座標

Claims (2)

  1. 入力デバイスにおいて座標の入力に用いられる手先の三次元の動きをひとつの光学的撮像手段で検出する方法であって、拳を含む手先の上方または下方に配置された光源から、この手先に向けて光を投射するステップと、上記手先に対して光源と同じ側に光学的撮像手段を配置して、この手先による上記光の反射を、仮想撮影平面上の二次元画像として取得するステップと、上記二次元画像に、互いに直交する二軸の座標を割り当て、この画像のなかから、拳の形状とこの拳から突出する指の先端位置とを認識して抽出した後、演算により、拳の面積の分布重心の座標と指先の座標とを算出するステップと、上記光を投射するステップと二次元画像を取得するステップと拳の重心座標および指先座標を算出するステップとを繰り返し、この繰り返しの前後における上記拳の重心座標と指先座標の間の距離とを比較するとともに、上記繰り返しの前後で上記拳の重心座標と指先座標の間の距離が変化していない場合は、上記拳を含む手先が上記仮想撮影平面方向にスライド移動したと判定し、上記繰り返しの前後で上記拳の重心座標と指先座標の間の距離が変化している場合は、この指先が上記手先の手首または肘を支点に上下方向に回動したと判定するステップと、を備えることを特徴とする入力体の動き検出方法。
  2. デバイスの入力体として使用する拳を含む手先の上方または下方に配置された光源と、上記手先に対して上記光源と同じ側に配置された光学的撮像手段と、これら光源と光学的撮像手段を制御する制御手段と、上記光源から手先に向かって投射された光の反射を二次元画像として取得し、この二次元画像から、拳の形状の分布重心に相当する座標とこの拳から突出する指の先端位置に相当する座標とを算出する形状認識手段と、所定の時間間隔の前後で、上記拳の重心座標と上記指先座標の間の距離を比較し、この距離が上記時間間隔の前後で縮小または拡大した場合に、その際の手先の動きを、上記光学的撮像手段の仮想撮影平面に対する指の上下動として判断する動き判定手段と、を備えることを特徴とする入力デバイス。
JP2012185199A 2011-09-07 2012-08-24 入力体の動き検出方法およびそれを用いた入力デバイス Pending JP2013069273A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012185199A JP2013069273A (ja) 2011-09-07 2012-08-24 入力体の動き検出方法およびそれを用いた入力デバイス

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011194938 2011-09-07
JP2011194938 2011-09-07
JP2012185199A JP2013069273A (ja) 2011-09-07 2012-08-24 入力体の動き検出方法およびそれを用いた入力デバイス

Publications (1)

Publication Number Publication Date
JP2013069273A true JP2013069273A (ja) 2013-04-18

Family

ID=47832004

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012185199A Pending JP2013069273A (ja) 2011-09-07 2012-08-24 入力体の動き検出方法およびそれを用いた入力デバイス

Country Status (7)

Country Link
US (1) US20140225826A1 (ja)
EP (1) EP2755115A4 (ja)
JP (1) JP2013069273A (ja)
KR (1) KR20140060297A (ja)
CN (1) CN103797446A (ja)
TW (1) TW201324258A (ja)
WO (1) WO2013035554A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015065341A1 (en) * 2013-10-29 2015-05-07 Intel Corporation Gesture based human computer interaction
JP2017049661A (ja) * 2015-08-31 2017-03-09 キヤノン株式会社 情報処理装置とその制御方法、プログラム、記憶媒体
JP2019139698A (ja) * 2018-02-15 2019-08-22 有限会社ワタナベエレクトロニクス 非接触入力システム、方法およびプログラム
JP7052128B1 (ja) 2021-07-20 2022-04-11 株式会社あかつき 情報処理システム、プログラム及び情報処理方法
JP7163526B1 (ja) 2021-07-20 2022-10-31 株式会社あかつき 情報処理システム、プログラム及び情報処理方法
JP2023016046A (ja) * 2022-03-30 2023-02-01 株式会社あかつき 情報処理システム、プログラム及び情報処理方法
JP2023016047A (ja) * 2021-07-20 2023-02-01 株式会社あかつき 情報処理システム、プログラム及び情報処理方法

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9679215B2 (en) 2012-01-17 2017-06-13 Leap Motion, Inc. Systems and methods for machine control
US9501152B2 (en) 2013-01-15 2016-11-22 Leap Motion, Inc. Free-space user interface and control using virtual constructs
US8693731B2 (en) * 2012-01-17 2014-04-08 Leap Motion, Inc. Enhanced contrast for object detection and characterization by optical imaging
US10691219B2 (en) 2012-01-17 2020-06-23 Ultrahaptics IP Two Limited Systems and methods for machine control
US8638989B2 (en) 2012-01-17 2014-01-28 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
US9070019B2 (en) 2012-01-17 2015-06-30 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
US11493998B2 (en) 2012-01-17 2022-11-08 Ultrahaptics IP Two Limited Systems and methods for machine control
TWI488092B (zh) 2012-12-07 2015-06-11 Pixart Imaging Inc 光學式觸控裝置及其操作方法
US9459697B2 (en) 2013-01-15 2016-10-04 Leap Motion, Inc. Dynamic, free-space user interactions for machine control
US9702977B2 (en) 2013-03-15 2017-07-11 Leap Motion, Inc. Determining positional information of an object in space
US9916009B2 (en) 2013-04-26 2018-03-13 Leap Motion, Inc. Non-tactile interface systems and methods
NL2011182C2 (en) * 2013-07-17 2015-01-21 Aesthetic Interactions B V Luminaire system.
US10281987B1 (en) 2013-08-09 2019-05-07 Leap Motion, Inc. Systems and methods of free-space gestural interaction
TWI507919B (zh) * 2013-08-23 2015-11-11 Univ Kun Shan 追蹤與記錄指尖軌跡的影像處理方法
US10846942B1 (en) 2013-08-29 2020-11-24 Ultrahaptics IP Two Limited Predictive information for free space gesture control and communication
US9632572B2 (en) 2013-10-03 2017-04-25 Leap Motion, Inc. Enhanced field of view to augment three-dimensional (3D) sensory space for free-space gesture interpretation
TWI499966B (zh) * 2013-10-08 2015-09-11 Univ Nat Taiwan Science Tech 互動式操作方法
US9412012B2 (en) 2013-10-16 2016-08-09 Qualcomm Incorporated Z-axis determination in a 2D gesture system
US9996638B1 (en) 2013-10-31 2018-06-12 Leap Motion, Inc. Predictive information for free space gesture control and communication
DE202014103729U1 (de) 2014-08-08 2014-09-09 Leap Motion, Inc. Augmented-Reality mit Bewegungserfassung
US10310675B2 (en) * 2014-08-25 2019-06-04 Canon Kabushiki Kaisha User interface apparatus and control method
CN105843456B (zh) * 2015-01-16 2018-10-12 致伸科技股份有限公司 触控装置
CN106201116B (zh) * 2015-05-05 2021-10-22 联想(北京)有限公司 信息处理方法及电子设备
US10222869B2 (en) * 2015-08-03 2019-03-05 Intel Corporation State machine based tracking system for screen pointing control
CN105832343B (zh) * 2016-05-22 2020-04-03 上海大学 多维视觉手功能康复定量评估***和评估方法
US11698457B2 (en) 2019-09-04 2023-07-11 Pixart Imaging Inc. Object detecting system and object detecting method
CN111124116A (zh) * 2019-12-18 2020-05-08 佛山科学技术学院 一种虚拟现实中与远距离物体交互方法及***

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11134089A (ja) * 1997-10-29 1999-05-21 Takenaka Komuten Co Ltd ハンドポインティング装置
JP2004171476A (ja) * 2002-11-22 2004-06-17 Keio Gijuku ハンドパターンスイッチ装置
JP2006099749A (ja) * 2004-08-31 2006-04-13 Matsushita Electric Works Ltd ジェスチャースイッチ

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3458543B2 (ja) * 1995-07-25 2003-10-20 株式会社日立製作所 手形状認識機能付き情報処理装置
JP2970835B2 (ja) 1995-08-14 1999-11-02 日本電気株式会社 三次元座標計測装置
JP2868449B2 (ja) * 1995-12-22 1999-03-10 株式会社エイ・ティ・アール通信システム研究所 手振り認識装置
EP0837418A3 (en) * 1996-10-18 2006-03-29 Kabushiki Kaisha Toshiba Method and apparatus for generating information input using reflected light image of target object
JPH1123262A (ja) 1997-07-09 1999-01-29 Nekusuta:Kk 三次元位置計測システム
JP3752246B2 (ja) * 2003-08-11 2006-03-08 学校法人慶應義塾 ハンドパターンスイッチ装置
JP4991458B2 (ja) * 2007-09-04 2012-08-01 キヤノン株式会社 画像表示装置及びその制御方法
JP5228439B2 (ja) * 2007-10-22 2013-07-03 三菱電機株式会社 操作入力装置
WO2010008088A1 (ja) * 2008-07-17 2010-01-21 日本電気株式会社 情報処理装置、プログラムを記録した記憶媒体及びオブジェクト移動方法
WO2012024022A2 (en) * 2010-08-20 2012-02-23 University Of Massachusetts Hand and finger registration for control applications

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11134089A (ja) * 1997-10-29 1999-05-21 Takenaka Komuten Co Ltd ハンドポインティング装置
JP2004171476A (ja) * 2002-11-22 2004-06-17 Keio Gijuku ハンドパターンスイッチ装置
JP2006099749A (ja) * 2004-08-31 2006-04-13 Matsushita Electric Works Ltd ジェスチャースイッチ

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015065341A1 (en) * 2013-10-29 2015-05-07 Intel Corporation Gesture based human computer interaction
US9304597B2 (en) 2013-10-29 2016-04-05 Intel Corporation Gesture based human computer interaction
JP2017049661A (ja) * 2015-08-31 2017-03-09 キヤノン株式会社 情報処理装置とその制御方法、プログラム、記憶媒体
JP2019139698A (ja) * 2018-02-15 2019-08-22 有限会社ワタナベエレクトロニクス 非接触入力システム、方法およびプログラム
JP7017675B2 (ja) 2018-02-15 2022-02-09 有限会社ワタナベエレクトロニクス 非接触入力システム、方法およびプログラム
JP7163526B1 (ja) 2021-07-20 2022-10-31 株式会社あかつき 情報処理システム、プログラム及び情報処理方法
JP7052128B1 (ja) 2021-07-20 2022-04-11 株式会社あかつき 情報処理システム、プログラム及び情報処理方法
JP2023015540A (ja) * 2021-07-20 2023-02-01 株式会社あかつき 情報処理システム、プログラム及び情報処理方法
JP2023016047A (ja) * 2021-07-20 2023-02-01 株式会社あかつき 情報処理システム、プログラム及び情報処理方法
JP2023015980A (ja) * 2021-07-20 2023-02-01 株式会社あかつき 情報処理システム、プログラム及び情報処理方法
JP7286857B2 (ja) 2021-07-20 2023-06-05 株式会社あかつき 情報処理システム、プログラム及び情報処理方法
JP2023016046A (ja) * 2022-03-30 2023-02-01 株式会社あかつき 情報処理システム、プログラム及び情報処理方法
JP7286856B2 (ja) 2022-03-30 2023-06-05 株式会社あかつき 情報処理システム、プログラム及び情報処理方法

Also Published As

Publication number Publication date
EP2755115A1 (en) 2014-07-16
US20140225826A1 (en) 2014-08-14
CN103797446A (zh) 2014-05-14
KR20140060297A (ko) 2014-05-19
EP2755115A4 (en) 2015-05-06
WO2013035554A1 (ja) 2013-03-14
TW201324258A (zh) 2013-06-16

Similar Documents

Publication Publication Date Title
WO2013035554A1 (ja) 入力体の動き検出方法およびそれを用いた入力デバイス
US9207773B1 (en) Two-dimensional method and system enabling three-dimensional user interaction with a device
US20210181857A1 (en) Systems and Methods of Creating a Realistic Displacement of a Virtual Object in Virtual Reality/Augmented Reality Environments
EP3035164B1 (en) Wearable sensor for tracking articulated body-parts
US8723789B1 (en) Two-dimensional method and system enabling three-dimensional user interaction with a device
US9600078B2 (en) Method and system enabling natural user interface gestures with an electronic system
US8971565B2 (en) Human interface electronic device
JP5658500B2 (ja) 情報処理装置及びその制御方法
JP4608326B2 (ja) 指示動作認識装置及び指示動作認識プログラム
US9494415B2 (en) Object position determination
WO2017147748A1 (zh) 一种可穿戴式***的手势控制方法以及可穿戴式***
JP2004094653A (ja) 情報入力システム
JP2014186715A (ja) 情報処理装置、情報処理方法
JP6528964B2 (ja) 入力操作検出装置、画像表示装置、プロジェクタ装置、プロジェクタシステム、及び入力操作検出方法
JP4644800B2 (ja) 3次元位置入力装置
JP2017219942A (ja) 接触検出装置、プロジェクタ装置、電子黒板装置、デジタルサイネージ装置、プロジェクタシステム、接触検出方法、プログラム及び記憶媒体。
JP6632298B2 (ja) 情報処理装置、情報処理方法及びプログラム
TWI471757B (zh) 懸浮及點擊手勢偵測裝置
TWI493382B (zh) 懸浮及點擊手勢偵測裝置
JP6618301B2 (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
JP6643825B2 (ja) 装置及び方法
JP2014182662A (ja) 操作装置及び操作方法
JP2018063555A (ja) 情報処理装置、情報処理方法及びプログラム
KR101695727B1 (ko) 스테레오 비전을 이용한 위치검출 시스템 및 위치검출 방법
JP2012113653A (ja) 制御装置、入力装置、入力判定方法、プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150520

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160209

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160809