JP2017102598A - 認識装置、認識方法および認識プログラム - Google Patents

認識装置、認識方法および認識プログラム Download PDF

Info

Publication number
JP2017102598A
JP2017102598A JP2015233926A JP2015233926A JP2017102598A JP 2017102598 A JP2017102598 A JP 2017102598A JP 2015233926 A JP2015233926 A JP 2015233926A JP 2015233926 A JP2015233926 A JP 2015233926A JP 2017102598 A JP2017102598 A JP 2017102598A
Authority
JP
Japan
Prior art keywords
distance
finger
fingertip
point
root
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015233926A
Other languages
English (en)
Inventor
厚一郎 新沼
Atsuichiro Niinuma
厚一郎 新沼
吉武 敏幸
Toshiyuki Yoshitake
敏幸 吉武
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2015233926A priority Critical patent/JP2017102598A/ja
Publication of JP2017102598A publication Critical patent/JP2017102598A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

【課題】複数種類のジェスチャを認識する認識装置、認識方法および認識プログラムを提供する。
【解決手段】認識装置100は、距離画像センサ50から利用者の視線方向の空間に存在する物体までの距離画像を距離画像センサから取得部110と、距離画像に含まれる物体の特徴点と基準点間の距離に基づいて、指先および指の根本を識別することで指領域を特定し、特定した指領域を基にして手領域を特定する特定部と、手領域に含まれる指先の位置と指の根本の位置との差分値を基にして、ジェスチャの種別を認識するジャスチャ認識部130を備える。
【選択図】図1

Description

本発明は、認識装置等に関する。
近年、HMD(Head Mounted Display)が普及している。HMDは、利用者の頭部に装着するディスプレイ装置であり、利用者にCG(Computer Graphics)映像や遠隔映像を見せることで、利用者は、バーチャルリアリティを体験することができる。
ここで、全画面型のHMDを装着した利用者は目がディスプレイによって覆われるため、利用者は、HMDを装着したまま、キーボード等の入力装置を操作することが難しく、映像内の視点を変更することが難しかった。このため、HMDを装着した利用者が所定のジェスチャ等を行うことで、映像内の視点を変更できる技術が求められている。
従来技術1について説明する。従来技術1は、Kinect(登録商標)等の固定センサを用いて、利用者の腕の移動に基づくジェスチャを認識し、6方向のナビゲーションを可能とするものである。図13は、従来技術1を説明するための図である。例えば、1Aに示すように、利用者が手の位置を固定すると、移動停止を装置に指示する。1Bに示すように、利用者が腕の位置を左に移動させると、左方向への移動を装置に指示し、腕の位置を右に移動させると、右方向への移動を装置に指示する。1Cに示すように、利用者が腕の位置を前方へ移動させると、前方への移動を装置に指示し、腕の位置を後方へ移動させると、後方への移動を装置に指示する。1Dに示すように、利用者が腕の位置を上方に移動させると、上方への移動を装置に指示し、腕の位置を下方へ移動させると、下方への移動を装置に指示する。
従来技術1は、HMDに適用されるものではないため、仮に、従来技術1をHMDに適用し、映像内の視点位置を変更する場合について検討する。HMDに搭載されるカメラは、利用者の頭部から視線方向を撮影するように取り付けられるため、撮影範囲に手のひらが含まれるものの、腕が含まれないため、腕の移動を検出できず、視点の移動方向を指示することが難しい。例えば、図13で説明した1B,1Dのジェスチャを認識することが難しい。
なお、従来技術1の1Cのように、腕を前方・後方に移動させる場合には、カメラの撮影範囲に腕を含めることが可能である。しかし、利用者毎に身体的な特徴が異なるため、利用者毎に手の長さが異なり、例えば、手のひらとカメラとの間の距離によって、腕の曲げ伸ばしを推定することが難しい。
従来技術2について説明する。従来技術2は、HMDのカメラの撮影範囲に、利用者の両手のひらが存在するか否かを判定し、両手のひらが存在する場合には、視点位置を前方に移動させる技術である。従来技術2は、従来技術1と比較して、両手のひらが存在するか否かを判定するだけでよいので、利用者はHMDを装着した状態で、視点位置を前方に移動させることができる。
特開2012−79177号公報 特開平10−177449号公報 特開2014−72575号公報
しかしながら、上述した従来技術では、複数種類のジェスチャを認識することができないという問題がある。
例えば、従来技術2では、両手のひらが存在するか否かを判定するのみであるため、操作可能な視点位置の移動方向が限られてしまう。
1つの側面では、本発明は、複数種類のジェスチャを認識することができる認識装置、認識方法および認識プログラムを提供することを目的とする。
第1の案では、認識装置は、距離センサと、取得部と、特定部と、ジェスチャ認識部とを有する。距離センサは、利用者側から利用者の視線方向に空間に存在する物体までの距離情報を取得する。取得部は、距離センサから利用者の視線方向の空間に存在する物体までの距離情報を距離画像として取得する。特定部は、距離画像として表された物体の特徴点と基準点間の距離に基づいて、指先および指の根本を識別することで指領域を特定し、特定した指領域を基にして手領域を特定する。ジェスチャ認識部は、手領域に含まれる指先の位置と指の根本の位置との差分値を基にして、ジェスチャの種別を認識する。
複数種類のジェスチャを認識することができる。
図1は、本実施例に係る認識装置の構成を示す機能ブロック図である。 図2は、手領域候補を切り出す処理を説明するための図である。 図3は、平滑化する処理を説明するための図である。 図4は、指先候補点と指根本候補点とを特定する処理を説明するための図(1)である。 図5は、指先候補点と指根本候補点とを特定する処理を説明するための図(2)である。 図6は、指根本候補点を検出するその他の処理を説明するための図である。 図7は、指領域を特定する処理を説明するための図である。 図8は、手領域を特定する処理を説明するための図である。 図9は、本実施例に係る認識装置の処理手順を示すフローチャートである。 図10は、指先候補点と指根本候補点とを算出する処理手順を示すフローチャートである。 図11は、指先候補点と指根本候補点から指領域を算出する処理手順を示すフローチャートである。 図12は、認識プログラムを実行するコンピュータの一例を示す図である。 図13は、従来技術1を説明するための図である。
以下に、本願の開示する認識装置、認識方法および認識プログラムの実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。
図1は、本実施例に係る認識装置の構成を示す機能ブロック図である。認識装置100は、例えば、図示しないHMD(Head Mounted Display)に組み込まれる。認識装置100は、HMDに搭載された距離画像センサ50および表示装置60に接続される。利用者は、認識装置100が組み込まれたHMDを頭部に装着する。
距離画像センサ50は、距離画像センサ50から、距離画像センサ50の撮影範囲に含まれる物体までの距離情報を計測するセンサである。距離画像センサの撮影方向は、利用者の視線方向とする。
距離画像センサ50は、TOF(Time Of Flight)方式に基づいて、距離画像センサ50から物体までの距離情報を計測する。距離情報は、距離画像センサ50から物体上の各点までの距離をそれぞれ含む。距離画像センサ50は、距離情報を、認識装置100に出力する。なお、距離画像センサ50は、カメラによる撮影範囲の画像と距離情報とを組み合わせた距離画像の情報を、認識装置100に出力しても良い。また、距離画像としては、対象物体と距離センサ間の距離を画素値で表した距離画像であってもよい。また、以下に説明する処理も、距離情報の代わりに、距離画像を用いて、処理を行っても良い。
表示装置60は、認識装置100から出力される映像情報を表示する表示装置である。
認識装置100は、取得部110と、特定部120と、ジェスチャ認識部130と、表示制御部140とを有する。
取得部110は、距離画像センサ50から距離情報を取得する取得部である。取得部110は、取得した距離情報を、特定部120に出力する。
特定部120は、距離情報に含まれる物体上の点と基準点との距離を基にして、利用者の指先および指の根本を識別することで、指領域を特定し、特定した指領域を基にして手領域を特定する処理部である。特定部120は、手領域の情報を、ジェスチャ認識部130に出力する。
以下において、特定部120の処理を具体的に説明する。特定部120は、手領域候補を切り出す処理、手領域候補の輪郭を平滑化する処理、指先候補点と指根本候補点とを特定する処理、指領域を特定する処理、手領域候補が手領域か否かを特定する処理を実行する。
特定部120が、手領域候補を切り出す処理について説明する。特定部120は、距離情報に基づいて、距離画像センサ50からの距離が閾値未満となる領域に存在する物体を、手領域候補として切り出す。
図2は、手領域候補を切り出す処理を説明するための図である。図2において、例えば、距離情報10aには、物体11,12,13,14が含まれる。物体11〜14のうち、物体14が、距離画像センサ50からの距離が閾値未満となる領域に存在するものとする。この場合には、特定部120は、距離情報10aから物体14を切り出すことで、距離情報10bを生成する。
特定部120が、手領域候補の輪郭を平滑化する処理について説明する。特定部120は、手領域候補を切り出した距離情報について、隣り合う輪郭との重み付き平均などを実行することで、平滑化を行う。
図3は、平滑化する処理を説明するための図である。特定部120は、距離情報全体に、平滑化フィルタ20をかけることで、距離情報を平滑化する。平滑化フィルタは、中心画素21iの距離の値を、式(1)に基づき算出するフィルタである。
中心画素21iの距離の値=1/9(画素21aの距離の値+画素21bの距離の値+画素21cの距離の値+画素21dの距離の値+画素21eの距離の値+画素21fの距離の値+画素21gの距離の値+画素21hの距離の値)・・・(1)
特定部120が、指先候補点と指根本候補点とを特定する処理について説明する。図4および図5は、指先候補点と指根本候補点とを特定する処理を説明するための図である。特定部120は、平滑化が行われた距離情報に含まれる手領域候補14について、基準点15を設定する。図4に示したように、例えば、特定部120は、手領域候補14の重心位置を、基準点15として設定する。
特定部120は、手領域候補14の輪郭上の全点について、下記の第1条件および第2条件を満たす点を算出し、指先候補点と指根本候補点とを特定する。ここでは、図5に示すように、隣り合う輪郭上の点16A,点16B,点16Cを用いて説明する。基準点15と、点16Aとの距離をDaとする。基準点15と、点16Bとの距離をDbとする。基準点15と、点16Cとの距離をDcとする。
特定部120は、下記の第1条件を満たす場合に、点16Bを、指先候補点として特定する。
第1条件:Da<Db、Db>Dc
特定部120は、第2条件を満たす場合に、点16Bを、指根本候補点として特定する。
第2条件:Da>Db、Db<Dc
特定部120は、例えば、図4の手領域候補14の輪郭上の全点について、上記処理を繰り返し実行することで、指先候補点17a,17b,17c,17d,17e,17f,17gを特定する。また、特定部120は、指根本候補点18a,18b,18c,18d,18eを特定する。
特定部120は、各指先候補点17a〜17gの位置を比較し、各指先候補点間の距離が閾値未満となる指先候補点同士をマージする。また、特定部120は、各指根本点候補18a〜18eの位置を比較し、各指根本候補点間の距離が閾値未満となる指根本候補点同士をマージする。
例えば、図4に示す例では、指先候補点17eと指先候補点17fとの距離が閾値未満であるため、特定部120は、指先候補点17eと指先候補点17fとをマージする。例えば、特定部120は、指先候補点17eを残し、指先候補点17fを削除することでマージする。なお、特定部120は、指先候補点17eの距離と、指先候補点17fの距離との平均距離を求め、求めた平均距離を、新たな指先候補点の距離とし、指先候補点17e,17fを削除することで、マージしても良い。
ここで、上記処理では、端の指における指根本候補点の検出が不安定となり、適切に指根本候補点を検出できない場合がある。このため、特定部120は、下記に示す処理を更に実行することで、上記処理では検出していない指根本候補点を検出してもよい。
図6は、指根本候補点を検出するその他の処理を説明するための図である。特定部120は、複数の指先候補点を通る直線と、手領域候補14の輪郭との交点とを求め、求めた交点を、指根本候補点として検出する。例えば、図6に示すように、特定部120は、指根本候補点18d,18eを通る直線19と、手領域候補14の輪郭の交点18fを、指根本候補点として検出する。
なお、特定部120は、後述する処理により手領域を特定した後に、手領域に含まれる指根本点を通る直線と、手領域候補14の輪郭の交点を、指根本点として検出しても良い。以下の説明では、指根本点を通る直線と、手領域候補14の輪郭の交点により特定した指根本点を、仮想指根本点と表記する。
特定部120が指領域を特定する処理について説明する。図7は、指領域を特定する処理を説明するための図である。特定部120は、下記の第3条件および第4条件を満たす指先候補点と2つの指根本候補点とからなる領域を指領域として特定する。
一例として、図7に示すように、指先候補点17Aと、二つの指根本候補点18B,18Cとを用いて説明する。ここでは、指先候補点17Aと、二つの指根本候補点18B,18Cとからなる三角形を三角形ABCと表記する。特定部120は、三角形ABCの形状を判定し、第3条件を満たし、かつ、第4条件を満たす場合に、三角形ABCの領域を指領域として判定する。
第3条件:三角形ABCの点17Aの角度が鋭角である。
第4条件:点17Aおよび点18Bを結ぶ辺ABの長さと、点17Aおよび点18Cを結ぶ辺ACとの長さの差分が閾値未満である。
図7に示す三角形ABCが、第3条件および第4条件を満たす場合には、特定部120は、指先候補点17Aと、二つの指根本候補点18B,18Cとに囲まれる領域を、指領域として特定する。特定部120は、他の指先候補点、他の二つの指根本候補点について、上記処理を繰り返し実行することで、他の指領域を特定する。以下の説明では、指領域に含まれる指先候補点を指先点と表記し、指領域に含まれる指根本候補点を指根本点と表記する。
また、特定部120は、指先候補点と、1つの指根本候補点と、1つの仮想指根本点とから構成される三角形を特定し、特定した三角形が、第3条件および第4条件を満たす場合には、該当する三角形を指領域として特定する。
特定部120が、手領域候補が手領域か否かを判定する処理について説明する。特定部120は、手領域候補から検出した指領域の数を基にして、手領域候補が手領域であるか否かを判定する。例えば、特定部120は、手領域候補に含まれる指領域の数が、5である場合に、手領域候補が手領域であると判定する。
図8は、手領域を特定する処理を説明するための図である。例えば、図8に示す例では、手領域候補14から、指領域20a,20b,20c,20d,20eが特定されたものとする。特定部120は、指領域20a〜20eの数が「5」であるため、手領域候補14が、手領域であると判定する。
特定部120は、手領域の情報を、ジェスチャ認識部130に出力する。手領域の情報には、手領域に含まれる各指領域の指先点の距離および指根本点の距離が含まれる。ここで、指先点の距離は、距離画像センサ50から指先点までの距離を示す。指根本点の距離は、距離画像センサ50から指根本点までの距離を示す。なお、特定部120は、指先点の距離および指根本点の距離を、3次元座標に変換してもよい。
ジェスチャ認識部130は、手領域に含まれる指先点の距離と、指根本点の距離との差分値を基にして、ジェスチャの種別を認識する処理部である。例えば、ジェスチャ認識部130は、指先点の距離から指根本の距離を引いた値が「正の値」である場合には、手領域が前方に傾いていると認識する。これに対して、ジェスチャ認識部130は、指先点の距離から指根本点の距離を引いた値が「負の値」である場合には、手領域が後方に傾いていると認識する。
なお、ジェスチャ認識部130は、指領域に含まれる指先点および指根本点の差分値を、各指領域からそれぞれ算出し、算出した複数の差分値の平均値を、上記の差分値としても良い。または、ジェスチャ認識部130は、複数の指領域のうち、いずれか一つの指領域を選択し、選択した指領域に含まれる指先点および指根本点に基づき、上記差分値を算出しても良い。
ジェスチャ認識部130は、ジェスチャの認識結果の情報を、表示制御部140に出力する。例えば、ジェスチャの認識結果の情報には、手領域が前方に傾いているか、手領域が後方に傾いているかの情報と、手領域に含まれる指先点の距離と、指根本点の距離との差分値の絶対値の情報が含まれる。
表示制御部140は、バーチャル空間の映像を、表示装置60に表示させる処理部である。また、表示制御部140は、ジェスチャの認識結果の情報を基にして、表示装置60に表示させるバーチャル空間上の利用者の視点位置を移動させる。
例えば、表示制御部140は、ジェスチャの認識結果の情報に、手領域が前方に傾いている旨の情報が含まれている場合には、表示装置60に表示させるバーチャル空間の映像を制御して、バーチャル空間上の利用者の視点位置を前方に移動させる。
表示制御部140は、ジェスチャの認識結果の情報に、手領域が後方に傾いている旨の情報が含まれている場合には、表示装置60に表示させるバーチャル空間の映像を制御して、バーチャル空間上の利用者の視点位置を後方に移動させる。
表示制御部140は、利用者の視点位置を移動させる場合の移動速度を、ジェスチャの認識結果の情報に含まれる絶対値の情報を基にして調整しても良い。例えば、表示制御部140は、絶対値が大きくなるほど、視点位置の移動速度を速くし、絶対値が0に近づくほど、移動速度を遅くする。
次に、本実施例に係る認識装置の処理手順の一例について説明する。図9は、本実施例に係る認識装置の処理手順を示すフローチャートである。図9に示す処理は、認識装置100が、距離画像センサ50から距離情報を取得する度に実行される。図9に示すように、認識装置100の特定部120は、手領域候補を切り出す(ステップS101)。
特定部120は、手領域候補の輪郭を平滑化する(ステップS102)。特定部120は、手領域候補に含まれる指先候補点と指根本候補点とを算出する(ステップS103)。特定部120は、指先候補点と指根本候補点とから指領域を算出する(ステップS104)。
特定部120は、指領域の数をカウントする(ステップS105)。特定部120は、指領域の数が5であるか否かを判定する(ステップS106)。特定部120は、指領域の数が5でない場合には(ステップS106,No)、処理を終了する。
特定部120は、指領域の数が5である場合には(ステップS106,Yes)、指領域を含む手領域候補を、手領域として特定する(ステップS107)。認識装置100のジェスチャ認識部130は、手領域に含まれる指先点の距離と指根本点の距離との差分値を基にして、ジェスチャを認識する(ステップS108)。
認識装置100の表示制御部140は、ジェスチャの認識結果を基にして、バーチャル空間の視点位置を制御する(ステップS109)。
次に、図9のステップS103に示した指先候補点と指根本候補点とを算出する処理手順について説明する。図10は、指先候補点と指根本候補点とを算出する処理手順を示すフローチャートである。図10に示すように、認識装置100の特定部120は、基準点を決定する(ステップS201)。
特定部120は、手領域候補の輪郭の全点に対して、第1条件を満たす点を指先候補点として特定する(ステップS202)。特定部120は、手領域候補の輪郭の全点に対して、第2条件を満たす点を指根本候補点として特定する(ステップS203)。
特定部120は、隣接する指先候補点同士をマージする(ステップS204)。特定部120は、隣接する指根本候補点同士をマージする(ステップS205)。
次に、図9のステップS104に示した指先候補点と根本候補点から指領域を算出する処理手順について説明する。図11は、指先候補点と指根本候補点から指領域を算出する処理手順を示すフローチャートである。図11に示すように、認識装置100の特定部120は、両隣に指根本候補点がある指先候補点を選択する(ステップS301)。
特定部120は、指先候補点Aと、その指先候補点Aの両隣の指根本候補点B,Cとを結ぶ三角形ABCが、第3条件および第4条件を満たす場合に、三角形ABCの領域を指領域として特定する(ステップS302)。
特定部120は、指領域に属する指根本点を通る直線と、手領域候補の輪郭との交点を仮想指根本点として特定する(ステップS303)。特定部120は、指先候補点Aと、その指先候補点Aの両隣の指根本候補点(仮想指根本点)B,Cとを結ぶ三角形ABCが、第3条件および第4条件を満たす場合に、三角形ABCの領域を指領域として特定する(ステップS304)。
次に、本実施例に係る認識装置100の効果について説明する。認識装置100は、距離情報に含まれる物体の指先候補点および指根本候補点に基づいて手領域を特定し、手領域に含まれる指先点と指根本点との差分を基にして、ジェスチャの種別を認識する。このため、認識装置100によれば、複数種類のジェスチャを認識することができる。また、ジェスチャの認識結果を用いることで、例えば、全画面表示HMDにおいて、直感的な視点移動ナビゲーションが可能となる。
認識装置100は、物体上の隣り合う3つの点を選択し、選択した点と基準点との距離の関係が、第1条件を満たす場合に、中央の点を指先候補点として選択する。このため、物体上の各点から指先の候補を適切に特定することができる。
認識装置100は、物体上の隣り合う3つの点を選択し、選択した点と基準点との距離の関係が、第2条件を満たす場合に、中央の点を指根本候補点として選択する。このため、物体上の各点から指根本の候補を適切に特定することができる。
認識装置100は、指先候補点と、隣り合う指根本候補点とを選択し、選択した各候補点によって構成される三角形の形状が、第3条件および第4条件を満たす場合に、選択した各候補点の領域を指領域として特定する。このため、物体から指領域を正確に特定することができる。
認識装置100は、特定した指領域の数が5である場合に、各指領域を含む手領域候補を、手領域として判定する。このため、利用者は、意識的に手の指を開いた状態で、手を傾けることで、認識装置100にジェスチャを認識させることができる。また、利用者の手の指が開いていない状態で、誤って手を視線前に出してしまっても、手の領域として認識されないので、意識していない間に、認識装置100にジェスチャを認識させることを防止できる。
認識装置100は、指先点の距離から指根本点の距離を引いた値が正の値である場合には、手領域が前方に傾いていると認識する。また、認識装置100は、指先点の距離から指根本点の距離を引いた値が負の値である場合には、手領域が後方に傾いていると認識する。このため、認識装置100は、利用者の身体的な相違に左右されることなく、利用者のジェスチャを適切に認識することができる。
認識装置100は、複数の指根本点を通る直線と、手領域候補の輪郭との交点を新たな指根本候補点として特定し、特定した新たな指根本候補点を用いて、指領域を特定する。このため、端の指における指根本候補点の検出が不安定となっても、適切に指根本候補点を検出することができる。
ところで、上述した認識装置100の処理は一例であり、認識装置100は、その他の処理を行ってジェスチャを認識しても良い。例えば、認識装置100のジェスチャ認識部130は、指先点の距離から指根本点の距離を引いた値が「負の値」である場合には、手領域が後方に傾いていると認識すると判定していたが、これに限定されるものではない。
例えば、ジェスチャ認識部130は、取得部110から距離情報を取得し、距離画像センサ50から物体までの距離が閾値未満である場合には、手領域が後方に傾いていると認識してもよい。
距離画像センサ50は、HMDに直接装着されるものの他に、ヘルメットに装着しても良い。また、距離画像センサ50は、必ずしも頭部に装着しなくても良い。例えば、利用者が首から距離画像センサ50をかける装着方法でも良い。
本実施例に係る認識装置100を組み込むHMDは、全画面表示HMDでも良いし、光学シースルーHMD等でも良い。また、表示装置60はHMDに限定されるものではなく、プロジェクタ等を用いて、ユーザの視界に投影しても良い。
次に、上記実施例に示した認識装置100と同様の機能を実現する認識プログラムを実行するコンピュータの一例について説明する。図12は、認識プログラムを実行するコンピュータの一例を示す図である。
図12に示すように、コンピュータ300は、各種演算処理を実行するCPU301と、ユーザからのデータの入力を受け付ける入力装置302と、ディスプレイ303とを有する。また、コンピュータ300は、記憶媒体からプログラム等を読み取る読み取り装置304と、ネットワークを介して他のコンピュータとの間でデータの授受を行うインターフェース装置305と、距離画像センサ306とを有する。また、コンピュータ300は、各種情報を一時記憶するRAM307と、ハードディスク装置308とを有する。そして、各装置301〜308は、バス309に接続される。
ハードディスク装置308は、取得プログラム308a、特定プログラム308b、認識プログラム308cを有する。CPU301は、取得プログラム308a、特定プログラム308b、認識プログラム308cを読み出してRAM307に展開する。
取得プログラム308aは、取得プロセス307aとして機能する。特定プログラム308bは、特定プロセス307bとして機能する。認識プログラム308cは、認識プロセス307cとして機能する。
取得プロセス307aの処理は、取得部110の処理に対応する。特定プロセス307bの処理は、特定部120の処理に対応する。認識プロセス307cの処理は、ジェスチャ認識部130の処理に対応する。
なお、取得プログラム308a、特定プログラム308b、認識プログラム308cについては、必ずしも最初からハードディスク装置308に記憶させておかなくても良い。例えば、コンピュータ300に挿入されるフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させておく。そして、コンピュータ300が各プログラム308a〜308cを読み出して実行するようにしてもよい。
以上の各実施例を含む実施形態に関し、さらに以下の付記を開示する。
(付記1)利用者側から利用者の視線方向に空間に存在する物体までの距離情報を取得する距離センサと、
前記距離センサから利用者の視線方向の空間に存在する物体までの距離情報を距離画像として取得する取得部と、
前記距離画像として表された前記物体の特徴点と基準点間の距離に基づいて、指先および指の根本を識別することで指領域を特定し、特定した指領域を基にして手領域を特定する特定部と、
前記手領域に含まれる前記指先の位置と前記指の根本の位置との差分値を基にして、ジェスチャの種別を認識するジェスチャ認識部と
を有することを特徴とする認識装置。
(付記2)前記特定部は前記物体上の隣り合う3つの特徴点を選択し、前記基準点と第1特徴点との第1距離、前記基準点と第2特徴点との第2距離、前記基準点と第3特徴点との第3距離を算出し、前記第2距離が前記第1距離よりも大きく、かつ、前記第2距離が前記第3距離よりも大きい場合に、前記第2点を指先の点として識別することを特徴とする付記1に記載の認識装置。
(付記3)前記特定部は前記物体上の隣り合う3つの特徴点を選択し、前記基準点と第1特徴点との第1距離、前記基準点と第2特徴点との第2距離、前記基準点と第3特徴点との第3距離を算出し、前記第2距離が前記第1距離よりも小さく、かつ、前記第2距離が前記第3距離よりも小さい場合に、前記第2点を指根本の点として識別することを特徴とする付記1または2に記載の認識装置。
(付記4)前記特定部は、前記指先と、隣り合う第1の指の根本および第2の指の根本を選択し、前記指先から第1の指の根本までの距離と、前記指先から第2の指の根本までの距離との差が閾値未満であり、かつ、前記指先および第1の指の根本を通る線分と、前記指先および第2の指の根本を通る線分とによって形成される角度が所定角度未満である場合に、前記指先と、隣り合う第1の指の根本および第2の指の根本に囲まれる領域を、前記指領域として特定することを特徴とする付記1、2または3に記載の認識装置。
(付記5)前記特定部は、特定した指領域の数が5である場合に、各指領域を含む物体の領域を手領域として特定することを特徴とする付記1〜4のいずれか一つに記載の認識装置。
(付記6)前記ジェスチャ認識部は、前記指先の位置から前記指の根本の位置を引いた値が正の値である場合には、前記手領域が前方に傾いていると認識し、前記指先の位置から前記指の根本の位置を引いた値が負の値である場合には、前記手領域が後方に傾いていると認識することを特徴とする付記1〜5のいずれか一つに記載の認識装置。
(付記7)前記特定部は、複数の指の根本を通る直線と、前記物体の輪郭との交点を新たな指の根本として特定し、特定した新たな指の根本を用いて指領域を特定することを特徴とする付記1〜6のいずれか一つに記載の認識装置。
(付記8)コンピュータが実行する認識方法であって、
利用者側から利用者の視線方向に空間に存在する物体までの距離情報を取得する距離センサから利用者の視線方向の空間に存在する物体までの距離情報を距離画像として取得し、
前記距離画像として表された前記物体の特徴点と基準点間の距離に基づいて、指先および指の根本を識別することで指領域を特定し、特定した指領域を基にして手領域を特定し、
前記手領域に含まれる前記指先の位置と前記指の根本の位置との差分値を基にして、ジェスチャの種別を認識する
処理を実行することを特徴とする認識方法。
(付記9)前記特定する処理は、前記物体上の隣り合う3つの特徴点を選択し、前記基準点と第1特徴点との第1距離、前記基準点と第2特徴点との第2距離、前記基準点と第3特徴点との第3距離を算出し、前記第2距離が前記第1距離よりも大きく、かつ、前記第2距離が前記第3距離よりも大きい場合に、前記第2点を指先の点として識別することを特徴とする付記8に記載の認識方法。
(付記10)前記特定する処理は、前記物体上の隣り合う3つの特徴点を選択し、前記基準点と第1特徴点との第1距離、前記基準点と第2特徴点との第2距離、前記基準点と第3特徴点との第3距離を算出し、前記第2距離が前記第1距離よりも小さく、かつ、前記第2距離が前記第3距離よりも小さい場合に、前記第2点を指根本の点として識別することを特徴とする付記8または9に記載の認識方法。
(付記11)前記特定する処理は、前記指先と、隣り合う第1の指の根本および第2の指の根本を選択し、前記指先から第1の指の根本までの距離と、前記指先から第2の指の根本までの距離との差が閾値未満であり、かつ、前記指先および第1の指の根本を通る線分と、前記指先および第2の指の根本を通る線分とによって形成される角度が所定角度未満である場合に、前記指先と、隣り合う第1の指の根本および第2の指の根本に囲まれる領域を、前記指領域として特定することを特徴とする付記8、9または10に記載の認識方法。
(付記12)前記特定する処理は、特定した指領域の数が5である場合に、各指領域を含む物体の領域を手領域として特定することを特徴とする付記8〜11のいずれか一つに記載の認識方法。
(付記13)前記認識する処理は、前記指先の位置から前記指の根本の位置を引いた値が正の値である場合には、前記手領域が前方に傾いていると認識し、前記指先の位置から前記指の根本の位置を引いた値が負の値である場合には、前記手領域が後方に傾いていると認識することを特徴とする付記8〜12のいずれか一つに記載の認識方法。
(付記14)前記特定する処理は、複数の指の根本を通る直線と、前記物体の輪郭との交点を新たな指の根本として特定し、特定した新たな指の根本を用いて指領域を特定することを特徴とする付記8〜13のいずれか一つに記載の認識方法。
(付記15)コンピュータに、
利用者側から利用者の視線方向に空間に存在する物体までの距離情報を取得する距離センサから利用者の視線方向の空間に存在する物体までの距離情報を距離画像として取得し、
前記距離画像として表された前記物体の特徴点と基準点間の距離に基づいて、指先および指の根本を識別することで指領域を特定し、特定した指領域を基にして手領域を特定し、
前記手領域に含まれる前記指先の位置と前記指の根本の位置との差分値を基にして、ジェスチャの種別を認識する
処理を実行させることを特徴とする認識プログラム。
(付記16)前記特定する処理は、前記物体上の隣り合う3つの特徴点を選択し、前記基準点と第1特徴点との第1距離、前記基準点と第2特徴点との第2距離、前記基準点と第3特徴点との第3距離を算出し、前記第2距離が前記第1距離よりも大きく、かつ、前記第2距離が前記第3距離よりも大きい場合に、前記第2点を指先の点として識別することを特徴とする付記15に記載の認識プログラム。
(付記17)前記特定する処理は、前記物体上の隣り合う3つの特徴点を選択し、前記基準点と第1特徴点との第1距離、前記基準点と第2特徴点との第2距離、前記基準点と第3特徴点との第3距離を算出し、前記第2距離が前記第1距離よりも小さく、かつ、前記第2距離が前記第3距離よりも小さい場合に、前記第2点を指根本の点として識別することを特徴とする付記15または16に記載の認識プログラム。
(付記18)前記特定する処理は、前記指先と、隣り合う第1の指の根本および第2の指の根本を選択し、前記指先から第1の指の根本までの距離と、前記指先から第2の指の根本までの距離との差が閾値未満であり、かつ、前記指先および第1の指の根本を通る線分と、前記指先および第2の指の根本を通る線分とによって形成される角度が所定角度未満である場合に、前記指先と、隣り合う第1の指の根本および第2の指の根本に囲まれる領域を、前記指領域として特定することを特徴とする付記15、16または17に記載の認識プログラム。
(付記19)前記特定する処理は、特定した指領域の数が5である場合に、各指領域を含む物体の領域を手領域として特定することを特徴とする付記15〜18のいずれか一つに記載の認識プログラム。
(付記20)前記認識する処理は、前記指先の位置から前記指の根本の位置を引いた値が正の値である場合には、前記手領域が前方に傾いていると認識し、前記指先の位置から前記指の根本の位置を引いた値が負の値である場合には、前記手領域が後方に傾いていると認識することを特徴とする付記15〜19のいずれか一つに記載の認識プログラム。
(付記21)前記特定する処理は、複数の指の根本を通る直線と、前記物体の輪郭との交点を新たな指の根本として特定し、特定した新たな指の根本を用いて指領域を特定することを特徴とする付記15〜20のいずれか一つに記載の認識プログラム。
50 距離画像センサ
60 表示装置
100 認識装置
110 取得部
120 特定部
130 ジェスチャ認識部
140 表示制御部

Claims (9)

  1. 利用者側から利用者の視線方向に空間に存在する物体までの距離情報を取得する距離センサと、
    前記距離センサから利用者の視線方向の空間に存在する物体までの距離情報を距離画像として取得する取得部と、
    前記距離画像として表された前記物体の特徴点と基準点間の距離に基づいて、指先および指の根本を識別することで指領域を特定し、特定した指領域を基にして手領域を特定する特定部と、
    前記手領域に含まれる前記指先の位置と前記指の根本の位置との差分値を基にして、ジェスチャの種別を認識するジェスチャ認識部と
    を有することを特徴とする認識装置。
  2. 前記特定部は前記物体上の隣り合う3つの特徴点を選択し、前記基準点と第1特徴点との第1距離、前記基準点と第2特徴点との第2距離、前記基準点と第3特徴点との第3距離を算出し、前記第2距離が前記第1距離よりも大きく、かつ、前記第2距離が前記第3距離よりも大きい場合に、前記第2点を指先の点として識別することを特徴とする請求項1に記載の認識装置。
  3. 前記特定部は前記物体上の隣り合う3つの特徴点を選択し、前記基準点と第1特徴点との第1距離、前記基準点と第2特徴点との第2距離、前記基準点と第3特徴点との第3距離を算出し、前記第2距離が前記第1距離よりも小さく、かつ、前記第2距離が前記第3距離よりも小さい場合に、前記第2点を指根本の点として識別することを特徴とする請求項1または2に記載の認識装置。
  4. 前記特定部は、前記指先と、隣り合う第1の指の根本および第2の指の根本を選択し、前記指先から第1の指の根本までの距離と、前記指先から第2の指の根本までの距離との差が閾値未満であり、かつ、前記指先および第1の指の根本を通る線分と、前記指先および第2の指の根本を通る線分とによって形成される角度が所定角度未満である場合に、前記指先と、隣り合う第1の指の根本および第2の指の根本に囲まれる領域を、前記指領域として特定することを特徴とする請求項1、2または3に記載の認識装置。
  5. 前記特定部は、特定した指領域の数が5である場合に、各指領域を含む物体の領域を手領域として特定することを特徴とする請求項1〜4のいずれか一つに記載の認識装置。
  6. 前記ジェスチャ認識部は、前記指先の位置から前記指の根本の位置を引いた値が正の値である場合には、前記手領域が前方に傾いていると認識し、前記指先の位置から前記指の根本の位置を引いた値が負の値である場合には、前記手領域が後方に傾いていると認識することを特徴とする請求項1〜5のいずれか一つに記載の認識装置。
  7. 前記特定部は、複数の指の根本を通る直線と、前記物体の輪郭との交点を新たな指の根本として特定し、特定した新たな指の根本を用いて指領域を特定することを特徴とする請求項1〜6のいずれか一つに記載の認識装置。
  8. コンピュータが実行する認識方法であって、
    利用者側から利用者の視線方向に空間に存在する物体までの距離情報を取得する距離センサから利用者の視線方向の空間に存在する物体までの距離情報を距離画像として取得し、
    前記距離画像として表された前記物体の特徴点と基準点間の距離に基づいて、指先および指の根本を識別することで指領域を特定し、特定した指領域を基にして手領域を特定し、
    前記手領域に含まれる前記指先の位置と前記指の根本の位置との差分値を基にして、ジェスチャの種別を認識する
    処理を実行することを特徴とする認識方法。
  9. コンピュータに、
    利用者側から利用者の視線方向に空間に存在する物体までの距離情報を取得する距離センサから利用者の視線方向の空間に存在する物体までの距離情報を距離画像として取得し、
    前記距離画像として表された前記物体の特徴点と基準点間の距離に基づいて、指先および指の根本を識別することで指領域を特定し、特定した指領域を基にして手領域を特定し、
    前記手領域に含まれる前記指先の位置と前記指の根本の位置との差分値を基にして、ジェスチャの種別を認識する
    処理を実行させることを特徴とする認識プログラム。
JP2015233926A 2015-11-30 2015-11-30 認識装置、認識方法および認識プログラム Pending JP2017102598A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015233926A JP2017102598A (ja) 2015-11-30 2015-11-30 認識装置、認識方法および認識プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015233926A JP2017102598A (ja) 2015-11-30 2015-11-30 認識装置、認識方法および認識プログラム

Publications (1)

Publication Number Publication Date
JP2017102598A true JP2017102598A (ja) 2017-06-08

Family

ID=59015470

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015233926A Pending JP2017102598A (ja) 2015-11-30 2015-11-30 認識装置、認識方法および認識プログラム

Country Status (1)

Country Link
JP (1) JP2017102598A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111736693A (zh) * 2020-06-09 2020-10-02 海尔优家智能科技(北京)有限公司 智能设备的手势控制方法及装置
WO2020255598A1 (ja) * 2019-06-20 2020-12-24 ヌヴォトンテクノロジージャパン株式会社 測距撮像装置
US11318877B2 (en) 2019-05-29 2022-05-03 Toyota Boshoku Kabushiki Kaisha Vehicle light-adjusting system
WO2023070933A1 (zh) * 2021-10-26 2023-05-04 深圳市鸿合创新信息技术有限责任公司 手势识别方法、装置、设备及介质
CN116842180A (zh) * 2023-08-30 2023-10-03 中电科大数据研究院有限公司 公文所属产业识别方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10207619A (ja) * 1997-01-22 1998-08-07 Toshiba Corp ユーザインタフェース装置及び操作範囲呈示方法
JP2003346162A (ja) * 2002-05-28 2003-12-05 Japan Science & Technology Corp 手の画像認識による入力システム
JP2007538318A (ja) * 2004-05-14 2007-12-27 本田技研工業株式会社 サインに基づく人間−機械相互作用
WO2014128788A1 (ja) * 2013-02-19 2014-08-28 株式会社ブリリアントサービス 形状認識装置、形状認識プログラム、および形状認識方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10207619A (ja) * 1997-01-22 1998-08-07 Toshiba Corp ユーザインタフェース装置及び操作範囲呈示方法
JP2003346162A (ja) * 2002-05-28 2003-12-05 Japan Science & Technology Corp 手の画像認識による入力システム
JP2007538318A (ja) * 2004-05-14 2007-12-27 本田技研工業株式会社 サインに基づく人間−機械相互作用
WO2014128788A1 (ja) * 2013-02-19 2014-08-28 株式会社ブリリアントサービス 形状認識装置、形状認識プログラム、および形状認識方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
中村 淳一: "粒子フィルタと最小分類誤り学習を用いた映像オブジェクト追跡法の検討", 電子情報通信学会技術研究報告, vol. 111, no. 441, JPN6019038075, 13 February 2012 (2012-02-13), pages 79 - 84, ISSN: 0004127478 *
白石 孝弥: "距離画像センサを用いた日本語の指文字認識のための手領域自動抽出と指方向認識", 電気学会論文誌C 電子・情報・システム部門誌, vol. 135, no. 11, JPN6019038073, 1 November 2015 (2015-11-01), pages 1328 - 1336, ISSN: 0004127477 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11318877B2 (en) 2019-05-29 2022-05-03 Toyota Boshoku Kabushiki Kaisha Vehicle light-adjusting system
WO2020255598A1 (ja) * 2019-06-20 2020-12-24 ヌヴォトンテクノロジージャパン株式会社 測距撮像装置
JP7411656B2 (ja) 2019-06-20 2024-01-11 ヌヴォトンテクノロジージャパン株式会社 測距撮像装置
CN111736693A (zh) * 2020-06-09 2020-10-02 海尔优家智能科技(北京)有限公司 智能设备的手势控制方法及装置
CN111736693B (zh) * 2020-06-09 2024-03-22 海尔优家智能科技(北京)有限公司 智能设备的手势控制方法及装置
WO2023070933A1 (zh) * 2021-10-26 2023-05-04 深圳市鸿合创新信息技术有限责任公司 手势识别方法、装置、设备及介质
CN116842180A (zh) * 2023-08-30 2023-10-03 中电科大数据研究院有限公司 公文所属产业识别方法及装置
CN116842180B (zh) * 2023-08-30 2023-12-19 中电科大数据研究院有限公司 公文所属产业识别方法及装置

Similar Documents

Publication Publication Date Title
JP6597235B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP7191714B2 (ja) デジタルデバイスとの対話のための直接的なポインティング検出のためのシステムおよび方法
US9927881B2 (en) Hand tracker for device with display
KR101844390B1 (ko) 사용자 인터페이스 제어를 위한 시스템 및 기법
KR101743948B1 (ko) 인터렉티브 디스플레이에서 근접 센싱을 위한 방법 및 근접 센싱 이미지를 처리하는 방법
KR101663452B1 (ko) 화면 조작장치 및 화면 조작방법
CN106845335B (zh) 用于虚拟现实设备的手势识别方法、装置及虚拟现实设备
TWI516093B (zh) 影像互動系統、手指位置的偵測方法、立體顯示系統以及立體顯示器的控制方法
JP6015250B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP2017102598A (ja) 認識装置、認識方法および認識プログラム
JP6314251B2 (ja) 操作入力装置、操作入力方法及びプログラム
KR20140002007A (ko) 정보 처리 장치, 정보 처리 방법 및 기록 매체
JP6524589B2 (ja) クリック動作検出装置,方法およびプログラム
JP6693223B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2012238293A (ja) 入力装置
WO2023173668A1 (zh) 一种虚拟场景中的输入识别方法、设备及存储介质
KR20230072757A (ko) 웨어러블 전자 장치 및 웨어러블 전자 장치의 동작 방법
Schmieder et al. Thumbs up: 3D gesture input on mobile phones using the front facing camera
JP2016071824A (ja) インターフェース装置、手指追跡方法、及び、プログラム
CN109164924B (zh) 一种字符输入法及识别字符输入法的***

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180810

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190416

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20191008