JP6170696B2 - 画像処理装置及び画像処理方法 - Google Patents

画像処理装置及び画像処理方法 Download PDF

Info

Publication number
JP6170696B2
JP6170696B2 JP2013054900A JP2013054900A JP6170696B2 JP 6170696 B2 JP6170696 B2 JP 6170696B2 JP 2013054900 A JP2013054900 A JP 2013054900A JP 2013054900 A JP2013054900 A JP 2013054900A JP 6170696 B2 JP6170696 B2 JP 6170696B2
Authority
JP
Japan
Prior art keywords
region
coordinate
hand
human body
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013054900A
Other languages
English (en)
Other versions
JP2014182442A (ja
Inventor
祐太 上永
祐太 上永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Stanley Electric Co Ltd
Original Assignee
Stanley Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Stanley Electric Co Ltd filed Critical Stanley Electric Co Ltd
Priority to JP2013054900A priority Critical patent/JP6170696B2/ja
Publication of JP2014182442A publication Critical patent/JP2014182442A/ja
Application granted granted Critical
Publication of JP6170696B2 publication Critical patent/JP6170696B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、機器や表示装置の画面等を操作するために人体の動きを認識する画像処理装置及び画像処理方法に関する。
従来、人間の行う動作(ジェスチャ)を認識し、その認識結果に基づいてロボット等の機器を操作するために用いられる画像処理技術が知られている。
下記の非特許文献1に記載されている画像処理装置は、固定カメラで撮影された画像から手領域の重心と指先位置の情報を得て、手形状認識を行う。さらに、左手の形状と右手の指の間隔により、2つの車輪によって移動するロボットの行動及びその車輪の回転速度を調整し、ロボットの遠隔操縦を可能にしている。
丸谷誠慶 他著「2次元画像からの指先位置検出に基づく実時間手形状認識と移動ロボット遠隔操作タスクへの応用」情報処理学会研究報告[コンピュータビジョンとイメージメディア(2002.5.9)]P145−152
しかしながら、上記の装置では、カメラの撮像領域に対して手を斜め方向から入れた場合には、手の形状が正確に認識されない可能性があり、その場合には、ロボットが人の意図しない方向に移動してしまう。
本発明は、このような事情に鑑みてなされたものであり、カメラの撮像領域に対して人の手或いは人体の他の部位がどの方向から移動してきても、人体の部位の形状を正確に認識し、人が意図する動作の方向とコンピュータが認識する方向を一致させることが可能な画像処理装置及び画像処理方法を提供することを目的とする。
本発明の画像処理装置は、撮像領域にある人体部位を撮像して画像情報として取得する撮像手段を用いて、該撮像手段が取得した画像情報に基づき該人体部位の動作を認識する画像処理装置であって、前記画像情報から人体部位の領域を抽出する人体部位領域抽出手段と、前記人体部位領域抽出手段が抽出した人体部位のうち、前記画像情報の周囲の画素を検出して、手首の中央部の座標である第1部位座標と、掌又は手の甲の重心の座標である第2部位座標とを算出する部位座標算出手段と、前記部位座標算出手段が算出した第1部位座標と第2部位座標とを結ぶ直線の傾きから、人体部位の撮像領域への差込角度を算出する差込角度算出手段と、前記差込角度算出手段が算出した差込角度に基づいて、前記画像情報を回転補正する画像回転補正手段とを備えることを特徴する。
本発明の画像処理装置によれば、手や足等の人体部位が撮像領域に差込まれたとき、撮像手段がこれを画像情報として取得する。人体部位領域抽出手段が、該画像情報から人体部位の領域を抽出し、部位座標算出手段が、該抽出された人体部位のうち第1部位の座標と第2部位の座標とを算出するので、画像情報中の人体部位の形状や位置が認識される。
また、差込角度算出手段が、該第1部位座標と該第2部位座標とを結ぶ直線の座標軸に対する傾きから、撮像領域に差込まれた人体部位の角度(差込角度)を算出する。そして、画像回転補正手段が該画像情報を差込角度に基づいて回転補正する。これにより、人体部位が、撮像領域に対して斜め方向から差込まれた場合でも、一定方向に補正することができる。従って、手や足等の人体部位が動作した場合、上記の一連の処理によって画像情報が一定方向に補正されるので、人が意図する動作の方向とコンピュータが認識する方向を一致させることができる。
本発明では、部位座標算出手段は、画像情報の周囲(例えば、4辺)の画素を検出し、例えば、画素に人体部位が記録されているか否かを調べて、該人体部位の位置を判定する。これにより、人体部位が撮像領域のどの方向から差込まれたかが正確に認識される。
本発明によれば、第1部位を手首、第2部位を掌又は手の甲とすることで、人の手の形状が認識される。このとき、部位座標算出手段は、手首の中央部が第1部位座標、掌又は手の甲の重心が第2部位座標となるように座標を算出するので、撮像領域に差込まれた手の角度が正確に認識される。
本発明の画像処理方法は、撮像領域にある人体部位を撮像して画像情報として取得し、該画像情報に基づいて該人体部位の動作を認識する画像処理方法であって、前記画像情報から人体部位の領域を抽出する人体部位領域抽出工程と、前記人体部位領域抽出工程で抽出された人体部位のうち、前記画像情報の周囲の画素を検出して、手首の中央部の座標である第1部位座標と、掌又は手の甲の重心の座標である第2部位座標とを算出する部位座標算出工程と、前記部位座標算出工程で算出された第1部位座標と第2部位座標とを結ぶ直線の傾きから、人体部位の撮像領域への差込角度を算出する差込角度算出工程と、前記差込角度算出工程で算出された差込角度に基づいて、前記画像情報を回転補正する画像回転補正工程とを備えることを特徴とする。
本発明の画像処理方法によれば、手や足等の人体部位が撮像領域に差込まれたとき、まず、画像情報として取得される。人体部位領域抽出工程では、該画像情報から人体部位の領域が抽出され、部位座標算出工程では、該抽出された人体部位のうち、第1部位の座標と第2部位の座標とが算出されるので、画像情報中の人体部位の形状や位置が認識される。
また、差込角度算出工程では、該第1部位座標と該第2部位座標とを結ぶ直線の座標軸に対する傾きから、撮像領域に差込まれた人体部位の角度(差込角度)が算出される。そして、画像回転補正工程では、該画像情報が差込角度に基づいて回転補正される。これにより、人体部位が、撮像領域に対して斜め方向から差込まれた場合でも、一定方向に補正することができる。従って、手や足等の人体部位が動作した場合、上記一連の処理工程によって画像情報が一定方向に補正されるので、人が意図する動作の方向とコンピュータが認識する方向を一致させることができる。
以上のように、人体の部位の形状を正確に認識し、人が意図する動作の方向とコンピュータが認識する方向を一致させることができる。
人とカメラの位置関係を説明する図。 画像処理(全体)のフローチャート。 手領域抽出を説明する図。 手首座標算出を説明する図。 手首座標算出処理のフローチャート。 手首座標算出用テーブルの図表。 掌座標算出を説明する図。 手差込角度算出を説明する図。 画像回転補正を説明する図。 手の動きとコンピュータが認識する方向を説明する図。
初めに図1を参照して、人とカメラの位置関係について説明する。
図1(a)に示すように、人1の前方下、又は前方上に、本発明の「撮像手段」に相当するカメラ2が配置されている。カメラ2がどちらの位置にあっても、カメラ2からの距離に比例して撮像可能な範囲が拡大し、その範囲内の物体を撮像することができる。
また、カメラ2は、ケーブルによりコンピュータ3に接続されている。カメラ2で撮像された画像情報は、コンピュータ3に送信されるので、例えば、コンピュータ3のモニター(図示省略)上で画像情報を確認することができる。また、コンピュータ3は、画像情報を解析することで、例えば、人1の手の動きにより、モニター中のポインタ(カーソル)を動かすことができる。コンピュータ3は、内部に画像処理部(本発明の「画像処理装置」)を有する。
次に、図1(b)は、図1(a)の状態を上方から見たときの図である。領域Sは、カメラ2が人1の手等を撮像可能な領域(以下、撮像領域又は単に領域という)であり、領域S内で、例えば、人1が手を右方向(x軸正方向)に動かすと、コンピュータ3が画像を解析して、手が右方向に動いたと認識する。これにより、上記の例では、モニター上でポインタが右方向に動く。
同様に、人1が手を手前方向(y軸正方向)に動かすと、コンピュータ3は、手がその方向に動いたと認識し、モニター上でポインタが下方向に動く。この技術により、機器のスイッチを操作したり、ロボットをコントロールすることが可能になる。
また、人1は、カメラ2に対して常に同じ方向にいるわけではなく、時々動いて立ち位置を変える。従って、人1の手は、領域Sの横方向や斜め方向から差込まれることがある。
例えば、人1が手を撮像領域Sの左横方向から差込み、ポインタを右方向に動かそうとして、手を右方向に動かすことがある。この方向は、y軸正方向であるので、ポインタは下方向に動くと考えられるが、本発明では、手の差込まれた方向を検出して画像情報を補正し、上記の場合でもポインタが人1の意図する右方向に動くように変換する。以下では、これを実現するためにコンピュータ3で行われる画像処理について説明する。
図2は、実施形態の画像処理(全体)のフローチャートである。以下では、撮像領域Sに人の手が差込まれたときを例に、各処理の詳細を説明する。この画像処理は、コンピュータ3のCPU等で構成される画像処理部で実行される。画像処理部は、本発明の「人体部位領域抽出手段」、「部位座標算出手段」、「差込角度算出手段」、「画像回転補正手段」に相当する。
まず、手領域抽出処理が行われる(ステップS10)。これは、カメラ2で撮像された画像から手の領域を抽出する処理である。本実施形態では、距離画像カメラを使用して手を撮像する。距離画像カメラを使用する場合、予め撮像領域Sに差込まれる手と距離画像カメラとの距離を所定範囲に設定しておくことで、手領域を容易に抽出することができる。以下、図3を参照して、手領域の抽出について説明する。
図3は、手領域抽出処理により手領域4が抽出されたときの画像である。図示のように、画像領域Rの左下部分に手首があり、中央部分に掌がある。なお、画像領域Rの画像は、本発明の「画像情報」に相当する。
手領域を抽出方法は、上記の方法以外にも幾つか存在する。例えば、普通のカメラを使用する場合、RGB情報のうち肌色に該当する情報を抽出することで、手領域を抽出することができる。また、カメラに手以外の物体が写り込む可能性がない場合には、背景差分法により、手領域を容易に抽出することができる。また、2つのレンズを視差が生じるように配置することで、物体までの距離を算出可能なステレオカメラを使用してもよい。
図2に戻り、手領域抽出処理の終了後には、手首座標算出処理に進む(ステップS20)。手首座標の算出には、距離画像カメラによる画像(画像領域R)の外周ピクセル値の情報を使用する。
図4は、手首座標の算出に必要な領域を説明する図である。まず、手領域抽出処理(ステップS10)で抽出された手領域4を含む画像領域Rの周囲に、ピクセル値を取得するためのピクセル値取得領域P(図中の斜線部分。以下、領域Pという)をとる。
次に、領域Pの左辺部分を左領域(A)、右辺部分を右領域(B)、上辺部分を上領域(C)、下辺部分を下領域(D)として、領域Pを4分割する。そして、この4つの領域(A)〜(D)について、画素の値であるピクセル値を検出する。
ここでは、各領域に手等の物体が存在している場合には、所定のピクセル値(輝度値)が検出されるが、存在しない場合には、ピクセル値「0」が検出されることを利用する。また、ある程度の大きさのある物体の場合には、輝度値のある画素が連続して存在するので、これも考慮して、各領域を調べていく。
次に、図5を参照して、手首座標算出処理について説明する。実施形態の画像処理部は、以下の順番で上記の領域(A)〜(D)のピクセル値を調べ、手首座標を算出する。
まず、左領域(A)にピクセル値≠0の画素が任意の数、連続しているか否かを判定する(ステップS201)。ピクセル値≠0(輝度値あり)の部分が任意の数、連続して存在している場合には、左領域(A)に手があることを意味する。このとき、ステップS202に進む。一方、ピクセル値≠0の部分が任意の数、連続して存在していない場合には、この領域には手がないことを意味する。このとき、ステップS203に進む。
ステップS201で「YES」と判定された場合、フラグF_leftに「1」をセットする(ステップS202)。一方、ステップS201で「NO」と判定された場合、フラグF_leftに「0」をセットする(ステップS203)。詳細は後述するが、フラグF_leftは、手首座標のうちy座標を算出するのに用いられる。
次に、右領域(B)にピクセル値≠0の画素が任意の数、連続しているか否かを判定する(ステップS204)。これは、右領域(B)に手があるか否かの判定となる。ピクセル値≠0の部分が任意の数、連続して存在している場合には、ステップS205に進む。一方、ピクセル値≠0の部分が任意の数、連続して存在していない場合には、ステップS206に進む。
ステップS204で「YES」と判定された場合、フラグF_rightに「1」をセットする(ステップS205)。一方、ステップS204で「NO」と判定された場合、フラグF_rightに「0」をセットする(ステップS206)。フラグF_rightも、手首座標のうちy座標を算出するのに用いられる。
次に、上領域(C)にピクセル値≠0の画素が任意の数、連続しているか否かを判定する(ステップS207)。これは、上領域(C)に手があるか否かの判定となる。ピクセル値≠0の部分が任意の数、連続して存在している場合には、ステップS208に進む。一方、ピクセル値≠0の部分が任意の数、連続して存在していない場合には、ステップS209に進む。
ステップS207で「YES」と判定された場合、フラグF_topに「1」をセットする(ステップS208)。一方、ステップS207で「NO」と判定された場合、フラグF_topに「0」をセットする(ステップS209)。詳細は後述するが、フラグF_topは、手首座標のうちx座標を算出するのに用いられる。
次に、下領域(D)にピクセル値≠0の画素が任意の数、連続しているか否かを判定する(ステップS210)。これは、下領域(D)に手があるか否かの判定となる。ピクセル値≠0の部分が任意の数、連続して存在している場合には、ステップS211に進む。一方、ピクセル値≠0の部分が任意の数、連続して存在していない場合には、ステップS212に進む。
ステップS210で「YES」と判定された場合、フラグF_bottomに「1」をセットする(ステップS211)。一方、ステップS210で「NO」と判定された場合、フラグF_bottomに「0」をセットする(ステップS212)。フラグF_bottomも、手首座標のうちx座標を算出するのに用いられる。
最後に、各フラグの設定から手首座標を算出する(ステップS213)。手首座標の算出には、上記で設定した各フラグの成立を確認する必要がある。以下、図6を参照して、手首座標の算出方法について説明する。なお、画像領域Rについても、撮像領域Sと同じ方向にx軸、y軸をとり、原点は、画像領域Rの左上である。
まず、画像上下のフラグ(F_top,F_bottom)を用いて、手首座標のx座標を決定する(図6(a)参照)。
(i)F_top=1、F_bottom=1の場合、手が画像領域Rの上辺及び下辺に跨った状態で存在しているので、手領域を抽出できる状態ではないと判断する。この場合、x座標の算出を行わない。
(ii)F_top=1、F_bottom=0の場合、手が画像領域Rの上辺にある状態である。従って、上領域(C)の画素(ピクセル値≠0)の平均x座標を「手首のx座標」とする。また、x座標最終判断フラグX_Flagを「0」にセットする。x座標最終判断フラグによる最終判断の詳細は後述する。
(iii)F_top=0、F_bottom=1の場合、手が画像領域Rの下辺にある状態である。従って、下領域(D)の画素(ピクセル値≠0)の平均x座標を「手首のx座標」とする。ここでも、x座標最終判断フラグX_Flagを「0」にセットする。
(iv)F_top=0、F_bottom=0の場合、手が画像領域Rの上辺及び下辺にはないが、画像領域Rの左辺又は右辺に存在する可能性がある。ここでは、「手首のx座標」が決定しないが、x座標最終判断フラグX_Flagを「1」にセットし、後述する最終判断にて「手首のx座標」を決定する。
次に、画像左右のフラグ(F_left,F_right)により手首座標のy座標を決定する(図6(b)参照)。
(i)F_left=1、F_right=1の場合、手が画像領域Rの左辺及び右辺に跨った状態で存在しているので、手領域を抽出できる状態ではないと判断する。この場合、y座標の算出を行わない。
(ii)F_left=1、F_right=0の場合、手が画像領域Rの左辺にある状態である。従って、左領域(A)の画素(ピクセル値≠0)の平均y座標を「手首のy座標」とする。また、y座標最終判断フラグY_Flagを「0」にセットする。y座標最終判断フラグによる最終判断の詳細は後述する。
(iii)F_left=0、F_right=1の場合、手が画像領域Rの右辺にある状態である。従って、右領域(B)の画素(ピクセル値≠0)の平均y座標を「手首のy座標」とする。ここでも、y座標最終判断フラグY_Flagを「0」にセットする。
(iv)F_left=0、F_right=0の場合、手が画像領域Rの左辺及び右辺にはないが、画像領域Rの上辺又は下辺に存在する可能性がある。ここでは、「手首のy座標」が決定しないが、y座標最終判断フラグY_Flagを「1」にセットし、後述する最終判断にて「手首のy座標」を決定する。
最後に、上記の結果と最終判断フラグ(X_Flag,Y_Flag)により最終的な「手首のx座標」、「手首のy座標」を決定する(図6(c)参照)。なお、以下でも「画素」とは、ピクセル値≠0の画素を意味する。
(i)X_Flag=1、Y_Flag=1の場合、画像領域Rの周囲のどの辺にも手がないことを意味する。この場合、手領域を抽出できる状態ではないので、x座標及びy座標の算出を行わない。
(ii)X_Flag=1、Y_Flag=0の場合、手が画像領域Rの左辺又は右辺に存在し、上辺及び下辺を跨いでいないことを意味する。ここでは、以下の算出方法αに従って、手首座標を算出する。
(α−1)F_left=1のとき、
手首座標(x,y)=(0,左領域(A)の画素の平均y座標)
(α−2)F_right=1のとき、
手首座標(x,y)=(画像領域Rの右端,右領域(B)の画素の平均y座標)
これにより、この場合の手首座標が決定する。
(iii)X_Flag=0、Y_Flag=1の場合、手は、画像領域Rの上辺又は下辺に存在し、左辺及び右辺を跨いでいないことを意味する。ここでは、以下の算出方法βに従って、手首座標を算出する。
(β−1)F_top=1のとき、
手首座標(x,y)=(上領域(C)の画素の平均x座標,0)
(β−2)F_bottom=1のとき、
手首座標(x,y)=(下領域(D)の画素の平均x座標,画像領域Rの下端)
これにより、この場合の手首座標が決定する。
(iv)X_Flag=0、Y_Flag=0の場合、手は、画像領域Rの上辺又は下辺と、左辺又は右辺(何れかの組合せ)を跨ぐ状態で存在していることを意味する。ここでは、以下の算出方法γに従って、手首座標を算出する。
(γ−1)F_left=1、F_top=1のとき(画像領域Rの左上隅)、
手首座標(x,y)=(上領域(C)の画素の平均x座標,左領域(A)の画素の平均y座標)
(γ−2)F_left=1、F_bottom=1のとき(画像領域Rの左下隅)、
手首座標(x,y)=(下領域(D)の画素の平均x座標,左領域(A)の画素の平均y座標)
(γ−3)F_right=1、F_top=1のとき(画像領域Rの右上隅)、
手首座標(x,y)=(上領域(C)の画素の平均x座標,右領域(B)の画素の平均y座標)
(γ−4)F_right=1、F_bottom=1のとき(画像領域Rの右下隅)、
手首座標(x,y)=(下領域(D)の画素の平均x座標,右領域(B)の画素の平均y座標)
これにより、手が撮像領域Sに対して、角(四隅の何れか)から斜めに差込まれた場合の手首座標が決定する。以上により、手がどの方向から撮像領域Sに差込まれても、手首座標を算出することができる。
再び図2に戻り、手首座標算出処理の終了後には、掌座標算出処理に進む(ステップS30)。これは、上述の手領域抽出処理(ステップS10)で抽出された手領域の画像から掌座標を算出する処理である。以下、図7を参照して、掌座標の算出方法について説明する。
図7(a)は、手領域抽出処理で抽出された手領域4の画像である。この画像から掌領域を切り出す方法は幾つか考えられるが、実施形態では、Opening処理による方法を用いる。
Opening処理とは、画像に対して同じ数だけ、Erosion処理(収縮処理)とDilation処理(膨張処理)を繰り返し行うことにより、細かいパターン及び小さいパターンを除去する処理である。図7(a)の画像領域Rに対してOpening処理を行うと、手領域4のうち、指や手首のパターンが除去されて、掌領域5だけが残る(図7(b)参照)。
さらに、掌領域5の重心を算出して、これを掌座標とする。抽出された手領域4が手の甲の側である場合には、掌座標の代わりに手の甲座標を算出する。
手領域4の画像から掌領域を切り出す他の方法としては、掌の形状マスクを手領域の画像にマッチングさせ、適合率の高い領域を掌と認定する方法がある。この方法は、該形状マスクを、距離に応じて変化する手領域の面積に対応させる、或いは手の差込角度にあわせて回転させる必要があるが、Opening処理の代わりに用いることもできる。
再び、図2に戻り、掌座標算出処理の終了後には、手差込角度算出処理に進む(ステップS40)。これは、手首座標算出処理(ステップS20)で算出した手首座標(座標Aとする)と、掌座標算出処理(ステップS30)で算出した掌座標(座標Bとする)により、撮像領域Sに対する手の差込角度(角度φとする)を算出する処理である。以下、図8を参照して、手差込角度の算出方法について説明する。
図8では、図示する通りx軸、y軸をとり、手領域4内の手首座標A(x1,y1)、掌座標B(x2,y2)が示され、この2点が直線で結ばれている。このとき、この直線とx軸のなす角が差込角度φとなる。なお、角度φは以下の式(1)で与えられる。
後述する画像回転補正処理では、本処理で算出した差込角度φにより、画像を回転変換し、新たな画像を得る。
再び、図2に戻り、手差込角度算出処理の終了後には、画像回転補正処理に進む(ステップS50)。これは、手差込角度算出処理(ステップS40)で算出した差込角度φを用いて、中心座標(座標Cとする)を軸に、角度φだけ画像領域Rを回転させ(反時計回り)、新たな画像を作成する処理である。以下、図9を参照して、画像回転補正について説明する。
まず、図9(a)は、補正前の画像(画像領域R)を示している。掌座標を点B(x,y)、中心座標を点C(cx,cy)としたとき、点Cから点Bへ進むベクトルvは、ベクトルv=(x-cx,y-cy)となる。
また、手首座標を点Aとしたとき、手の差込角度はφであるので、ベクトルvを、座標Cを軸として角度φだけ回転変換することで、手の撮像領域Sへの差込みは常に一定方向に補正される。このとき、ベクトルvの角度φの回転変換には、以下の式(2)で表される行列Tを用いる。
図9(b)は、上記の回転変換を行った補正後の画像(画像領域R’)を示している。上記回転変換により、座標Bは座標B’(x’,y’)に移動する。もちろん、座標Cを除く全ての画素が同様に移動するので、手領域4は手領域4’となる。
このとき、座標Cから座標B’へ進むベクトルv’は、ベクトルv’=(x’-cx,y’-cy)となるので、回転変換後の座標B’(x’,y’)は、以下の式(3)で与えられる。
この回転変換は、カメラ2で撮像された各画像(毎フレーム)に対して行われる。
このように、手が撮像領域Sのどの方向から差込まれても、上記回転変換を逐次行う。従って、手領域4が常に一定方向を向くことになり、人が手を動かして、例えば、モニター上のポインタを動かそうとするとき、人が意図する動作の方向とポインタの移動方向は常に一致する。
最後に、図10を参照して、人が実際に撮像領域S内で手を動かしたときの各種処理について説明する。以下は、撮像領域Sに左手が差込まれ、人がポインタを右方向に動かす動作をした場合の例である。
まず、撮像領域Sの左側から右斜め上向きに左手が差込まれると、画像領域R内で手領域6が抽出され、手首座標A(x1,y1)及び手の甲座標B(x2,y2)が算出される(図10(a)参照)。また、画像領域Rの水平方向をx軸として、差込角度φ1も算出される。
手領域6は、差込角度φ1に基づいて回転補正されるので、座標A(x1,y1)、座標B(x2,y2)が、それぞれ座標A’(x1’,y2’)、座標B’(x2’,y2’)に移動し、手領域6は手領域6’となる(図10(b)参照)。
次に、撮像領域S内で人が左手を動かしたとき、画像領域Rで手領域7が抽出される(図10(a)参照)。実際には、手領域6、7は異なるフレームにあるが、説明のため1つの画像領域R内に示している。
手領域7の手首座標A(x3,y3)及び手の甲座標B(x4,y4)が算出されると、座標A(x1,y1)から座標A(x3,y3)に向かうベクトルm及び座標B(x2,y2)から座標B(x4,y4)に向かうベクトルnが決定するので、画像処理部により左手が動いたことが認識される。
また、座標A(x3,y3)及び座標B(x4,y4)から差込角度φ2が算出されるので、差込角度φ2に基づいて回転補正され、座標A(x3,y3)、座標B(x4,y4)が、それぞれ座標A’(x3’,y3’)、座標B’(x4’,y4’)に移動する。その結果、手領域7は手領域7’となる(図10(b)参照)。
これにより、補正後の画像(画像領域R’)では、座標A’(x1’,y2’)から座標A’(x3’,y3’)に向かうベクトルm’及び座標B’(x2’,y2’)から座標B’(x4’,y4’)に向かうベクトルn’が決定する。
画像処理部は、ベクトルm’及びベクトルn’によって、人が意図する動作の方向を認識する。ここでは、ベクトルm’、n’の大きさ及び方向が殆ど同じであるので、ベクトルm’、n’に従いx軸正方向が認識方向とされ、ポインタが右方向に移動する。
実際には、手を数センチ動かす間に3枚以上の画像が作成されるので、画像処理部が画像の数のベクトルを繋げていくことで軌跡が得られ、手で曲線を描いたような場合にも、正確に方向が認識される。
画像処理部は、手の形状が変化した場合にも、複数の画像からその形状の変化を認識することができる。従って、本発明は、ジェスチャによって機器を操作する場合にも利用することができ、その場合にも上記一連の処理により、手が撮像領域Sのどの方向から差込まれても正確に手の形状を認識することができる。
1 人
2 カメラ(撮像手段)
3 コンピュータ(画像処理装置)
4,4’,6,6’,7,7’ 手領域
5 掌領域
P ピクセル値取得領域
R 画像領域
S 撮像領域

Claims (2)

  1. 撮像領域にある人体部位を撮像して画像情報として取得する撮像手段を用いて、該撮像手段が取得した画像情報に基づき該人体部位の動作を認識する画像処理装置であって、
    前記画像情報から人体部位の領域を抽出する人体部位領域抽出手段と、
    前記人体部位領域抽出手段が抽出した人体部位のうち、前記画像情報の周囲の画素を検出して、手首の中央部の座標である第1部位座標と、掌又は手の甲の重心の座標である第2部位座標とを算出する部位座標算出手段と、
    前記部位座標算出手段が算出した第1部位座標と第2部位座標とを結ぶ直線の傾きから、人体部位の撮像領域への差込角度を算出する差込角度算出手段と、
    前記差込角度算出手段が算出した差込角度に基づいて、前記画像情報を回転補正する画像回転補正手段とを備えることを特徴する画像処理装置。
  2. 撮像領域にある人体部位を撮像して画像情報として取得し、該画像情報に基づいて該人体部位の動作を認識する画像処理方法であって、
    前記画像情報から人体部位の領域を抽出する人体部位領域抽出工程と、
    前記人体部位領域抽出工程で抽出された人体部位のうち、前記画像情報の周囲の画素を検出して、手首の中央部の座標である第1部位座標と、掌又は手の甲の重心の座標である第2部位座標とを算出する部位座標算出工程と、
    前記部位座標算出工程で算出された第1部位座標と第2部位座標とを結ぶ直線の傾きから、人体部位の撮像領域への差込角度を算出する差込角度算出工程と、
    前記差込角度算出工程で算出された差込角度に基づいて、前記画像情報を回転補正する画像回転補正工程とを備えることを特徴とする画像処理方法。
JP2013054900A 2013-03-18 2013-03-18 画像処理装置及び画像処理方法 Active JP6170696B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013054900A JP6170696B2 (ja) 2013-03-18 2013-03-18 画像処理装置及び画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013054900A JP6170696B2 (ja) 2013-03-18 2013-03-18 画像処理装置及び画像処理方法

Publications (2)

Publication Number Publication Date
JP2014182442A JP2014182442A (ja) 2014-09-29
JP6170696B2 true JP6170696B2 (ja) 2017-07-26

Family

ID=51701133

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013054900A Active JP6170696B2 (ja) 2013-03-18 2013-03-18 画像処理装置及び画像処理方法

Country Status (1)

Country Link
JP (1) JP6170696B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6651814B2 (ja) 2015-11-30 2020-02-19 富士通株式会社 領域抽出装置、領域抽出プログラム、及び領域抽出方法
JP7292344B2 (ja) * 2021-10-08 2023-06-16 日鉄エンジニアリング株式会社 溶接システム、溶接方法及びプログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2934190B2 (ja) * 1996-08-22 1999-08-16 株式会社エイ・ティ・アール知能映像通信研究所 手振り認識装置
JP5393072B2 (ja) * 2008-07-16 2014-01-22 Kddi株式会社 掌位置検出装置、掌紋認証装置、携帯電話端末、プログラム、および掌位置検出方法
EP2703950A4 (en) * 2011-04-28 2015-01-14 Nec Solution Innovators Ltd INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND RECORDING MEDIUM

Also Published As

Publication number Publication date
JP2014182442A (ja) 2014-09-29

Similar Documents

Publication Publication Date Title
US11308347B2 (en) Method of determining a similarity transformation between first and second coordinates of 3D features
KR101606628B1 (ko) 포인팅 방향 검출 장치 및 그 방법과, 프로그램 및 컴퓨터 판독가능한 매체
US9367732B2 (en) Information processing device, information processing method, and recording medium
JP6723061B2 (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
TWI499966B (zh) 互動式操作方法
JP6723814B2 (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
JP2015153046A (ja) 画像処理装置、画像処理方法およびプログラム
JP6344530B2 (ja) 入力装置、入力方法、及びプログラム
US9613404B2 (en) Image processing method, image processing apparatus and electronic device
JP2015176253A (ja) ジェスチャ認識装置およびジェスチャ認識装置の制御方法
JP5965293B2 (ja) カメラポーズ推定装置、及びカメラポーズ推定プログラム
JP6007523B2 (ja) 生成装置、生成プログラムおよび生成方法
KR101631015B1 (ko) 제스처 인식 장치 및 제스처 인식 장치의 제어 방법
JP2012208705A (ja) 画像操作装置、画像操作方法およびプログラム
US20160110840A1 (en) Image processing method, image processing device, and robot system
JP2014029656A (ja) 画像処理装置および画像処理方法
JP6170696B2 (ja) 画像処理装置及び画像処理方法
US10088910B2 (en) Information processing apparatus and information processing method
US20190138106A1 (en) Screen display control method and screen display control system
KR101447958B1 (ko) 신체 부분 검출 방법 및 장치
JP2012003724A (ja) 三次元指先位置検出方法、三次元指先位置検出装置、及びプログラム
JP5951966B2 (ja) 画像処理装置、画像処理システム、画像処理方法、及びプログラム
JP6858159B2 (ja) 頭部装着装置を使用して関心領域を標識するテレプレゼンスのフレームワーク
US20200167005A1 (en) Recognition device and recognition method
JP2017162251A (ja) 3次元非接触入力装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170303

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170613

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170703

R150 Certificate of patent or registration of utility model

Ref document number: 6170696

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250