JP5297530B2 - 画像処理装置、及びインターフェース装置 - Google Patents
画像処理装置、及びインターフェース装置 Download PDFInfo
- Publication number
- JP5297530B2 JP5297530B2 JP2011522626A JP2011522626A JP5297530B2 JP 5297530 B2 JP5297530 B2 JP 5297530B2 JP 2011522626 A JP2011522626 A JP 2011522626A JP 2011522626 A JP2011522626 A JP 2011522626A JP 5297530 B2 JP5297530 B2 JP 5297530B2
- Authority
- JP
- Japan
- Prior art keywords
- color
- feature vector
- image
- detection window
- histogram
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
- G06V10/507—Summing image-intensity values; Histogram projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/60—Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Description
本発明は、画像中に特定の物体が写っているかを識別する、画像処理装置およびインターフェース装置に関する。
撮影された画像に、検出したい特定の検出対象が写っているか否かをあらかじめ生成した識別器を用いて判定する方法がある。画像に写っている検出対象は、見る方向の微小な違いや、個々の物体の微小な差によって、見え方がさまざまに変化する。この様な差がある場合であっても検出精度を保つため、画像から特徴ベクトルを算出し、この特徴ベクトルによって識別する。
検出対象の物体が特定の色を有している場合、この色を用いる方式がある。しかしながら、色は照明の色やカメラの設定などの撮影環境によって大きく変動する。そこで、撮影された画像内の特定の領域の色が分かっている場合には、その色との相対的な色の関係を用いて、検出対象を検出する方式が提案されている。例えば特許文献1は、比較的検出しやすい顔を検出し、顔の肌色に近い色の画像領域を手の候補領域として検出を行っている。しかし、この方式では画像上で顔と似た色の対象物が存在すると、手の領域が正しく抽出されず、位置や形状が正しく求められない。
非特許文献1は、同様に顔を検出して肌色の色モデルを生成し、この色モデルを用いて算出された肌色強度の勾配方向を利用して、テンプレート照合で手を検出している。この方式では、肌色の強度を示す画像を、強度の勾配方向で分割して直接テンプレート照合しているため、手の形状の変化に伴い検出の精度が落ちてしまう場合がある。
"Template-Based Hand Pose Recognition Using Multiple Cues" B. Stenger, Proc. ACCV, pages 551-560, January 2006.
本発明は、上記従来技術の問題点を解決するためになされたものであって、撮影環境の変化や検出対象の形状の変化に対して頑健な精度の高い検出を行うことが可能な画像処理装置及びインターフェース装置を提供することを目的とする。
本発明は、上記課題を解決するために、入力画像内の検出対象を検出する画像処理装置であって、前記入力画像から、基準色を算出するための基準画像を抽出する抽出部と、前記基準画像から基準色を求める基準色算出部と、(a)前記入力画像内に設定された検出ウィンドウの各画素の色と、前記基準色との、色空間における成分毎の差を算出し、(b)前記検出ウィンドウ内を分割した局所領域それぞれについて、前記差に関するヒストグラムを生成し、(c)前記ヒストグラムを、前記局所領域の検出ウィンドウ内の位置に応じた要素位置とする特徴ベクトルを算出する特徴ベクトル算出部と、前記特徴ベクトルに基づいて、前記検出ウィンドウ内に前記検出対象が含まれるか識別する識別部と、を具備することを特徴とする、画像処理装置及びインターフェース装置を提供する。
本発明によれば、撮影環境の変化や検出対象の形状の変化に対して頑健な精度の高い検出を行うことが可能となる。
以下、本発明の実施形態について説明する。なお、互いに同様の動作をする構成や処理には共通の符号を付して、重複する説明は省略する。
(第1の実施形態)
本実施形態の画像処理装置は、入力画像内で所望の検出対象の物体が存在するか否かを識別し、その結果を出力する。本実施形態では、入力画像内で指の領域を検出する方法について説明する。画像処理装置によれば、ハンドジェスチャーを検出することができる。例えば、テレビ、PCに組み込むことでこれらの装置に対するコマンドをユーザのハンドジェスチャーによって操作指示をすることが出来る。例として、PCに対する操作指示として、拳の移動によってマウス操作と同様のカーソルの移動を指示し、拳を握った状態から親指を立てたハンドジェスチャーを検出するとクリック操作を指示する場合について以下説明する。
本実施形態の画像処理装置は、入力画像内で所望の検出対象の物体が存在するか否かを識別し、その結果を出力する。本実施形態では、入力画像内で指の領域を検出する方法について説明する。画像処理装置によれば、ハンドジェスチャーを検出することができる。例えば、テレビ、PCに組み込むことでこれらの装置に対するコマンドをユーザのハンドジェスチャーによって操作指示をすることが出来る。例として、PCに対する操作指示として、拳の移動によってマウス操作と同様のカーソルの移動を指示し、拳を握った状態から親指を立てたハンドジェスチャーを検出するとクリック操作を指示する場合について以下説明する。
図1は、入力画像から、親指を検出する場合の例を示す図である。入力画像から比較的検出しやすい拳を検出する。拳の領域を基準画像とし、基準画像の平均色(以下基準色と記載)を算出する。親指は拳の上部に撮像されることが推定されるため、検出された拳上部に順次検出ウィンドウ(1…n…N)を設定して検出ウィンドウ内に親指が含まれるかを識別する。なお、基準画像は図1の例に限られず、例えば顔の中央部分を基準画像として人の手を検出する方法等であっても良い。検出ウィンドウ内を仮想的に分割した局所領域毎にヒストグラムを算出し、検出ウィンドウの特徴ベクトルを算出する。ヒストグラムや特徴ベクトルの算出方法の詳細については後述する。
図2は、本実施形態の画像処理装置100を示す図である。
画像処理装置100は、抽出部1と、基準色算出部2と、検出ウィンドウ設定部3と、量子化設定部4と、特徴ベクトル算出部5と、識別部6とを有する。
画像処理装置100は、抽出部1と、基準色算出部2と、検出ウィンドウ設定部3と、量子化設定部4と、特徴ベクトル算出部5と、識別部6とを有する。
抽出部1は、入力された画像から基準となる色を抽出するための基準画像を抽出する。あらかじめ拳の位置が分かっている場合には、入力画像中の、既知の拳の領域を基準画像として用いることもできる。または、輝度情報を用いた既存の物体検出手法を利用して拳を検出し、検出された拳の領域を、基準画像として用いることもできる。既存の物体検出手法としては、例えば、”Discriminative Feature Co-occurrence Selection for Object Detection,” T. Mita, T. Kaneko, B. Stenger, O. Hori, IEEE T. PAMI, Vol. 30, No. 7, pages 1257-1269, July 2008などを用いる。
基準色算出部2は、抽出部1で抽出した基準画像内で、基準となる色を算出する。基準色としては、基準画像内の色の平均値、中央値、最頻値などの統計量を用いる。色空間の表色系として、三原色(RGB)空間や、YUV空間、LAB空間、HSV空間などを用いることもできる。または輝度情報を除外して用いることもできる。その場合、例えばYUV空間のY成分を除く、RGB空間を輝度情報で正規化するなどの方法がある。本実施形態では、YUV空間の平均値を用いる例について説明する。以下、基準色の各成分を(Ym, Um, Vm)と記載する。
検出ウィンドウ設定部3は、親指が存在するか否かを判定するための検出ウィンドウを設定する。図1の例では、親指は拳上部に存在すると仮定して、基準画像に対して相対的に上部に存在する複数の領域それぞれを、N個の検出ウィンドウとして設定している。検出ウィンドウの設定方法には、他にもさまざまな方法がある。基準画像と検出対象との位置や大きさの相対的な関係があらかじめ推定可能な場合には、基準画像を基準として、存在可能な位置の範囲で順次検出ウィンドウの位置と大きさを変更しながら設定することもできる。また、画面全体に大きさと位置を様々に変更しながら順次検出ウィンドウを設定してもよい。
量子化設定部4は、後段の特徴ベクトル算出部5で局所領域毎の色ヒストグラムを生成する際のM個のビンを設定する。ヒストグラムとは度数分布図のことである。値(色ヒストグラムの場合には色)がとりうる範囲をビンと呼ばれる適当な数値範囲の領域に分ける。値がそのビンの範囲に含まれる場合はそのビンの持つ度数を例えば1増やす。なお、増える度数は1ではなく、重み付きの値であっても良い。上記の数値範囲の幅を量子化幅という。量子化設定部4は、各ビンの数値範囲を設定する(以下、量子化方法と記載)。以下、その設定方法について説明する。
ある局所領域内の画素iの色(Yi, Ui, Vi)と基準色(Ym, Um, Vm)との差は、(Yi-Ym, Ui-Um, Vi-Vm)となる。最も簡単な量子化方法は、色空間の各成分がとりうる数値範囲を均等にM分割する方法である。また、量子化方法を学習サンプルの画像から設定することも可能である。後者の方が高性能である場合が多い。以下、学習サンプル画像を利用した量子化方法について説明する。基準画像である拳中央部の基準画像と、同じ画像内に撮影されている検出対象である親指の画像との組が、学習サンプルとして多数与えられているとする。検出対象である親指が撮像された画像領域の各画素(Yi, Ui, Vi)について基準色(Ym, Um, Vm)との差(Yi-Ym, Ui-Um, Vi-Vm)を算出することができる。差 (Yi-Ym, Ui-Um, Vi-Vm)を全ての学習サンプルについて計算し、その各成分について色ヒストグラムを生成する。
図3は、拳と親指の学習サンプルから算出したYUV空間のV成分に関する色ヒストグラムの例と、V成分のビンの設定方法の例を示す図である。ヒストグラム頻度が閾値よりも大きい数値範囲のV成分をM-K等分し(M>>K)、閾値以下の領域をK等分する。つまり、頻度が高く存在するV成分の数値範囲については、量子化幅を細かく設定し、それ以外の頻度の低いV成分の数値範囲については量子化の幅を荒く設定する。図3は、M=7、K=2の例を示す。
図3は、拳と親指の学習サンプルから算出したYUV空間のV成分に関する色ヒストグラムの例と、V成分のビンの設定方法の例を示す図である。ヒストグラム頻度が閾値よりも大きい数値範囲のV成分をM-K等分し(M>>K)、閾値以下の領域をK等分する。つまり、頻度が高く存在するV成分の数値範囲については、量子化幅を細かく設定し、それ以外の頻度の低いV成分の数値範囲については量子化の幅を荒く設定する。図3は、M=7、K=2の例を示す。
特徴ベクトル算出部5は、設定された検出ウィンドウの各画素の色と、基準色算出部2が算出した基準色(Ym, Um, Vm)との、成分毎の差(Yi-Ym, Ui-Um, Vi-Vm)を算出する。成分毎の差(Yi-Ym, Ui-Um, Vi-Vm)を、量子化設定部4で設定した量子化方法に従って量子化する。検出ウィンドウ内を仮想的に分割した局所領域それぞれについて、基準色との差の色ヒストグラムを生成する。色ヒストグラムの度数を、局所領域の検出ウィンドウ内の位置に応じた要素位置とする特徴ベクトルを算出する。
図4は、色ヒストグラムから特徴ベクトルを算出する方法を説明する図である。検出ウィンドウ内の局所領域について基準色との差の色ヒストグラムを生成する。局所領域ごとのヒストグラムの頻度の合計が1となるように正規化し、これらの正規化した色ヒストグラムを局所領域の位置に応じた要素位置とする特徴ベクトルを求める。
局所領域は、図4のように検出ウィンドウ内を重なりなく均等に分割する方法が最も単純な方法である。が、Dalal, N., Triggs, B., “Histograms of Oriented Gradients for Human Detection,” IEEE Conputer Vision and Pattern Recognition, pp. 886-893, 2005のように、数個の隣接局所領域をグループ化し、グループ領域の重なりを許し、グループごとに正規化を行って特徴ベクトルを算出してもよい。
識別部6は、特徴ベクトル算出部5が求めた特徴ベクトルに基づいて、検出ウィンドウ内に検出対象である親指が存在するか否かを識別器(図示しない)によって検出する。識別器としては、K最近傍識別器、判別分析、サポート・ベクトル・マシン(SVM)、ニューラルネットワーク等の既存の様々なものを用いることができる。これらの識別器は、いずれも学習型の識別器であり、学習サンプルが必要となる。本実施形態では、学習サンプルは、基準画像である拳中央部の基準画像から求められた基準色と、基準画像と同じ画像内で撮影された検出対象である親指の画像の組が正解学習サンプルとなる。不正解学習サンプルは、同様の基準色と、親指を含まない画像の組である。これらの学習サンプルから、特徴ベクトル算出部5が特徴ベクトルを求めた方法と同様の方法で特徴ベクトルが算出される。それぞれの識別器の学習アルゴリズムによって、識別関数を算出する。例えば線形SVMの場合、以下のように識別関数により特徴ベクトル評価し、正の値を持つとき検出ウィンドウ内に親指が存在すると判定する。以下は識別関数の例を示す式である。
Σi (ai ti xi Tx) − b > 0
ここで、xは特徴ベクトル、(ti, xi)は学習サンプルの正解値(親指ならti=+1, 親指でなければti=-1)と特徴ベクトルの組、aiとbは学習アルゴリズムによって決定される学習サンプルに対する係数と閾値である。
ここで、xは特徴ベクトル、(ti, xi)は学習サンプルの正解値(親指ならti=+1, 親指でなければti=-1)と特徴ベクトルの組、aiとbは学習アルゴリズムによって決定される学習サンプルに対する係数と閾値である。
図5は、本実施形態の画像処理装置の動作を示すフローチャートである。S1では抽出部1の処理により基準画像を抽出し、つづいてS2において基準画像内で基準色算出部2の処理により基準色を算出する。S3において、検出ウィンドウを検出ウィンドウ設定部3の処理にしたがって1つ設定し、S4において量子化設定部4の量子化方法に従って色空間の量子化の設定を行う。S5では、特徴ベクトル算出部5は、S4で求めた量子化設定と基準色を用いて色ヒストグラムを生成し、特徴ベクトルを算出する。S6では識別部6が特徴ベクトルによって、検出ウィンドウ内に検出対象があるかを識別する。S7では、全ての検出ウィンドウについての識別処理が終わっていれば(S7,Yes)処理を終了し、終わっていなければ(S7,No)S3に戻って次の検出ウィンドウについての検出処理を行う。
図7は、検出対象と基準画像の別の例を示す図である。人の手のひら中央部分を基準画像とし、手のひらを検出対象とするなど、さまざまな応用が考えられる。この場合、図1の例とは異なり、基準画像となった領域を含む検出ウィンドウが設定される。図7の例での基準画像の抽出方法として、検出対象が存在するか否かを判別するための検出ウィンドウからみて固定の位置に基準画像を設定する。この方法は、検出対象のある部分または全体が、一様な色である場合に有効である。つまり、手のひらの様に一様な色となる部分が基準画像として選択されるように設定する。
本実施形態の画像処理装置によれば、特徴ベクトルに、基準色との相対的な色の関係が検出ウィンドウ内にどのように分布しているかの情報を用いている。そのため、高いな識別性能を得ることができる。同一画像内の色の差の情報を利用しているため、画像の撮影条件の変化に影響されにくい。また局所領域毎の色ヒストグラムを用いて、局所領域の位置に応じた要素位置とする特徴ベクトルによって、画像と色空間の両方について量子化が行われているため検出対象の姿勢や個体間の差の影響が少ない。よって、高精度な物体検出を行うことができる。
(第2の実施形態)
本実施形態の画像処理装置は、第1の実施形態で説明した基準色との色の差の特徴ベクトルに加えて、入力画像の輝度から算出した輝度勾配に関する特徴ベクトルを識別に用いる点が異なる。
図6は、本実施形態の特徴ベクトル算出部51を示す図である。特徴ベクトル算出部51は、特徴ベクトル算出部5と、特徴ベクトル算出部7と、統合部8を備える。特徴ベクトル算出部5は図1の特徴ベクトル算出部5と同様の処理を行う。
特徴ベクトル算出部7は、検出ウィンドウ設定部3で設定された検出ウィンドウ内の輝度情報を用いて特徴ベクトルを算出する。このような輝度情報用いる特徴ベクトルとしては、既存のさまざまなものを用いることができる。例えば、輝度勾配の方向のヒストグラムを使用するHistogram of orientated gradients(HOG)特徴量(「Dalal, N., Triggs, B., “Histograms of Oriented Gradients for Human Detection,” IEEE Conputer Vision and Pattern Recognition, pp. 886-893, 2005」参照)や、勾配方向の局所的な共起ヒストグラムを利用するCo-occurrence histogram of oriented gradients (CoHOG)特徴量(「Tomoki Watanabe, Satoshi Ito, and Kentaro Yokoi, “Co-occurrence Histograms of Oriented Gradients for Pedestrian Detection,” Proceedings of the 3rd Pacific Rim Symposium on Advances in Image and Video Technology, Pages: 37 − 47, 2009」参照)などを用いる。
統合部8は、特徴ベクトル算出部5が求めた特徴ベクトルと、特徴ベクトル算出部7が算出した特徴ベクトルを連結し、特徴ベクトルを生成する。識別部6において、この特徴ベクトルを用いて検出ウィンドウ内に検出対象が存在するか否かを決定する。なお、特徴ベクトル算出部51が特徴ベクトルを算出した方法と同様の方法で、学習サンプルの特徴ベクトルも算出される。
このように輝度勾配の情報を加えて用いることにより、検出対象物体の輪郭情報をさらに考慮して識別をおこなうことが可能となり、認識精度を向上させることができる。
(第3の実施形態)
図8は、本実施形態のインターフェース装置を示す図である。操作者が手形状又は手の動きによって後段に接続される制御対象装置に指示を与えるインターフェース装置である。
撮像部81は、例えばCCDビデオカメラなどの撮像装置を用いて、操作者の手を含む入力画像を撮像する。
画像処理装置100は、第1の実施形態又は第2の実施形態の画像処理装置である。入力画像に検出対象の親指が存在するか否か及び検出対象の位置、を識別結果として送る。
制御部82は、認識されたハンドジェスチャーの種類及び位置に基づいて制御内容を決定し、制御対象装置の制御を行う。識別結果から操作者が行ったハンドジェスチャーの種類を認識するが、ハンドジェスチャーの認識は、例えば拳の位置の時間的な履歴から移動方向を算出し、拳の移動を上下左右の方向コマンドとして認識し、拳上部に親指が検出されれば、決定コマンドと認識する。
ジェスチャーの種類に基づいて、後段に接続される制御対象機器(図示せず)の制御内容を作成し、制御対象機器の制御を行う。例えば、テレビ、PCに組み込むことでこれらの装置に対するコマンドを作成する。
なお、上記の各実施形態はジェスチャー認識手法の一例として示したものであり、上記手法に限定されるものではない。
100・・・画像処理装置
1・・・抽出部
2・・・基準色算出部
3・・・検出ウィンドウ設定部
4・・・量子化設定部
5・・・特徴ベクトル算出部
6・・・識別部
7・・・特徴ベクトル算出部
8・・・統合部
800・・・インターフェース装置
81・・・撮像部
82・・・制御部
1・・・抽出部
2・・・基準色算出部
3・・・検出ウィンドウ設定部
4・・・量子化設定部
5・・・特徴ベクトル算出部
6・・・識別部
7・・・特徴ベクトル算出部
8・・・統合部
800・・・インターフェース装置
81・・・撮像部
82・・・制御部
Claims (5)
- 入力画像内の検出対象を検出する画像処理装置であって、
前記入力画像から、基準色を算出するための基準画像を抽出する抽出部と、
前記基準画像から基準色を求める基準色算出部と、
(a)前記入力画像内に設定された検出ウィンドウの各画素の色と、前記基準色との、色空間における成分毎の差を算出し、(b)前記検出ウィンドウ内を分割した局所領域それぞれについて、前記差に関するヒストグラムを生成し、(c)前記ヒストグラムを、前記局所領域の検出ウィンドウ内の位置に応じた要素位置とする特徴ベクトルを算出する特徴ベクトル算出部と、
前記特徴ベクトルに基づいて、前記検出ウィンドウ内に前記検出対象が含まれるか識別する識別部と、
を具備することを特徴とする、画像処理装置。
- 前記特徴ベクトル算出部は、前記ヒストグラムにおけるビンごとに色の量子化の幅が異なることを特徴とする請求項1記載の画像処理装置
- 前記特徴ベクトル算出部は、あらかじめ前記検出対象の学習データから生成された前記色ヒストグラムに基づき、頻度が高い前記色成分の値の範囲では前記量子化の幅を細かくし、頻度が低い前記色成分の値の範囲では前記量子化の幅を荒くすることを特徴とする請求項2に記載の画像処理装置。
- 前記特徴ベクトル算出部は、さらに
(c)前記局所領域の輝度の勾配方向を求め、
(d)前記勾配方向を量子化して、方向に関する勾配ヒストグラムを前記局所領域毎に生成し、
(e)前記色ヒストグラムと前記勾配ヒストグラムとを、連結し、前記局所領域の位置に応じた要素位置とする特徴ベクトルを算出する、
ことを特徴とする、請求項3記載の画像処理装置。
- 操作者が手形状又は手の動きによって制御対象装置に指示を与えるインターフェース装置において、
画像を撮像する撮像部と、
前記撮像部が撮像した入力画像から、基準色を算出する基準画像を抽出する抽出部と、
前記基準画像から基準色を求める基準色算出部と、
(a)前記入力画像内に設定された検出ウィンドウの各画素の色と、前記基準色との、色空間における成分毎の差を算出し、(b)前記検出ウィンドウ内に設けた複数の局所領域それぞれについて、前記差に関するヒストグラムを生成し、(c)前記ヒストグラムを、前記局所領域の検出ウィンドウ内の位置に応じた要素位置とする特徴ベクトルを算出する特徴ベクトル算出部と、
前記特徴ベクトルに基づいて、前記検出ウィンドウ内に検出対象が含まれるか識別する識別部と、
前記識別部の識別結果から、前記制御対象装置に対する指示を与える制御部と、
を備えたことを特徴とするインターフェース装置。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2009/003340 WO2011007390A1 (ja) | 2009-07-15 | 2009-07-15 | 画像処理装置、及びインターフェース装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2011007390A1 JPWO2011007390A1 (ja) | 2012-12-20 |
JP5297530B2 true JP5297530B2 (ja) | 2013-09-25 |
Family
ID=43449014
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011522626A Expired - Fee Related JP5297530B2 (ja) | 2009-07-15 | 2009-07-15 | 画像処理装置、及びインターフェース装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US8144932B2 (ja) |
JP (1) | JP5297530B2 (ja) |
WO (1) | WO2011007390A1 (ja) |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4877374B2 (ja) * | 2009-09-02 | 2012-02-15 | 株式会社豊田中央研究所 | 画像処理装置及びプログラム |
JP5095790B2 (ja) * | 2010-09-02 | 2012-12-12 | 株式会社東芝 | 特徴量算出装置及び識別装置 |
US9189072B2 (en) * | 2011-02-08 | 2015-11-17 | Lg Electronics Inc. | Display device and control method thereof |
JP5716504B2 (ja) * | 2011-04-06 | 2015-05-13 | 富士通株式会社 | 画像処理装置、画像処理方法および画像処理プログラム |
US8929612B2 (en) * | 2011-06-06 | 2015-01-06 | Microsoft Corporation | System for recognizing an open or closed hand |
JP6123975B2 (ja) * | 2011-07-29 | 2017-05-10 | パナソニックIpマネジメント株式会社 | 特徴量抽出装置及び特徴量抽出方法 |
US8948522B2 (en) * | 2011-08-04 | 2015-02-03 | Seiko Epson Corporation | Adaptive threshold for object detection |
JP5651659B2 (ja) * | 2012-08-31 | 2015-01-14 | 株式会社東芝 | 物体検出システムおよびプログラム |
US9064149B1 (en) | 2013-03-15 | 2015-06-23 | A9.Com, Inc. | Visual search utilizing color descriptors |
JP6273686B2 (ja) * | 2013-03-29 | 2018-02-07 | 富士通株式会社 | 画像処理装置、画像処理方法および画像処理プログラム |
US9299009B1 (en) | 2013-05-13 | 2016-03-29 | A9.Com, Inc. | Utilizing color descriptors to determine color content of images |
US9639748B2 (en) * | 2013-05-20 | 2017-05-02 | Mitsubishi Electric Research Laboratories, Inc. | Method for detecting persons using 1D depths and 2D texture |
JP6221505B2 (ja) * | 2013-08-22 | 2017-11-01 | 富士通株式会社 | 画像処理装置、画像処理方法および画像処理プログラム |
JP6354316B2 (ja) * | 2014-05-16 | 2018-07-11 | 株式会社デンソー | 画像検出装置及びプログラム |
JP6487642B2 (ja) * | 2014-07-01 | 2019-03-20 | 国立大学法人 筑波大学 | 手指形状の検出方法、そのプログラム、そのプログラムの記憶媒体、及び、手指の形状を検出するシステム。 |
CN104268514A (zh) * | 2014-09-17 | 2015-01-07 | 西安交通大学 | 一种基于多特征融合的手势检测方法 |
US9508018B2 (en) * | 2014-11-24 | 2016-11-29 | Texas Instruments Incorporated | Systems and methods for object detection |
KR101613550B1 (ko) | 2014-11-28 | 2016-04-19 | 세종대학교산학협력단 | 사과 검출장치 및 사과 검출방법 |
ITUB20154037A1 (it) * | 2015-09-30 | 2017-03-30 | Elio Lorenzoni | Assieme e metodo per la gestione di una partita di golf |
JP7197171B2 (ja) * | 2017-06-21 | 2022-12-27 | 日本電気株式会社 | 情報処理装置、制御方法、及びプログラム |
SG10201912990QA (en) * | 2019-12-23 | 2020-11-27 | Sensetime Int Pte Ltd | Gesture Recognition Method And Apparatus, Electronic Device, And Storage Medium |
JP6935887B2 (ja) * | 2020-02-14 | 2021-09-15 | 知能技術株式会社 | 端末操作システム、および、端末操作プログラム |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10232935A (ja) * | 1997-02-19 | 1998-09-02 | Canon Inc | 画像処理装置およびその方法 |
JP2007087089A (ja) * | 2005-09-21 | 2007-04-05 | Fujitsu Ltd | ジェスチャ認識装置、ジェスチャ認識プログラムおよびジェスチャ認識方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007122218A (ja) * | 2005-10-26 | 2007-05-17 | Fuji Xerox Co Ltd | 画像分析装置 |
JP4384240B2 (ja) * | 2008-05-28 | 2009-12-16 | 株式会社東芝 | 画像処理装置、画像処理方法、画像処理プログラム |
-
2009
- 2009-07-15 JP JP2011522626A patent/JP5297530B2/ja not_active Expired - Fee Related
- 2009-07-15 WO PCT/JP2009/003340 patent/WO2011007390A1/ja active Application Filing
-
2010
- 2010-02-25 US US12/712,746 patent/US8144932B2/en not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10232935A (ja) * | 1997-02-19 | 1998-09-02 | Canon Inc | 画像処理装置およびその方法 |
JP2007087089A (ja) * | 2005-09-21 | 2007-04-05 | Fujitsu Ltd | ジェスチャ認識装置、ジェスチャ認識プログラムおよびジェスチャ認識方法 |
Also Published As
Publication number | Publication date |
---|---|
US20110013805A1 (en) | 2011-01-20 |
WO2011007390A1 (ja) | 2011-01-20 |
JPWO2011007390A1 (ja) | 2012-12-20 |
US8144932B2 (en) | 2012-03-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5297530B2 (ja) | 画像処理装置、及びインターフェース装置 | |
Huang et al. | Gabor filter-based hand-pose angle estimation for hand gesture recognition under varying illumination | |
Tang | Recognizing hand gestures with microsoft’s kinect | |
CN103098076B (zh) | 电视机控制用手势识别*** | |
US7912253B2 (en) | Object recognition method and apparatus therefor | |
JP4372051B2 (ja) | 手形状認識装置及びその方法 | |
Liu et al. | Real-time skin color detection under rapidly changing illumination conditions | |
KR20200130440A (ko) | 이미지 내 객체를 식별하기 위한 방법 및 상기 방법을 실행하기 위한 모바일 디바이스(method for identifying an object within an image and mobile device for executing the method) | |
CN110619628A (zh) | 一种人脸图像质量评估方法 | |
JP4682820B2 (ja) | オブジェクト追跡装置及びオブジェクト追跡方法、並びにプログラム | |
Malallah et al. | Vision-based control by hand-directional gestures converting to voice | |
JP2016015045A (ja) | 画像認識装置、画像認識方法及びプログラム | |
US8902161B2 (en) | Device and method for detecting finger position | |
Weiyao et al. | Human action recognition using multilevel depth motion maps | |
Liu et al. | Salient region detection via simple local and global contrast representation | |
JP2007052609A (ja) | 手領域検出装置及び手領域検出方法、並びにプログラム | |
Salunke et al. | Power point control using hand gesture recognition based on hog feature extraction and K-NN classification | |
Thabet et al. | Fast marching method and modified features fusion in enhanced dynamic hand gesture segmentation and detection method under complicated background | |
KR101756352B1 (ko) | 확장성 국부 이진 패턴을 이용한 이미지 내 얼굴의 연령 추정 방법 | |
CN111913584B (zh) | 一种基于手势识别的鼠标光标控制方法及*** | |
Thabet et al. | Algorithm of local features fusion and modified covariance-matrix technique for hand motion position estimation and hand gesture trajectory tracking approach | |
Shitole et al. | Dynamic hand gesture recognition using PCA, Pruning and ANN | |
KR101200009B1 (ko) | 사용자의 손 동작을 이용하여 제어 기능을 제공하기 위한 프리젠테이션 시스템 및 그 방법 | |
Yeh et al. | Vision-based virtual control mechanism via hand gesture recognition | |
Wang et al. | A study on hand gesture recognition algorithm realized with the aid of efficient feature extraction method and convolution neural networks: design and its application to VR environment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130522 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130614 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5297530 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |