JP6007682B2 - 画像処理装置、画像処理方法及びプログラム - Google Patents

画像処理装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JP6007682B2
JP6007682B2 JP2012192375A JP2012192375A JP6007682B2 JP 6007682 B2 JP6007682 B2 JP 6007682B2 JP 2012192375 A JP2012192375 A JP 2012192375A JP 2012192375 A JP2012192375 A JP 2012192375A JP 6007682 B2 JP6007682 B2 JP 6007682B2
Authority
JP
Japan
Prior art keywords
motion vector
eye
face
similarity
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012192375A
Other languages
English (en)
Other versions
JP2014048962A (ja
Inventor
ジェイクリッシュナ モハナクリッシュナン
ジェイクリッシュナ モハナクリッシュナン
小田切 淳一
淳一 小田切
哲 中島
哲 中島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2012192375A priority Critical patent/JP6007682B2/ja
Priority to EP13174186.0A priority patent/EP2704056A3/en
Priority to US13/936,011 priority patent/US9690988B2/en
Publication of JP2014048962A publication Critical patent/JP2014048962A/ja
Application granted granted Critical
Publication of JP6007682B2 publication Critical patent/JP6007682B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Description

本発明は、瞬きを検出する画像処理装置、画像処理方法及びプログラムに関する。
瞬きは、人間の内面状態に深く関係していることが医学的に知られている。そのため、画像や映像から瞬きを検出し、その特性を解析することによって人間の内面状態の把握ができると考えられている。
瞬きを検出する技術の一つとして、画像間の顔動きベクトルと目(まぶた)動きベクトルとの差を検出し、検出したベクトル差が下向きで所定値より大きいときに瞬きと判定する技術がある(例えば特許文献1参照)。
特開2001−43382号公報
瞬き検出技術は、デジタルカメラなどに広く適用されているが、高解像度で撮影時のフレームレートが高く、被写体が静止してカメラを凝視しているような場合が想定されている。
しかしながら、ユーザーモニタリングなどの分野においては、被写体が動いている場合や低コストのカメラの性能を考慮して、低解像度でキャプチャーした場合などでも瞬き検出できるようにすることが求められる。
低解像度で撮影した画像で、瞬き検出を行うと、次のような問題点が発生する。低解像度の画像では、目領域の特徴点が変形・消失しやすくなる。特徴点の消失や変形が発生する理由は、まぶたが閉じるとき黒目や白目が見えなくなり、その領域の色パターンが変わってしまうからである。
その結果、目領域内の動きベクトルが不正確になり、最終的に目の動きを表す「目動きベクトル」も不正確になる。つまり、目動きベクトルが、目領域の動きを適切に表すことができない場合がある。
また、顔の移動量は、瞬きの移動量と比べて大きい。低解像度の場合、顔の動きベクトル算出の小さな誤差が、瞬きの移動量と同等になることが考えられる。従来技術は、「目動きベクトル」と「顔動きベクトル」の差分を用いて瞬きを判定するため、顔が動く画像では誤検出が起こりやすい。
つまり、従来技術における瞬き判定では、動きを一つの代表値(顔の動きベクトルと目の動きベクトルの差分)として表すため、その代表値に誤差が含まれていれば、誤検出や未検出が発生しやすくなってしまう。
そこで、開示の技術では、低解像度で、被写体が動く場合でも、瞬き検出の性能を向上させることができる画像処理装置、画像処理方法及びプログラムを提供することを目的とする。
開示の一態様における画像処理装置は、順次入力される画像から顔領域と目領域とを検出する検出部と、2つの画像間で、前記顔領域の第1動きベクトルと、前記目領域が分割された複数のブロックの第2動きベクトルとを算出する動きベクトル算出部と、前記第1動きベクトルと前記各第2動きベクトルとの類似度の平均値を画像間毎に算出する類似性算出部と、前記類似度の平均値に基づいて、瞬きか否かを判定する判定部とを備える。
開示の技術によれば、低解像度で、被写体が動く場合でも、瞬き検出の性能を向上させることができる。
理想の目領域の動きベクトルを説明する図。 実際の目領域の動きベクトルを説明する図。 実施例における画像処理装置のハードウェアの一例を示すブロック図。 実施例における画像処理装置の機能の一例を示すブロック図。 顔領域が分割された複数のブロックの特徴点の一例を示す図。 瞬きによる目領域のベクトルが不正確になった状態における顔領域内のベクトルの角度方向分布の一例を示す図。 顔が左右に回転するときに発生する動きベクトルの傾向を示す図。 ベクトルの長さの分布の一例を示す図。 顔の動きあり、瞬きなしの場合の目領域内の動きベクトル群の一例を示す図。 顔の動きあり、瞬きありの場合の目領域内の動きベクトル群の一例を示す図。 ノイズ判定(その1)を説明する図。 ノイズ判定(その2)を説明する図。 瞬きによる閉眼時の動きベクトルの一例を示す図。 瞬き判定を説明する図。 瞬き判定処理(その1)の一例を示すフローチャート。 瞬き判定処理(その2)の一例を示すフローチャート。
まず、以下に説明する実施例の着眼点について説明する。瞬きの際は、従来技術のように目領域全体から1つの動きベクトルを求めると、特徴点の消失・変形により、目領域と顔の移動量の正確な差を求めることができない。しかしながら、目領域を小さいブロックに分割して動きベクトル群を求めると、顔の動きの有無に関わらず、目領域内の動きベクトルの方向は、顔全体の動きベクトルの方向とは異なる。
図1は、理想の目領域の動きベクトルを説明する図である。図1に示すように、顔の動きがない場合、瞬きをした場合の目領域の動きベクトルと、顔領域の動きベクトル(動きなし)とは異なる。また、右下方向への顔の動きがある場合、瞬きをした場合の目領域の動きベクトルと、顔領域の動きベクトル(右下方向)とは異なる。
図2は、実際の目領域の動きベクトルを説明する図である。図2に示すように、目を閉じることで特徴点が消失したり変形したりし、実際の目領域の動きベクトルは理想とは異なり、あらゆる方向を向く傾向にある。
この場合でも、図2に示すように、顔の動きの有無に関わらず、目領域の動きベクトルと、顔領域の動きベクトルとは異なる。また、低解像度の場合には、画像が荒くなるため、さらに特徴点が消失したり変形したりしやすくなる。低解像度とは、例えば640×480以下の解像度とする。
上述したように、瞬き時の顔領域の動きベクトルと、目領域の動きベクトルとの違いに着目し、この着眼点に基づいて瞬き検出を行う実施例について、以下、添付図面を参照しながら説明する。
[実施例]
<ハードウェア>
図3は、実施例における画像処理装置10のハードウェアの一例を示すブロック図である。図3に示す例では、画像処理装置10は、撮像部11、表示部12と接続される。
撮像部11は、例えばデジタルカメラなどのデジタル画像を生成する装置である。撮像部11は、人物の顔を撮影し、人物の顔を含む画像を生成する。撮像部11は、撮影した順に生成した画像を画像処理装置10に出力する。
画像処理装置10は、取得した画像から顔領域や目領域を検出し、検出した各領域の動きベクトルの類似性に基づいて瞬きを検出する。画像処理装置10は、瞬きの検出結果を記憶し、また表示部12に出力してもよい。
表示部12は、例えばLCD(Liquid Crystal Display)や有機EL(Electroluminescence)ディスプレイ等であり、画像処理装置10から取得した瞬き検出の結果を表示したりする。
画像処理装置10は、ハードウェアとして、例えば制御部101、主記憶部102、補助記憶部103、通信部104、ドライブ装置105を有する。各部は、バスを介して相互にデータ送受信可能に接続されている。
制御部101は、コンピュータの中で、各装置の制御やデータの演算、加工を行うCPU(Central Processing Unit)である。また、制御部101は、主記憶部102や補助記憶部103に記憶されたプログラムを実行する演算装置であり、入力装置や記憶装置からデータを受け取り、演算、加工した上で、出力装置や記憶装置に出力する。
主記憶部102は、例えば、ROM(Read Only Memory)やRAM(Random Access Memory)などである。主記憶部102は、制御部101が実行する基本ソフトウェアであるOSやアプリケーションソフトウェアなどのプログラムやデータを記憶又は一時保存する記憶装置である。
補助記憶部103は、例えばHDD(Hard Disk Drive)などであり、アプリケーションソフトウェアなどに関連するデータを記憶する記憶装置である。補助記憶部103は、例えば撮像部11から取得した画像を記憶する。
通信部104は、有線又は無線で周辺機器とデータ通信を行う。通信部104は、例えばネットワークを介して、人物の顔を含む画像を取得し、補助記憶部103に記憶してもよい。
ドライブ装置105は、記録媒体106、例えばフレキシブルディスクやCD(Compact Disc)から所定のプログラムを読み出し、記憶装置にインストールする。
また、記録媒体106に、所定のプログラムを格納し、この記録媒体106に格納されたプログラムは、ドライブ装置105を介して画像処理装置10にインストールされる。インストールされた所定のプログラムは、画像処理装置10により実行可能となる。
なお、画像処理装置10は、撮像部11及び表示部12を別構成としたが、どちらか一方、又は両方を含む構成としてもよい。
<機能>
図4は、実施例における画像処理装置10の機能の一例を示すブロック図である。図4に示す例では、画像処理装置10は、検出部201、動きベクトル算出部202、類似性算出部203、判定部204を有する。
検出部201、動きベクトル算出部202、類似性算出部203、及び判定部204は、例えば、制御部101及びワークメモリとしての主記憶部102により実現されうる。つまり、瞬き検出プログラムが制御部101により実行されることで、検出部201、動きベクトル算出部202、類似性算出部203、及び判定部204は機能する。
検出部201は、順次入力される画像から顔領域と目領域とを検出する。検出部201は、例えば撮像部11から時間tで撮像された画像i(基準画像)とt+Δtで撮像された画像i+n(参照画像)とを入力する。基準画像と参照画像とは同じサイズであるのが好ましい。
また、検出部201は、顔領域を検出する顔検出部211と、目領域を検出する目検出部212とを有する。顔検出部211は、基準画像からエッジのデータを用いた機械学習などにより顔領域を検出する(例えば、P. Viola, M. Jones. Robust real-time face detection, Computer Vision, 2001. ICCV 2001. Proceedings. Eighth IEEE International Conference on, vol.2, 2001doi: 10.1109/ICCV.2001.937709を参照されたい)。顔領域は、矩形領域や顔の輪郭のような閉じた曲線である。
目検出部212は、顔検出部211の検出結果を取得し、顔が検出された基準画像中から、瞳孔検出やテンプレートマッチングなどにより目領域を検出する(例えばM. Pardas. Extraction and tracking of the eyelids, Acoustics, Speech, and Signal Processing, 2000. ICASSP '00. Proceedings. 2000 IEEE International Conference on , vol.6, no., pp.2357-2360 vol.4, 2000 doi: 10.1109/ICASSP.2000.859314を参照されたい)。
検出部201は、顔検出部211により検出された顔領域と、目検出部212により検出された目領域とを動きベクトル算出部202に出力する。
動きベクトル算出部202は、例えば時間的に隣接する2つの画像間で、顔領域の動きベクトルと、目領域が分割された複数のブロックの動きベクトルとを算出する。顔領域の動きベクトルを第1ベクトル又は顔動きベクトル、目領域の各ブロックの動きベクトルを第2ベクトル又は目動きベクトルとも称す。
動きベクトル算出部202は、顔動きベクトル算出部221と、目動きベクトル算出部222とを有する。顔動きベクトル算出部221は、顔領域から代表的な1つの動きベクトルを求める。例えば、顔動きベクトル算出部221は、顔領域を複数のブロックに分割し、各ブロックの動きベクトルの最頻値を代表の動きベクトルとしたり、顔領域の任意の数の特徴点に基づく動きベクトルの平均を代表の動きベクトルとしたりしてもよい。
目動きベクトル算出部222は、目領域を複数のブロックに分割し、ブロック毎に動きベクトルを算出する。ブロック毎に動きベクトルを算出する理由は、目領域の中に発生した動きを見つけるためである。瞬きがある場合、目領域の中の特徴点が移動し、動きベクトルが算出できる。また、目領域の動きと顔領域の動きとを比べることで、瞬きを検出することが可能になる。
動きベクトル算出部202は、顔動きベクトル算出部221により算出された第1動きベクトルと、目動きベクトル算出部222により算出された各第2動きベクトルとを類似性算出部203に出力する。
類似性算出部203は、第1動きベクトルと各第2動きベクトルとの類似性に関する値を画像間毎に算出する。ここで、瞬きが発生しない場合は、第1動きベクトルと各第2動きベクトルとは同じ動きをするはずである。よって、この場合の第1動きベクトルと、各第2動きベクトルとの類似性は高くなる。
一方、瞬きが発生した場合、上述した着眼点により、第1動きベクトルと各第2動きベクトルとは、異なる動きをするため、その類似性は低くなる。
類似性算出部203は、類似性に関する値として例えば、第1動きベクトルと各第2動きベクトルとの類似度の平均、又は第1動きベクトルと異なる第2動きベクトルの個数などを用いる。類似性算出部203は、算出した類似性に関する値を判定部204に出力する。第1動きベクトルと異なる第2動きベクトルとは、第1動きベクトルと一致しない第2動きベクトルであり、例えば第1動きベクトルの方向や大きさから所定範囲外にある第2動きベクトルをいう。
判定部204は、類似性に関する値に基づいて、瞬きか否かを判定する。判定部204は、例えば類似性に関する値と閾値とを比較することで、瞬きか否かを判定する。また、判定部204は、瞬きの一部である閉眼と開眼との両方が検出されることで瞬きを検出するため、所定時間内に瞬きの一部が少なくとも2つ判定されたときに瞬きと判定する。所定時間は、瞬きにかかる時間である100〜300msecより少し長い時間に設定すればよい。
ここで、瞬きが発生しても、眼球運動が発生しても、目領域内の動きベクトル方向は顔領域の動きベクトル方法と異なるため、瞬きなのか眼球運動なのかを区別することでさらに瞬き検出精度が向上する。
そのため、判定部204は、ノイズ判定部241を有する。ノイズ判定部241は、例えば、瞬きの一部と判定された後に、第2動きベクトルの個数、方向、長さの少なくとも1つを含む特性に基づいてノイズが否かを判定する。ノイズとは、眼球運動や照明条件の変化による特徴点の消失などのことをいう。
また、ノイズ判定部241は、瞬きの一部と判定された後に、目領域から瞳孔又は虹彩を検出し、瞳孔又は虹彩の動きの検出結果に基づいてノイズか否かを判定する。ノイズ判定部241の判定結果により、ノイズと瞬きとを区別することができる。
次に、動きベクトル算出処理、類似性算出処理、判定処理について具体的に説明する。まず、動きベクトル算出処理について説明する。
《顔動きベクトル算出処理》
顔動きベクトル算出部221は、顔領域を複数のブロックに分割し、各ブロックの中から特徴的な画素を特徴点にする。特徴的な画素とは、エッジが周辺より強い、又は周辺の画素より輝度値が高い画素などである。
図5は、顔領域が分割された複数のブロックの特徴点の一例を示す図である。図5に示す例では、分かりやすくするため、大きめのブロックを用いているが、実際は、5×5などの小さめのブロックに分割される。
顔動きベクトル算出部221は、基準画像から抽出した特徴点と、もっとも似たような画素を参照画像から探索する。顔動きベクトル算出部221は、例えば、特徴点周辺(例えば5×5)のピクセルの輝度値をテンプレートとし、同じような色の配置を参照画像から探す。
顔動きベクトル算出部221は、テンプレートと参照画像との類似度を計算するために、SAD(差分絶対和)などの関数を用いる。なお、ここで使う類似度関数は、後述する式(1)の「ベクトルの類似度計算関数」とは異なる。
顔動きベクトル算出部221は、基準画像内の特徴点の位置と、参照画像から探索して見つけたその特徴点の位置を使って、動きベクトルを定義する。動きベクトルの開始点は基準画像内の特徴点の位置で、終了点は参照画像内の対応する特徴点の位置とする。
顔動きベクトル算出部221は、上述した着眼点をもとに瞬きを検出するため、顔領域内の各動きベクトルの角度方向分布を算出する。
図6は、瞬きによる目領域のベクトルが不正確になった状態における顔領域内のベクトルの角度方向分布の一例を示す図である。図6は、顔領域を複数のブロックに分割し、各ブロックの動きベクトルの方向を45度刻みで角度分布にした結果である。
横軸がベクトル角度、縦軸がベクトルの個数を示す。最頻のピークの角度が、顔の動き方向を示す。なお、顔動きベクトル算出部221は、角度方向分布を計算するとき、角度をθ度(例えば、θ=45度)刻みで量子化をしている。この理由は、ベクトル計算に小さな誤差が入っても影響を及ぼさず、顔の代表的な動き方向を決めるためである。
図6に示すように、動きベクトルが不正確になっても、顔動きベクトル算出部221は、角度方向分布から顔の動きベクトルと瞬きによる動きベクトルとを区別することができる。
目領域の面積に比べて、顔領域の面積は大きい。また、顔領域の動きベクトルの個数が目領域の動きベクトルの個数よりも大きい。よって、最も頻繁に発生するベクトル方向が顔の動きベクトルであると考えられる。
(角度方向分布を求める理由)
ここで、顔領域について動きベクトルの角度方向分布を求める理由について説明する。実施例で角度の分布を使っている理由は、顔の動きにより発生するベクトルと、瞬きにより発生する動きベクトルとを区別するためである。
瞬きをしたときに特徴点が消失又は変形し、目領域の動きベクトルの動き方向があらゆる方向を向くのがわかる(図2参照)。これにより、角度の分布をヒストグラムにすると、顔の動きベクトルがピークを占める。その特性を用いて、顔のベクトルと瞬きのベクトルを区別する。
仮に、ベクトルの角度ではなく、ベクトルの長さの分布を用いて瞬きを検出しようとすると、顔の動きベクトルを適切に検出できない。その理由は以下に説明する。
例えば、頭部の左右回転の最中に瞬きが発生することを考える。頭部が左右に回転(yaw運動)をしているとき、3次元空間では顔上の各点が動く距離は等しい。しかし、その動きを2次元の画像で表すとき、カメラに近い点の移動量が大きく、カメラから遠い点の移動量が小さい。
図7は、顔が左右に回転するときに発生する動きベクトルの傾向を示す図である。図7に示すように、撮像部11から近い中心の部分は動きベクトルが長く、端に行けばいくほど動きベクトルは短い。図7に示すこれらの動きベクトルの分布を可視化すれば、例えば、図8に示すヒストグラムのようになる。
図8は、ベクトルの長さの分布の一例を示す図である。図8に示すように、瞬きが小さい動きで、動きベクトルがばらついても、動きベクトルの長さは基本的に短い。顔の動き量が小さいとき、顔の動きベクトルと瞬きの動きベクトルが同等の長さになる。よって、ベクトルの長さの分布を見るだけでは、瞬きの動きなのか顔の動きなのかを区別することができない。そのため、瞬きを検出するには、動きベクトルの角度の分布を見るとよい。
なお、顔動きベクトル算出部221は、顔の第1動きベクトルを少なくとも1つ算出すればよいので、顔領域をブロック分割しなくてもよい。この場合、顔動きベクトル算出部221は、顔領域内の特徴点を1又は複数抽出し、その特徴点の動きを平均化するなどして第1動きベクトルを算出すればよい。
《目動きベクトル算出処理》
次に、目動きベクトル算出処理について説明する。目動きベクトル算出部222は、目領域内を小さいブロック(例えば、5×5画素)に分割して動きベクトル群を求める(例えば、A. Gyaourova, C. Kamath, S.C. Cheung. Block matching for object tracking. Technical report UCRL-TR-200271. Lawrence Livermore Technical Laboratory, (October 2003)や、B. D. Lucas, T. Kanade. An iterative image registration technique with an application to stereo vision, IJCAI'81, Proceedings of the 7th international Joint conference on Artificial intelligence - Volume 2, pp. 674-679を参照されたい)。
例えば、目動きベクトル算出部222は、各ブロックの中から特徴的な一つの画素を特徴点とする。特徴的な画素は、例えばエッジが周辺より強い、又は周辺の画素より輝度値が高い画素などである。
目動きベクトル算出部222は、基準画像での各特徴点の位置と参照画像で探索して見つけたその特徴点の位置を使って動きベクトルを定義する。動きベクトルの開始点は、基準画像での特徴点の位置で、終了点は参照画像でのその特徴点の位置とする。
図9は、顔の動きあり、瞬きなしの場合の目領域内の動きベクトル群の一例を示す図である。図9に示す例では、瞬きをせずに顔が下方向に動いている。図9に示す例では、顔が動いた後の画像で、目領域の動きベクトルAを算出している。目領域内の動きベクトルAは、顔の動きベクトルBと同様である。
図10は、顔の動きあり、瞬きありの場合の目領域内の動きベクトル群の一例を示す図である。図10に示す例では、瞬きありで顔が下方向に動いている。図10に示す例では、顔が動いた後の画像で、目領域の動きベクトルAを算出している。目領域内の動きベクトルAは、顔の動きベクトルBとほとんど一致しない。
《類似性算出処理》
次に、類似性算出処理について説明する。瞬きが発生しない場合、目領域の特徴点も顔と同じ動きをする(図9参照)。そのため、目領域動きベクトルと顔領域の動きベクトルとの類似度が高い。
類似性算出部203は、類似性に関する値を算出するために、例えば、一般的に使われているコサイン類似度(式(1))を用いてベクトルの類似度を算出する。
Figure 0006007682
コサイン類似度は、ベクトルを正規化して内積を計算する方法である。式(1)では、AとBとがそれぞれベクトルを示す。||A||と||B||は、それぞれベクトルAとBの長さを示す。
この類似度関数では、顔領域の動きベクトルと目領域内の動きベクトルの類似度が[−1.0,+1.0]の間の数値になる。類似度が+1.0の場合、顔領域のベクトルと目領域のベクトルの方向がもっとも類似しており、類似度が−1.0のときベクトルの角度が正反対であることがわかる。
類似性算出部203は、目領域内の各ブロックの動きベクトルと、顔領域の動きベクトルとの類似度を計算する。類似性算出部203は、算出した類似度の代表値(例えば平均)を計算する。
また、類似性算出部203は、他の類似性に関する値として、顔の動きベクトルと異なる目の動きベクトルの個数を用いてもよい。これにより、瞬きありであれば、この個数が多くなり、瞬きなしであればこの個数は少なくなる。
《判定処理》
次に、判定処理について説明する。判定部204は、例えば、類似度を用いる場合、類似度の代表値を閾値と比較し、類似度の代表値が閾値より大きければ、目領域の動きベクトルが顔の動きベクトルと類似しているため、瞬きが発生していないと判定する。
また、判定部204は、類似度の代表値が、閾値以下であれば、目領域の動きベクトルが顔の動きベクトルと類似していないため、瞬きが発生していると判定する。この判定では、動きベクトルが少し不正確になったとしても、この類似度の代表値は大きな影響を受けない。
また、判定部204は、例えば、動きベクトルの個数を用いる場合、個数と閾値とを比較し、個数が閾値より大きければ瞬きありと判定する。また、判定部204は、個数が閾値以下であれば瞬きなしと判定する。
瞬きが発生している場合、まぶた領域に含まれる各ブロックの動きベクトルが任意の方向を向くことになる。そこで、検出された目領域のサイズに応じたまぶた領域のブロック数を事前に調べておき、このブロック数に基づく閾値が予め設定されていればよい。
(ノイズ判定1)
次に、ノイズ(例えば眼球運動や照明変化による特徴点の消失)を判定する一つの方法について説明する。以下では、ノイズとして眼球運動を例にして説明する。一般的に、瞬き以外に目領域に発生する動きは移動量が小さいため、 発生するノイズベクトルの個数は、瞬き時に発生するベクトルの個数と比べて少ない。
その理由は、まぶたが閉じるとき、白目と黒目上の特徴点が全て消失することに対して、眼球運動のときに、白目と黒目は完全に隠れることはなく、一部の特徴点のみが動くからである。
この性質を利用して、ノイズ判定部241は、目領域に発生する動きベクトルの個数を用いて、瞬きとノイズベクトルとを区別する。判定方法は、例えば、ニューラルネットワークの学習(例えばS. Haykin, Neural Networks: A Comprehensive Foundation (1st ed.), pp. 1 - 6, Prentice Hall PTR, Upper Saddle River, NJ, USA., 1994, Macmillan College Publishing Company を参照されたい。)による判定や、閾値を用いた判定方法等がある。


図11は、ノイズ判定(その1)を説明する図である。図11に示すように、顔が下方向に動くとき、眼球が左方向に動くとする。また、図11に示す各ブロックをbnmと表す(n=1〜3、m=1〜4)。
このとき、眼球部分のブロックの動きベクトルは、顔の動き方向と眼球の動き方向とを足した方向になる。図11に示すブロックでは、4つのブロック(b22、b23、b32、b33)の動きベクトルが、顔の動きベクトルとは異なる方向を向く。
一方で、図11に示す例で、瞬きが行われると、例えば、目部分を含む8つのブロック(b21〜b24、b31〜b34)の動きベクトルが、特徴点の消失により顔の動きベクトルとは異なる方向を向くと考えられる。
そこで、ノイズ判定部241は、図11に示す例を用いると、顔の動きベクトルに一致しない目の動きベクトルの数が、6以上である場合に瞬き、6未満である場合にノイズと判定してもよい。また、ノイズ判定部241は、目領域の大きさによってブロック数が異なるので、目領域のサイズに応じて閾値を変更してもよい。
例えば、実験などにより、基準となる目領域のサイズと閾値とが決定され、ノイズ判定部241は、実際の画像の目領域のサイズと基準の目領域のサイズの比を、基準の閾値に乗算することで閾値を変更することができる。
また、ノイズ判定部241は、ニューラルネットワークを用いて、ノイズの場合の動きベクトルの特性と、瞬きの場合の動きベクトルの特性とを学習させておき、動きベクトルの特性を入力することで、ノイズか瞬きかを判定してもよい。動きベクトルの特性とは、方向、長さ、個数の少なくとも1つである。
(ノイズ判定2)
次に、ノイズを判定する他の方法について説明する。上述したように、眼球の運動によっても目領域に動きベクトルが発生する場合がある。そこで、ノイズ判定部241は、眼球運動による動きベクトルと瞬きによる動きベクトルを区別するため、瞳孔検出(例えばG. Gomai, A. El-Zaart, H. Mathkour. A new approach for pupil detection in iris recognition system, Computer Engineering and Technology (ICCET), 2010 2nd International Conference on , vol.4, no., pp.V4-415-V4-419, 16-18 April 2010 doi: 10.1109/ICCET.2010.5485497を参照されたい)を行う。ノイズ判定部241は、瞳孔の動きを検知することによって瞬きではないと判定でき、瞬きの誤検出率を減らすことができる。
図12は、ノイズ判定(その2)を説明する図である。図12に示すように、ノイズ判定部241は、基準画像と、参照画像とに対して瞳孔検出を行い、それぞれの画像で瞳孔が検出され、瞳孔の動きが検出された場合、瞬きではないと判定する。
ノイズ判定については、上記2つの判定の何れを用いてもよいが、判定2では瞳孔を適切に検出できない場合もあるので、判定1の方が判定2よりも好適であると考えられる。
図13は、瞬きによる閉眼時の動きベクトルの一例を示す図である。図13に示すように、瞬き時には眼球は検出されず、さらに、目部分のブロックの動きベクトルがあらゆる方向を向いていることが分かる。これにより、ノイズ判定1やノイズ判定2により、瞬きと眼球運動とを区別することができる。
ここで、瞬きとは、目を閉じて、開くことが瞬きである。上記説明では、瞬きの一部である閉眼を検出する方法を説明した。開眼を検出する場合には、上記処理と同様にして、顔の動きベクトルと、目領域の動きベクトルとの類似性を見ることで、開眼を検出することができる。
図14は、瞬き判定を説明する図である。図14に示す例では、時刻t+1の画像から時刻t+2の画像間で、瞬きの一部である閉眼が発生し、画像処理装置10により、瞬きの一部有りと判定されている。また、時刻t+2の画像から時刻t+3の画像間で、瞬きの一部である開眼が発生し、画像処理装置10により、瞬きの一部有りと判定されている。瞬きの一部は、必ずしも連続して検出される必要はない。
判定部204は、t+1とt+3の間の時間が、瞬きにかかる時間として予め設定された所定時間よりも短ければ瞬きと判定する。また、判定部204は、所定時間内で、少なくとも2つの瞬きの一部が検出されれば、瞬きと判定してもよい。
なお、判定部204は、上記方法を用いると、瞬き検出だけではなく、開眼又は閉眼を単独で検出してもよく、睡眠につく瞬間や、起床の瞬間なども検出することが可能になる。例えば、判定部204は、閉眼を検出した後、所定時間瞬きの一部が検出されなければ目を閉じたままであると判定する。
<動作>
次に、実施例における画像処理装置10の動作について説明する。以下では、2つの判定処理について説明する。1つ目は、類似度を用いて瞬きの一部を判定し、さらにノイズ判定を行う処理である。2つ目は、動きベクトルの個数を用いて瞬きの一部を判定する処理である。
(類似度を用いた判定処理)
図15は、瞬き判定処理(その1)の一例を示すフローチャートである。図15に示すステップS101で、検出部201は、画像iと画像i+nとを入力する。nは、例えば1などの自然数である。
ステップS102で、顔検出部211は、画像iから顔領域を検出する。ステップS103で、目検出部212は、画像iから目領域を検出する。
ステップS104で、顔動きベクトル算出部221は、画像iと画像i+n間で、顔の動きベクトルを検出する。
ステップS105で、目動きベクトル算出部222は、画像iと画像i+n間で、目領域内の各ブロックに対し動きベクトルを算出する。
ステップS106で、類似性算出部203は、顔の動きベクトル(第1動きベクトル)と目の動きベクトル(第2動きベクトル)群との類似度の代表値を算出し、この代表値が第1閾値より大きいか否かを判定する。代表値が第1閾値より小さければ(ステップS106−YES)ステップS108に進み、代表値が第1閾値以上であれば(ステップS106−NO)ステップS107に進む。
ステップS107で、判定部204は、画像iと画像i+n間の目の動きは瞬きではないと判定する。
ステップS108で、ノイズ判定部241は、目領域内の動きベクトルの特性に基づいて、ノイズであるか否かを判定する。ノイズ判定には、上述した判定1と判定2とがあるがいずれかを用いればよい。ノイズであると判定されれば(ステップS108−YES)ステップS109に進み、ノイズでないと判定されれば(ステップS108−NO)ステップS110に進む。
ステップS109で、ノイズ判定部241は、ノイズ(例えば眼球運動)であると判定する。ステップS110で、判定部204は、瞬きの一部であると判定する。
ステップS111で、判定部204は、現在の時刻から予め設定された所定時間前までに瞬きの一部が既に判定されているか否かを判定する。瞬きの一部が既に判定されていれば(ステップS111−YES)ステップS112に進み、瞬きの一部が既に判定されていなければ(ステップS111−NO)ステップS113に進む。
ステップS112で、判定部204は、所定時間内の一連の目の動きは、瞬きであると判定する。
ステップS113で、画像処理装置10は、瞬き検出の終了コマンドが発生したか否かを判定する。終了コマンドは、ユーザから終了ボタンの押下などにより発生する。終了コマンドがあれば(ステップS113−YES)瞬き検出処理を終了し、終了コマンドがなければ(ステップS113−NO)iが更新されてステップS101に戻る。
(動きベクトルの数を用いた判定処理)
図16は、瞬き判定処理(その2)の一例を示すフローチャートである。図16に示すステップS201〜S205の処理は、図15に示すステップS101〜S105の処理と同様であるため、その説明を省略する。
ステップS206で、類似性算出部203は、目の動きベクトルの中で、顔の動きベクトルと同じ方向の動きベクトルを省く。同じ方向とは、必ずしも一致する方向である必要はなく、所定の誤差を含む方向でもよい。
ステップS207で、判定部204は、目領域内で残っている動きベクトルの個数が、第2閾値より大きいか否かを判定する。個数が第2閾値より大きければ(ステップS207−YES)ステップS209に進み、個数が第2閾値以下であれば(ステップS207−NO)ステップS208に進む。ステップS208で、判定部204は、瞬きではない、又はノイズであると判定する。
ステップS209〜S212の処理は、図15に示すステップS110〜S113の処理と同様であるため、その説明を省略する。
図16に示すように、動きベクトルの個数を用いれば、「ノイズ」と「瞬きなし」とを一度に判定することができ、瞬きの判定処理を簡素化することができる。また、第2閾値は、撮像部11と顔との距離、顔の姿勢などに応じて変更されてもよい。
以上、実施例によれば、低解像度で、被写体が動く場合でも、瞬き検出の性能を向上させることができる。また、実施例によれば、眼球運動や照明条件の変化によるノイズも適切に除去することができ、瞬き検出の誤検出を防ぐことができる。
[変形例]
なお、前述した実施例で説明した画像処理を実現するためのプログラムを記録媒体に記録することで、実施例での画像処理をコンピュータに実施させることができる。例えば、このプログラムを記録媒体に記録し、このプログラムが記録された記録媒体をコンピュータに読み取らせて、前述した画像処理を実現させることも可能である。
なお、記録媒体は、CD−ROM、フレキシブルディスク、光磁気ディスク等の様に情報を光学的、電気的或いは磁気的に記録する記録媒体、ROM、フラッシュメモリ等の様に情報を電気的に記録する半導体メモリ等、様々なタイプの記録媒体を用いることができる。この記録媒体には、搬送波は含まれない。
以上、実施例について詳述したが、特定の実施例に限定されるものではなく、特許請求の範囲に記載された範囲内において、種々の変形及び変更が可能である。また、前述した実施例の構成要素を全部又は複数を組み合わせることも可能である。
なお、以上の各実施例に関し、さらに以下の付記を開示する。
(付記1)
順次入力される画像から顔領域と目領域とを検出する検出部と、
2つの画像間で、前記顔領域の第1動きベクトルと、前記目領域が分割された複数のブロックの第2動きベクトルとを算出する動きベクトル算出部と、
前記第1動きベクトルと前記各第2動きベクトルとの類似性に関する値を画像間毎に算出する類似性算出部と、
前記類似性に関する値に基づいて、瞬きか否かを判定する判定部と
を備える画像処理装置。
(付記2)
前記類似性算出部は、
前記第1動きベクトルと前記各第2動きベクトルとの類似度の平均を算出し、
前記判定部は、
前記類似度の平均と第1閾値とを比較することで、瞬きの一部か否かを判定する付記1記載の画像処理装置。
(付記3)
前記判定部は、
瞬きの一部と判定した後に、前記各第2動きベクトルの個数、方向、長さの少なくとも1つを含む特性に基づいてノイズか否かを判定する付記2記載の画像処理装置。
(付記4)
前記判定部は、
瞬きの一部と判定した後に、前記目領域から瞳孔又は虹彩を検出し、前記瞳孔又は虹彩の動きの検出結果に基づいてノイズか否かを判定する付記2記載の画像処理装置。
(付記5)
前記類似性算出部は、
前記第1動きベクトルと異なる前記第2動きベクトルの数を算出し、
前記判定部は、
前記類似性算出部により算出された数と第2閾値とを比較することで、瞬きの一部か否かを判定する付記1記載の画像処理装置。
(付記6)
前記判定部は、
前記第2閾値を、前記目領域のサイズに応じて変更する付記5記載の画像処理装置。
(付記7)
前記判定部は、
所定時間内に瞬きの一部が少なくとも2つ判定されたとき、瞬きと判定する付記2又は5に記載の画像処理装置。
(付記8)
順次入力される画像から顔領域と目領域とを検出し、
2つの画像間で、前記顔領域の第1動きベクトルと、前記目領域が分割された複数のブロックの第2動きベクトルとを算出し、
前記第1動きベクトルと前記各第2動きベクトルとの類似性に関する値を画像間毎に算出し、
前記類似性に関する値に基づいて、瞬きか否かを判定する
処理をコンピュータが実行する画像処理方法。
(付記9)
順次入力される画像から顔領域と目領域とを検出し、
2つの画像間で、前記顔領域の第1動きベクトルと、前記目領域が分割された複数のブロックの第2動きベクトルとを算出し、
前記第1動きベクトルと前記各第2動きベクトルとの類似性に関する値を画像間毎に算出し、
前記類似性に関する値に基づいて、瞬きか否かを判定する
処理をコンピュータに実行させるプログラム。
10 画像処理装置
11 撮像部
12 表示部
101 制御部
102 主記憶部
103 補助記憶部
104 通信部
105 ドライブ装置
201 検出部
202 動きベクトル算出部
203 類似性算出部
204 判定部
211 顔検出部
212 目検出部
221 顔動きベクトル算出部
222 目動きベクトル算出部
241 ノイズ判定部

Claims (7)

  1. 順次入力される画像から顔領域と目領域とを検出する検出部と、
    2つの画像間で、前記顔領域の第1動きベクトルと、前記目領域が分割された複数のブロックの第2動きベクトルとを算出する動きベクトル算出部と、
    前記第1動きベクトルと前記各第2動きベクトルとの類似度の平均値を画像間毎に算出する類似性算出部と、
    前記類似度の平均値に基づいて、瞬きか否かを判定する判定部と
    を備えることを特徴とする画像処理装置。
  2. 前記判定部は、
    瞬きの一部と判定した後に、前記各第2動きベクトルの個数、方向、長さの少なくとも1つを含む特性に基づいてノイズか否かを判定する請求項記載の画像処理装置。
  3. 前記判定部は、
    瞬きの一部と判定した後に、前記目領域から瞳孔又は虹彩を検出し、前記瞳孔又は虹彩の動きの検出結果に基づいてノイズか否かを判定する請求項記載の画像処理装置。
  4. 順次入力される画像から顔領域と目領域とを検出する検出部と、
    2つの画像間で、前記顔領域の第1動きベクトルと、前記目領域が分割された複数のブロックの第2動きベクトルとを算出する動きベクトル算出部と、
    前記第1動きベクトルと前記各第2動きベクトルとの類似性に関する値を画像間毎に算出する類似性算出部と、
    前記類似性に関する値に基づいて、瞬きか否かを判定する判定部と
    を備え、
    前記類似性算出部は、
    前記第1動きベクトルと異なる前記第2動きベクトルの個数を算出し、
    前記判定部は、
    前記類似性算出部により算出された個数と第2閾値とを比較することで、瞬きの一部か否かを判定する画像処理装置。
  5. 前記判定部は、
    前記第2閾値を、前記目領域のサイズに応じて変更する請求項記載の画像処理装置。
  6. 順次入力される画像から顔領域と目領域とを検出し、
    2つの画像間で、前記顔領域の第1動きベクトルと、前記目領域が分割された複数のブロックの第2動きベクトルとを算出し、
    前記第1動きベクトルと前記各第2動きベクトルとの類似度の平均値を画像間毎に算出し、
    前記類似度の平均値に基づいて、瞬きか否かを判定する
    処理をコンピュータが実行する画像処理方法。
  7. 順次入力される画像から顔領域と目領域とを検出し、
    2つの画像間で、前記顔領域の第1動きベクトルと、前記目領域が分割された複数のブロックの第2動きベクトルとを算出し、
    前記第1動きベクトルと前記各第2動きベクトルとの類似度の平均値を画像間毎に算出し、
    前記類似度の平均値に基づいて、瞬きか否かを判定する
    処理をコンピュータに実行させるプログラム。
JP2012192375A 2012-08-31 2012-08-31 画像処理装置、画像処理方法及びプログラム Expired - Fee Related JP6007682B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012192375A JP6007682B2 (ja) 2012-08-31 2012-08-31 画像処理装置、画像処理方法及びプログラム
EP13174186.0A EP2704056A3 (en) 2012-08-31 2013-06-28 Image processing apparatus, image processing method
US13/936,011 US9690988B2 (en) 2012-08-31 2013-07-05 Image processing apparatus and image processing method for blink detection in an image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012192375A JP6007682B2 (ja) 2012-08-31 2012-08-31 画像処理装置、画像処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2014048962A JP2014048962A (ja) 2014-03-17
JP6007682B2 true JP6007682B2 (ja) 2016-10-12

Family

ID=48746313

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012192375A Expired - Fee Related JP6007682B2 (ja) 2012-08-31 2012-08-31 画像処理装置、画像処理方法及びプログラム

Country Status (3)

Country Link
US (1) US9690988B2 (ja)
EP (1) EP2704056A3 (ja)
JP (1) JP6007682B2 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8775341B1 (en) 2010-10-26 2014-07-08 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
US9015093B1 (en) 2010-10-26 2015-04-21 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
JP6179224B2 (ja) * 2013-07-02 2017-08-16 富士通株式会社 画像処理フィルタの作成装置及びその方法
US10104394B2 (en) 2014-01-31 2018-10-16 Here Global B.V. Detection of motion activity saliency in a video sequence
US20150221335A1 (en) * 2014-02-05 2015-08-06 Here Global B.V. Retiming in a Video Sequence
JP6652294B2 (ja) * 2015-10-29 2020-02-19 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体
JP6751324B2 (ja) 2016-09-14 2020-09-02 株式会社デンソーアイティーラボラトリ 虹彩検出装置、虹彩検出方法、およびプログラム
US10331942B2 (en) * 2017-05-31 2019-06-25 Facebook, Inc. Face liveness detection
US9996940B1 (en) * 2017-10-25 2018-06-12 Connectivity Labs Inc. Expression transfer across telecommunications networks
CN108297797A (zh) * 2018-02-09 2018-07-20 安徽江淮汽车集团股份有限公司 一种车辆后视镜调节***及调节方法
JP7110657B2 (ja) * 2018-03-26 2022-08-02 カシオ計算機株式会社 画像処理装置、画像処理方法およびプログラム
JP2021511606A (ja) * 2018-04-25 2021-05-06 ベイジン ディディ インフィニティ テクノロジー アンド ディベロップメント カンパニー リミティッド 顔の特徴点に基づく瞬き動作認識のためのシステムおよび方法
US11632501B2 (en) * 2019-12-20 2023-04-18 Tobil AB Controlling settings of an image sensor device in an eye tracking system
US11468990B2 (en) * 2020-10-12 2022-10-11 Kyndryl, Inc. Prevention of computer vision syndrome using explainable artificial intelligence
CN112561787B (zh) * 2020-12-22 2024-03-22 维沃移动通信有限公司 图像处理方法、装置、电子设备及存储介质

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6714665B1 (en) * 1994-09-02 2004-03-30 Sarnoff Corporation Fully automated iris recognition system utilizing wide and narrow fields of view
JP2001043382A (ja) 1999-07-27 2001-02-16 Fujitsu Ltd 目追跡装置
JP2002074370A (ja) 2000-08-28 2002-03-15 Ntt Data Corp 動画像による監視システム、方法及びコンピュータ読み取り可能な記録媒体
US6965645B2 (en) * 2001-09-25 2005-11-15 Microsoft Corporation Content-based characterization of video frame sequences
KR100453943B1 (ko) * 2001-12-03 2004-10-20 주식회사 세넥스테크놀로지 개인 식별을 위한 홍채 영상의 처리 및 인식방법과 시스템
US6847680B2 (en) * 2001-12-17 2005-01-25 Mitsubishi Electric Research Laboratories, Inc. Method for detecting talking heads in a compressed video
US7331671B2 (en) * 2004-03-29 2008-02-19 Delphi Technologies, Inc. Eye tracking method based on correlation and detected eye movement
JP4172793B2 (ja) * 2004-06-08 2008-10-29 株式会社東芝 ジェスチャ検出方法、ジェスチャ検出プログラムおよびジェスチャ検出装置
US7742621B2 (en) * 2006-06-13 2010-06-22 Delphi Technologies, Inc. Dynamic eye tracking system
JP2008171108A (ja) * 2007-01-10 2008-07-24 Matsushita Electric Ind Co Ltd 顔状況判定処理装置および撮像装置
US20080166052A1 (en) * 2007-01-10 2008-07-10 Toshinobu Hatano Face condition determining device and imaging device
JP4309926B2 (ja) * 2007-03-13 2009-08-05 アイシン精機株式会社 顔特徴点検出装置、顔特徴点検出方法及びプログラム
JP5019939B2 (ja) * 2007-04-19 2012-09-05 パナソニック株式会社 撮像装置及び撮像方法
JP4561845B2 (ja) * 2008-02-29 2010-10-13 カシオ計算機株式会社 撮像装置と画像処理プログラム
KR100993601B1 (ko) * 2008-09-16 2010-11-10 (주)위디랩 디지털 동영상 컨텐츠의 유사도 측정 방법, 이를 이용한 동영상 컨텐츠의 관리 방법 및 상기 관리 방법을 이용한 동영상 컨텐츠의 관리 시스템
DE112010005290T5 (de) * 2010-02-22 2012-12-27 Toyota Jidosha K.K. Bildverarbeitungsvorrichtung und Müdigkeitsbeurteilungsvorrichtung
WO2012056686A1 (ja) * 2010-10-27 2012-05-03 パナソニック株式会社 3次元画像補間装置、3次元撮像装置および3次元画像補間方法
US8797414B2 (en) * 2010-12-23 2014-08-05 Samsung Electronics Co., Ltd. Digital image stabilization device
US20140055337A1 (en) * 2012-08-22 2014-02-27 Mobitv, Inc. Device eye tracking calibration

Also Published As

Publication number Publication date
JP2014048962A (ja) 2014-03-17
US9690988B2 (en) 2017-06-27
EP2704056A2 (en) 2014-03-05
US20140063221A1 (en) 2014-03-06
EP2704056A3 (en) 2015-04-08

Similar Documents

Publication Publication Date Title
JP6007682B2 (ja) 画像処理装置、画像処理方法及びプログラム
KR100851981B1 (ko) 비디오 영상에서 실 객체 판별 방법 및 장치
CN106557726B (zh) 一种带静默式活体检测的人脸身份认证***及其方法
JP5554984B2 (ja) パターン認識方法およびパターン認識装置
JP5766564B2 (ja) 顔認証装置及び顔認証方法
KR101551576B1 (ko) 로봇 청소기, 제스쳐 인식 장치 및 방법
JP4774818B2 (ja) 画像処理装置及び画像処理方法
CN111144293A (zh) 带交互式活体检测的人脸身份认证***及其方法
JP6217635B2 (ja) 転倒検知装置および転倒検知方法、転倒検知カメラ、並びにコンピュータ・プログラム
JP4682820B2 (ja) オブジェクト追跡装置及びオブジェクト追跡方法、並びにプログラム
WO2018154709A1 (ja) 動作学習装置、技能判別装置および技能判別システム
JP5087037B2 (ja) 画像処理装置、方法及びプログラム
WO2021084972A1 (ja) 物体追跡装置および物体追跡方法
JP5279517B2 (ja) 物体検知装置及び物体検知方法
US9947106B2 (en) Method and electronic device for object tracking in a light-field capture
JP5971712B2 (ja) 監視装置及び方法
JP5174492B2 (ja) 画像認識装置、画像認識方法、画像認識プログラム、ジェスチャ動作認識システム、ジェスチャ動作認識方法、及びジェスチャ動作認識プログラム
JP6103765B2 (ja) 行動認識装置、方法及びプログラム並びに認識器構築装置
JP2012068948A (ja) 顔属性推定装置およびその方法
KR100977259B1 (ko) 다중 기울기 히스토그램을 이용한 사람 탐색 및 추적 방법
KR20060121503A (ko) 무인 감시 로봇에서 중요 얼굴 추적 장치 및 방법
JP6393495B2 (ja) 画像処理装置および物体認識方法
CN108334811B (zh) 一种人脸图像处理方法及装置
KR101031369B1 (ko) 얼굴 인식 장치 및 그 방법
Ang et al. Wavelet mach filter for omnidirectional human activity recognition

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150512

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160510

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160627

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160816

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160829

R150 Certificate of patent or registration of utility model

Ref document number: 6007682

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees