JP2017102748A - 瞳画像学習装置、瞳位置検出装置及びそのプログラム - Google Patents

瞳画像学習装置、瞳位置検出装置及びそのプログラム Download PDF

Info

Publication number
JP2017102748A
JP2017102748A JP2015236043A JP2015236043A JP2017102748A JP 2017102748 A JP2017102748 A JP 2017102748A JP 2015236043 A JP2015236043 A JP 2015236043A JP 2015236043 A JP2015236043 A JP 2015236043A JP 2017102748 A JP2017102748 A JP 2017102748A
Authority
JP
Japan
Prior art keywords
pupil
image
feature amount
learning
image feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015236043A
Other languages
English (en)
Inventor
貴裕 望月
Takahiro Mochizuki
貴裕 望月
雅浩 齋藤
Masahiro Saito
雅浩 齋藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK filed Critical Nippon Hoso Kyokai NHK
Priority to JP2015236043A priority Critical patent/JP2017102748A/ja
Publication of JP2017102748A publication Critical patent/JP2017102748A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】本願発明は、高解像度の瞳拡大画像を撮影できない場合でも、簡易な構成で瞳位置を検出する。【解決手段】瞳検出装置1は、瞳画像学習装置2が、エッジに関する画像特徴量を算出する画像特徴量算出部20と、画像特徴量を機械学習することで、瞳画像判別モデルを生成する瞳画像判別モデル生成部26とを備え、瞳位置検出装置4が、人物の顔領域を切り出した顔画像に瞳候補領域を設定する瞳候補領域設定部40と、瞳候補領域に設定された窓領域について、エッジに関する画像特徴量を算出する画像特徴量算出部44と、窓領域の画像特徴量を瞳画像判別モデルに入力し、窓領域が瞳画像であるか否かを判別する瞳画像判別部46と、瞳画像であると判別された窓領域に含まれる瞳位置を算出する瞳位置算出部48と備える。【選択図】図1

Description

本願発明は、瞳画像を判別する瞳画像判別モデルを生成する瞳画像学習装置、この瞳画像判別モデルを用いて、撮影画像に含まれる人物の瞳位置を検出する瞳位置検出装置及びそのプログラムに関する。
従来より、映像(動画)から瞳位置を検出する手法は、運転者の視線方向の特定、番組視聴者や会議参加者の集中度推定、照明光強度の調整など、様々な分野で利用されている(特許文献1〜7)。
特許文献1,2に記載の発明は、対象者の頭部に装着した撮影カメラ(ヘッドマウントデバイス)で瞳拡大画像を撮影し、瞳位置を検出するものである。また、特許文献3,4に記載の発明は、車室内に取り付けた撮影カメラで対象者(運転者)の瞳拡大画像を撮影し、視線方向を特定するものである。また、特許文献5〜7に記載の発明は、複数台の撮影カメラで対象者の顔を撮影し、各撮影カメラで撮影した顔画像から、対象者の視線方向を特定するものである。
特開2012−050837号公報 特開2011−224213号公報 特開2009−157736号公報 特開2011−086125号公報 特開2014−094186号公報 特開2012−022646号公報 特開2012−217524号公報
しかし、特許文献1〜4に記載の発明は、対象者の頭部に撮影カメラを装着し、又は、対象者の顔の近くに撮影カメラを配置することで、撮影カメラを対象者の顔に接近させた状態で高解像度の瞳拡大画像を撮影する必要がある。言い換えると、特許文献1〜4に記載の発明は、高解像度の瞳拡大画像を撮影できない場合、瞳位置を検出することができない。
また、特許文献5〜7に記載の発明は、複数台の撮影カメラが必要となるので、装置の大型化、複雑化を招いてしまう。
そこで、本願発明は、高解像度の瞳拡大画像を撮影できない場合でも、簡易な構成で瞳位置を検出可能とする瞳画像学習装置、瞳位置検出装置及びそのプログラムを提供することを課題とする。
前記した課題に鑑みて、本願発明に係る瞳画像学習装置は、人物の瞳領域を切り出した瞳画像と、人物の瞳以外の顔領域を切り出した非瞳画像との集合である学習用画像集合から、瞳画像を判別する瞳画像判別モデルを生成する瞳画像学習装置であって、第1画像特徴量算出部と、瞳画像判別モデル生成部と、を備える構成とした。
かかる構成によれば、瞳画像学習装置は、第1画像特徴量算出部によって、学習用画像集合に含まれる瞳画像及び非瞳画像のそれぞれについて、エッジに関する画像特徴量を算出する。
また、瞳画像学習装置は、瞳画像判別モデル生成部によって、瞳画像の画像特徴量及び非瞳画像の画像特徴量を機械学習することで、瞳画像判別モデルを生成する。この瞳画像判別モデルは、エッジに関する画像特徴量を学習しているため、1台の撮影カメラで人物が撮影された撮影画像から、高い正確性で瞳画像の判別を可能とする。
また、前記した課題に鑑みて、本願発明に係る瞳位置検出装置は、本願発明に係る瞳画像学習装置が生成した瞳画像判別モデルを用いて、撮影画像に含まれる人物の瞳位置を検出する瞳位置検出装置であって、瞳候補領域設定部と、第2画像特徴量算出部と、瞳画像判別部と、瞳位置算出部と、を備える構成とした。
かかる構成によれば、瞳位置検出装置は、瞳候補領域設定部によって、1台の撮影カメラで撮影された撮影画像に含まれる人物の顔領域を切り出した顔画像に、当該顔領域よりも小さいサイズの瞳候補領域を設定する。
また、瞳位置検出装置は、第2画像特徴量算出部によって、瞳候補領域について、エッジに関する画像特徴量を算出する。
また、瞳位置検出装置は、瞳画像判別部によって、瞳候補領域の画像特徴量を瞳画像判別モデルに入力することで、瞳候補領域が瞳画像であるか否かを判別する。この瞳画像判別モデルは、エッジに関する画像特徴量を学習しているため、1台の撮影カメラで人物が撮影された撮影画像から、高い正確性で瞳画像の判別を可能とする。
そして、瞳位置検出装置は、瞳位置算出部によって、瞳画像と判別された瞳候補領域に含まれる瞳位置を算出する。
本願発明によれば、以下のような優れた効果を奏する。
本願発明に係る瞳画像学習装置は、エッジに関する画像特徴量を学習した瞳画像判別モデルを生成し、本願発明に係る瞳位置検出装置は、1台の撮影カメラで人物が撮影された撮影画像から、この瞳画像判別モデルを用いて瞳位置を検出する。このように、本願発明によれば、高解像度の瞳拡大画像を撮影できない場合でも、複数台の撮影カメラを必要とせずに簡易な構成で瞳位置を検出可能とする。
本願発明の実施形態に係る瞳検出装置の構成を示すブロック図である。 (a)は瞳領域の選択を説明する説明図であり、(b)は瞳画像の生成を説明する説明図である。 (a)は瞳以外の顔領域の選択を説明する説明図であり、(b)は非瞳画像の生成を説明する説明図である。 (a)及び(b)は多重スケールエッジ方向ヒストグラムの算出を説明する説明図である。 (a)及び(b)は多重スケールエッジ接続角度ヒストグラムの算出を説明する説明図である。 左瞳候補領域及び右瞳候補領域の設定を説明する説明図である。 窓領域のスライドを説明する説明図である。 (a)及び(b)は正規化顔領域画像における瞳位置の算出を説明する説明図である。 (a)及び(b)は撮影画像上への瞳位置の変換を説明する説明図である。 瞳画像学習処理のフローチャートである。 瞳位置検出処理のフローチャートである。
以下、本願発明の実施形態について、適宜図面を参照しながら詳細に説明する。なお、同一の機能を有する手段には同一の符号を付し、説明を省略した。
[瞳検出装置の構成]
図1を参照し、本願発明の実施形態に係る瞳検出装置1の構成について、説明する。
瞳検出装置1は、瞳画像の判別に利用する瞳画像判別モデルを生成すると共に、その瞳画像判別モデルを用いて、撮影画像に含まれる瞳位置を検出するものである。図1のように、瞳検出装置1は、瞳画像学習装置2と、瞳画像判別モデル記憶部3と、瞳位置検出装置4とを備える。
<瞳画像学習装置>
瞳画像学習装置2は、後記する学習用画像集合から、瞳画像を判別する瞳画像判別モデルを生成するものである。図1のように、瞳画像学習装置2は、学習用画像集合生成部20と、瞳画像学習部22とを備える。
学習用画像集合生成部20は、外部より入力された顔画像集合から学習用画像集合を生成するものである。
顔画像集合とは、人物の顔領域が撮影された顔画像の集合である。この顔画像集合は、瞳画像判別モデルの正確性を向上させるため、様々な人物の顔画像や、同一人物であっても顔の向きが異なる顔画像を含んでいることが好ましい。
学習用画像集合とは、人物の瞳領域を切り出した瞳画像と、人物の瞳以外の顔領域を切り出した非瞳画像との集合である。
例えば、学習用画像集合生成部20は、入力された顔画像集合に含まれる各顔画像を、予め設定されたサイズ(幅W1×高さH1)に変換する。次に、学習用画像集合生成部20は、変換した顔画像をディスプレイ(不図示)に表示し、図2(a)のように、予め設定されたサイズ(幅R×高さR)の矩形状の瞳領域90を瞳画像学習装置2の利用者に選択させる。そして、学習用画像集合生成部20は、図2(b)のように、選択された瞳領域90を瞳画像として切り出す。
また、学習用画像集合生成部20は、図3(a)のように、ディスプレイに表示された顔画像から、瞳領域90と同一サイズの瞳以外の顔領域(非瞳領域)91を瞳画像学習装置2の利用者に選択させる。そして、学習用画像集合生成部20は、図3(b)のように、選択された非瞳領域91を非瞳画像として切り出す。
その後、学習用画像集合生成部20は、切り出した瞳画像及び非瞳画像の集合を、学習用画像集合として瞳画像学習部22に出力する。
なお、学習用画像集合生成部20は、教師あり機械学習を行うために、瞳画像に正解データであることを示す識別情報を付加し、非瞳画像に不正解データであることを示す識別情報を付加してもよい。
また、学習用画像集合生成部20は瞳画像学習装置2の外部にあって、瞳画像学習装置2は学習用画像集合を外部から取り込むこととしてもよい。
瞳画像学習部22は、学習用画像集合生成部20から入力された学習用画像集合を学習するものであり、画像特徴量算出部(第1画像特徴量算出部)24と、瞳画像判別モデル生成部26とを備える。
画像特徴量算出部24は、学習用画像集合に含まれる瞳画像及び非瞳画像のそれぞれについて、エッジに関する画像特徴量(例えば、既知のエッジ方向ヒストグラム)を算出するものである。
ここで、瞳位置を正確に検出するために、瞳を囲む円や眼の輪郭等の形状を重視した画像特徴量を用いることが好ましい。そこで、画像特徴量算出部24は、エッジに関する画像特徴量として、多重スケールエッジヒストグラムを算出する。
この多重スケールエッジヒストグラムとは、異なるスケールで延長されたエッジのヒストグラムのことであり、多重スケールエッジ方向ヒストグラムや多重スケールエッジ接続角度ヒストグラムが含まれる。
多重スケールエッジ方向ヒストグラムは、図4(a)のように、Kピクセルだけ離れた画素92の局所的なエッジ93だけでなく、Knピクセル離れた画素92までが連続した場合、スケールnのエッジ93として扱う。この多重スケールエッジ方向ヒストグラムは、図4(b)のように、スケール0からスケールN−1まで、0度〜179度のエッジ方向θ毎に、エッジ93の出現頻度(画像中の個数)を表している。
なお、Nはスケールの多重数であり、1≦n≦Nを満たす。
多重スケールエッジ接続角度ヒストグラムは、図5(a)のように、エッジ93Aと、そのエッジ93Aの端点となる画素92Aを中心とした半径Rの円内に、端点となる画素92Bが存在するエッジ93Bとの接続角度φに基づいたものである。この多重スケールエッジ接続角度ヒストグラムは、図5(b)のように、スケール0からスケールN−1まで、方向1度〜180度の角度毎に、エッジ93同士の接続角度φの出現頻度(画像中の個数)を表している。
ここで、画像特徴量算出部24は、エッジに関する画像特徴量として、多重スケールエッジ方向ヒストグラム又は多重スケールエッジ接続角度ヒストグラムの一方のみを算出してもよい。また、画像特徴量算出部24は、多重スケールエッジ方向ヒストグラム又は多重スケールエッジ接続角度ヒストグラムの両方を算出し、これらを要素とする多次元の画像特徴量として扱ってもよい。
なお、多重スケールエッジ方向ヒストグラム及び多重スケールエッジ接続角度ヒストグラムは、下記の参考文献に詳細に記載されているため、これ以上の説明を省略する。
参考文献:震災映像アーカイブス検索システムへの類似画像検索技術の適用、望月貴裕他、2014年映像情報メディア学会年次大会(ITE Annual Convention 2014)
瞳画像判別モデル生成部26は、画像特徴量算出部24が算出した瞳画像の画像特徴量及び非瞳画像の画像特徴量を機械学習することで、瞳画像判別モデルを生成するものである。この瞳画像判別モデル生成部26は、既知の機械学習を利用でき、サポートベクターマシン、ニューラルネットワーク等の教師あり機械学習を行うことが好ましい。そして、瞳画像判別モデル生成部26は、生成した瞳画像判別モデルを瞳画像判別モデル記憶部3に書き込む。
<瞳画像判別モデル記憶部>
瞳画像判別モデル記憶部3は、瞳画像判別モデル生成部26が生成した瞳画像判別モデルを記憶するメモリ、ハードディスク(HDD:Hard Disk Drive)等の記憶装置である。
なお、瞳画像判別モデル記憶部3は、瞳画像学習装置2に備えられてもよく、瞳位置検出装置4に備えられてもよい。
<瞳位置検出装置>
瞳位置検出装置4は、瞳画像判別モデル記憶部3に記憶された瞳画像判別モデルを用いて、撮影画像に含まれる人物の瞳位置を検出するものである。図1のように、瞳位置検出装置4は、瞳候補領域設定部40と、瞳位置検出部42とを備える。
瞳候補領域設定部40は、1台の撮影カメラCで撮影された撮影画像に含まれる人物の顔領域を切り出した顔画像に、当該顔領域よりも小さいサイズの瞳候補領域を設定するものである。この撮影画像は、撮影映像(動画)を構成するフレーム画像である。
すなわち、瞳位置検出装置4は、以下で説明する処理を各フレーム画像に施すと、撮影映像の瞳位置を検出、追跡することが可能となる。
まず、瞳候補領域設定部40は、一般的な撮影カメラCから入力された撮影画像に既知の顔領域検出処理(例えば、OpenCV)を施すことで、撮影画像に含まれる矩形状の顔領域を検出し、検出した顔領域を切り出して顔領域画像を生成する。この撮影画像に含まれる顔領域の左上座標を(x_f,y_f)とし、撮影画像に含まれる顔領域のサイズを(幅w_f×高さh_f)とする。
次に、瞳候補領域設定部40は、図6のように、生成した顔領域画像を予め設定されたサイズ(幅W_f×高さH_f)に変換することで、正規化顔領域画像94を生成する。そして、瞳候補領域設定部40は、正規化顔領域画像94に左右の瞳候補領域95(左瞳候補領域95L及び右瞳候補領域95R)を設定する。その後、瞳候補領域設定部40は、設定した左右の瞳候補領域95を瞳位置検出部42に出力する。
ここで、図6のように、左瞳候補領域95L及び右瞳候補領域95Rの左上座標、幅及び高さは、以下の式で定義される。つまり、左瞳候補領域95L及び右瞳候補領域95Rは、縦横の比率がそのままで、正規化顔領域画像94の縮小したサイズとなる。なお、係数R1,R2,R3,R4は、0以上1未満の値で予め設定される。
右瞳候補領域の左上座標 (x_r,y_r)=(R1×W_f,R3×H_f)
右瞳候補領域の幅 W_r=R2×W_f
右瞳候補領域の高さ H_r=R4×H_f
左瞳候補領域の左上座標 (x_l,y_l)=((1-R1-R2)×W_f,R3×H_f)
左瞳候補領域の幅 W_l=R2×W_f
左瞳候補領域の高さ H_l=R4×H_f
瞳位置検出部42は、瞳候補領域設定部40より入力された左右の瞳候補領域95から、瞳位置を検出するものであり、画像特徴量算出部(第2画像特徴量算出部)44と、瞳画像判別部46と、瞳位置算出部48とを備える。
画像特徴量算出部44は、左右の瞳候補領域について、エッジに関する画像特徴量を算出するものである。本実施形態では、画像特徴量算出部44は、学習用画像集合と同じサイズ(幅R×高さR)の窓領域を左右の瞳候補領域95に設定する。そして、画像特徴量算出部44は、異なる位置に設定された各窓領域について、画像特徴量算出部24と同一の画像特徴量を算出する。
具体的には、画像特徴量算出部44は、図7のように、右瞳候補領域95Rに窓領域96を設定し、この窓領域96の画像特徴量を算出する。次に、画像特徴量算出部44は、窓領域96をスライドさせた後(破線で図示)、その位置で窓領域96の画像特徴量を算出する。このように、画像特徴量算出部44は、右瞳候補領域95Rの全範囲から画像特徴量を算出するまで、窓領域96のスライドと画像特徴量の算出とを繰り返す。
なお、画像特徴量算出部44では、窓領域96のスライド量を任意に設定できる。
また、画像特徴量算出部44では、窓領域96のスライド方法も任意に設定できる。例えば、画像特徴量算出部44は、右瞳候補領域95Rの左上から右下まで、ラスタスキャンのように窓領域96をスライドさせてもよい。
また、画像特徴量算出部44は、右瞳候補領域95Rと同様、左瞳候補領域95Lについても窓領域96の画像特徴量を算出する。
瞳画像判別部46は、左右の瞳候補領域95について、画像特徴量算出部44が算出した各窓領域96の画像特徴量を瞳画像判別モデルに入力することで、各窓領域96が瞳画像であるか否かを判別するものである。
ここで、窓領域96の画像特徴量を瞳画像判別モデルに入力すると、その窓領域96が瞳画像である確率が瞳画像判別モデルから出力される。従って、瞳画像判別部46は、瞳画像判別モデルが出力した確率の閾値処理により、各窓領域96が瞳画像であるか否かを判別する。例えば、瞳画像判別部46は、瞳画像判別モデルからの確率が予め設定された閾値以上であれば、その窓領域96が瞳画像であると判別する。一方、瞳画像判別部46は、瞳画像判別モデルからの確率が閾値未満であれば、その窓領域96が瞳画像でないと判別する。
瞳位置算出部48は、左右の瞳候補領域95について、瞳画像判別部46により瞳画像であると判別された窓領域96の瞳位置を算出するものである。
本実施形態では、瞳位置算出部48は、図8(a)のように、左右の瞳候補領域95について、瞳画像であると判別された全ての窓領域96の中心座標を求める。そして、瞳位置算出部48は、図8(b)のように、右瞳候補領域95Rから求めた中心座標の平均値を、正規化顔領域画像94における右瞳位置97Rとして算出する。さらに、瞳位置算出部48は、左瞳候補領域95Lから求めた中心座標の平均値を、正規化顔領域画像94における左瞳位置97Lとして算出する。
次に、瞳位置算出部48は、図9のように、正規化顔領域画像94における右瞳位置97Rを撮影画像98の座標に変換し、変換した座標を右瞳位置99Rとして出力する。また、瞳位置算出部48は、正規化顔領域画像94における左瞳位置97Lを撮影画像98の座標に変換し、変換した座標を左瞳位置99Lとして出力する。
ここで、図9のように、左瞳候補領域95L及び右瞳候補領域95Rの左上座標、幅及び高さは、以下の式で定義される。なお、右瞳位置97Rの座標を(X_pr,Y_pr)とし、左瞳位置97Lの座標を(X_pl,Y_pl)とする。また、右瞳位置99Rの座標を(x_pr,y_pr)とし、左瞳位置99Lの座標を(x_pl,y_pl)とする。
x_pr=x_f+(w_f/W_f)×X_pr
y_pr=y_f+(h_f/H_f)×Y_pr
x_pl=x_f+(w_f/W_f)×X_pl
y_pl=y_f+(h_f/H_f)×Y_pl
[瞳画像学習処理]
図10を参照し、瞳画像学習装置2による瞳画像学習処理について説明する(適宜図1参照)。
図10のように、瞳画像学習装置2は、外部より顔画像集合が学習用画像集合生成部20に入力される(ステップS1)。
瞳画像学習装置2は、学習用画像集合生成部20によって、人物の瞳領域を切り出した瞳画像を生成する(ステップS2)。
瞳画像学習装置2は、学習用画像集合生成部20によって、人物の非瞳域を切り出した非瞳画像を生成する(ステップS3)。
瞳画像学習装置2は、画像特徴量算出部24によって、瞳画像及び非瞳画像のそれぞれについて、エッジに関する画像特徴量を算出する(ステップS4)。
瞳画像学習装置2は、瞳画像判別モデル生成部26によって、瞳画像の画像特徴量及び非瞳画像の画像特徴量を機械学習することで、瞳画像判別モデルを生成する(ステップS5)。
[瞳位置検出処理]
図11を参照し、瞳位置検出装置4による瞳位置検出処理について説明する(適宜図1参照)。
図11のように、瞳位置検出装置4は、1台の撮影カメラCから撮影画像が瞳候補領域設定部40に入力される(ステップS10)。
瞳位置検出装置4は、瞳候補領域設定部40によって、撮影画像に含まれる矩形状の顔領域を検出し、検出した顔領域を切り出して顔領域画像を生成する(ステップS11)。
瞳位置検出装置4は、瞳候補領域設定部40によって、顔領域画像から予め設定されたサイズの正規化顔領域画像を生成し、この正規化顔領域画像に左右の瞳候補領域を設定する(ステップS12)。
瞳位置検出装置4は、画像特徴量算出部44によって、左右の瞳候補領域に窓領域を設定し、この窓領域の画像特徴量を算出する(ステップS13)。
瞳位置検出装置4は、瞳画像判別部46によって、各窓領域の画像特徴量を瞳画像判別モデルに入力し、各窓領域が瞳画像である確率を算出する(ステップS14)。
瞳位置検出装置4は、瞳画像判別部46によって、瞳画像判別モデルで求めた確率の閾値処理により、各窓領域が瞳画像であるか否かを判別する(ステップS15)。
瞳位置検出装置4は、瞳画像判別部46によって、瞳画像であると判別された全ての窓領域の中心座標の平均値を瞳位置として算出する(ステップS16)。
[作用・効果]
本願発明の実施形態に係る瞳検出装置1は、瞳画像学習装置2が、エッジに関する画像特徴量を学習した瞳画像判別モデルを生成し、瞳位置検出装置4が、この瞳画像判別モデルを用いて、1台の撮影カメラCで人物が撮影された撮影画像から瞳画像を判別する。従って、瞳検出装置1は、高解像度の瞳拡大画像を撮影できない場合でも、複数台の撮影カメラCを必要とせずに簡易な構成で瞳位置を検出することができる。
さらに、瞳検出装置1は、瞳画像学習装置2及び瞳位置検出装置4が、エッジに関する画像特徴量として、多重スケールエッジ方向ヒストグラムや多重スケールエッジ接続角度ヒストグラムのように、長いエッジやエッジの接続方法に重みをおいた画像特徴量を用いるため、瞳位置をより正確に検出することができる。
さらに、瞳検出装置1は、瞳位置検出装置4が、瞳画像であると判別された全ての窓領域の中心座標を求め、求めた中心座標の平均値を瞳位置として算出するため、瞳位置をより正確に検出することができる。
前記した実施形態では、瞳位置検出装置4を独立したハードウェアとして説明したが、本願発明は、これに限定されない。例えば、コンピュータが備えるCPU、メモリ、ハードディスク等のハードウェア資源を、瞳位置検出装置4として協調動作させる瞳位置検出プログラムで実現することもできる。このプログラムは、通信回線を介して配布してもよく、CD−ROMやフラッシュメモリ等の記録媒体に書き込んで配布してもよい。
1 瞳検出装置
2 瞳画像学習装置
3 瞳画像判別モデル記憶部
4 瞳位置検出装置
20 学習用画像集合生成部
22 瞳画像学習部
24 画像特徴量算出部(第1画像特徴量算出部)
26 瞳画像判別モデル生成部
40 瞳候補領域設定部
42 瞳位置検出部
44 画像特徴量算出部(第2画像特徴量算出部)
46 瞳画像判別部
48 瞳位置算出部

Claims (6)

  1. 人物の瞳領域を切り出した瞳画像と、前記人物の瞳以外の顔領域を切り出した非瞳画像との集合である学習用画像集合から、前記瞳画像を判別する瞳画像判別モデルを生成する瞳画像学習装置であって、
    前記学習用画像集合に含まれる瞳画像及び非瞳画像のそれぞれについて、エッジに関する画像特徴量を算出する第1画像特徴量算出部と、
    前記瞳画像の画像特徴量及び前記非瞳画像の画像特徴量を機械学習することで、前記瞳画像判別モデルを生成する瞳画像判別モデル生成部と、
    を備えることを特徴とする瞳画像学習装置。
  2. 前記第1画像特徴量算出部は、前記エッジに関する画像特徴量として、異なるスケールで延長されたエッジのヒストグラムである多重スケールエッジヒストグラムを算出することを特徴とする請求項1に記載の瞳画像学習装置。
  3. 請求項1に記載の瞳画像学習装置が生成した瞳画像判別モデルを用いて、撮影画像に含まれる人物の瞳位置を検出する瞳位置検出装置であって、
    前記撮影画像に含まれる前記人物の顔領域を切り出した顔画像に、当該顔領域よりも小さいサイズの瞳候補領域を設定する瞳候補領域設定部と、
    前記学習用画像集合と同じサイズの窓領域を前記瞳候補領域に設定し、前記窓領域について、エッジに関する画像特徴量を算出する第2画像特徴量算出部と、
    前記窓領域の画像特徴量を前記瞳画像判別モデルに入力することで、前記窓領域が前記瞳画像であるか否かを判別する瞳画像判別部と、
    前記瞳画像であると判別された窓領域に含まれる瞳位置を算出する瞳位置算出部と、
    を備えることを特徴とする瞳位置検出装置。
  4. 前記第2画像特徴量算出部は、前記窓領域を前記瞳候補領域の異なる位置に設定し、各窓領域について、前記エッジに関する画像特徴量を算出し、
    前記瞳画像判別部は、前記各窓領域が前記瞳画像であるか否かを判別し、
    前記瞳位置算出部は、前記瞳画像であると判別された全ての窓領域の中心座標を求め、求めた前記中心座標の平均値を前記瞳位置として算出することを特徴とする請求項3に記載の瞳位置検出装置。
  5. 前記第2画像特徴量算出部は、前記エッジに関する画像特徴量として、異なるスケールで延長されたエッジのヒストグラムである多重スケールエッジヒストグラムを算出することを特徴とする請求項3又は請求項4に記載の瞳位置検出装置。
  6. コンピュータを、請求項3から請求項5の何れか一項に記載の瞳位置検出装置として機能させるための瞳位置検出プログラム。
JP2015236043A 2015-12-02 2015-12-02 瞳画像学習装置、瞳位置検出装置及びそのプログラム Pending JP2017102748A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015236043A JP2017102748A (ja) 2015-12-02 2015-12-02 瞳画像学習装置、瞳位置検出装置及びそのプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015236043A JP2017102748A (ja) 2015-12-02 2015-12-02 瞳画像学習装置、瞳位置検出装置及びそのプログラム

Publications (1)

Publication Number Publication Date
JP2017102748A true JP2017102748A (ja) 2017-06-08

Family

ID=59018049

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015236043A Pending JP2017102748A (ja) 2015-12-02 2015-12-02 瞳画像学習装置、瞳位置検出装置及びそのプログラム

Country Status (1)

Country Link
JP (1) JP2017102748A (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006285956A (ja) * 2005-03-11 2006-10-19 Fuji Photo Film Co Ltd 赤目検出方法および装置並びにプログラム
JP2009211180A (ja) * 2008-02-29 2009-09-17 Canon Inc 眼の開閉度判定装置、方法及びプログラム、撮像装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006285956A (ja) * 2005-03-11 2006-10-19 Fuji Photo Film Co Ltd 赤目検出方法および装置並びにプログラム
JP2009211180A (ja) * 2008-02-29 2009-09-17 Canon Inc 眼の開閉度判定装置、方法及びプログラム、撮像装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
望月 貴裕、外3名: ""震災映像アーカイブス検索システムへの類似画像検索技術の適用"", 映像情報メディア学会 2014年年次大会講演予稿集, JPN6019035080, 10 August 2014 (2014-08-10), JP, pages 1 - 2, ISSN: 0004193001 *

Similar Documents

Publication Publication Date Title
US10810438B2 (en) Setting apparatus, output method, and non-transitory computer-readable storage medium
JP4461747B2 (ja) 対象決定装置
JP4575829B2 (ja) 表示画面上位置解析装置及び表示画面上位置解析プログラム
US10146992B2 (en) Image processing apparatus, image processing method, and storage medium that recognize an image based on a designated object type
JP2005309746A (ja) 動物体追跡方法、動物体追跡プログラムおよびその記録媒体、ならびに、動物体追跡装置
US8368764B2 (en) Digital photographing apparatus and method for controlling the same
JP2010225118A (ja) 画像処理装置、方法及びプログラム
JP5371685B2 (ja) 情報処理装置及び制御方法、プログラム
JP2011089784A (ja) 物体方向推定装置
JP6511950B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2019040306A (ja) 情報処理装置、情報処理プログラム、及び、情報処理方法
JP7312026B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP2014102713A (ja) 顔構成部抽出装置、顔構成部抽出方法及びプログラム
EP3699865A1 (en) Three-dimensional face shape derivation device, three-dimensional face shape deriving method, and non-transitory computer readable medium
JPWO2020213166A1 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP2020072349A (ja) 画像処理装置、画像処理方法
JP2008211534A (ja) 顔検知装置
JP2017102748A (ja) 瞳画像学習装置、瞳位置検出装置及びそのプログラム
JP7232663B2 (ja) 画像処理装置及び画像処理方法
JP6776532B2 (ja) 画像処理装置、撮像装置、電子機器及び画像処理プログラム
JP2020043544A (ja) 撮像装置およびその制御方法、プログラムならびに記憶媒体
JP2013157675A (ja) 撮像装置及びその制御方法、プログラム、並びに記憶媒体
JP7324066B2 (ja) 画像処理装置およびその制御方法、ならびに撮像装置
JP6525693B2 (ja) 画像処理装置及び画像処理方法
JP2018005727A (ja) 情報処理装置、情報処理方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181102

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190904

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190910

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191107

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200121