JP6582604B2 - 瞳孔検出プログラム、瞳孔検出方法、瞳孔検出装置および視線検出システム - Google Patents

瞳孔検出プログラム、瞳孔検出方法、瞳孔検出装置および視線検出システム Download PDF

Info

Publication number
JP6582604B2
JP6582604B2 JP2015126081A JP2015126081A JP6582604B2 JP 6582604 B2 JP6582604 B2 JP 6582604B2 JP 2015126081 A JP2015126081 A JP 2015126081A JP 2015126081 A JP2015126081 A JP 2015126081A JP 6582604 B2 JP6582604 B2 JP 6582604B2
Authority
JP
Japan
Prior art keywords
pupil
image
detection
luminance information
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015126081A
Other languages
English (en)
Other versions
JP2017010337A (ja
Inventor
隆宏 吉岡
隆宏 吉岡
哲 中島
哲 中島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2015126081A priority Critical patent/JP6582604B2/ja
Priority to EP16167332.2A priority patent/EP3109795B1/en
Priority to US15/141,000 priority patent/US10147022B2/en
Publication of JP2017010337A publication Critical patent/JP2017010337A/ja
Application granted granted Critical
Publication of JP6582604B2 publication Critical patent/JP6582604B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/197Matching; Classification
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/20Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from infrared radiation only
    • H04N23/21Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from infrared radiation only from near infrared [NIR] radiation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Ophthalmology & Optometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Toxicology (AREA)
  • Eye Examination Apparatus (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、画像から対象者の視線を検出する技術に関する。
近赤外光源および近赤外カメラを利用して、角膜反射法により、対象者の視線を検出する技術がある(例えば、非特許文献1)。なお、角膜反射法は、近赤外線光源を用いて角膜上に反射を発生させ、反射の中心と瞳孔の中心とを画像処理により求める。そして、角膜反射法は、反射の中心と瞳孔の中心との位置関係から、対象者の視線を検出する。そして、瞳孔を検出するための画像処理においては、画像処理装置は、目の領域を検出するとともに、目の領域から、テンプレート情報を用いて、瞳孔候補を検出する。
さらに、目の領域の明るさを算出するとともに、予め準備された明るさ瞳孔情報に基づき、現在の明るさに対応する半径に最も近い半径の瞳孔候補を、先に検出された瞳孔候補の中から特定する技術もある(例えば、特許文献1)。つまり、画像処理装置は、処理対象の画像における目の領域の明るさを用いて、瞳孔候補の中から、真の瞳孔を特定する。
特開2013−215549号公報
大野健彦ら、眼球形状モデルに基づく視線測定システム―視線入力デバイスの実現に向けて―、情報処理学会研究報告2001−HI−93、2001、pp47−54
上述した従来技術は、目の領域の明るさに応じて瞳孔の大きさが変化しているであろうという仮定の下、目の領域の明るさに対応して、瞳孔の大きさを推定している。ここでは、瞳孔の拡縮に影響を与える可視光の強さは、近赤外光の強さに比例するという前提がある。なお、可視光は、自然光や照明光に由来する。また、近赤外光は、自然光や照明光に含まれる近赤外光と、近赤外光源由来の近赤外光とに由来する。
しかし、視線を検出する対象の対象者が、例えば、メガネをかけている場合には、次のような問題が発生する。近赤外光源から照射された近赤外光が、メガネのレンズ表面で強く反射することで、目の領域全体が明るく写ってしまう場合がある。このとき、仮に、瞳孔の収縮に影響を与える環境の明るさ(可視光の強さ)が暗かったとしても、画像における目の領域に発生した近赤外光由来の反射の影響で、瞳孔は収縮しているという推定が働いてしまう。その結果、本来、対象者の瞳孔は拡大しているはずであるが、目の領域の明るさにより、小さい半径を持つ瞳孔候補が、瞳孔として特定されてしまう。
本実施例に開示の技術は、上記に鑑みてなされたものであって、光源から照射された光の反射の影響による瞳孔の誤検出を防ぐことを目的とする。
本実施例に開示の技術は、一つの側面では、コンピュータに、画像における顔画像領域から、特定の形状情報に基づき、複数の瞳孔候補を検出し、前記顔画像領域を含まない他の画像領域に係る輝度情報、および該輝度情報と瞳孔の大きさとの関係を示す学習情報に基づき、前記複数の瞳孔候補から、少なくとも一つの瞳孔候補を、瞳孔検出結果として出力する処理を実行させる瞳孔検出プログラムに関する。
本実施例に開示の技術は、光源から照射された光の反射の影響による瞳孔の誤検出を防ぐことができるという効果を奏する。
図1は、本実施例に係る視線検出システムの構成を示す図である。 図2は、瞳孔検出部の機能構成例である。 図3は、テンプレート記憶部に記憶されたテンプレート情報の例を示す。 図4は、瞳孔候補記憶部のデータ構成例を示す。 図5は、学習情報記憶部に記憶される学習情報の例である。 図6は、瞳孔尤度を説明するための図である。 図7は、視線検出装置のハードウェア構成である。 図8は、対象者がメガネをかけている状態で撮影された近赤外画像の一部分の拡大図である。 図9は、光の減衰を示す図である。 図10Aおよび図10Bは、対象領域を説明するための図である。 図11は、視線検出処理のフローチャートである。 図12は、瞳孔検出処理のフローチャートである。 図13Aおよび図13Bは、瞳孔検出結果を説明するための図である。 図14は、実施例2を説明するための図である。 図15は、実施例2に係る瞳孔検出部の機能構成例である。 図16は、実施例2に係る瞳孔検出処理のフローチャートである。
以下に、本発明に関する視線検出技術および瞳孔検出技術の実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。
図1は、本実施例に係る視線検出システムの構成を示す図である。図1に示すように、視線検出システム100は、視線検出装置1、カメラ8、光源9を含む。カメラ8は、所定の波長の光に感度を有する撮影装置の一例である。光源9は、所定の波長の光を照射する。
カメラ8および光源9は視線検出装置1に接続される。ただし、有線で接続される以外にも、無線通信で通信する形態であってもよい。よって、視線検出処理が開始されると、視線検出装置1の制御の下、カメラ8は一定の時間間隔で画像の撮影を開始するとともに、撮影した画像に関わる画像データを視線検出装置1に送信する。また、視線検出装置1の制御の下、光源9の電源もONとなる。
本実施例においては、所定の波長の光として、視線を検出する対象の対象者には見えない近赤外光を利用する。よって、カメラ8は、近赤外光カメラであり、光源9は、近赤外光を照射する光源である。そして、カメラ8が撮影する画像は、近赤外画像である。近赤外画像には、光源9から照射された近赤外光の反射および、その他の光源から照射された近赤外光(例えば、自然光や蛍光灯の光)の反射の強さに応じた輝度で、物体が撮影される。本実施例においては、近赤外画像を用いて、光源9から照射された光の角膜反射および、対象者の瞳孔を検出することで、視線を検出する。
視線検出装置1は、対象者の視線を検出する装置である。本実施例においては、視線検出装置1は、カメラ8から取得した近赤外画像に対して視線検出処理を実行する事で、対象者の視線を検出する。視線検出装置1による処理結果は、例えば、マーケティング分析等に活用される。具体的には、店舗内の棚や商品のプレートに、カメラ8および光源9が設置されている場合に、視線検出装置1は、撮影された対象者の視線を検出する。そして、マーケティング分析においては、この視線から、客がどの商品に興味をいだいているかが推定される。例えば、視線検出装置1の出力(視線検出結果)から、多くの客が興味を抱いた商品を把握することができる。
図1に示す通り、視線検出装置1は、画像取得部2、瞳孔検出部3、反射検出部4、視線検出部5、出力部6、記憶部7を有する。なお、視線検出装置1は、コンピュータである。
画像取得部2は、カメラ8が撮影した画像に関わる画像情報を、カメラ8から取得する。画像取得部2は、本実施例では、対象者の顔を撮影した近赤外画像に対応する画像情報を取得する。画像情報には、各画素における近赤外光の強さを示す輝度情報が含まれる。なお、カメラ8と視線検出装置1が無線通信により通信する場合には、画像取得部2は通信部として機能する。
瞳孔検出部3は、画像取得部2から入力された画像を処理対象として、画像から対象者の瞳孔を検出する。詳細は後述する。なお、瞳孔検出部3は、独立したコンピュータである瞳孔検出装置として機能する事も可能である。
反射検出部4は、画像取得部2から入力された画像を処理対象として、角膜反射を検出する。反射検出部4は、例えば、非特許文献1に記載の方法により、角膜反射を検出する。
視線検出部5は、瞳孔検出部3の検出結果と、反射検出部4の検出結果とに基づき、対象者の視線を検出する。視線検出部5は、例えば、非特許文献1に記載の方法により、瞳孔の位置と角膜反射の位置の関係に基づき、対象者の視線を検出する。
出力部6は、視線検出部5により検出された検出結果を、他の装置に出力する。他の装置は、例えば、マーケティング分析を行うコンピュータや、視線の方向を利用した入力インターフェースなどである。
記憶部7は、視線検出処理に必要な各種情報を記憶する記憶部である。
次に、瞳孔検出部3の詳細な機能構成について説明する。図2は、瞳孔検出部の機能構成例である。なお、図2は、瞳孔検出装置の機能構成例でもある。
瞳孔検出部3は、顔検出部11、瞳孔候補検出部12、推定部13、特定部14、学習部15、テンプレート記憶部16、瞳孔候補記憶部17、学習情報記憶部18を有する。なお、テンプレート記憶部16、瞳孔候補記憶部17、学習情報記憶部18は、図1の記憶部7として実現されてもよい。
顔検出部11は、画像取得部2から入力された画像から、対象者の顔に対応する顔領域を検出する。なお、顔領域を検出する方法は、従来の方法が適用される。例えば、中原智治ら、自律移動ロボット用人検出方法、松下電工技法、Vol.53、No.2に記載の方法や、顔の特徴に係るテンプレートを用いた顔検出技術により、顔領域が検出される。
瞳孔候補検出部12は、画像取得部2から入力された画像から、瞳孔候補を検出する。具体的には、瞳孔候補検出部12は、顔検出部11により検出された顔領域から、さらに目の領域を検出する。なお、目領域の検出には、例えば、特許文献1に記載の方法が利用される。
そして、瞳孔候補検出部12は、目の領域に対して、テンプレートマッチングを実行することで、瞳孔候補を検出する。例えば、特許文献1に記載の方法が利用される。簡単に説明すると、瞳孔候補検出部12は、テンプレート記憶部16に記憶されたテンプレート情報に類似する形状を、近赤外画像の目領域から抽出する。なお、テンプレート情報は、特定の形状に係る形状情報の一例である。
ここで、テンプレート記憶部16について説明する。テンプレート記憶部16は、瞳孔の形状に係るテンプレート情報を記憶する。そして、好ましくは、テンプレート記憶部16は、さまざまな大きさの瞳孔を検出できるように、様々な半径を有する円形状のテンプレート情報を記憶する。
図3は、テンプレート記憶部に記憶されたテンプレート情報の例を示す。図3のように、種々の半径を有するテンプレート情報16A、16B、16Cが、予め記憶される。
瞳孔候補検出部12は、目領域上を、テンプレートを走査させ、テンプレートの輪郭と一部一致する領域を、瞳孔候補として検出する。なお、瞳孔候補検出部12は、ある大きさのテンプレートの走査が終了した後に、テンプレートの大きさを変更し、走査処理を繰り返し実行することで、大きさが異なる円形状の領域を、瞳孔候補として検出する。
瞳孔候補検出部12は、瞳孔候補を検出した場合には、各瞳孔候補にIDを付与するとともに、ID、瞳孔候補の位置情報(X座標、Y座標)、半径を対応付けて、瞳孔候補記憶部17に記憶する。ここで、IDは、検出された瞳孔候補を一意に識別する情報である。瞳孔候補の位置情報(X座標、Y座標)は、瞳孔候補をテンプレートによって円形に補完した場合の、中心座標とする。また、瞳孔候補の半径は、瞳孔の候補をテンプレートによって円形に補完した場合の、円の半径とする。
さらに、瞳孔候補検出部12は、各瞳孔候補について、輪郭尤度を算出するとともに、瞳孔候補記憶部17に記憶する。輪郭尤度は、瞳孔候補の輪郭からみた、瞳孔であることの確からしさを表す。つまり、輪郭尤度が大きいほど、瞳孔候補の輪郭とテンプレートの外形との一致度が高く、形状からみて瞳孔候補は瞳孔である可能性が高い。輪郭尤度は、例えば、特許文献1に記載の方法で算出される。
例えば、瞳孔候補検出部12は、検出した瞳孔候補の輪郭とテンプレートの外形との一致度に基づき、輪郭尤度を算出する。また、瞳孔候補検出部12は、輪郭尤度が閾値以上の瞳孔候補のみを瞳孔候補記憶部17に記憶するとしてもよい。
次に、瞳孔候補記憶部17について説明する。瞳孔候補記憶部17は、瞳孔候補に関する瞳孔候補情報を記憶する。図4は、瞳孔候補記憶部のデータ構成例を示す。瞳孔候補記憶部17は、ID、X座標、Y座標、半径、および輪郭尤度を対応付けて記憶する。なお、瞳孔候補情報は、ID、X座標、Y座標、半径、および輪郭尤度を含む情報である。
次に、推定部13は、対象領域の輝度情報に基づき、瞳孔の大きさを推定する。対象領域は、画像における、顔検出部11による検出された顔領域を除いた領域の全部または一部の領域である。
例えば、推定部13は、対象領域に含まれる各画素の輝度情報から、対象領域の代表輝度情報を生成する。代表輝度情報は、各画素の輝度の平均値、中央値などである。そして、推定部13は、学習情報記憶部18に記憶された学習情報に基づき、対象領域の代表輝度情報に対応する瞳孔の大きさを決定する。学習情報は、対象領域の輝度情報と瞳孔の大きさ(半径)との関係を示す情報である。
ここで、学習情報記憶部18について説明する。なお、学習情報は、後述の学習部15により生成されて、学習情報記憶部18に記憶される。図5は、学習情報記憶部に記憶される学習情報の例である。
図5に示す通り、学習情報は、例えば、対象領域の輝度情報と瞳孔の半径(ピクセル)との間に成立する関係を示す関数である。図5の例では、横軸は対象領域の輝度情報を示し、縦軸は瞳孔の半径を示す。図5に示すように、輝度情報が大きくなるにつれて(環境が明るくなるにつれて)、瞳孔の半径は小さくなる。
特定部14は、瞳孔候補検出部12により検出された瞳孔候補の中から、推定部13により推定された瞳孔の大きさ(半径)に基づき、瞳孔を検出する。例えば、特定部14は、推定された瞳孔の大きさと輪郭尤度とに基づく瞳孔尤度を算出し、瞳孔尤度に基づき瞳孔を検出する。図6は、瞳孔尤度を説明するための図である。
図6に示す通り、特定部14は、瞳孔候補(ID)ごとに、推定部13が推定した瞳孔の大きさ(半径)と、瞳孔候補の大きさ(半径)との差分を算出する。さらに、特定部14は、当該差分に基づき、大きさ尤度を、例えば、以下の式1により算出する。なお、大きさ尤度は、推定された瞳孔の大きさと瞳孔候補の大きさとの差分を正規化した値に相当する。つまり、大きさ尤度は、推定された瞳孔の大きさと瞳孔候補の大きさが近いほど、大きな値となる。なお、式1におけるAは、正規化のため設定される値である。
Figure 0006582604
次に、特定部14は、瞳孔候補検出部12が算出した輪郭尤度と、大きさ尤度とから、各瞳孔候補の瞳孔尤度を算出する(式2)。つまり、瞳孔尤度は、形状からみた、瞳孔である可能性(輪郭尤度)と、大きさからみた、現在の環境の明るさにおける瞳孔である可能性(大きさ尤度)とを加味した値である。

Figure 0006582604
そして、特定部14は、複数の瞳孔候補の中から、瞳孔尤度が最大であって、かつ、所定の閾値よりも大きい瞳孔尤度を有する瞳孔候補を、瞳孔として特定する。
図6の例では、例えば、推定部13が推定した瞳孔の半径が「3(ピクセル)」であったとする。この時、IDが「1」である瞳孔候補について、特定部14は、差分「7」を算出する。特定部14は、式1に基づき、大きさ尤度「0.65」を算出する。なお、Aは、20であるとする。そして、特定部14は、予め算出されている輪郭尤度「0.84」と大きさ尤度「0.65」とに基づき、瞳孔尤度「0.54」を算出する。
このようにして、各々の瞳孔候補について、特定部14が瞳孔尤度を算出した結果、図6の例では、IDが「2」である瞳孔候補が瞳孔として特定される。IDが「2」の瞳孔候補は、瞳孔の半径が「4」であって、推定部13が推定した瞳孔の半径「3」に最も近い半径を有する瞳孔候補である。
なお、特定部14は、輪郭尤度を加味せず、推定された瞳孔の大きさに最も近い半径を有する瞳孔候補を、瞳孔として検出してもよい。つまり、大きさ尤度を、瞳孔尤度として利用してもよい。ただし、同じ瞳孔尤度(大きさ尤度)を有する瞳孔候補が複数存在する場合には、例えば、特定部14は、左右の目領域各々からの検出結果に基づき、瞳孔を特定する。具体的には、左右の目の瞳孔は、角膜反射との位置関係が左右でほぼ同一であること、また、大きさがほぼ同一であることなどのルールを予め指定しておき、そのルールに従って、特定部14は、左右各々の瞳孔候補の中から、瞳孔を特定する。
学習部15は、対象領域の輝度情報と瞳孔の大きさ(半径)との関係を示す学習情報を生成する。具体的には、学習部15は、実際の視線検出または瞳孔検出に先駆けて、まず、複数の近赤外画像を、学習用画像として取得する。なお、学習用画像は、実際に視線検出が実行される環境と同様の環境で撮影された画像である。また、学習用画像は、同様の環境において環境の明るさが変化した複数の画像である。
例えば、店舗内のある棚に設置されたカメラ8が、店舗の入射する自然光が異なる様々な時刻や天候で、撮影した画像が学習用画像となる。このように、視線検出が実際に実行される環境が既知である場合に、当該既知の環境毎に、学習情報を生成することが好ましい。なお、学習用画像は光源9から近赤外光が照射された状態で撮影された、画像である。
次に、学習部15は、顔検出部11と同様の処理によって、学習用画像から、顔領域を検出する。さらに、学習部15は、顔検出部11と同様の処理によって、学習用画像から、目領域を検出する。そして、学習部15は、瞳孔候補検出部12と同様の処理によって、学習用画像における目領域から、瞳孔候補を検出する。さらに、学習部15は、瞳孔候補が複数であった場合に、正しい瞳孔を、対象者(管理者)に選択させることで、瞳孔を決定する。なお、学習用画像から正しく瞳孔が検出できなかった場合には、当該学習用画像は、学習処理に利用しない。
また、学習部15は、非特許文献1に開示された方法によって、自動で瞳孔を決定してもよい。簡単に説明すると、学習部15は、画像の平滑化を行うとともに、隣接する2画素の輝度差が一定値以下の領域を連結することでセグメント化を実行する。さらに、学習部15は、セグメント化された領域の中から、輪郭の形状および輝度に基づき、瞳孔領域を決定する。具体的には、学習部15は、形状が略円形であって、かつ輝度が低い領域を、瞳孔領域として、特定する。なお、学習用画像から正しく瞳孔が検出できなかった場合には、当該学習用画像は、学習処理に利用しない。
なお、非特許文献1に記載の瞳孔検出処理を本実施例に係る学習処理に適用する事で、学習情報が生成されていない状態であっても自動的に瞳孔を検出することができる。ただし、本実施例に開示の瞳孔検出処理(学習後)の方が、より簡易な処理で瞳孔を検出することができる。したがって、本実施例に開示の瞳孔検出処理(学習後)は、非特許文献1に記載の瞳孔検出処理と比較して、演算量を軽減するとともに、処理時間を短縮させることができる。
以上のようにして、学習部15が瞳孔を決定すると、学習部15は、決定された瞳孔の大きさ(半径)を演算する。そして、学習部15は、推定部13と同様の処理によって、対象領域を設定するとともに、対象領域の代表輝度情報を生成する。そして、学習部15が、代表輝度情報と瞳孔の大きさの情報とを対応付けた学習用情報を生成する。
以上の処理を、取得した学習用画像各々に対して実行する事で、複数の学習用情報を蓄積し、学習部15は、蓄積された情報に基づき、学習情報を生成する。例えば、代表輝度情報の最小値と最大値との差が100以上になるまで、学習用情報を蓄積する事で、より信頼性の高い学習情報を生成することができる。そして、学習部15は、学習情報記憶部18に学習情報を記憶する。
次に、視線検出装置1のハードウェア構成例について説明する。図7は、視線検出装置のハードウェア構成である。コンピュータ1000は、実施例に係る視線検出処理を実行し、視線検出装置1として機能する。コンピュータ1000は、実施例に係る瞳孔検出処理部分を実行し、瞳孔検出装置(瞳孔検出部3)として機能する場合もある。
コンピュータ1000はCentral Processing Unit(CPU)1001、Read Only Memory(ROM)1002、Random Access Memory(RAM)1003、通信装置1004、Hard Disk Drive(HDD)1005、入力装置1006、表示装置1007、媒体読取装置1008を有しており、各部はバス1009を介して相互に接続されている。そしてCPU1001による制御下で相互にデータの送受を行うことができる。
瞳孔検出処理に係るプログラムや、当該瞳孔検出処理を含む一連の視線検出処理にかかるプログラムは、コンピュータ1000が読み取り可能な記録媒体に記録される。コンピュータ1000が読み取り可能な記録媒体には、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリなどがある。磁気記録装置には、HDD、フレキシブルディスク(FD)、磁気テープ(MT)などがある。
光ディスクには、Digital Versatile Disc(DVD)、DVD−RAM、Compact Disc − Read Only Memory(CD−ROM)、Compact Disc − Recordable/ReWritable(CD−R/RW)などがある。光磁気記録媒体には、Magneto − Optical disk(MO)などがある。各実施例に係る処理が記述されたプログラムを流通させる場合には、例えば、当該プログラムが記録されたDVD、CD−ROMなどの可搬型記録媒体が販売されることが考えられる。
そして本実施例に係るプログラムを実行するコンピュータ1000の媒体読取装置1008が、当該プログラムを記録した記録媒体から、該プログラムを読み出す。CPU1001は、読み出されたプログラムをHDD1005若しくはROM1002、RAM1003に格納する。CPU1001は、視線検出装置1全体の動作制御を司る中央処理装置である。
そして、CPU1001が、本実施例に関わる処理が記述されたプログラムをHDD1005から読み出して実行することで、CPU1001は、視線検出装置1における瞳孔検出部3、反射検出部4、視線検出部5として機能する。なお、CPU1001は、瞳孔検出装置(瞳孔検出部3)における、顔検出部11、瞳孔候補検出部12、推定部13、特定部14、学習部15として機能する場合もある。先に述べたとおり、プログラムはCPU1001とアクセス可能なROM1002またはRAM1003に格納されていても良い。
通信装置1004は、CPU1001の制御の下、画像取得部2や出力部6として機能する。
HDD1005は、CPU1001の制御下で、各種情報を記憶し、記憶部7として機能する。なお、HDD1005は、瞳孔検出装置(瞳孔検出部3)における、テンプレート記憶部16、瞳孔候補記憶部17、学習情報記憶部18として機能する場合もある。各種情報は、プログラム同様、CPU1001とアクセス可能なROM1002またはRAM1003に格納されても良い。さらに、処理の過程で一時的に生成および保持される各種情報は、例えば、RAM1003に格納される。
入力装置1006は、各種入力を受け付ける。例えば、学習処理において、対象者が瞳孔候補の中から正しい瞳孔を選択する際の入力を受け付ける。入力装置1006は、例えばキーボードやマウスである。
表示装置1007は、各種情報を表示する。表示装置1007は、例えばディスプレイである。例えば、表示装置1007は、視線検出結果を表示したり、学習処理において対象者に瞳孔候補の中から正しい瞳孔を選択させるために、瞳孔候補の検出結果を表示する。
このように、図1および図2に示した各機能部は、プロセッサーおよびメモリを含むハードウェア(コンピュータ)によって実現される。
また、視線検出装置1は、クラウド上で実現される場合もある。つまり、クラウド環境において、カメラ8が撮影された画像が特定のサーバに送信され、当該サーバまたは、当該サーバを含む複数のサーバが、本実施例に係る瞳孔検出処理や、当該瞳孔検出処理を含む一連の視線検出処理を実行してもよい。
次に、対象領域を利用して、瞳孔検出を行うことの利点について説明する。まず、図8は、対象者がメガネをかけている状態で撮影された近赤外画像の一部分の拡大図である。図8に示す通り、近赤外画像の一部70には、メガネ71をかけた対象者の顔の一部が写っている。そして、光源9から近赤外光が照射されているため、メガネ71のレンズ表面上で、近赤外光の反射72が起こっている。なお、視線検出に利用される角膜反射は、対象者の眼球表面における反射74である。また、本来検出されるべき、瞳孔は、領域73である。
光の反射が、眼球のように平面性が低い(球面性が高い)物体の表面で起こっている場合には、反射光のうちカメラ8に到達する反射光の割合は、平面性が高い物体の表面での反射光のうち、カメラ8に到達する反射光の割合に比べて小さい。よって、眼球表面における反射は、近赤外画像上で、反射74のように小さな点として観測される。一方、メガネのレンズように平面性の高い物体の表面における反射は、近赤外画像上で、反射72のように広範囲に観測される。
以上を鑑みると、例えば、従来技術の画像処理装置のように、目領域75の輝度情報から、瞳孔の大きさ(半径)を推測した場合に、反射72の影響を受けるため、正しく瞳孔の大きさを推測することができない。
一方、実際に視線検出を行う状況を考えた場合に、カメラ8に対して、対象者は、壁などの背景を背にカメラの前面に存在することが多い。そこで、発明者は、光源9からの光の反射の影響が表れにくい画像領域が、対象者の背景部分に存在することを発見した。
そこで、発明者は、画像における特定の画像領域の輝度情報を用いることで、上述のような問題を解消し、メガネをかけているような対象者も含め不特定多数の対象者に対して、瞳孔検出を可能とする方法を考えた。なお、この画像領域は、上述の対象領域に相当する。
次に、光源9からの光の反射の影響が表れにくい画像領域(対象領域)について、説明する。一般的に、光源(例えば光源9や太陽)から照射された光が物体に到達する際の光の強さは、光源から物体までの距離の二乗に反比例する。
図9は、光の減衰を示す図である。図9において、横軸は光源からの距離(cm)を表し、縦軸は、光源からの距離が50cmの地点での光の強さに対する各距離における光の強さの割合(%)である。
例えば、光源が視線検出システム100の光源9である場合に、対象者までの距離が50cmであって、その後方50cmに壁等の物体が存在するとする。すると、光源9から照射される近赤外光は、対象者の顔に到達した時点の強さに対して、壁の位置では、20%強まで減衰する。到達する光の強さが減衰しているので、反射する光の強さも同様に減衰する。
したがって、対象者の顔以外の背景領域を、対象領域とすることで、反射の影響が小さいと推測される領域から、環境の明るさを推測することができる。よって、対象領域の輝度情報と瞳孔の大きさ(半径)との関係が学習済みである場合に、対象者がメガネをかけているような場合でも、瞳孔を正確に検出することができる。
図10Aおよび図10Bは、対象領域を説明するための図である。図10Aは、対象者の顔が撮影された近赤外画像91を示す。図10Bは、近赤外画像92のなかで、検出された顔領域93、および矩形領域94、95、96を示す。
対象領域は、矩形領域94、95、96を合わせた顔領域93以外の全領域であってもよいし、矩形領域94など一部の領域でもよい。なお、矩形領域94は、顔領域93よりも右側の矩形領域であり、矩形領域95は、顔領域93よりも左側の矩形領域である、矩形領域96は顔領域93よりも下側の矩形領域である。
対象領域としては、より光源9から照射された光の影響を受けにくい領域の割合が大きい方が、瞳孔検出の精度が上がる。よって、顔同様、カメラ8からの距離が近い、胴体部分を含む可能性が高い矩形領域96は、対象領域から除外してもよい。
次に、本実施例に係る視線検出処理の流れを説明する。図11は、視線検出処理のフローチャートである。
まず、画像取得部2は、カメラ8が撮影した近赤外画像の画像情報を取得する(Op.1)。そして、瞳孔検出部3は、瞳孔検出処理を実行する事で、瞳孔を検出する(Op.2)。なお、瞳孔検出処理のフローチャートは、図12に示す。
そして、反射検出部4は、近赤外画像から角膜反射を検出する(Op.3)。なお、瞳孔検出処理と反射検出処理の順序は逆であってもいいし、並行して実行されてもよい。次に、視線検出部5は、瞳孔検出処理により検出された瞳孔の位置と、反射検出処理により検出された角膜反射の位置とに基づき、対象者の視線を検出する(Op.4)。そして、出力部6は、検出した視線に関する情報を、他の装置に出力する(Op.5)。
次に、瞳孔検出処理について説明する。図12は、瞳孔検出処理のフローチャートである。まず、顔検出部11は、近赤外画像から、対象者の顔領域を検出する(Op.11)。次に、瞳孔候補検出部12は、近赤外画像から目領域を検出する(Op.12)。瞳孔候補検出部12は、テンプレート記憶部16からテンプレート情報を取得し、テンプレートマッチングにより、瞳孔候補を検出する(Op.13)。
そして、瞳孔候補検出部12は、検出された瞳孔候補について、瞳孔候補情報を生成するとともに、瞳孔候補記憶部17に記憶する(Op.14)。つまり、複数の瞳孔候補に対して、各々IDが付与されるとともに、各瞳孔候補の位置を示すX座標およびY座標、大きさ(半径)、輪郭尤度が算出される。そして、各々の瞳孔候補ついて、ID、X座標、Y座標、大きさ(半径)および輪郭尤度を含む瞳孔候補情報が、瞳孔候補記憶部17に記憶される。
次に、推定部13は、近赤外画像に対して対象領域を設定する(Op.15)。例えば、顔領域以外の領域を対象領域として設定してもよいし、さらに、顔領域以外の領域の一部領域を対象領域として設定してもよい。ただし、学習情報を生成する際の対象領域の設定方法、瞳孔検出を行う際の対象領域の設定方法は同一であることが好ましい。
そして、推定部13は、対象領域の輝度情報を用いて、代表輝度情報を生成する(Op.16)。例えば、推定部13は、対象領域内の各画素の輝度値の平均値を、代表輝度情報として算出する。
次に、推定部13は、学習情報記憶部18に記憶された学習情報および代表輝度情報に基づき、瞳孔の大きさを推定する(Op.17)。例えば、推定部13は、学習情報が関数である場合に、代表輝度情報を当該関数に入力し、その出力を瞳孔の大きさとして取得する。
次に、特定部14は、瞳孔候補各々について、先に述べた方法により、瞳孔である確からしさを示す瞳孔尤度を算出する(Op.18)。具体的には、特定部14は、瞳孔候補の大きさと推定された瞳孔の大きさのとの間の大きさ尤度を算出するとともに、大きさ尤度および輪郭尤度とに基づき瞳孔尤度を算出する。
そして、特定部14が各瞳孔候補の瞳孔尤度を算出した後、特定部14は、瞳孔尤度が最大の瞳孔候補を特定する(Op.19)。さらに、特定部14は、特定した瞳孔候補の瞳孔尤度が、予め設定された閾値以上であるか否かを判定する(Op.20)。
そして、瞳孔尤度が閾値以上である場合(Op.20YES)、特定部14は、Op.19で特定した瞳孔候補を、瞳孔として決定するとともに、当該瞳孔の位置を示す情報を含む瞳孔検出結果(成功)を、出力する(Op.21)。出力先は、例えば、視線検出部5である。
一方、瞳孔尤度が閾値未満である場合(Op.20NO)、特定部14は、瞳孔検出が失敗であった旨を判定するとともに、瞳孔検出が失敗した旨の情報を含む瞳孔検出結果(失敗)を出力する(Op.22)。出力先は、例えば、視線検出部5である。
図13Aおよび図13Bは、瞳孔検出結果を説明するための図である。図13Aは、目領域121に対して瞳孔候補検出を行った時点のイメージ図である。つまり、複数の瞳孔候補122a乃至122gが、瞳孔候補として検出されている。
図13Bは、本実施例に係る瞳孔検出処理の処理結果(成功)のイメージ図である。つまり、目領域123の中で、一つの瞳孔候補122bが瞳孔124として検出されている。このように、瞳孔候補検出時点では、テンプレートマッチングの結果、複数の瞳孔候補が検出されるが、対象領域の輝度情報に応じた瞳孔尤度で評価することにより、もっとも確からしい瞳孔候補を瞳孔として検出することができる。
以上の通り、一連の瞳孔検出処理により、近赤外光の反射による影響を受けにくい対象領域の輝度情報から瞳孔の大きさを推定する事で、対象者がメガネをかけている場合でも、瞳孔検出の精度を維持することができる。したがって、当該瞳孔検出処理の結果を用いた視線検出処理の精度も維持される。
実施例2は、対象領域の輝度情報と目領域の輝度情報とのいずれを用いることが良いかを判定する事で、以下のような場合でも瞳孔の大きさを正しく推定することを目的とする。
図14は、実施例2を説明するための図である。図14の近赤外画像131には、対象領域132、目領域133が設定されている。ここで、図14の対象者は、通常のメガネではなく、サングラスを着用しているものとする。サングラスを着用する事で可視光の一部が遮断されるため、明るい環境でも、瞳孔は小さくなる。つまり、瞳孔の大きさを推定する際に、目領域の133の輝度情報を利用した方が、対象領域132の輝度情報を利用する場合よりも、瞳孔の大きさの推定精度が高くなることが予測される。
そこで、実施例2においては、対象領域の輝度情報と目領域の輝度情報とを比較する事で、対象領域の輝度情報を用いて瞳孔の大きさを推定するべきか(サングラスをかけていない場合)、目領域の輝度情報を用いて瞳孔の大きさを推定するべきか(サングラスをかけている場合)判断する。なお、実施例2が効果的なシーンとして、サングラスをかけている場合以外にも、目領域が陰になっている場合等もある。
実施例2に係る視線検出システム100および視線検出装置1は、実施例1と同様の機能構成を有する。ただし、実施例1に係る瞳孔検出部3(瞳孔検出装置)の処理の一部が異なる。図15は、実施例2に係る瞳孔検出部の機能構成例である。
瞳孔検出部3’は、顔検出部11、瞳孔候補検出部12、推定部13’、特定部14、学習部15’、テンプレート記憶部16、瞳孔候補記憶部17、学習情報記憶部18’を有する。なお、図15は、瞳孔検出装置の機能構成例でもある。
実施例1と同様の処理を行う処理部には、同一の符号を付して、説明を省略する。なお、瞳孔検出部3’に対応する瞳孔検出装置、または、瞳孔検出部3’を含む視線検出装置のハードウェア構成は、実施例1と同様である。
推定部13’は、対象領域の代表輝度情報と、目領域の代表輝度情報とを比較して、比較結果に基づき、瞳孔の大きさを推定する。例えば、目領域の代表輝度情報が対象領域の代表輝度情報よりも大きい場合、推定部13’は、対象領域の代表輝度情報と学習情報(後述の第一の学習情報)とを用いて、瞳孔の大きさを推定する。
一方、目領域の代表輝度情報が対象領域の代表輝度情報以下である場合、推定部13’は、目領域の代表輝度情報と学習情報(後述の第二の学習情報)とを用いて、瞳孔の大きさを推定する。
学習部15’は、サングラスをかけていない対象者等、目にあたる光が遮断されていない状態で撮影された学習用画像から第一の学習情報を生成するとともに、サングラスをかけた対象者等、目にあたる光が遮断された状態で撮影された学習用画像から第二の学習情報を生成する。なお、各々の学習用画像から、各々の学習情報が生成される処理は実施例1と同様である。
そして、学習情報記憶部18’は、第一の学習情報と第二の学習情報とを、それぞれ記憶する。なお、第一の学習情報および第二の学習情報は、実施例1と同様に、輝度情報と瞳孔の大きさとの関係を表す情報であって、例えば関数情報である。
次に、実施例2に係る視線検出処理の流れは、実施例1(図11)と同様である。ただし、Op.2に係る瞳孔検出処理の流れが、実施例1とは異なる。図16は、実施例2に係る瞳孔検出処理のフローチャートである。なお、実施例1に係る瞳孔検出処理と同様の処理については、同一の符号を付し、説明を簡略化する。
まず、顔検出部11は、近赤外画像から、対象者の顔領域を検出する(Op.11)。次に、瞳孔候補検出部12は、近赤外画像から目領域を検出する(Op.12)。次に、瞳孔候補検出部12は、テンプレート記憶部16からテンプレート情報を取得し、テンプレートマッチングにより、瞳孔候補を検出する(Op.13)。そして、瞳孔候補検出部12は、検出された瞳孔候補について、瞳孔候補情報を生成するとともに、瞳孔候補記憶部17に記憶する(Op.14)。
次に、推定部13’は、近赤外画像に対して対象領域を設定する(Op.15)。そして、推定部13’は、対象領域の輝度情報を用いて、代表輝度情報を生成する(Op.16)。例えば、推定部13’は、対象領域内の各画素の輝度値の平均値を、代表輝度情報として算出する。
次に、推定部13’は、Op.12にて検出された目領域に含まれる複数の画素の輝度情報に基づき、目領域の代表輝度情報を生成する(Op.101)。目領域の代表輝度情報は、対象領域の代表輝度情報と同様に、対象領域内の各画素の輝度値の平均値や、中央値である。
そして、推定部13’は、目領域の代表輝度情報と対象領域の代表輝度情報とを比較する(Op.102)。目領域の代表輝度情報が対象領域の代表輝度情報よりも大きい場合(Op.102YES)、推定部13’は、学習情報記憶部18’に記憶された第一の学習情報および、対象領域の代表輝度情報に基づき、瞳孔の大きさを推定する(Op.103)。つまり、実施例1と同様、対象領域の輝度情報(周囲の明るさ)に応じて、瞳孔の大きさを推定する。
一方、目領域の代表輝度情報が対象領域の代表輝度情報以下であった場合(Op.102NO)、推定部13’は、学習情報記憶部18’に記憶された第二の学習情報および、目領域の代表輝度情報に基づき、瞳孔の大きさを推定する(Op.104)。つまり、目領域の輝度情報(目にあたっている明るさ)に応じて、瞳孔の大きさを推定する。
次に、特定部14は、瞳孔候補各々について、瞳孔である確からしさを示す瞳孔尤度を算出する(Op.18)。そして、特定部14が各瞳孔候補の瞳孔尤度を算出した後、特定部14は、瞳孔尤度が最大の瞳孔候補を特定する(Op.19)。さらに、特定部14は、特定した瞳孔候補の瞳孔尤度が、予め設定された閾値以上であるか否かを判定する(Op.20)。
そして、瞳孔尤度が閾値以上である場合(Op.20YES)、特定部14は、Op.19で特定した瞳孔候補を、瞳孔として決定するとともに、当該瞳孔の位置を示す情報を含む瞳孔検出結果(成功)を、出力する(Op.21)。一方、瞳孔尤度が閾値未満である場合(Op.20NO)、特定部14は、瞳孔検出が失敗であった旨を判定するとともに、瞳孔検出が失敗した旨の情報を含む瞳孔検出結果(失敗)を出力する(Op.22)。
以上のように、対象者の目にあたる光が極端にさえぎられているような場合には、対象領域の輝度情報よりも目領域の輝度情報を利用した方が、瞳孔検出の精度を高められることが予測される。そこで、実施例2に係る瞳孔検出処理は、目領域の輝度情報と対象領域の輝度情報との比較結果に応じて、参照する輝度情報(代表輝度情報)と、参照する学習情報とを決定することができる。
変型例1
瞳孔検出部3または瞳孔検出部3’は、目領域の大きさや画像における目領域の位置ごとに、複数の学習情報を記憶してもよい。そして、瞳孔検出部3または瞳孔検出部3’は、目領域の大きさや目領域の位置に応じて、カメラ8と対象者との位置関係を推定し、当該位置関係に応じて、瞳孔検出に利用する学習情報を切り替えて、瞳孔の大きさを推定する。
100 視線検出システム
1 視線検出装置
2 画像取得部
3、3’ 瞳孔検出部
4 反射検出部
5 視線検出部
6 出力部
7 記憶部
8 カメラ
9 光源
11 顔検出部
12 瞳孔候補検出部
13、13’ 推定部
14 特定部
15、15’ 学習部
16 テンプレート記憶部
17 瞳孔候補記憶部
18、18’ 学習情報記憶部
1000 コンピュータ
1001 CPU
1002 ROM
1003 RAM
1004 通信装置
1005 HDD
1006 入力装置
1007 表示装置
1008 媒体読取装置

Claims (12)

  1. コンピュータが、
    画像における顔画像領域から、特定の形状情報に基づき、複数の瞳孔候補を検出し、
    前記顔画像領域を含まない他の画像領域に係る輝度情報、および該輝度情報と瞳孔の大きさとの関係を示す学習情報に基づき、前記複数の瞳孔候補から、少なくとも一つの瞳孔候補を、瞳孔検出結果として出力する処理において、
    前記画像から特定された目領域に係る他の輝度情報と、前記他の画像領域に係る前記輝度情報とを比較し、
    比較結果に応じて、前記学習情報に基づき、前記複数の瞳孔候補から、前記少なくとも一つの瞳孔候補を特定する
    処理を実行ることを特徴とする瞳孔検出プログラム。
  2. 前記コンピュータに、
    前記画像とは異なる複数の学習用画像の各々における前記他の顔画像領域の各々から、学習に利用する瞳孔を検出し、
    前記他の顔画像領域を含まない領域に係る輝度情報と、前記学習に利用する瞳孔の大きさとに基づき、前記学習情報を生成する
    処理を実行させることを特徴とする請求項1に記載の瞳孔検出プログラム。
  3. 前記複数の学習用画像は、前記画像と同様の撮影環境で撮影された画像であることを特徴とする請求項2に記載の瞳孔検出プログラム。
  4. 前記画像を撮影する撮影装置は近赤外光に対して感度を有し、
    前記画像は近赤外画像である
    ことを特徴とする請求項1乃至請求項3のいずれかに記載の瞳孔検出プログラム。
  5. 前記コンピュータに、
    前記他の画像領域に係る前記輝度情報に対応する前記瞳孔の大きさを、前記学習情報を用いて特定し、
    前記瞳孔の大きさと、前記複数の瞳孔候補各々の大きさとの差分を求め、
    前記差分に基づき、前記複数の瞳孔候補から、前記少なくとも一つの瞳孔候補を特定する処理を実行させることを特徴とする請求項1乃至請求項4のいずれかに記載の瞳孔検出プログラム。
  6. 前記コンピュータに、
    前記特定の形状情報と前記複数の瞳孔候補の輪郭とに基づき、尤度を算出し、
    前記差分と、前記尤度とに基づき、前記複数の瞳孔候補から、前記少なくとも一つの瞳孔候補を特定する
    処理を実行させることを特徴とする請求項5に記載の瞳孔検出プログラム。
  7. 前記コンピュータに、
    前記比較結果が、前記他の輝度情報が前記輝度情報よりも明るいことを示す場合、前記学習情報に基づき、前記複数の瞳孔候補から、前記少なくとも一つの瞳孔候補を特定する処理を実行させることを特徴とする請求項に記載の瞳孔検出プログラム。
  8. 前記コンピュータに、
    前記比較結果が、前記他の輝度情報が前記輝度情報よりも暗いことを示す場合、前記他の輝度情報と瞳孔の大きさとの関係を示す他の学習情報に基づき、前記複数の瞳孔候補から、前記少なくとも一つの瞳孔候補を特定する
    処理を実行させることを特徴とする請求項に記載の瞳孔検出プログラム。
  9. 前記瞳孔検出結果は、前記画像に写る対象者の視線を検出する視線検出装置に出力されることを特徴とする請求項1乃至請求項9のいずれかに記載の瞳孔検出プログラム。
  10. コンピュータが、
    画像における顔画像領域から、特定の形状情報に基づき、複数の瞳孔候補を検出し、
    前記顔画像領域を含まない他の画像領域に係る輝度情報、および該輝度情報と瞳孔の大きさとの関係を示す学習情報に基づき、前記複数の瞳孔候補から、少なくとも一つの瞳孔候補を、瞳孔検出結果として出力する処理において、
    前記画像から、目領域を特定し、
    前記目領域に係る他の輝度情報と、前記他の画像領域に係る前記輝度情報とを比較し、
    比較結果に基づき、前記学習情報に基づき、前記複数の瞳孔候補から、前記少なくとも一つの瞳孔候補を特定する
    処理を実行することを特徴とする瞳孔検出方法。
  11. 画像における顔画像領域から、特定の形状情報に基づき、複数の瞳孔候補を検出する瞳孔候補検出部と、
    前記顔画像領域を含まない他の画像領域に係る輝度情報、および該輝度情報と瞳孔の大きさとの関係を示す学習情報に基づき、前記複数の瞳孔候補から、少なくとも一つの瞳孔候補を、瞳孔検出結果として出力する出力部と
    を有し、
    前記画像から特定された目領域に係る他の輝度情報と、前記他の画像領域に係る前記輝度情報とを比較し、
    比較結果に応じて、前記学習情報に基づき、前記複数の瞳孔候補から、前記少なくとも一つの瞳孔候補を特定することを特徴とする瞳孔検出装置。
  12. 撮影装置と、
    前記撮影装置の撮影範囲に、所定の波長の光を照射する光源と、
    前記撮影装置により撮影された画像における顔画像領域から、特定の形状情報に基づき、複数の瞳孔候補を検出する瞳孔候補検出部と、
    前記顔画像領域を含まない他の画像領域に係る輝度情報、および該輝度情報と瞳孔の大きさとの関係を示す学習情報に基づき、前記複数の瞳孔候補から、少なくとも一つの瞳孔候補を、瞳孔検出結果として出力する出力部と、
    前記瞳孔検出結果と、前記画像から検出された前記光の反射像とに基づき、前記画像に映る人物の視線の方向を特定する視線検出部と
    を有し、
    前記画像から特定された目領域に係る他の輝度情報と、前記他の画像領域に係る前記輝度情報とを比較し、比較結果に応じて、前記学習情報に基づき、前記複数の瞳孔候補から、前記少なくとも一つの瞳孔候補を特定することを特徴とする視線検出システム。
JP2015126081A 2015-06-23 2015-06-23 瞳孔検出プログラム、瞳孔検出方法、瞳孔検出装置および視線検出システム Expired - Fee Related JP6582604B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015126081A JP6582604B2 (ja) 2015-06-23 2015-06-23 瞳孔検出プログラム、瞳孔検出方法、瞳孔検出装置および視線検出システム
EP16167332.2A EP3109795B1 (en) 2015-06-23 2016-04-27 Detection method and system
US15/141,000 US10147022B2 (en) 2015-06-23 2016-04-28 Detection method and system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015126081A JP6582604B2 (ja) 2015-06-23 2015-06-23 瞳孔検出プログラム、瞳孔検出方法、瞳孔検出装置および視線検出システム

Publications (2)

Publication Number Publication Date
JP2017010337A JP2017010337A (ja) 2017-01-12
JP6582604B2 true JP6582604B2 (ja) 2019-10-02

Family

ID=56008474

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015126081A Expired - Fee Related JP6582604B2 (ja) 2015-06-23 2015-06-23 瞳孔検出プログラム、瞳孔検出方法、瞳孔検出装置および視線検出システム

Country Status (3)

Country Link
US (1) US10147022B2 (ja)
EP (1) EP3109795B1 (ja)
JP (1) JP6582604B2 (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9965030B2 (en) * 2014-07-31 2018-05-08 Samsung Electronics Co., Ltd. Wearable glasses and method of displaying image via the wearable glasses
JP6582604B2 (ja) * 2015-06-23 2019-10-02 富士通株式会社 瞳孔検出プログラム、瞳孔検出方法、瞳孔検出装置および視線検出システム
CN112578911A (zh) * 2016-12-06 2021-03-30 美国景书公司 跟踪头部和眼睛的运动的装置和方法
KR20180084397A (ko) * 2017-01-17 2018-07-25 삼성전자주식회사 홍채를 인식하기 위한 전자 장치 및 그의 동작 방법
EP3354190B1 (de) * 2017-01-27 2018-12-05 Carl Zeiss Vision International GmbH Computerimplementiertes verfahren zur detektion eines hornhautscheitels
JP6930223B2 (ja) 2017-05-31 2021-09-01 富士通株式会社 瞳孔検出用コンピュータプログラム、瞳孔検出装置及び瞳孔検出方法
WO2019043896A1 (ja) 2017-08-31 2019-03-07 富士通株式会社 検知プログラム、検知方法、および検知システム
CN108198130B (zh) * 2017-12-28 2021-09-28 Oppo广东移动通信有限公司 图像处理方法、装置、存储介质及电子设备
JP2020009064A (ja) * 2018-07-05 2020-01-16 フォーブ インコーポレーテッド データ生成装置、映像システム、及びデータ生成方法
US11036043B2 (en) * 2019-01-17 2021-06-15 Advanced New Technologies Co., Ltd. Identity authentication using lens features
CN111626087A (zh) * 2019-02-28 2020-09-04 北京市商汤科技开发有限公司 神经网络训练及眼睛睁闭状态检测方法、装置及设备
CN113645894A (zh) * 2019-07-26 2021-11-12 谷歌有限责任公司 用于自动瞳孔检测的方法和***
JP7348005B2 (ja) * 2019-09-10 2023-09-20 矢崎総業株式会社 画像処理装置、画像処理方法および画像処理プログラム
WO2021171396A1 (ja) * 2020-02-26 2021-09-02 三菱電機株式会社 瞳孔位置検出装置、視線検出装置、及び瞳孔位置検出方法
WO2021171395A1 (ja) * 2020-02-26 2021-09-02 三菱電機株式会社 瞳孔位置検出装置、視線検出装置、及び瞳孔位置検出方法
WO2022248612A1 (en) * 2021-05-28 2022-12-01 Essilor International A photography and thermography combining method of obtaining a fitting parameter to fit an ophthalmic lens into a spectacle frame
JP2023076025A (ja) * 2021-11-22 2023-06-01 キヤノン株式会社 眼科装置、眼科装置の制御方法、及びプログラム

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01158579A (ja) * 1987-09-09 1989-06-21 Aisin Seiki Co Ltd 像認識装置
JP2950546B2 (ja) * 1988-08-31 1999-09-20 キヤノン株式会社 視線検出装置及び視線検出装置を有するカメラ
JPH08286240A (ja) * 1995-04-17 1996-11-01 Canon Inc 撮影装置
JP4469476B2 (ja) * 2000-08-09 2010-05-26 パナソニック株式会社 眼位置検出方法および眼位置検出装置
WO2002062208A1 (en) * 2001-02-08 2002-08-15 Topcon Corporation Contrast chart apparatus, contrast sensitivity measuring apparatus, and contrast sensitivity measuring method
SE524003C2 (sv) * 2002-11-21 2004-06-15 Tobii Technology Ab Förfarande och anläggning för att detektera och följa ett öga samt dess blickvinkel
US7280678B2 (en) * 2003-02-28 2007-10-09 Avago Technologies General Ip Pte Ltd Apparatus and method for detecting pupils
US7533989B2 (en) * 2003-12-25 2009-05-19 National University Corporation Shizuoka University Sight-line detection method and device, and three-dimensional view-point measurement device
US7387387B2 (en) * 2004-06-17 2008-06-17 Amo Manufacturing Usa, Llc Correction of presbyopia using adaptive optics and associated methods
JP5145555B2 (ja) * 2007-03-30 2013-02-20 国立大学法人静岡大学 瞳孔検出方法
JP2010535067A (ja) * 2007-08-02 2010-11-18 オキュラー・オプティクス・インコーポレイテッド 多重焦点眼内レンズシステムおよび方法
CN102725765B (zh) * 2010-01-22 2015-06-10 虹膜技术公司 使用虹膜尺寸不同的多个虹膜影像的虹膜识别装置和方法
CN102439627B (zh) 2010-02-26 2014-10-08 松下电器(美国)知识产权公司 瞳孔检测装置和瞳孔检测方法
US20130057573A1 (en) * 2011-09-02 2013-03-07 DigitalOptics Corporation Europe Limited Smart Display with Dynamic Face-Based User Preference Settings
WO2013046100A1 (en) * 2011-09-28 2013-04-04 Koninklijke Philips Electronics N.V. Object distance determination from image
DE102011120974A1 (de) * 2011-12-13 2013-06-13 Rodenstock Gmbh Helligkeitsabhängige Anpassung eines Brillenglases
ES2612709T3 (es) * 2011-12-13 2017-05-18 Rodenstock Gmbh Refracción objetiva universal
JP2013215549A (ja) * 2012-03-16 2013-10-24 Fujitsu Ltd 画像処理装置、画像処理プログラムおよび画像処理方法
JP6083761B2 (ja) * 2012-05-25 2017-02-22 国立大学法人静岡大学 瞳孔検出方法、角膜反射検出方法、顔姿勢検出方法及び瞳孔追尾方法
EP3031207A1 (en) * 2013-08-05 2016-06-15 Realvision S.r.l. Device and method for format conversion of files for three-dimensional vision
US10258230B2 (en) * 2013-10-30 2019-04-16 Tel Hashomer Medical Research Infrastructure And Services, Ltd. Pupillometers and systems and methods for using a pupillometer
EP3103112B1 (en) * 2014-02-05 2018-07-04 Sony Corporation System and method for setting display brightness of display of electronic device
JP6417676B2 (ja) * 2014-03-06 2018-11-07 ソニー株式会社 情報処理装置、情報処理方法、アイウェア端末および認証システム
US9843713B2 (en) * 2014-04-02 2017-12-12 Nebulys Technologies, Inc. Systems and methods for video communication
JP6572537B2 (ja) * 2014-12-15 2019-09-11 富士通コネクテッドテクノロジーズ株式会社 認証装置、方法及びプログラム
IN2015CH01313A (ja) * 2015-03-17 2015-04-10 Wipro Ltd
EP3284016B1 (en) * 2015-04-16 2023-11-22 Tobii AB Authentication of a user of a device
JP6582604B2 (ja) * 2015-06-23 2019-10-02 富士通株式会社 瞳孔検出プログラム、瞳孔検出方法、瞳孔検出装置および視線検出システム

Also Published As

Publication number Publication date
JP2017010337A (ja) 2017-01-12
EP3109795B1 (en) 2019-07-31
US10147022B2 (en) 2018-12-04
EP3109795A1 (en) 2016-12-28
US20160379093A1 (en) 2016-12-29

Similar Documents

Publication Publication Date Title
JP6582604B2 (ja) 瞳孔検出プログラム、瞳孔検出方法、瞳孔検出装置および視線検出システム
WO2017013913A1 (ja) 視線検出装置、アイウェア端末、視線検出方法及びプログラム
US9405364B2 (en) Method of determining reflections of light
JP6544244B2 (ja) 情報処理装置、情報処理方法及びプログラム
CN108985210A (zh) 一种基于人眼几何特征的视线追踪方法及***
JP5776323B2 (ja) 角膜反射判定プログラム、角膜反射判定装置および角膜反射判定方法
US10152633B2 (en) Line-of-sight detection device and line-of-sight detection method
US10254831B2 (en) System and method for detecting a gaze of a viewer
JPWO2015190204A1 (ja) 瞳孔検出システム、視線検出システム、瞳孔検出方法、および瞳孔検出プログラム
US20170116736A1 (en) Line of sight detection system and method
US11308321B2 (en) Method and system for 3D cornea position estimation
US20170243061A1 (en) Detection system and detection method
EP3671541B1 (en) Classification of glints using an eye tracking system
JP6244960B2 (ja) 物体認識装置、物体認識方法及び物体認識プログラム
KR20120049605A (ko) 동공 중심 검출 장치 및 방법
EP3244346A1 (en) Determining device and determination method
US11156831B2 (en) Eye-tracking system and method for pupil detection, associated systems and computer programs
Kim et al. Eye detection for gaze tracker with near infrared illuminator
KR20160042562A (ko) 홍채 인식 장치 방법
WO2024095362A1 (ja) 情報処理システム、情報処理装置、情報処理方法、および記録媒体
KR102466084B1 (ko) 영상 기반의 동공 검출 방법
Mentasti et al. Event-based eye tracking for smart eyewear

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20160401

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180306

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20180528

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190315

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190326

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190524

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190806

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190819

R150 Certificate of patent or registration of utility model

Ref document number: 6582604

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees