JP4895847B2 - 瞼検出装置及びプログラム - Google Patents

瞼検出装置及びプログラム Download PDF

Info

Publication number
JP4895847B2
JP4895847B2 JP2007028822A JP2007028822A JP4895847B2 JP 4895847 B2 JP4895847 B2 JP 4895847B2 JP 2007028822 A JP2007028822 A JP 2007028822A JP 2007028822 A JP2007028822 A JP 2007028822A JP 4895847 B2 JP4895847 B2 JP 4895847B2
Authority
JP
Japan
Prior art keywords
face
image
edge
area
eyelid
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007028822A
Other languages
English (en)
Other versions
JP2008192100A (ja
Inventor
淳 足立
敬彦 吉永
智晴 鈴木
崇 平槇
謙一 小川
健一 大上
健太郎 高橋
重康 魚住
真一 小島
悟 中西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Toyota Central R&D Labs Inc
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Toyota Motor Corp
Toyota Central R&D Labs Inc
Aisin Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd, Toyota Motor Corp, Toyota Central R&D Labs Inc, Aisin Corp filed Critical Aisin Seiki Co Ltd
Priority to JP2007028822A priority Critical patent/JP4895847B2/ja
Priority to CNA200810005812XA priority patent/CN101241548A/zh
Priority to EP20130150818 priority patent/EP2583621A3/en
Priority to US12/026,959 priority patent/US8351658B2/en
Priority to EP20080151104 priority patent/EP1955647B1/en
Publication of JP2008192100A publication Critical patent/JP2008192100A/ja
Application granted granted Critical
Publication of JP4895847B2 publication Critical patent/JP4895847B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Ophthalmology & Optometry (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Geometry (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、瞼検出装置及びプログラムに関する。
人の顔を含む画像から、人の顔や目の位置を検出する技術が知られている。例えば、特許文献1には、入力画像を小領域に分割し、各小領域の輝度特徴から目の候補領域と目の間の候補領域とを検出し、目の候補領域と目の間の候補領域の位置関係から目の間の領域を決定し、目の間の領域を含むように目や顔の領域を決定する顔検出装置が開示されている。
しかし、特許文献1の顔検出装置は、広い領域から目の間という局所領域を検出するため処理負担が大きい。また、上下左右隣り合う小領域での濃度ヒストグラムやエッジ情報から眼鏡の有無を判定しているため、眼鏡のフレームデザインの影響を受けることも考えられる。そのような条件で検出された目の間の領域にもとづいて、左右の目の位置を検出しているため、検出結果が不安定になりかねない。
また、車両等の移動体を運転しているドライバーの眼の開閉状態を検出する開閉状態検出装置が、例えば、特許文献2に開示されている。特許文献2に開示されている開閉検出装置は、対象者の顔を撮像し、得られた顔画像中の上瞼(の画像)を検出する。次に、検出した上瞼を多次曲線で近似し、近似した多次曲線の曲率を算出し、算出した曲率を上瞼の曲率とし、曲率の大小に基づいて、眼の開閉を判定する。
上記の開閉検出技術では、顔画像中の上瞼検出する際に、外乱光の写り込みの影響や眼鏡により上瞼を誤検出する可能性があった。また、上瞼を検出するたびに多次曲線で近似し、近似した多次曲線の曲率を算出する必要があるので膨大な演算処理が必要であった。
特開2001−216515号公報 特開2004−220080号公報
本発明は、上記問題点を鑑みてなされたものであり、高速に精度良く瞼(目)の位置を判別する瞼検出装置を提供することを目的とする。
また、本発明は、瞼を正確に検出できる瞼検出装置を提供することを他の目的とする。さらに、本発明は、少ない演算で瞼を検出できる瞼検出装置を提供することを他の目的とする。
上記目的を達成するために、本発明の第1の観点に係る瞼検出装置は、
異なったタイミングで取得した対象者の顔の複数の画像を記憶する顔画像記憶手段と、
前記顔画像記憶手段に記憶されている複数の画像を処理し、瞬きに起因する画像の変化を検出する変化検出手段と、
前記変化検出手段が検出した変化に基づき、対象者の瞼の位置を検出する瞼検出手段と、
前記顔画像記憶手段に記憶されている画像を処理し、画像の領域の境界に相当するエッジラインを抽出するエッジライン抽出手段と、
前記エッジライン抽出手段が抽出したエッジラインのうちから、上瞼に対応するエッジラインと下瞼に対応するエッジラインとの組み合わせの候補となるエッジラインの対を抽出する瞼候補抽出手段と、を備え、
前記瞼検出手段は、前記瞼候補抽出手段が抽出したエッジラインのうち、対を構成する上瞼候補のエッジラインの代表点が所定の方向に移動する対を、前記対象者の上瞼と下瞼に対応するエッジラインの対であると判別する瞼判別手段をさらに備える、
ことを特徴とする。
例えば、前記顔画像記憶手段に記憶されている画像に含まれる前記対象者の顔の輪郭の中心線を検出する中心線検出手段をさらに備え、
前記瞼候補抽出手段は、前記エッジライン抽出手段が抽出したエッジラインの対のうちで、前記中心線検出手段が検出した中心線を軸として線対称であるエッジラインの対が存在するエッジラインの対の内から、前記対象者の上瞼に対応するエッジラインと下瞼に対応するエッジラインとの組み合わせの候補となるエッジラインの対を抽出する、
ことを特徴としてもよい。
例えば、前記変化検出手段は、
前記瞼候補抽出手段が抽出した複数対のエッジラインについて、上瞼に対応するエッジラインの代表点と下瞼に対応するエッジラインの代表点との距離が変化する態様を示すパラメータを算出するパラメータ算出手段と、
前記パラメータ算出手段が算出したパラメータに基づいて前記エッジラインが前記対象者の瞼である確度を示す信頼度を算出する信頼度算出手段と、をさらに備え、
前記瞼判別手段は、前記瞼候補抽出手段が抽出したエッジラインの対の内で、前記信頼度算出手段が算出した信頼度が所定の値を満たしているものを検出し、前記対象者の瞼と判別する、
ことを特徴としてもよい。
例えば、前記パラメータは、前記距離の変化の、振幅及び/又は周期である、
ことを特徴としてもよい。
例えば、顔画像記憶手段に記憶されている画像に含まれる前記対象者の顔の輪郭の中心線を検出する中心線検出手段を備え、
前記変化検出手段は、
前記瞼候補抽出手段が抽出した上瞼に対応するエッジラインの代表点と、下瞼に対応するエッジラインの代表点との距離が変化する態様を示すパラメータを算出するパラメータ算出手段と、
前記パラメータ算出手段が算出したパラメータに基づいて、エッジラインの対が前記対象者の上瞼と下瞼に対応するエッジラインの対である確度を示す信頼度を算出する信頼度算出手段と、を備え、
前記瞼判別手段は、前記エッジライン抽出手段が抽出したエッジラインの対の内で、前記中心線検出手段が検出した中心線を軸として線対称である対が存在する対のうちから、前記信頼度算出手段が算出した信頼度が所定の値を満たしているものを検出し、前記対象者の上瞼と下瞼のエッジラインの対であると判別する、
ことを特徴としてもよい。
顔画像の濃度(階調)やサイズ(縦横)、色、等を正規化してから処理を行っても良い。
本発明の第2の観点に係る瞼検出装置は、
異なったタイミングで取得した対象者の顔の複数の画像を記憶する顔画像記憶手段と、
前記顔画像記憶手段に記憶されている複数の画像を処理し、瞬きに起因する画像の変化を検出する変化検出手段と、
前記変化検出手段が検出した変化に基づき、対象者の瞼の位置を検出する瞼検出手段と、を備え、
記変化検出手段は、
前記顔画像記憶手段に記憶されている複数の画像から、顔の領域を検出する顔領域検出手段と、
前記顔領域検出手段が検出した顔の領域を所定の大きさに正規化し、顔領域画像を生成する正規化手段と、
前記正規化手段が生成した顔領域画像を、複数記憶する正規化画像記憶手段と、
前記正規化画像記憶手段に記憶された、最新の顔領域画像とその他の複数の顔領域画像との差分をとり、複数の差分画像を生成する差分画像生成手段と、
前記差分画像生成手段が生成した複数の差分画像から、所定のしきい値以上の濃度値をもつ領域を動領域として検出する動領域検出手段と、をさらに備え、
前記瞼検出手段は、
前記複数の差分画像から、前記動領域検出手段が検出した動領域の面積が最大の一を選択する差分画像選択手段と、
前記差分画像選択手段が選択した差分画像の動領域から、目の領域を特定する目領域特定手段と、をさらに備え
前記正規化画像記憶手段は、人の閉眼に掛かる時間に基づいた時間、各顔領域画像を記憶する、
ことを特徴とする。
例えば、前記目領域特定手段は、動領域の左右対称性に基づき目の領域を特定するようにしてもよい。
本発明の第の観点に係る瞼検出装置は、
対象者の顔の画像を記憶する顔画像記憶手段と、
前記顔画像記憶手段が記憶している画像の所定の領域から画像の諧調に基づいてエッジラインを抽出するエッジライン抽出手段と、
前記エッジライン抽出手段が抽出したエッジラインのうちから、対象者の上瞼のエッジラインと下瞼のエッジラインとの組み合わせの候補となるエッジラインの対を抽出する瞼候補抽出手段と、
前記顔画像記憶手段に記憶されている画像に含まれる顔の輪郭の中心線を検出する中心線検出手段と、
前記瞼候補抽出手段が抽出したエッジラインの対の内から、前記中心線検出手段が検出した中心線を軸として線対称であるエッジラインが存在するものを検出し、そのうちから前記対象者の上瞼と下瞼に対応するエッジラインに相当するものを判別する瞼判別手段と、
を備えることを特徴とする。
本発明の第の観点に係るプログラムは、
コンピュータを、
異なったタイミングで取得した対象者の顔の複数の画像を記憶する顔画像記憶手段、
前記顔画像記憶手段に記憶されている画像を処理し、画像の領域の境界に相当するエッジラインを抽出するエッジライン抽出手段と、
前記エッジライン抽出手段が抽出したエッジラインのうちから、上瞼に対応するエッジラインと下瞼に対応するエッジラインとの組み合わせの候補となるエッジラインの対を抽出する瞼候補抽出手段、
前記瞼候補抽出手段が抽出したエッジラインのうち、対を構成する上瞼候補のエッジラインの代表点が所定の方向に移動する対を、前記対象者の上瞼と下瞼に対応するエッジラインの対であると判別する瞼判別手段、
として機能させることを特徴とする。
本発明の第の観点に係るプログラムは、
コンピュータを、
対象者の顔の画像を記憶する顔画像記憶手段、
前記顔画像記憶手段が記憶している画像の所定の領域から画像の諧調に基づいてエッジラインを抽出するエッジライン抽出手段、
前記エッジライン抽出手段が抽出したエッジラインのうちから、対象者の上瞼のエッジラインと下瞼のエッジラインとの組み合わせの候補となるエッジラインの対を抽出する瞼候補抽出手段、
顔画像記憶手段に記憶されている画像に含まれる顔の輪郭の中心線を検出する中心線検出手段、
前記瞼候補抽出手段が抽出したエッジラインの対の内から、前記中心線検出手段が検出した中心線を軸として線対称であるエッジラインが存在するものを検出し、そのうちから前記対象者の上瞼と下瞼に対応するエッジラインに相当するものを判別する瞼判別手段、
として機能させることを特徴とする。
本発明の第の観点に係るプログラムは、
コンピュータを、
対象者の顔を含む画像を記憶する画像記憶手段、
前記画像記憶手段に記憶されている複数の画像から、顔の領域を検出する顔領域検出手段、
前記顔領域検出手段が検出した顔の領域を所定の大きさに正規化し、顔領域画像を生成する正規化手段、
前記正規化手段が生成した顔領域画像を、複数記憶する顔画像記憶手段、
前記顔画像記憶手段に記憶された、最新の顔領域画像とその他の複数の顔領域画像との差分をとり、複数の差分画像を生成する差分画像生成手段、
前記差分画像生成手段が生成した複数の差分画像から、所定のしきい値以上の濃度値をもつ領域を動領域として検出する動領域検出手段、
前記複数の差分画像から、前記動領域検出手段が検出した動領域の面積が最大の一を選択する差分画像選択手段、
前記差分画像選択手段が選択した差分画像の動領域から、目の領域を特定する目領域特定手段、として機能させ
前記顔画像記憶手段は、人の閉眼に掛かる時間に基づいた時間、各顔領域画像を記憶する、
ことを特徴とする。
本発明によれば、少ない演算で正確に瞼を検出できる瞼検出装置及びプログラムを提供できる。
(第1の実施形態)
以下、本発明の第1の実施形態に係る瞼検出装置50について説明する。瞼検出装置50は、複数のドライバーの顔画像から瞬きに起因する変化を検出し、さらにその変化がある部分から瞼の位置を検出する。第1の実施形態に係る瞼検出装置50は、特に、画像の諧調に基づいてエッジラインを抽出することで瞼の候補を抽出し、その候補からエッジラインの代表点(この実施形態では重心)が所定の方向に移動する対を瞼であると判別する。
本実施形態の瞼検出装置50は、図1に示すように、ドライバーの顔を撮影して顔画像を生成するカメラ10と、ドライバーの顔を照明する照明光源12と、ドライバーの顔中心位置を検出するコンピュータ14と、コンピュータ14に接続された表示装置16と、から構成される。
カメラ10は、例えばCCDカメラ等から構成され、ドライバーの顔の階調画像を一定周期(例えば、1/30秒)で取得し、出力する。カメラ10から順次出力される顔画像は、ドライバーの顔(の画像)だけでなく、その背景(の画像)なども含む。
表示装置16は、LCD(Liquid Crystal Display)又はCRT(Cathode Ray Tube)などから構成され、カメラ10で撮影された顔画像から生成された二値化画像などを表示する。なお、表示装置16は必須の構成ではなく、なくてもよい。
コンピュータ14は、カメラ10により取得された顔動画像を処理してその瞼の位置を検出する装置である。コンピュータ14は、図2に示すように、A/D変換器21と、画像メモリ22と、ROM(Read Only Memory)23と、CPU(Central Processing Unit)24と、RAM(Random Access Memory)25と、表示制御装置26と、光源制御装置27と、設定メモリ28と、操作装置29と、から構成される。
A/D(アナログ/ディジタル)変換器21は、カメラ10で撮影されたアナログ画像信号をディジタル信号に変換する。
画像メモリ22は、カメラ10により生成され、A/D変換器21でディジタル化された画像データを格納する。
ROM23は、CPUの動作を制御するためのプログラムを記憶する。また、ROM23は、後述する画像処理を実行するための様々な固定データを記憶する。
CPU24は、コンピュータ14全体を制御する。また、CPU24は、ROM23に格納されているプログラムを実行することにより、カメラ10により取得された一連の顔画像を処理して瞼を検出する。
RAM25は、CPU24のワークエリアとして機能する。
表示制御装置26は、CPU24の制御のもと、映像データ等を表示装置16が出力可能なデータ形式に変換し、表示装置16に出力する。
光源制御装置27は、照明光源12の点灯・消灯を制御する。
設定メモリ28は、CPU24が顔動画像を処理して瞼を検出する処理の設定に関する情報(以下、設定情報)を格納する。
操作装置29は、ユーザから操作情報を受け付け、操作に応じた操作信号をCPU24に送出する。
次に、ROM23に格納される固定データの例を、図3を参照しながら説明する。まず、ROM23は、図3(a)に示すような、横エッジ検出用ソーベルフィルタのオペレータを格納する。横エッジ検出用ソーベルフィルタは、図3(b)に示すような横方向の濃淡差を強調するためのオペレータである。
設定メモリ28には、図3(c)に示すような、RAM25に格納される顔画像のうち、目や眉の画像が存在すると想定される領域を示す設定情報が予め格納されている。例えば、図3(c)では、眼や眉の画像が存在すると想定される領域が「y1≦y≦y2」の範囲に設定されている。以下、眼や眉の画像が存在すると想定される領域を設定領域と呼ぶ。
以下、上記構成を有する第1の実施形態に係る瞼検出装置50の動作を説明する。
まず、図4を参照して、瞼検出装置50が、顔画像中の瞼を検出する動作の概要を説明する。
カメラ10は、図3(c)に示すような対象者の顔画像を所定周期(例えば、1/30秒周期)で撮影して顔画像を出力する。出力された顔画像は画像メモリ22に順次格納される。
次に、CPU24は、画像メモリ22に格納されている顔画像を順次読み出し、以下の処理を行う。
まず、CPU24は、設定メモリ28に格納されている設定情報が示す設定領域を取得し、描く顔動画像のそれぞれの画像の設定領域において、図3(a)に示す横エッジ検出用ソーベルフィルタを用いて画像内の横のエッジラインを抽出する処理を行う。その結果、図4(a)に示すように、y軸方向に明るい画素から暗い画素に移るエッジラインがマイナスエッジとして表され、y軸方向に光度が暗い画素から明るい画素に移るエッジラインがプラスエッジとして現れる。なお、図面上は、マイナスエッジを破線で、プラスエッジを実線で表す。
次に、CPU24は、求めたマイナスエッジラインとプラスエッジラインとから、次の三つの数式を満たすマイナスエッジとプラスエッジの組み合わせを抽出する。
Lp−Lm<Lth・・・(1)
ただし、Lpはプラスエッジの長さを表す値であり、Lmはマイナスエッジの長さを表す値であり、Lthは閾値である。数式(1)を満たすマイナスエッジとプラスエッジとの長さは閾値Lthの範囲で近似している。
Cxp−Cxm<Cxth・・・(2)
ただし、Cxpはプラスエッジの重心(代表点)のx座標であり、Cxmはマイナスエッジの重心(代表点)のx座標であり、Cxthは閾値である。数式(2)を満たすマイナスエッジとプラスエッジとの重心のx座標は閾値Cxthの範囲で近似している。
Dg<Dth・・・(3)
ただし、Dgはマイナスエッジの重心とプラスエッジの重心との間の距離であり、Dthは閾値である。数式(3)を満たすマイナスエッジとプラスエッジとの重心間距離は閾値Dth以内である。
CPU24は、上記三つの数式を使って、抽出されたマイナスエッジとプラスエッジの組み合わせの内、プラスエッジは上瞼候補とされ、マイナスエッジは下瞼候補とされる。
つまり、数式(1)〜(3)を満たすマイナスエッジとプラスエッジの組み合わせは、ある程度、長さが等しく、位置が近く、重心のx座標が一致しているマイナスエッジとプラスエッジの組み合わせである。
図4(b)は、数式(1)〜(3)によりマイナスエッジとプラスエッジの組み合わせの一例を示す。プラスエッジ102とマイナスエッジ103との組み合わせと、プラスエッジ105とマイナスエッジ106との組み合わせと、プラスエッジ107とマイナスエッジ108との組み合わせと、プラスエッジ109とマイナスエッジ110との組み合わせと、が対象者の瞼の候補である。
CPU24は、上記の瞼の候補の内、異なったタイミングで取得された複数の顔画像を解析して、図4(c)に示すように、プラスエッジの重心がy軸方向と反対方向に移動し、それに対して、マイナスエッジの重心は移動しない組み合わせを瞼と判定する。ここでは、エッジラインの代表点を重心としているが、代表点は重心以外であってもよい。例えば、「エッジ強度に重み付けして算出された点」、「エッジ強度の極大点」、「エッジ強度の極小点」、「画像の上下方向におけるエッジラインの頂点」、「画像の上下方向におけるエッジラインの下端点」等を代表点としてもよい。
ここで、本発明の第1の実施形態に係る瞼検出装置50が行う瞼検出処理について図5を参照して詳細に説明する。
CPU24は、周期的(例えば、1/30秒毎)に図5の処理を開始する。CPU24は、カメラ10の撮影した対象者の顔の画像をA/D変換器21を介して取り込み、画像メモリ22に格納する(ステップS101)。
CPU24は、画像メモリ22に格納した顔画像の各画像のうち、設定メモリ28に格納された設定情報に基づく設定領域の部分を抽出する(ステップS102)。
CPU24は、顔動画像の各画像の設定領域の部分から、ROM23に格納されている横エッジ検出用ソーベルフィルタを用いて横のエッジラインを抽出する処理を行う(ステップS103)。
CPU24は、抽出したエッジラインの内、上記の数式(1)〜(3)を満たすマイナスエッジとプラスエッジの組み合わせを抽出する(ステップS104)。
CPU24は、抽出したプラスエッジとマイナスエッジについて、その重心を求める。CPU24は、さらに、過去の顔画像について求めたプラスエッジとマイナスエッジの対についての各エッジの重心位置を求め、一連の画像で抽出した各エッジラインの重心の履歴を求める。これにより、CPU24は、図4(c)に示すようにy軸方向にまたはその反対方向に重心が移動するプラスエッジと重心の移動が(あまり)ないマイナスエッジの組み合わせがあるか否かを判別する(ステップS105)。
y軸方向にまたはその反対方向に重心が移動するプラスエッジと重心の移動がないマイナスエッジの組み合わせがない場合(ステップS105;NO)、CPU24は、設定メモリ28に格納されている設定情報を変更し、設定領域を変更または拡大する(ステップS107)。そして、処理をステップS102に戻す。
y軸方向にまたはその反対方向に重心が移動するプラスエッジと重心の移動がないマイナスエッジの組み合わせがある場合(ステップS105;YES)、CPU24は、そのマイナスエッジとプラスエッジの組み合わせを対象者の瞼と判定し(ステップS106)、処理を終了する。
このようにして、本発明の第1の実施形態に係る瞼検出装置50は、少ない演算で正しく瞼を検出できる。即ち、目(の位置)を検出することができる。
なお、このようにして特定した上瞼と下瞼の位置に基づいて、以後、ドライバーの注視方向の特定や、ドライバーが起きているか否かを判別するために利用される。例えば、瞼の位置に対応する瞳の位置を求め、さらに、顔の向きを求め、これらからドライバーの視線の向きを判別することができ、判別した視線の向きを車両の様々な制御に利用できる。また、上瞼と下瞼の距離が基準より小さい状態が一定時間以上継続した場合に、ドライバーが寝ていると判別し、所定の制御を行うといったことも可能となる。
(第2の実施の形態)
第1の実施形態では、瞼検出装置50は、抽出したマイナスエッジとプラスエッジとの組み合わせから、その重心が所定の方向に移動するものを対象者の瞼と判別した。
第2の実施形態では、複数の画像の差分を取り、変化のある部分を抽出する。そして、変化のあった部分の中から瞼を検出する。即ち、ドライバーの瞬き動作を検出することで、瞼の位置(目の領域)を検出する。
次に、瞼検出装置50が、顔画像中の目の領域を検出する動作を説明する。
図6は、CPU24が実行する蓄積処理の動作を示すフローチャートである。蓄積処理は、CPU24が、カメラ10が撮像した画像から顔領域を抽出し、正規化して画像メモリ22に蓄積する処理である。
CPU24は、所定のフレーム周期(例えば、33ミリ秒)で、蓄積処理を実行する。先ず、CPU24は、カメラ10を制御して、画像を撮像させる(ステップS210)。
次に、CPU24は、顔領域検出処理を実行する(ステップS220)。顔領域検出処理は、カメラ10が撮像した、顔画像を含む原画像から顔画像の領域を検出し、該顔領域を抽出する処理である。
図7は、顔領域検出処理(ステップS220)の動作を示すフローチャートである。先ず、CPU24は、カメラ10が撮像した画像を取得する(ステップS221)。そして、CPU24は、撮像画像の輝度を横方向に微分し(ステップS222)、得られた画像から縦エッジ画像を抽出する(ステップS223)。さらに、得られた縦エッジ部分を明確にするため、得られた縦エッジ画像を2値化する(ステップS224)。続いて、2値化した画像を縦方向の長さで重み付けして投影して(ステップS225)、ヒストグラムを作成する(ステップS226)。具体的には、エッジ部分の縦方向の長さの2乗の値で重み付けをすることで、縦に長いエッジ部分を強調して投影することができる。これにより、縦に長い顔の縦エッジを特定する(ステップS227)。
同様の処理を縦方向について繰り返すことで横エッジを得ることができる(ステップS221〜S227)。
ステップS221〜S227の処理により、縦エッジ及び横エッジ画像が得られたら、その両エッジに囲まれた部分を顔領域として抽出する(ステップS228)。
以上のようにして、顔領域検出処理にて、顔領域を検出し、抽出することができる。なお、画像から顔領域を検出する方法はこの例で示した方法に限らない。例えば、第1の実施形態と同様にソーベルフィルタを用いたり、撮像画像を蓄積し、時間微分して(差分を取り)、その画像からヒストグラムを取得することで顔領域を検出してもよい。また、これを上記方法と組み合わせても良い。さらに、予め登録されたテンプレートを用いてマッチングすることで顔領域検出するようにしてもよい。
続いて、CPU24は、顔領域画像を正規化する(ステップS230)。ここでは、顔領域検出処理(ステップS220)にて抽出した顔領域を所定のサイズに正規化する。顔領域検出処理で抽出される顔領域は、ドライバーの姿勢等によって、サイズや形が常時変化する。この処理では、各顔領域画像のフレーム間差分を行うために、共通に扱えるように画像サイズを正規化する。具体的には、顔領域検出処理(ステップS220)で抽出した顔画像を、縦100画素×横100画素の画像となるように線形的に正規化する。また、CPU24は、正規化した画像から得た目領域を、原画像の座標値に変換できるように、正規化に用いたパラメータをRAM25に記憶する(ステップS230)。なお、濃度の正規化も行うようにしてもよい。
そして、CPU24は、ステップS230にて正規化した顔画像を画像メモリ22に記憶する(ステップS240)。ここでは、正規化された顔領域画像のみ蓄積しているので、画像メモリ22のメモリ領域を節約することができる。なお、フレーム間差分を行うため、正規化された顔領域画像を複数蓄積する必要がある。ここでは、統計的に調査された人間の閉眼の所要時間(50〜150ミリ秒)に基づき、150ミリ秒間(4フレーム分に相当する時間以上)蓄積している。
具体的には、ステップS210にて図13(a)に示すようなドライバーの顔を含む画像(原画像)が撮像されたとする。顔領域検出処理(ステップS220)にて図13(b)に示すように顔領域が検出される。そして、ステップS230にて図13(c)に示すように顔画像が正規化される。
次に、目領域検出処理について説明する。目領域検出処理は、画像メモリ22に蓄積された顔画像から目領域を検出するための処理である。図8は、目領域検出処理の動作を説明するためのフローチャートである。
目領域検出処理において、先ず、CPU24は、差分画像生成処理(ステップS250)を実行する。差分画像生成処理は、画像メモリ22に蓄積された最新画像と他の全画像との差分を取り、差分画像を生成する処理である。詳しい動作については後述する。
次に、CPU24は、動領域検出処理(ステップS260)を実行する。動領域検出処理は、差分画像生成処理(ステップS250)にて生成した差分画像に基づき、動きのある領域(動領域)を検出する処理である。詳しい動作については後述する。
続いて、CPU24は、差分画像選択処理を実行する(ステップS270)。差分画像生成処理は、差分画像生成処理(ステップS250)で生成され、動領域検出処理(ステップS260)で動領域を検出された複数の差分画像の中から、目領域を検出するための差分画像を選択するための処理である。詳しい動作については後述する。
そして、CPU24は、目領域特定処理を実行する(ステップS280)。目領域特定処理は、差分画像選択処理(ステップS270)にて選択された差分画像の動領域から目領域を特定するための処理である。詳しい動作については後述する。
続いて、目領域検出処理の各処理の詳細な動作について説明する。図9は、差分画像生成処理(ステップS250)の動作を示すフローチャートである。差分画像生成処理では、先ず、CPU24は、画像メモリ22に蓄積された複数の顔画像を取得する(ステップS251)。そして、その中から最新の画像を特定する(ステップS252)。続いて、CPU24は、最新の画像とその他の画像との差分を取り、複数の差分画像を生成し(ステップS253)、その差分画像をRAM25に保存する(ステップS254)。
具体的には、図14に示すように、最新の正規化画像(a)と66ミリ秒前の正規化画像(b)との差分画像(e)と、の正規化画像と99ミリ秒前の正規化画像(c)との差分画像(f)と、最新の正規化画像と132ミリ秒前の正規化画像(d)との差分画像(g)と、が生成される。
なお、統計等の解析により予め用意された画像との差分を取り差分画像を生成するようにしてもよい。
図10は、動領域検出処理(ステップS260)の動作を示すフローチャートである。動領域検出処理では、先ず、CPU24は、差分画像生成処理(ステップS250)にて、生成された差分画像を取得する(ステップS261)。そして、取得した差分画像から濃度値が所定値以上の画素(例えば、濃度差が50以上になる画素)を抽出する(ステップS262)。そして、CPU24は、ステップS262で抽出した画素のうち、近傍の画素をグループ化する(ステップS263)。ここでは、近傍3画素以内にあるものを同じグループとしている。そして、そのグループ化された領域を動領域画像としてRAMに保存する(ステップS264)。これらの処理を、全ての差分画像について繰り返すことで、全ての差分画像の動領域を検出することができる。
なお、この処理で用いた条件に解像度、濃度階調などを追加してもよい。また、グループ化する際に、画素の位置情報だけでなく、濃度情報を条件に追加してもよい。
図11は、差分画像選択処理(ステップS270)の動作を示すフローチャートである。差分画像選択処理では、先ず、CPU24は、動領域検出処理(ステップS260)にて動領域を検出された複数の差分画像(動領域画像)を取得する(ステップS271)。そして、複数の差分画像の動領域の画素合計値(動領域面積)を比較する(ステップS272)。比較した結果、画素合計値が最大な差分画像を選択して(ステップS273)、RAM25に保存する(ステップS274)。
具体的には、図14(e)〜(g)の差分画像から、動領域面積が最大の図14(f)が選択される。
以上のようにして、目領域の検出に用いる差分画像を選択することができる。差分画像のうち、動領域の最大のものを選択するので、ドライバーが瞬きをする前と後との差分画像を選択できる。
図12は、目領域特定処理(ステップS280)の動作を示すフローチャートである。目領域特定処理では、目領域の左右対称性を利用して目領域を特定する。目領域特定処理では、先ず、CPU24は、差分画像特定処理(ステップS270)、で選択された差分画像を取得する(ステップS281)。そして、グループ化された動領域のうち、左右方向に存在する動領域を探索する(ステップS282)。そして、検出された動領域について、重心及び面積(画素数)が所定のしきい値内であるか否かを判別する(ステップS283)。所定のしきい値内でなければ(ステップS283;No)、再びステップS282の処理に戻り、動領域を探索する。ステップS283で、所定のしきい値内であれば(ステップS283;Yes)、該領域を目領域として特定し(ステップS284)、RAM25に保存する(ステップS285)。即ち、ステップS282、S283の処理では、重心やその面積が目領域としてふさわしくないもの(左右のバランスが悪いもの、小さすぎるもの、左右対称性が不適切なもの)を除外している。
具体的には、図15(a)に示す画像から、面積の対称性がない部分が除外され、図15(b)に示すように目領域が特定される。
以上のようにして、目領域を特定することができる。なお、目領域特定処理において、左右対称性をより正確に評価するために、濃度値の平均値が高い領域や、領域中に濃度差ピークを持つ領域を目領域として特定してもよい。さらに、原画像から抽出したエッジ部分との位置関係を条件として追加してもよい。
なお、目領域が特定された画像は、正規化した際に用いたパラメータに基づき、原画像のサイズに変換される。変換された画像は、ドライバーの注視方向の特定や、ドライバーが起きているか否かを判別するために利用される。
例えば、目領域と判別された領域から第1実施形態で示したようなエッジペアを検出し、このエッジペアを上瞼に対応するエッジ、下瞼に対応するエッジとして処理してもよい。この場合、上瞼に対応するエッジの重心の移動をチェックして真の上瞼であることを判別してもよいし、判別を省略してもよい。
また、目領域と判別された領域から任意の既知の手法で、目のパラメータを抽出し、他の制御に使用してもよい。
以上説明したようにフレーム間差分を取ることで、目に現れる瞬き動作を画像中から抽出している。その後、目の持つ画像的特徴を利用して目を検出するため、顔画像内に存在する眉毛、髭、眼鏡フレーム等の誤検出を防止できる。また、画像特徴を用いた目領域の検出を顔画像という限定した領域で行えばよいため、処理時間を高速にすることができる。このように、高速に精度良く目の位置を検出することができる。
なお、正規化の対象は顔のサイズに限定されず、例えば、画像の濃度(階調)、色などを正規化してもよい。濃度を正規化する場合、例えば、処理対象の各画像の平均輝度が同一となるように、各画像の平均輝度を求め、この平均輝度と基準輝度との比「基準輝度/平均輝度」を各画像内の全画素に乗算して各画素の輝度を補正してから処理するようにすればよい。なお、基準輝度は、複数の画像に共通の基準値である。
(第3の実施形態)
第1の実施形態では、瞼検出装置50は、抽出したマイナスエッジとプラスエッジとの組み合わせから、その重心が所定の方向に移動するものを対象者の瞼と判定した。第3の実施形態ではさらに対象者の顔の輪郭の中心線を検出し、マイナスエッジとプラスエッジの組み合わせであって中心線に対して線対称である他のマイナスエッジとプラスエッジの組み合わせがあるものを対象者の瞼と判別する。なお、第3の実施形態の構成は、第1の実施形態の構成と同様である。
次に、図16(a)、(b)を参照して、瞼検出装置50が、顔動画像中の瞼を検出する動作の概要を説明する。
先ず、瞼検出装置50は、第1の実施形態と同様の処理を行い、図16(a)に示す顔画像から、顔の輪郭の中心線200を求める。
次に、図16(a)に示す画像からy座標がy1〜y2の範囲にある設定領域を抽出する。
次に、抽出した画像にソーベルフィルタ処理を実行し、図16(b)に示すように、図16(b)に示すよう、マイナスエッジとプラスエッジの組み合わせを抽出する。ここで、プラスエッジ301とマイナスエッジ302との組み合わせを候補1とし、プラスエッジ305とマイナスエッジ306との組み合わせを候補2とし、プラスエッジ303とマイナスエッジ304との組み合わせを候補3とし、プラスエッジ307とマイナスエッジ308との組み合わせを候補4とし、プラスエッジ309とマイナスエッジ310との組み合わせを候補5とする。
次に、瞼検出装置50は、顔の中心線200を基準として、中心線200に対して線対象であるエッジラインの対が存在しないものを候補から排除する。これにより、エッジライン309と310の組み合わせからなる候補5が排除される。次に、残った区候補のうちから上瞼に相当するエッジラインの重心が移動する組み合わせ、即ち、候補の3と4を瞼のエッジペアとして処理する。
本発明の第3の実施形態に係る瞼検出装置50が行う瞼検出処理について図17を参照して詳細に説明する。
CPU24は、周期的に図17の処理を開始し、まず、カメラ10の撮影した対象者の顔の動画像をA/D変換器21を介して取り込み、画像メモリ22に格納する(ステップS301)。
CPU24は、今回取得した顔画像中の各画像の顔の輪郭の中心線を検出する(ステップS302)
CPU24は、画像メモリ22に格納された顔画像の各画像の内、設定メモリ28に格納された設定情報に基づく設定領域の部分を抽出する(ステップS303)。
CPU24は、顔画像の設定領域の部分から、ROM23に格納されている横エッジ検出用ソーベルフィルタを用いて横のエッジラインを抽出する処理を行う(ステップS304)。
CPU24は、抽出したエッジラインの内、第1の実施形態において使用した数式(1)〜(3)を満たすマイナスエッジとプラスエッジの組み合わせを抽出する(ステップS305)。
CPU24は、ステップS305において抽出したマイナスエッジとプラスエッジの組み合わせの内から、中心線に対して線対称となる対がない組み合わせを除外する(ステップS306)。
CPU24は、残ったマイナスエッジとプラスエッジの組み合わせのうちから、中心線方向に重心が移動するプラスエッジと重心が移動しないマイナスエッジの組み合わせがあるか否かを判別する(ステップS307)。
中心線方向に重心が移動するプラスエッジと重心が移動しないマイナスエッジの組み合わせがない場合(ステップS307;NO)、CPU24は、設定メモリ28に格納されている設定情報を変更し、設定領域を変更または拡大する(ステップS310)。そして、処理をステップS303に戻す。
中心線方向に重心が移動するプラスエッジと重心が(あまり)移動しないマイナスエッジの組み合わせがある場合(ステップS307;YES)、CPU24は、そのマイナスエッジとプラスエッジの組み合わせを抽出する(ステップS308)。
CPU24は、マイナスエッジとプラスエッジの組み合わせのうち、中心線軸方向に重心が移動し、中心線に対して線対称となる対があるマイナスエッジとプラスエッジの組み合わせを対象者の瞼と判定する(ステップS309)。
このように、本発明の第3の実施形態に係る瞼検出装置50は、設定領域に対象者の口などが含まれている場合でも少ない演算で正しい瞼を検出できる。
なお、第1実施形態に対応して、瞼を検出する例を示したが、第2実施形態の図12のステップS282〜S284にて目領域を特定する際に適用してもよい。
(第4の実施形態)
第1の実施形態では、瞼検出装置50は、抽出したマイナスエッジとプラスエッジとの組み合わせから、その重心が所定の方向に移動するものを対象者の瞼と判定した。第4の実施形態ではさらにマイナスエッジとプラスエッジの重心の所定の方向への移動が眼の瞬きによるものであるか否かを判別し、眼の瞬きによるものであると判別されたマイナスエッジとプラスエッジとの組み合わせを対象者の瞼と判定する。なお、第4の実施形態の構成は、第1の実施形態の構成と同様である。
次に、図18,19を参照して、瞼検出装置50が、顔動画像中の瞼を検出する動作の概要を説明する。
先ず、瞼検出装置50は、第1の実施形態と同様の処理を行い、図18に示すようなマイナスエッジとプラスエッジの組み合わせを抽出する。ここで、プラスエッジ301とマイナスエッジ302との組み合わせを候補1とし、プラスエッジ305とマイナスエッジ306との組み合わせを候補2とし、プラスエッジ303とマイナスエッジ304との組み合わせを候補3とし、プラスエッジ307とマイナスエッジ308との組み合わせを候補4とし、プラスエッジ309とマイナスエッジ310との組み合わせを候補5とする。
そして、瞼検出装置50は、候補1〜5について、マイナスエッジの重心とプラスエッジの重心との間の距離Dgの時間軸に対する変化を計測する。図19(a)〜(e)に示すグラフは、候補1〜5の、時間軸に対するマイナスエッジとプラスエッジとの重心間距離Dgの変化を示すグラフである。
例えば、候補1は、図19(a)に示すように距離Dgは時間軸に対してほとんど変化がない。また、候補2も、図19(b)に示すように距離Dgは時間軸に対してほとんど変化がない。例えば、候補3〜5は、図19(c)〜(e)に示すように距離Dgの時間軸に対するグラフにおいて極小値401〜410を持つ。
瞼検出装置50は、重心間距離Dgの極小点位置の周期と、及び/又は、極小点と極大点との距離(つまり振幅)と、から候補が対象者の瞼である可能性を示す信頼度を算出し、所定の条件を満たす信頼度の候補を対象者の瞼であると判定する。
信頼度としては、例えば、振幅の分散と周期の分散の和の逆数などを使用することができる。目の瞬きのように、比較的振幅が一定で周期が一定の場合には、信頼度が高くなる。一方、他の動きの場合には、通常、振幅や周期がばらつくため、分散が大きくなり、信頼度が低くなる。
ここで、第4の実施形態に係る瞼検出装置50のCPU24が行う瞼検出処理について図20を参照して詳細に説明する。
CPU24は、周期的に図20の処理を開始し、カメラ10の撮影した対象者の顔の画像をA/D変換器21を介して取り込み、画像メモリ22に格納する(ステップS401)。
CPU24は、画像メモリ22に格納された顔画像の各画像の内、設定メモリ28に格納された設定情報に基づく設定領域の部分を抽出する(ステップS402)。
CPU24は、顔画像の設定領域の部分から、ROM23に格納されている横エッジ検出用ソーベルフィルタを用いて縦のエッジラインを抽出する処理を行う(ステップS403)。
CPU24は、抽出したエッジラインの内、第1の実施形態で使用した数式(1)〜(3)を満たすマイナスエッジとプラスエッジの組み合わせを抽出する(ステップS404)。
CPU24は、抽出したプラスエッジとマイナスエッジについて、その重心を求める。CPU24は、さらに、過去の顔画像について求めたプラスエッジとマイナスエッジの対についての各エッジの重心位置を求め、一連の画像で抽出した各エッジラインの重心の履歴を求める。これにより、CPU24は、y軸方向にまたはその反対方向に重心が移動するプラスエッジと重心が(あまり)移動しないマイナスエッジの組み合わせがあるか否かを判別する(ステップS405)。
y軸方向にまたはその反対方向に重心が移動するプラスエッジと重心が移動しないマイナスエッジの組み合わせがない場合(ステップS405;NO)、CPU24は、設定メモリ28に格納されている設定情報を変更し、設定領域を変更または拡大する(ステップS410)。そして、処理をステップS402に戻す。
y軸方向にまたはその反対方向に重心が移動するプラスエッジと重心が移動しないマイナスエッジの組み合わせがある場合(ステップS405;YES)、CPU24は、そのマイナスエッジとプラスエッジの組み合わせを抽出する(ステップS406)。
CPU24は、ステップS406において抽出したマイナスエッジとプラスエッジとの組み合わせの信頼度を、上述の例のように、算出する(ステップS407)。
CPU24は、所定の値以上の信頼度のマイナスエッジとプラスエッジとの組み合わせがあるか否かを判別する(ステップS408)。
所定の値以上の信頼度のマイナスエッジとプラスエッジとの組み合わせがないと判別した場合(ステップS408;NO)、CPU24は、設定メモリ28に格納されている設定情報を変更し、設定領域を変更または拡大する(ステップS410)。そして、処理をステップS402に戻す。
所定の値以上の信頼度のマイナスエッジとプラスエッジとの組み合わせがあると判別した場合(ステップS408;YES)、CPU24は、所定の値以上の信頼度のマイナスエッジとプラスエッジとの組み合わせを対象者の瞼と判定して(ステップS409)、処理を終了する。
このように、本発明の第4の実施形態に係る瞼検出装置50は、第3の実施形態と同様に設定領域に対象者の口などが含まれている場合でも少ない演算で正しい瞼を検出できる。例えば、図18、図19に示す例では、プラスエッジ303とマイナスエッジ304との組み合わせを候補3と、プラスエッジ307とマイナスエッジ308との組み合わせを候補4と、が瞼として検出される。
なお、この発明は上記実施形態に限定されず、種々の変形及び応用が可能である。
第3の実施形態では、瞼検出装置50は、マイナスエッジとプラスエッジとの組み合わせを抽出し、顔の輪郭の中心線に対して線対称であるマイナスエッジとプラスエッジの組み合わせの対の内から、動きのある組み合わせの対を瞼として判定した。第4の実施形態では、瞼検出装置50は、動きのあるマイナスエッジとプラスエッジとの組み合わせを抽出し、マイナスエッジの重心とプラスエッジの重心との動きを評価して信頼度を算出し、所定の値以上の信頼度を持つマイナスエッジとプラスエッジの組み合わせを瞼として判定した。第2と第3の実施形態の応用例として、瞼検出装置50は、マイナスエッジとプラスエッジとの組み合わせを抽出し、顔の輪郭の中心線に対して線対称であるマイナスエッジとプラスエッジの組み合わせの対を抽出し、マイナスエッジの重心とプラスエッジの重心との動きを評価して信頼度を算出し、所定の値以上の信頼度を持つマイナスエッジとプラスエッジの組み合わせを瞼として判定してもよい。
また、単純に、瞼検出装置50は、上瞼と下瞼との組み合わせの候補となるエッジラインを抽出し、抽出したエッジラインの内、顔の輪郭の中心線に対して線対称であるエッジラインの対を対象者の左右瞼と判別してもよい。
また、第1〜4の実施形態では、コンピュータ14は、カメラ10が撮影した対象者の顔の動画像について瞼検出処理を行ったが、カメラ10以外の外部装置から取得した対象者の顔の動画像を画像メモリ22に格納しておき、その動画像について瞼検出処理を行ってもよい。また、複数の顔の画像について瞼検出処理を行ってもよい。
本発明の第1の実施形態に係る瞼検出装置の構成を示すブロック図である。 図1に示すコンピュータの構成を示すブロック図である。 ROMまたはRAMに格納されている各種データを説明するための図である。 本発明の第1の実施形態に係る処理の概要を説明するための図である。 第1の実施形態の瞼検出処理を説明するためのフローチャートである。 本発明の第2実施の形態に係る瞼検出装置の蓄積処理の動作を示すフローチャートである。 図6に示す顔領域検出処理の動作を示すフローチャートである。 第2実施の形態に係る瞼検出装置の目領域検出処理の動作を説明するためのフローチャートである。 図8に示す差分画像生成処理の動作を示すフローチャートである。 図8に示す動領域検出処理の動作を示すフローチャートである。 図8に示す差分画像選択処理の動作を示すフローチャートである。 図8に示す目領域特定処理の動作を示すフローチャートである。 顔画像検出の具体例を示す図である。 差分画像生成の具体例を示す図である。 目領域検出の具体例を示す図である。 本発明の第3の実施形態に係る処理の概要を説明するための図である。 第3の実施形態の瞼検出処理を説明するためのフローチャートである。 本発明の第4の実施形態に係る処理の概要を説明するための図である。 本発明の第4の実施形態に係る処理の概要を説明するための図である。 第4の実施形態の瞼検出処理を説明するためのフローチャートである。
符号の説明
10 カメラ
12 照明光源
14 コンピュータ
16 表示装置
21 A/D変換器
22 画像メモリ (顔画像記憶手段)
23 ROM
24 CPU (エッジライン抽出手段、瞼候補抽出手段、瞼判別手段、中心線検出手段)、
25 RAM
26 表示制御装置
28 設定メモリ
29 操作装置
50 瞼検出装置

Claims (12)

  1. 異なったタイミングで取得した対象者の顔の複数の画像を記憶する顔画像記憶手段と、
    前記顔画像記憶手段に記憶されている複数の画像を処理し、瞬きに起因する画像の変化を検出する変化検出手段と、
    前記変化検出手段が検出した変化に基づき、対象者の瞼の位置を検出する瞼検出手段と、
    前記顔画像記憶手段に記憶されている画像を処理し、画像の領域の境界に相当するエッジラインを抽出するエッジライン抽出手段と、
    前記エッジライン抽出手段が抽出したエッジラインのうちから、上瞼に対応するエッジラインと下瞼に対応するエッジラインとの組み合わせの候補となるエッジラインの対を抽出する瞼候補抽出手段と、を備え、
    前記瞼検出手段は、前記瞼候補抽出手段が抽出したエッジラインのうち、対を構成する上瞼候補のエッジラインの代表点が所定の方向に移動する対を、前記対象者の上瞼と下瞼に対応するエッジラインの対であると判別する瞼判別手段をさらに備える、
    ことを特徴とする瞼検出装置。
  2. 前記顔画像記憶手段に記憶されている画像に含まれる前記対象者の顔の輪郭の中心線を検出する中心線検出手段をさらに備え、
    前記瞼候補抽出手段は、前記エッジライン抽出手段が抽出したエッジラインの対のうちで、前記中心線検出手段が検出した中心線を軸として線対称であるエッジラインの対が存在するエッジラインの対の内から、前記対象者の上瞼に対応するエッジラインと下瞼に対応するエッジラインとの組み合わせの候補となるエッジラインの対を抽出する、
    ことを特徴とする請求項に記載の瞼検出装置。
  3. 前記変化検出手段は、
    前記瞼候補抽出手段が抽出した複数対のエッジラインについて、上瞼に対応するエッジラインの代表点と下瞼に対応するエッジラインの代表点との距離が変化する態様を示すパラメータを算出するパラメータ算出手段と、
    前記パラメータ算出手段が算出したパラメータに基づいて前記エッジラインが前記対象者の瞼である確度を示す信頼度を算出する信頼度算出手段と、をさらに備え、
    前記瞼判別手段は、前記瞼候補抽出手段が抽出したエッジラインの対の内で、前記信頼度算出手段が算出した信頼度が所定の値を満たしているものを検出し、前記対象者の瞼と判別する、
    ことを特徴とする請求項に記載の瞼検出装置。
  4. 前記パラメータは、前記距離の変化の、振幅及び/又は周期である、
    ことを特徴とする請求項に記載の瞼検出装置。
  5. 前記顔画像記憶手段に記憶されている画像に含まれる前記対象者の顔の輪郭の中心線を検出する中心線検出手段をさらに備え、
    前記変化検出手段は、
    前記瞼候補抽出手段が抽出した上瞼に対応するエッジラインの代表点と下瞼に対応するエッジラインの代表点との距離が変化する態様を示すパラメータを算出するパラメータ算出手段と、
    前記パラメータ算出手段が算出したパラメータに基づいて、エッジラインの対が前記対象者の上瞼と下瞼に対応するエッジラインの対である確度を示す信頼度を算出する信頼度算出手段と、を備え、
    前記瞼判別手段は、前記エッジライン抽出手段が抽出したエッジラインの対の内で、前記中心線検出手段が検出した中心線を軸として線対称である対が存在する対のうちから、前記信頼度算出手段が算出した信頼度が所定の値を満たしているものを検出し、前記対象者の上瞼と下瞼のエッジラインの対であると判別する、
    ことを特徴とする請求項に記載の瞼検出装置。
  6. 前記顔画像記憶手段に記憶されている複数の顔の画像のサイズ及び/又は濃度を正規化する正規化手段をさらに備える、
    ことを特徴とする請求項に記載の瞼検出装置。
  7. 異なったタイミングで取得した対象者の顔の複数の画像を記憶する顔画像記憶手段と、
    前記顔画像記憶手段に記憶されている複数の画像を処理し、瞬きに起因する画像の変化を検出する変化検出手段と、
    前記変化検出手段が検出した変化に基づき、対象者の瞼の位置を検出する瞼検出手段と、を備え、
    前記変化検出手段は、
    前記顔画像記憶手段に記憶されている複数の画像から、顔の領域を検出する顔領域検出手段と、
    前記顔領域検出手段が検出した顔の領域を所定の大きさに正規化し、顔領域画像を生成する正規化手段と、
    前記正規化手段が生成した顔領域画像を、複数記憶する正規化画像記憶手段と、
    前記正規化画像記憶手段に記憶された、最新の顔領域画像とその他の複数の顔領域画像との差分をとり、複数の差分画像を生成する差分画像生成手段と、
    前記差分画像生成手段が生成した複数の差分画像から、所定のしきい値以上の濃度値をもつ領域を動領域として検出する動領域検出手段と、をさらに備え、
    前記瞼検出手段は、
    前記複数の差分画像から、前記動領域検出手段が検出した動領域の面積が最大の一を選択する差分画像選択手段と、
    前記差分画像選択手段が選択した差分画像の動領域から、目の領域を特定する目領域特定手段と、をさらに備え
    前記正規化画像記憶手段は、人の閉眼に掛かる時間に基づいた時間、各顔領域画像を記憶する、
    ことを特徴とする瞼検出装置。
  8. 前記目領域特定手段は、動領域の左右対称性に基づき目の領域を特定することを特徴とする請求項に記載の瞼検出装置。
  9. 対象者の顔の画像を記憶する顔画像記憶手段と、
    前記顔画像記憶手段が記憶している画像の所定の領域から画像の諧調に基づいてエッジラインを抽出するエッジライン抽出手段と、
    前記エッジライン抽出手段が抽出したエッジラインのうちから、対象者の上瞼のエッジラインと下瞼のエッジラインとの組み合わせの候補となるエッジラインの対を抽出する瞼候補抽出手段と、
    前記顔画像記憶手段に記憶されている画像に含まれる顔の輪郭の中心線を検出する中心線検出手段と、
    前記瞼候補抽出手段が抽出したエッジラインの対の内から、前記中心線検出手段が検出した中心線を軸として線対称であるエッジラインが存在するものを検出し、そのうちから前記対象者の上瞼と下瞼に対応するエッジラインに相当するものを判別する瞼判別手段と、
    を備えることを特徴とする瞼検出装置。
  10. コンピュータを、
    異なったタイミングで取得した対象者の顔の複数の画像を記憶する顔画像記憶手段、
    前記顔画像記憶手段に記憶されている画像を処理し、画像の領域の境界に相当するエッジラインを抽出するエッジライン抽出手段、
    前記エッジライン抽出手段が抽出したエッジラインのうちから、上瞼に対応するエッジラインと下瞼に対応するエッジラインとの組み合わせの候補となるエッジラインの対を抽出する瞼候補抽出手段、
    前記瞼候補抽出手段が抽出したエッジラインのうち、対を構成する上瞼候補のエッジラインの代表点が所定の方向に移動する対を、前記対象者の上瞼と下瞼に対応するエッジラインの対であると判別する瞼判別手段、
    として機能させることを特徴とするプログラム。
  11. コンピュータを、
    対象者の顔の画像を記憶する顔画像記憶手段、
    前記顔画像記憶手段が記憶している画像の所定の領域から画像の諧調に基づいてエッジラインを抽出するエッジライン抽出手段、
    前記エッジライン抽出手段が抽出したエッジラインのうちから、対象者の上瞼のエッジラインと下瞼のエッジラインとの組み合わせの候補となるエッジラインの対を抽出する瞼候補抽出手段、
    顔画像記憶手段に記憶されている画像に含まれる顔の輪郭の中心線を検出する中心線検出手段、
    前記瞼候補抽出手段が抽出したエッジラインの対の内から、前記中心線検出手段が検出した中心線を軸として線対称であるエッジラインが存在するものを検出し、そのうちから前記対象者の上瞼と下瞼に対応するエッジラインに相当するものを判別する瞼判別手段、
    として機能させることを特徴とするプログラム。
  12. コンピュータを、
    対象者の顔を含む画像を記憶する画像記憶手段、
    前記画像記憶手段に記憶されている複数の画像から、顔の領域を検出する顔領域検出手段、
    前記顔領域検出手段が検出した顔の領域を所定の大きさに正規化し、顔領域画像を生成する正規化手段、
    前記正規化手段が生成した顔領域画像を、複数記憶する顔画像記憶手段、
    前記顔画像記憶手段により蓄積された、最新の顔領域画像とその他の複数の顔領域画像との差分をとり、複数の差分画像を生成する差分画像生成手段、
    前記差分画像生成手段が生成した複数の差分画像から、所定のしきい値以上の濃度値をもつ領域を動領域として検出する動領域検出手段、
    前記複数の差分画像から、前記動領域検出手段が検出した動領域の面積が最大の一を選択する差分画像選択手段、
    前記差分画像選択手段が選択した差分画像の動領域から、目の領域を特定する目領域特定手段、として機能させ
    前記顔画像記憶手段は、人の閉眼に掛かる時間に基づいた時間、各顔領域画像を記憶する、
    ことを特徴とするプログラム。
JP2007028822A 2007-02-08 2007-02-08 瞼検出装置及びプログラム Expired - Fee Related JP4895847B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2007028822A JP4895847B2 (ja) 2007-02-08 2007-02-08 瞼検出装置及びプログラム
CNA200810005812XA CN101241548A (zh) 2007-02-08 2008-02-05 睑检测装置及其程序
EP20130150818 EP2583621A3 (en) 2007-02-08 2008-02-06 Eyelid detection apparatus and programs therefor
US12/026,959 US8351658B2 (en) 2007-02-08 2008-02-06 Eyelid detection apparatus and programs therefor
EP20080151104 EP1955647B1 (en) 2007-02-08 2008-02-06 Eyelid detection apparatus and programs therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007028822A JP4895847B2 (ja) 2007-02-08 2007-02-08 瞼検出装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2008192100A JP2008192100A (ja) 2008-08-21
JP4895847B2 true JP4895847B2 (ja) 2012-03-14

Family

ID=39468830

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007028822A Expired - Fee Related JP4895847B2 (ja) 2007-02-08 2007-02-08 瞼検出装置及びプログラム

Country Status (4)

Country Link
US (1) US8351658B2 (ja)
EP (2) EP2583621A3 (ja)
JP (1) JP4895847B2 (ja)
CN (1) CN101241548A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11210497B2 (en) 2018-09-27 2021-12-28 Aisin Seiki Kabushiki Kaisha Occupant modeling device, occupant modeling method, and occupant modeling program

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4137969B2 (ja) * 2006-12-04 2008-08-20 アイシン精機株式会社 眼部検出装置、眼部検出方法及びプログラム
JP4895847B2 (ja) * 2007-02-08 2012-03-14 アイシン精機株式会社 瞼検出装置及びプログラム
JP5262243B2 (ja) * 2008-03-31 2013-08-14 アイシン精機株式会社 眼開閉判別装置、及びプログラム
JP5296458B2 (ja) * 2008-08-27 2013-09-25 安川情報システム株式会社 瞼開度検出装置、瞼開度検出方法および瞼開度検出プログラム
JP5128454B2 (ja) * 2008-12-17 2013-01-23 アイシン精機株式会社 瞼検出装置、瞼検出方法及びプログラム
US8562659B2 (en) * 2008-12-30 2013-10-22 Koninklijke Philips N.V. System and method for administering light therapy
KR101032726B1 (ko) * 2009-09-01 2011-05-06 엘지이노텍 주식회사 눈 상태 검출방법
DE112010005290T5 (de) * 2010-02-22 2012-12-27 Toyota Jidosha K.K. Bildverarbeitungsvorrichtung und Müdigkeitsbeurteilungsvorrichtung
US20120076368A1 (en) * 2010-09-27 2012-03-29 David Staudacher Face identification based on facial feature changes
JP2013015970A (ja) * 2011-07-01 2013-01-24 Aisin Seiki Co Ltd 瞼検出装置、瞼検出方法及びプログラム
DE112011105441B4 (de) * 2011-07-11 2019-11-14 Toyota Jidosha Kabushiki Kaisha Augenliderfassungsvorrichtung
US9110501B2 (en) * 2012-04-17 2015-08-18 Samsung Electronics Co., Ltd. Method and apparatus for detecting talking segments in a video sequence using visual cues
US9076034B2 (en) * 2012-12-07 2015-07-07 Analog Devices, Inc. Object localization using vertical symmetry
JP6304999B2 (ja) 2013-10-09 2018-04-04 アイシン精機株式会社 顔検出装置、方法およびプログラム
JP6234762B2 (ja) * 2013-10-09 2017-11-22 アイシン精機株式会社 眼部検出装置、方法、およびプログラム
JP6187817B2 (ja) 2013-10-09 2017-08-30 アイシン精機株式会社 顔検出装置、方法およびプログラム
JP6276662B2 (ja) 2013-10-16 2018-02-07 日本特殊陶業株式会社 ガスセンサ
CN104013384B (zh) * 2014-06-11 2016-04-20 温州眼视光发展有限公司 眼前节断层图像特征提取方法
US9335819B1 (en) * 2014-06-26 2016-05-10 Audible, Inc. Automatic creation of sleep bookmarks in content items
TWI522257B (zh) * 2014-07-09 2016-02-21 原相科技股份有限公司 車用安全系統及其運作方法
US9944296B1 (en) * 2015-01-13 2018-04-17 State Farm Mutual Automobile Insurance Company Apparatuses, systems and methods for determining distractions associated with vehicle driving routes
JP6514651B2 (ja) * 2016-02-15 2019-05-15 ルネサスエレクトロニクス株式会社 開眼度検出システム、居眠り検知システム、自動シャッタシステム、開眼度検出方法及び開眼度検出プログラム
US11321951B1 (en) 2017-01-19 2022-05-03 State Farm Mutual Automobile Insurance Company Apparatuses, systems and methods for integrating vehicle operator gesture detection within geographic maps
EP4113464A1 (en) 2021-06-30 2023-01-04 Tobii AB An eye tracking system

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2500726B2 (ja) * 1992-06-12 1996-05-29 日本電気株式会社 上まぶた領域、目頭・目尻・上まぶた領域及び目の構造の検出方法及び装置
JPH06308918A (ja) * 1993-04-21 1994-11-04 Fujitsu Ltd 画面表示制御方法及び画面表示制御装置
JP3293308B2 (ja) * 1994-03-10 2002-06-17 三菱電機株式会社 人物状態検出装置
DE4436190A1 (de) 1994-10-10 1996-04-11 Gerhard Prof Dr Bringmann Halogenierte ß-Carbolin-Derivate, Verfahren zu ihrer Herstellung und Verwendung dieser Substanzen zur Hemmung der Atmungskette
JP3422183B2 (ja) 1996-08-22 2003-06-30 トヨタ自動車株式会社 顔画像における目の検出方法
FR2773521B1 (fr) * 1998-01-15 2000-03-31 Carlus Magnus Limited Procede et dispositif pour surveiller en continu l'etat de vigilance du conducteur d'un vehicule automobile, afin de detecter et prevenir une tendance eventuelle a l'endormissement de celui-ci
JP2000123188A (ja) * 1998-10-20 2000-04-28 Toyota Motor Corp 眼開閉判定装置
FR2784887B1 (fr) 1998-10-22 2001-01-19 Renault Systeme pour surveiller des yeux afin de detecter et de prevenir des baisses de vigilance d'un conducteur de vehicule
JP2000137792A (ja) 1998-10-30 2000-05-16 Toyota Motor Corp 眼部検出装置
JP3695990B2 (ja) * 1999-05-25 2005-09-14 三菱電機株式会社 顔画像処理装置
US6130617A (en) * 1999-06-09 2000-10-10 Hyundai Motor Company Driver's eye detection method of drowsy driving warning system
US6243015B1 (en) * 1999-06-17 2001-06-05 Hyundai Motor Company Driver's drowsiness detection method of drowsy driving warning system
JP2001216515A (ja) * 2000-02-01 2001-08-10 Matsushita Electric Ind Co Ltd 人物の顔の検出方法およびその装置
US6535223B1 (en) * 2000-05-31 2003-03-18 Schmidt Laboratories, Inc. Method and system for determining pupiltary distant and element height
AUPQ896000A0 (en) * 2000-07-24 2000-08-17 Seeing Machines Pty Ltd Facial image processing system
JP2003158643A (ja) * 2001-11-20 2003-05-30 Shibasoku:Kk 信号処理方法及び信号処理装置
CN100398065C (zh) 2002-10-15 2008-07-02 沃尔沃技术公司 解释对象的头部和眼睛活动的方法和装置
JP2004192552A (ja) * 2002-12-13 2004-07-08 Nissan Motor Co Ltd 開閉眼判定装置
JP4107087B2 (ja) 2003-01-09 2008-06-25 日産自動車株式会社 開閉眼判定装置
JP4162503B2 (ja) * 2003-01-31 2008-10-08 富士通株式会社 眼の状態判定装置、眼の状態判定方法及びコンピュータプログラム
US7792335B2 (en) * 2006-02-24 2010-09-07 Fotonation Vision Limited Method and apparatus for selective disqualification of digital images
KR100682889B1 (ko) * 2003-08-29 2007-02-15 삼성전자주식회사 영상에 기반한 사실감 있는 3차원 얼굴 모델링 방법 및 장치
CA2440015A1 (en) * 2003-09-03 2005-03-03 National Research Council Of Canada Second order change detection in video
US7091471B2 (en) * 2004-03-15 2006-08-15 Agilent Technologies, Inc. Using eye detection for providing control and power management of electronic devices
JP4059224B2 (ja) * 2004-04-13 2008-03-12 株式会社デンソー 運転者の外観認識システム
EP1748387B1 (en) * 2004-05-21 2018-12-05 Asahi Kasei Kabushiki Kaisha Devices for classifying the arousal state of the eyes of a driver, corresponding method and computer readable storage medium
US7689010B2 (en) * 2004-12-03 2010-03-30 Invacare International Sarl Facial feature analysis system
US7253739B2 (en) * 2005-03-10 2007-08-07 Delphi Technologies, Inc. System and method for determining eye closure state
US7746235B2 (en) 2005-03-10 2010-06-29 Delphi Technologies, Inc. System and method of detecting eye closure based on line angles
JP2007156650A (ja) * 2005-12-01 2007-06-21 Sony Corp 画像処理装置
JP4760349B2 (ja) * 2005-12-07 2011-08-31 ソニー株式会社 画像処理装置および画像処理方法、並びに、プログラム
US8208764B2 (en) * 2006-01-21 2012-06-26 Elizabeth Guckenberger Photo automatic linking system and method for accessing, linking, and visualizing “key-face” and/or multiple similar facial images along with associated electronic data via a facial image recognition search engine
JP4137969B2 (ja) * 2006-12-04 2008-08-20 アイシン精機株式会社 眼部検出装置、眼部検出方法及びプログラム
JP4895847B2 (ja) * 2007-02-08 2012-03-14 アイシン精機株式会社 瞼検出装置及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11210497B2 (en) 2018-09-27 2021-12-28 Aisin Seiki Kabushiki Kaisha Occupant modeling device, occupant modeling method, and occupant modeling program

Also Published As

Publication number Publication date
EP2583621A3 (en) 2014-01-22
EP1955647A1 (en) 2008-08-13
CN101241548A (zh) 2008-08-13
JP2008192100A (ja) 2008-08-21
US20080212850A1 (en) 2008-09-04
EP2583621A2 (en) 2013-04-24
EP1955647B1 (en) 2013-06-05
US8351658B2 (en) 2013-01-08

Similar Documents

Publication Publication Date Title
JP4895847B2 (ja) 瞼検出装置及びプログラム
JP4845698B2 (ja) 眼部検出装置、眼部検出方法及びプログラム
EP2975997B1 (en) System and method for on-axis eye gaze tracking
JP4307496B2 (ja) 顔部位検出装置及びプログラム
KR101267205B1 (ko) 얼굴특징점 검출 장치 및 프로그램
JP4137969B2 (ja) 眼部検出装置、眼部検出方法及びプログラム
JP4309928B2 (ja) 瞼検出装置、瞼検出方法、及び、プログラム
JP4912206B2 (ja) 画像処理方法、画像処理装置、画像処理システム及びコンピュータプログラム
EP1969993A2 (en) Eyelid detection apparatus and program therefor
CN112384127B (zh) 眼睑下垂检测方法及***
KR20220107022A (ko) 안저 영상 식별 방법 및 장치와 기기
WO2017159215A1 (ja) 情報処理装置及び情報処理方法
JP4848301B2 (ja) 瞼検出装置及びプログラム
JP2008084109A (ja) 目開閉判定装置及び目開閉判定方法
JP4996943B2 (ja) 顔特徴点検出装置、顔特徴点検出方法及びプログラム
JP5128454B2 (ja) 瞼検出装置、瞼検出方法及びプログラム
JP2011086051A (ja) 眼位置認識装置
KR100338805B1 (ko) 졸음 레벨 검출 방법
JP2009059165A (ja) 輪郭検出装置、それを用いた視線検出装置、偽の輪郭データの除去をコンピュータに実行させるためのプログラム、視線方向の検出をコンピュータに実行させるためのプログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体
JP2004110543A (ja) 顔画像処理装置及びプログラム
JP4848303B2 (ja) 眼開閉判別装置及びプログラム
EP3961495A1 (en) System and method for finding an area of an eye from a facial image
JPH11183127A (ja) 眼位置検出装置
JP4848302B2 (ja) 目検出装置、目検出方法およびプログラム
Jung et al. An efficient eye location using context-aware binarization method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091015

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110608

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110614

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110810

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111206

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111220

R151 Written notification of patent or utility model registration

Ref document number: 4895847

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150106

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150106

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150106

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees