JP4781467B2 - 画像処理方法、画像処理装置、画像処理システム及びコンピュータプログラム - Google Patents

画像処理方法、画像処理装置、画像処理システム及びコンピュータプログラム Download PDF

Info

Publication number
JP4781467B2
JP4781467B2 JP2009515010A JP2009515010A JP4781467B2 JP 4781467 B2 JP4781467 B2 JP 4781467B2 JP 2009515010 A JP2009515010 A JP 2009515010A JP 2009515010 A JP2009515010 A JP 2009515010A JP 4781467 B2 JP4781467 B2 JP 4781467B2
Authority
JP
Japan
Prior art keywords
face
image data
feature amount
orientation
calculated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009515010A
Other languages
English (en)
Other versions
JPWO2008142740A1 (ja
Inventor
幸三 馬場
明義 田福
寿雄 伊藤
浄 丹治
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JPWO2008142740A1 publication Critical patent/JPWO2008142740A1/ja
Application granted granted Critical
Publication of JP4781467B2 publication Critical patent/JP4781467B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Geometry (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Collating Specific Patterns (AREA)

Description

本発明は、時系列的に得られた複数の画像データ夫々に基づいて顔部位の特徴量を算出し、算出された特徴量及び閾値を比較することによって顔部位を認識する画像処理方法、該画像処理方法を実施する画像処理装置、該画像処理装置を備えた画像処理システム、及びコンピュータを前記画像処理装置として機能させるためのコンピュータプログラムに関する。
自動車等の車両の運転状態を監視する運転状態監視システムが提案されている。運転状態監視システムは、運転者の顔を撮像できる適宜箇所に設置された撮像装置及び画像処理装置等から構成されている。撮像装置は運転者の顔を撮像し、画像処理装置は撮像して得られた画像データから運転者の眼位置を検出する。そして画像処理装置は、眼の開き具合(以下、開度という)を算出し、開度が所定の閾値以上であるか否かを判断することによって眼の開閉状態を認識する。閾値は、撮像装置の設置場所及び被写体の位置関係から決定される。運転状態監視システムを用いることにより、運転者の居眠り運転を検知することができ、居眠り運転を行っている運転者にアラームで警告するシステムを構成することも可能である。
一方、上瞼が上に凸の状態での開度を算出し、該開度の所定割合、例えば該開度の70%を閾値として設定し、眼の開閉を認識するように構成された画像処理装置が提案されている(例えば、特許文献1)。
特許文献1によれば、個人差に対応した眼の開閉検出が可能になる。
特開2006−251926号公報
しかしながら、顔の向きによって眼の開度が変化した場合、眼の認識精度が低下するという問題があった。例えば、運転者が下を向いているような場合、眼が細くなるため、閉状態と誤認識される。
また、一般に顔部位の形状、大きさ等の特徴は顔の向きによって変化するため、眼以外の顔部位を認識する場合も同様の問題が生ずる。
本発明は斯かる事情に鑑みてなされたものであり、個人差及び顔の向きによる顔部位の特徴変化に対応すべく、複数の画像データから算出された顔部位の特徴量と、顔の向きとを対応付けて記憶しておき、他の画像データから算出された特徴量と、該他の画像データにおける顔の向きに対応した記憶済みの複数の特徴量と、閾値とに基づいて顔部位を認識するように構成することにより、個人差及び顔の向きに関わらず顔部位をより正確に認識することができる画像処理方法、該画像処理方法を実施する画像処理装置、画像処理装置を備えた画像処理システム、コンピュータを前記画像処理装置として機能させるコンピュータプログラムを提供することを目的とする。
本発明の他の目的は、蓄積された特徴量の平均値及び分散値を算出して、他の画像データから算出された特徴量を正規化し、正規化された特徴量及び閾値を比較することによって顔部位を認識するように構成することにより、顔部位の共通的な認識処理が可能になり、特殊な装置、例えば専用LSIを使用せずとも、一般的な演算処理で顔部位の認識精度を向上させることができる画像処理装置及び画像処理システムを提供することにある。
本発明の他の目的は、顔の向きに対応付けて記憶されている特徴量が所定数以上であるか否かを判定し、記憶されている特徴量が所定数未満である場合、他の顔の向きに対応した特徴量に基づいて、閾値を推定し、顔部位を認識するように構成することにより、特徴量が十分に蓄積されていない場合であっても、顔部位の誤認識を回避することができ、顔部位を正確に認識することができる画像処理装置及び画像処理システムを提供することにある。
本発明の他の目的は、顔の向きを所定方向に離散した複数の第1区分と該第1区分間を補完する第2区分とに区分し、顔の向きが第1区分に属する場合に算出された特徴量を該第1区分に、顔の向きが第2区分に属する場合に算出された特徴量を、該第2区分に隣接する複数の第1区分に蓄積しておき、顔の向きが第2区分に属する画像データから顔部位を認識する場合、該第2区分に隣接する複数の第1区分に対応した記憶済みの特徴量を用いて顔部位を認識するように構成することにより、顔部位の認識基準が顔の向きによって急激に変化することを回避することができ、顔部位の認識精度を向上させることができる画像処理装置及び該画像処理システムを提供することにある。
本発明の他の目的は、個人差及び顔の向きに関わらず、眼の位置、開閉を正確に認識することができる画像処理装置及び画像処理システムを提供することにある。
本願は、時系列的に得られた複数の画像データ夫々に基づいて顔部位の特徴量を算出し、算出された特徴量及び閾値を比較することによって顔部位を認識する画像処理方法において、画像データに基づいて顔の向きを算出するステップと、複数の画像データから算出された特徴量を顔の向きに対応付けて記憶すべく、顔の向きを、所定方向に離散した複数の第1区分と該第1区分間を補完する第2区分とに区分し、画像データから算出された顔の向きが第1区分に属する場合、該画像データから算出された特徴量を該第1区分に対応付けて記憶し、顔の向きが第2区分に属する場合、該第2区分に隣接する複数の第1区分に対応付けて特徴量を記憶するステップと、他の画像データから算出された特徴量、該他の画像データにおける顔の向きに対応した記憶済みの複数の特徴量、及び前記閾値に基づいて前記他の画像データにおける顔部位を認識する顔部位認識ステップとを有し、該顔部位認識ステップは、他の画像データにおける顔の向きが第1区分に属する場合、該第1区分に対応した記憶済みの特徴量に基づいて顔部位を認識し、他の画像データにおける顔の向きが第2区分に属する場合、該第2区分に隣接した複数の第1区分に対応した記憶済みの特徴量に基づいて顔部位を認識するように構成してある画像処理方法、画像処理装置、画像処理システム及びコンピュータプログラムを開示する。
本願は、時系列的に得られた複数の画像データ夫々に基づいて顔部位の特徴量を算出し、算出された特徴量及び閾値を比較することによって顔部位を認識する画像処理方法において、画像データに基づいて顔の向きを算出するステップと、複数の画像データから算出された特徴量を顔の向きに対応付けて記憶するステップと、顔の向きに対応した記憶済みの特徴量が所定数以上であるか否かを判定する判定ステップと、該判定ステップにより、他の画像データにおける顔の向きに対応した記憶済みの特徴量が所定数以上であると判定された場合、前記他の画像データから算出された特徴量、前記顔の向きに対応した記憶済みの算出結果及び前記閾値に基づいて前記他の画像データにおける顔部位を認識するステップと、前記判定ステップにより、他の画像データにおける顔の向きに対応した記憶済みの特徴量が所定数未満であると判定した場合、前記他の画像データから算出された特徴量、前記顔の向きと異なる他の顔の向きに対応した記憶済みの特徴量及び前記閾値に基づいて顔部位を認識するステップとを有する画像処理方法、画像処理装置、画像処理システム及びコンピュータプログラムを開示する。
本願にあっては、顔部位を認識すべく画像データに基づいて顔部位の特徴量を算出し、算出された特徴量及び閾値を比較することによって顔部位を認識する。
しかし、顔部位の形状、大きさ等の特徴は、個人差及び顔の向きによって変化するため、固定閾値では顔部位を正確に認識することができない。そこで、記憶手段は、時系列的に得られた画像データから夫々算出された特徴量を顔の向きに対応付けて記憶する。記憶手段が記憶した特徴量は、個人差及び顔の向きによる特徴量変化に対応するための情報である。
顔部位認識手段は、他の画像データから算出された特徴量及び閾値のみならず、個人差及び顔の向きに応じた顔部位の特徴変化を示す情報、即ち他の画像データにおける顔の向きに対応した記憶済みの複数の特徴量を参照して顔部位を認識する。
従って、個人差及び顔の向きによって顔部位の特徴が変化するような場合であっても、顔の向きの変化に依存しない顔部位の正確な認識が可能になる。
なお特徴量の算出は、顔の向きの算出の前後いずれに実行しても良い。また、他の画像データにおける顔の向きは、必ずしも該他の画像データから直接的に算出された顔の向きである必要は無く、過去の画像データ、例えば1フレーム前の画像データから算出された顔の向きを利用しても良い。
本願にあっては、画像処理装置は、他の画像データにおける顔の向きに対応した記憶済みの複数の特徴量に基づいて、特徴量の平均値及び分散値を算出する。
そして、画像処理装置は、算出された平均値及び分散値に基づいて、他の画像データから算出された特徴量を正規化する。特徴量を正規化することによって、個人差及び顔の向きによる特徴量変化を吸収することができる。顔部位認識手段は、正規化された特徴量及び閾値を比較することによって顔部位を認識する。
上述の処理は一般的な演算処理であるため、特殊な装置、例えば専用LSIを使用せずとも、高速に処理することができる。
本願にあっては、判定手段が他の画像データにおける顔の向きに対応した記憶済みの特徴量が所定数以上であるか否かを判定する。記憶されている特徴量が所定数未満である場合、個人差及び顔の向きによる特徴変化に対応するための情報として不十分である。
そこで、顔部位認識手段は、他の顔の向きに対応した特徴量と、他の画像データから算出された特徴量と、閾値とに基づいて顔部位を認識する。
従って、不確かな情報に基づく顔部位の誤認識を回避することができる。
本願にあっては、記憶手段は、顔の向きを所定方向に離散した複数の第1区分と、該第1区分間を補完する第2区分とに区分し、画像データから算出された顔の向きが第1区分に属する場合、該画像データから算出された特徴量を該第1区分に対応付けて記憶する。
また、記憶手段は、画像データから算出された顔の向きが第2区分に属する場合、該第2区分に隣接する複数の第1区分に対応付けて特徴量を記憶する。第2区分に属する顔の向きの特徴量を隣接する第1区分に記憶させることにより、顔部位の認識に使用する情報が隣接する区分間で急激に変化することを回避することができる。
従って、顔部位の認識基準が顔の向きによって急激に変化することを回避することができ、顔の向き変化に依存しないより正確な顔部位の認識が可能になる。
本願にあっては、顔部位認識手段は、個人差及び顔の向きに応じた眼位置及び眼の開度を認識することができる。
本願によれば、個人差及び顔の向きに関わらず顔部位を正確に認識することができる。
本願によれば、特殊な装置、例えば専用LSIを使用せずとも、一般的な演算処理で顔部位の認識精度を向上させることができる。
本願によれば、顔部位の認識開始直後等、特徴量が十分に蓄積されていない場合であっても、顔部位の誤認識を回避することができ、顔部位を正確に認識することができる。
本願によれば、顔部位の認識基準、例えば閾値が顔の向きによって急激に変化することを回避することができ、顔部位の認識精度を向上させることができる。
本願によれば、個人差及び顔の向きに関わらず、眼の位置、眼の開閉状態
を正確に認識することができる。
本発明の実施の形態における画像処理システムの構成例を示すブロック図である。 顔の向きに夫々対応した複数の特徴量データベースを概念的に示す説明図である。 本発明の実施の形態に係るCPUの処理手順を示すフローチャートである。 顔領域の検出方法を概念的に示す説明図である。 顔部位の認識に係るCPUの処理手順を示すフローチャートである。 顔部位の認識に係るCPUの処理手順を示すフローチャートである。 内外輝度差テンプレート及び被検出対象を概念的に示す説明図である。 形状テンプレート及び被検出対象を概念的に示す説明図である。 特徴量データベースに蓄積された特徴量の度数分布を示すグラフである。 上瞼の形状認識方法を概念的に示す説明図である。 耳の位置検出方法を概念的に示す説明図である。 鼻の位置検出方法を概念的に示す説明図である。 顔の向きの算出に係るCPUの処理手順を示すフローチャートである。 特徴量の蓄積に係るCPUの処理手順を示すフローチャートである。 開閉状態の判定に係るCPUの処理手順を示すフローチャートである。 開閉状態の判定に係るCPUの処理手順を示すフローチャートである。 開閉状態の判定に係るCPUの処理手順を示すフローチャートである。 閾値の推定方法を概念的に示す説明図である。
符号の説明
1 撮像装置
2 画像処理装置
11 MPU
21 CPU
23 HD
31 コンピュータプログラム
41 記録媒体
以下、本発明をその実施の形態を示す図面に基づいて詳述する。
図1は、本発明の実施の形態における画像処理システムの構成例を示すブロック図である。図中1は、車両に搭載された撮像装置1であり、撮像装置1は、画像処理を行う画像処理装置2に通信網を介して接続されている。通信網は、例えば専用ケーブル等の通信線、又は有線若しくは無線の車内LAN(Local Area Network)によって構成されている。
撮像装置1は、車両内のハンドル、ダッシュボード等の運転者の前方に配設され、運転者の顔の横方向及び縦方向が画像の水平方向及び垂直方向になるように撮像することが可能な状態に調整されている。
撮像装置1は、装置全体を制御するMPU(Micro Processor Unit)11と、MPU11の制御に基づき実行される各種コンピュータプログラム及びデータを記録するROM(Read Only Memory)12と、ROM12に記録されたコンピュータプログラムの実行時に一時的に発生する各種データを記録するRAM(Random Access Memory)13と、CCD(Charge Coupled Device)等の撮像素子を用いて構成される撮像部14と、撮像部14の撮像により得られたアナログの画像データをデジタルデータに変換するA/D変換器15と、A/D変換器15によりデジタルに変換された画像データを一時的に記録するフレームメモリ16と、画像処理装置2との通信に用いられる通信インタフェース17とを備えている。
撮像装置1では、撮像部14が連続的又は断続的に撮像処理を行い、撮像処理に基づいて例えば1秒当たり30枚の画像データ(画像フレーム)を生成してA/D変換器15へ出力する。A/D変換器15は、画像を構成する各画素を256階調(1Byte)等の階調にて示されるデジタル画像データに変換し、フレームメモリ16に記録させる。フレームメモリ16に記録された画像データは、所定のタイミングで通信インタフェース17から画像処理装置2へ出力される。
画像を構成する各画素は、二次元に配列されており、画像データは、平面直角座標系、所謂XY座標系にて示される各画素の位置、及び階調値として示される各画素の輝度を示すデータ(輝度値)を含んでいる。画像の水平方向は、画像データのX軸方向に対応し、画像の垂直方向は、画像データのY軸方向に対応する。なお、各画素に対し夫々XY座標系による座標を示すのではなく、データ内に配列される順序により座標を示す様にしても良い。また、本実施の形態ではグレイスケイルの画像データに基づく画像処理を説明する。カラーの画像データを用いる場合、該画像データを構成する各画素が有する輝度データについて同様の画像処理を実行すれば良い。
画像処理装置2はコンピュータを実装しており、装置全体を制御するCPU(Central Processing Unit)21と、本発明の実施の形態に係るコンピュータプログラム31、各種閾値、その他の各種情報を記録した記録媒体41、例えばCD−ROM等から情報を読み取る補助記録部22と、補助記録部22により読み取った各種情報、顔の向きに夫々対応した複数の特徴量データベース等を記録するハードディスク(以下HDという)23と、HD23に記録されたコンピュータプログラム31の実行時に一時的に発生する各種データを記録するRAM24と、揮発性メモリにて構成されるフレームメモリ25と、撮像装置1との通信に用いられる通信インタフェース26とを備えている。
本発明のコンピュータプログラム31は、少なくともコンピュータに、画像データから顔の向きを算出する処理と、複数の画像データから算出された特徴量を顔の向きに対応付けて記憶する処理と、顔の向きに対応した記憶済みの特徴量が所定数以上であるか否かを判定する処理と、他の画像データにおける顔の向きに対応した記憶済みの特徴量が所定数以上であると判定された場合、前記他の画像データから算出された特徴量、前記顔の向きに対応した記憶済みの算出結果及び前記閾値に基づいて前記他の画像データにおける顔部位を認識する処理と、所定数未満であると判定された場合、前記他の画像データから算出された特徴量、前記顔の向きと異なる他の顔の向きに対応した記憶済みの特徴量及び前記閾値に基づいて顔部位を認識する処理とを実行させるためのプログラムを含む。また、記録媒体41には、コンピュータプログラム31がコンピュータ読み取り可能に記録されている。
なお、コンピュータプログラム31は、言うまでもなく外部のコンピュータから有線又は無線の通信ネットワークを介して流通するものも含み、画像処理装置2が該通信ネットワークを介してコンピュータプログラム31を取得し、HD23に記録するようにしても良い。
そしてCPU21が、HD23から本発明のコンピュータプログラム31及びデータ等の各種情報を読み取ってRAM24に記録し、コンピュータプログラム31に含まれる各種処理手順を実行することで、コンピュータは、本実施の形態に係る画像処理装置2として動作する。
画像処理装置2では、撮像装置1から出力された画像データを通信インタフェース26にて受け付け、受け付けた画像データをフレームメモリ25に記録し、フレームメモリ25に記録した画像データを読み出して、様々な画像処理を行う。
図2は、顔の向きに夫々対応した複数の特徴量データベースを概念的に示す説明図である。縦横5×9のマトリクス状に区分された複数の升目は夫々異なる顔の向きに対応している。図2中横方向の矢印は水平方向における顔の向きを示しており、縦方向の矢印は垂直方向における顔の向きを示している。各升目には「正/正」のように、対応する顔の向きが示されている。升目内における「/」の左側に記された「上」、「正」及び「下」の文字は垂直方向における顔の向きを3段階で示している。「/」の右側に記された「左2」、「左1」、「正」、「右1」、「右2」の文字は、水平方向における顔の向きを5段階で示している。なお、左右は、説明の便宜上、図2の紙面における左右を示している。従って、運転者側から見た左右とは逆になる。また、「左2」は、正面向きを基準として「左1」よりも更に大きく左側を向いている状態を示している。同様に、「右2」は、正面向きを基準として「右1」よりも更に大きく右側を向いている状態を示している。
図2中白色の升目は、マトリクス中心の「正/正」の升目から水平方向及び垂直方向に1升ずつ空けて離散するように配されており、HD23は、各升目で示された顔の向きに1対1で対応した複数の特徴量データベースを記憶している。特徴量データベースは、画像データから算出された顔部位の特徴量、特に対応する顔の向きの運転者を含む画像データから算出された特徴量を蓄積するデータベースである。顔の向き毎に蓄積された特徴量を用いることにより、個人差及び顔の向きによる特徴量変化に対応することが可能になる。以下、特徴量データベースが用意されている顔の向きを示す各区分を第1区分という。
図2中ハッチングが付された升目は、第1区分の升目を補完するように配されている。ハッチングが付された升目に係る顔の向きには特徴量データベースが対応付けられていない。以下、特徴量データベースが用意されていない各升目に対応した顔の向きを第2区分という。
次に本発明の実施の形態における画像処理システムにて用いられる各種装置の処理内容について説明する。本実施の形態に係る画像処理システムは、個人差及び顔の向きによる顔部位の特徴変化に対応し、顔部位の認識精度を向上させるものである。
図3は、本発明の実施の形態に係るCPUの処理手順を示すフローチャートである。画像処理装置2のCPU21は、フレームメモリ25に記録された画像データを取得し(ステップS11)、顔の画像データから射影演算、閾値処理等によって顔領域を検出する(ステップS12)。そして、CPU21は、検出された顔領域の画像データから顔部位を認識する(ステップS13)。具体的には、CPU21は、顔領域の画像データから鼻、眼、耳等の顔部位の特徴量を算出する。そして、CPU21は、前フレームで算出された顔の向きに対応する特徴量データベースの情報を用いて該特徴量を正規化し、正規化された標準測度と閾値とを比較することで顔部位の位置を算出する。
次いで、CPU21は、顔部位の位置関係、又は眼の形状等から顔の向きを算出し(ステップS14)、算出された顔の向きとステップS13で算出された特徴量とを対応付けてHD23に記憶させる(ステップS15)。具体的には、顔の向きに対応した特徴量データベースに特徴量を蓄積する。そして、CPU21は、眼の開閉状態の判定を行い(ステップS16)、処理を終える。ステップS16では、現フレームの画像データから算出された眼の開度を、ステップS14で算出された顔の向きに対応した特徴量データベースの情報を用いて正規化し、正規化された標準測度と閾値とを比較することで眼の開閉状態を判定する。
以下、図3のフローチャートを用いて説明した処理内容を更に具体的に説明する。
図4は、顔領域の検出方法を概念的に示す説明図である。ステップS12においてCPU21は、画像の各Y座標について、水平方向に並ぶ各画素の輝度値を積算し、積算して得た輝度積算値と、所定の閾値とを比較することで垂直方向における顔領域R0の範囲を検出する。Fy1は、垂直方向における顔領域R0の上端のY座標を、Fy2は、垂直方向における顔領域R0の下端のY座標を示している。顔領域R0は、髪の領域及び背景領域と比較して明るく撮像されため、輝度積算値と閾値とを比較することによって顔領域R0を検出することができる。
同様に、CPU21は、画像の各X座標について、垂直方向に並ぶ各画素の輝度値を積算し、積算して得た輝度積算値と、所定の閾値とを比較することで水平方向における顔領域R0の範囲を検出する。Fx1は、水平方向における顔領域R0の左端を、Fx2は、水平方向における顔領域R0の右端を示している。なお、「左」は、撮像装置11側から見た左、即ち図4の紙面における左側を意味し、「右」は図4の紙面における右側を意味している。従って、撮像されている運転者側から見ると左右が逆になる。
図5及び図6は、顔部位の認識に係るCPUの処理手順を示すフローチャートである。CPU21は、画像データに基づいて顔部位の特徴量を算出する(ステップS31)。例えば、眼の内外輝度差、眼を検出するための形状テンプレート及び画像データの一致度(相関値)、眼の開度等を算出する。
図7は、内外輝度差テンプレート及び被検出対象を概念的に示す説明図である。図7(a)を眼の位置を検出するための内外輝度差テンプレートを示している。矩形枠は内外輝度差の演算対象となる画像領域を示している。上が凸になるように湾曲した湾曲線は上瞼に相当する。CPU21は、眼の検出処理領域内で左上から右下まで該内外輝度差テンプレートを走査し、内外輝度差を算出する。具体的には、湾曲線の上側の画像部分を構成する各画素の輝度値に基づいて眼外部の輝度平均値を算出し、湾曲線の下側の画像部分を構成する各画素の輝度値に基づいて眼内部の輝度平均値を算出する。そして、CPU21は、算出された眼外部の輝度平均値から眼内部の輝度平均値を減算して内外輝度差を算出する。次いで、CPU21は検出処理範囲内で算出された複数の内外輝度差の内、内外輝度差が大きいものから所定の個数を眼位置の候補として、夫々の内外輝度差とその座標位置を記憶する。
図7(b)、(c)は、被検出対象である眼の一例を示す模式図である。
図7(b)は、化粧をしていない状態の眼であり、図7(c)は化粧をした状態の眼である。図7(c)に示した眼の上瞼部分の輝度は、図7(b)に比べて低いため、図7(c)に示した眼の画像データから算出された内外輝度差は、図7(b)に示した眼の画像データから算出された内外輝度差に比べて低い値となる。つまり、個人差によって眼の内外輝度差が異なっている。従って、固定閾値と、内外輝度差とを比較して眼の位置を特定する処理を実行すると、眼を誤認識する虞がある。また、同一人であっても顔の向きによって眼の形状が変化するため、内外輝度差のばらつきが生じ、眼を誤認識する虞がある。CPU21は、個人差及び顔の向きに対応すべく、後述の処理を実行する。
図8は、形状テンプレート及び被検出対象を概念的に示す説明図である。図8(a)は、形状テンプレートを概念的に示している。上が凸になるように湾曲した湾曲線は、上瞼の形状に相当する。CPU21は、眼の検出処理領域内でエッジフィルタ処理を実行し、上瞼のエッジを抽出する。そして、CPU21は、検出処理領域内の左上から右下まで該形状テンプレートを走査し、形状テンプレートの湾曲線の画像と、抽出されたエッジの画素との一致度を算出し、一致度が大きいものから所定の個数を眼位置の候補として、夫々の一致度とその座標位置を記憶する。
図8(b)は、堀が浅い眼を示しており、図8(c)は堀が深い眼を示している。堀が浅い眼の場合、上瞼のエッジが湾曲線状に抽出されるため、形状テンプレートに対する一致度が高い。しかし、堀が深い眼の場合、上瞼端部のエッジが抽出できない場合があり、形状テンプレートに対する一致度が低くなる傾向がある。この場合も、上述のように固定閾値と、形状テンプレートに対する一致度を単純に比較すると眼を誤認識する虞がある。
ステップS31の処理を終えた場合、次いでCPU21は、前フレームの画像データにおける顔の向きが第1区分に属するか否かを判定する(ステップS32)。第1区分に属すると判定した場合(ステップS32:YES)、CPU21は、前フレームにおける顔の向きに対応する特徴量データベースに蓄積されている特徴量を読み出す(ステップS33)。
図9は、特徴量データベースに蓄積された特徴量の度数分布を示すグラフである。横軸は特徴量の値を示しており、縦軸は各特徴量の蓄積数を示している。図9に示す特徴量の平均値及び分散値は、個人差及び顔の向きによって異なるが、横方向の両矢印で示した範囲内の特徴量が算出された場合、運転者の顔部位である傾向が高いと考えられる。前記平均値及び分散値は個人差及び顔の向きによる特徴量変化の傾向を示しており、特徴量変化に対応した顔部位の認識処理に利用される。
第1区分に属さないと判定した場合(ステップS32:NO)、CPU21は、第2区分に隣接する第1区分に対応した特徴量データベースに蓄積されている特徴量を読み出す(ステップS34)。
例えば、顔の向きが「正/正」の区分と、「正/右1」の区分との間である場合、CPU21は、「正/正」の区分に対応した特徴量データベースに蓄積された特徴量と、「正/右1」の区分に対応した特徴量データベースに蓄積された特徴量とを読み出す。
また、顔の向きが「正/正」の区分と、「上/右1」の区分との間である場合、CPU21は、「正/正」の区分に対応した特徴量データベースに蓄積された特徴量と、「正/右1」の区分に対応した特徴量データベースに蓄積された特徴量と、「上/正」の区分に対応した特徴量データベースに蓄積された特徴量と、「上/右1」の区分に対応した特徴量データベースに蓄積された特徴量とを読み出す。
第2区分に属する顔の向きを算出した際、隣接する第1区分に対応した複数の特徴量データベースの特徴量から平均値及び分散値を算出することにより、正規化の基準となる平均値及び分散値が顔の向きによって急激に変化することを回避することができる。
ステップS33又はステップS34の処理を終えた場合、CPU21は、読み出された特徴量が所定数以上であるか否かを判定する(ステップS35)。読み出された特徴量が所定数以上である場合(ステップS35:YES)、CPU21は、読み出された複数の特徴量に基づいて、特徴量の平均値及び分散値を算出する(ステップS36)。そして、CPU21は、正規化処理のループを開始する(ステップS37)。次いで、CPU21は、ステップS31で算出された特徴量を、ステップS36で算出した平均値及び分散値にて正規化して得られる標準測度を算出し、これをスコアとする(ステップS38)。
例えば、特徴量をa、平均値を<a>、標準偏差をσとした場合、標準測度は、下記式(1)で表される。なお、分散値は標準偏差σの二乗である。
標準測度=(a−<a>)/σ …(1)
なお、顔の向きが第2区分の場合、隣接する特徴量データベースにおける標準測度を、顔向き角度に応じて重み付けすることにより、スコアを算出する。
図9に示す特徴量の平均値及び分散は、個人差及び顔の向きによって異なるが、特徴量を正規化することによって、個人差及び顔の向きに関わらず平均値及び分散値が一定の標準測度を得ることができる。例えば、図7(b)及び図7(c)に示した眼の内外輝度差の平均は256階調で夫々約40及び80であるが、正規化することによって、内外輝度差の標準測度はいずれも0となる。従って、閾値を共通化し、共通的な閾値判定が可能になる。
そしてCPU21は、ステップS31で演算された全ての特徴量に対してステップS38の正規化処理を終えた場合、制御部はループを終了する(ステップS39)。次いで、CPU21は、正規化又は重み付け演算にて算出された標準測度、即ちスコアの内、最も0に近いスコアを最上位候補として決定し(ステップS40)、最上位候補のスコアが閾値の範囲内であるか否かを判定する(ステップS41)。つまり、最上位候補のスコアが下閾値より大きく、且つ上閾値未満であるか否かを判定する。下閾値及び上閾値はHD23が予め記憶している。最上位候補のスコアが閾値の範囲内であると判定した場合(ステップS41:YES)、CPU21は、顔部位の位置を確定し(ステップS42)、顔部位の認識に係る処理を終える。最上位候補のスコアが閾値の範囲内にないと判定した場合(ステップS41:NO)、CPU21は顔部位の検出に失敗したとして、顔部位の認識に係る処理を終える。
ステップS35で読み出された特徴量が所定数未満であると判定した場合(ステップS35:NO)、CPU21は、隣接した他の第1区分に対応した特徴量データベースから特徴量を読み出す(ステップS43)。そして、CPU21は、読み出された特徴量が所定数以上であるか否かを判定する(ステップS44)。読み出された特徴量が所定数以上であると判定した場合(ステップS44:YES)、CPU21は、読み出された特徴量に基づいて顔部位の位置を特定するための閾値を推定する(ステップS45)。
特徴量の蓄積開始直後においては、正面向きの出現頻度が高いため、正面向きに対応した特徴量データベースに特徴量が蓄積されるが、他の顔の向きに対応した特徴量データベースには正規化に必要な特徴量が十分蓄積されていない状態が生ずる。このような状態で、「上/正」の区分に属する顔の向きを検出したような場合、個人差及び顔の向きに対応した顔部位の認識処理を実行することができない。
そこで、CPU21は、他の隣接する第1区分に属する特徴量データベース、例えば「正/正」の区分に属する特徴量データベースから特徴量を読み出して特徴量の平均値を算出する。そして、算出された平均値を基準にして他の顔の向きにおける推定上閾値及び推定下閾値を算出する。
正面向きにおける特徴量の平均値と、他の顔の向きにおける平均値との間には一定の関係があるため、該関係を予めHD23に記憶しておくことにより、個人差及び顔の向きに対応した閾値を算出することができる。
次いで、CPU21は、ステップS31で演算された特徴量の内、閾値に最も近い特徴量を最上位候補として決定する(ステップS46)。そして、CPU21は、最上位候補の特徴量が閾値の範囲内であるか否かを判定する(ステップS47)。つまり、最上位候補の特徴量が推定下閾値より大きく、且つ推定上閾値未満であるか否かを判定する。最上位候補の特徴量が閾値の範囲内であると判定した場合(ステップS47:YES)、CPU21は、顔部位の位置を確定し(ステップS48)、顔部位の認識に係る処理を終える。最上位候補の特徴量が推定閾値の範囲内にないと判定した場合(ステップS47:NO)、CPU21は、顔部位の認識に係る処理を終える。
ステップS44で特徴量が所定数未満であると判定した場合(ステップS44:NO)、CPU21は、特徴量が蓄積されている他の第1区分があるか否かを判定する(ステップS49)。他の第1区分があると判定した場合(ステップS49:YES)、CPU21は、処理をステップS43に戻す。
他の第1区分が無いと判定した場合(ステップS49:NO)、CPU21は、固定上閾値及び固定下閾値をHD23から読み出す(ステップS50)。
固定上閾値及び固定下閾値は緩い値である。顔部位の特徴は人によって千差万別であるため、閾値を厳しく設定すると顔部位が認識されなくなるためである。顔部位の誤認識が数フレーム生じたとしても、算出された特徴量が特徴量データベースに十分蓄積された後は、蓄積された特徴量に基づいて、適切な閾値判断を行うことができる。
そして、CPU21は、ステップS31で算出された特徴量の内、閾値に最も近い特徴量を最上位候補として決定する(ステップS51)。そして、CPU21は、最上位候補の特徴量が閾値の範囲内であるか否かを判定する(ステップS52)。つまり、最上位候補の特徴量が固定下閾値より大きく、且つ固定上閾値未満であるか否かを判定する。最上位候補の特徴量が閾値の範囲内であると判定した場合(ステップS52:YES)、CPU21は、顔部位である眼の位置を確定し(ステップS53)、顔部位の認識に係る処理を終える。最上位候補の特徴量が閾値の範囲内でないと判定した場合(ステップS52:NO)、CPU21は、顔部位の認識に係る処理を終える。
以下、顔部位の他の認識処理について説明する。他の顔部位を認識すべく特徴量と閾値とを比較する場合も、上述の方法を採用することにより個人差及び顔の向き変化に対応することができる。
図10は、上瞼の形状認識方法を概念的に示す説明図である。図10(a)は、眼を検出するための眼領域R1を示している。眼領域R1は、例えば鼻穴のような他の顔部位を基準とした相対位置で算出される。CPU21は、破線で示すように眼領域R1の左上部から垂直方向下方に並ぶ各画素に対してフィルタ処理を順次実行して上瞼のエッジを抽出する。CPU21は、同様のエッジ抽出処理を水平方向に並ぶ他の垂直ラインにおいても順次実行する。
図10(b)は、上瞼を検出するフィルタの係数の一例を示す説明図である。上瞼を検出するフィルタは、垂直方向上方から下方へ輝度が高い画像領域から輝度が低い画像領域へ変化するエッジを抽出する3×3マトリクスの1次微分フィルタである。図10(b)に示した係数は、垂直方向及び水平方向に並ぶ3×3=9の画素の輝度値に対して乗ずる数値であり、中心の一の画素(注目画素)と、その外側に隣接する8近傍の画素の輝度値に対し、夫々対応する一の係数を乗じて、その結果を加算した値を注目画素のフィルタ値として算出する。
図10(c)は、上瞼の検出されたエッジ抽出点を概念的に示す説明図である。CPU21は、一のX座標位置において垂直方向に並ぶ各画素のフィルタ値を参照することにより、最大フィルタ値を特定する。そして、該最大フィルタ値を顔の向きに応じて正規化し、正規化されたフィルタ値の標準測度が所定閾値以上の画素をエッジ抽出点として検出する。なお、所定閾値は、HD23が予め記憶している値である。同様にCPU21は他のX座標位置におけるエッジ抽出点を検出する。
次いで、CPU21は、このように抽出されたエッジ抽出点の数を計数し、計数された数が、予めHD23に記憶してある所定数以上であるか否かを判定する。
抽出したエッジ抽出点が所定数以上ある場合、該エッジ抽出点は上瞼を示している傾向が高いため、CPU21は、各エッジ抽出点の座標位置に基づいて、上瞼の形状を示す関数を算出し、上瞼の湾曲度を算出及び記憶する。
図10(d)は、上瞼の湾曲度の算出方法を概念的に示す説明図である。CPU21は、図10(d)に示すように上瞼を2次関数にて近似する。より具体的には、抽出点のX座標をx、Y座標をy、2次放物線を規定する係数をα、β、γとした場合、上瞼をy=αx+βx+γにて近似することができる。そして、最尤推定法等を用いて、各係数を推定する。特にαは、上瞼の湾曲具合を示すことができるため、αを上瞼の湾曲度として記憶する。なお、湾曲度は、必ずしも2次関数を規定する係数αである必要は無く、上瞼の形状を評価できる数値であれば、曲率、曲率半径、その他の係数であっても良い。また、他の近似曲線にて上瞼の形状を評価するように構成しても良い。
CPU21は、同様にして下瞼の湾曲度も算出することができる。また、上瞼の頂点と、下瞼の頂点との距離を算出することで垂直方向における眼の高さを算出することもできる。眼の湾曲度、及び眼の高さは眼の開き具合を示す開度を算出するための情報である。例えば、眼の湾曲度と高さとの平均値を開度として算出する。
また、CPU21は、顔の向きを判定するために鼻穴の位置、耳の位置等を同様の手順で認識する。以下、耳位置の認識方法を説明する。
図11は、耳位置の検出方法を概念的に示す説明図である。図11(a)は、耳部分周辺の画像部分を示している。ハッチングで示した部分は運転者の髪の領域及び背景領域等の暗い画像領域を示しており、ハッチングが付されていない部分はハッチング部分に比べて明るい画像領域を示している。
図11(a)に示した画像に対して耳の輪郭を抽出するフィルタ処理を実行した場合、耳の画像領域と、背景の画像領域との境界部分等におけるフィルタ値が他の画像領域のフィルタ値に比べて大きな値として算出される。右耳(運転者側から見て左耳)の輪郭を抽出フィルタは、例えば斜め右下方へ輝度が高い画像領域から輝度が低い画像領域へ変化するエッジを抽出する5×5マトリクスの斜めエッジフィルタである。
次いで、CPU21は、図11(b)に示すように、各Y座標において水平方向に並ぶ画素中、フィルタ値が最大となるX座標を算出する。図11(b)は、フィルタ処理された画像を概念的に示した説明図である。図中の破線は顔、首、髪部分の輪郭を示す仮想線であり、黒丸印で示された画素は、各水平方向に並ぶ画素中、最大のフィルタ値を有する画素の位置座標を示している。
そして、CPU21は、各Y座標と、フィルタ値最大のX座標と、該フィルタ値とを対応付けたY方向テーブルを記憶する。以下、Y方向テーブルに記憶されたフィルタ値を耳輪郭候補フィルタ値という。
例えば、図11(b)に示すように、Y座標がy1を有する水平方向に並ぶ画素中、最大のフィルタ値を有する画素は黒丸印で示された箇所の画素であり、該画素のX座標はx1である。この場合、Y方向テーブルには、座標y1に対して、X座標としてx1、座標(x1,y1)におけるフィルタ値とが対応付けられて記憶される。他のY座標についても同様に処理される。
次いで、CPU21は、耳の輪郭に関する情報を有するY方向テーブルを参照し、耳の形状に基づいて耳の位置、特に耳朶部分の位置Eを検出する。耳朶部分の位置Eは、図11(c)に示すように、耳朶と顔との結合部分の位置である。耳朶は運転者の髪型の影響を最も受けにくい部分である。従って、該耳位置を検出するように構成することによって、運転者の髪型に関わらず耳位置Eを検出することができる。
次に、鼻位置の認識方法を説明する。
図12は、鼻の位置検出方法を概念的に示す説明図である。図12中、実線で示す外側の矩形枠は画像全体を示しており、該矩形枠の内側であって鼻を囲む破線で描かれた矩形枠は鼻を検出するための検出処理範囲R2を示している。
CPU21は、鼻を検出するための検出処理領域R2を検出すべく、水平方向に並ぶ画素の輝度を積算し、積算した結果から垂直方向の輝度積算値の変化を導出する。そして、CPU21は、導出された垂直方向における輝度積算値の変化から、極小値を示す複数のY座標位置を検出する。この処理によって、図10に示すように水平方向における輝度平均が低い眉、眼、鼻及び口をも含む複数の検出対象の候補が検出される。次いで、CPU21は検出された極小値を示すY座標において水平方向に並ぶ画素の輝度値の変化から、検出対象の候補の両端を検出し、水平方向における極小点を検出する。鼻の周辺部分においては、「×」印で示すように小鼻の両端と、鼻穴に相当する2つの極小点が検出される。CPU21は、顔領域R0の幅Fwと、水平方向における小鼻両端の長さとの比、極小点の数等に基づいて、鼻周辺の検出処理範囲を特定する。
次いで、CPU21は、水平方向に並ぶ画素の輝度値の変化から、極小点周辺を探索領域として選択し、黒領域抽出フィルタ等を用いて鼻穴の位置を検出する。そして、顔の向きを検出する鼻の位置としては例えば、両鼻穴の中点の座標を使用する。
図13は、顔の向きの算出に係るCPU21の処理手順を示すフローチャートである。CPU21は、垂直方向における鼻穴及び耳の上下位置関係を比較することによって、顔の上下向きを算出し(ステップS71)、水平方向における顔領域R0及び鼻穴の位置を比較することによって、顔の左右向きを算出する(ステップS72)。顔幅の中心よりも鼻穴が右側に位置している場合、右を向いており、左側に位置している場合、左を向いていると判定される。
次いで、CPU21は、ステップS71及びステップS72で算出された顔の向きを記憶し(ステップS73)、顔の向きの算出に係る処理を終える。
図14は、特徴量の蓄積に係るCPU21の処理手順を示すフローチャートである。CPU21は、上述の処理で算出された顔の向きが第1区分に属するか否かを判定する(ステップS91)。顔の向きが第1区分に属すると判定した場合(ステップS91:YES)、顔の向きに対応した特徴量データベースに特徴量を記憶し(ステップS92)、特徴量の蓄積に係る処理を終える。例えば、眼の内外輝度差、形状テンプレートに係る一致度、眼の湾曲度、眼の高さ等を記憶する。
顔の向きが第1区分に属さないと判定した場合(ステップS91:NO)、CPU21は、第2区分に隣接する第1区分の顔の向きに対応した複数の特徴量データベースに特徴量を夫々記憶し(ステップS93)、特徴量の蓄積に係る処理を終える。
例えば、顔の向きが「正/正」の区分と、「正/右1」の区分との間である場合、CPU21は、「正/正」の区分に対応した特徴量データベースと、「正/右1」の区分に対応した特徴量データベースとに夫々特徴量を記憶させる。
また、顔の向きが「正/正」の区分と、「上/右1」の区分との間である場合、CPU21は、「正/正」の区分に対応した特徴量データベースと、「正/右1」の区分に対応した特徴量データベースと、「上/正」の区分に対応した特徴量データベースと、「上/右1」の区分に対応した特徴量データベースとに夫々特徴量を記憶させる。
第2区分に属する顔の向きで算出された特徴量を隣接する第1区分に対応した特徴量データベースに夫々記憶させることにより、正規化の基準となる平均値及び分散が急激に変化することを回避することができる。言い換えれば、顔の向きに応じて特徴量データベースを切り替えた場合における閾値の急激な変化を避けることができる。
図15乃至図17は、眼の開閉状態の判定に係るCPU21の処理手順を示すフローチャートである。
CPU21は、ステップS14で算出された顔の向きが第1区分に属するか否かを判定する(ステップS111)。第1区分に属すると判定した場合(ステップS111:YES)、CPU21は、現フレームにおける顔の向きに対応する特徴量データベースに蓄積されている特徴量、特に眼の湾曲度及び高さを読み出す(ステップS112)。
第1区分に属さないと判定した場合(ステップS111:NO)、CPU21は、第2区分に隣接する第1区分に対応する特徴量データベースに蓄積されている湾曲度及び高さを読み出す(ステップS113)。
ステップS112又はステップS113の処理を終えた場合、CPU21は、読み出された湾曲度等が所定数以上であるか否かを判定する(ステップS114)。読み出された湾曲度等が所定数以上である場合(ステップS114:YES)、CPU21は、読み出された複数の湾曲度及び高さに基づいて、湾曲度及び高さの平均値及び分散値を算出する(ステップS115)。そして、CPU21は、ステップS13で算出された湾曲度及び高さを、ステップS115で算出した平均値及び分散値にて夫々正規化し、正規化された値に基づいて開度に係る標準測度を算出する(ステップS116)。例えば、該開度の標準測度は、湾曲度の標準測度と眼の高さの標準測度との平均値等により算出される。
開度の平均値及び分散は、個人差及び顔の向きによって異なるが、開度を正規化することによって、個人差及び顔の向きに関わらず平均値及び分散値が一定の標準測度を得ることができる。従って、閾値を共通化し、共通的な閾値判定が可能になる。
次いで、CPU21は標準測度が閾値より大きいか否かを判定する(ステップS117)。標準測度が閾値より大きいと判定した場合(ステップS117:YES)、CPU21は、開状態であることを記憶し、開閉状態の判定に係る処理を終える。標準測度が閾値以下である場合(ステップS117:NO)、CPU21は、閉状態であることを記憶し(ステップS119)、開閉状態の判定に係る処理を終える。
読み出された湾曲度等が所定数未満であると判定した場合(ステップS114:NO)、CPU21は、隣接した他の第1区分に対応した特徴量データベースから湾曲度及び高さを読み出す(ステップS120)。そして、CPU21は、読み出された湾曲度等が所定数以上であるか否かを判定する(ステップS121)。
読み出された湾曲度等が所定数以上であると判定した場合(ステップS121:YES)、CPU21は、読み出された湾曲度及び高さに基づいて眼の開閉状態を特定するための閾値を推定する(ステップS122)。
図18は、閾値の推定方法を概念的に示す説明図である。図18(a)は、顔が正面を向いている状態での眼の形状を示している。
図18(b)は、顔が上向きの状態での眼の形状を示している。該眼の形状は、正面向きの場合に比べて湾曲度が大きく、眼の高さが大きい傾向がある。
図18(c)は、顔が左向きの場合、図18(d)は顔が下向きの場合の眼の形状を示している。該眼の形状は、正面向きの場合に比べて湾曲度が小さく、眼の高さが小さい傾向がある。
HD23は、顔の向きに応じた眼の開度の大小関係をHD23に記憶しており、CPU21は、正面向きに対応する特徴量データベースに蓄積された湾曲度及び高さと、前記大小関係とに基づいて、他の顔の向きにおける眼の開閉状態を判定するための推定閾値を算出する。
次いで、CPU21は、現フレームで算出された眼の湾曲度が推定閾値より大きく、且つ眼の高さが推定閾値より大きいか否かを判定する(ステップS123)。眼の湾曲度及び高さが夫々推定閾値より大きいと判定した場合(ステップS123:YES)、CPU21は、開状態であることを記憶し(ステップS124)、開閉状態の判定に係る処理を終える。眼の湾曲度又は高さが推定閾値以下である場合(ステップS123:NO)、CPU21は、閉状態であることを記憶し(ステップS125)、開閉状態の判定に係る処理を終える。
ステップS121で湾曲度等が所定数未満であると判定した場合(ステップS121:NO)、CPU21は、湾曲度及び高さが蓄積されている他の第1区分があるか否かを判定する(ステップS126)。他の第1区分があると判定した場合(ステップS126:YES)、CPU21は、処理をステップS120に戻す。
他の第1区分が無いと判定した場合(ステップS126:NO)、CPU21は、眼の湾曲度及び高さに係る固定閾値をHD23から読み出す(ステップS127)。
そして、CPU21は、現フレームで算出された眼の湾曲度が固定閾値より大きく、且つ眼の高さが固定閾値より大きいか否かを判定する(ステップS128)。眼の湾曲度及び高さが夫々固定閾値より大きいと判定した場合(ステップS128:YES)、CPU21は、開状態であることを記憶し(ステップS129)、開閉状態の判定に係る処理を終える。眼の湾曲度又は高さが固定閾値以下である場合(ステップS128:NO)、CPU21は、閉状態であることを記憶し(ステップS130)、開閉状態の判定に係る処理を終える。
本実施の形態に係る画像処理方法、画像処理装置、画像処理システム及びコンピュータプログラムにあっては、顔の向きに夫々対応した特徴量データベースを用意し、過去に算出された特徴量を顔の向きに対応付けて蓄積し、蓄積された特徴量に基づいて、現フレームにおける特徴量を正規化して閾値と比較するように構成してあるため、個人差及び顔の向きに関わらず顔部位を正確に認識することができる。特に、個人差及び顔の向きに関わらず眼の位置及び眼の開閉状態を正確に認識することができる。
また、特徴量データベースに蓄積された特徴量に基づいて平均値、分散等を算出して標準測度を算出する構成であるため、特殊な装置、例えば専用LSIを使用せずとも、一般的な演算処理で顔部位の認識精度を向上させることができる。
更に、顔部位の認識開始直後であって、特徴量が十分に蓄積されていない場合であっても、他の顔の向きで蓄積されている特徴量を用いて閾値を推定する構成であるため、顔部位の誤認識を回避することができ、顔部位を正確に認識することができる。
更にまた、顔の向きを第1区分及び第2区分に分割して特徴量データベースを管理しているため、顔部位の認識基準、例えば閾値が顔の向きによって急激に変化することを回避することができ、顔部位の認識精度を向上させることができる。
なお、実施の形態では、特徴量データベースに蓄積された特徴量に基づいて、特徴量を正規化し閾値処理を実行しているが、特徴量の平均値及び分散値に基づいて閾値を増減させるように構成しても良い。例えば、閾値に標準偏差を乗算し、平均値を加算することによって閾値を増減させるように構成しても良い。このように閾値を増減させる場合も、実施の形態と同様の効果を得ることができる。
また、顔の向きを5×9に区分して特徴量を蓄積するように構成してあるが、顔の向きの区分方法は一例であり、必要に応じて区分数を増減させても良い。
更に、顔部位の特徴量毎に、顔の向きの区分数が異なるように構成しても良い。例えば、上瞼の湾曲度を蓄積する特徴量データベースは、9×9に区分された顔の向きに夫々対応させ、他の特徴量を蓄積する特徴量データベースは、5×9に区分された顔の向きに夫々対応させるように構成しても良い。但し、個人差及び顔の向きに対応するための情報が顔の向きによって急激に変化することを防止すべく、十分な特徴量を特徴量データベースに蓄積する必要がある。
更にまた、特徴量が蓄積される第1区分と、特徴量が蓄積されない第2区分とを設けてあるが、閾値を精度良く設定する必要があるような場合、全区分に特徴量データベースを対応付けるように構成しても良い。

Claims (12)

  1. 時系列的に得られた複数の画像データ夫々に基づいて顔部位の特徴量を算出し、算出された特徴量及び閾値を比較することによって顔部位を認識する画像処理方法において、
    画像データに基づいて顔の向きを算出するステップと、
    複数の画像データから算出された特徴量を顔の向きに対応付けて記憶すべく、顔の向きを、所定方向に離散した複数の第1区分と該第1区分間を補完する第2区分とに区分し、画像データから算出された顔の向きが第1区分に属する場合、該画像データから算出された特徴量を該第1区分に対応付けて記憶し、顔の向きが第2区分に属する場合、該第2区分に隣接する複数の第1区分に対応付けて特徴量を記憶するステップと、
    他の画像データから算出された特徴量、該他の画像データにおける顔の向きに対応した記憶済みの複数の特徴量、及び前記閾値に基づいて前記他の画像データにおける顔部位を認識する顔部位認識ステップと
    を有し、
    該顔部位認識ステップは、
    他の画像データにおける顔の向きが第1区分に属する場合、該第1区分に対応した記憶済みの特徴量に基づいて顔部位を認識し、他の画像データにおける顔の向きが第2区分に属する場合、該第2区分に隣接した複数の第1区分に対応した記憶済みの特徴量に基づいて顔部位を認識するように構成してある
    ことを特徴とする画像処理方法。
  2. 時系列的に得られた複数の画像データ夫々に基づいて顔部位の特徴量を算出し、算出された特徴量及び閾値を比較することによって顔部位を認識する画像処理方法において、
    画像データに基づいて顔の向きを算出するステップと、
    複数の画像データから算出された特徴量を顔の向きに対応付けて記憶するステップと、
    顔の向きに対応した記憶済みの特徴量が所定数以上であるか否かを判定する判定ステップと、
    該判定ステップにより、他の画像データにおける顔の向きに対応した記憶済みの特徴量が所定数以上であると判定された場合、前記他の画像データから算出された特徴量、前記顔の向きに対応した記憶済みの算出結果及び前記閾値に基づいて前記他の画像データにおける顔部位を認識するステップと、
    前記判定ステップにより、他の画像データにおける顔の向きに対応した記憶済みの特徴量が所定数未満であると判定した場合、前記他の画像データから算出された特徴量、前記顔の向きと異なる他の顔の向きに対応した記憶済みの特徴量及び前記閾値に基づいて顔部位を認識するステップと
    を有することを特徴とする画像処理方法。
  3. 時系列的に得られた複数の画像データ夫々に基づいて顔部位の特徴量を算出し、算出された特徴量及び閾値を比較することによって顔部位を認識する画像処理装置において、
    画像データに基づいて顔の向きを算出する手段と、
    複数の画像データから算出された特徴量を顔の向きに対応付けてすべく、顔の向きを、所定方向に離散した複数の第1区分と該第1区分間を補完する第2区分とに区分し、画像データから算出された顔の向きが第1区分に属する場合、該画像データから算出された特徴量を該第1区分に対応付けて記憶し、顔の向きが第2区分に属する場合、該第2区分に隣接する複数の第1区分に対応付けて特徴量を記憶する記憶手段と、
    他の画像データから算出された特徴量、該他の画像データにおける顔の向きに対応した記憶済みの複数の特徴量、及び前記閾値に基づいて前記他の画像データにおける顔部位を認識する顔部位認識手段と
    を備え
    該顔部位認識手段は、
    他の画像データにおける顔の向きが第1区分に属する場合、該第1区分に対応した記憶済みの特徴量に基づいて顔部位を認識し、他の画像データにおける顔の向きが第2区分に属する場合、該第2区分に隣接した複数の第1区分に対応した記憶済みの特徴量に基づいて顔部位を認識するように構成してある
    ことを特徴とする画像処理装置。
  4. 顔の向きに対応した記憶済みの特徴量が所定数以上であるか否かを判定する判定手段を備え、
    前記顔部位認識手段は、
    他の画像データにおける顔の向きに対応した記憶済みの特徴量が所定数以上であると判定された場合、前記他の画像データから算出された特徴量、前記顔の向きに対応した記憶済みの算出結果及び前記閾値に基づいて前記他の画像データにおける顔部位を認識する手段と、
    前記判定手段が所定数未満であると判定した場合、前記他の画像データから算出された特徴量、前記顔の向きと異なる他の顔の向きに対応した記憶済みの特徴量及び前記閾値に基づいて顔部位を認識する手段と
    を備えることを特徴とする請求項3に記載の画像処理装置。
  5. 時系列的に得られた複数の画像データ夫々に基づいて顔部位の特徴量を算出し、算出された特徴量及び閾値を比較することによって顔部位を認識する画像処理装置において、
    画像データに基づいて顔の向きを算出する手段と、
    複数の画像データから算出された特徴量を顔の向きに対応付けて記憶する記憶手段と、
    顔の向きに対応した記憶済みの特徴量が所定数以上であるか否かを判定する判定手段と、
    他の画像データから算出された特徴量、該他の画像データにおける顔の向きに対応した記憶済みの複数の特徴量、及び前記閾値に基づいて前記他の画像データにおける顔部位を認識する顔部位認識手段と
    を備え、
    該顔部位認識手段は、
    他の画像データにおける顔の向きに対応した記憶済みの特徴量が所定数以上であると判定された場合、前記他の画像データから算出された特徴量、前記顔の向きに対応した記憶済みの算出結果及び前記閾値に基づいて前記他の画像データにおける顔部位を認識する手段と、
    前記判定手段が所定数未満であると判定した場合、前記他の画像データから算出された特徴量、前記顔の向きと異なる他の顔の向きに対応した記憶済みの特徴量及び前記閾値に基づいて顔部位を認識する手段と
    を備える
    ことを特徴とする画像処理装置。
  6. 前記顔部位認識手段は、
    前記判定手段が所定数未満であると判定した場合であって、前記顔の向きと異なる他の顔の向きに対応した記憶済みの特徴量がないとき、予め記録されている所定の上限閾値及び下限閾値に基づいて顔部位を認識するように構成してある
    ことを特徴とする請求項5に記載の画像処理装置。
  7. 前記記憶手段は、
    顔の向きを、所定方向に離散した複数の第1区分と該第1区分間を補完する第2区分とに区分し、画像データから算出された顔の向きが第1区分に属する場合、該画像データから算出された特徴量を該第1区分に対応付けて記憶し、顔の向きが第2区分に属する場合、該第2区分に隣接する複数の第1区分に対応付けて特徴量を記憶する手段を備え、
    前記顔部位認識手段は、
    他の画像データにおける顔の向きが第1区分に属する場合、該第1区分に対応した記憶済みの特徴量に基づいて顔部位を認識し、他の画像データにおける顔の向きが第2区分に属する場合、該第2区分に隣接した複数の第1区分に対応した記憶済みの特徴量に基づいて顔部位を認識するように構成してある
    ことを特徴とする請求項5又は請求項6に記載の画像処理装置。
  8. 他の画像データにおける顔の向きに対応した記憶済みの複数の特徴量に基づいて、特徴量の平均値及び分散値を算出する手段と、
    算出された平均値及び分散値に基づいて、前記他の画像データから算出された特徴量を正規化する手段と
    を備え、
    前記顔部認識手段は、
    正規化された特徴量及び前記閾値を比較することで顔部位を認識するように構成してある
    ことを特徴とする請求項3乃至請求項7のいずれか一つに記載の画像処理装置。
  9. 前記特徴量は、
    眼を検出するためのテンプレート画像及び画像データの相関値、眼の内外の輝度差、又は眼の開度である
    ことを特徴とする請求項乃至請求項のいずれか一つに記載の画像処理装置。
  10. 請求項乃至請求項のいずれか一つに記載の画像処理装置と、
    車両の運転者を撮像する撮像装置と
    を備え、
    前記画像処理装置は、
    前記撮像装置が撮像した運転者の顔の画像データに基づいて顔部位を認識するように構成してあることを特徴とする画像処理システム。
  11. コンピュータに、時系列的に得られた複数の画像データ夫々に基づいて顔部位の特徴量を算出させ、算出された特徴量及び閾値を比較することによって顔部位を認識させるコンピュータプログラムにおいて、
    コンピュータに、
    画像データに基づいて顔の向きを算出するステップと、
    複数の画像データから算出された特徴量を顔の向きに対応付けて記憶すべく、顔の向きを、所定方向に離散した複数の第1区分と該第1区分間を補完する第2区分とに区分し、画像データから算出された顔の向きが第1区分に属する場合、該画像データから算出された特徴量を該第1区分に対応付けて記憶し、顔の向きが第2区分に属する場合、該第2区分に隣接する複数の第1区分に対応付けて特徴量を記憶するステップと、
    他の画像データから算出された特徴量、該他の画像データにおける顔の向きに対応した記憶済みの複数の特徴量、及び前記閾値に基づいて前記他の画像データにおける顔部位を認識する顔部位認識ステップと
    を実行させ
    該顔部位認識ステップは、
    他の画像データにおける顔の向きが第1区分に属する場合、該第1区分に対応した記憶済みの特徴量に基づいて顔部位を認識し、他の画像データにおける顔の向きが第2区分に属する場合、該第2区分に隣接した複数の第1区分に対応した記憶済みの特徴量に基づいて顔部位を認識するステップである
    ことを特徴とするコンピュータプログラム。
  12. コンピュータに、時系列的に得られた複数の画像データ夫々に基づいて顔部位の特徴量を算出させ、算出された特徴量及び閾値を比較することによって顔部位を認識させるコンピュータプログラムにおいて、
    コンピュータに、
    画像データに基づいて顔の向きを算出するステップと、
    複数の画像データから算出された特徴量を顔の向きに対応付けて記憶するステップと、
    顔の向きに対応した記憶済みの特徴量が所定数以上であるか否かを判定する判定ステップと、
    該判定ステップにより、他の画像データにおける顔の向きに対応した記憶済みの特徴量が所定数以上であると判定された場合、前記他の画像データから算出された特徴量、前記顔の向きに対応した記憶済みの算出結果及び前記閾値に基づいて前記他の画像データにおける顔部位を認識するステップと、
    前記判定ステップにより、他の画像データにおける顔の向きに対応した記憶済みの特徴量が所定数未満であると判定した場合、前記他の画像データから算出された特徴量、前記顔の向きと異なる他の顔の向きに対応した記憶済みの特徴量及び前記閾値に基づいて顔部位を認識するステップと
    を実行させることを特徴とするコンピュータプログラム。
JP2009515010A 2007-04-16 2007-04-16 画像処理方法、画像処理装置、画像処理システム及びコンピュータプログラム Active JP4781467B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2007/058292 WO2008142740A1 (ja) 2007-04-16 2007-04-16 画像処理方法、画像処理装置、画像処理システム及びコンピュータプログラム

Publications (2)

Publication Number Publication Date
JPWO2008142740A1 JPWO2008142740A1 (ja) 2010-08-05
JP4781467B2 true JP4781467B2 (ja) 2011-09-28

Family

ID=40031467

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009515010A Active JP4781467B2 (ja) 2007-04-16 2007-04-16 画像処理方法、画像処理装置、画像処理システム及びコンピュータプログラム

Country Status (3)

Country Link
US (1) US8571322B2 (ja)
JP (1) JP4781467B2 (ja)
WO (1) WO2008142740A1 (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012068948A (ja) * 2010-09-24 2012-04-05 Renesas Electronics Corp 顔属性推定装置およびその方法
JP5367037B2 (ja) * 2011-09-26 2013-12-11 本田技研工業株式会社 顔向き検出装置
JP5418579B2 (ja) * 2011-12-06 2014-02-19 株式会社デンソー 開閉眼検出装置
US9082004B2 (en) * 2011-12-15 2015-07-14 The Nielsen Company (Us), Llc. Methods and apparatus to capture images
CN103530595A (zh) * 2012-07-04 2014-01-22 富士通株式会社 检测眼睛状态的方法和设备
US8769557B1 (en) 2012-12-27 2014-07-01 The Nielsen Company (Us), Llc Methods and apparatus to determine engagement levels of audience members
KR101441108B1 (ko) * 2013-08-08 2014-09-22 주식회사 에스원 일인용 장치의 인증을 위한 얼굴 식별 방법 및 그 장치
US20150317511A1 (en) * 2013-11-07 2015-11-05 Orbeus, Inc. System, method and apparatus for performing facial recognition
CN104091148B (zh) * 2014-06-16 2017-06-27 联想(北京)有限公司 一种人脸特征点定位方法和装置
CN112836664A (zh) * 2015-08-21 2021-05-25 奇跃公司 使用眼睛姿态测量的眼睑形状估计
NZ740746A (en) 2015-08-21 2019-08-30 Magic Leap Inc Eyelid shape estimation
WO2017066296A1 (en) 2015-10-16 2017-04-20 Magic Leap, Inc. Eye pose identification using eye features
US20180183998A1 (en) * 2016-12-22 2018-06-28 Qualcomm Incorporated Power reduction and performance improvement through selective sensor image downscaling
US10521661B2 (en) 2017-09-01 2019-12-31 Magic Leap, Inc. Detailed eye shape model for robust biometric applications
CN109376684B (zh) 2018-11-13 2021-04-06 广州市百果园信息技术有限公司 一种人脸关键点检测方法、装置、计算机设备和存储介质
CN113128295A (zh) * 2019-12-31 2021-07-16 湖北亿咖通科技有限公司 一种车辆驾驶员危险驾驶状态识别方法及装置
US11711638B2 (en) 2020-06-29 2023-07-25 The Nielsen Company (Us), Llc Audience monitoring systems and related methods
JP2022138279A (ja) * 2021-03-10 2022-09-26 株式会社Jvcケンウッド 目開閉判定装置および目開閉判定方法
US11860704B2 (en) 2021-08-16 2024-01-02 The Nielsen Company (Us), Llc Methods and apparatus to determine user presence
US11758223B2 (en) 2021-12-23 2023-09-12 The Nielsen Company (Us), Llc Apparatus, systems, and methods for user presence detection for audience monitoring

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07302327A (ja) * 1993-08-11 1995-11-14 Nippon Telegr & Teleph Corp <Ntt> 物体画像検出方法及び検出装置
JP2005071344A (ja) * 2003-08-07 2005-03-17 Matsushita Electric Ind Co Ltd 画像処理方法、画像処理装置及び画像処理プログラムを記録した記録媒体
JP2005078311A (ja) * 2003-08-29 2005-03-24 Fujitsu Ltd 顔部位の追跡装置、眼の状態判定装置及びコンピュータプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6181805B1 (en) * 1993-08-11 2001-01-30 Nippon Telegraph & Telephone Corporation Object image detecting method and system
US20010008561A1 (en) * 1999-08-10 2001-07-19 Paul George V. Real-time object tracking system
US20030059124A1 (en) * 1999-04-16 2003-03-27 Viisage Technology, Inc. Real-time facial recognition and verification system
US7221809B2 (en) * 2001-12-17 2007-05-22 Genex Technologies, Inc. Face recognition system and method
US7203346B2 (en) * 2002-04-27 2007-04-10 Samsung Electronics Co., Ltd. Face recognition method and apparatus using component-based face descriptor
JP4687150B2 (ja) 2005-03-08 2011-05-25 日産自動車株式会社 直射光検出装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07302327A (ja) * 1993-08-11 1995-11-14 Nippon Telegr & Teleph Corp <Ntt> 物体画像検出方法及び検出装置
JP2005071344A (ja) * 2003-08-07 2005-03-17 Matsushita Electric Ind Co Ltd 画像処理方法、画像処理装置及び画像処理プログラムを記録した記録媒体
JP2005078311A (ja) * 2003-08-29 2005-03-24 Fujitsu Ltd 顔部位の追跡装置、眼の状態判定装置及びコンピュータプログラム

Also Published As

Publication number Publication date
JPWO2008142740A1 (ja) 2010-08-05
WO2008142740A1 (ja) 2008-11-27
US8571322B2 (en) 2013-10-29
US20090310829A1 (en) 2009-12-17

Similar Documents

Publication Publication Date Title
JP4781467B2 (ja) 画像処理方法、画像処理装置、画像処理システム及びコンピュータプログラム
US7912253B2 (en) Object recognition method and apparatus therefor
JP4364275B2 (ja) 画像処理方法、画像処理装置及びコンピュータプログラム
JP4696857B2 (ja) 顔照合装置
JP4204336B2 (ja) 顔の向き検出装置、顔の向き検出方法及びコンピュータプログラム
JP4345622B2 (ja) 瞳色推定装置
EP2074550B1 (en) Eye opening detection system and method of detecting eye opening
JP4592744B2 (ja) 画像処理方法、画像処理システム、画像処理装置及びコンピュータプログラム
US8154591B2 (en) Eyelid opening level determination device and computer readable medium storing computer program thereof
JP4912206B2 (ja) 画像処理方法、画像処理装置、画像処理システム及びコンピュータプログラム
US20190057246A1 (en) Method and device for gesture recognition
JP5271742B2 (ja) サングラス着用検出装置
US11877800B2 (en) Method and system for detecting blepharoptosis
JP4738914B2 (ja) 監視システム、監視方法、及び監視プログラム
WO2018218839A1 (zh) 一种活体识别方法和***
JP5034623B2 (ja) 画像処理方法、画像処理装置、画像処理システム及びコンピュータプログラム
JP4776581B2 (ja) 入眠状態検知方法、入眠状態検知装置、入眠状態検知システム及びコンピュータプログラム
JP2005165984A (ja) 人物顔の頭頂部検出方法及び頭頂部検出システム並びに頭頂部検出プログラム
JP4795864B2 (ja) 特徴点検出装置および方法並びにプログラム
JP7107380B2 (ja) 推定装置、推定方法、およびプログラム
WO2017159215A1 (ja) 情報処理装置及び情報処理方法
JP5493676B2 (ja) 眼位置認識装置
JP4996943B2 (ja) 顔特徴点検出装置、顔特徴点検出方法及びプログラム
JP2005084979A (ja) 顔認証システムおよび方法並びにプログラム
JP2009237623A (ja) 顔状態評価方法、顔状態評価装置および顔状態評価プログラム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110405

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110601

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110705

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110705

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140715

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4781467

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150