JP4936491B2 - 視線方向の推定装置、視線方向の推定方法およびコンピュータに当該視線方向の推定方法を実行させるためのプログラム - Google Patents

視線方向の推定装置、視線方向の推定方法およびコンピュータに当該視線方向の推定方法を実行させるためのプログラム Download PDF

Info

Publication number
JP4936491B2
JP4936491B2 JP2010277181A JP2010277181A JP4936491B2 JP 4936491 B2 JP4936491 B2 JP 4936491B2 JP 2010277181 A JP2010277181 A JP 2010277181A JP 2010277181 A JP2010277181 A JP 2010277181A JP 4936491 B2 JP4936491 B2 JP 4936491B2
Authority
JP
Japan
Prior art keywords
iris
image
eyeball
center
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010277181A
Other languages
English (en)
Other versions
JP2011090702A5 (ja
JP2011090702A (ja
Inventor
章 内海
大丈 山添
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2010277181A priority Critical patent/JP4936491B2/ja
Publication of JP2011090702A publication Critical patent/JP2011090702A/ja
Publication of JP2011090702A5 publication Critical patent/JP2011090702A5/ja
Application granted granted Critical
Publication of JP4936491B2 publication Critical patent/JP4936491B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Eye Examination Apparatus (AREA)
  • Image Analysis (AREA)

Description

人物の視線方向の推定は、たとえば、マンマシンインタフェースの1つの方法として従来研究されてきた。
視線計測について、従来のカメラを利用した手法では、カメラの設置位置によって「頭部装着型」と「非装着型」に分類できる。一般的に「頭部装着型」は精度は高いが、ユーザの負担が大きい。またカメラの座標系が頭部の動きに連動するため、注視対象を判別するためには、外界の座標系と結び付ける工夫が必要となる。
具体的な手法としては、近赤外の点光源(Light Emitting Diode:LED)を目に照射し、角膜で反射された光源像と瞳孔の位置から視線を推定する瞳孔角膜反射法が良く知られており、「頭部装着型」または「非装着型」の両方に利用されている。赤外照明によって瞳孔と虹彩のコントラストは可視光照明より高くなり、瞳孔を検出しやすくなるが、その直径は数ミリで、また赤外光源の反射像もごく小さなスポットとして映るため、解像度の高い画像が要求される。そのため、片目をできるだけ大きく撮像することになる。その結果、「非装着型」の場合、顔が少し動くと目がカメラ視界から外れるという問題がある。
角膜反射を利用しない「非装着型」による視線推定手法については、ステレオカメラ方式と単眼カメラ方式の大きく2種類に分けられる。
ステレオカメラ方式では、まず顔の特徴点(人為的に貼付したマーカや目尻などの自然特徴点など)の3次元位置を2眼ステレオにより推定し、それをもとに眼球中心位置を推定する手法である。視線方向は、求まった眼球中心位置と画像中の瞳孔位置・虹彩位置を結ぶ直線として推定される。しかし、事前にカメラ間のキャリブレーションが必要であるため、カメラの観測範囲の変更は容易ではないという問題がある。
一方、単眼カメラによる方式では、カメラと顔の距離が離れても、ズームなどにより必要な画像解像度が得られれば視線が推定できる。
単眼カメラによる方式では、眼の画像パターンから視線を推定するニューラルネットワークによる手法や、観測時の虹彩の楕円形状から視線方向(虹彩の法線方向)を推定する手法、ステレオカメラ方式と同じように特徴点を抽出して虹彩位置との幾何学的関係から視線を推定する手法がある。
これらのうち、顔の上の特徴点と虹彩との相対的位置関係から視線を推定する方法は直感的に理解しやすいことから、早くから検討されてきた。
青山らは顔の向きの変化にも対応するため、左右の目尻と口の両端(口角)から形成される台形を利用して顔の向きを推定すると同時に、両目尻の中点と左右の虹彩の中点の差から正面視からの目の片寄り量を推定し、両方合わせて視線方向を推定する原理を示した(たとえば、非特許文献1を参照)。
伊藤らは目の近くに指標点となるサージカルテープなどを貼付し、その指標マークと虹彩の相対位置変化から視線方向を推定するシステムを肢体不自由者のコミュニケーションの手段として検討している(たとえば、非特許文献2を参照)。この場合、顔をキャリブレーション時と同じ姿勢に保つ必要がある。
三宅らは眼球の幾何学的モデルから、2つの眼球の中心を結ぶ直線が顔表面と交差する左右の点を参照点とすれば、画像上のその中点と左右の虹彩の中点から、顔の向きに関係なく視線方向が計算できることを示した(たとえば、非特許文献3を参照)。
川戸らは、4つの参照点を利用する顔の向きに影響されない視線方向推定方法を提案した(たとえば、非特許文献4を参照)。4つの参照点は原理的には同一平面上でなければ位置的な制限はなく、4つの参照点から眼球中心を推定し、眼球中心と虹彩中心を結ぶ直線として視線方向を推定するものである。
なお、以下に説明する本発明の視線方向の推定方法においては、画像中からまず人物の顔を検出する。そこで、従来の画像中からの顔の検出手法の従来技術については、以下のようなものがある。
つまり、これまでに、肌色情報を用いた顔検出システムや、色情報を用いない(濃淡情報を用いる)顔検出手法では、テンプレートマッチングやニューラルネットワーク等の学習的手法を利用した手法については報告が数多くなされている。
たとえば、安定性が高く、かつ実時間での顔の追跡が可能な手法として、安定した顔の特徴点として両目の間の点(以下では眉間(Between−the−Eyes)と呼ぶ)に着目し、眉間の周囲は、額部と鼻筋は相対的に明るく、両サイドの目と眉の部分は暗いパターンになっており、それを検出するリング周波数フィルタを用いるとの手法が提案されている(たとえば、非特許文献5、特許文献1を参照)。
さらに、他の手法として、たとえば、人間の顔領域を含む対象画像領域内の各画素の値のデジタルデータを準備して、順次、対象となる画像領域内において、6つの矩形形状の結合した眉間検出フィルタによるフィルタリング処理により眉間候補点の位置を抽出し、抽出された眉間候補点の位置を中心として、所定の大きさで対象画像を切り出し、パターン判別処理に応じて、眉間候補点のうちから真の候補点を選択する、というような顔を検出する方法も提案されている(たとえば、特許文献2を参照)。
さらに、顔画像中から鼻位置をリアルタイムで追跡する手法についても報告されている(たとえば、非特許文献6を参照)。
特開2001−52176号公報明細書 特開2004−185611号公報明細書
青山宏、河越正弘:「顔の面対称性を利用した視線感知法」情処研報89−CV−61、pp.1-8(1989)。 伊藤,数藤:「画像センサを用いた眼球運動による意思伝達システム」信学技報WIT99−39(2000)。 三宅哲夫、春田誠司、堀畑聡:「顔の向きに依存しない特徴量を用いた注視判定法」信学論(D−II)、Vol.J86−D-II、No.12、 pp.1737−1744(2003)。 川戸、内海、安部:「4つの参照点と3枚のキャリブレーション画像に基づく単眼カメラからの視線推定」画像の認識・理解シンポジウム(MIRU2005),pp.1337−1342(2005)。 川戸慎二郎、鉄谷信二、"リング周波数フィルタを利用した眉間の実時間検出"信学論(D−II),vol.J84−D−II,no12,pp.2577−2584,Dec.2001。 川戸慎二郎、鉄谷信二:鼻位置の検出とリアルタイム追跡:信学技報IE2002−263、pp.25−29(2003)。
しかしながら、従来の単眼カメラによる方式の視線検出のための手法では、参照点として人為的なマークが必要であるという問題があった。
それゆえに本発明の目的は、カメラにより撮影された画像情報に基づいて、人為的なマーカを用いることなく、リアルタイムに視線を追跡する視線方向の推定装置、視線方向の推定方法およびコンピュータに当該視線方向の推定方法を実行させるためのプログラムを提供することである。
この発明のさらに他の目的は、1つのカメラ(単眼カメラ)により撮影された画像情報に基づいて、リアルタイムに視線を追跡する視線方向の推定装置、視線方向の推定方法およびコンピュータに当該視線方向の推定方法を実行させるためのプログラムを提供することである。
この発明のある局面に従うと、視線方向の推定装置であって、視線推定の対象となる人間の顔領域を含む対象画像領域内の各画素に対応する画像を、時間軸で連続する複数の画像フレームとして撮影して獲得するための単眼の撮像手段と、前記撮像手段により撮影された前記複数の画像フレームに基づき、前記顔領域内の複数の特徴点を抽出する特徴点抽出手段と、前記複数の画像フレームのうち前記対象となる人間についての視線の推定を行う推定処理の対象の画像フレーム以前の前記画像フレームにおいて、前記人間の眼球中心の3次元の位置である眼球中心位置を、前記推定処理の対象の画像フレームにおける推定初期位置として使用するために事前に特定する推定初期位置特定手段とを備え、前記推定初期位置特定手段は、前記推定処理の対象の画像フレーム以前の前記画像フレームにおいて、前記対象となる人間の顔3次元モデルに基づいて、前記抽出された特徴点間の相対的な3次元の位置関係を特定し、虹彩中心の投影位置の関数として虹彩が投影される領域と、撮影された画像の目の周辺領域から得られる虹彩領域とが最もフィットするように、前記相対的な3次元の位置関係において前記推定初期位置を特定し、前記推定処理の対象の画像フレームにおいて、予め特定された前記相対的な3次元の位置関係を用いて、前記推定初期位置に基づき、前記眼球中心位置の推定処理を実行する眼球中心推定手段と、前記推定処理の対象の前記画像フレームの画像領域内において、虹彩の領域と前記虹彩の形状のモデルとを照合することで、虹彩中心が前記画像に投影される虹彩中心位置を抽出する虹彩中心抽出手段と、前記推定処理の対象の前記画像フレームの画像において抽出された前記虹彩中心位置と前記眼球中心の位置とに基づき、前記眼球中心と前記虹彩中心とを結ぶ3次元直線の方向として、視線方向を推定する視線推定手段とをさらに備える
好ましくは、前記推定初期位置特定手段は、前記視線推定の対象となる人間が、前記撮像手段を注視していない状態の画像フレームに基づき、前記顔3次元モデルを生成する顔モデル生成手段を含み、前記顔モデル生成手段は、前記特徴点抽出手段により抽出された眼球中心以外の特徴点間の相対的な位置関係を特定し、複数の画像フレームの各々における虹彩中心位置と前記撮像手段の姿勢情報とから、正規化された顔座標における眼球中心位置の初期位置を特定して、校正用画像の目の周辺領域から、虹彩、白目、肌領域を判別して、眼球中心位置、虹彩位置、眼球半径、虹彩半径が、判別結果にフィットするように特定することで、前記顔3次元モデルを生成する
好ましくは、前記虹彩中心抽出手段は、前記特徴点抽出手段により特定された前記特徴点に対して、校正時に特定されている眼球3次元モデルに基づき、前記特徴点から求まる射影行列により、前記眼球中心位置の画像への投影位置を求め、前記眼球3次元モデルにより、前記虹彩中心の投影位置の関数として虹彩が投影される領域と、撮影された画像の目の周辺領域から得られる虹彩領域とが最もフィットするように虹彩中心位置を特定し、前記視線推定手段は、前記虹彩中心抽出手段により特定された前記虹彩中心位置および前記眼球中心位置により視線を推定する
好ましくは、前記推定初期位置特定手段は、前記視線推定の対象となる人間以外の複数の被験者について、事前に、前記顔3次元モデルの生成を行い、予め複数の前記被験者について求めた平均値として、顔座標における眼球中心位置の初期位置を特定する
好ましくは、前記虹彩中心抽出手段は、前記特徴点抽出手段により特定された前記特徴点に対して、上記初期位置を始めとして、現在のフレームよりも、前のフレームまでの非線形最適化処理により、各フレームごとに、眼球3次元モデルにより、虹彩中心の投影位置の関数として虹彩が投影される領域と、撮影された画像の目の周辺領域から得られる虹彩領域とが最もフィットするように、虹彩中心位置および眼球中心位置を特定し、前記視線推定手段は、前記虹彩中心抽出手段により特定された前記虹彩中心位置および前記眼球中心位置により視線を推定する
好ましくは、前記推定初期位置特定手段は、前記特徴点抽出手段により抽出された複数の前記特徴点について、前記顔領域内での前記複数の特徴点の間の相対的な3次元の位置関係を特定する相対関係特定手段を含み、前記相対関係特定手段は、複数の較正用画像内の前記複数の特徴点の投影位置を抽出し、前記複数の特徴点の投影位置を要素として並べた計測行列を算出する計測行列算出手段と、前記計測行列を因子分解により、前記撮像手段の姿勢に関する情報を要素とする撮影姿勢行列と、前記複数の特徴点間の相対的な3次元の位置関に関する情報を要素とする相対位置関係行列とに分解する因子分解手段とを含む
好ましくは、前記眼球中心推定手段は、撮影された画像フレーム内において観測された前記特徴点と前記較正用画像における特徴点との対応付けを行なう特徴点特定手段と、前記撮影された画像フレーム内において観測された前記特徴点についての前記相対位置関係行列の部分行列と、前記観測された特徴点とから前記眼球中心の投影位置を推定する
本発明の実施の形態にかかるシステムの外観図である。 視線検出装置の外観を示す図である。 本発明の実施の形態にかかるシステムのハードウェア的構成を示すブロック図である。 CPU56が、視線方向推定のプログラムに基づいて行なうソフトウェア処理を示す機能ブロック図である。 眉間候補領域を検出するためのフィルタを説明するための概念図である。 6分割矩形フィルタの他の構成を示す概念図である。 眉間を中心とした画像領域を利用してSVMによるモデル化を説明する図である。 顔検出結果の例を示す図である。 視線方向を決定するためのモデルを説明する概念図である。 ユーザがカメラを注視する状態に移行した後の虹彩中心、眼球中心および投影点の関係を示す概念図である。 視線方向の推定装置の初期設定の処理のフローを説明するためのフローチャートである。 キャリブレーションにおいて撮影された4枚の画像フレームを示す図である。 視線方向の推定装置が実行するリアルタイム視線検出の処理のフローを説明するためのフローチャートである。 右上方注視の状態での視線推定結果を示す図である。 上方注視の状態での視線推定結果を示す図である。 左下方向注視の状態での視線推定結果を示す図である。 実施の形態2の視線方向の推定装置の初期設定として行なうキャリブレーションを説明するためのフローチャートである。 眼球モデルパラメータの推定処理の手続きを示す図である。 再投影とずれの関係を示す概念図である。 ラベリング処理例を示す図である。 虹彩とモデルとの照合処理の概念を示す図である。 キャリブレーションにより得られた顔モデルを用いて、視線推定を行なった結果を示す図である。 眼球モデルパラメータの推定における「非線形最適化処理」を説明するための概念図である。 視線推定のために虹彩中位置を決定する処理を示す概念図である。 眼球モデルパラメータの推定処理を「逐次型眼球モデル推定」の処理に置き換えた場合の処理の流れを説明する概念図である。
[実施の形態1]
[ハードウェア構成]
以下、本発明の実施の形態1にかかる「視線方向の推定装置」について説明する。この視線方向の推定装置は、パーソナルコンピュータまたはワークステーション等、コンピュータ上で実行されるソフトウェアにより実現されるものであって、対象画像から人物の顔を抽出し、さらに人物の顔の映像に基づいて、視線方向を推定・検出するためのものである。図1に、この視線方向の推定装置の外観を示す。
ただし、以下に説明する「視線方向の推定装置」の各機能の一部または全部は、ハードウェアにより実現されてもよい。
図1を参照して、この視線方向の推定装置を構成するシステム20は、CD−ROM(Compact Disc Read-Only Memory )またはDVD−ROM(Digital Versatile Disc Read-Only Memory)ドライブ(以下、「光学ディスクドライブ」と呼ぶ)50、あるいはFD(Flexible Disk )ドライブ52のような記録媒体からデータを読み取るためのドライブ装置を備えたコンピュータ本体40と、コンピュータ本体40に接続された表示装置としてのディスプレイ42と、同じくコンピュータ本体40に接続された入力装置としてのキーボード46およびマウス48と、コンピュータ本体40に接続された、画像を取込むための単眼カメラ30とを含む。この実施の形態の装置では、単眼カメラ30としてはCCD(Charge Coupled Device)またはCMOS(Complementary Metal-Oxide Semiconductor)センサのような固体撮像素子を含むカメラを用い、カメラ30の前にいてこのシステム20を操作する人物の顔の位置および視線を推定・検出する処理を行なうものとする。
すなわち、カメラ30により、人間の顔領域を含む画像であって対象となる画像領域内の各画素の値のデジタルデータが準備される。
なお、カメラ30は、必ずしも単眼カメラに限定される訳ではなく、複数の視点からの画像に基づいて、以下に説明するような視線方向の推定を行なうことも可能であるが、以下の説明でも明らかとなるように、本発明の視線方向の推定装置では、単眼カメラからの画像情報のみに基づいた場合でも、視線の推定を行なうことが可能である。
図2は、カメラ30により撮影された画像に基づいて、コンピュータ本体40の処理結果がディスプレイ42に表示される一例を示す図である。
図2に示すように、カメラ30で撮影された画像は、ディスプレイ42の撮影画像表示領域200にリアルタイムに動画として表示される。特に限定されないが、たとえば、撮影画像表示領域200上に、視線方向を示す指標として、眉間から視線方向に延びる線分を表示してもよい。
図3に、このシステム20の構成をブロック図形式で示す。図3に示されるようにこのシステム20を構成するコンピュータ本体40は、光学ディスクドライブ50およびFDドライブ52に加えて、それぞれバス66に接続されたCPU(Central Processing Unit )56と、ROM(Read Only Memory) 58と、RAM (Random Access Memory)60と、ハードディスク54と、カメラ30からの画像を取込むための画像取込装置68とを含んでいる。光学ディスクドライブ50にはCD−ROM(またはDVD−ROM)62が装着される。FDドライブ52にはFD64が装着される。
既に述べたようにこの視線方向の推定装置の主要部は、コンピュータハードウェアと、CPU56により実行されるソフトウェアとにより実現される。一般的にこうしたソフトウェアはCD−ROM(またはDVD−ROM)62、FD64等の記憶媒体に格納されて流通し、光学ドライブ50またはFDドライブ52等により記憶媒体から読取られてハードディスク54に一旦格納される。または、当該装置がネットワークに接続されている場合には、ネットワーク上のサーバから一旦ハードディスク54にコピーされる。そうしてさらにハードディスク54からRAM60に読出されてCPU56により実行される。なお、ネットワーク接続されている場合には、ハードディスク54に格納することなくRAM60に直接ロードして実行するようにしてもよい。
図1および図3に示したコンピュータのハードウェア自体およびその動作原理は一般的なものである。したがって、本発明の最も本質的な部分は、CD−ROM(またはDVD−ROM)62、FD64、ハードディスク54等の記憶媒体に記憶されたソフトウェアである。
なお、最近の一般的傾向として、コンピュータのオペレーティングシステムの一部として様々なプログラムモジュールを用意しておき、アプリケーションプログラムはこれらモジュールを所定の配列で必要な時に呼び出して処理を進める方式が一般的である。そうした場合、当該視線方向の推定装置を実現するためのソフトウェア自体にはそうしたモジュールは含まれず、当該コンピュータでオペレーティングシステムと協働してはじめて視線方向の推定装置が実現することになる。しかし、一般的なプラットフォームを使用する限り、そうしたモジュールを含ませたソフトウェアを流通させる必要はなく、それらモジュールを含まないソフトウェア自体およびそれらソフトウェアを記録した記録媒体(およびそれらソフトウェアがネットワーク上を流通する場合のデータ信号)が実施の形態を構成すると考えることができる。
[システムの機能ブロック]
以下に説明するとおり、本発明の視線方向の推定装置では、顔特徴点を検出・追跡することにより、単眼カメラで視線方向を推定する。
本発明の視線方向の推定装置では、眼球中心と虹彩中心を結ぶ3次元直線を視線方向として推定する。眼球中心は画像からは直接観測することはできないが、カメラを注視している場合には眼球中心と虹彩中心が同じ位置に観測されることを利用し、眼球中心と顔特徴点との相対関係をモデル化することにより、眼球中心の投影位置を推定する。
初期校正(キャリブレーション)では、ユーザがカメラを注視しながら顔の向きが異なる、2枚以上の画像フレーム列を取得し、顔特徴点と虹彩中心を抽出・追跡することにより、顔特徴点と眼球中心との相対関係をモデル化する。
視線推定時には、撮影画像から顔特徴点を追跡することで、眼球中心の投影位置を推定し、その点と虹彩中心とを結ぶ3次元ベクトルを視線方向として推定する。
以下では、本発明による視線の検知のための構成の概略について説明する。
図4は、図3に示したCPU56が、ハードディスク54等に格納されたプログラムに基づいて行なうソフトウェア処理を示す機能ブロック図である。なお、上述のとおり、この機能ブロックの全部または一部は、専用のハードウェアにより実行される構成としてもよい。
視線方向の推定装置のシステム20の処理は、単眼カメラ30をベースとしており、顔位置の検出が可能で光学的に十分なズーム比が得られれば観測距離の制約を受けない。
以下では、何らかの手続き、たとえば、ユーザによるカメラの調整等によりあらかじめ大まかな人物顔位置が与えられることを仮定している。
カメラ30により撮像された動画に対応する映像信号は、フレームごとに画像キャプチャ処理部5602により制御されてデジタルデータとしてキャプチャされ、画像データ記録処理部5604により、たとえば、ハードディスク54のような記憶装置に格納される。
顔検出部5606では、キャプチャされたフレーム画像列に対して6分割矩形フィルタによる顔候補探索(眉間の候補位置の探索)と、探索された眉間の候補位置のうちから、左右の目についてのテンプレートマッチングなどの処理を用いた識別処理を適用することにより画像中の顔位置(両目位置)を検出する。
次に、顔領域抽出部5608は、求まった両目位置から虹彩中心、鼻位置を抽出する。
さらに、特徴点抽出部5610は、抽出された顔や鼻、目(虹彩)の位置を利用し、複数の特徴点の抽出および追跡を行なって、顔領域内の画像特徴点を検出する。なお、画像特徴点周辺のテクスチャは、キャリブレーション時において追跡のためのテンプレートとして保持しておき、さらに適宜更新して、フレーム間の特徴点の対応づけに利用する。一方、虹彩中心抽出部5612は、後に説明するように、目の周辺領域に対して、ラプラシアンにより虹彩のエッジ候補を抽出し、円のハフ変換を適用することにより、虹彩の中心の投影位置を検出する。相対関係特定部5614は、キャリブレーション時に、眼球中心および特徴点の3次元的な相対位置関係を後に説明するようにモデルとして特定する。眼球中心推定部5616は、特徴点の投影位置と相対位置関係のモデルとを用いて、眼球の中心位置を推定する。
視線方向推定部5618は、抽出された虹彩の中心の投影位置と推定された眼球の中心位置とに基づいて、視線方向を推定する。
また、表示制御部5630は、以上のようにして推定された視線の方向を、取得された画像フレーム上に表示するための処理を行なう。
すなわち、視線方向の推定装置のシステム20では、特徴点の追跡処理の安定性を確保するため、同一特徴点に関して異なるフレームにおける複数の観測テクスチャを保持している。初期校正過程では、これらの特徴点と虹彩中心の関係から顔特徴点と眼球中心の相対関係を求める。視線推定過程では、校正過程で得られた関係を元に現フレームで得られている特徴点群から眼球中心位置を推定し、その位置と虹彩中心位置から視線方向を決定する。
[視線方向の推定処理の動作]
(顔検出処理)
以下では、まず、視線方向の推定の前提として行なわれる顔検出処理について説明する。
(6分割矩形フィルタによる顔検出処理)
視線方向の推定装置のシステム20では、特に限定されないが、たとえば、顔を連続撮影したビデオ画像を処理するにあたり、横が顔幅、縦がその半分程度の大きさの矩形フィルターで画面を走査する。矩形は、たとえば、3×2に6分割されていて、各分割領域の平均明るさが計算され、それらの相対的な明暗関係がある条件を満たすとき、その矩形の中心を眉間候補とする。
連続した画素が眉間候補となるときは、それを取囲む枠の中心候補のみを眉間候補として残す。残った眉間候補を標準パターンと比較してテンプレートマッチング等を行なうことで、上述した手続きで得られた眉間候補のうちから、偽の眉間候補を捨て、真の眉間を抽出する。
以下、本発明の顔検出の手続きについて、さらに詳しく説明する。
(6分割矩形フィルタ)
図5は、眉間候補領域を検出するためのフィルタを説明するための概念図である。
図5(a)は、上述した3×2に6分割された矩形フィルタ(以下、「6分割矩形フィルタ」と呼ぶ)を示す図である。
6分割矩形フィルタは、1)鼻筋は両目領域よりも明るい、2)目領域は頬部よりも暗い、という顔の特徴を抽出し、顔の眉間位置を求めるフィルタである。点(x、y)を中心として、横i画素、縦j画素(i,j:自然数)の矩形の枠を設ける。
図5(a)のように、この矩形の枠を、横に3等分、縦に2等分して、6個のブロックS1〜S6に分割する。
図5(b)は、このような6分割矩形フィルタを顔画像の両目領域および頬部に当てはめた状態を示す。
図6は、6分割矩形フィルタの他の構成を示す概念図である。
鼻筋の部分が目の領域よりも通常は狭いことを考慮すると、ブロックS2およびS5の横幅w2は、ブロックS1,S3,S4およびS6の横幅w1よりも狭い方がより望ましい。好ましくは、幅w2は幅w1の半分とすることができる。図6は、このような場合の6分割矩形フィルタの構成を示す。また、ブロックS1、S2およびS3の縦幅h1と、ブロックS4、S5およびS6の縦幅h2とは、必ずしも同一である必要もない。
図6に示す6分割矩形フィルタにおいて、それぞれのブロックSi(1≦i≦6)について、画素の輝度の平均値「バーSi」(Siに上付きの“−”をつける)を求める。
ブロックS1に1つの目と眉が存在し、ブロックS3に他の目と眉が存在するものとすると、以下の関係式(1)が成り立つ。
そこで、これらの関係を満たす点を眉間候補(顔候補)として抽出する。
矩形枠内の画素の総和を求める処理について、公知の文献(P. Viola and M. Jones, “Rapid Object Detection using a Boosted Cascade of Simple Features,” Proc. Of IEEE Conf. CVPR,1,pp.511-518, 2001)において開示されている、インテグラルイメージ(Integral Image)を利用した計算の高速化手法を取り入れることができる。インテグラルイメージを利用することでフィルタの大きさに依らず高速に実行することができる。多重解像度画像に本手法を適用することにより、画像上の顔の大きさが変化した場合にも顔候補の抽出が可能となる。
このようにして得られた眉間候補(顔候補)に対しては、両目の標準パターンとのテンプレートマッチングにより、真の眉間位置(真の顔領域)を特定することができる。
なお、得られた顔候補に対して、サポートベクトルマシン(SVM)による顔モデルによる検証処理を適用し顔領域を決定することもできる。髪型の違いや髭の有無、表情変化による認識率の低下を避けるため、たとえば、図7に示すように、眉間を中心とした画像領域を利用してSVMによるモデル化を行なうことができる。なお、このようなSVMによる真の顔領域の決定については、文献:S.Kawato,N.Tetsutani and K.Hosaka:“Scale-adaptive face detection and tracking in real time with ssr fi1ters and support vector machine”,IEICE Trans.on Info.and Sys., E88−D,12,pp.2857−2863(2005)に開示されている。6分割矩形フィルタによる高速候補抽出とSVMによる処理とを組合わせることで実時間の顔検出が可能である。
(目・鼻の検出処理)
続いて、目、鼻や虹彩中心の位置を、上述した非特許文献4や非特許文献6の手法を用いて抽出する
両目の位置については、前節の顔領域検出で眉間のパターンを探索しているため、眉間の両側の暗い領域を再探索することにより、大まかな両目の位置を推定することができる。しかし、視線方向の推定のためには、虹彩中心をより正確に抽出する必要がある。ここでは、上で求まった目の周辺領域に対して、ラプラシアンにより虹彩のエッジ候補を抽出し、円のハフ変換を適用することにより、虹彩および虹彩の中心の投影位置を検出する。
鼻の位置は、鼻先が凸曲面であるため周囲に対し明るい点として観測されやすいことと、両目の位置から鼻の存在範囲が限定できることを利用して抽出する。また、両目、鼻の位置を用いて、大体の顔の向きも推定できる。
図8は、顔検出結果の例を示す図である。検出された顔において、虹彩中心や鼻先や口なども検出されている。たとえば、特徴点としては、鼻先や、左右の目の目尻や目頭、口の両端、鼻腔中心などを用いることができる。
(視線推定)
(視線推定の原理)
本発明では、視線方向は眼球中心と虹彩中心を結ぶ3次元直線として与えられるとする。
図9は、視線方向を決定するためのモデルを説明する概念図である。
画像上での眼球半径をl、画像上での眼球中心と虹彩中心とのx軸方向、y軸方向の距離をdx、dyとすると、視線方向とカメラ光軸とのなす角、つまり、視線方向を向くベクトルがx軸およびy軸との成す角ψx、ψyは次式で表される。
式(3)により、視線方向を推定するためには、画像上での眼球半径と眼球中心・虹彩中心の投影位置が必要となる。ここで、虹彩中心の投影位置については、上述したとおり、ハフ変換を用いた手法により求めることができる。画像上での眼球直径rは、解剖学的なモデル(標準的な人の眼球直径)を用いてもよいし、別途キャリブレーションにより求めてもよい。
図10は、図9に示した状態から、ユーザがカメラを注視する状態に移行した後の虹彩中心、眼球中心および投影点の関係を示す概念図である。
眼球中心の投影位置については、一般には、画像から直接観測することはできない。しかし、ユーザがカメラを注視した場合について考えると、図10に示すとおり、カメラ、虹彩中心、眼球中心の3点が1直線上に並ぶため、画像では虹彩中心と眼球中心は同一点に投影されることがわかる。
そこで、本発明では、ユーザがカメラを注視しながら、顔の姿勢を変化させている画像フレーム列を撮影し、これらの画像列から虹彩位置と顔特徴点を抽出・追跡することにより、眼球中心と顔特徴点間の相対幾何関係を推定する。
後により詳しく説明するように、本発明の視線方向の推定装置では、眼球中心と顔特徴点間の相対関係の推定処理と眼球中心の投影位置推定とを行なう。
(顔特徴点の追跡による視線推定)
図11は、視線方向の推定装置の初期設定として行なうキャリブレーションを説明するためのフローチャートである。
まず、キャリブレーション用の画像列として、ユーザがカメラを注視しながら、顔の姿勢を変化させている画像フレーム列を撮影する(ステップS102)。
図12は、このようにしてキャリブレーションにおいて撮影された4枚の画像フレームを示す。
ここでは、より一般に、N(N≧2)枚の画像列が得られたとする。各画像フレームを、フレームI1,…Iとする。
次に、得られた各画像フレーム列に対して、上述したような方法によって顔検出部5606が顔検出処理を行ない(ステップS104)、続いて、顔領域抽出部5608が、目や鼻の検出処理を行なう(ステップS106)。
さらに、特徴点抽出部5610が特徴点の抽出・追跡を行なう(ステップS108)。なお、特徴点の抽出方法としては、上述したような方法の他に、たとえば、文献:J.Shiand C.Tomasi:“Good features to track”,Proc. CVPR94,pp.593−600(1994)で提案された手法を用いることもできる。
ここで、各画像フレームI(i=1,…,N)においてM(M≧4)点の特徴点p(j=1,…,M)が検出・追跡できたとする。画像フレームIにおける特徴点pの2次元観測位置をx (i)(太字)=[x (i),y (i)(i=1,…,N,j=1,…,M)とし、両目の虹彩中心の2次元観測位置をそれぞれx (i)(太字)=[x (i),y (i),x (i)(太字)=[x (i),y (i)(i=1,…,N)とする。ここで、行列Wを以下のように定義する。
因子分解法により、特徴点の各フレームでの2次元観測位置を縦に並べた行列W(計測行列)は以下のように分解できる。
ここで、行列M(「撮影姿勢行列)と呼ぶ)にはカメラの姿勢に関する情報のみが、行列S(「相対位置関係行列」と呼ぶ)には観測対象物の形状に関する情報のみが含まれており、顔特徴点と眼球中心との3次元的な位置の相対関係は行列Sとして求まる(ステップS110)。すなわち、正射影を仮定すると、行列Mの各要素が画像フレームでのカメラの姿勢を表す単位ベクトルであって、それぞれの大きさが1であり相互には直交するとの拘束条件のもとで、行列Wは、特異値分解により一義的に行列Mと行列Sの積に分解できることが知られている。なお、このような計測行列Wを、因子分解により、カメラの運動の情報を表す行列と対象物の形状情報を表す行列へ分解する点については、文献:金出,ポールマン,森田:因子分解法による物体形状とカメラ運動の復元”,電子通信学会論文誌D−II,J76−D−II,8,pp.1497−1505(1993)に開示がある。
(視線方向推定処理)
図13は、リアルタイムの視線方向の推定処理のフローチャートを示す。
次に、以上で得られた結果を用いて、視線方向を推定する手順について説明する。
まず、カメラ30から画像フレームを取得すると(ステップS200)、キャリブレーション時と同様にして、顔の検出および目鼻の検出が行なわれ(ステップS202)、取得された画像フレーム中の特徴点が抽出される(ステップS204)。
画像フレームIが得られたとする。ここで、眼球中心以外の特徴点のうちm点p(j=j,…,j)が、それぞれ、x (k)(太字)=[x (k),y (k)に観測されたとする。このとき、観測された特徴点について、上述したように特徴点近傍のテンプレートを用いたテンプレートマッチングを実施することで、キャリブレーション時に特定された特徴点と現画像フレーム中で観測された特徴点との対応付けが行なわれて、現画像フレーム中の特徴点が特定される(ステップS206)。
なお、上述のとおり、特徴点を特定するためのテンプレートは、キャリブレーションの時のものに限定されず、たとえば、最近の画像フレームの所定枚数について検出された特徴点の近傍の所定の大きさの領域内の画像を所定個数だけ保持しておき、これら所定枚数のテンプレートについてマッチングをした結果、もっとも一致度の高い特徴点に特定することとしてもよい。
顔特徴点pの2次元観測位置x (k)(太字)=[x (k),y (k)とキャリブレーションより求まった3次元位置s(太字)=[X,Y,Z(j=1,…,M)の間には、M個の特徴点のうち観測されたm個の特徴点について注目すると、次式の関係が得られる。
ただし、行列P(k)は2×3の行列である。右辺の第2項の行列S(k)は行列Sのうち、観測された特徴点に対応する要素のみからなる部分行列である。上述の通り、カメラと顔は十分に離れているとし正射影を仮定している。ここで、4点以上の特徴点が観測されれば、行列P(k)は以下のように計算できる(ステップS208)。
画像フレームIにおける眼球中心の投影位置x (i)(太字),x (i)(太字)は、行列P(k)を用いて以下のように計算できる(ステップS210)。
したがって、画像フレームIにおいて特徴点として抽出した虹彩中心の投影位置とこの眼球中心の投影位置を用いると、視線の推定を行なうことができる(ステップS212)。
なお、行列PをQR分解により分解することで、顔の姿勢Rが、以下のように計算できる。
ただしr、rはそれぞれ1×3のベクトルである。このような顔の姿勢Rの検出については、文献:L.Quan:“Self-calibration of an affine camera from multiple views”,Int’l Journal of Computer Vision,19,pp.93−105(1996)に開示がある。
ユーザ等の指示により追跡が終了していると判断されれば(ステップS214)、処理は終了し、終了が指示されていなければ、処理はステップS202に復帰する。
(実 験)
以上説明した視線方向の推定装置の有効性を確認するため、実画像を用いた実験を行なった結果について以下に説明する。
カメラはElmo社製PTC−400Cを用い、被験者から約150[cm]の位置に設置した。
まず、50フレームの画像列を用いて、眼球中心と顔特徴点のキャリブレーションを行なった。キャリブレーション用の画像フレーム列と抽出した特徴点の例は、図12に示したとおりである。
キャリブレーション用画像フレーム列の撮影に要した時間は約3秒であった。(+印は抽出された虹彩中心(眼球中心))、×印は追跡した顔特徴点)。
次に、キャリブレーションにより求まった顔モデル(行列S)を用いて、視線推定を行なった。ここで、被験者はそれぞれ右上、上、左下の方向を注視しながら、顔の位置・向きを変化させた。
図14〜図16は、視線推定結果を示す。図14は、右上方注視の状態であり、図15は、上方注視の状態であり、図16は、左下方向注視の状態である。ここで、視線方向は両目それぞれで計算された視線方向の平均値としている。結果より、顔の位置・向きの変化とは関係なく、視線方向が推定できていることがわかる。
以上説明したとおり、実施の形態1の視線方向の推定装置では、単眼カメラの観測に基づいて顔特徴点を検出・追跡することにより視線方向を推定する。本発明の視線方向の推定装置では、まずキャリブレーションとして視線がカメラ方向を向いたまま顔の向きのみが異なる画像列から得られる虹彩位置と顔特徴点を利用することで、眼球中心と顔特徴点の関係をモデル化し(行列Sを特定し)、その後、その関係に基づいて推定された入力画像中の眼球中心位置と虹彩位置の関係から視線方向を決定する。
実施の形態1の視線方向の推定装置は、単眼カメラによるパッシブな観測画像から視線方向を推定するため、顔位置が検出可能で光学的に十分なズーム比を得ることができれば、推定処理は観測距離の制約を受けない。これにより従来の視線推定装置では実現が難しかった遠方にいる人物に対する視線方向推定が可能になる。
[実施の形態2]
実施の形態1の視線方向の推定装置においては、図11において説明したとおり、まず、キャリブレーション用の画像列として、ユーザがカメラを注視しながら、顔の姿勢を変化させている画像フレーム列を撮影していた。
実施の形態2の視線方向の推定装置においては、以下に説明するとおり、ユーザが必ずしもカメラを注視していない状態の画像列を用いて、キャリブレーションを行なうことが可能である。したがって、視線方向推定の被験者(被推定者)の、自然な状態での画像の撮影のみで、視線方向の推定を開始でき、被推定者への負担を低減できる。
なお、キャリブレーション後の視線方向の推定処理自体は、実施の形態2の視線方向の推定装置の動作は、実施の形態1の視線方向の推定装置の動作と同様である。
(キャリブレーション処理)
図17は、実施の形態2の視線方向の推定装置の初期設定として行なうキャリブレーションを説明するためのフローチャートである。
まず、キャリブレーション用の画像列として、ユーザが自由な方向を向き、顔の姿勢を変化させて画像列を取得する(ステップS302)。
(顔3次元モデルの生成)
以下の手続きにより、顔3次元モデルを生成する。
ここでは、N(N≧2)枚の画像列が得られたとする。各画像フレームを、フレームI1,…Iとする。
次に、得られた各画像フレーム列に対して、実施の形態1と同様な方法によって顔検出部5606が顔検出処理を行ない(ステップS304)、続いて、顔領域抽出部5608が、目や鼻、虹彩の検出処理を行なう(ステップS306)。
さらに、特徴点抽出部5610が特徴点の抽出・追跡を行なう(ステップS308)。なお、特徴点の抽出方法も、実施の形態1と同様とする。
ここで、各画像フレームI(i=1,…,N)においてM(M≧4)点の特徴点p(j=1,…,M)が検出・追跡できたとする。画像フレームIにおける特徴点pの2次元観測位置をx (i)(太字)=[x (i),y (i)(i=1,…,N,j=1,…,M)とする。
画像Iにおける特徴点pの2次元観測位置を以下のとおりとする。
画像Iにおける特徴点の重心を以下の記号(12)で表す。
同様にして、各観測位置を重心からの相対位置として、以下の記号(13)で表す。
したがって、以下の式(14)および式(15)の関係が成り立つ。
このとき、相対観測位を並べた行列Wは、実施の形態1と同様にして、因子分解法により以下の式(16)(17)のように分解できる。ここで、カメラと顔は十分に離れているとし、弱透視変換を仮定している。
実施の形態1と同様に、行列M(「撮影姿勢行列」)にはカメラの姿勢変化に関する情報が、行列S(「相対位置関係行列」)には観測対象物の形状に関する情報が含まれており、顔特徴点間の相対関係は行列Sとして求められる(ステップS310)。
次に、画像Iが得られ、M個の特徴点のうちp個がそれぞれ以下のように観測されたとする。
ここで、特徴点の重心位置を以下の記号(18)で表す。
このとき、カメラの姿勢変化を表す行列mおよび式(18)で表される特徴点の重心位置は、以下の式(19)のようにして求められる。
ただし、行列mは2×3の行列、[]は疑似逆行列を示す。
さらに、行列mを式(20)のようにQR分解することで、画像Iにおける顔の姿勢R、位置tが以下の式(21)のように計算できる。
ただし、以下の式(22)のsはスケールファクタを表す。
なお、上記の式(20)に含まれるakは画像面の傾きを表わし、通常は0(ゼロ)とみなされる。
したがって、以下では、被験者の顔は、正規化された大きさを有するものとして扱うことができ、被験者とカメラの距離による画像中の顔の大きさの変化を考慮する必要がない。
さらに、後に詳しく説明する手順により、眼球モデルパラメータ(眼球中心位置、眼球半径、虹彩半径、画像上における虹彩位置)の推定を行なう(ステップS312)。
(眼球モデルパラメータの推定)
以下では、眼球モデルパラメータの推定処理について、さらに詳しく説明する。なお、以下の処理は、眼球中心推定部5616が行なうものである。
視線方向を推定するには、前節で求められた顔座標系における眼球中心位置X{LR}(なお、以下では、下付文字{LR}は、左を意味するl、右を意味するrを総称するものとして使用する)、および眼球半径l、画像上における虹彩位置x{LR},kを求める必要がある。
入力画像において虹彩位置を効率的に決定するためには、さらに予め虹彩半径rを得ておくことが望ましい。
(眼球3次元モデルの生成)
図18は、眼球モデルパラメータの推定処理の手続きを示す図である。
以下では、図18を用いて、上述したキャリブレーションで用いたNフレームの画像列を用いてこれらのパラメータを推定する処理について説明する。
(ステップ1:眼球中心位置初期値の算出)
まず、各フレームの顔位置・姿勢t,R、位置t、スケールファクタsおよびステップS306で求めた虹彩位置から、RANSACを利用して大まかな眼球中心位置を推定する。
(RANSAC:Random sample consensus)
以下で説明するRANSAC処理は、外れ値を含むデータから安定にモデルパラメータを定めるための処理であり、これについては、たとえば、以下の文献に記載されているので、その処理の概略を説明するにとどめる。
文献:M.A.Fischler and R.C.Bolles:” Random sample consensus: A paradigm for model fitting with applications to image analysis and automated cartography,”Comm. Of the ACM, Vol.24, pp.381-395,1981
文献:大江統子、佐藤智和、横矢直和:“画像徳著点によるランドマークデータベースに基づくカメラ位置・姿勢推定”、画像の認識・理解シンポジウム(MIRU2005)2005年7月
RANSACにより観測データから眼球中心位置X,X(初期値)を計算する手順 式(19)より、フレームkにおけるカメラ幾何を表す行列mおよび式(18)で表される特徴点の重心位置を得る。
ここで行列mには、式(20),(21)で示したように、フレームkにおけるカメラの位置・姿勢および撮影像のスケールファクタの情報が含まれる。
画像から観測されるiフレーム目の画像における虹彩中心位置を以下の式(23)とする。
ランダムにq個のフレームf,f,…,fが選択されたとすると、それらの観測データから眼球中心位置は次式(24)により計算できる。
得られた眼球中心位置を入力画像i(i=1,…,N)上に再投影し、以下の式(25)で表される虹彩中心とのずれeを評価する。
図19は、このような再投影とずれの関係を示す概念図である。
眼球中心の再投影位置と虹彩中心位置は、眼球の回転によって最大でslのずれが生じ得るため、ずれ|e|がsl以下であれば、以下の式(26)のとおり誤差ゼロとみなす(lは眼球半径、sはスケールファクタ)。
誤差eが一定値以下となるフレームが既定数以上あれば、それらのデータを利用して式(24)により眼球中心位置を再度計算し、式(26)により利用したフレームのデータに関する誤差を評価する。
以上の処理を複数回行ない、誤差の総計がもっとも小さくなるときの眼球中心位置を出力値とする。
(ステップ2:眼球モデルパラメータの推定)
得られた眼球中心位置を初期値として、入力画像群に対して眼球モデルを当てはめ最適なモデルパラメータを推定する。ここで、入力画像から目の周辺領域を切り出し、色および輝度情報をもとに、以下の式(27)に従って、虹彩(黒目)、白目、肌領域の3種類にラベル付けを行なう。
ここで、hs,kは、肌領域のk番目の画素の色相(hue)の値を表わす。hi,jは、入力画像中の画素i,jの色相の値を表わす。vs,kは、入力画像中の画素i,jの明度の値を表わす。
図20は、このようなラベリング処理例を示す図である。
続いて各画素が虹彩モデルの内側にあるかどうかをチェックし、眼球モデルとの照合度を評価する(非線形最適化)。
図21は、このような虹彩とモデルとの照合処理の概念を示す図である。
このような非線形最適化処理を行なうにあたり、以下の距離d{LR},i,jを導入する。
一方、r{LR},i,jは虹彩中心から画素i,j(フレームiのj番目の画素)方向の虹彩半径を示すとすると、図21に示すとおり、画素i,jが虹彩の外側にあれば、d{LR},i,jは、r{LR},i,jよりも大きな値を示す。
{LR},i,jは、以下の式(29)に示すように、眼球中心位置、虹彩位置、眼球半径、虹彩半径の関数となる。
なお、顔の相対座標を正規化して考えているので、本来は、眼球中心位置は、フレームに拘わらず、一定の位置に存在するはずである。
最後に、眼周辺の全画素についてd{LR},i,jの評価を行ない、入力画像群に尤もよく当てはまる以下の式(30)のモデルパラメータθを、式(31)に従って決定する。
ここで、gi,j{LR}は、フレームi、画素jにおけるd{LR},i,jの評価値であり、対象画素が虹彩領域か白目領域かによって、以下の式に従い、符合を反転させる。
ラベリングuijが撮影された画像内の虹彩領域を反映し、関数Gi,j{LR}は、眼球モデルから算出される虹彩領域を反映している。
以上の処理により、ユーザが自由な方向を向いた状態の画像でキャリブレーションを行なうことができ、かつ、眼球モデルパラメータも決定できることになる。
以下、視線方向の推定処理の手続きについては、実施の形態1と同様である。
(視線方向の推定)
すなわち、視線方向は眼球中心と虹彩中心を結ぶ3次元直線として与えられるものとしてモデル化する。画像上での眼球半径をl、画像上での眼球中心と虹彩中心とのx軸方向、y軸方向の距離をdx、dyとすると、視線方向とカメラ光軸とのなす角、つまり、視線方向を向くベクトルがx軸およびy軸との成す角ψx、ψyは次式で表される。
以上のような実施の形態2の視線方向の推定装置、推定方法によっても、視線方向の推定について実施の形態1と同様の効果を奏することが可能である。
(実験結果)
以上説明した手法の有効性を確認するため、実画像を用いた実験を行なった。まず、50フレームの画像列を用いて、顔の位置・姿勢変化および眼球モデルパラメータのキャリブレーションを行なった。キャリブレーション用画像列の撮影に要した時間は約2秒であり、このときに得られた眼球半径および虹彩半径はそれぞれ11.21画素、6.27画素であった。
図22は、キャリブレーションにより得られた顔モデルを用いて、視線推定を行なった結果を示す図である。ここで、被験者はそれぞれ右、正面、左の方向を注視しながら、顔の位置・向きを変化させている(白×印は眼球中心の投影位置推定値)。ここで、視線方向は両目それぞれで計算された視線方向の平均値としている。結果より、顔の位置・向き変化がある場合でも提案手法により視線方向が推定できていることがわかる。
[実施の形態3]
実施の形態1および実施の形態2においては、まず、眼球モデルパラメータの推定処理を、たとえば、Nフレームの画像列を用いて行なってから、視線方向の推定処理に移っていた。このとき、視線方向の推定処理においては、虹彩中心を求めるために、たとえば、ハフ変換を用いた処理を行なうこととしていた。
たとえば、実施の形態2においては、図18において説明したとおり、眼球モデルパラメータの推定処理において、まず、ステップ1として、「眼球中心の初期値の算出」を行ない、次に、ステップ2として、「眼球モデルパラメータの推定」を非線形最適化処理により行なっていた。
実施の形態3においては、さらに、視線方向の推定処理においても、虹彩中心位置を求めるために、「非線形最適化処理」を行なう例について説明する。
そこで、視線方向の推定処理での非線形最適化処理について説明する前提として、まずは、眼球モデルパラメータの推定における「非線形最適化処理」について、もう一度簡単にまとめる。
図23は、このような眼球モデルパラメータの推定における「非線形最適化処理」を説明するための概念図である。
図23を参照して、Nフレームの画像列を用いて、たとえば、実施の形態2と同様にして、ステップ1として、RANSACを用いて、「眼球中心位置初期値の算出」を行なう。なお、眼球中心位置初期値としては、このようにして求めた値を用いることに限定されず、たとえば、解剖学的な知見から得られた平均的な値を用いることも可能である。
続いて、ステップ2として、得られた眼球中心位置を初期値として、入力画像群に対して眼球モデルを当てはめ最適なモデルパラメータを、逐次推定する。
フレーム1〜フレームNについて、目の周辺領域を切り出し、色および輝度情報をもとに、前述した式(27)に従って、虹彩(黒目)、白目、肌領域の3種類にラベル付けを行なう。
続いて、各画素が虹彩モデルの内側にあるかどうかをチェックし、眼球モデルとの照合度を評価する(非線形最適化)。
すなわち、現時点のステップでのモデルパラメータに対応する、虹彩中心から画素i,j(フレームiのj番目の画素)方向の虹彩半径r{LR},i,jを用いて、式(28)で表される距離d{LR},i,jを評価する。
この評価では、上述した式(30)(31)を用いて、眼球モデルパラメータ(眼球半径、虹彩半径、眼球中心位置)を更新しつつ、眼球中心を再投影した画像とラベル付けされたフレームとを照合する処理を繰り返すことで、式(31)を満たすようにモデルパラメータθを決定する。
(非線形最適化を用いた視線方向推定)
以上のようにして、モデルパラメータが決定された後に、新たに観測される入力画像について、ここまでで得られた顔・眼球の3次元モデルを利用して、視線方向を推定する。
図24は、このような視線推定のために虹彩中位置を決定する処理を示す概念図である。ここで、このような虹彩中心位置の決定は、図13で説明される視線方向推定処理のうち、ステップS212で行なわれる処理に対応する。
時刻tにおける画像It(フレームt)に対し、まず顔特徴点の追跡を行なう。顔特徴点がx (t)(太字),…,x (t)(太字)の位置にそれぞれ観測されたとする。
ここで、上述した式(8)(9)の行列P(k)(太字)は4点以上の顔特徴点が観測されれば計算できる。よって画像Itにおける行列P(t)(太字)と眼球中心の3次元位置X{LR}(太字)を用いて、画像Itにおける両目の眼球中心位置(2次元)xe{LR}(太字)は、以下のようにして計算できる。
続いて、虹彩中心位置を推定する。上で求まった眼球中心位置をもとに目周辺領域を切り出し、眼球モデルパラメータの推定時と同様に、図20で説明したように以下の式にしたがって、色および輝度情報をもとに虹彩(黒目)、白目、肌領域の3種類にラベル付けを行なう。
続いて、やはり、図21で説明した眼球モデルパラメータの推定時と同様に、以下の距離d{LR},i,jを用いて、各画素が虹彩モデルの内側にあるかどうかをチェックし、眼球モデルとの照合度を評価する。
ここで、r{LR},t,jは、虹彩中心から画像Itの画素j方向の虹彩半径を示しており、画像Itにおいて画素jが虹彩の外側にあれば、d{LR},t,jは正の値を示す。
{LR},t,jは、眼球中心位置、虹彩位置、眼球半径、虹彩半径の関数となるが、眼球中心位置、眼球半径、虹彩半径は、眼球モデルパラメータとして既に得られている。
したがって、r{LR},t,jは、虹彩位置x{LR},t(太字)の関数と見なすことができるので、以下のように表現できる。
よって、眼周辺の全画素についてd{LR},t,jの評価を行ない、画像Itに尤もよく当てはまるパラメータθ=[xL,t(太字),xR,t(太字)]を、非線形最適化の手続きで決定することで、虹彩中心位置が計算できる。この非線形最適化の手続きにあたっては、以下の式について最適化を行なう。
ここで、gt,j{LR}は、画像It、画素jにおけるd{LR},t,jの評価値であり、対象画素が虹彩領域か白目領域かによって、以下の式に従い、符合を反転させる。
最後に、以上で求まった眼球中心位置と虹彩中心位置より視線方向を計算する。画像上での眼球半径をl、画像上での眼球中心と虹彩中心とのx軸方向、y軸方向の距離をdx、dyとすると、視線方向とカメラ光軸とのなす角、つまり、視線方向を向くベクトルがx軸およびy軸との成す角ψx、ψyは次式で表される。
ただし、画像上での眼球半径lは3次元眼球半径と行列P(t)から計算できる。
以上のような処理により、視線方向の推定処理において、虹彩位置を各フレームにおいて、非線形最適化により求めることとしたので、より高精度に視線方向の推定を行なうことが可能となる。
[実施の形態4]
実施の形態2および実施の形態3においては、眼球モデルパラメータの推定処理については、既に述べた複数フレーム画像を入力としたRANSACによる初期値推定と非線形最適化の組合せを用いていた。
しかし、実施の形態4では、実施の形態2または実施の形態3の構成において、「眼球モデルパラメータの推定処理」を、以下に説明するような「逐次型眼球モデル推定」の処理に置き換える。
図25は、このような眼球モデルパラメータの推定処理を「逐次型眼球モデル推定」の処理に置き換えた場合の処理の流れを説明する概念図である。なお、実施の形態4でも、キャリブレーション処理において、顔3次元モデルの生成処理が、複数枚の画像に基づいてなされているものとする。
すなわち、実施の形態4の眼球モデルパラメータの推定処理については、既に述べた複数フレーム画像を入力としたRANSACによる初期値推定と非線形最適化の組合せではなく、平均的なモデルパラメータを初期値とした逐次型のアルゴリズムを用いることもできる。
図25を参照して、このアルゴリズムの実装例について説明している。まずアルゴリズムの開始時点では、被験者実験により対象ユーザの平均値を求めておく等の方法で得た眼球位置X (太字)、X (太字)、大きさ眼球半径l、虹彩半径rを初期パラメータとして、眼球モデルパラメータをたとえばハードディスク54に保持している。
CPU56は、第1フレームに対するラベリング結果および顔姿勢を入力として、初期パラメータを出発点として、実施の形態3で説明した視線方向推定の処理と同様の非線形最適化処理によって眼球モデルパラメータX (太字)、X (太字)、大きさ眼球半径l、虹彩半径rおよび第1フレームにおける虹彩中心位置xL,1(太字),xr,1(太字)を得て、たとえば、ハードディスク54に格納する。得られた虹彩中心位置および眼球中心位置から第1フレームにおける視線方向を計算することができる。
次フレーム以降の処理においては、前フレームで得られたモデルパラメータを初期値とし、新たに得られる入力データを加えて非線形最適化処理を行なうことでモデルパラメータの更新および当該フレームにおける虹彩中心位置の推定を行なうことができる。
このような処理を行なうと、Nフレームの画像を取得して、キャリブレーション処理により、顔3次元モデルの生成した後、さらに、眼球モデルパラメータの推定処理の終了を待ってから、視線の推定処理を開始する場合に比べて、視線方向の推定処理を短時間で開始できるという利点がある。
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
20 視線方向の推定装置、30 カメラ、40 コンピュータ本体、42 モニタ、5602 画像キャプチャ処理部、5604 画像データ記録処理部、5606 顔検出部、5608 顔領域抽出部、5610 特徴点抽出部、5612 虹彩中心抽出部、5614 相対関係特定部、5616 眼球中心推定部、5618 視線方向推定部、5630 表示制御部。

Claims (7)

  1. 視線推定の対象となる人間の顔領域を含む対象画像領域内の各画素に対応する画像を、時間軸で連続する複数の画像フレームとして撮影して獲得するための単眼の撮像手段と、
    前記撮像手段により撮影された前記複数の画像フレームに基づき、前記顔領域内の複数の特徴点を抽出する特徴点抽出手段と、
    前記複数の画像フレームのうち前記対象となる人間についての視線の推定を行う推定処理の対象の画像フレーム以前の前記画像フレームにおいて、前記人間の眼球中心の3次元の位置である眼球中心位置を、前記推定処理の対象の画像フレームにおける推定初期位置として使用するために事前に特定する推定初期位置特定手段とを備え、
    前記推定初期位置特定手段は、前記推定処理の対象の画像フレーム以前の前記画像フレームにおいて、前記対象となる人間の顔3次元モデルに基づいて、前記抽出された特徴点間の相対的な3次元の位置関係を特定し、虹彩中心の投影位置の関数として虹彩が投影される領域と、撮影された画像の目の周辺領域から得られる虹彩領域とが最もフィットするように、前記相対的な3次元の位置関係において前記推定初期位置を特定し、
    前記推定処理の対象の画像フレームにおいて、予め特定された前記相対的な3次元の位置関係を用いて、前記推定初期位置に基づき、前記眼球中心位置の推定処理を実行する眼球中心推定手段と、
    前記推定処理の対象の前記画像フレームの画像領域内において、虹彩の領域と前記虹彩の形状のモデルとを照合することで、虹彩中心が前記画像に投影される虹彩中心位置を抽出する虹彩中心抽出手段と、
    前記推定処理の対象の前記画像フレームの画像において抽出された前記虹彩中心位置と前記眼球中心の位置とに基づき、前記眼球中心と前記虹彩中心とを結ぶ3次元直線の方向として、視線方向を推定する視線推定手段とをさらに備える、視線方向の推定装置。
  2. 前記推定初期位置特定手段は、
    前記視線推定の対象となる人間が、前記撮像手段を注視していない状態の画像フレームに基づき、前記顔3次元モデルを生成する顔モデル生成手段を含み、
    前記顔モデル生成手段は、前記特徴点抽出手段により抽出された眼球中心以外の特徴点間の相対的な位置関係を特定し、複数の画像フレームの各々における虹彩中心位置と前記撮像手段の姿勢情報とから、正規化された顔座標における眼球中心位置の初期位置を特定して、校正用画像の目の周辺領域から、虹彩、白目、肌領域を判別して、眼球中心位置、虹彩位置、眼球半径、虹彩半径が、判別結果にフィットするように特定することで、前記顔3次元モデルを生成する、請求項1記載の視線方向の推定装置。
  3. 前記虹彩中心抽出手段は、
    前記特徴点抽出手段により特定された前記特徴点に対して、校正時に特定されている眼球3次元モデルに基づき、前記特徴点から求まる射影行列により、前記眼球中心位置の画像への投影位置を求め、前記眼球3次元モデルにより、前記虹彩中心の投影位置の関数として虹彩が投影される領域と、撮影された画像の目の周辺領域から得られる虹彩領域とが最もフィットするように虹彩中心位置を特定し、
    前記視線推定手段は、前記虹彩中心抽出手段により特定された前記虹彩中心位置および前記眼球中心位置により視線を推定する、請求項2記載の視線方向の推定装置。
  4. 前記推定初期位置特定手段は、
    前記視線推定の対象となる人間以外の複数の被験者について、事前に、前記顔3次元モデルの生成を行い、予め複数の前記被験者について求めた平均値として、顔座標における眼球中心位置の初期位置を特定する、請求項1記載の視線方向の推定装置。
  5. 前記虹彩中心抽出手段は、
    前記特徴点抽出手段により特定された前記特徴点に対して、上記初期位置を始めとして、現在のフレームよりも、前のフレームまでの非線形最適化処理により、各フレームごとに、眼球3次元モデルにより、虹彩中心の投影位置の関数として虹彩が投影される領域と、撮影された画像の目の周辺領域から得られる虹彩領域とが最もフィットするように、虹彩中心位置および眼球中心位置を特定し、
    前記視線推定手段は、前記虹彩中心抽出手段により特定された前記虹彩中心位置および前記眼球中心位置により視線を推定する、請求項4記載の視線方向の推定装置。
  6. 前記推定初期位置特定手段は、
    前記特徴点抽出手段により抽出された複数の前記特徴点について、前記顔領域内での前記複数の特徴点の間の相対的な3次元の位置関係を特定する相対関係特定手段を含み、
    前記相対関係特定手段は、
    複数の較正用画像内の前記複数の特徴点の投影位置を抽出し、前記複数の特徴点の投影位置を要素として並べた計測行列を算出する計測行列算出手段と、
    前記計測行列を因子分解により、前記撮像手段の姿勢に関する情報を要素とする撮影姿勢行列と、前記複数の特徴点間の相対的な3次元の位置関に関する情報を要素とする相対位置関係行列とに分解する因子分解手段とを含む、請求項1記載の視線方向の推定装置。
  7. 前記眼球中心推定手段は、
    撮影された画像フレーム内において観測された前記特徴点と前記較正用画像における特徴点との対応付けを行なう特徴点特定手段と、
    前記撮影された画像フレーム内において観測された前記特徴点についての前記相対位置関係行列の部分行列と、前記観測された特徴点とから前記眼球中心の投影位置を推定する、請求項6記載の視線方向の推定装置。
JP2010277181A 2006-07-18 2010-12-13 視線方向の推定装置、視線方向の推定方法およびコンピュータに当該視線方向の推定方法を実行させるためのプログラム Active JP4936491B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010277181A JP4936491B2 (ja) 2006-07-18 2010-12-13 視線方向の推定装置、視線方向の推定方法およびコンピュータに当該視線方向の推定方法を実行させるためのプログラム

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2006195871 2006-07-18
JP2006195871 2006-07-18
JP2006254531 2006-09-20
JP2006254531 2006-09-20
JP2010277181A JP4936491B2 (ja) 2006-07-18 2010-12-13 視線方向の推定装置、視線方向の推定方法およびコンピュータに当該視線方向の推定方法を実行させるためのプログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2007185996A Division JP4692526B2 (ja) 2006-07-18 2007-07-17 視線方向の推定装置、視線方向の推定方法およびコンピュータに当該視線方向の推定方法を実行させるためのプログラム

Publications (3)

Publication Number Publication Date
JP2011090702A JP2011090702A (ja) 2011-05-06
JP2011090702A5 JP2011090702A5 (ja) 2011-11-10
JP4936491B2 true JP4936491B2 (ja) 2012-05-23

Family

ID=44108837

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010277181A Active JP4936491B2 (ja) 2006-07-18 2010-12-13 視線方向の推定装置、視線方向の推定方法およびコンピュータに当該視線方向の推定方法を実行させるためのプログラム

Country Status (1)

Country Link
JP (1) JP4936491B2 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5602708B2 (ja) 2011-11-09 2014-10-08 楽天株式会社 注視位置推定システム、注視位置推定システムの制御方法、注視位置推定装置、注視位置推定装置の制御方法、プログラム、及び情報記憶媒体
KR101348903B1 (ko) * 2012-06-29 2014-01-07 한국과학기술원 시선 추적용 기하광학에 기반한 각막 반경 측정 알고리즘을 이용한 각막 반경 측정 장치 및 방법
JP6303297B2 (ja) 2013-06-14 2018-04-04 富士通株式会社 端末装置、視線検出プログラムおよび視線検出方法
CN105930821B (zh) * 2016-05-10 2024-02-02 上海青研科技有限公司 一种人眼识别跟踪的方法及将其应用于裸眼3d显示的装置
JP6908339B2 (ja) * 2017-04-24 2021-07-28 アルパイン株式会社 視線検知装置、視線検知プログラムおよび視線検知方法
CN110286754B (zh) * 2019-06-11 2022-06-24 Oppo广东移动通信有限公司 基于眼球追踪的投射方法及相关设备
CN110458122B (zh) * 2019-08-15 2022-04-22 京东方科技集团股份有限公司 一种视线标校方法、显示装置的播放方法和视线标校***
CN110794963A (zh) * 2019-10-18 2020-02-14 天津理工大学 基于深度相机的眼控辅助输入方法
CN112800966B (zh) * 2021-01-29 2023-03-10 展讯通信(天津)有限公司 一种视线的追踪方法及电子设备

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AUPQ896000A0 (en) * 2000-07-24 2000-08-17 Seeing Machines Pty Ltd Facial image processing system
JP2002274265A (ja) * 2001-03-22 2002-09-25 Honda Motor Co Ltd ミラー調整装置
JP3822483B2 (ja) * 2001-10-31 2006-09-20 株式会社東芝 物体向き計算装置及びその方法

Also Published As

Publication number Publication date
JP2011090702A (ja) 2011-05-06

Similar Documents

Publication Publication Date Title
JP4692526B2 (ja) 視線方向の推定装置、視線方向の推定方法およびコンピュータに当該視線方向の推定方法を実行させるためのプログラム
JP4936491B2 (ja) 視線方向の推定装置、視線方向の推定方法およびコンピュータに当該視線方向の推定方法を実行させるためのプログラム
Wechsler Reliable Face Recognition Methods: System Design, Impementation and Evaluation
CN107004275B (zh) 确定实物至少一部分的3d重构件空间坐标的方法和***
JP5016175B2 (ja) 顔画像処理システム
US7876931B2 (en) Face recognition system and method
JP5828167B2 (ja) 視線方向の推定装置、視線方向の推定方法およびコンピュータに当該視線方向の推定方法を実行させるためのプログラム
Nishino et al. The world in an eye [eye image interpretation]
JP4284664B2 (ja) 三次元形状推定システム及び画像生成システム
EP1833004B1 (en) Apparatus for detecting feature point and method of detecting feature point
EP4383193A1 (en) Line-of-sight direction tracking method and apparatus
CN108875485A (zh) 一种底图录入方法、装置及***
JP6191943B2 (ja) 視線方向推定装置、視線方向推定装置および視線方向推定プログラム
US20220100268A1 (en) Eye tracking device and a method thereof
CN110913751A (zh) 具有滑动检测和校正功能的可穿戴眼睛跟踪***
CN109670390A (zh) 活体面部识别方法与***
CN115482574B (zh) 基于深度学习的屏幕注视点估计方法、装置、介质及设备
Niese et al. A Novel Method for 3D Face Detection and Normalization.
JP4682372B2 (ja) 視線方向の検出装置、視線方向の検出方法およびコンピュータに当該視線方向の検出方法を実行させるためのプログラム
Nitschke Image-based eye pose and reflection analysis for advanced interaction techniques and scene understanding
Jiménez et al. Face tracking and pose estimation with automatic three-dimensional model construction
JP5688514B2 (ja) 視線計測システム、方法およびプログラム
JPH11283040A (ja) 操作制御装置および動作解析プログラムを記録したコンピュ―タ読み取り可能な記録媒体
JP4687097B2 (ja) 視線方向の推定装置、視線方向の推定方法およびコンピュータに当該視線方向の推定方法を実行させるためのプログラム
JP7103443B2 (ja) 情報処理装置、情報処理方法、およびプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110915

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120207

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120217

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150302

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4936491

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250