JP2016173313A - 視線方向推定システム、視線方向推定方法及び視線方向推定プログラム - Google Patents
視線方向推定システム、視線方向推定方法及び視線方向推定プログラム Download PDFInfo
- Publication number
- JP2016173313A JP2016173313A JP2015053745A JP2015053745A JP2016173313A JP 2016173313 A JP2016173313 A JP 2016173313A JP 2015053745 A JP2015053745 A JP 2015053745A JP 2015053745 A JP2015053745 A JP 2015053745A JP 2016173313 A JP2016173313 A JP 2016173313A
- Authority
- JP
- Japan
- Prior art keywords
- coordinate system
- subject
- camera
- iris
- direction estimation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
Abstract
【課題】演算処理の負荷を低減して視線方向を推定可能な視線方向推定システム、視線方向推定方法及び視線方向推定プログラムを提供する。【解決手段】視線方向推定システム1は、撮影対象の2次元画像及び距離画像を取得するカメラ10と視線方向推定装置30とを備え、視線方向推定装置30は、顔の2次元画像及び距離画像を利用して座標系を設定する座標系設定部31と、視線方向推定部32を備える。視線方向推定部32は、眼球モデルに基づいた虹彩の3次元的な輪郭を画像平面に投影した虹彩の輪郭を、被撮影対象者の顔の2次元画像から抽出される虹彩の輪郭にフィティングすることによって第1及び第2回転角を算出し、算出された第1及び第2回転角並びに眼球モデルに基づいて決定される被撮影対象者の瞳孔中心と、第3の座標系の原点とから算出される光学軸に基づいて被撮影対象者の視線方向を推定する。【選択図】図4
Description
本発明は、視線方向推定システム、視線方向推定方法及び視線方向推定プログラムに関する。
人間の視線方向を推定することは、例えば、車の運転手の行動解析、セキュリティモニタリング、人間の行動研究及び人間とコンピュータとのインターフェース等において重要である。視線方向推定の従来技術として、近年、撮影対象の2次元画像と、撮影対象までの距離情報を含む距離画像とを取得可能なRGB−Dカメラが利用されてきている。RGB−Dカメラの例はマイクロソフト社製のKinect(登録商標)である。例えば、被特許文献1では、Kinectからの撮影画像情報と、眼球モデルとを利用して視線方向を推定している。そして、特許文献1では、視線方向の推定誤差が平均約10°程度と報告されている。更に、特許文献2では、Kinectからの撮影画像情報及び眼球モデルの組み合わせに、更に学習プロセスを組み合わせることによって、視線方向の推定誤差が平均約3.4°程度と報告されている。
J. Li, S. Li, "Eye-Model-Based Gaze Estimation by RGB-D Camera,"Computer Vision and Pattern Recognition Workshops, pp. 592-596, 2014
K. A. F Mora, J. Odobez, "Geometric Generative Gaze Estimation forRemote RGB-D Cameras," In Proceedings of IEEE Conference on Computer Vision andPattern Recognition (CVPR 2014), pp. 1773-1780, 2014.
しかしながら、例えば、非特許文献2記載の技術では、学習プロセスを含むため演算処理が多くなり、演算処理の負荷が大きくなると考えられる。
そこで、本発明は、視線方向の推定に要する演算処理の負荷を低減可能な手段を提供することを目的とする。
本発明に係る視線方向推定システムは、被撮影対象者の視線方向を推定する視線方向推定システムであって、撮影対象の2次元画像及び撮影対象までの距離情報を含む距離画像を取得するカメラと、カメラで撮影された被撮影対象者の顔の2次元画像及び距離画像に基づいて、被撮影対象者の視線方向を推定する視線方向推定装置と、を備える。視線方向推定装置は、顔の2次元画像及び距離画像からカメラの第1の座標系に対する被撮影対象者の頭部の姿勢情報を算出して第2の座標系を設定すると共に、第2の座標系を並進移動して表される被撮影対象者の眼球の中心を原点とする眼球の第3の座標系、第3の座標系の原点を原点とし、第3の座標系に対する水平方向の回転角である第1回転角及び鉛直方向の回転角である第2回転角で表される被撮影対象者の虹彩の第4の座標系を設定する座標系設定部と、眼球モデルに基づいた、カメラを介して第4の座標系における虹彩の3次元的な輪郭を第1の座標系における画像平面に投影したとした場合の虹彩の輪郭を、被撮影対象者の顔の2次元画像から抽出される虹彩の輪郭にフィティングすることによって、第1及び第2回転角を算出し、算出された第1及び第2回転角並びに眼球モデルに基づいて決定される被撮影対象者の瞳孔中心と、第3の座標系の原点とから算出される光学軸に基づいて被撮影対象者の視線方向を推定する視線方向推定部と、を有する。
上記構成では、撮影対象としての被撮影対象者の顔をカメラで撮影することにより、被撮影対象者の顔の2次元画像及び顔までの距離画像を得ることができる。そのようにして取得された2次元画像及び距離画像を利用して撮影対象者の頭部の姿勢情報を算出できることから、座標系設定部は、第1の座標系に対して第2の座標系を設定できる。この第2の座標系が設定されると、それを並進移動させた座標系として第3の座標系を設定できる。第3の座標系は、第2の座標系に対して固定されているので、被撮影対象者に対して第2及び第3の座標系の変換を示す並進ベクトルを規定しておけば、第1〜第3の座標系を相互に変換できる。更に、眼の虹彩に対する座標系である第4の座標系は、眼の構造上、第3の座標系に対して上記第1及び第2回転角で表される。視線方向が移動する際、虹彩も移動しているので、第1及び第2回転角は、視線方向を推定する際のパラメータとなるものである。
座標系設定部が上記第1〜第4の座標系を設定すれば、視線方向推定部は、第1〜第4の座標系及び眼球モデルを利用して視線方向を推定する。具体的には、設定された第1〜第4の座標系及び眼球モデルを利用することで、眼球モデルにおける虹彩の輪郭を、カメラの座標系である第1のカメラ座標系での画像平面に投影できる。この投影された輪郭を、実際に撮影された2次元画像から抽出される虹彩の輪郭にフィティングすることによって、第1及び第2回転角を算出できる。これにより、第3の座標系に対して第4の座標系が決定され、眼球モデルにおける虹彩の位置がわかるので、瞳孔中心の位置を算出できる。瞳孔中心と、眼球の中心、すなわち、第3の座標系の原点とを繋ぐ直線で示される軸は、光学軸として知られている。従って、瞳孔中心が上記のように算出されると、瞳孔中心と、第3の座標系の原点とから光学軸を算出できる。視線方向は光学軸に対して所定角度傾いた方向として知られているので、光学軸が算出されることで、視線方向を推定できる。
この場合、被撮影対象者の顔の2次元画像及び顔までの距離画像並びに眼球モデルを利用することで、視線方向を推定するための未知のパラメータは、第1及び第2回転角の2つのみである。そのため、上記視線方向推定システムによれば、演算処理の負荷を低減できる。
上記視線方向推定部は、フィティングにより対応付けられた、第4の座標系における虹彩の3次元的な輪郭を画像平面に投影した際の各エッジ点と、2次元画像における虹彩の輪郭中の対応するエッジ点との対応関係を示すと共に第1及び第2回転角を未知パラメータとして含む目的関数を解くことによって、第1及び第2回転角を算出し得る。
一実施形態において、被撮影対象者がカメラの方を向き且つカメラを注視している状態で撮影された被撮影対象者の顔の2次元画像及び距離画像に基づいて、第3の座標系の原点を校正する校正部を更に備えてもよい。このように、第3の座標系の原点を校正することで、被撮影対象者に応じた眼球位置がわかるので、視線方向をより正確に推定できる。
本発明の他の側面に係る視線方向推定方法は、被撮影対象者の視線方向を推定する視線方向推定方法であって、撮影対象の2次元画像及び撮影対象までの距離情報を含む距離画像を取得するカメラを用いて、被撮影対象者の顔を撮影する撮影工程と、撮影工程で得られた顔の2次元画像及び距離画像からカメラの第1の座標系に対する被撮影対象者の頭部の姿勢情報を算出して第2の座標系を設定すると共に、第2の座標系を並進移動して表される被撮影対象者の眼球の中心を原点とする眼球の第3の座標系、第3の座標系の原点を原点とし、第3の座標系に対する水平方向の回転角である第1回転角及び鉛直方向の回転角である第2回転角で表される被撮影対象者の虹彩の第4の座標系を設定する座標系設定工程と、眼球モデルに基づいた、カメラを介して第4の座標系における虹彩の3次元的な輪郭を第1の座標系における画像平面に投影したとした場合の虹彩の輪郭を、被撮影対象者の顔の2次元画像から抽出される虹彩の輪郭にフィティングすることによって、第1及び第2回転角を算出し、算出された第1及び第2回転角並びに眼球モデルに基づいて決定される被撮影対象者の瞳孔中心と、第3の座標系の原点とから算出される光学軸に基づいて被撮影対象者の視線方向を推定する視線方向推定工程と、を備える。
本発明の更に他の側面に係る視線方向推定プログラムは、被撮影対象者の視線方向を推定する視線方向推定プログラムであって、コンピュータに、撮影対象の2次元画像及び撮影対象までの距離情報を含む距離画像を取得するカメラを用いて、被撮影対象者の顔を撮影して得られた、顔の2次元画像及び距離画像からカメラの第1の座標系に対する被撮影対象者の頭部の姿勢情報を算出して第2の座標系を設定すると共に、第2の座標系を並進移動して表される被撮影対象者の眼球の中心を原点とする眼球の第3の座標系、第3の座標系に対する水平方向の回転角である第1回転角及び鉛直方向の回転角である第2回転角で表される被撮影対象者の虹彩の第4の座標系を設定する座標系設定工程と、眼球モデルに基づいた、カメラを介して第4の座標系における虹彩の3次元的な輪郭を第1の座標系における画像平面に投影したとした場合の虹彩の輪郭を、被撮影対象者の顔の2次元画像から抽出される虹彩の輪郭にフィティングすることによって、第1及び第2回転角を算出し、算出された第1及び第2回転角並びに眼球モデルに基づいて決定される被撮影対象者の瞳孔中心と、第3の座標系の原点とから算出される光学軸に基づいて被撮影対象者の視線方向を推定する視線方向推定工程と、を実行せしめる。
上記カメラで撮影して得られた被撮影対象者の顔の2次元画像及び顔までの距離画像を利用すれば、撮影対象者の頭部の姿勢情報を算出でできる。上記視線方向推定方法及び視線方向推定プログラムでは、被撮影対象者の顔の2次元画像及び顔までの距離画像から算出される上記姿勢情報を利用して、第1の座標系に対する第2の座標系を設定し、第2の座標系に対して一定の関係を有する第3及び第4の座標系を設定する。
これらの第1〜第4の座標系は相互に変換可能であることから、設定された第1〜第4の座標系及び眼球モデルを利用することで、虹彩の輪郭を、カメラの座標系である第1のカメラ座標系での画像平面に投影できる。この投影された輪郭を、実際に撮影された2次元画像から抽出される虹彩の輪郭にフィティングすることによって、第1及び第2回転角を算出できる。これにより、第3の座標系に対して第4の座標系が決定され、眼球モデルにおける虹彩の位置がわかるので、瞳孔中心の位置を算出できる。瞳孔中心と、眼球の中心、すなわち、第3の座標系の原点とを繋ぐ直線で示される軸は、光学軸として知られている。従って、瞳孔中心が上記のように算出されると、瞳孔中心と、第3の座標系の原点とから光学軸を算出できる。視線方向は光学軸に対して所定角度傾いた方向として知られているので、光学軸が算出されることで、視線方向を推定できる。
この場合、被撮影対象者の顔2次元画像及び顔までの距離画像並びに眼球モデルを利用することで、視線方向を推定するための未知のパラメータは、第1及び第2回転角の2つのみである。そのため、上記視線方向推定方法及び視線方向推定プログラムによれば、演算処理の負荷を低減できる。
上記視線方向推定工程では、フィティングにより対応付けられた、第4の座標系における虹彩の3次元的な輪郭を画像平面に投影した際の各エッジ点と、2次元画像における虹彩の輪郭中の対応するエッジ点との対応関係を示すと共に第1及び第2回転角を未知パラメータとして含む目的関数を解くことによって、第1及び第2回転角を算出し得る。
一実施形態に係る視線方向推定方法では、被撮影対象者の顔の2次元画像及び距離画像に基づいて、第3の座標系の原点を校正する校正工程を更に備え、校正工程を実施する場合、撮影工程では、被撮影対象者がカメラの方を向いて且つカメラを注視している状態で前記被撮影対象者を撮影してもよい。
同様に、一実施形態に係る視線方向推定プログラムでは、コンピュータに、被撮影対象者がカメラの方を向いて且つカメラを注視している状態で被撮影対象者を撮影することによって取得された被撮影対象者の顔の2次元画像及び距離画像に基づいて、第3の座標系の原点を校正する校正工程を更に実行せしめてもよい。
このように、校正工程を行う又はコンピュータに実行させることで、被撮影対象者に応じた眼球位置がわかるので、視線方向をより正確に推定できる。
本発明によれば、視線方向推定の精度を維持しながら、視線方向の推定に要する処理時間を短縮可能な手段を提供できる。
以下、図面を参照して本発明の実施形態について説明する。以下の説明においては、同一の要素には同一の符号を用いると共に、重複する説明を省略する。
一実施形態に係る視線方向推定システムは、カメラで被撮影対象者を撮影し、撮影された画像及び眼球モデル20を利用して被撮影対象者の視線方向を推定するためのものである。視線方向推定システムは、人間の視線方向を推定するシステムであり、例えば、運転手の行動解析、セキュリティモニタリング、人間の行動研究及び人間とコンピュータとのインターフェースなどに適用され得る。
視線方向推定システムは、図1に模試的に示したカメラ10を利用する。カメラ10は、撮影対象のRGB画像(2次元画像)と共に、撮影対象までの距離情報を含む距離画像を取得可能な、いわゆるRGG―Dカメラである。カメラ10の例は、マイクロソフト社製のKinect(登録商標)である。
カメラ10は、RGBカメラ11と、距離画像取得部12とを有する。RGBカメラ11は、撮影対象の2次元カラー画像を取得する2次元画像取得部である。距離画像取得部12は、赤外線(IR)カメラ12Aと、所定のパターンを赤外線で投影するIRプロジェクタ12Bとを有する。
カメラ10では、RGBカメラ11によって、RGB画像を取得する。また、IRプロジェクタ12BによってIR(赤外線)を使用して投影された所定のパターンをIRカメラ12Aが撮影することによって、所定パターンの歪み状態などに基づいて距離画像を取得する。
図2を利用して視線方向推定システムで利用する眼球モデル20について説明する。図2には、説明の都合上、カメラ10を模式的に示している。眼球モデル20は、大きさの異なる2つの球21,22によって人間の眼の構造をモデル化したものである。図2において、球21が眼球であり、いわゆる白目に対応する部分である。球22は、球21の表面近傍に位置しており、いわゆる角膜のモデルであって、黒目に相当する部分である。虹彩及び瞳孔は角膜内にある。
球21の中心Cと、瞳孔(或いは虹彩)中心Pfとを繋いだ仮想線が光学軸SOに対応する。以下では、中心Cを眼球中心Cとも称す。球22の中心CPは光学軸SO上に位置する。本明細書で視線方向DGとは、視軸の方向を意味しており、角膜のモデルである球22の中心CPと、注視点Gとを結ぶ仮想的な直線の方向である。視線方向DGは、光学軸SOと、所定角度θを為している。所定角度θは、個人差はあるが、ほぼ一定の角度と見なせる。以下の説明では、特に断らない限り、角度θは、視線方向DGが推定される被撮影対象者によらず一定とする。
前述したように、虹彩及び瞳孔は角膜の内側に位置するが、カメラ10では、角膜表面が撮影されることになるので、図2では、光学軸SOと球22との交点を瞳孔中心Pfと図示している。カメラ10で被撮影対象者が撮影された場合、図2に示した点PfがRGB画像上に現れる。球22と球21とが交わって形成される曲線Aを虹彩の輪郭とする。以下では、曲線Aを輪郭Aとも称す。
眼球モデル20において、球21の中心Cと球22の中心Cpとの間の距離をK0とし、中心Cと、瞳孔中心Pfとの間の距離をKとする。K0及びKは眼球モデル20で設定される定数である。K0及びKは、実際には個人差はあるが、個人差はほぼ無視できるとして一般的な人間の眼球の多さに基づいた値を設定しておけばよい。例えば、K=13.1mmであり、K0=5.3mmである。
次に、図3を利用して視線方向推定システムで使用する座標系について説明する。被撮影対象者の視線方向DGを推定するために、図3に示すように、4つの座標系、すなわち、カメラ座標系(第1の座標系)SC、頭部座標系(第2の座標系)SH、眼球座標系(第3の座標系)Se及び虹彩(アイリス)座標系(第4の座標系)Spを使用する。座標系は、右手系及び左手系でもよいが、以下では特に断らない限り、4つの座標系は全て右手系の座標系である。図3に示した眼球モデル20において、球22は省略し、球21のみを図示している。ただし、説明の都合上、虹彩の輪郭Aを示している。図3において、ハッチングで示す平面Qは、輪郭Aを含む面であり、点qは、平面QとZp軸との交点である。
カメラ座標系SCは、カメラ10に設定される3次元座標系(OC―XCYCZC)である。本明細書において、カメラ座標系SCのZC軸は、被撮影対象者側に向いており、YC軸は、鉛直方向を向いている。以下では、特に断らない限り、カメラ座標系SCは、RGBカメラ11の座標系である。一実施形態において、カメラ座標系SCの原点OCはRGBカメラ11の光学中心として設定できる。ただし、RGBカメラ11の座標系とIRカメラ12Aの座標系は相互に変換できるため、IRカメラ12Aの座標系をカメラ座標系SCと設定していてもよい。
頭部座標系SHは、被撮影対象者の頭部に対して設定される3次元座標系(OH―XHYHZH)である。本実施形態では、座標系間の変換を容易にする観点から、カメラ座標系SCに対応させて鉛直方向をYH軸方向とする。また、ZH軸は、後頭部に向いているとする。頭部座標系SHとカメラ座標系SCは相互に変換可能であり、その座標変換は、並進ベクトルT及び回転行列Rで表される。並進ベクトルT及び回転行列Rは、頭部のカメラ10に対する姿勢情報でもある。
眼球座標系Seは、被撮影対象者の眼球に対して設定される3次元座標系(Oe−XeYeZe)であり、図1に示した眼球モデル20において、球21に対して設定される座標系である。よって、原点Oeは、球21の中心Cに対応する。人間の構造上、眼球座標系Seは、頭部座標系SHを並進移動させたものとして設定できる。従って、眼球座標系Seと頭部座標系SHとは相互に変換でき、その座標変換は、並進ベクトルTeで表される。そのため、眼球座標系SeのYe軸方向は鉛直方向であり、Ze軸は、後頭部に向いている。
虹彩座標系Spは、被撮影対象者の虹彩に対して設定される3次元座標系(Op−XpYpZp)である。虹彩座標系Spの原点Opは、眼球座標系Seの原点Oeと同じとし、Zp軸は、瞳孔中心Pfを通り、虹彩平面に直交する軸として設定する。虹彩座標系Sp及び眼球座標系Seの原点は同じであることから、虹彩座標系Spと眼球座標系Seとの間は、ロールα、ヨー(第1回転角)β及びピッチ(第2回転角)γの各回転角を利用して相互変換できる。
ただし、虹彩が眼球上で移動する際、人間の構造上、虹彩は、鉛直方向周りの回転(すなわち、水平方向の動き)と、水平方向周りの回転(すなわち、鉛直方向の動き)だけである。従って、虹彩座標系Spは、ロールαを0とすることができる。そのため、虹彩座標系Sp及び眼球座標系Se間の変換は2つの回転角度であるヨーβ及びピッチγのみで表される。なお、ヨーβは、眼球座標系SeのXe軸周りに回転角であり、被撮影対象者の顔を見た場合に左右方向の動きを示している。ピッチγは、Ye軸周りの回転角を示しており、被撮影対象者の顔を見た場合に上下方向の動きを示している。
以上説明したカメラ10、眼球モデル20及び4つの座標系を利用して視線方向DGを推定する視線方向推定システム1は、図4に示したブロック図のように、カメラ10と、視線方向推定装置30とを備える。図4は、カメラ10及び視線方向推定装置30の主な機能を示す機能ブロック図である。カメラ10については、前述したので説明は省略するが、以下ではカメラ10は、Kinectとする。
視線方向推定装置30は、カメラ10と配線を介して電気的に接続されており、カメラ10で取得された画像(具体的には画像データ)は配線を介して視線方向推定装置30に入力される。カメラ10からの画像、例えば、無線通信を利用して、視線方向推定装置30に入力されてもよい。
視線方向推定装置30は、図2に示した4つの座標系を設定する座標系設定部31と、視線方向DGを推定する視線方向推定部32と、眼球座標系Seの原点Oe、すなわち、眼球中心の位置を校正する校正部33と、視線方向推定プログラムを含む各種プログラム及びデータを格納する記憶部34と、を有する。
視線方向推定装置30は、CPUを含む情報処理装置(コンピュータ装置)であって、記憶部34に格納された相対姿勢情報作成プログラムをCPUが実行することで上記情報処理装置が視線方向推定装置30として機能する。
視線方向推定装置30が有する各構成要素(座標系設定部31、視線方向推定部32及び校正部33など)は、バスなどによって接続されて、データなどを通信可能である。視線方向推定装置30は、記憶部34に格納された視線方向推定プログラムを実行することによって、座標系設定部31、視線方向推定部32及び校正部33の機能が実現される。視線方向推定装置30は、通常の情報処理装置が有する他の構成要素、すなわち、データ及び指示(例えばユーザの指示)の入力を受け付ける入力部及びデータを出力するための出力部等を含むが、以下では、視線方向推定装置30の特徴部分を中心にして説明する。
座標系設定部31は、カメラ10のRGBカメラ11及び距離画像取得部12で撮影された被撮影対象者の顔のRGB画像(2次元画像)及び距離画像に基づいて、図3に示した4つの座標系を設定する。
具体的には、カメラ10から入力された被撮影対象者の顔のRGB画像及び距離画像に基づいて、被撮影対象者の頭部の姿勢情報、すなわち、回転行列R及び並進ベクトルTを算出する。これは例えば頭部が動いた時の画像の変化に基づいて公知の技術で算出され得る。そして、カメラ10がKinectである場合、Kinectの機能により自動的に算出される。
算出されたR及びTを利用して、カメラ座標系SCに対する頭部座標系SHを設定する。頭部座標系SHと、並進ベクトルTeに基づいて眼球座標系Seを設定する。更に、眼球座標系Seに対して、ヨーβ及びピッチγで表される虹彩座標系Spを設定する。
校正部33は、被撮影対象者がRGBカメラ11を注視している場合のRGB画像及び距離画像に基づいて、眼球中心Cを校正する。具体的には、頭部座標系SHと眼球座標系Seとを変換するための並進ベクトルTeを校正する。校正方法は、被撮影対象者がRGBカメラ11の方向を向いて注視している点以外は、非特許文献1と同様の方法である。
具体的には、図1において、被撮影対象者がRGBカメラ11を注視している場合、図1における注視点Gは、カメラ座標系SCの原点OCに対応する。カメラ座標系SCにそれぞれ変換された眼球中心C(球21の中心)の位置ベクトルをCCとし、球22の中心Cpの位置ベクトルをCpCとし、瞳孔中心Pfの位置ベクトルをPfCとする。
そして、ベクトル[CpCOC]とベクトル[CpCPfC]とのなす角度がθであるという関係から以下の式(1)が成立する。なお、[CpCOC]は、位置ベクトルCpCから位置ベクトルOCに向かうベクトルを示しており、[CpCPfC]は、位置ベクトルCpCから位置ベクトルPfCに向かうベクトルを示している。
ここで、位置ベクトルCpC、位置ベクトルCC及び位置ベクトルPfCの間には、下記式(2)が成立する。
式(2)において、K及びK0は定数である。また、Pfcは、非撮影対象者がRGBカメラ11の方向を向いて注視している場合に撮影されたRGB画像に基づいて算出され得る。具体的には、以下の参考文献において、Febian Timm and Erhardt Barthらが提案しているように、RGB画像から抽出される虹彩のエッジ点の勾配を利用して瞳孔中心としてのPfcが算出される。
参考文献:F. Timm, E. Barth. Accurate eye center localization by means of gradients.In Proceedings of the International Conference on Computer Theory andApplications, volume 1, pp. 125-130, 2011.
ここで、位置ベクトルCpC、位置ベクトルCC及び位置ベクトルPfCの間には、下記式(2)が成立する。
式(2)において、K及びK0は定数である。また、Pfcは、非撮影対象者がRGBカメラ11の方向を向いて注視している場合に撮影されたRGB画像に基づいて算出され得る。具体的には、以下の参考文献において、Febian Timm and Erhardt Barthらが提案しているように、RGB画像から抽出される虹彩のエッジ点の勾配を利用して瞳孔中心としてのPfcが算出される。
参考文献:F. Timm, E. Barth. Accurate eye center localization by means of gradients.In Proceedings of the International Conference on Computer Theory andApplications, volume 1, pp. 125-130, 2011.
従って、被撮影対象者の頭部の位置を複数回変えながら撮影された画像に基づいて得られたPfcを利用しながら、式(1)に示した非線形方程式を、例えば、Levenberg-Marquardt Algorithm(LMA)を利用して解くことにより、眼球中心Cを校正できる。これにより、校正された並進ベクトルTeが得られる。なお、眼球中心Cは、3次元座標で表されるため、3つのパラメータを有する。従って、被撮影対象者の頭部の位置は少なくとも3回変えておけばよい。
視線方向推定部32は、RGBカメラ11を介して、眼球モデル20に基づいた虹彩座標系Spにおける虹彩の3次元的な輪郭をカメラ座標系SCにおける画像平面に投影する。そして、視線方向推定部32は、その投影された虹彩の輪郭を、被撮影対象者の顔のRGB画像から抽出される虹彩の輪郭にフィティングすることによって、被撮影対象者の瞳孔中心を算出する。視線方向推定部32は、この算出された瞳孔中心と眼球座標系Seの原点Oeとから光学軸SOを算出し、視線方向DGは光学軸SOに対して所定角度θの方向であるというであるという視線方向DGと光学軸SOとの関係に基づいて被撮影対象者の視線方向DGを推定する。
視線方向推定部32における視線推定の原理についてより具体的に説明する。
<瞳孔中心の初期値算出>
RGB画像を利用して、上述した参考文献記載の方法により、瞳孔中心を算出する。具体的には、RGB画像の特徴点に基づいて、RGB画像上の眼を抽出する。この眼の抽出は、例えば、カメラ10がKinectである場合、KinectのSDKライブラリを利用することで抽出できる。更に、抽出した眼の領域から特徴点に基づいて虹彩を抽出する。この抽出は公知の方向で為されればよい。次に、虹彩の輪郭上のエッジ点の勾配に基づいて虹彩の中心、すなわち、瞳孔中心の位置を算出する。この瞳孔中心の位置を虹彩中心の初期値(或いは、初期位置)とする。
RGB画像を利用して、上述した参考文献記載の方法により、瞳孔中心を算出する。具体的には、RGB画像の特徴点に基づいて、RGB画像上の眼を抽出する。この眼の抽出は、例えば、カメラ10がKinectである場合、KinectのSDKライブラリを利用することで抽出できる。更に、抽出した眼の領域から特徴点に基づいて虹彩を抽出する。この抽出は公知の方向で為されればよい。次に、虹彩の輪郭上のエッジ点の勾配に基づいて虹彩の中心、すなわち、瞳孔中心の位置を算出する。この瞳孔中心の位置を虹彩中心の初期値(或いは、初期位置)とする。
<虹彩フィティング>
虹彩は、人間の眼の構造上、その法線方向(図2の光学軸S0又は図3のZp軸方向)から見た場合の形状は円形であるが、通常画像上では楕円で表される。そこで、3次元空間における虹彩の輪郭を、虹彩の法線方向からみた場合の形状を楕円と近似し、虹彩の輪郭上の点(エッジ点)Ppiの虹彩座標系Spにおける座標を、図3に示したように、(a・cos(ti)、b・sin(ti),L)と表す(iは、1以上の任意の整数であり、エッジ点を区別するためのものである)。
虹彩は、人間の眼の構造上、その法線方向(図2の光学軸S0又は図3のZp軸方向)から見た場合の形状は円形であるが、通常画像上では楕円で表される。そこで、3次元空間における虹彩の輪郭を、虹彩の法線方向からみた場合の形状を楕円と近似し、虹彩の輪郭上の点(エッジ点)Ppiの虹彩座標系Spにおける座標を、図3に示したように、(a・cos(ti)、b・sin(ti),L)と表す(iは、1以上の任意の整数であり、エッジ点を区別するためのものである)。
ここで、図3及び図5を利用して点Ppiの座標表示に用いたL,a,b及びtiについて説明する。図3に示すように、平面QとZp軸との交点を点qとする。Lは、点qと原点Opとの間の距離であり、眼球モデル20において設定されるものである。Lは、個人差はあるものの、ほぼ一定の値をみなせ、Lの値は例えば10.5mmである。輪郭Aは、平面Qに含まれており、Zp軸と平面Qとは直交するため、輪郭A上の点の虹彩座標系SpにおけるZp座標の値は、Lとなる。
図5は、Zp軸方向から見た輪郭Aの模式図である。図5では、輪郭Aを楕円として表している。説明のために、点qを通りXp軸に平行な軸をxp軸とし、Yp軸に平行な軸をyp軸とする。上記aは、xp軸方向における輪郭A(楕円)の長さの半分であり、輪郭Aを、Zp軸方向から見た場合の楕円の横方向半径に対応する。一方、bは、yp軸方向における輪郭A(楕円)の長さの半分であり、輪郭Aを、Zp軸方向から見た場合の楕円の縦方向半径に対応する。tiは、点qと点Ppiとを結んだ直線とのなす角度を示す媒介変数(パラメータ)である。a=bの場合、輪郭Aは円形である。この場合、点PpiのXpi(xpi)座標及びYpi(ypi)座標それぞれは、円の半径をrとした場合、r・cos(ti)及びr・sin(ti)と表される。図3及び図5では、輪郭Aを楕円で近似しているため、Xpi(xpi)座標を表す際、rに変えてaを使用し、Ypi(ypi)座標を表す際に、rに変えてbを使用していることになる。
点Ppiの位置ベクトルPpiは、次式により、眼球座標系Se上の位置ベクトルPeiに変換され得る。
RPは、虹彩座標系Spを眼球座標系Seに変化するための変換行列であり、ロール(roll)α、ヨーβ及びピッチγで表されるが、前述したように、ロールαは0である。式(3)中の“・”は内積を示している。
次に、眼球座標系Seにおける位置ベクトルPeiを頭部座標系SHの位置ベクトルPhiに変換する。眼球座標系Seは、頭部座標系SHに対して並進移動したものに対応することから、位置ベクトルPhiは、次のように表される。
続いて、位置ベクトルPhiを、カメラ座標系SCの位置ベクトルPciに変換する。この変換は、次式で表される。式(5)中の“・”は内積を示している。
位置ベクトルPeiは、カメラ座標系SCにおける虹彩の輪郭上のエッジ点の3次元位置を表す。Pciを(xci,yci、zci)と表し、位置ベクトルPciが、RGBカメラ11で投影された画像平面における像点の位置ベクトルをIPi(ui,vi)とすると、IPiは、次のように表される。
ここで、Mは、カメラ10(二次元画像部)の内部パラメータを含む投影行列である。これまでの式から、ui及びviは、関数f,gを用いて次のように表される。
上記の式(7a)及び式(7b)より、以下の式が導かれる。
式(8a)及び式(8b)において、関数h及びkは、式(7a)及び式(7b)を解いて得られる関数である。
ここで、Mは、カメラ10(二次元画像部)の内部パラメータを含む投影行列である。これまでの式から、ui及びviは、関数f,gを用いて次のように表される。
上記の式(7a)及び式(7b)より、以下の式が導かれる。
式(8a)及び式(8b)において、関数h及びkは、式(7a)及び式(7b)を解いて得られる関数である。
sin2(ti)+cos2(ti)=1という関係を利用すれば、目的関数Ψは、式(9)で表される。目的関数Ψは、眼球モデル20に基づいて画像平面に投影された虹彩の輪郭上の点Ppと対応するRGB画像上の虹彩の輪郭のエッジ点との対応関係を示す関数である。
式(9)において、R及びTは、カメラ10で取得されたRGB画像及び距離画像から得られている。Mはカメラ10固有の投影行列であるため既知である。L,a,b,Te,ui,viは眼球モデル20において設定するものであるため、既知である。従って、式(9)においては、β及びγの2つが未知パラメータである。
式(9)において、R及びTは、カメラ10で取得されたRGB画像及び距離画像から得られている。Mはカメラ10固有の投影行列であるため既知である。L,a,b,Te,ui,viは眼球モデル20において設定するものであるため、既知である。従って、式(9)においては、β及びγの2つが未知パラメータである。
一つのRGB画像からは一つのエッジ点群が得られる。更に、<瞳孔中心の初期値算出>で述べた方法により瞳孔中心の初期値は得られる。よって、初期のβ及びγがわかっていることになる。この状態では、Levenberg-Marquardt Algorithm(LMA)を使用して、式(9)を解くことができる。具体的には、エッジ点群を構成する各エッジ点に対して式(9)が得られるので、上記エッジ点群に対して得られた複数の式(9)において誤差を最小にする最適なβ及びγが算出される。
β及びγが算出されると、カメラ座標系SCにおける瞳孔中心の位置ベクトルPfcは、式(3),(4)及び式(5)と同様の変換を利用して虹彩座標系Spにおける位置ベクトル(0,0,K)から算出される。なお、瞳孔中心Pfと、眼球中心Cとの間の距離Kは、定数と仮定している。
<視線推定>
上記の様に瞳孔中心Pfが算出されれば、眼球モデル20における眼球中心Cと、瞳孔中心Pfとから図1に示した光学軸SOが算出されるので、所定角度θを用いて視線方向DGが算出される。
上記の様に瞳孔中心Pfが算出されれば、眼球モデル20における眼球中心Cと、瞳孔中心Pfとから図1に示した光学軸SOが算出されるので、所定角度θを用いて視線方向DGが算出される。
視線方向推定部32は、上記原理に基づいて、式(9)を利用してβ及びγを算出することで、光学軸SOを特定し、視線方向DGを推定する。カメラ座標系SCにおいて、視線方向DGを、XCZC平面に投影した際の投影線と、ZC軸とのなす角度をδとし、上記投影線と視線方向DGとのなす角度(換言すれば、視線方向DGとXCZC平面とのなす角度)をψとする。
次に視線方向推定システム1を利用した被撮影対象者の視線推定方法について説明する。まず、眼球中心Cが校正されている状態での視線推定方法について説明する。
カメラ10で被撮影対象者の顔を撮影し、顔のRGB画像及び距離画像を取得する(撮影工程)。この際、被撮影対象者の頭部を顔が写るように撮影されていればよい。そのため、被撮影対象者の上半身が撮影されてもよいし、被撮影対象者の全身が撮影されていてもよい。
カメラ10で撮影された画像を視線方向推定装置30が受け取ると、視線方向推定装置30の座標系設定部31が、図2に示した4つの座標系を設定する(座標系設定工程)。
次に、視線方向推定部32が、カメラ10からのRGB画像及び距離画像を利用して、前述した方法で被撮影対象者の視線方向DGを推定する(視線方向推定工程)。
具体的には、まず、RGB画像上の眼に含まれる虹彩の輪郭上のエッジ点を特定し、瞳孔中心Pfの初期値を算出する(初期値算出工程)。
次に、眼球モデル20における虹彩の輪郭をRGBカメラ11の画像平面で表されるRGB画像上に投影したとした場合において、投影された輪郭と、実際に取得されたRGB画像における虹彩の輪郭に対してフィティングし、虹彩座標系Spの眼球座標系Seに対する回転角であるヨーβ及びピッチγを算出する。具体的には、式(9)及び初期値算出工程で算出された初期値を利用してヨーβ及びピッチγを算出する(フィティング工程(又は回転角度算出工程))。
算出されたヨーβ及びピッチγ及び眼球モデル20に基づいて光学軸SOを決定し、光学軸SOに所定角度θを演算することで、視線方向DGを算出する(視線方向算出工程)。
次に、眼球中心Cの校正工程を含む場合について説明する。
眼球中心Cを校正する場合、上記撮影工程において、被撮影対象者がカメラ10の方を向いており、且つ、カメラ10を注視している状態で、被撮影対象者の顔を撮影する。本実施形態では、RGBカメラ11のカメラ座標系を、カメラ10のカメラ座標系SCと設定しているため、被撮影対象者は、RGBカメラ11の方を向き且つRGBカメラ11を注視していることが好ましい。
校正用の画像が視線方向推定装置30に入力されると、前述したように、座標系設定工程を実施する。その後、校正部33が、前述した方法によって、眼球中心Cの位置を校正する。具体的には、並進ベクトルTeを算出する。算出された並進ベクトルTeは、例えば、記憶部34に保存される。
なお、眼球中心Cの校正は、同じ被撮影対象者に対しては一度行っておけばよい。そして、校正工程を実施した後の、視線方向推定では、校正工程で校正された眼球中心Cの位置、換言すれば、並進ベクトルTeを使用すればよい。視線方向推定装置30が校正工程を実施するか否かは、例えば、視線方向推定装置30が有する入力部を介して、校正を実施するモードか否かのモードの切り替えの入力の有無で判断すればよい。また、例えば、視線方向推定装置30を車の運転支援システムで使用する際、運転手毎に一度校正工程を実施しておけば、その後は、運転手がそれぞれ入力部を介して各自の校正データを使用するように選択すればよい。
上記視線方向推定システム1(視線方向推定プログラム)及び視線方向推定方法では、眼球モデル20を使用することで、虹彩の輪郭を2つの未知のパラメータβ及びγで表している。通常、楕円を示すパラメータは5つ(長軸を示すパラメータ、短軸を示すパラメータ、傾きを示すパラメータ、楕円の中心を示す2つのパラメータ)であるのに対してパラメータ数が減っているため、視線推定に要する演算処理の負荷が低減している。その結果、スピードを向上できるので、演算処理時間も短縮可能である。
また、被撮影対象者の眼の向き又は瞼の閉じ具合などから虹彩の一部しかRGB画像上に写っていないこともある。そのため、RGB画像上から抽出された虹彩にのみ基づいて瞳孔中心Pfを算出した場合には瞳孔中心Pfの算出誤差が大きくなる。これに対して、本実施形態では、眼球モデル20に基づいた虹彩をRGB画像上の虹彩にフィティングすることによって、瞳孔中心Pfを算出している。そのため、瞳孔中心Pfをより正確に求めることができる。従って、視線方向DGを更に正確に算出可能である。
また、校正部33において、眼球中心Cを校正していることから、視線方向DGを更に正確に推定できる。校正部33で眼球中心Cを校正する場合、被撮影対象者がカメラ10を向き且つカメラ10を注視している状態で撮影された画像を使用している。そのため、例えば、従来のように、被撮影対象者がカメラ10とは異なるターゲットを見ている場合のように、ターゲットがカメラ10と被撮影対象者との間に位置して校正できないということがない。従って、より確実且つ正確に眼球中心Cを校正できる。
次に実験結果について説明する。以下の実験1,2では、図2に示すK、K0及びLをそれぞれ、K=13.1mm、K0=5.3mm、L=10.5mmとした。また、カメラ10はKinectを使用した。Kinectで得られるRGB画像の画素数は、1280×960画素であり、距離画像の画素数は、640×480画素であった。また、被撮影対象者とカメラ10との間の距離は、約70cm(0.7m)とした。
<実験1>
実験1では、被撮影対象者の頭部を固定し、眼を種々の方向に向けた状態をカメラ10で種々撮影し、得られた各RGB画像及び距離画像に基づいて、図4に示した視線方向推定装置30の視線方向推定部32でヨーβ及びピッチγを算出した。カメラ10には、Kinectを使用した。そして、算出されたヨーβ及びピッチγに基づいて虹彩座標系Spで表される虹彩の輪郭及び瞳孔中心Pfを各RGB画像上に投影した。
実験1では、被撮影対象者の頭部を固定し、眼を種々の方向に向けた状態をカメラ10で種々撮影し、得られた各RGB画像及び距離画像に基づいて、図4に示した視線方向推定装置30の視線方向推定部32でヨーβ及びピッチγを算出した。カメラ10には、Kinectを使用した。そして、算出されたヨーβ及びピッチγに基づいて虹彩座標系Spで表される虹彩の輪郭及び瞳孔中心Pfを各RGB画像上に投影した。
図6は虹彩のフィッティング結果を示す図面である。図6の(a)は、被撮影対象者がカメラ10の方を向き且つカメラ10を注視している場合の画像を示す図面であり、図6の(b)〜図6の(e)のそれぞれは、図6の(a)の状態から眼が上側、下側、右側(被撮影対象者から見て)及び左側(被撮影対象者から見て)を見ている場合の画像を示す図面である。
図6の(a)〜図6の(e)において、白丸は、視線方向推定部32において眼球モデル20で算出した瞳孔中心であり、×印は、RGB画像にのみ基づいた瞳孔中心であり、前述した説明の初期値である。更に、△印は、RGB画像から抽出した虹彩のエッジ点を示している。一方、白い円は、視線方向推定部32で算出したヨーβ及びピッチγに基づいた虹彩のフィッティング結果である。
図6の(a)は、被撮影対象者がカメラ10の方を向き且つカメラ10を注視している場合であるため、虹彩の全体がほぼ画像に表れている。そのため、瞳孔中心Pfの位置は、前述した<瞳孔中心の初期値算出>において説明した方法で算出した初期値と、式(9)を解いた結果を利用した場合とでほぼ一致している。また、RGB画像から抽出した虹彩のエッジ点も、フィッティング結果とほぼ同じである。なお、前述した、眼球中心Cの校正用の画像を撮影する場合は、図6の(a)の状態で撮影することが好ましい。
図6の(b)〜図6の(e)では、RGB画像から抽出した虹彩のエッジ点は、フィッティング結果とほぼ同じである一方、眼が正面を向いておらず、更に瞼などで一部が隠れているため、瞳孔中心Pfを式(9)で計算したβ及びγを利用して計算した場合と、初期値との間に差が生じている。
従って、図4に示した視線方向推定装置30を利用して瞳孔中心Pfを算出すれば、例えば、虹彩が瞼などで隠れていて一部しか画像に表れていなくても、正確に瞳孔中心Pfを算出できる。その結果、視線方向DGもより正確に推定できることがわかる。
<実験2>
次に、被撮影対象者がカメラ10のRGBカメラ11を常に注視しながらカメラ10に対して頭部を動かしている状態で被撮影対象者をカメラ10で複数回撮影し、各撮影に基づいて被撮影対象者の視線方向DGを、前述した視線方向DG推定方法で推定した。具体的には、(δ,ψ)を算出した。カメラ10は、Kinectを使用した。また、撮影回数は、48回とした。
次に、被撮影対象者がカメラ10のRGBカメラ11を常に注視しながらカメラ10に対して頭部を動かしている状態で被撮影対象者をカメラ10で複数回撮影し、各撮影に基づいて被撮影対象者の視線方向DGを、前述した視線方向DG推定方法で推定した。具体的には、(δ,ψ)を算出した。カメラ10は、Kinectを使用した。また、撮影回数は、48回とした。
図7は、視線方向推定結果を示す図面である。具体的には、図7の(a)は、被撮影対象者の左眼に対する実験結果であり、図7の(b)は、被撮影対象者の右眼に対する実験結果である。図7の(a)及び(b)において、横軸は、撮影回数であり、縦軸は、角度である。図7の(a)及び(b)には、推定値としてのδ及びψを示している。
また、実験中において、被撮影対象者は、常にRGBカメラ11を注視しているため、各撮影ポイントでの、被撮影対象者の眼の位置と、RGBカメラ11とをつなぐ仮想的な直線方向をその撮影ポイントでの視線方向DGの真値とした。図7の(a)及び(b)には、この真値としてのδ及びψも比較のために図示している。
図7の(a)及び(b)から、若干のブレはあるものの真値に近い視線方向DGが算出できていることがわかる。
上記実験2を異なる被撮影対象者H1,H2,H3に対して行った。その結果において、左眼及び右眼の視線方向推定結果におけるδ及びψの誤差の平均を算出した。算出結果を図8に示す。図8において、被撮影対象者H1,H2,H3それぞれの左眼及び右眼の誤差の平均を更に3人で平均した結果は、3.25°であった。
実験条件などが異なるため一概に比較できないが、非特許文献2では視線方向の推定誤差の平均は3.4°と報告されていることから、本実施形態で説明した方法では、非特許文献2とほぼ同等の正確さで視線方向を推定できていることになる。一方、本実施形態では前述したように、演算処理が軽減されているので、精度の向上を図りながらより早く視線方向を推定できている。
以上、本発明の種々の実施形態及び実験例等について説明したが、本発明は、上述した種々の実施形態及び実験例等に限定されない。例えば、校正部(校正工程)は、必ずしも備えていなくてもよい。例えば、人間(成人)の一般的な平均値としての眼球中心C、すなわち、並進ベクトルTeを使用しても良い。なお、校正部33を視線方向推定装置30が有する形態では、被撮影対象者が同じである場合には校正部33による校正工程は、一番初めに一度行っていればよい。また、虹彩の初期値は、視線方向推定部32が算出するとして説明したが、例えば、虹彩の初期値算出部を別途有していても良い。更に、例示した種々の実施形態などは、本発明の趣旨を逸脱しない範囲で適宜組み合わせられ得る。
1…視線方向推定システム、10…カメラ、11…RGBカメラ(2次元画像取得部)、12…距離画像取得部、30…視線方向推定装置、31…座標系設定部、32…視線方向推定部、33…校正部。
Claims (9)
- 被撮影対象者の視線方向を推定する視線方向推定システムであって、
撮影対象の2次元画像及び前記撮影対象までの距離情報を含む距離画像を取得するカメラと、
前記カメラで撮影された前記被撮影対象者の顔の前記2次元画像及び前記距離画像に基づいて、前記被撮影対象者の視線方向を推定する視線方向推定装置と、
を備え、
前記視線方向推定装置は、
前記顔の前記2次元画像及び前記距離画像から前記カメラの第1の座標系に対する前記被撮影対象者の頭部の姿勢情報を算出して第2の座標系を設定すると共に、前記第2の座標系を並進移動して表される前記被撮影対象者の眼球の中心を原点とする前記眼球の第3の座標系、前記第3の座標系の原点を原点とし、前記第3の座標系に対する水平方向の回転角である第1回転角及び鉛直方向の回転角である第2回転角で表される前記被撮影対象者の虹彩の第4の座標系を設定する座標系設定部と、
眼球モデルに基づいた、前記カメラを介して前記第4の座標系における前記虹彩の3次元的な輪郭を前記第1の座標系における画像平面に投影したとした場合の前記虹彩の輪郭を、前記被撮影対象者の前記顔の前記2次元画像から抽出される前記虹彩の輪郭にフィティングすることによって、前記第1及び第2回転角を算出し、算出された前記第1及び第2回転角並びに前記眼球モデルに基づいて決定される前記被撮影対象者の瞳孔中心と、前記第3の座標系の原点とから算出される光学軸に基づいて前記被撮影対象者の視線方向を推定する視線方向推定部と、
を有する、
視線方向推定システム。 - 前記視線方向推定部は、前記フィティングにより対応付けられた、前記第4の座標系における前記虹彩の3次元的な輪郭を前記画像平面に投影した際の各エッジ点と、前記2次元画像における前記虹彩の輪郭中の対応するエッジ点との対応関係を示すと共に前記第1及び第2回転角を未知パラメータとして含む目的関数を解くことによって、前記第1及び第2回転角を算出する、
請求項1に記載の視線方向推定システム。 - 前記被撮影対象者が前記カメラの方を向き且つ前記カメラを注視している状態で撮影された前記被撮影対象者の顔の前記2次元画像及び前記距離画像に基づいて、前記第3の座標系の原点を校正する校正部を更に備える、
請求項1又は2に記載の視線方向推定システム。 - 被撮影対象者の視線方向を推定する視線方向推定方法であって、
撮影対象の2次元画像及び前記撮影対象までの距離情報を含む距離画像を取得するカメラを用いて、前記被撮影対象者の顔を撮影する撮影工程と、
前記撮影工程で得られた前記顔の前記2次元画像及び前記距離画像から前記カメラの第1の座標系に対する前記被撮影対象者の頭部の姿勢情報を算出して第2の座標系を設定すると共に、前記第2の座標系を並進移動して表される前記被撮影対象者の眼球の中心を原点とする前記眼球の第3の座標系、前記第3の座標系の原点を原点とし、前記第3の座標系に対する水平方向の回転角である第1回転角及び鉛直方向の回転角である第2回転角で表される前記被撮影対象者の虹彩の第4の座標系を設定する座標系設定工程と、
眼球モデルに基づいた、前記カメラを介して前記第4の座標系における前記虹彩の3次元的な輪郭を前記第1の座標系における画像平面に投影したとした場合の前記虹彩の輪郭を、前記被撮影対象者の前記顔の前記2次元画像から抽出される前記虹彩の輪郭にフィティングすることによって、前記第1及び第2回転角を算出し、算出された前記第1及び第2回転角並びに前記眼球モデルに基づいて決定される前記被撮影対象者の瞳孔中心と、前記第3の座標系の原点とから算出される光学軸に基づいて前記被撮影対象者の視線方向を推定する視線方向推定工程と、
を備える、
視線方向推定方法。 - 前記視線方向推定工程では、前記フィティングにより対応付けられた、前記第4の座標系における前記虹彩の3次元的な輪郭を前記画像平面に投影した際の各エッジ点と、前記2次元画像における前記虹彩の輪郭中の対応するエッジ点との対応関係を示すと共に前記第1及び第2回転角を未知パラメータとして含む目的関数を解くことによって、前記第1及び第2回転角を算出する、
請求項4に記載の視線方向推定方法。 - 前記被撮影対象者の顔の前記2次元画像及び前記距離画像に基づいて、前記第3の座標系の原点を校正する校正工程を更に備え、
前記校正工程を実施する場合、前記撮影工程では、前記被撮影対象者が前記カメラの方を向いて且つ前記カメラを注視している状態で前記被撮影対象者を撮影する、
請求項4又は5に記載の視線方向推定方法。 - 被撮影対象者の視線方向を推定する視線方向推定プログラムであって、
コンピュータに、
撮影対象の2次元画像及び前記撮影対象までの距離情報を含む距離画像を取得するカメラを用いて、前記被撮影対象者の顔を撮影して得られた、前記顔の前記2次元画像及び前記距離画像から前記カメラの第1の座標系に対する前記被撮影対象者の頭部の姿勢情報を算出して第2の座標系を設定すると共に、前記第2の座標系を並進移動して表される前記被撮影対象者の眼球の中心を原点とする前記眼球の第3の座標系、前記第3の座標系に対する水平方向の回転角である第1回転角及び鉛直方向の回転角である第2回転角で表される前記被撮影対象者の虹彩の第4の座標系を設定する座標系設定工程と、
眼球モデルに基づいた、前記カメラを介して前記第4の座標系における前記虹彩の3次元的な輪郭を前記第1の座標系における画像平面に投影したとした場合の前記虹彩の輪郭を、前記被撮影対象者の前記顔の前記2次元画像から抽出される前記虹彩の輪郭にフィティングすることによって、前記第1及び第2回転角を算出し、算出された前記第1及び第2回転角並びに前記眼球モデルに基づいて決定される前記被撮影対象者の瞳孔中心と、前記第3の座標系の原点とから算出される光学軸に基づいて前記被撮影対象者の視線方向を推定する視線方向推定工程と、
実行せしめる、視線方向推定プログラム。 - 前記視線方向推定工程では、前記フィティングにより対応付けられた、前記第4の座標系における前記虹彩の3次元的な輪郭を前記画像平面に投影した際の各エッジ点と、前記2次元画像における前記虹彩の輪郭中の対応するエッジ点との対応関係を示すと共に前記第1及び第2回転角を未知パラメータとして含む目的関数を解くことによって、前記第1及び第2回転角を算出する、
請求項7に記載の視線方向推定プログラム。 - 前記コンピュータに、
前記被撮影対象者が前記カメラの方を向いて且つ前記カメラを注視している状態で前記被撮影対象者を撮影することによって取得された前記被撮影対象者の顔の前記2次元画像及び前記距離画像に基づいて、前記第3の座標系の原点を校正する校正工程を更に実行せしめる、
請求項7又は8に記載の視線方向推定プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015053745A JP2016173313A (ja) | 2015-03-17 | 2015-03-17 | 視線方向推定システム、視線方向推定方法及び視線方向推定プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015053745A JP2016173313A (ja) | 2015-03-17 | 2015-03-17 | 視線方向推定システム、視線方向推定方法及び視線方向推定プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016173313A true JP2016173313A (ja) | 2016-09-29 |
Family
ID=57009588
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015053745A Pending JP2016173313A (ja) | 2015-03-17 | 2015-03-17 | 視線方向推定システム、視線方向推定方法及び視線方向推定プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016173313A (ja) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018101211A (ja) * | 2016-12-19 | 2018-06-28 | 矢崎総業株式会社 | 車載器 |
CN108921000A (zh) * | 2018-04-16 | 2018-11-30 | 深圳市深网视界科技有限公司 | 头部角度标注、预测模型训练、预测方法、设备和介质 |
CN109446892A (zh) * | 2018-09-14 | 2019-03-08 | 杭州宇泛智能科技有限公司 | 基于深度神经网络的人眼注意力定位方法及*** |
CN110794963A (zh) * | 2019-10-18 | 2020-02-14 | 天津理工大学 | 基于深度相机的眼控辅助输入方法 |
JP2020508621A (ja) * | 2017-02-27 | 2020-03-19 | アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited | バーチャル・リアリティー・ヘッドマウント装置 |
CN111353461A (zh) * | 2020-03-11 | 2020-06-30 | 京东数字科技控股有限公司 | 广告屏的关注度检测方法、装置、***及存储介质 |
CN111767821A (zh) * | 2020-06-23 | 2020-10-13 | 京东数字科技控股有限公司 | 对象被关注的识别方法、装置、设备及存储介质 |
CN112416126A (zh) * | 2020-11-18 | 2021-02-26 | 青岛海尔科技有限公司 | 页面滚动控制方法和装置、存储介质及电子设备 |
CN112633217A (zh) * | 2020-12-30 | 2021-04-09 | 苏州金瑞阳信息科技有限责任公司 | 基于三维眼球模型计算视线方向的人脸识别活体检测方法 |
CN113139892A (zh) * | 2020-01-19 | 2021-07-20 | 株式会社理光 | 一种视线轨迹的计算方法、装置及计算机可读存储介质 |
CN113421239A (zh) * | 2021-06-23 | 2021-09-21 | 深圳中科飞测科技股份有限公司 | 识别方法、识别装置、半导体处理设备及可读存储介质 |
CN113610051A (zh) * | 2021-08-26 | 2021-11-05 | 合众新能源汽车有限公司 | 基于人脸注册的人脸测距方法、设备和计算机可读介质 |
CN113627267A (zh) * | 2021-07-15 | 2021-11-09 | 中汽创智科技有限公司 | 一种视线检测方法、装置、设备及介质 |
CN113903079A (zh) * | 2020-07-06 | 2022-01-07 | 北京理工大学 | 一种基于集成化微小型头戴式***的视线估计方法 |
CN114067420A (zh) * | 2022-01-07 | 2022-02-18 | 深圳佑驾创新科技有限公司 | 一种基于单目摄像头的视线测量方法及装置 |
CN116824036A (zh) * | 2023-04-19 | 2023-09-29 | 南京医科大学 | 基于三维成像的眼球立体建模方法、*** |
-
2015
- 2015-03-17 JP JP2015053745A patent/JP2016173313A/ja active Pending
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018101211A (ja) * | 2016-12-19 | 2018-06-28 | 矢崎総業株式会社 | 車載器 |
US11016293B2 (en) | 2017-02-27 | 2021-05-25 | Advanced New Technologies Co., Ltd. | Virtual reality head-mounted apparatus |
JP2020508621A (ja) * | 2017-02-27 | 2020-03-19 | アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited | バーチャル・リアリティー・ヘッドマウント装置 |
JP2022022421A (ja) * | 2017-02-27 | 2022-02-03 | アドバンスド ニュー テクノロジーズ カンパニー リミテッド | バーチャル・リアリティー・ヘッドマウント装置 |
JP7369173B2 (ja) | 2017-02-27 | 2023-10-25 | アドバンスド ニュー テクノロジーズ カンパニー リミテッド | バーチャル・リアリティー・ヘッドマウント装置 |
CN108921000A (zh) * | 2018-04-16 | 2018-11-30 | 深圳市深网视界科技有限公司 | 头部角度标注、预测模型训练、预测方法、设备和介质 |
CN108921000B (zh) * | 2018-04-16 | 2024-02-06 | 深圳市深网视界科技有限公司 | 头部角度标注、预测模型训练、预测方法、设备和介质 |
CN109446892A (zh) * | 2018-09-14 | 2019-03-08 | 杭州宇泛智能科技有限公司 | 基于深度神经网络的人眼注意力定位方法及*** |
CN109446892B (zh) * | 2018-09-14 | 2023-03-24 | 杭州宇泛智能科技有限公司 | 基于深度神经网络的人眼注意力定位方法及*** |
CN110794963A (zh) * | 2019-10-18 | 2020-02-14 | 天津理工大学 | 基于深度相机的眼控辅助输入方法 |
CN113139892A (zh) * | 2020-01-19 | 2021-07-20 | 株式会社理光 | 一种视线轨迹的计算方法、装置及计算机可读存储介质 |
CN111353461A (zh) * | 2020-03-11 | 2020-06-30 | 京东数字科技控股有限公司 | 广告屏的关注度检测方法、装置、***及存储介质 |
CN111353461B (zh) * | 2020-03-11 | 2024-01-16 | 京东科技控股股份有限公司 | 广告屏的关注度检测方法、装置、***及存储介质 |
CN111767821A (zh) * | 2020-06-23 | 2020-10-13 | 京东数字科技控股有限公司 | 对象被关注的识别方法、装置、设备及存储介质 |
CN113903079A (zh) * | 2020-07-06 | 2022-01-07 | 北京理工大学 | 一种基于集成化微小型头戴式***的视线估计方法 |
CN112416126A (zh) * | 2020-11-18 | 2021-02-26 | 青岛海尔科技有限公司 | 页面滚动控制方法和装置、存储介质及电子设备 |
CN112633217A (zh) * | 2020-12-30 | 2021-04-09 | 苏州金瑞阳信息科技有限责任公司 | 基于三维眼球模型计算视线方向的人脸识别活体检测方法 |
CN113421239A (zh) * | 2021-06-23 | 2021-09-21 | 深圳中科飞测科技股份有限公司 | 识别方法、识别装置、半导体处理设备及可读存储介质 |
CN113627267A (zh) * | 2021-07-15 | 2021-11-09 | 中汽创智科技有限公司 | 一种视线检测方法、装置、设备及介质 |
CN113610051A (zh) * | 2021-08-26 | 2021-11-05 | 合众新能源汽车有限公司 | 基于人脸注册的人脸测距方法、设备和计算机可读介质 |
CN113610051B (zh) * | 2021-08-26 | 2023-11-17 | 合众新能源汽车股份有限公司 | 基于人脸注册的人脸测距方法、设备和计算机可读介质 |
CN114067420A (zh) * | 2022-01-07 | 2022-02-18 | 深圳佑驾创新科技有限公司 | 一种基于单目摄像头的视线测量方法及装置 |
CN114067420B (zh) * | 2022-01-07 | 2023-02-03 | 深圳佑驾创新科技有限公司 | 一种基于单目摄像头的视线测量方法及装置 |
CN116824036A (zh) * | 2023-04-19 | 2023-09-29 | 南京医科大学 | 基于三维成像的眼球立体建模方法、*** |
CN116824036B (zh) * | 2023-04-19 | 2024-05-17 | 南京医科大学 | 基于三维成像的眼球立体建模方法、*** |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2016173313A (ja) | 視線方向推定システム、視線方向推定方法及び視線方向推定プログラム | |
US11741624B2 (en) | Method and system for determining spatial coordinates of a 3D reconstruction of at least part of a real object at absolute spatial scale | |
CN110913751B (zh) | 具有滑动检测和校正功能的可穿戴眼睛跟踪*** | |
US9864430B2 (en) | Gaze tracking via eye gaze model | |
JP6800091B2 (ja) | 視線計測装置及びプログラム | |
CN109804220B (zh) | 用于跟踪头部运动的装置和方法 | |
JP2020034919A (ja) | 構造化光を用いた視線追跡 | |
US20150029322A1 (en) | Method and computations for calculating an optical axis vector of an imaged eye | |
EP4383193A1 (en) | Line-of-sight direction tracking method and apparatus | |
CN109690553A (zh) | 执行眼睛注视跟踪的***和方法 | |
US20140218281A1 (en) | Systems and methods for eye gaze determination | |
US20210223859A1 (en) | Method and device for determining gaze placement, computer readable storage medium | |
JPWO2008007781A1 (ja) | 視線方向検出装置および視線方向検出方法 | |
JP7030317B2 (ja) | 瞳孔検出装置及び瞳孔検出方法 | |
JP6840697B2 (ja) | 視線方向推定装置、視線方向推定方法、及び視線方向推定プログラム | |
CN111854620B (zh) | 基于单目相机的实际瞳距测定方法、装置以及设备 | |
JP6452235B2 (ja) | 顔検出方法、顔検出装置、及び顔検出プログラム | |
JP2019215688A (ja) | 自動キャリブレーションを行う視線計測装置、視線計測方法および視線計測プログラム | |
JP6324119B2 (ja) | 回転角度算出方法、注視点検出方法、情報入力方法、回転角度算出装置、注視点検出装置、情報入力装置、回転角度算出プログラム、注視点検出プログラム及び情報入力プログラム | |
CN106843492B (zh) | 一种多人视点校准***及方法 | |
JP6288770B2 (ja) | 顔検出方法、顔検出システム、および顔検出プログラム | |
JP6785723B2 (ja) | 視線計測装置 | |
JP2005261728A (ja) | 視線方向認識装置及び視線方向認識プログラム | |
JP2018101211A (ja) | 車載器 | |
JP2014155635A (ja) | 視線計測装置、注視領域の表示方法および注視点のガウス分布の表示方法 |