JP2018101212A - 車載器および顔正面度算出方法 - Google Patents

車載器および顔正面度算出方法 Download PDF

Info

Publication number
JP2018101212A
JP2018101212A JP2016245795A JP2016245795A JP2018101212A JP 2018101212 A JP2018101212 A JP 2018101212A JP 2016245795 A JP2016245795 A JP 2016245795A JP 2016245795 A JP2016245795 A JP 2016245795A JP 2018101212 A JP2018101212 A JP 2018101212A
Authority
JP
Japan
Prior art keywords
face
image
degree
center
eyeball
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016245795A
Other languages
English (en)
Inventor
勇氣 ▲高▼橋
勇氣 ▲高▼橋
Yuki Takahashi
尚武 佐久本
Naotake Sakumoto
尚武 佐久本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yazaki Corp
Original Assignee
Yazaki Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yazaki Corp filed Critical Yazaki Corp
Priority to JP2016245795A priority Critical patent/JP2018101212A/ja
Publication of JP2018101212A publication Critical patent/JP2018101212A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Eye Examination Apparatus (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】撮影された顔画像中で顔の向きが正面を向いているか否かを精度よく検出すること。
【解決手段】顔画像Fが低解像度化された第1の画像データFsmallと、前記顔画像を左右反転された画像FLが低解像度化された第2の画像データFLsmallの類似性を顔正面度Dとして算出する。顔が正面を向き、視線の向きが正面である状態で、3次元眼球モデルにおける眼球中心位置の校正を自動的に実施する。低解像度化された画像を処理することにより、計算処理量が低減される。更に顔の向きと無関係な黒子などの個人の身体的な特徴の影響が抑制されるため、顔正面度Dを高精度で算出できる。
【選択図】図5

Description

本発明は、顔を含むように撮影された顔画像を利用する車載器および顔正面度算出方法に関し、特にキャリブレーションに利用可能な技術に関する。
車両においては、運転者の視線の方向を検知し、この視線の情報を安全運転などのために役立てることが望まれている。視線を検出する代表的な手法としては、従来より「角膜反射法」、「瞳孔−角膜反射法」(例えば特許文献1)、および「モデルベース手法」(例えば特許文献2)が知られている。
「角膜反射法」および「瞳孔−角膜反射法」の場合は、目に赤外線を当てることで生じる角膜反射光(プルキニエ像)を基準点とし、瞳孔の位置関係に基づいて視線を検出する。「モデルベース手法」の場合は、顔の特徴点群や3次元顔モデルと3次元眼球モデルを利用して視線を算出する。
「角膜反射法」および「瞳孔−角膜反射法」はキャリブレーションなしで視線計測をすることはできない。一方、「モデルベース手法」は、キャリブレーションなしでも認識することができる。また、キャリブレーションによって個人差を解消することができるため視線の検出精度を向上させることができる。
例えば、特許文献3の技術では、校正時にヘッドアップディスプレイを用いて運転者が視認可能なターゲットを前方に虚像として表示し、ターゲットの位置を注視している状態の運転者の視線方向を検出することでキャリブレーションを実施している。
また、例えば特許文献4は、運転者による特別な操作が不要なキャリブレーションの技術を示している。例えば、自車両と他車両との車間距離、ブレーキ踏み込みの状態などに基づいて特定の状態を検知し、運転者の視線が他車両の方向を向いている可能性が高いと考えられる時に、カメラで撮影した(他車両を含む)画像を利用してキャリブレーションを自動的に実施する。また、ODOメータリセットボタンが操作されたときに、運転者の視線が特定の方向にあるものとしてカメラで撮影した画像を用いてキャリブレーションを行っている(段落[0055]参照)。
特開2016−49260号公報 特開2008−194146号公報 特開2009−183473号公報 特開2012−201232号公報
しかしながら、視線検出のために上記「角膜反射法」又は「瞳孔−角膜反射法」を採用する場合には、計測のためのシステム規模が大きくなるため、車内空間への適用が難しい。他方、上記「モデルベース手法」を採用する場合には、カメラ一台で実現できるため、車内空間への適用に向いている。
しかし、「モデルベース手法」は、「角膜反射法」よりも視線計測精度が悪い。すなわち、視線の検出に用いられるパラメータ、例えば眼球中心位置などの誤差が大きいため、検出精度が低下する。この検出精度の悪化の原因については、撮影された顔画像中で顔の向きが正面を向いていない中で眼球中心位置の検出がなされることが一因として挙げられる。
そのため、キャリブレーションが必要になる。しかし、特許文献3に示されたような方法では、キャリブレーションを実施する際のユーザの負担が非常に大きいので車両への適用は難しい。また、特許文献4に示されたような方法では、高精度でキャリブレーションすることは難しい。
本発明は、上述した事情に鑑みてなされたものであり、その目的は、撮影された顔画像中で顔の向きが正面を向いているか否かを精度よく検出することが可能な車載器および顔正面度算出方法を提供することにある。
前述した目的を達成するために、本発明に係る車載器は、下記(1)〜(4)を特徴としている。
(1) 顔を含むように撮影された顔画像から、前記顔が正面を向いている度合を表す顔正面度を算出するデータ処理部を備える車載器であって、
前記データ処理部は、前記顔画像が低解像度化された第1の画像データと、前記顔画像を左右反転された画像が低解像度化された第2の画像データを対比することによって前記顔正面度を算出することを特徴とする。
(2) 前記データ処理部は、
前記顔正面度が条件を満たす場合、前記顔画像に含まれる眼球がモデル化された3次元眼球モデルにおける中心が位置する眼球中心座標を算出する、
ことを特徴とする上記(1)に記載の車載器。
(3) 前記データ処理部は、
前記顔正面度が条件を満たすか否かを判定し、
前記顔画像に含まれる黒目位置に基づく視線が正面を向いているか否かを判定し、
顔及び視線が正面を向いていると判定した場合に、前記3次元眼球モデルにおける前記眼球中心座標を算出する
ことを特徴とする上記(2)に記載の車載器。
(4) 前記データ処理部は、
総画素数が共通の前記第1の画像データと、前記第2の画像データとを同じ位置の画素毎に比較し、前記第1の画像データにおける画素の輝度と、前記第2の画像データにおける画素の輝度との差分を集計して前記顔正面度を算出する、
ことを特徴とする上記(1)乃至(3)のいずれかに記載の車載器。
上記(1)の構成の車載器によれば、顔の左右を反転した画像同士を対比するので、顔が正面を向いている度合を単純な計算処理だけで検知できる。しかも、対比する前に画像を低解像度化するので、処理対象のデータ量が削減され計算量が減る。また、低解像度化により、例えば顔の中にある黒子(ほくろ)のような身体における局所的な差異の影響を除外できるので、個人差により検出精度が低下することもなくなる。
上記(2)の構成の車載器によれば、前記顔正面度に基づき、計算誤差が少ない条件でのみ、前記眼球中心座標を算出することができる。すなわち、監視対象の人物の顔が正面を向いている状況であれば、大きな計算誤差を生じることなく、しかも単純な計算処理だけで前記眼球中心座標を算出できる。
上記(3)の構成の車載器によれば、監視対象の人物の顔が正面を向き、且つ顔の中の視線が正面を向いている状況でのみ、前記眼球中心座標を算出することができる。これにより、計算誤差の発生を減らすことができ、計算処理も単純化できる。
上記(4)の構成の車載器によれば、比較的単純な計算処理によって前記顔正面度を正確に算出できる。
前述した目的を達成するために、本発明に係る顔正面度算出方法は、下記(5)を特徴としている。
(5) 顔を含むように撮影された顔画像から、前記顔が正面を向いている度合を表す顔正面度を算出する顔正面度算出方法であって、
前記顔画像が低解像度化された第1の画像データと、前記顔画像を左右反転された画像が低解像度化された第2の画像データを対比することによって前記顔正面度を算出することを特徴とする。
上記(5)の構成の顔正面度算出方法によれば、顔の左右を反転した画像同士を対比するので、顔が正面を向いている度合を単純な計算処理だけで検知できる。しかも、対比する前に画像を低解像度化するので、処理対象のデータ量が削減され計算量が減る。また、低解像度化により、例えば顔の中にある黒子のような身体における局所的な差異の影響を除外できるので、個人差により検出精度が低下することもなくなる。
本発明の車載器および顔正面度算出方法によれば、撮影された顔画像中で顔の向きが正面を向いているか否かを精度よく検出することが可能である。
以上、本発明について簡潔に説明した。更に、以下に説明される発明を実施するための形態(以下、「実施形態」という。)を添付の図面を参照して通読することにより、本発明の詳細は更に明確化されるであろう。
図1は、実施形態の車載器の配置状態の具体例を示す斜視図である。 図2は、3次元眼球モデルを利用して視線検出する場合の処理手順の概要を示すフローチャートである。 図3は、二次元の入力画像と3次元眼球モデルとの関係の例を示す模式図である。 図4は、眼球中心位置を自動的に校正するための処理手順の概要を示すフローチャートである。 図5は、顔正面度を計算するための処理手順を示すフローチャートである。 図6は、顔正面度を算出する際の処理前後の顔画像の状態変化を示す状態遷移図である。 図7は、顔画像における顔の中心線と左右の黒目位置との関係の具体例を示す正面図である。 図8は、3次元眼球モデルの眼球中心、黒目中心、視角の位置関係の例を示す平面図である。 図9は、顔の中心と画像の中心とが等しい場合の中心線と左右の黒目中心との位置関係の例を示す正面図である。 図10は、顔の中心と画像の中心とが等しい場合の視角、距離、左右の黒目中心の位置関係の例を示す平面図である。 図11は、顔の中心と画像の中心とが同一でない場合の中心線と左右の黒目中心との位置関係の例を示す正面図である。 図12は、顔の中心と画像の中心とが同一でない場合の視角、距離、左右の黒目中心の位置関係の例を示す平面図である。 図13は、眼球中心位置の補正値と3次元眼球モデルおよび入力画像との関係の例を示す模式図である。 図14は、眼球中心位置の補正値を車載器の動作に反映するための処理の具体例を示すフローチャートである。
本発明の車載器および顔正面度算出方法に関する具体的な実施の形態について、各図を参照しながら以下に説明する。
<本発明が適用される環境の具体例>
本発明の実施形態における車載器の配置状態の具体例を図1に示す。
図1に示した例では、車両の車室内10にカメラ12および処理部13が設置されている。具体的には、運転席に着座している人物11、すなわち運転者の目の領域11aを含む顔などをカメラ12で撮影できるように、運転席前方のメータユニット内、あるいはコラムカバーの箇所にカメラ12が設置されている。
処理部13は、カメラ12が人物11の顔を撮影した得られる二次元画像データを処理し、主に目の領域11aのデータから視線11bの方向を示す情報を推定する。処理部13が推定した視線11bの情報は、代表例として、車両を運転する運転者が安全確認のための視線移動をしているかどうかを車載装置が認識するために利用できる。勿論、このような視線の情報は様々な用途に利用可能である。したがって、本発明の車載器は、例えば図1中の処理部13、あるいはその一部として構成することが想定される。
なお、本実施形態の車載器は、後述するように、カメラ12が撮影した二次元画像データに基づいて、眼球中心位置を自動的に校正する機能を搭載している。したがって、車載器の視線検出機能を校正するために、図1に示した構成以外に、特別な校正機材を用意する必要はない。また、人物11も校正のために特別な調整の操作を実施する必要がない。
<視線検出アルゴリズムの概要>
3次元眼球モデルを利用して、顔画像に基づき視線検出する場合の処理手順の概要を図2に示す。すなわち、車載器のコンピュータが所定のプログラムを実行することにより、図2に示した視線検出アルゴリズムに従った動作が順次に行われる。
カメラ12は、人物11の顔を含む領域の映像を一定の周期で常時撮影し、映像の信号を出力する。車載器のコンピュータは、ステップS11でカメラ12から映像の信号を1フレーム分取り込む。また、実際にはグレースケール化を含む、画像のデータ形式の変換などの「下処理」をS11で行う。例えば、1フレーム内の各画素位置毎に、輝度を「0〜255」の範囲の階調で表す8ビットデータを、撮影時のフレーム内走査方向に合わせて縦方向(y)及び横方向(x)に並べた二次元(2D)配列の画像データを生成する。
ステップS12では、コンピュータがS11で入力された1フレームまたは複数フレームの二次元画像データを処理して、人物11の顔を検出する。具体例としては、「Viola-Jones法」を用いて顔検出を行い、1フレームの二次元画像データの中から顔を含む領域を矩形の領域として抽出する。すなわち、顔の陰影差を特徴とし「Boosting」を用いた学習によって作成された検出器を使って顔の領域を抽出する。勿論、独自に開発した手法を利用して顔を検出してもよい。なお、「Viola-Jones法」の技術は以下の文献に示されている。
「P.viola and M.J.Jones,"Rapid Object Detection Using a Boosted Cascade of Simple Features," IEEE CVPR(2001).」
次のステップS13では、S12で抽出した顔の矩形領域内のデータを処理して、左右の黒目(虹彩)の各々を検出する。例えば、公知技術であるテンプレートマッチングを用いることにより黒目を検出できる。すなわち、例えば黒い円形パターンのような黒目の特徴を表すテンプレートの参照データを予め用意しておき、このテンプレートを処理対象画像上で順次に走査して特徴が一致する位置を特定する。なお、黒目の検出を実行する前に、顔の全体について様々な特徴点の位置または陰影差を検出し、左右の目の各々の領域の位置を把握する。これにより、左右の黒目の検出を行う際に、探索処理の対象となるデータの範囲を限定できるので、処理の時間を短縮できる。例えば、「Viola-Jones法」を用いることにより目の領域を検出できる。
また、本実施形態では3次元眼球モデルを用いるモデルベース手法によって視線を検出する場合を想定しているので、左右の各眼球の基準点として眼球中心位置を特定する必要がある。この眼球中心位置をコンピュータがステップS14で推定する。この処理には、目尻、目頭位置に基づいて眼球中心位置を決定する方法や、顔の特徴点より骨格を推定し同時に眼球中心位置を算出する方法を利用することが想定される。但し、本発明の実施形態においては、後述するように特別なアルゴリズムを用いて眼球中心位置を特定する。
ステップS15では、コンピュータが、検出した黒目位置、および眼球中心位置に基づき、3次元眼球モデルの状態(位置、角度)を決定し、その結果により視線の角度を算出する。
ステップS16では、コンピュータが、ステップS15で得られた視線の角度に対して、必要に応じてデータの平均化、ノイズ除去などの処理を行い、視線の方向の情報を利用するアプリケーションプログラムや他の車載機器に対して視線を表すデータを送信する。
<3次元眼球モデルの説明>
二次元の入力画像と3次元眼球モデルとの関係の例を図3に示す。
図3に示した3次元眼球モデル30において、この眼球は眼球中心31と、半径Rとで表される球体である。黒目(虹彩)32は、3次元眼球モデル30の眼球表面上に張り付いた半径Diの円盤状の領域であるとみなしている。黒目(虹彩)32の中心32aは瞳孔の中央部に相当する。なお、眼球の半径Rおよび黒目の半径Diの各寸法は、人体の寸法データおよびカメラ12の撮影系の各種パラメータに基づいて決めることができる。
この3次元眼球モデル30において、視線の方向は、眼球中心31から黒目32の中央に向かう方向として特定でき、水平面内の基準方向に対する回転角度ヨー(yaw)、および上下方向の基準方向に対する回転角度ピッチ(pitch)により表すことができる。また、黒目中心32aの座標は、眼球中心31を基準とした場合、眼球半径R、ヨー(yaw)、およびピッチ(pitch)により表すことができる。
一方、カメラ12が撮影する映像は特定の2次元平面を表している。したがって、入力画像として例えば図3に示した目の領域の二次元画像35が入力された場合には、3次元眼球モデル30を利用するために二次元/三次元の相互変換を行う必要がある。
具体的には、目の領域の二次元画像35の中で黒目中心32aの位置、および眼球中心31の位置の二次元座標をそれぞれ検出し、これらの二次元座標を3次元眼球モデル30の三次元座標上に投影する。これにより視線11bのベクトルを算出することができる。視線11bのベクトルと、各方向の回転角度yaw、pitchとの関係は次式で表される。
X=−R×cos(pitch)×sin(yaw) ・・・(1)
Y=R×sin(pitch) ・・・(2)
X:二次元画像平面上での眼球中心31からのx方向の距離
Y:二次元画像平面上での眼球中心31からのy方向の距離
<特徴的な処理の説明>
<処理の概要>
3次元眼球モデル30における眼球中心31の位置を自動的に校正するための処理手順の概要を図4に示す。例えば、処理部13内部のコンピュータが、図2に示したステップS14として図4に示した処理を実行することにより、眼球中心31の位置が自動的に校正される。これにより、眼球中心31の位置精度が向上するので、視線検出精度も上がる。校正のために運転者等のユーザが特別な操作を行う必要もない。
図4のステップS101では、入力画像に映っている人物11の顔の正面度、すなわち「顔が正面を向いている度合」をコンピュータが計算する。そして、S101の計算結果に基づき、「顔が正面を向いている」とみなせる状態であれば、ステップS102からS103に進む。
ステップS103では、入力画像に映っている人物11の視線の正面度、すなわち「視線の方向が正面を向いている度合」をコンピュータが計算する。そして、S103の計算結果に基づき、「視線の方向が正面を向いている」とみなせる状態であれば、ステップS104からS105に進む。
ステップS105では、入力画像に映っている人物11の現在の特徴に基づいて、最新の眼球中心位置を算出し、眼球中心位置を更新するために必要な補正値を求める。この補正値を次のステップS106で、3次元眼球モデル30の眼球中心31の座標に反映し校正を実行する。
<「顔正面度」の計算の詳細>
「顔正面度」は、入力画像上において「顔が正面を向いている度合」を表す。「顔正面度」を計算するための具体的な処理手順を図5に示す。この処理手順を図4に示したステップS101で実行する。また、顔正面度を算出する際の処理前後の顔画像の状態変化を図6に示す。図5に示した「顔正面度計算」について以下に説明する。
図5のステップS31では、図2のS12で検出された顔領域の画像データFを処理対象として入力する。顔領域の画像データFにおける顔の中心座標は、図6に示すようにx軸方向の顔の中央位置(facecen.x)と、y軸方向の中央位置(facecen.y)とで表される。
図5のステップS32では、S31で入力した顔領域の画像データFを処理して、顔画像におけるx軸の中央(facecen.x)に対して左右を反転した左右反転画像データFLをコンピュータが作成する。
次のステップS33では、画像データFを処理することにより縮小画像データFsmallをコンピュータが作成する。この処理は画像の解像度を下げることを意味している。例えば、画像データFにおいてx方向に互いに隣接する2つの画素のうち1つを間引きして1画素に減らすことによりx方向の解像度を半分にして画素数も半分にすることができる。また間引きを行う際に、例えば隣接する2つの画素の輝度の平均値を算出して間引き後の画素の輝度に反映してもよい。同様に、画像データFにおいてy方向に互いに隣接する2つの画素のうち1つを間引きして1画素に減らすことによりy方向の解像度を半分にして画素数も半分にすることができる。このようにして画素数を減らすと、画像全体のサイズも縮小される。
実際には、顔正面度の検出に適した解像度になるようにステップS33で縮小画像データFsmallを作成する。例えば黒子のような個人の身体的な特徴は排除し、且つ黒目の位置のように顔の向きと大きな関係のある情報が正しく残るように適切な解像度の縮小画像データFsmallを作成する。図6に示した例では、縮小画像データFsmallは、低解像度化により、x方向の画素数Mが「20」、y方向の画素数Nが「20」になり、総画素数(M×N)が元の画像データFに比べて大幅に減少している。
次のステップS34では、S32で作成した左右反転画像データFLを処理することにより縮小画像データFLsmallをコンピュータが作成する。この処理は画像の解像度を下げることを意味している。例えば、左右反転画像データFLにおいてx方向に互いに隣接する2つの画素のうち1つを間引きして1画素に減らすことによりx方向の解像度を半分にして画素数も半分にすることができる。また間引きを行う際に、例えば隣接する2つの画素の輝度の平均値を算出して間引き後の画素の輝度に反映してもよい。同様に、左右反転画像データFLにおいてy方向に互いに隣接する2つの画素のうち1つを間引きして1画素に減らすことによりy方向の解像度を半分にして画素数も半分にすることができる。図6に示した例では、縮小画像データFLsmallは、低解像度化により、x方向の画素数Mが「20」、y方向の画素数Nが「20」になり、総画素数(M×N)が処理前の画像データFLに比べて大幅に減少している。
ステップS35では、S33の縮小画像データFsmallと、S34の縮小画像データFLsmallとの類似性を、コンピュータが顔正面度Dとして算出する。なお、この例では図6に示すように2つの縮小画像データFsmall、FLsmallの解像度が同じ場合を想定している。この場合の顔正面度Dは次式により算出される。
D:顔正面度
N:x方向の解像度を表す画素数
M:y方向の解像度を表す画素数
Fsmall(i,j):縮小画像データFsmallにおける座標(i,j)の画素の輝度値
FLsmall(i,j):縮小画像データFLsmallにおける座標(i,j)の画素の輝度値
α:顔正面度を判定するための閾値
つまり、総画素数(N×M)が共通の第1の画像データ(Fsmall)と、第2の画像データ(FLsmall)とを同じ位置の画素毎に比較し、前記第1の画像データにおける画素の輝度と、前記第2の画像データにおける画素の輝度との差分を集計して顔正面度Dを算出する。
なお、顔の中心位置を表すx座標の値(facecen.x)およびy座標の値(facecen.y)は、それぞれ顔領域の画像データFにおける横(x)方向の中央値、および縦(y)方向の中央値として算出できる。
上記第(3)式により算出した顔正面度Dを用いる場合には、図4のステップS102でこの顔正面度Dを閾値αと比較することにより、顔向きが正面か否かを識別できる。なお、閾値αの大きさについては、カメラ12の撮影条件を表すパラメータや個人差などを考慮して最適な値を採用することが想定される。
つまり、顔の特徴が顔の中央(facecen.x)に対して左右対称である場合を想定すれば、顔の中央から左側の特徴と右側の特徴とが等しい。したがって、画像データFと左右反転画像データFLとの類似性を反映した顔正面度Dは、顔向きが正面に近い状態で非常に小さくなり、顔向きが正面からずれると大きくなる。
また、上記第(3)式においては、画像データF、FLの代わりに、これらよりも解像度が低い縮小画像データFsmall、FLsmallの類似性を顔正面度Dとして算出している。これにより次の(1)、(2)の利点が得られる。
(1)処理対象のデータ量、すなわち画素数が少なくなるので、計算の処理量が減る。したがって、車載器に高性能のコンピュータを搭載しなくても短時間で処理を完了できる。
(2)顔の向きとは無関係な画像上の左右の局所的な差異の影響を排除することが容易になる。例えば、個人の身体的な特徴である黒子の有無やその位置は、顔の向きとは無関係であるが、画像上の左右の差異として検出され、顔正面度Dの値に影響を及ぼす。しかし、解像度が低い縮小画像データFsmall、FLsmallを利用する場合には、小さい黒子の影響は無視されることになり、顔正面度Dの値に影響しなくなる。
<「視線正面度」の計算の詳細>
顔画像における顔の中心線と左右の黒目位置との関係の具体例を図7に示す。
視線正面度FDは、入力画像に映っている人物11の視線の方向が正面を向いている度合、つまり、左右それぞれの目に3次元眼球モデル30を適用して得られた回転角度より計算される視線方向θ(yaw,pitch)が0度である度合を表す。
本実施形態では、図4の通り「顔の向きが正面である」という条件を満たしていることを前提として、次式によりコンピュータが視線正面度FDを算出する。
FD:視線正面度
irisR.x:右側の黒目の中心位置のx座標
irisL.x:左側の黒目の中心位置のx座標
facecen.x:顔の中心のx座標
β:視線の向きが正面か否かを識別するための閾値
なお、本実施形態では、両眼などの左右の位置関係は、人物11に対する左右ではなく、カメラ12側から視た左右や、撮影により得られた二次元画像上の左右を表すものとして説明する。
つまり、上記第(4)式で表される視線正面度FDは、x軸方向について、左右の黒目中心の間の中央位置と、顔の中心線の位置(facecen.x)との差分を表している。したがって、例えば中心線の位置(facecen.x)から右側の黒目の中心位置までの距離と、左側の黒目の中心位置までの距離とが等距離であれば、視線の方向が正面を向いていると判定できる。また、x軸方向の位置関係に基づき視線の方向が正面を向いていると判断できる状況であれば、同時にy軸方向についても視線の方向が正面を向いていると考えることができる。
また、視線正面度FDは、視線の方向が正面を向いている時に0になり、視線の方向が正面からずれるに従って大きくなる。したがって、上記第(4)式により算出した視線正面度FDを用いる場合には、図4のステップS104でこの視線正面度FDを閾値βと比較することにより、視線の向きが正面か否かを識別できる。なお、閾値βの大きさについては、カメラ12の撮影条件を表すパラメータや個人差などを考慮して最適な値を採用することが想定される。
<眼球中心位置の算出>
図4に示したステップS105で最新の眼球中心位置を算出するための処理について以下に説明する。
<x軸方向の顔の中心と画像の中心とが等しい場合>
3次元眼球モデルの眼球中心、黒目中心、視角の水平面(又はx,z軸と平行な面)内における位置関係の例を図8に示す。また、x軸方向の顔の中心と画像の中心とが等しい場合の中心線と左右の黒目中心との位置関係の例を図9に示す。また、x軸方向の顔の中心と画像の中心とが等しい場合の視角、距離、左右の黒目中心の水平面内における位置関係の例を図10に示す。
左右の目のそれぞれについてほぼ同じ方法で計算できるので、以下の説明では右側の目のみを計算対象として処理する場合を想定している。
例えば、図8に示した状態においては、次の第(5)式の関係が成立する。
Xeyer=irisR.x−Ro・sinθRyaw ・・・(5)
Xeyer:右側の眼球中心のx座標
irisR.x:右側の黒目中心のx座標
Ro:眼球の半径(例えば定数)
θRyaw:右側の目の視線角度(yaw方向)
つまり、黒目中心の位置「irisR.x」および視線角度「θRyaw」が既知であれば、上記第(5)式から眼球中心のx座標「Xeyer」を算出できる。
また、図9に示すように画像中の顔中心位置のx座標「facecen.x」と、カメラで撮影した画像の中心のx座標「Icenter.x」とが等しく、且つ図10に示すような状況であることを想定すると、視線角度「θRyaw」は次の第(6)式で算出できる。
tanθRyaw=(irisR.x−Icenter.x)/Df ・・・(6)
Df:カメラと顔の間の距離
距離Dfについては、例えば適当な距離センサを利用して計測すれば、既知情報として扱うことができる。また、例えば「特開2015−206764号公報」に開示されている技術を利用すれば、距離センサは不要になる。また、前述のように顔画像から黒目を検出できるので、黒目中心の位置「irisR.x」も既知情報として利用できる。更に、画像の中心のx座標「Icenter.x」としては例えば事前に定めた定数を利用することができる。
したがって、上記第(6)式から視線角度「θRyaw」を算出できる。また、この視線角度「θRyaw」と、黒目中心の位置「irisR.x」と、眼球の半径Roを前記第(5)式に代入することにより、右側の眼球中心のx座標Xeyerを算出できる。
また、右側の眼球中心のy座標Yeyerについても、以下の第(7)式及び第(8)式を利用することにより同様に算出できる。
Yeyer=irisR.y−Ro・sinθRpitch ・・・(7)
Yeyer:右側の眼球中心のy座標
irisR.y:右側の黒目中心のy座標
Ro:眼球の半径(例えば定数)
θRpitch:右側の目の視線角度(pitch方向)
tanθRpitch=(irisR.y−Icenter.y)/Df・・(8)
Icenter.y:画像の中心のy座標
Df:カメラと顔の間の距離
<x軸方向の顔の中心と画像の中心とがずれている場合>
顔の中心と画像の中心とが同一でない場合の中心線と左右の黒目中心との位置関係の例を図11に示す。また、顔の中心と画像の中心とが同一でない場合の視角、距離、左右の黒目中心の水平面(x,z軸と平行な面)内における位置関係の例を図12に示す。
例えば、図11に示すように顔の中心線のx座標「facecen.x」が、画像の中心のx座標「Icenter.x」からずれている場合であっても、図12に示すように顔はカメラ12を中心とし、半径が距離Dfで表される円周上に存在する。また、顔の中心位置「facecen.x」と、画像の中心「Icenter.x」とは顔回転角度「facerad」だけずれている。しかし、カメラ12に対して顔が正面を向き、且つ両眼の各々の視線がカメラ12に向いている状態であれば、右側の目の視線角度「θRyaw」は、図12のように画像の中心「Icenter.x」に対する目の位置の回転角度として表すことができる。
したがって、x軸方向の顔の中心と画像の中心とがずれている場合であっても、前記第(6)式を用いて視線角度「θRyaw」を算出できる。また、この視線角度「θRyaw」と前記第(5)式とに基づき、眼球中心のx座標「Xeyer」を算出できる。
一方、左側の目について眼球中心の座標を算出する場合であっても、以下に示す各計算式を用いることにより上記と同様に計算できる。
Xeyel=irisL.x−Ro・sinθLyaw ・・・(9)
Xeyel:左側の眼球中心のx座標
irisL.x:左側の黒目中心のx座標
Ro:眼球の半径(例えば定数)
θLyaw:左側の目の視線角度(yaw方向)
tanθLyaw=(irisL.x−Icenter.x)/Df ・・・(10)
Df:カメラと顔の間の距離
Yeyel=irisL.y−Ro・sinθLpitch ・・・(11)
Yeyel:左側の眼球中心のy座標
irisL.y:左側の黒目中心のy座標
Ro:眼球の半径(例えば定数)
θLpitch:左側の目の視線角度(pitch方向)
tanθLpitch=(irisL.y−Icenter.y)/Df・・(12)
Icenter.y:画像の中心のy座標
Df:カメラと顔の間の距離
<眼球中心位置の補正>
3次元眼球モデル30における眼球中心31の位置座標に誤差がある場合であっても、上述の計算により得られる最新の眼球中心位置を用いて補正することで誤差が小さくなるように校正することができる。補正値は例えば以下に示す式により算出できる。
dXeye=Xeye−Xeyemodel ・・・(13)
dYeye=Yeye−Yeyemodel ・・・(14)
dXeye:x座標の補正値(右又は左)
dYeye:y座標の補正値(右又は左)
Xeye:算出した最新の眼球中心位置のx座標(右又は左)
Yeye:算出した最新の眼球中心位置のy座標(右又は左)
Xeyemodel:3次元眼球モデルにおける補正前の眼球中心x座標(右又は左)
Yeyemodel:3次元眼球モデルにおける補正前の眼球中心y座標(右又は左)
<眼球中心位置補正1>
眼球中心位置の補正値dXeyeと3次元眼球モデルおよび入力画像との関係の例を図13に示す。
図4に示したステップS105においては、顔正面度Dが閾値α以下であり、且つ視線正面度FDが閾値β以下であるので、最新の眼球中心位置の座標(Xeye,Yeye)を左右の目のそれぞれについて算出する。
そして、上記第(13)式、第(14)式により補正値dXeye、dYeyeを左右の目のそれぞれについて算出する。更に、誤差が小さくなるように、補正値dXeye、dYeyeを用いて図13に示すように、3次元眼球モデル30における眼球中心31の位置座標を左右の目のそれぞれについて更新する。
<眼球中心位置補正2>
眼球中心位置の補正値を車載器の動作に反映するための処理の具体例を図14に示す。
図4に示した処理を車載器に適用する場合には、人物11が正面を向き、且つ視線も正面に向いた状態が検出される毎に、ステップS105が繰り返し実行される。したがって、車載器に電源が投入されてから動作が終了するまでの間に、新たな補正値を用いて眼球中心位置の更新を繰り返すことができる。
そこで、より適切な更新処理を行うために、例えば図14に示した「眼球中心位置補正2」の処理をコンピュータが実行する。なお、図14においてはx軸方向の座標のみを処理しているが、y軸方向の座標についても同様に処理できる。図14に示した処理により、眼球中心位置の座標を一定の値に収束させることができる。
図14のステップS41では、上述の第(5)式、第(6)式、第(13)式に基づき、眼球中心位置の補正値dXeyeをコンピュータが算出する。また、ノイズの影響により生じる可能性のある明らかな外れ値を排除するために、次のステップS42で、補正値dXeyeを所定の閾値と比較する。
補正値dXeyeが明らかな外れ値でない場合には、ステップS43で更新回数値Nに1を加算する(Nの初期値は0)。また、次のステップS44では今回の補正値dXeyeのデータを更新回数値Nに対応付けたメモリ位置に保存する。
ステップS45では、コンピュータはメモリに保存されているN個の補正値dXeyeのデータを読み出して、これらを平均化した結果dXeye_Tを出力する。なお、平均化の具体的な方法については、単純な平均値、重み付けを行った平均値、移動平均値などの計算手法を適用可能である。
図14に示したような処理を適用することにより、ノイズの影響による明らかな外れ値を更新対象から除外することができる。また、平均化により眼球中心位置の急激な変化を避けることができる。すなわち、ノイズに対してロバストになる。したがって、運転者の視線を監視する車載器のように、同一のユーザを対象とする動作を長時間にわたって行う環境においては、有効な眼球中心が随時更新されることによって高い視線検出精度が期待できる。
<車載器の利点>
上述の車載器においては、図5に示した処理に相当する顔正面度算出方法を適用することにより、人物11の顔が正面を向いている度合を単純な計算処理で正確に検出できる。更に、入力画像に比べて解像度を下げた縮小画像データFsmall、FLsmallを利用するので、計算の処理量を削減できる。また、黒子のような個人の身体的な特徴の影響による計算誤差を低減できる。
また、図4に示した処理を実行し、人物11の顔が正面を向いていることを検知した状態でのみ眼球中心31の位置を補正することにより、校正における誤差を減らすことができる。更に、図4に示した処理のように、人物11の顔が正面を向き、且つ視線が正面を向いていることを検知した状態でのみ眼球中心31の位置を補正することで、誤差の発生を低減できる。また、この校正を行うためにユーザが特別な操作を実施する必要がなく、特別な校正機材を用意する必要もない。また、図14に示した処理を繰り返し実行することにより、ノイズの影響を排除したり、急激な変化を防止できるので、車載器の誤動作を避けることが可能になる。
したがって、上述の技術は、車載カメラを用いた運転者の視線検出、わき見検出などに利用できる。また、例えばデジタルサイネージ(電子看板)の視認確認にも利用できる。
ここで、上述した本発明に係る車載器及び顔正面度算出方法の実施形態の特徴をそれぞれ以下[1]〜[5]に簡潔に纏めて列記する。
[1] 顔を含むように撮影された顔画像から、前記顔が正面を向いている度合を表す顔正面度を算出するデータ処理部を備える車載器であって、
前記データ処理部(処理部13)は、前記顔画像が低解像度化された第1の画像データ(Fsmall)と、前記顔画像を左右反転された画像が低解像度化された第2の画像データ(FLsmall)を対比することによって前記顔正面度(D)を算出する(S31〜S35)、
ことを特徴とする車載器。
[2] 前記データ処理部は、
前記顔正面度が条件を満たす場合、前記顔画像に含まれる眼球がモデル化された3次元眼球モデル(30)における中心が位置する眼球中心座標(眼球中心31)を算出する(S105)、
ことを特徴とする上記[1]に記載の車載器。
[3] 前記データ処理部は、
前記顔正面度が条件を満たすか否かを判定し(S102)、
前記顔画像に含まれる黒目位置に基づく視線が正面を向いているか否かを判定し(S104)、
顔及び視線が正面を向いていると判定した場合に、前記3次元眼球モデルにおける前記眼球中心座標を算出する(S105)
ことを特徴とする上記[2]に記載の車載器。
[4] 前記データ処理部は、
総画素数が共通の前記第1の画像データと、前記第2の画像データとを同じ位置の画素毎に比較し、前記第1の画像データにおける画素の輝度と、前記第2の画像データにおける画素の輝度との差分を集計して前記顔正面度を算出する(第(3)式参照)、
ことを特徴とする上記[1]乃至[3]のいずれかに記載の車載器。
[5] 顔を含むように撮影された顔画像から、前記顔が正面を向いている度合を表す顔正面度を算出する顔正面度算出方法であって、
前記顔画像が低解像度化された第1の画像データ(Fsmall)と、前記顔画像を左右反転された画像が低解像度化された第2の画像データ(FLsmall)を対比することによって前記顔正面度(D)を算出する、
ことを特徴とする顔正面度算出方法。
10 車両の車室内
11 人物
11a 目の領域
11b 視線
12 カメラ
13 処理部
30 3次元眼球モデル
31 眼球中心
32 黒目(虹彩)
32a 黒目中心(瞳孔)
35 目の領域の二次元画像
F 画像データ
FL 左右反転画像データ
Fsmall,FLsmall 縮小画像データ
α,β 閾値

Claims (5)

  1. 顔を含むように撮影された顔画像から、前記顔が正面を向いている度合を表す顔正面度を算出するデータ処理部を備える車載器であって、
    前記データ処理部は、前記顔画像が低解像度化された第1の画像データと、前記顔画像を左右反転された画像が低解像度化された第2の画像データを対比することによって前記顔正面度を算出する、
    ことを特徴とする車載器。
  2. 前記データ処理部は、
    前記顔正面度が条件を満たす場合、前記顔画像に含まれる眼球がモデル化された3次元眼球モデルにおける中心が位置する眼球中心座標を算出する、
    ことを特徴とする請求項1に記載の車載器。
  3. 前記データ処理部は、
    前記顔正面度が条件を満たすか否かを判定し、
    前記顔画像に含まれる黒目位置に基づく視線が正面を向いているか否かを判定し、
    顔及び視線が正面を向いていると判定した場合に、前記3次元眼球モデルにおける前記眼球中心座標を算出する
    ことを特徴とする請求項2に記載の車載器。
  4. 前記データ処理部は、
    総画素数が共通の前記第1の画像データと、前記第2の画像データとを同じ位置の画素毎に比較し、前記第1の画像データにおける画素の輝度と、前記第2の画像データにおける画素の輝度との差分を集計して前記顔正面度を算出する、
    ことを特徴とする請求項1乃至請求項3のいずれか1項に記載の車載器。
  5. 顔を含むように撮影された顔画像から、前記顔が正面を向いている度合を表す顔正面度を算出する顔正面度算出方法であって、
    前記顔画像が低解像度化された第1の画像データと、前記顔画像を左右反転された画像が低解像度化された第2の画像データを対比することによって前記顔正面度を算出する、
    ことを特徴とする顔正面度算出方法。
JP2016245795A 2016-12-19 2016-12-19 車載器および顔正面度算出方法 Pending JP2018101212A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016245795A JP2018101212A (ja) 2016-12-19 2016-12-19 車載器および顔正面度算出方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016245795A JP2018101212A (ja) 2016-12-19 2016-12-19 車載器および顔正面度算出方法

Publications (1)

Publication Number Publication Date
JP2018101212A true JP2018101212A (ja) 2018-06-28

Family

ID=62714380

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016245795A Pending JP2018101212A (ja) 2016-12-19 2016-12-19 車載器および顔正面度算出方法

Country Status (1)

Country Link
JP (1) JP2018101212A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110796029A (zh) * 2019-10-11 2020-02-14 北京达佳互联信息技术有限公司 人脸校正及模型训练方法、装置、电子设备及存储介质
WO2020161813A1 (ja) * 2019-02-06 2020-08-13 三菱電機株式会社 情報処理装置、プログラム及び情報処理方法
JP2021502618A (ja) * 2018-09-28 2021-01-28 ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド 注視点判定方法および装置、電子機器ならびにコンピュータ記憶媒体
WO2023188171A1 (ja) * 2022-03-30 2023-10-05 日本電気株式会社 学習装置、対称性評価装置、学習方法および記録媒体

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002274265A (ja) * 2001-03-22 2002-09-25 Honda Motor Co Ltd ミラー調整装置
JP2004094491A (ja) * 2002-08-30 2004-03-25 Nec Corp 顔向き推定装置および顔向き推定方法ならびに顔向き推定プログラム
JP2013109720A (ja) * 2011-11-24 2013-06-06 Fuji Heavy Ind Ltd 車外環境認識装置および車外環境認識方法
JP2015069379A (ja) * 2013-09-27 2015-04-13 富士重工業株式会社 車外環境認識装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002274265A (ja) * 2001-03-22 2002-09-25 Honda Motor Co Ltd ミラー調整装置
JP2004094491A (ja) * 2002-08-30 2004-03-25 Nec Corp 顔向き推定装置および顔向き推定方法ならびに顔向き推定プログラム
JP2013109720A (ja) * 2011-11-24 2013-06-06 Fuji Heavy Ind Ltd 車外環境認識装置および車外環境認識方法
JP2015069379A (ja) * 2013-09-27 2015-04-13 富士重工業株式会社 車外環境認識装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"リアルタイム顔・視線計測システムの開発と知的インタフェースへの応用", 情報処理学会論文誌, JPN6021004229, 15 October 2006 (2006-10-15), ISSN: 0004583274 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021502618A (ja) * 2018-09-28 2021-01-28 ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド 注視点判定方法および装置、電子機器ならびにコンピュータ記憶媒体
US11295474B2 (en) 2018-09-28 2022-04-05 Beijing Sensetime Technology Development Co., Ltd. Gaze point determination method and apparatus, electronic device, and computer storage medium
WO2020161813A1 (ja) * 2019-02-06 2020-08-13 三菱電機株式会社 情報処理装置、プログラム及び情報処理方法
JPWO2020161813A1 (ja) * 2019-02-06 2021-09-09 三菱電機株式会社 情報処理装置、プログラム及び情報処理方法
CN110796029A (zh) * 2019-10-11 2020-02-14 北京达佳互联信息技术有限公司 人脸校正及模型训练方法、装置、电子设备及存储介质
CN110796029B (zh) * 2019-10-11 2022-11-11 北京达佳互联信息技术有限公司 人脸校正及模型训练方法、装置、电子设备及存储介质
WO2023188171A1 (ja) * 2022-03-30 2023-10-05 日本電気株式会社 学習装置、対称性評価装置、学習方法および記録媒体

Similar Documents

Publication Publication Date Title
JP6586523B2 (ja) 構造化光を用いた視線追跡
US10878237B2 (en) Systems and methods for performing eye gaze tracking
JP5230748B2 (ja) 視線方向判定装置及び視線方向判定方法
US9244529B2 (en) Point-of-gaze estimation robust to head rotations and/or device rotations
JP2019527448A (ja) 車両の運転者の状態を監視するための方法及びシステム
JP6840697B2 (ja) 視線方向推定装置、視線方向推定方法、及び視線方向推定プログラム
WO2015190204A1 (ja) 瞳孔検出システム、視線検出システム、瞳孔検出方法、および瞳孔検出プログラム
JP2016173313A (ja) 視線方向推定システム、視線方向推定方法及び視線方向推定プログラム
JP6596678B2 (ja) 視線測定装置および視線測定方法
CN110913751A (zh) 具有滑动检测和校正功能的可穿戴眼睛跟踪***
JP2018101212A (ja) 車載器および顔正面度算出方法
JP7168953B2 (ja) 自動キャリブレーションを行う視線計測装置、視線計測方法および視線計測プログラム
CN111854620B (zh) 基于单目相机的实际瞳距测定方法、装置以及设备
JP6452235B2 (ja) 顔検出方法、顔検出装置、及び顔検出プログラム
JP2018099174A (ja) 瞳孔検出装置及び瞳孔検出方法
JP6669182B2 (ja) 乗員監視装置
JP6906943B2 (ja) 車載器
JP2009064395A (ja) ポインティングデバイス、操作者の注視位置とカーソルの位置との誤差の補正をコンピュータに実行させるためのプログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体
US10866635B2 (en) Systems and methods for capturing training data for a gaze estimation model
US20190259279A1 (en) Luminance control device, luminance control system, and luminance control method
JP2019098024A (ja) 画像処理装置及び画像処理方法
JP3711053B2 (ja) 視線測定装置及びその方法と、視線測定プログラム及びそのプログラムを記録した記録媒体
JP2015232771A (ja) 顔検出方法、顔検出システム、および顔検出プログラム
JP6452236B2 (ja) 眼球識別装置及び眼球識別方法
JP2015123262A (ja) 角膜表面反射画像を利用した視線計測方法及びその装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191119

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210331

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210831