JP5206516B2 - 撮影補助装置、プログラムおよび撮影システム - Google Patents

撮影補助装置、プログラムおよび撮影システム Download PDF

Info

Publication number
JP5206516B2
JP5206516B2 JP2009061247A JP2009061247A JP5206516B2 JP 5206516 B2 JP5206516 B2 JP 5206516B2 JP 2009061247 A JP2009061247 A JP 2009061247A JP 2009061247 A JP2009061247 A JP 2009061247A JP 5206516 B2 JP5206516 B2 JP 5206516B2
Authority
JP
Japan
Prior art keywords
face
image
photographed
photographing
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009061247A
Other languages
English (en)
Other versions
JP2010219645A (ja
Inventor
憲幸 尾崎
禎祐 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2009061247A priority Critical patent/JP5206516B2/ja
Publication of JP2010219645A publication Critical patent/JP2010219645A/ja
Application granted granted Critical
Publication of JP5206516B2 publication Critical patent/JP5206516B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Studio Devices (AREA)

Description

本発明は、撮影対象者が所定の撮影位置に容易に顔を移動できるように、撮影対象者に報知を行うことで撮影を補助する撮影補助装置に関する。
従来、対象者の顔を撮影し、その撮影された画像から顔の向きや表情の変化を捉える技術が提案されている。例えば、対象者(車両の運転者)の顔画像を撮影し、顔形状モデルを利用して対象者の表情の変化を捉えることにより、対象者が居眠り状態であることを検出する装置が提案されている(特許文献1参照)。
上記特許文献1には、顔形状モデルによる画像認識手法を用いて対象者の表情を捉える方法が記載されている。顔形状モデルによる画像認識手法では、画像処理を行うコンピュータシステムが予め有している顔形状モデルに近い顔形状を有する対象者では高い精度で表情を捉えることができるものの、その顔形状モデルと顔形状が大きく異なる対象者に対しては、顔の向きや表情の変化の推定精度が低くなってしまう場合があった。
そこで、リアルタイムに取得した対象者の正面顔画像を利用した顔形状モデルを作成することで、コンピュータシステムが顔形状モデルとして有していない顔形状の対象者に対応する方法が提案されている(非特許文献1参照)。このとき、精度良く対象者の正面から撮影された正面顔画像を利用することで、顔の向きや表情の変化の推定精度を高めることができる。
正面顔画像を撮影する技術としては、ハンドルの切り角やアクセル加速度に基づいて運転者が正面を向いていると判断し、その時の画像を正面顔画像として取得する技術が提案されている(特許文献2参照)
特願2007−276511号公報 特開2008−197722号公報
I. Matthews, T. Ishikawa and S. Baker: "The template update problem", Proceedings of the British Machine Vision Conference, September, 2003.
顔形状モデルを用いた表情変化の推定精度を高めるためには、上述したように精度良く対象者の正面から撮影した正面顔画像を取得する必要がある。撮影装置を用いて精度良く正面から撮影するためには、対象者が能動的に所定の撮影位置に移動し、所定の方向に顔を向けると都合がよい。
しかしながら、上記特許文献2の技術は、運転者が正面を向いている可能性の高い条件となった場合に運転者が正面を向いていると推定して撮影するものであるため、運転者に対して、撮影に適した所定の撮影位置および顔向きへの顔の移動を要求するものではなかったので、正面顔画像を精度良く撮影することは困難であった。
本発明は、上述した問題に鑑みてなされたものであり、その目的は、撮影対象者に対して撮影に適した撮影位置を認識させることができる撮影補助装置、プログラムおよび撮影システムを提供することである。
上述した問題を解決するためになされた請求項1に記載の撮影補助装置は、撮影対象者が所定の撮影位置(撮影装置に対して所望の位置関係となる位置および向きであって、例えば撮影装置に対して真正面となる顔の位置および顔の向き)に容易に顔を移動できるように、撮影対象者に報知を行う装置である。この撮影補助装置では、画像取得手段が取得する撮影対象者の顔を示す撮影画像に基づき、抽出手段が当該撮影画像における顔上の複数の特徴点を抽出する。
また、距離測定手段が、抽出手段により抽出された特徴点と、撮影画像上に予め定められた基準点と、の距離を測定する。ここでいう基準点とは、上述した特徴点それぞれに対応して存在し、撮影対象者の顔が上述した所定の撮影位置であるときに特徴点との距離が最も小さくなる点である。
そして、報知手段が、画像を表示可能な表示装置に対して、上記特徴点および上記基準点を平面上に重畳した画像を示す画像情報を出力するように構成されている。
このように構成された撮影補助装置において、撮影装置により撮影された撮影対象者の顔の撮影画像を取得したとき、撮影対象者の顔が上述した所定の撮影位置にある場合には、撮影画像における顔上の特徴点と、予め定められた基準点との距離が小さくなる。一方、撮影対象者の顔が所定の撮影位置から離れた位置にある場合には、特徴点と基準点との距離が大きくなる。
したがって、報知手段により特徴点と基準点との距離を表示装置にて画像表示させること、即ち特徴点と基準点との距離に応じた報知がなされることにより、撮影対象者は、その報知によって顔が所定の撮影位置からどの程度離れているかを画像により容易に知ることができるため、撮影に適した撮影位置を認識することができる。その結果、撮影対象者は所定の撮影位置への顔の移動を容易に実行できるようになる。
なお、上述した基準点の位置の定め方は特に限定されない。例えば、平均的な顔のモデルにおいて特徴点が存在する位置を基準点としてもよいし、事前に撮影対象者の顔を所定の撮影位置にて撮影した撮影画像を取得しておき、その撮影画像における顔上の特徴点の位置を基準点としてもよい。
ところで、上述したように特徴点および基準点は複数箇所に設定されている。特徴点が1点しか設定されていなければ、特徴点が基準点と重なる場合でも、その撮影画像における顔の向きが適切な方向であるか否かを判断できないため、撮影対象者の顔が所定の撮影位置にあるときに撮影された撮影画像であると判断できない。それに対し、特徴点が2点設定されていれば、顔の位置と、顔の向きに関するピッチ,ロール,ヨーのうち2つの角度まで一致させた撮影画像を取得することができる。更に正確に撮影対象者の顔が所定の撮影位置にあるときに撮影するには、請求項2の撮影補助装置のように構成するとよい。
請求項2に記載の発明は、請求項1に記載の撮影補助装置において、上記特徴点が、撮影画像において同一直線上にない3点を含むことを特徴とする。
このように構成された撮影補助装置では、少なくとも顔上の同一直線状にない3点を特徴点として、その特徴点と基準点との距離を測定するため、撮影対象者は、その3点の特徴点と基準点との距離を認識することができる。したがって、これら3点を一致させた状態で撮影を行えば、顔の位置および向きを正確に規定した撮影画像を取得することができる。
請求項3に記載の発明は、請求項1または請求項2に記載の撮影補助装置において、上記特徴点が、撮影画像の顔上における左目頭、右目頭、左右鼻孔の中点、の3点であることを特徴とする。
このように構成された撮影補助装置では、少なくとも上記3点を特徴点として基準点との距離を測定するため、上記3点における特徴点と基準点との距離を撮影対象者に認識させることができる。また、これら3点を一致させた状態で撮影を行えば、顔の位置および向きを正確に規定した撮影画像を取得することができる。また、目頭と鼻孔は表情変化による位置の変化が少ない箇所であるため、表情変化の影響を受けずに顔の位置および向きを規定することができる。
請求項4に記載の発明は、請求項1から請求項3のいずれかに記載の撮影補助装置において、上述した画像情報が、特徴点を含む線分,および,基準点を含む線分を、特徴点および基準点を重畳した平面上に更に重畳した画像を示すものであることを特徴とする。
このように構成された撮影補助装置では、上述した特徴点と基準点に加え、それらを含む線分を含む画像を表示装置にて表示させることができる。したがって、どの特徴点が基準点と離れているのか、また、どのように顔を移動させれば所定の撮影位置に顔が移動するのか、の判断が容易に行えるようになる。
なお、上述した撮影補助装置において、報知手段が、音声を出力可能な音声出力装置に対して、距離測定手段により測定された距離に応じた音声情報を出力するように構成してもよい
このように構成された撮影補助装置では、特徴点と基準点との距離を音声出力装置にて音声出力させることができる。したがって、撮影対象者は、顔が所定の撮影位置からどの程度離れているかを音声により容易に認識することができるようになり、所定の撮影位置への移動を容易に実行できるようになる。
なお、上述した補助装置において、上述した音声情報が、距離測定手段により測定された距離の大きさに応じて出力する音声を変化させるものであるように構成してもよい
このように構成された撮影補助装置では、測定された距離により音声が変化するため、撮影対象者は、その音声の変化により特徴点と基準点との距離を知ることができる。
請求項9に記載の発明は、請求項1から請求項8のいずれかに記載の撮影補助装置において、距離測定手段により測定された距離が所定の閾値以下の場合に、その撮影画像を、撮影対象者の顔が上述した所定の撮影位置であるときに撮影した撮影画像であると判定する判定手段を備えることを特徴とする。
このように構成された撮影補助装置では、画像取得手段が取得した撮影画像の中から、撮影者の顔が所定の撮影位置にあるときに撮影された撮影画像を選別することができるため、撮影対象者の顔が上述した所定の撮影位置にあるときに撮影された撮影画像を確実に取得することができる。
なお上記報知手段は、上記判定手段により撮影対象者の顔が所定の撮影位置であるときに撮影した撮影画像であると判定されたときに、上記画像情報の表示態様を変更するように構成してもよい。
また上記報知手段は、上記判定手段により前記撮影対象者の顔が前記所定の撮影位置であるときに撮影した撮影画像であると判定されたときに、上記画像情報に示される特徴点の表示位置をわずかに移動させるように構成してもよい。
請求項12に記載の発明は、請求項1から請求項11のいずれかに記載の各手段として機能させるための処理手順を、コンピュータシステムに実行させるためのプログラムである。
このようなプログラムにより制御されるコンピュータシステムは、請求項1から請求項11のいずれかに記載の撮影補助装置の一部を構成することができる。
なお、上述したプログラムは、コンピュータシステムによる処理に適した命令の順番付けられた列からなるものであって、各種記録媒体や通信回線を介して撮影補助装置や、これを利用するユーザに提供されるものである。
請求項13に記載の発明は、請求項9から請求項11のいずれかに記載の撮影補助装置と、顔形状モデルを作成するモデル作成手段と、顔形状モデルと撮影対象者の顔を示す対象者画像とを用いて、その撮影対象者の顔の向きおよび表情の変化を検出する検出手段と、を備える撮影システムである。そして、モデル作成手段は、撮影対象者の顔が所定の撮影位置であるときに撮影した撮影画像であると判定手段が判定した撮影画像を用いて、顔形状モデルを作成することを特徴とする。
このように構成された撮影システムでは、撮影対象者の顔が所定の撮影位置にあるときに撮影された撮影画像を用いて顔形状モデルを作成する。したがって、高い精度で撮影対象者の顔の向きおよび表情の変化を検出することができる。
なお上記撮影システムは、上記対象者画像と、顔形状モデルと、が所定の基準以上で一致しているか否かを判断する一致判断手段を備え、上記モデル作成手段は、一致判断手段により所定の基準以上で一致していないと判断されたときに顔形状モデルの再構築を行うように構成してもよい。
また上記撮影システムにおけるモデル作成手段は、上記判定手段が、撮影対象者の顔が上記所定の撮影位置であるときに撮影した撮影画像であると判定した複数の撮影画像から最も上記距離が小さいものを用いて上記顔形状モデルを作成するように構成してもよい。
撮影システムを示す側面図 撮影システムを示すブロック図 表情特徴量検出処理の処理手順を示すフローチャート 3次元形状のモデルを示す図 顔形状モデルの色合いを示す画像を示す図 入力画像と顔形状モデルの一致度合いを示すエラー値RMSの算出方法を示す概念図 顔形状モデルを変化させた場合のエラー値RMSの算出方法を示す概念図 正面画像取得処理の処理手順を示すフローチャート 特徴点の抽出方法の説明図 特徴点と基準点との距離の平均値の算出方法を示す図 表示装置に表示される画面を示す図
以下に本発明の実施形態を図面と共に説明する。
(1)全体構成
撮影システム1は、車両2に搭載されて用いられるものであり、図1に示すように、カメラ10と、情報入出力装置20と、撮影補助装置30と、からなる。
これらのうち、カメラ10は、運転者3の顔画像を連続的に撮影するものであって、車両2のダッシュボードにて車両2における運転者3の正面方向から運転者3に向けて配置されている。
情報入出力装置20は、図2に示すように、運転者3に対して各種画像情報を表示するための表示装置22と、各種のガイド音声等を出力するスピーカ24と、運転者3からの外部操作による指令を入力するための操作ボタン26と、を備えている。この情報入出力装置20は、撮影補助装置30からの指令に基づき、各種画像を表示装置22に表示するとともに、音声をスピーカ24により出力する。また、操作ボタン26で行われた外部操作の内容を撮影補助装置30へ出力する。
なお、表示装置22は、図1に示すように、カメラ10の近傍にて運転者3に向けて配置されている。そのため、運転者3はカメラ10に顔を向けた状態で表示装置22に表示される画像情報を容易に確認できるようになっている。
撮影補助装置30は、画像キャプチャボード32と、記憶装置34と、制御装置36と、を備えている。
画像キャプチャボード32は、カメラ10で撮影した運転者3の顔の撮影画像のデータである撮影画像データを一時的に記憶し、制御装置36からの指令に応じて制御装置36に提供する。
記憶装置34は、各種データを記憶可能なハードディスクドライブからなる。
制御装置36は、CPU,ROM,RAM,I/O及びこれらの構成を接続するバスラインなどからなる周知のマイクロコンピュータを中心に構成されており、ROMに記憶されているプログラムに従って、後述する表情特徴量検出処理および正面画像取得処理を実行する。
(2)撮影補助装置30による処理
以下に、撮影補助装置30の制御装置36により実行される各種処理について説明する。
(2.1)表情特徴量検出処理
まず、表情特徴量検出処理の処理手順を、図3に基づいて説明する。本処理は、撮影システム1が起動している間、継続して実行される。
本処理では、まず、カメラ10にて撮影され、画像キャプチャボード32に記憶されている運転者3の顔の撮影画像データを取得する(S1)。
次に、S1にて取得した撮影画像データを用いて、記憶装置34に記憶されている顔形状モデルとのフィッティングを行い、運転者3の顔の向きおよび表情の変化(以降、単に表情特徴量ともいう)を検出する(S2)。詳細を以下に説明する。
顔形状モデルは、人間の顔の形状を表現する3次元形状のモデルに、人間の顔の色合いを示す画像を重ねたものである。
まず、人の顔の形状を表現する3次元形状のモデルを説明する。この3次元形状のモデルは、図4に示すように、正面顔を三角形状の複数のメッシュで表現した基本形状 (base shape) s0(図4(a)を参照)と、基本形状s0からの顔位置・顔向き・表情変化を示すn個(nは自然数)の形状ベクトル(shape vector)si(i=1,2,3・・・,n)(図4(b),(c),(d)を参照)とが予め設定されており、これら基本形状s0及びn個の形状ベクトルsiを用いて(1)式により計算することにより人間の顔の形状を表現する(図6におけるメッシュs)。
上記(1)式のpi(i=1,2,3・・・)は、重ね合せ係数である。また、形状ベクトルsi(i=1,2,3・・・)は、基本形状s0を構成するメッシュの頂点(以下、メッシュ頂点ともいう)を始点とするベクトルであり、基本形状s0の全頂点について形状ベクトルsiが設定されている(図4(b),(c),(d)では、一部のメッシュ頂点についてのみ形状ベクトルs1,s2,s3を表示している)。
次に、人間の顔の色合いを示す画像について説明する。顔形状モデルは、図5に示すように、正面顔についての基本となる色合いを示す画像(base appearance image)A0(x)(以下、基本色合い像A0(x)という)と、色合いのフィッティングの際に基本色合い像A0(x)に重ね合わせるためのm個(mは自然数)の色合い像(appearance image)Ai(x)(i=1,2,3・・・,m)とが予め設定されており、これら基本色合い像A0(x)及びm個の色合い像Ai(x)を用いて(2)式で計算することにより人間の顔の色合いを表現する(図6におけるA(x))。

ここで、xは基本形状s0内の2次元座標を示す。また、(2)式のλi(i=1,2,3・・・)は、重ね合せ係数である。
そして、図6に示すように、顔形状モデルの3次元形状および色合いを変化させて、その変化させた顔形状モデルM(W(x;p))と、表情特徴量の検出対象者を撮影した画像である入力画像Iと、のフィッティングを行い、一致度合を判断する。
下記(3)式は、入力画像と顔形状モデルの一致度合いを示すエラー値RMSの算出式である。M(W(x;p))は、(1)式により定まるメッシュs内の色合い像をA(x)としたときの画像、I(W(x;p))は入力画像Iにおけるメッシュs内の色合い像である。メッシュsは、重ね合せ係数piによって、その形状を変形しつつ入力画像I上を移動できる。なお、形状ベクトルsiには、表情や顔向きを変化させるベクトル以外に、縦移動、横移動、拡大縮小、回転といったベクトルも含まれている。

入力画像Iから表情特徴量を検出するために、(3)式におけるRMSが最小となる重ね合せ係数pi及びλiを算出する。つまり、重ね合せ係数pi及びλiを変化させて様々な形状及び色合いの画像M(W(x;p))を作成しつつ、その画像M(W(x;p))と一致する画像I(W(x;p))を、入力画像I上で探索する。
そして、RMSが最小となる重ね合せ係数pi及びλiを算出する。pi及びλiの値から、顔形状モデルがどのように変化した状態であるかが分かるため、それにより検出対象者の表情特徴量を検出することができる。
次に、顔形状モデルの更新が必要か否かを判断する(S3)。ここでは、上記(3)式にて算出されたRMSの最小値が所定の閾値を下回っているか否かを判断する。RMSの最小値が大きいということは、即ち、S1にて取得した撮影画像データに基づく撮影画像(入力画像I)が顔形状モデルと精度良く一致しないということであり、この場合本来の顔位置や表情とは異なる場合にRMSが最小になる場合があるため、表情特徴量の検出精度が低くなってしまう虞がある。よって、RMSの最小値が所定の閾値を超えて大きい場合には、顔形状モデルを変更し、検出精度を高める必要がある。
S3にて、顔形状モデルの変更が必要と判断されない場合(S3:NO)、顔形状モデルを変更せずに用いても精度よく表情特徴量が検出できるので、顔形状モデルを変更することなく処理がS1に戻る。一方、S3にて顔形状モデルの変更が必要と判断された場合(S3:YES)、後述する正面画像取得処理を実行して運転者3を精度良く正面から撮影した正面撮影画像データを取得し(S4)、取得した正面撮影画像データに基づいて、顔形状モデルの再構築を行う(S5)。詳細を以下に説明する。
一つの顔形状モデルを用いて、複数の検出対象者の表情特徴量を取得する場合には、複数人の表情を平均した画像をA0(x)として、顔形状モデルを作成するのが一般的である(図6におけるA0(x)参照)。しかしこの場合、入力画像Iと顔形状モデルMは同一人物の画像ではないため、RMSが大きくなり、正確な表情特徴量が捉えられない場合がある。
そこで、この問題を解決するために、s0およびA0を入力画像Iの対象者の情報に入れ替える。図7に示すように、S4にて取得した正面撮影画像データからs´0およびA0´を作成し、対象者の特徴を加えた顔形状モデルM´(W(x;p))を構築することで、RMSを減少させ、正確な表情特徴量を捉えることができる。
このようにして作成された顔形状モデルが、以降のS2にてフィッティングを行う際に使用される。このS5の後、処理がS1に戻る。
(2.2)正面画像撮影処理
次に、正面画像撮影処理の処理手順を、図8に基づいて説明する。本処理は、表情検出処理のS4にて実行される。
本処理では、まず、カメラ10にて撮影され、画像キャプチャボード32に記憶されている運転者3の顔の撮影画像データを取得する(S11)。
次に、S11にて取得した撮影画像データに基づく撮影画像における顔上の特徴点を抽出する(S12)。ここでは、図9(a)に示すように、撮影画像をx−y平面で表した場合における左右の両目頭と、左右鼻孔の中点と、の画像平面上の位置を抽出する。
具体的には、まず、撮影画像データを黒色部分と白色部分とに分ける2値化処理を行い(例えば、特願平03−220633号に記載されている技術を用いるとよい)、上記画像データに基づく画像における左目頭,右目頭,左鼻孔,右鼻孔,のx−y平面上の位置を検出する(例えば、特願平08−101904号に記載されている技術を応用するとよい)。そして、左右の鼻孔の位置から左右の鼻孔の中点の位置を算出する。なお、特徴点の抽出方法は上述した方法に限定されず、どのような手法により抽出する構成であってもよい。
次に、S12にて抽出した顔上の特徴点と、予め記憶装置34に記憶されている左右両目頭および左右鼻孔の中点の基準点と、を用いて、対応する点同士の距離の平均値(以降、単に誤差ともいう)を算出する(S13)。ここでいう距離の平均値とは、図10に示すように、左目頭に関する特徴点と基準点との間の距離L1、右目頭に関する特徴点と基準点との間の距離L2、および、左右鼻孔の中点に関する特徴点と基準点との間の距離L3、の相加平均値である。
なお、上述した基準点は、平均的な顔のモデルにおいて特徴点が存在する位置に設定されているが、予め運転者3の顔を精度良く正面にて撮影し、その撮影画像から抽出される特徴点を基準点として用いてもよい。
次に、表示装置22に、現在位置表示線α(以降、単に線αという)と、基準位置表示線β(以降、単に線βという)と、を平面上に重畳した画像の画像情報を出力する(S14)。
線αとは、図9(b)に示すように、S11にて取得した撮影画像データに対して、左右両目頭を結んだ線分と、左右両目頭の中点と左右鼻孔中点とを結んだ線分と、からなる線分である。また、線βとは、上述した基準点を用いて、線αと同様に、左右両目頭を結んだ線分と、左右両目頭の中点と左右鼻孔中点とを結んだ線分と、からなる線分である。
このS14の処理を受けて、表示装置22は、図11(a)、(b)に示す表示画面を表示する。また、この表示画面上には、線αおよび線βを、顔を動かすことで重ねる旨の指示も表示されている。
線αと線βとは、色、線の形状、点滅の有無などを変えることで、表示装置22の表示画面上で識別可能とする。本実施例では、線αを緑色の破線とし、線βを青色の実線として表示する。
また、線αの表示態様は、上記S13にて算出した誤差が所定の閾値以下であるか否かによって変化する。ここでいう閾値とは、誤差がこの閾値以下の場合に、運転者3の顔が所定の撮影位置に移動したとみなす判断をするための基準となる値である。
ただし、基準点が平均的な顔のモデルを用いて定められている場合には、運転者3の顔特徴点の位置が運転者3ごとに異なるため、運転者3ごとに誤差の最小値は変化する。そのため、閾値を一定の値として定めると、平均的な顔のモデルに近い特徴点を有する運転者3の場合は比較的容易に誤差を閾値以下にすることができるが、運転者3が平均的な顔のモデルの特徴点と大きく異なる位置に特徴点を有する場合は、閾値以下にすることが難しい場合や、閾値以下とすることが不可能な場合が生じる。
よって、この閾値は、所定回数S13の処理を実行して算出された誤差の平均値などに応じて適宜変更される。
表示装置22に表示される表示画面の説明に戻る。本実施例では、上記誤差が所定の閾値を超える場合は線αの表示に変化はないが、閾値以下となると、線αの色を赤色に変化させることで、運転者3の顔が所定の撮影位置に移動したと判断されたことを運転者3に通知する(図11(b)参照)。
次に、スピーカ24に、音声情報を出力する(S15)。これによりスピーカ24はガイド音声を出力する。ここでは、音量、高さ、および音色が一定の断続音を出力するが、S13にて算出した誤差が小さいほど音の間隔が短くなるように出力する。
次に、S13にて算出した誤差が上述した閾値以下であるか否かをチェックし、閾値以下であれば、S11にて取得した撮影画像データを記憶装置34に記憶する(S16)。その際、撮影画像データとともに、S13にて算出した誤差の値も撮影画像データに関連付けて記憶する。
次に、S16にて記憶装置34に保存された撮影画像データが所定数以上となったか否かを判定する(S17)。所定数に達していなければ(S17:NO)、処理がS11に戻り、再度撮影画像データを取得する。一方、所定数に達していれば(S17:YES)、記憶装置34に記憶されている撮影画像データのうち、最も誤差の小さい撮影画像データを、顔形状モデルの再構成に用いる正面撮影画像のデータとして選択する(S18)。このS18の後、表情特徴量検出処理に戻る。
なお、上述したS11〜S17のループは短い時間間隔(例えば0.1s)にて行われるため、運転者3がカメラ10に対して顔を動かすことに合わせて、線αの位置はリアルタイムで移動する。
(3)発明の効果
このように構成された撮影システム1では、顔形状モデルと撮影画像とのフィッティングの精度が悪い場合には、正確に運転者3の顔を正面から撮影した正面撮影画像を利用して、顔形状モデルを再構築することができるため、より高い精度で表情特徴量を捉えることができる。
そして、上述した正面撮影画像を取得するにあたっては、表示装置22にて、撮影画像から抽出される特徴点および予め定められた基準点と、それらに基づく線αおよび線βと、を表示するため、運転者3は、カメラ10にて撮影されている顔が撮影に適した顔の位置および顔の向き(所定の撮影位置)からどの程度離れているかを画像により確認することができ、撮影に適した顔の位置および顔の向きを容易に認識することができる。
また、表示装置22にて上記画像を表示すると同時に、スピーカ24にて、誤差の大きさに応じた音声を出力するため、運転者3は、音声によってもカメラ10にて撮影されている顔が所定の撮影位置からどの程度離れているかを知ることができる。
このように、運転者3は撮影に適した顔の位置および顔の向きを容易に認識することができるため、運転者3が認識した顔位置に顔を移動させて顔の向きを合せることで、精度の高い正面撮影画像を撮影することができる。
また、上記撮影システム1では、左右両目頭、および左右鼻孔の中点を特徴点および基準点として定めており、それらの点を基準として顔の位置および向きを規定することができる。なお、このように同一直線状にない3点で規定することで、顔の位置および向きを正確に規定した撮影画像データを取得することができる。また、目頭と鼻孔は、表情変化による位置の変化が少ない箇所であるため、表情変化の影響を受けずに顔の位置および向きを規定することができる。
また、上記撮影システム1では、誤差が所定の閾値以下となったときに、その撮影画像データを正面撮影画像のデータとして選別することができるため、精度の高い正面撮影画像のデータを確実に取得することができる。
(4)変形例
以上、本発明の実施例について説明したが、本発明は、上記実施例に何ら限定されることはなく、本発明の技術的範囲に属する限り種々の形態をとり得ることはいうまでもない。
例えば、特徴点と基準点との誤差が所定の閾値以下となった場合に、表示装置22における線αの表示位置を、運転者3の顔の位置および顔の向きに関係なくわずかに移動させるように構成してもよい。具体的には、正面画像取得処理のS13にて算出した誤差が閾値以下の場合には、S14にて出力する画像情報における線αの位置をわずかに移動させる。
このように構成された撮影システム1では、運転者3が顔を移動させて誤差が閾値以下となると、線αがわずかに移動するため、運転者3は再び線αと線βとを一致させるために顔をわずかに移動することとなる。その結果、閾値以下となる位置付近で多くのパターンの撮影画像データを取得することができるようになるため、精度の高い正面撮影画像を撮影できる確率を上げることができる。
また、上記実施例では、正面画像取得処理のS16において、誤差が所定の閾値以下の撮影画像データを所定数記憶し、S18にてその中から適切な撮影画像データを選択する構成を例示した。
しかしながら、S16にて撮影画像データを所定数記憶させることなく、誤差が所定の閾値以下である撮影画像データを取得した場合には、その撮影画像データを正面撮影画像データとする構成としてもよい。このように構成された撮影システム1であれば、誤差が閾値以下の撮影画像データを1つ取得すればよいので、迅速に正面画像取得処理を終了させることができる。
また、上記実施例においては、正面画像取得処理のS13にて、各特徴点と基準点との間の距離の相加平均を求め、その値に基づいて運転者3の顔が所定の撮影位置となったか否かを判断する構成を例示したが、それ以外の値を用いて上記判断を行う構成としてもよい。例えば、各特徴点と基準点との間の距離の相乗平均に基づいて上記判断を行う構成が考えられる。
また、上記実施例においては、正面画像取得処理のS14にて線αと線βとを平面上に重畳した画像を表示装置22に表示させる構成を例示したが、直前のS11にて取得した撮影画像をさらに重畳して表示する構成であってもよい。
このように構成された撮影システム1であれば、線αが顔のどの部分に対応するものであるかを認識することができるため、画像の情報を感覚的に理解しやすくなる。
また、上記実施例においては、表示装置22およびスピーカ24は、S13にて算出した誤差を運転者3が認識できるように報知する構成を例示したが、表示装置22やスピーカ24を用いて、運転者3に顔を向ける方向を案内する報知を行うように構成してもよい。例えば、表示画面上に、顔を向ける方向を矢印にて表示する構成が考えられる。
また、上記実施例においては、表示画面に表示される線αは、誤差が閾値以下となると緑から赤に色が変わる構成を例示したが、線αの表示態様がそれ以外に変化する構成であってもよい。例えば、誤差が閾値以下となると線αが緑から透明になる構成、誤差が閾値以下となると線αの形状(太線と細線、または実線と点線)が変化する構成、などが考えられる。また、誤差が閾値以下となった場合に線βの表示態様が変更する構成であってもよい。
また、上記実施例においては、線α,線βは、顔上の左右両目頭を結んだ線分と、左右両目頭中点と左右鼻孔中点とを結んだ線分と、からなる構成を例示したが、それ以外の線分で構成されるものであってもよい。例えば、左右両目頭と、左右鼻孔中点と、からなる三点を結ぶ三角形を、線α、線βとすることが考えられる。
また、操作ボタン26を用いて、報知の方法(表示装置22における表示態様や表示内容、スピーカ24による音声出力の内容など)を運転者3が自ら選択できるように構成されていてもよい。
また、上記実施例においては、表情特徴量検出処理のS3において、RMS値の最小値が所定の閾値を下回った場合に、顔形状モデルの再構築を開始する構成を例示したが、操作ボタン26による操作に応じて、顔形状モデルの再構築を開始する構成としてもよい。
また、上記実施例においては、特徴点および基準点として用いる点は、左右両目頭および左右鼻孔中点である構成を例示したが、それ以外の点であってもよい。その際、特徴点として用いる点は、目頭や鼻孔のように、表情変化による位置の移動が少ない点が望ましい。
また、上記実施例においては、運転者3の顔方向を向いて配置される表示装置22を有する構成を例示したが、表示装置22に代えて、ウインドシールドに虚像を表示させる虚像表示装置を備え、正面画像取得処理のS14における画像表示を虚像表示にて行う構成であってもよい。
また、上記実施例では、撮影画像平面上に特徴点および基準点を定め、その誤差を測定する構成を例示したが、運転者3の顔の向く方向を、ロール、ピッチ、ヨーの3軸の角度パラメータとして測定して、予め定められた基準角度との誤差を測定するように構成してもよい。
その場合には、スピーカ24が出力する断続音を、ロール、ピッチ、ヨーの各軸ごとに異なる周波数とし、各軸ごとに角度誤差に応じた間隔の断続音を出力する構成とすることで、音声により各軸ごとの角度誤差を認識させることができるようになる。また、表示装置22が表示する表示物(表示画面全体や、表示画面における一部の領域であってもよいし、上述した線αでもよい)の表示色を変化させることで、各軸ごとの角度誤差を認識させるように構成してもよい。例えば、ロール、ピッチ、ヨーの各軸ごとに対応する色相を定めておき(例えば、ロールが赤色、ピッチが緑色、ヨーが青色)、各色を、対応する軸の角度誤差に応じた濃度にて合成し、その合成した色を表示物の表示色として出力することが考えられる。
具体的には、ロール角とピッチ角の誤差が大きく、ヨー角の誤差が小さい場合には、濃い赤および緑と、薄い青とを合成した色の表示物が表示され、ヨー角のみ誤差がある場合には、表示物は青色で表示され、全ての軸にて誤差がない所定の撮影位置に顔が位置する場合には、表示物は白色で表示される。なお、角度誤差と濃淡の関係や各軸に対応する色相は上述したものに限られない。
また、上記実施例においては、表示装置22およびスピーカ24により、S13にて算出した誤差を運転者3が認識できるように報知する構成を例示したが、表示装置22およびスピーカ24のいずれか一方のみで報知を行う構成であってもよい。
1…撮影システム、2…車両、3…運転者、10…カメラ、20…情報入出力装置、22…表示装置、24…スピーカ、26…操作ボタン、30…撮影補助装置、32…画像キャプチャボード、34…記憶装置、36…制御装置

Claims (15)

  1. 撮影対象者の顔を示す撮影画像を取得する画像取得手段と、
    前記画像取得手段が取得した撮影画像における顔上の複数の特徴点を抽出する抽出手段と、
    前記抽出手段が抽出した特徴点と、前記特徴点それぞれに対応して存在し、前記撮影対象者の顔が所定の撮影位置であるときに前記特徴点との距離が最も小さくなるように前記撮影画像上に予め定められた基準点と、の距離を測定する距離測定手段と、
    画像を表示可能な表示装置に対して、前記特徴点および前記基準点を平面上に重畳した画像を示す画像情報を出力する報知手段と、を備える
    ことを特徴とする撮影補助装置。
  2. 前記特徴点は、前記撮影画像において同一直線上にない3点を含む
    ことを特徴とする請求項1に記載の撮影補助装置。
  3. 前記特徴点は、前記撮影画像の顔上における左目頭、右目頭、左右鼻孔の中点、の3点である
    ことを特徴とする請求項1または請求項2に記載の撮影補助装置。
  4. 前記画像情報は、前記特徴点を含む線分,および,前記基準点を含む線分を、前記特徴点および前記基準点を重畳した平面上に更に重畳した画像を示すものである
    ことを特徴とする請求項1から請求項3のいずれかに記載の撮影補助装置。
  5. 前記報知手段は、さらに、音声を出力可能な音声出力装置に対して、前記距離測定手段により測定された距離に応じた音声情報を出力する
    ことを特徴とする請求項1から請求項4のいずれかに記載の撮影補助装置。
  6. 前記音声情報は、前記距離測定手段により測定された距離の大きさに応じて出力する音声を変化させるものである
    ことを特徴とする請求項5に記載の撮影補助装置。
  7. 前記基準点は、平均的な顔のモデルにおいて特徴点が存在する位置である
    ことを特徴とする請求項1から請求項6のいずれかに記載の撮影補助装置。
  8. 前記基準点は、事前に前記撮影対象者の顔を前記所定の撮影位置にて撮影した撮影画像における顔上の特徴点の位置である
    ことを特徴とする請求項1から請求項6のいずれかに記載の撮影補助装置。
  9. 前記距離測定手段により測定された距離が所定の閾値以下である場合に、前記撮影画像を、前記撮影対象者の顔が前記所定の撮影位置であるときに撮影した撮影画像であると判定する判定手段を備える
    ことを特徴とする請求項1から請求項8のいずれかに記載の撮影補助装置。
  10. 前記報知手段は、前記判定手段により前記撮影対象者の顔が前記所定の撮影位置であるときに撮影した撮影画像であると判定されたときに、前記画像情報の表示態様を変更する
    ことを特徴とする請求項9に記載の撮影補助装置。
  11. 前記報知手段は、前記判定手段により前記撮影対象者の顔が前記所定の撮影位置であるときに撮影した撮影画像であると判定されたときに、前記画像情報に示される前記特徴点の表示位置を移動させる
    ことを特徴とする請求項9または請求項10に記載の撮影補助装置。
  12. 請求項1から請求項11のいずれかに記載の各手段として機能させるための処理手順を、コンピュータシステムに実行させるためのプログラム。
  13. 請求項9から請求項11のいずれかに記載の撮影補助装置と、
    前記判定手段が、前記撮影対象者の顔が前記所定の撮影位置であるときに撮影した撮影画像であると判定した前記撮影画像を用いて、前記顔形状モデルを作成するモデル作成手段と、
    前記モデル作成手段により作成された前記顔形状モデルと、前記撮影対象者の顔を示す対象者画像と、を用いて、前記撮影対象者の顔の向きおよび表情の変化を検出する検出手段と、を備える
    ことを特徴とする撮影システム。
  14. 前記対象者画像と、前記顔形状モデルと、が所定の基準以上で一致しているか否かを判断する一致判断手段を備え、
    前記モデル作成手段は、前記一致判断手段により前記所定の基準以上で一致していないと判断されたときに前記顔形状モデルの再構築を行う
    ことを特徴とする請求項13に記載の撮影システム。
  15. 前記モデル作成手段は、前記判定手段が、前記撮影対象者の顔が前記所定の撮影位置であるときに撮影した撮影画像であると判定した複数の前記撮影画像から最も前記距離が小さいものを用いて前記顔形状モデルを作成する
    ことを特徴とする請求項13または請求項14に記載の撮影システム。
JP2009061247A 2009-03-13 2009-03-13 撮影補助装置、プログラムおよび撮影システム Expired - Fee Related JP5206516B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009061247A JP5206516B2 (ja) 2009-03-13 2009-03-13 撮影補助装置、プログラムおよび撮影システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009061247A JP5206516B2 (ja) 2009-03-13 2009-03-13 撮影補助装置、プログラムおよび撮影システム

Publications (2)

Publication Number Publication Date
JP2010219645A JP2010219645A (ja) 2010-09-30
JP5206516B2 true JP5206516B2 (ja) 2013-06-12

Family

ID=42978044

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009061247A Expired - Fee Related JP5206516B2 (ja) 2009-03-13 2009-03-13 撮影補助装置、プログラムおよび撮影システム

Country Status (1)

Country Link
JP (1) JP5206516B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015011898A1 (ja) 2013-07-22 2015-01-29 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報処理装置および情報処理装置の制御方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9992409B2 (en) 2013-02-14 2018-06-05 Panasonic Intellectual Property Management Co., Ltd. Digital mirror apparatus
JP6593713B2 (ja) * 2017-07-06 2019-10-23 マツダ株式会社 乗員撮影装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4771139B2 (ja) * 2006-02-14 2011-09-14 オムロン株式会社 異常検出装置および方法、記録媒体、並びに、プログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015011898A1 (ja) 2013-07-22 2015-01-29 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報処理装置および情報処理装置の制御方法
US9998654B2 (en) 2013-07-22 2018-06-12 Panasonic Intellectual Property Corporation Of America Information processing device and method for controlling information processing device

Also Published As

Publication number Publication date
JP2010219645A (ja) 2010-09-30

Similar Documents

Publication Publication Date Title
JP4930927B2 (ja) ブレ測定システムおよびブレ測定方法
JP4548850B2 (ja) 立体画像を選択するための方法および装置
JP5921271B2 (ja) 物体測定装置、及び物体測定方法
KR20180027492A (ko) 해부학적 구조를 스캐닝하고 스캐닝 결과를 디스플레이하기 위한 시스템 및 방법
JPWO2008007781A1 (ja) 視線方向検出装置および視線方向検出方法
JP5007863B2 (ja) 3次元物***置計測装置
JP2011173585A (ja) 駐車支援システム
JP5206516B2 (ja) 撮影補助装置、プログラムおよび撮影システム
KR100982171B1 (ko) 안면 영상 촬영장치
JP2003284096A (ja) ステレオ撮影装置、ファインダ、目印提示部材、及び、ステレオ撮影装置の撮影方法
JP2002008041A (ja) 動作検出装置、動作検出方法および情報記憶媒体
JP2010057683A (ja) 瞳孔検出装置、瞳孔検出装置用プログラム及び瞳孔検出方法
US20220357157A1 (en) Image-processing method, image-processing device, and recording medium
JP7057086B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2010179713A (ja) 視野推定装置、視野推定方法、コンピュータプログラム及び記録媒体
JP4623171B2 (ja) 瞳孔検出装置、瞳孔検出装置用プログラム及び瞳孔検出方法
JP2019144154A (ja) 三次元計測装置
JP2011118767A (ja) 表情モニタリング方法および表情モニタリング装置
CN113421231A (zh) 一种出血点检测方法、装置及***
JP6545847B2 (ja) 画像処理装置、画像処理方法及びプログラム
CN115868169B (zh) 电子设备、控制电子设备的控制方法、和计算机可读存储介质
KR101802918B1 (ko) 3차원 영상 획득 장치 및 그 동작방법
CN110520056B (zh) 测量仪安装辅助装置和测量仪安装辅助方法
JP5522799B2 (ja) 視線位置推定システム及び視線位置推定プログラム
US11949993B2 (en) Electric device, controlling method of controlling electric device, and computer readable storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130204

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160301

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160301

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees