JP4898532B2 - 画像処理装置および撮影システム並びに瞬き状態検出方法、瞬き状態検出プログラムおよびそのプログラムが記録された記録媒体 - Google Patents

画像処理装置および撮影システム並びに瞬き状態検出方法、瞬き状態検出プログラムおよびそのプログラムが記録された記録媒体 Download PDF

Info

Publication number
JP4898532B2
JP4898532B2 JP2007105580A JP2007105580A JP4898532B2 JP 4898532 B2 JP4898532 B2 JP 4898532B2 JP 2007105580 A JP2007105580 A JP 2007105580A JP 2007105580 A JP2007105580 A JP 2007105580A JP 4898532 B2 JP4898532 B2 JP 4898532B2
Authority
JP
Japan
Prior art keywords
state
eye
face
value
blink
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007105580A
Other languages
English (en)
Other versions
JP2008262447A5 (ja
JP2008262447A (ja
Inventor
友和 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2007105580A priority Critical patent/JP4898532B2/ja
Priority to US12/101,766 priority patent/US8077215B2/en
Publication of JP2008262447A publication Critical patent/JP2008262447A/ja
Publication of JP2008262447A5 publication Critical patent/JP2008262447A5/ja
Application granted granted Critical
Publication of JP4898532B2 publication Critical patent/JP4898532B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Exposure Control For Cameras (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)

Description

本発明は、時系列なフレーム画像を使って目の瞬き状態を検出する方法と、その方法の実施に用いられる画像処理装置、撮影システム、プログラムおよびそのプログラムが記録された記録媒体に関する。
人間の目は瞬きをするため、目が開いた状態の人物写真を撮ることは、簡単なようで意外と難しい。特に、集合写真など大人数の撮影では、全員の目が開いている瞬間を見極めてシャッタレリーズボタンを押したつもりでも、撮れた写真を見たら誰かしらが目を瞑っていたということが少なくない。
この問題の解決策としては、いくつかの方法が提案されている。例えば、特許文献1は、同文献の図16に示されるように、目を瞑ってしまっている画像に対し、目が開いている画像から切り出した目の画像を合成することで、目が開いた状態の画像を生成する方法を提案している。特許文献2は、瞳部分の大きさを監視し、瞳部分が小さい状態の画像がメモリに記録されてしまったときに、その旨を撮影者に知らせることを提案している。特許文献3は、シャッタレリーズボタンを押したときに自動的に複数の画像を取得し、目を瞑っている人物が最も少ない画像を記録することを提案している。また、特許文献4は、撮影した画像を記録するときに、全員の目が開いている画像と誰かが目を瞑ってしまっている画像とを区別して記録することを提案している。
特開2001−067459号公報 特開2003−338952号公報 特開2005−039365号公報 特開2006−163496号公報
上記各特許文献には、瞳の半径の変化量、瞳の面積、瞳の縦方向の画素数などを所定の閾値と比較することにより、瞬き状態(目を閉じた状態)を判定する方法が示されている。しかし、瞳本来の大きさや、目を開いた状態での上瞼と下瞼の間隔には、個人差がある。このため、固定された閾値との比較では、目が細い人物が少し目を細めただけで瞬き状態と判定されてしまうなど、瞬き状態を正しく検出できないことがある。本発明の第1の目的は、このような個人差による検出精度のばらつきをなくし、常に高い精度で瞬き状態を検出できるようにすることにある。
また、写真撮影では、撮影範囲に大勢の人物がいるものの、実際に撮影したいのは一人だけという場合がある。例えば、人混みの中に立つ特定の人物をスナップ撮影するような場合である。このような状況では、その特定の人物の瞬き状態さえ避けられればよく、人混みを構成する他の人物の状態は問題とならない。しかし、特許文献1〜4が提案する手法では、瞬き状態検出の対象を特定の人物に限定することができない。本発明の第2の目的は、この問題を解決することにある。
本発明は、瞬き状態の検出に用いられる画像処理装置として、以下に説明する目状態識別手段、閾値設定手段および瞬き状態検出手段を備えた装置を提供する。
目状態識別手段は、フレーム画像を対象とする目領域の探索により検出された目領域ごとに、その目領域を構成する画素データに基づき目の開閉状態を示す所定の特徴量の値を算出する。
閾値設定手段は、瞬き状態検出の対象となる目が開状態のときの特徴量の値に基づいて、開状態から閉状態への遷移点における特徴量の値を示す第1閾値および閉状態から開状態への遷移点における特徴量の値を示す第2閾値を算出し、算出した第1閾値および第2閾値をメモリに記憶せしめる。
瞬き状態検出の対象となる目が開状態のときの特徴量の値は、例えば、目状態識別手段が、瞬き状態検出の対象となる目を含む所定数のフレーム画像について算出した複数の値の中から最大値または最小値を抽出し、抽出した値を瞬き状態検出の対象となる目が開状態のときの前記特徴量の値とすればよい。算出する特徴量が、目が大きく開いているほど値が大きくなる特徴量であれば最大値を、目が大きく開いているほど値が小さくなる特徴量であれば最小値を抽出すればよい。
瞬き状態検出手段は、時系列なフレーム画像について目状態識別手段が順次算出する特徴量の値を、閾値設定手段がメモリに記憶せしめた第1閾値または第2閾値と順次比較することにより、目領域が表す目の瞬き状態を検出する。
本発明の画像処理装置は、開状態から閉状態への遷移点を越えたこと、さらに閉状態から開状態への遷移点を越えたことを検出することで、目を閉じた状態ではなく、目を瞬時に閉じて開く動作、すなわち「瞬き」を高い精度で検出することができる。状態判定の閾値は、検出の対象となる目が開状態のときの特徴量の値に基づいて算出されるため、どのような大きさ、形状の目であっても、高い精度で瞬き状態を検出することができる。
上記画像処理装置には、さらに、フレーム画像を対象とする顔領域の探索により検出された顔領域の中から一の顔領域を選択する代表顔選択手段を設けることが好ましい。代表顔選択手段は、例えば、顔領域の位置、大きさ、確度および輝度の中の少なくとも1つを選択基準として顔領域の選択を行うものとする。
代表顔選択手段を備えた構成では、閾値設定手段は、代表顔選択手段により選択された顔領域に含まれる目のみを瞬き状態検出の対象として、閾値の算出を行う。これにより、主要な顔について確実に瞬きを検出できるようにしつつ、全体の演算量を減らすことができる。
瞬き状態の検出は、表情が固定されているときのみ行うようにしてもよい。そのための構成としては、上記画像処理装置に、口、耳、眉、鼻の孔など目以外の顔器官の状態(形状、色)を識別する顔器官状態識別手段と、その顔器官の状態変化を検出する状態変化検出手段とを設け、顔器官の状態変化が検出されている間は瞬き状態の検出を行わないようにする構成が考えられる。
顔器官状態識別手段は、フレーム画像から目以外の顔器官を表す領域を探索し、検出された領域を構成する画素データに基づいて顔器官の状態を識別すればよい。また、状態変化検出手段は、時系列なフレーム画像について顔器官状態識別手段が順次識別した顔器官の状態から、状態変化を検出すればよい。例えば、顔器官状態識別手段が、顔器官の複数の特徴点の位置を算出し、状態変化検出手段が、時系列なフレーム画像における各特徴点の位置の変化を検出することで、顔器官の状態変化を検出することができる。
瞬き状態の検出は、主として瞬き状態の目を含む画像の取得(記録)を避けるために行うものであるが、表情が変化したときの画像は、瞬きを行っているか否かに拘らず取得に値することが多い。顔器官の状態変化が検出されている間、瞬き状態の検出処理を行わないようにすれば、表情が変化している間は瞬きの有無に拘らず画像を取得することができる。
なお、瞬き状態検出手段は、目領域が検出されたときのみ動作する手段とすることが好ましい。また、目状態識別手段は、フレーム画像を対象とする顔領域の探索により検出された顔領域に基づいて推定された探索範囲においてのみ、目領域の探索を行うようにするのがよい。不要な動作を行わせず、また必要最小限の範囲においてのみ探索を行うことで、演算量を少なくし、装置の消費電力を抑えることができる。
上記画像処理装置には、さらに、フレーム画像に、瞬き状態検出手段の検出結果を示すマーク画像を合成するマーキング手段と、マーキング手段により生成された合成画像を所定の表示装置に出力する表示制御手段とを設けてもよい。マーキング手段と表示制御手段を備えた構成では、表示装置に表示されるマーク画像をみながら画像を取得(記録)するタイミングを見計らうことができる。
前述した代表顔選択手段を備えるときは、マーキング手段を、代表顔選択手段により選択された顔領域に含まれる目の瞬き状態が検出されたときと、代表顔選択手段により選択された顔領域以外の顔領域に含まれる目の瞬き状態が検出されたときとで、異なるマーク画像を合成する手段としてもよい。代表顔とそれ以外の顔とで表示を異ならせることで、代表顔について瞬き状態が検出されたことを、表示を見る者に強く印象付けることができる。
上記画像処理装置は、フレーム画像を所定の記録媒体に記録するタイミングを瞬き状態検出手段が出力する検出結果に基づいて決定し、決定したタイミングでフレーム画像を所定の記録媒体に記録する記録制御手段を備えることが好ましい。代表顔選択手段を備えるときは、記録制御手段は、代表顔選択手段により選択された顔領域に含まれる目の瞬き状態が検出されなくなったときを、フレーム画像を記録するタイミングに決定するとよい。記録制御手段を備えた構成では、特別な操作を要することなく自動的に、瞬き状態の目を含まない画像を取得することができる。
また、本発明は、上記画像処理装置と、被写体を表すフレーム画像を生成し、そのフレーム画像を画像処理装置に供給する撮像装置とを備えた撮影システムを提供する。一例としては、画像処理デバイスと撮像デバイスとを備えたデジタルカメラがあげられる。また、画像処理機能を備えたコンピュータにビデオカメラを接続したシステムも考えられる。
また、本発明は、目の瞬き状態を検出する方法として、フレーム画像を対象とする目領域の探索により検出された目領域ごとに、その目領域を構成する画素データに基づき目の開閉状態を示す所定の特徴量の値を算出する目状態識別処理と、瞬き状態検出の対象となる目が開状態のときの特徴量の値に基づいて、開状態から閉状態への遷移点における特徴量の値を示す第1閾値および閉状態から開状態への遷移点における前記特徴量の値を示す第2閾値を算出し、算出した第1閾値および第2閾値をメモリに記憶せしめる閾値設定処理と、目状態識別処理において時系列なフレーム画像について算出した特徴量の値を、閾値設定処理においてメモリに記憶せしめた第1閾値または第2閾値と順次比較することにより、目領域が表す目の瞬き状態を検出する瞬き状態検出処理とを実行する方法を提案する。
さらに、本発明は、上記目状態識別処理と、閾値設定処理と、瞬き状態検出処理とをコンピュータに実行させる瞬き状態検出プログラムを提供する。また、そのプログラムが記録されたCD−ROM、DVDその他のコンピュータ読取可能な記録媒体をも提供する。
以下、本発明の方法および装置の一実施形態として、瞬き状態検出機能を備えたデジタルカメラを開示する。
[構成および動作概要]
はじめにデジタルカメラの構成について説明する。図1Aおよび図1Bは、デジタルカメラ1の外観を示す図であり、図1Aはデジタルカメラの正面を、図1Bは背面を示している。これらの図に示すように、デジタルカメラ1は、撮像レンズ2、シャッタレリーズボタン3、フラッシュ4、操作ダイヤルあるいはボタン5a〜5fおよびモニタ6を備えている。また、デジタルカメラ1の下部には、開閉可能なスロットカバーがあり(図示せず)、スロットカバーの中にはメモリカード7を装填するカードスロットが備えられている。
図2は、デジタルカメラ1の内部構成を示す図である。この図に示すように、デジタルカメラ1は、撮像レンズ2、レンズ駆動部16、絞り13、絞り駆動部17、CCD14およびタイミングジェネレータ(TG)18からなる撮像部を備える。撮像レンズ2は、被写体にピントを合わせるためのフォーカスレンズ、ズーム機能を実現するためのズームレンズなど複数の機能別レンズにより構成される。レンズ駆動部16はステッピングモータなど小型のモータで、CCD14から各機能別レンズのまでの距離が目的に適った距離となるように各機能別レンズの位置を調整する。絞り13は複数の絞り羽根からなる。絞り駆動部17は、ステッピングモータなど小型のモータで、絞りの開口サイズが目的に適ったサイズになるように絞り羽根の位置を調整する。CCD14は原色カラーフィルタを伴う500〜1200万画素のCCDで、タイミングジェネレータ18からの指示信号に応じて蓄積された電荷を放出する。タイミングジェネレータ18は、CCD14に所望の時間のみ電荷が蓄積されるようにCCD14に対して信号を送り、これによりシャッタ速度を調整する。
また、デジタルカメラ1は、CCD14の出力信号をデジタル信号に変換するA/D変換部15と、A/D変換部15が出力した画像データをシステムバス24を介して他の処理部に転送する画像入力制御部23と、画像入力制御部23から転送された画像データを一時記憶するメモリ22を備える。
また、デジタルカメラ1は、フラッシュ4と、フラッシュ4の発光タイミングや発光量を制御するフラッシュ制御部19と、レンズ駆動部16にレンズの移動を指示して焦点合わせを行う焦点調節部20と、絞り値とシャッタ速度を決定し、絞り駆動部17とタイミングジェネレータ18に指示信号を送出する露出調整部21を備える。
また、デジタルカメラ1は、メモリ22に記憶されている画像データに対して画像処理を施す画像処理部25を備える。画像処理部25は、画像を自然な色合い、明るさにするための色階調補正や明るさ補正、画像データが赤目を含むものであるときに赤目を黒目に修正する処理など、画像の見栄えを良くするための各種仕上げ処理を行う。また、後述するように、メモリ22に記憶されている画像データに、瞬きが検出されたことを示すマーク画像を合成する処理も行う。画像処理部25により処理された処理済画像データは、再度メモリ22に格納される。
また、デジタルカメラ1は、メモリ22に記憶されている画像データのモニタ6への出力を制御する表示制御部26を備える。表示制御部26は、メモリ22に記憶されている画像データの画素数を、表示に適した大きさとなるように間引きしてから液晶モニタ9に出力する。また、表示制御部26は、動作条件などの設定画面の表示も制御する。
また、デジタルカメラ1は、メモリ22に記憶されている画像データのメモリカード7への書込み、およびメモリカード7に記録されている画像データのメモリ22へのロードを制御する記録読出制御部27を備える。記録読出制御部27は、ユーザの設定に応じて撮影により取得された画像データをそのまま、もしくは圧縮符号化し、Exif(Exchangeable Image File Format)ファイルとして、メモリカード7に記録する。Exifは、日本電子工業振興協会(JEIDA)が定めたファイルフォーマット規格である。また、メモリカード7に記録されている画像ファイルの再生を要求する操作が行われたときには、Exifファイルに含まれる画像データを、メモリ22にロードする。画像データが圧縮されている場合には伸長した後、メモリ22にロードする。
また、デジタルカメラ1は、メモリ22に記憶されている画像データを対象として顔、目その他の顔器官を表す領域を探索し、抽出する領域抽出部28を備える。ここでは、領域抽出部28は、顔、目、口領域を抽出し、顔領域、目領域、口領域を表す領域情報を出力するものとする。なお、画像データが複数の顔を含むものである場合には、顔ごとに顔領域、目領域、口領域を表す領域情報が出力される。
また、デジタルカメラ1は、領域抽出部28が出力する領域情報を参照し、その領域情報が示す目領域、口領域内の画素値から、目や口の状態を示す特徴量を算出し、算出された特徴量に基づいて目や口の状態を識別する状態識別部29を備える。状態識別部29は、さらに、識別した状態の変化を監視することにより、目の瞬き状態を検出する。
デジタルカメラ1は、この他、CPU(Central Processor Unit)31、操作/制御プログラムが格納されたRAM(Random Access Memory)32、各種設定値が記憶されているEEPROM(Electronically Erasable and Programmable Read Only Memory)33からなる全体制御部30を備える。全体制御部30のCPU31は、EEPROM33に記憶された設定値を参照し、その設定値に基づいてRAM32に記憶されているプログラムを選択、実行する。これにより、全体制御部30は、シャッタレリーズボタン3、操作ダイヤル/ボタン5a〜5fの操作を検出し、あるいは各処理部の処理結果を受けて、フラッシュ制御部19、焦点調節部20、露出調整部21、画像入力制御部23、画像処理部25、表示制御部26、記録読出制御部27、領域抽出部28および状態識別部29に対し、実行すべき処理を指示する指示信号を送出する。これにより、デジタルカメラ1の動作が制御される。
本実施形態では、デジタルカメラ1の動作モードとして、撮影モード、画像再生モード、設定モードがある。デジタルカメラ1が撮影モードに設定されると、撮像部は被写体を表す画像データの生成を開始する。生成された画像データは順次メモリに記録される。一方で、表示制御部はメモリに記録された画像データを順次モニタに出力する。これによりモニタ6には被写体の画像が動画表示されることとなる。全体制御部がシャッタレリーズボタン3の押下を検出すると、全体制御部30の制御の下で焦点調節、露出制御、フラッシュ制御が行われ、その時点で撮像部により生成された画像データが、画像処理部により必要な処理を施された後、記録読出し制御部27を経てメモリカード7に記録される。
また、デジタルカメラ1が画像再生モードに設定されているときは、全体制御部30の制御の下で、メモリカード7に記録されている画像がメモリ22にロードされ、表示制御部26を経てモニタ6に出力される。デジタルカメラ1が設定モードに設定されているときは、全体制御部30の制御の下で、モニタ6に設定画面が表示され、操作ダイヤル/ボタン5a〜5fからの操作入力が受け付けられる。設定画面において、ユーザが操作ダイヤル/ボタン5a〜5fを使って選択した情報は、EEPROM33に記憶される。EEPROM33に記憶された各種設定値は、デジタルカメラ1が撮影モードや再生モードに切り替えられたときに参照され、全体制御部30は設定された動作が行われるように、各処理部を制御する。
[瞬き状態検出機能]
以下、デジタルカメラ1の瞬き状態検出機能について、さらに説明する。瞬き状態検出機能は、設定画面において瞬き状態検出機能がONに設定されたときに有効になる。EEPROM33には瞬き状態検出フラグが記憶されており、瞬き状態検出フラグの値は瞬き状態検出機能がONのときは1に、OFFのときは0に設定される。全体制御部30は、撮影モードに切り替えられたときに瞬き状態検出フラグを参照し、フラグが1に設定されていれば、領域抽出部28および状態識別部29に対し、瞬き状態の検出に必要な処理を行うことを指示する信号を送出する。
図3は、領域抽出部28の構成を示す図である。図に示すように、領域抽出部28は、顔領域抽出手段41、顔器官領域抽出手段42および代表顔選択手段43により構成される。領域抽出部28は、手段41〜43として機能するLSIにより構成された回路でもよいし、手段41〜43の処理を実行するソフトウェアプログラムが組み込まれたマイクロコンピュータでもよい。
顔領域抽出手段41は、デジタルカメラ1が撮影モードに設定され、撮像部により生成される画像データが順次メモリ22に記憶される状態になると、そのメモリ22に記憶される時系列な画像データを取り込み、フレームごとに、顔を表す顔領域を探索する処理を行う。顔領域の抽出には、肌色領域を探索する方法をはじめ、公知の顔抽出方法を用いることができる。顔領域抽出手段41は、顔領域を検出した場合、顔領域情報として、フレーム内の顔の位置(重心位置など)を示す座標値と、顔の大きさ(径、面積など)を示す値と、顔領域の確度を表す値を出力する。
顔領域の確度を表す値としては、顔か否かの判定に用いるために算出された顔らしさの評価値、あるいはそのような評価値と判定の基準となる閾値との差分値などを出力する。顔領域の判定では、通常、画像領域を構成する画素データから算出された顔らしさの評価値を、所定の閾値と比較することにより、その領域が顔を表しているか否かを判定する。評価値が閾値を少しでも超えていれば、その領域は顔を表す領域であると判定されるが、顔である確からしさは、評価値が閾値に近いほど低く、評価値が閾値を大幅に超えているほど高い。よって、判定に用いるために算出された評価値や、評価値と閾値との差分値は、顔領域の確度を表す指標となり得る。
顔領域抽出手段41は、複数の顔領域を検出した場合には、顔ごとに顔領域情報を出力する。一方、顔領域を検出できなかったときは、顔領域情報として、顔を検出できなかったことを示す値(例えば0)を出力する。
顔器官領域抽出手段42は、顔領域抽出手段41が出力した顔領域情報を参照し、まず、顔領域の位置、大きさ、色などから目と口がある範囲を大まかに絞り込む。例えば、目領域の探索範囲であれば、図4に例示するように、顔領域44の中心よりも少し上の、縦幅が顔領域の縦幅の1/4程度、横幅が顔領域の横幅と同程度の(もしくは少し狭い)範囲を探索範囲45とする。あるいは、顔領域44内の画像に二値化処理を施すと、瞳や口など肌色以外の色を有する顔器官のみが黒く表示された画像が得られるので、二値化した結果黒く表示された箇所の周辺領域を切り出し、切り出した領域を探索範囲としてもよい。
顔器官領域抽出手段42は、探索範囲を絞り込んだ後、その範囲において、より精度の高い検出処理を行う。例えば、検出の手法としては、Adaboostアルゴリズムなど学習に基づく判別アルゴリズムを利用して目や口を識別する、目や口の識別には、その他公知のあらゆる手法を用いることができる。顔器官領域抽出手段42は、探索により目領域が検出された場合には、フレーム内の目領域の範囲を示す目領域情報を出力する。複数の顔領域が検出されており、そのそれぞれについて目領域の探索を行った場合には、複数の目領域情報を出力する。目領域が1つも見つからなかったときは、目領域情報として、検出できなかったことを示す値(例えば0)を出力する。また、口領域が検出された場合には、フレーム内の口領域の範囲を示す口領域情報も合わせて出力する。口領域についても同様に、検出できなかった場合には、その旨を示す値(例えば0)を口領域情報として出力する。
目領域や口領域は、フレーム全体から目領域や口領域を直接探索することによっても検出できるが、上記のように、先に顔領域を探索し、顔領域内においてのみ目領域や口領域の探索を行うほうが探索の効率がよく、高い精度で目領域や口領域を検出することができる。また、上記のように、顔領域において目領域や口領域がありそうな範囲を予め推定してから探索を行うことで、さらに探索の効率を高めることができる。
代表顔選択手段43は、顔領域抽出手段41が出力した顔領域情報などに基づいて代表顔を選択し、選択した顔を特定する代表顔情報を出力する。1フレームにつき顔が1つしか検出されなかった場合には、その顔が代表顔として選択される。1フレームから複数の顔が検出された場合には、顔領域情報もしくは、顔領域情報を利用して算出できる値に基づいて、代表顔を選択する。代表顔の選択基準は、任意に定めることができる。例えば、各顔領域情報に含まれる顔の位置座標を参照し、位置座標がフレームの最も中央よりの位置を示している顔領域を選択する。または、各顔領域情報に含まれる顔の大きさの情報を参照し、径や面積が最も大きな顔領域を選択する。または、各顔領域情報に含まれる確度の情報を参照し、確度が最も高い顔領域を選択する。または、メモリ22から取り込んだ画像データに対しRGB−YCC変換処理を施して輝度画像を取得し、顔領域の輝度(最大輝度、輝度平均など)を算出し、最も明るい顔領域を選択する。
また、これらの選択基準は組み合わせて用いてもよい。例えば、各顔領域に対し、配置位置、大きさ、確度、輝度のそれぞれについてポイントを与える。例えば配置位置であれば、中央に近いほど高いポイントを与える。この際、重要視したい要素のポイントの重み付けを高くするなどしてもよい。そして、配置位置、大きさ、確度、輝度のそれぞれについて与えられたポイントを合算し、もっとも高いポイントを獲得した顔領域を、代表顔として選択する。
顔器官領域抽出手段42が出力する目領域情報および口領域情報と、代表顔選択手段43が出力する代表顔情報は、領域抽出部28から状態識別部29に供給される。また、代表顔情報は、焦点調節部20、露出調整部21、画像処理部25にも供給される。顔領域抽出手段41が出力する顔領域情報は、焦点調節部20や露出調整部21に供給される。焦点調節部20や露出調整部21は、供給された顔領域情報や代表顔情報を利用して、顔にピントが合うように、また顔領域が十分明るくなるように、撮像部を制御する。
図5は、状態識別部29の構成を示す図である。状態識別部29には、領域抽出部28から、目領域情報、口領域情報および代表顔情報が供給される。状態識別部29は、目状態識別手段51、閾値設定手段52と閾値用メモリ53、瞬き状態検出手段54、口状態識別手段55および口状態変化検出手段56により構成される。状態識別部29は、各手段として機能するLSIと所定の容量のメモリにより構成された回路でもよいし、各手段の処理を実行するソフトウェアプログラムが組み込まれたマイクロコンピュータでもよい。
目状態識別手段51は、全体制御部30の制御の下、領域抽出部28と同期してメモリ22から時系列な画像データを取り込む。そして、領域抽出部28から目領域情報が供給されるのを待って、フレームごとに、目領域を構成する画像データに基づいて目の開閉状態を表す特徴量を算出する。目領域が複数ある場合には、目領域ごとに特徴量を算出する。但し、目領域情報として値0、すなわち目領域が1つも検出されなかったことを示す値が供給されている間は、目状態識別手段51は動作を中断する。この間は、瞬き状態検出手段54も動作を中断する。
本実施形態では、目の開閉状態を表す特徴量として、図6に示すように瞳の画像に現れている部分の高さh(縦幅)を算出する。算出する値hは画素数であってもよいし、所定の座標系における距離であってもよい。目状態識別手段51は、1つのフレームに含まれる全ての目について値hを算出し終えると、算出した値を閾値設定手段52と瞬き状態検出手段54に供給する。目領域が複数ある場合には、各目を区別するための識別子などを付して目ごとに値hを出力する。
目状態識別手段51は、フレームごとに上記処理を繰り返すため、閾値設定手段52と瞬き状態検出手段54には、時系列な画像について順次算出された目ごとの値hが連続して入力されることとなる。
図7に、閾値設定手段52が行う処理の一例を示す。閾値設定手段52は、以下に説明する処理を目ごとに実行する。閾値設定手段52は、はじめに、カウンタの値を0に初期化し、処理変数hmaxの値として仮の値0を設定する(S101)。続いて、目状態識別手段51がある時点のフレームについて算出した値hを取得する(S102)。取得した値hをhmaxと比較し(S103)、hmaxよりも大きければhmaxの値を値hに置き換える(S104)。一方、値hがhmax以下の値であるときは、値の置き換えは行わない。
その後、カウンタ値に値1が加算される(S105)。以降、ステップS102に戻って目状態識別手段51が、上記フレームの次のフレームについて算出した値hを取得し、その値についてステップS103、S104、S105の処理を行う。同様にステップS102〜S105の処理を、カウンタ値が所定の値n(例えば100)になるまで繰り返す(S106)。ここまでの処理により、変数hmaxには、値hの最大値が設定される。
続いて、閾値設定手段52は、値hmaxを使って、瞳の画像に現れている部分の高さを示す値であって、目の開状態から閉状態への遷移点における高さを示す値と、閉状態から開状態への遷移点にける高さを示す値を算出する(S107)。すなわち、目が開状態から閉状態に移行したことの判定基準となる閾値Th1と、目が閉状態から開状態に移行したことの判定基準となる閾値Th2を算出する。
図8に、値hmaxと閾値Th1,Th2の関係を示す。本実施形態では、図7および図8に例示するように、閾値Th1を値hmaxの80%の値、閾値Th2を値hmaxの20%の値としている。但し、値hmaxと閾値Th1、Th2の関係はこれに限定されるものではなく、例えば閾値Th1、閾値Th2ともに値hmaxの50%の値としてもよい。算出された閾値Th1、Th2は、目を区別するための識別子とともに、閾値メモリ53に記憶される(S108)。
図9に、瞬き状態検出手段54が行う処理の一例を示す。瞬き状態検出手段54も、以下に説明する処理を目ごとに実行する。なお、本実施形態において瞬き状態検出手段54は、閉じられた目を検出するのではなく、瞬間的に目を閉じて開く動作を検出する。
瞬き状態検出手段54は、閾値用メモリ53から、1つの目についての閾値Th1および閾値Th2を読み込む(S201)。続いて、目状態識別手段51がある時点のフレームについて算出した値hを取得し(S202)、取得した値hを閾値Th1と比較する(S203)。値hが閾値Th1以下であれば、ステップS202に戻り、目状態識別手段51が上記フレームの次のフレームについて算出した値hを取得し、再びステップS203の比較を行う。そして、ステップS203において取得した値hが閾値Th1より大きいとの判定結果が得られるまで、すなわち目が開いた状態が検出されるまで、この処理を繰り返す。
次に、瞬き状態検出手段54は、目の開状態が検出されたフレームの次のフレームについて目状態識別手段51が算出した値hを取得し(S204)、取得した値hを閾値Th2と比較する(S205)。値hが閾値Th2以上であれば、ステップS204に戻り、目状態識別手段51が上記フレームの次のフレームについて算出した値hを取得し、再びステップS205の比較を行う。そして、ステップS205において取得した値hが閾値Th2より小さいとの判定結果が得られるまで、すなわち目が閉じた状態が検出されるまで、この処理を繰り返す。
続いて、瞬き状態検出手段54は、タイマーを所定時間Tにセットする(S206)。瞬きで目を閉じている時間は、無意識の瞬きの場合には長くて0.5秒程度である。意識的に行った瞬きの場合には、それよりも目を閉じている時間が長くなるが、概ね0.5秒〜3秒程度である。よって、時間Tは1秒〜3秒程度とするのがよい。
瞬き状態検出手段54は、タイマーをセットした後、再び、次のフレームについて目状態識別手段51が算出した値hを取得し(S207)、取得した値hを閾値Th1と比較する(S208)。値hが閾値Th1以下であれば、ステップS207に戻り、目状態識別手段51が上記フレームの次のフレームについて算出した値hを取得し、再びステップS208の比較を行う。そして、ステップS208において取得した値hが閾値Th1より大きいとの判定結果が得られるまで、すなわち目が開いた状態が検出されるまで、この処理を繰り返す。
ステップS208において、目の開状態が検出されたら、タイマーの値を参照することにより、タイマーをセットしてからの経過時間が時間T以上か否かを判定する(S209)。時間T以上の間目が閉じられていれば、その目の動作は瞬きではないと判断される。この場合、瞬き状態検出手段54は、ステップS204に戻り、上記処理を繰り返す。一方、タイマーをセットしてからの経過時間が時間Tより短かった場合には、瞬き状態検出手段54は、その目の動作を瞬きと判定し、瞬き状態を検出したことを示す信号(以下瞬き状態検出信号)を出力する(S210)。目領域が複数ある場合には、各目を区別するための識別子を付した瞬き状態検出信号を出力する。瞬き状態検出手段54が出力した瞬き状態検出信号は、状態識別部29から画像処理部25や記録読出制御部27に送られる。瞬き状態検出手段は、瞬き状態検出信号を出力した後、ステップS202に戻り、以降S210までの処理を繰り返す。
このように、瞬き状態か否かの判定を、目領域から算出された特徴量と2つの閾値Th1、Th2とを、時系列に供給される複数のフレームにおいて繰り返し比較することにより目の瞬き動作を判別すれば、瞬き動作を正確に検出することができる。閾値Th1、Th2は、閾値設定手段52により目ごとに設定された値であるため、目の大きさに関わらず最適な判定が行われ、個人差に起因する誤検出も生じにくい。
ここで、瞬き状態での撮影は、一般には避けるべきであるが、中には瞬き状態をそのまま撮影したほうが好ましい場合もある。例えば、驚いて目を瞬かせたときなど、表情の変化とともに行われる瞬きは、撮影に値する場合もある。このため、瞬き状態検出手段54は、表情が大きく変化している最中は、図9に示した処理を実行しない。複数ある顔のうち、一部の顔のみ表情が大きく変化しているときは、それらの顔以外の顔(目)のみを対象として、図9の処理を実行する。
以下、表情の変化を検出するための手段である口状態識別手段55と口状態変化検出手段56の処理について説明する。口状態識別手段55は、全体制御部30の制御の下、領域抽出部28と同期してメモリ22から同じく時系列な画像データを取り込む。そして、領域抽出部28から口領域情報が供給されるのを待って、フレームごとに、口状態識別処理を実行する。
口状態識別手段55は、口領域の画像から、口の形状を特徴づける複数の特徴点の位置座標を算出する。例えば、図10A、図10Bに例示するように、左右の口角、上唇中心の上端、上唇中心の下端、下唇中心の上端、下唇中心の下端の6つの点を口の特徴点と定め、口領域の画像から特徴点F1〜F6を識別し、特徴点F1〜F6の位置を示す座標値を口状態変化検出手段56に供給する。
図11に、口状態変化検出手段56の処理の一例を示す。例えば、ある時点のフレームの口領域の画像が図10Aに例示するような画像であるとすると、口状態変化検出手段56は、その口領域の画像から抽出された特徴点F1〜F6の位置L1〜L6の座標値(平面座標の座標値とする)を取得する(S301)。次に、一つの特徴点を、変化量を算出するときの基準点に設定する。例えば、特徴点F1を基準点に設定する(S302)。次のフレームの口領域の画像が例えば図10Bに例示するような画像であるとすると、口状態変化検出手段56は、その画像から抽出された特徴点F1〜F6の位置L1´〜L6´の座標値を取得する(S303)。
続いて、口状態変化検出手段56は、取得した座標値に基づいて、特徴点F1の位置L1、L1´のずれを算出し、位置L1と位置L1´とを一致させるための座標変換を行う。すなわち、2つのフレームの基準点を合わせる(S304)。その後、基準点以外の特徴点F2〜F6について位置の変化量を算出し、さらに、所定の算出式に基づいて、口全体の変化量の評価値Eを算出する(S305)。次式(1)は、評価値Eの算出式の一例である。
Figure 0004898532
次に、口状態変化検出手段56は、算出された評価値Eを所定の閾値ThEと比較する(S306)。評価値Eが所定の閾値ThE以下であれば、瞬き状態検出手段54に対し、瞬き状態検出の続行を指示する信号を送出する(S307)。一方、評価値Eが所定の閾値ThEよりも大きいときには、口の状態が変化していると判断し、瞬き状態検出手段54に対し、瞬き状態検出の中断を指示する信号を送出する(S308)。その後、ステップS303に戻って、前回ステップS303で取得した座標値と、今回ステップS303で取得した座標値とを対象としてステップS304〜S305の処理を繰り返す。
瞬き状態検出処理の続行あるいは中断を指示する信号は、顔が複数ある場合には、その顔に含まれる目の識別子とともに目ごとの信号として送出される(S308)。瞬き状態検出手段54は、中断指示信号を受信したときは、該当する目の瞬き状態検出処理を中断し、続行指示信号を受信したときは、検出処理を実行中であればそのまま続行し、中断中であれば再び検出を開始する。これにより、表情が変化しているときに行われた瞬きは、瞬き状態として検出されなくなる。
以上の説明では、顔が複数ある場合に全ての顔を対象として瞬き状態の検出を行う場合を例示したが、領域抽出部28の代表顔選択手段43が選択した代表顔についてのみ瞬き状態の検出を行うこととしてもよい。図5に示すとおり、目状態識別手段51と閾値設定手段52には、代表顔情報が供給される。よって、目状態識別手段51は、代表顔情報を参照することにより、目状態の識別処理を実行する対象を代表顔に含まれる目に限定することができる。
同様に、閾値設定手段52も、代表顔情報を参照することにより、閾値Th1,Th2の算出を行う対象を代表顔に含まれる目に限定することができる。対象を代表顔に限定すれば、状態識別部29が実行する演算量を大幅に減らすことができるので、主要な人物についてのみ瞬き状態を検出できればよいという場合には、検出の対象を代表顔に限定することが好ましい。なお、全顔について瞬き状態検出を実行するか代表顔のみについて瞬き状態検出を実行するかは、設定で切り替えることができる。
[検出結果の利用]
前述したように、瞬き状態検出手段54が出力した瞬き状態検出信号は、画像処理部25と記録読出制御部27に供給される。画像処理部25は、モニタ表示用の画像を生成する際に、瞬き状態の検出結果を利用する。記録読出制御部27は、瞬き状態の検出結果に基づいて、メモリカードに画像を記録するか否かを判断する。
画像処理部25は、瞬き状態検出信号を受信したときは、メモリ22に記憶されている画像データに、瞬きが検出されたことを示すマーク画像を合成する。前述したとおり、瞬き状態検出信号は目を区別する識別子とともに出力されるので、画像処理部25は、その識別子に基づいてマークをつけるべき目(顔、人物)を特定する。そして、マーク画像が、その目の近くに配置されるように、画像を合成する。マーク画像が合成された画像データは、表示制御部26を介してモニタ6に出力される。
図12に、画像処理部25が生成する表示用画像の一例を示す。合成するマーク画像61、62の図柄は任意でよいが、瞬き状態であることが感覚的にわかるような図柄とすることが好ましい。また、常に同じ図柄のマーク画像を合成してもよいが、フレームごとに少しずつ形状の異なる図柄を合成すれば、マーク画像はアニメーション画像となる。例えば、時系列なフレームに開状態の目、半分開いた目、閉状態の目を交互に合成すれば、瞬きする目をアニメーション表示させることができる。
また、代表顔情報が供給されたときには、代表顔とそれ以外の顔とで、異なるマーク画像を合成してもよい。例えば図の例では、代表顔に、他の顔のマーク画像62よりも一回り大きいマーク画像61を合成している。この他、代表顔のマーク画像のみ色や図柄を異ならせることも考えられる。
撮影モードで、モニタ6に図12のような画像を表示すれば、撮影者は、被写体が瞬きしているときを避けてシャッタレリーズボタン3を押すことができる。また、代表顔のみ異なるマーク画像を表示すれば、撮影者は、主要被写体が瞬きしているときを避けてシャッタレリーズボタン3を押すことができる。また、表示の上では代表顔と他の顔は区別されるものの、代表顔を特別扱いするか他の顔と同じように扱うかの判断は撮影者に委ねられる。よって、撮影者は、あるときは代表顔のみの瞬き状態を気にしながら撮影し、あるときは全員の瞬き状態を気にしながら撮影を行うというように、その場の状況に応じて代表顔の取り扱いを代えながら撮影を行うことができる。
一方、記録読出制御部27は、シャッタレリーズボタン3が押された後に、瞬き状態の検出結果を利用した処理を実行する。瞬き状態検出機能がOFFに設定されているときには、シャッタレリーズボタン3が最後の段階まで押下されると、全体制御部30から記録制御部26に対しメモリカード7への画像の書き込みが指示される。記録制御部26はこの指示を受けて、メモリ22から画像処理済みの画像データを読み出し、メモリカード7に記録する。これに対し、瞬き状態検出機能がONに設定されているときには、記録制御部26はメモリ22から読み出した画像データについて瞬き状態が検出されていれば、その画像データは記録せず、メモリ22から次の画像データ(次のフレーム)を読み出す。同様の処理を瞬き状態が検出されていない画像データを読み出すまで繰り返し、瞬き状態が検出されていない画像データをメモリカード7に記録する。
瞬きは一瞬のうちに行われるため、図12に例示した表示画面をみながらシャッタレリーズボタン3を押したつもりでも、実際には瞬き状態のときにシャッタレリーズボタン3を押している可能性はある。シャッタレリーズボタン押下後も瞬き状態検出を行って瞬き状態の検出結果に基づいて画像を記録するタイミングを制御すれば、シャッタレリーズボタン3を押したタイミングに拘らず、確実に瞬き状態でないときの画像を取得することができる。
[他の実施形態]
上記実施形態では、目状態識別手段は瞳の上下方向の幅の値を利用して状態を識別しているが、白目領域の面積、まつ毛の向きなど、目の開閉状態を示す他の特徴量を用いて状態を識別してもよい。また、上記実施形態では、閾値設定手段は、瞳の上下方向の幅の最大値hmaxに基づいて閾値を算出するが、目の開き具合が大きいほど値が小さくなる特徴量を使って状態を識別する場合には、その特徴量の最小値hminに基づいて閾値を算出することになる。
また、口状態識別手段および口状態変化検出手段に代えて、耳、眉、鼻の穴など他の顔器官を識別し、その状態変化を検出する手段を備えた構成も考えられる。一方、本発明において、顔器官の状態を識別し、状態変化を検出する手段は必須ではないので、これらの手段を備えない構成も考えられる。
また、上記実施形態のデジタルカメラは、代表顔選択手段を備えており、設定により代表顔の選択を行ったり行わなかったりするが、本発明において代表顔選択手段は必須の手段ではなく、したがって代表顔選択手段を備えない形態も考えられる。この他にも、上記実施形態を変形した色々な構成が考えられる。
また、デジタルカメラに限らず、パーソナルコンピュータなど、撮像部を備えない装置に、デジタルカメラ1の領域抽出部28と状態識別部29と同等の処理を実行するソフトウェアプログラムを組み込んだものも、本発明の画像処理装置の一実施形態といえる。この場合、コンピュータに組み込んだソフトウェアプログラムが、本発明のプログラムの一実施形態に相当し、そのようなソフトウェアプログラムが記録されたCD−ROM、DVDなどのメディアが、本発明の記録媒体の一実施形態に相当することとなる。
例えば、図13に例示するように、デジタルビデオカメラ71とパーソナルコンピュータ72(以下、PC72)とを接続し、デジタルビデオカメラ71が生成した画像データに対し、PC72でフレームごとに瞬き状態検出処理を実行する形態が考えられる。あるいは、瞬き状態の検出はデジタルビデオカメラ71が行い、瞬き状態検出信号をPC72に転送し、表示制御や記録制御はPC72側で行う形態も考えられる。
また、瞬き状態の検出に用いるフレーム画像は、時系列なフレーム画像であればよく、必ずしも撮影によりリアルタイムに生成される画像である必要はない。よって、本発明の他の実施形態として、DVD(Digital Versatile Disc)などのメディア73に記録されている動画像データをPC72に取り込んで、瞬き状態検出処理を行う形態も考えられる。
このように、本発明は、他の装置により生成された、あるいは過去に生成された動画像データから、被写体が瞬きをしていない瞬間の画像(静止画)を抽出するときにも有用である。
本発明の一実施形態であるデジタルカメラの外観を示す図(正面側) デジタルカメラの外観を示す図(背面側) デジタルカメラの内部構成を示す図 領域抽出部の構成を示す図 目領域の探索範囲について説明するための図 状態識別部の構成を示す図 目の開閉状態を表す特徴量の一例を示す図 閾値設定手段の処理の一例を示すフローチャート 閾値の算出方法について説明するための図 瞬き状態検出手段の処理の一例を示すフローチャート 口状態変化検出手段に供給される情報について説明するための図 口状態変化検出手段に供給される情報について説明するための図 口状態変化検出手段の処理の一例を示す図 画像処理部が生成する表示用画像の一例を示す図 本発明の他の実施形態を示す図
符号の説明
1 デジタルカメラ、 2 レンズ、 3 シャッタレリーズボタン、 4 フラッシュ、 5a〜5f 操作ダイヤル/ボタン、 6 モニタ、 7 メモリカード、
28 領域抽出部、 29 状態識別部、 44 顔領域、 45 探索領域、
61 マーク画像(代表顔用)、 62 マーク画像(代表顔以外の顔用)、
71 ビデオカメラ、 72 パーソナルコンピュータ、 73 記録メディア

Claims (27)

  1. 瞬き状態の検出に用いられる画像処理装置であって、
    フレーム画像を対象とする目領域の探索により検出された目領域ごとに、該目領域を構成する画素データに基づき目の開き具合が大きいほど大きい値を有する所定の特徴量の値を算出する目状態識別手段と、
    瞬き状態検出の対象となる目が開状態のときの前記特徴量の値に基づいて、開状態から閉状態への遷移点における前記特徴量の値を示す第1閾値および閉状態から開状態への遷移点における前記特徴量の値を示すものであって前記第1閾値と同一またはそれより大きい第2閾値を算出し、算出した第1閾値および第2閾値をメモリに記憶せしめる閾値設定手段と、
    時系列なフレーム画像について前記目状態識別手段が順次算出する特徴量の値を、前記閾値設定手段が前記メモリに記憶せしめた第1閾値または第2閾値と順次比較し、前記算出された特徴量の値が前記第2閾値より大きいとの判定結果が得られた後に、前記第1閾値より小さいとの判定結果が得られると、タイマーをセットし、その後再び前記第2閾値より大きいとの判定結果が得られたら、前記タイマーをセットしてからの経過時間が前記所定時間以上か否かを判定し、前記経過時間が前記所定時間より短かった場合に前記目領域が表す目の動作を瞬きと判定することにより、前記目領域が表す目の瞬き状態を検出する瞬き状態検出手段と、
    フレーム画像から目以外の顔器官を表す領域を探索し、検出された領域を構成する画素データに基づき前記顔器官の状態を識別する顔器官状態識別手段と、
    時系列なフレーム画像について前記顔器官状態識別手段が順次識別した顔器官の状態から、該顔器官の状態変化を検出する状態変化検出手段とを備え、
    前記瞬き状態検出手段が、前記状態変化検出手段により前記顔器官の状態変化が検出されている間、瞬き状態の検出を行わないことを特徴とする画像処理装置。
  2. フレーム画像を対象とする顔領域の探索により検出された顔領域の中から一の顔領域を選択する代表顔選択手段を備え、
    前記閾値設定手段が、前記代表顔選択手段により選択された顔領域に含まれる目のみを瞬き状態検出の対象として、前記閾値の算出を行うことを特徴とする請求項1記載の画像処理装置。
  3. 前記顔器官状態識別手段が、前記顔器官の複数の特徴点の位置を算出し、
    前記状態変化検出手段が、時系列なフレーム画像における前記各特徴点の位置の変化を、前記顔器官の状態変化として検出することを特徴とする請求項1または2記載の画像処理装置。
  4. 前記顔器官状態識別手段が、口の形状を識別する手段であり、
    前記状態変化検出手段が、口の形状の変化を検出する手段であることを特徴とする請求項1から3のいずれか1項記載の画像処理装置。
  5. 前記瞬き状態検出手段が、前記目領域が検出されたときのみ動作する手段であることを特徴とする請求項1から4のいずれか1項記載の画像処理装置。
  6. 前記目状態識別手段が、フレーム画像を対象とする顔領域の探索により検出された顔領域に基づいて推定された探索範囲においてのみ、前記目領域の探索を行うことを特徴とする請求項1から5のいずれか1項記載の画像処理装置。
  7. 前記フレーム画像に、前記瞬き状態検出手段の検出結果を示すマーク画像を合成するマーキング手段と、
    前記マーキング手段により生成された合成画像を所定の表示装置に出力する表示制御手段とをさらに備えたことを特徴とする請求項1から6のいずれか1項記載の画像処理装置。
  8. フレーム画像を対象とする顔領域の探索により検出された顔領域の中から一の顔領域を選択する代表顔選択手段を備え、
    前記マーキング手段が、前記代表顔選択手段により選択された顔領域に含まれる目の瞬き状態が検出されたときと、前記代表顔選択手段により選択された顔領域以外の顔領域に含まれる目の瞬き状態が検出されたときとで、異なるマーク画像を合成することを特徴とする請求項7記載の画像処理装置。
  9. 前記フレーム画像を所定の記録媒体に記録するタイミングを前記瞬き状態検出手段が出力する検出結果に基づいて決定し、決定したタイミングで前記フレーム画像を所定の記録媒体に記録する記録制御手段を備えたことを特徴とする請求項1から8のいずれか1項記載の画像処理装置。
  10. フレーム画像を対象とする顔領域の探索により検出された顔領域の中から一の顔領域を選択する代表顔選択手段を備え、
    前記記録制御手段が、前記代表顔選択手段により選択された顔領域顔領域に含まれる目の瞬き状態が検出されなくなったときを、前記フレーム画像を記録するタイミングに決定することを特徴とする請求項9記載の画像処理装置。
  11. 前記代表顔選択手段が、顔領域の位置、大きさ、確度および輝度の中の少なくとも1つを選択基準として、前記顔領域の選択を行うことを特徴とする請求項2、8、10のいずれか1項記載の画像処理装置。
  12. 請求項1から11のいずれか1項記載の画像処理装置と、
    被写体を表すフレーム画像を生成し、該フレーム画像を前記画像処理装置に供給する撮像装置とを備えた撮影システム。
  13. 目の瞬き状態を検出する方法であって、
    フレーム画像を対象とする目領域の探索により検出された目領域ごとに、該目領域を構成する画素データに基づき目の開き具合が大きいほど大きい値を有する所定の特徴量の値を算出する目状態識別処理と、
    瞬き状態検出の対象となる目が開状態のときの前記特徴量の値に基づいて、開状態から閉状態への遷移点における前記特徴量の値を示す第1閾値および閉状態から開状態への遷移点における前記特徴量の値を示すものであって前記第1閾値と同一またはそれより大きい第2閾値を算出し、算出した第1閾値および第2閾値をメモリに記憶せしめる閾値設定処理と、
    前記目状態識別処理において時系列なフレーム画像について算出した特徴量の値を、前記閾値設定処理において前記メモリに記憶せしめた第1閾値または第2閾値と順次比較し、前記算出された特徴量の値が前記第2閾値より大きいとの判定結果が得られた後に、前記第1閾値より小さいとの判定結果が得られると、タイマーをセットし、その後再び前記第2閾値より大きいとの判定結果が得られたら、前記タイマーをセットしてからの経過時間が前記所定時間以上か否かを判定し、前記経過時間が前記所定時間より短かった場合に前記目領域が表す目の動作を瞬きと判定することにより、前記目領域が表す目の瞬き状態を検出する瞬き状態検出処理と、
    フレーム画像から目以外の顔器官を表す領域を探索し、検出された領域を構成する画素データに基づき前記顔器官の状態を識別する顔器官状態識別処理と、
    時系列なフレーム画像について前記顔器官状態識別処理において順次識別した顔器官の状態から、該顔器官の状態変化を検出する状態変化検出処理とを実行し、
    前記状態変化検出処理において前記顔器官の状態変化が検出されている間は、前記瞬き状態検出処理を実行しないことを特徴とする瞬き状態検出方法。
  14. フレーム画像を対象とする顔領域の探索により検出された顔領域の中から一の顔領域を選択する代表顔選択処理を実行し、
    前記閾値設定処理において、前記代表顔選択処理において選択された顔領域に含まれる目のみを瞬き状態検出の対象として、前記閾値の算出を行うことを特徴とする請求項13記載の瞬き状態検出方法。
  15. 前記目領域が検出されたときのみ、前記瞬き状態検出処理を実行することを特徴とする請求項13または14記載の瞬き状態検出方法。
  16. 前記フレーム画像に、前記瞬き状態検出処理における検出結果を示すマーク画像を合成するマーキング処理と、
    前記マーキング処理において生成された合成画像を所定の表示装置に出力することを特徴とする請求項13から15のいずれか1項記載の瞬き状態検出方法。
  17. フレーム画像を対象とする顔領域の探索により検出された顔領域の中から一の顔領域を選択する代表顔選択処理を実行し、
    前記マーキング処理では、前記代表顔選択処理において選択された顔領域に含まれる目の瞬き状態が検出されたときと、前記代表顔選択処理において選択された顔領域以外の顔領域に含まれる目の瞬き状態が検出されたときとで、異なるマーク画像を合成することを特徴とする請求項16記載の瞬き状態検出方法。
  18. 前記フレーム画像を所定の記録媒体に記録するタイミングを、前記瞬き状態検出処理の検出結果に基づいて決定し、決定したタイミングで前記画像を所定の記録媒体に記録することを特徴とする請求項13から17のいずれか1項記載の瞬き状態検出方法。
  19. フレーム画像を対象とする顔領域の探索により検出された顔領域の中から一の顔領域を選択する代表顔選択処理を実行し、
    前記代表顔選択処理において選択された顔領域顔領域に含まれる目の瞬き状態が検出されなくなったタイミングで、前記画像を記録することを特徴とする請求項18記載の瞬き状態検出方法。
  20. フレーム画像を対象とする目領域の探索により検出された目領域ごとに、該目領域を構成する画素データに基づき目の開き具合が大きいほど大きい値を有する所定の特徴量の値を算出する目状態識別処理と、
    瞬き状態検出の対象となる目が開状態のときの前記特徴量の値に基づいて、開状態から閉状態への遷移点における前記特徴量の値を示す第1閾値および閉状態から開状態への遷移点における前記特徴量の値を示すものであって前記第1閾値と同一またはそれより大きい第2閾値を算出し、算出した第1閾値および第2閾値をメモリに記憶せしめる閾値設定処理と、
    前記目状態識別処理において時系列なフレーム画像について算出した特徴量の値を、前記閾値設定処理において前記メモリに記憶せしめた第1閾値または第2閾値と順次比較し、前記算出された特徴量の値が前記第2閾値より大きいとの判定結果が得られた後に、前記第1閾値より小さいとの判定結果が得られると、タイマーをセットし、その後再び前記第2閾値より大きいとの判定結果が得られたら、前記タイマーをセットしてからの経過時間が前記所定時間以上か否かを判定し、前記経過時間が前記所定時間より短かった場合に前記目領域が表す目の動作を瞬きと判定することにより、前記目領域が表す目の瞬き状態を検出する瞬き状態検出処理と、
    フレーム画像から目以外の顔器官を表す領域を探索し、検出された領域を構成する画素データに基づき前記顔器官の状態を識別する顔器官状態識別処理と、
    時系列なフレーム画像について前記顔器官状態識別処理において順次識別した顔器官の状態から、該顔器官の状態変化を検出する状態変化検出処理とをコンピュータに実行させ、
    前記状態変化検出処理において前記顔器官の状態変化が検出されている間は、前記瞬き状態検出処理を中断することを特徴とする瞬き状態検出プログラム。
  21. 前記コンピュータに、フレーム画像を対象とする顔領域の探索により検出された顔領域の中から一の顔領域を選択する代表顔選択処理を実行させ、
    前記閾値設定処理として、前記代表顔選択処理において選択された顔領域に含まれる目のみを瞬き状態検出の対象として、前記閾値の算出を行う処理を実行させることを特徴とする請求項20記載の瞬き状態検出プログラム。
  22. 前記目領域が検出されたときのみ、前記コンピュータに前記瞬き状態検出処理を実行させることを特徴とする請求項20または21記載の瞬き状態検出プログラム。
  23. 前記コンピュータに、
    前記フレーム画像に、前記瞬き状態検出処理における検出結果を示すマーク画像を合成するマーキング処理と、
    前記マーキング処理において生成された合成画像を所定の表示装置に出力する表示制御処理とを実行させることを特徴とする請求項20から22のいずれか1項記載の瞬き状態検出プログラム。
  24. 前記コンピュータに、
    フレーム画像を対象とする顔領域の探索により検出された顔領域の中から一の顔領域を選択する代表顔選択処理を実行させ、
    前記マーキング処理として、前記代表顔選択処理において選択された顔領域に含まれる目の瞬き状態が検出されたときと、前記代表顔選択処理において選択された顔領域以外の顔領域に含まれる目の瞬き状態が検出されたときとで、異なるマーク画像を合成する処理を実行させることを特徴とする請求項23記載の瞬き状態検出プログラム。
  25. 前記コンピュータに、前記フレーム画像を所定の記録媒体に記録するタイミングを、前記瞬き状態検出処理の検出結果に基づいて決定し、決定したタイミングで前記画像を所定の記録媒体に記録する記録制御処理を実行させることを特徴とする請求項20から24のいずれか1項記載の瞬き状態検出プログラム。
  26. 前記コンピュータに、
    フレーム画像を対象とする顔領域の探索により検出された顔領域の中から一の顔領域を選択する代表顔選択処理を実行させ、
    前記記録制御処理として、前記代表顔選択処理において選択された顔領域顔領域に含まれる目の瞬き状態が検出されなくなったタイミングで、前記画像を記録する処理を実行させることを特徴とする請求項25記載の瞬き状態検出プログラム。
  27. 請求項20から26のいずれか1項記載の瞬き状態検出プログラムが記録されたコンピュータ読取可能な記録媒体。
JP2007105580A 2007-04-13 2007-04-13 画像処理装置および撮影システム並びに瞬き状態検出方法、瞬き状態検出プログラムおよびそのプログラムが記録された記録媒体 Expired - Fee Related JP4898532B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007105580A JP4898532B2 (ja) 2007-04-13 2007-04-13 画像処理装置および撮影システム並びに瞬き状態検出方法、瞬き状態検出プログラムおよびそのプログラムが記録された記録媒体
US12/101,766 US8077215B2 (en) 2007-04-13 2008-04-11 Apparatus for detecting blinking state of eye

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007105580A JP4898532B2 (ja) 2007-04-13 2007-04-13 画像処理装置および撮影システム並びに瞬き状態検出方法、瞬き状態検出プログラムおよびそのプログラムが記録された記録媒体

Publications (3)

Publication Number Publication Date
JP2008262447A JP2008262447A (ja) 2008-10-30
JP2008262447A5 JP2008262447A5 (ja) 2010-04-08
JP4898532B2 true JP4898532B2 (ja) 2012-03-14

Family

ID=39853348

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007105580A Expired - Fee Related JP4898532B2 (ja) 2007-04-13 2007-04-13 画像処理装置および撮影システム並びに瞬き状態検出方法、瞬き状態検出プログラムおよびそのプログラムが記録された記録媒体

Country Status (2)

Country Link
US (1) US8077215B2 (ja)
JP (1) JP4898532B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108259768A (zh) * 2018-03-30 2018-07-06 广东欧珀移动通信有限公司 图像的选取方法、装置、存储介质及电子设备

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090086754A (ko) * 2008-02-11 2009-08-14 삼성디지털이미징 주식회사 디지털 영상 처리 장치 및 그 제어 방법
CN101572791A (zh) * 2008-04-28 2009-11-04 鸿富锦精密工业(深圳)有限公司 图像加密***及方法
JP5108654B2 (ja) * 2008-06-27 2012-12-26 オリンパス株式会社 画像処理装置および画像処理プログラム
JP5361547B2 (ja) * 2008-08-07 2013-12-04 キヤノン株式会社 撮像装置及び撮影方法、プログラム
JP4991685B2 (ja) * 2008-12-19 2012-08-01 富士フイルム株式会社 立体画像処理装置および立体画像処理方法
JP5412894B2 (ja) * 2009-03-12 2014-02-12 株式会社ニコン 電子カメラ及びプログラム
JP4748244B2 (ja) * 2009-03-31 2011-08-17 カシオ計算機株式会社 画像選択装置、画像選択方法及びプログラム
KR101661211B1 (ko) * 2009-08-05 2016-10-10 삼성전자주식회사 얼굴 인식률 개선 장치 및 방법
KR101032726B1 (ko) 2009-09-01 2011-05-06 엘지이노텍 주식회사 눈 상태 검출방법
JP5384273B2 (ja) * 2009-09-30 2014-01-08 富士フイルム株式会社 カメラ及びカメラの記録方法
CN102598653B (zh) * 2009-11-02 2015-08-05 日本电气株式会社 移动通信设备和拍摄方法
EP2507742A2 (en) 2009-12-02 2012-10-10 Tata Consultancy Services Limited A cost effective and robust system and method for eye tracking and driver drowsiness identification
US20110205383A1 (en) * 2010-02-24 2011-08-25 Research In Motion Limited Eye blink avoidance during image acquisition in a mobile communications device with digital camera functionality
JP6279825B2 (ja) 2011-05-18 2018-02-14 ソニー株式会社 画像処理装置、画像処理方法、プログラムおよび撮像装置
JP2013042237A (ja) * 2011-08-11 2013-02-28 Nikon Corp 撮像装置
EP2608546A1 (en) 2011-12-21 2013-06-26 Thomson Licensing Video processing apparatus and method for detecting a temporal synchronization mismatch
JP2014092940A (ja) * 2012-11-02 2014-05-19 Sony Corp 画像表示装置及び画像表示方法、並びにコンピューター・プログラム
DE102013210588A1 (de) * 2013-06-07 2014-12-11 Bayerische Motoren Werke Aktiengesellschaft Anzeigensystem mit Datenbrille
US10074199B2 (en) 2013-06-27 2018-09-11 Tractus Corporation Systems and methods for tissue mapping
CN103369248A (zh) * 2013-07-20 2013-10-23 厦门美图移动科技有限公司 一种闭眼后睁开的拍照方法
KR20150039355A (ko) * 2013-10-02 2015-04-10 엘지전자 주식회사 이동 단말기 및 그 제어방법
CN103617421A (zh) * 2013-12-17 2014-03-05 上海电机学院 基于综合视频特征分析的疲劳检测方法及***
US10007845B2 (en) * 2015-07-06 2018-06-26 Pixart Imaging Inc. Eye state detecting method and eye state detecting system
USD798929S1 (en) * 2015-10-23 2017-10-03 Gitup Limited Camera
WO2018023242A1 (zh) * 2016-07-31 2018-02-08 杨洁 一种自动拍照的方法以及眼镜
WO2018023246A1 (zh) * 2016-07-31 2018-02-08 杨洁 一种拍照时的信息推送方法以及眼镜
WO2018023243A1 (zh) * 2016-07-31 2018-02-08 杨洁 一种自动拍照的专利信息推送方法以及眼镜
WO2018023247A1 (zh) * 2016-07-31 2018-02-08 杨洁 一种自动拍照并传输技术的数据采集方法以及眼镜
WO2018023245A1 (zh) * 2016-07-31 2018-02-08 杨洁 一种自动拍照并传输的方法以及眼镜
US10157323B2 (en) * 2016-08-30 2018-12-18 Qualcomm Incorporated Device to provide a spoofing or no spoofing indication
CN108198553B (zh) * 2018-01-23 2021-08-06 北京百度网讯科技有限公司 语音交互方法、装置、设备和计算机可读存储介质
CN110799986B (zh) * 2018-04-25 2020-09-18 北京嘀嘀无限科技发展有限公司 一种基于面部特征点的眨眼动作识别的***和方法
CN109101881B (zh) * 2018-07-06 2021-08-20 华中科技大学 一种基于多尺度时序图像的实时眨眼检测方法
CN110969109B (zh) * 2019-11-26 2023-04-18 华中科技大学 一种非受限条件下眨眼检测模型及其构建方法和应用
CN112036311A (zh) * 2020-08-31 2020-12-04 北京字节跳动网络技术有限公司 基于眼部状态检测的图像处理方法、装置及存储介质
JP6977975B1 (ja) * 2020-12-22 2021-12-08 株式会社スワローインキュベート 目開閉検出方法、目開閉検出装置及び目開閉検出プログラム
CN114267080B (zh) * 2021-12-30 2023-03-24 淮阴工学院 一种基于角度变化的无差别眨眼识别方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3350296B2 (ja) * 1995-07-28 2002-11-25 三菱電機株式会社 顔画像処理装置
JP3286887B2 (ja) * 1995-11-28 2002-05-27 三菱電機株式会社 顔画像処理装置及び顔画像処理方法
JP3556439B2 (ja) * 1997-08-12 2004-08-18 三菱電機株式会社 顔画像処理装置
JP2000137792A (ja) * 1998-10-30 2000-05-16 Toyota Motor Corp 眼部検出装置
JP3600755B2 (ja) * 1999-05-13 2004-12-15 三菱電機株式会社 顔画像処理装置
JP2001067459A (ja) 1999-08-26 2001-03-16 Toshiba Corp 顔画像処理方法および顔画像処理装置
JP4063583B2 (ja) * 2002-05-20 2008-03-19 三洋電機株式会社 デジタルカメラ
US7202792B2 (en) * 2002-11-11 2007-04-10 Delphi Technologies, Inc. Drowsiness detection system and method
JP2005039365A (ja) 2003-07-16 2005-02-10 Fuji Photo Film Co Ltd ディジタル・カメラおよびその制御方法
JP2006163496A (ja) 2004-12-02 2006-06-22 Fuji Photo Film Co Ltd 画像記録装置、画像記録方法及び画像記録プログラム
US7253739B2 (en) * 2005-03-10 2007-08-07 Delphi Technologies, Inc. System and method for determining eye closure state
JP2006260397A (ja) * 2005-03-18 2006-09-28 Konica Minolta Holdings Inc 開眼度推定装置
JP2007049631A (ja) * 2005-08-12 2007-02-22 Fujifilm Holdings Corp 撮像装置
US7787664B2 (en) * 2006-03-29 2010-08-31 Eastman Kodak Company Recomposing photographs from multiple frames

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108259768A (zh) * 2018-03-30 2018-07-06 广东欧珀移动通信有限公司 图像的选取方法、装置、存储介质及电子设备
CN108259768B (zh) * 2018-03-30 2020-08-04 Oppo广东移动通信有限公司 图像的选取方法、装置、存储介质及电子设备

Also Published As

Publication number Publication date
JP2008262447A (ja) 2008-10-30
US20080252745A1 (en) 2008-10-16
US8077215B2 (en) 2011-12-13

Similar Documents

Publication Publication Date Title
JP4898532B2 (ja) 画像処理装置および撮影システム並びに瞬き状態検出方法、瞬き状態検出プログラムおよびそのプログラムが記録された記録媒体
US7995106B2 (en) Imaging apparatus with human extraction and voice analysis and control method thereof
JP4254873B2 (ja) 画像処理装置及び画像処理方法、撮像装置、並びにコンピュータ・プログラム
JP4196714B2 (ja) デジタルカメラ
US8385607B2 (en) Imaging apparatus, image processing apparatus, image processing method and computer program
JP4973098B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP4898475B2 (ja) 撮影制御装置、撮影装置、及び撮影制御方法
JP4078334B2 (ja) 画像処理装置および画像処理方法
JP2008054295A (ja) 撮影装置および方法並びにプログラム
JP2008131204A (ja) 撮像装置及びその制御方法及びプログラム及び記憶媒体
JP2005086516A (ja) 撮像装置、印刷装置、画像処理装置およびプログラム
JP2008219449A (ja) 撮像装置およびその制御方法
US20100033591A1 (en) Image capturing apparatus and control method therefor
JP4127521B2 (ja) ディジタル・カメラおよびその制御方法
CN108093170B (zh) 用户拍照方法、装置及设备
JP2003092701A (ja) 撮像装置
JP5272775B2 (ja) 電子スチルカメラ
JP2011135527A (ja) デジタルカメラ
JP2008219450A (ja) 撮像装置およびその制御方法
JP2012231327A (ja) 撮像装置、撮像方法及びプログラム
JP5272797B2 (ja) デジタルカメラ
JP5383308B2 (ja) 画像処理装置
JP2008219451A (ja) 撮像装置およびその制御方法
JP2008167028A (ja) 撮像装置
JP5995610B2 (ja) 被写体認識装置及びその制御方法、撮像装置、表示装置、並びにプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100224

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100224

RD15 Notification of revocation of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7435

Effective date: 20110510

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110712

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110826

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111213

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111226

R150 Certificate of patent or registration of utility model

Ref document number: 4898532

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150106

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees