JP2010021943A - 撮像装置 - Google Patents

撮像装置 Download PDF

Info

Publication number
JP2010021943A
JP2010021943A JP2008182824A JP2008182824A JP2010021943A JP 2010021943 A JP2010021943 A JP 2010021943A JP 2008182824 A JP2008182824 A JP 2008182824A JP 2008182824 A JP2008182824 A JP 2008182824A JP 2010021943 A JP2010021943 A JP 2010021943A
Authority
JP
Japan
Prior art keywords
face
priority
input image
detected
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008182824A
Other languages
English (en)
Inventor
Masahiro Yokohata
正大 横畠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2008182824A priority Critical patent/JP2010021943A/ja
Priority to US12/500,788 priority patent/US8063947B2/en
Priority to CN200910152107A priority patent/CN101631198A/zh
Publication of JP2010021943A publication Critical patent/JP2010021943A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】注目顔を優先顔として選択し続けるための制御方法を提供する。
【解決手段】撮像装置は、所定のフレーム周期の撮影によってフレーム画像列を取得する。時刻t2のフレーム画像310から2つの顔FC1及びFC2が検出され、顔FC1が優先顔として選択される。その後、被写体の移動によって、時刻tnのフレーム画像330から顔FC1が検出されなくなったとき、直前のフレーム画像(時刻tn-1のフレーム画像320)上の優先顔の位置情報を保持し、その位置を中心とする、比較的大きな再探索範囲335を設定する。時刻tn以降、再探索範囲335内で、新たに顔が検出された場合、その新たに検出された顔(顔領域341に対応)を優先顔として再設定する。再探索範囲335内に位置する顔であっても、時刻tn以前から検出されている顔(FC2)は優先顔として再設定されない。
【選択図】図12

Description

本発明は、デジタルスチルカメラ、デジタルビデオカメラ等の撮像装置に関し、特に、画像上の複数の顔の中から優先顔を設定して優先顔の追尾を実行する技術に関する。
デジタルスチルカメラ又はデジタルビデオカメラにおいて、撮影画像から人物の顔を検出する処理が実用化されており、検出された顔に注目してカメラ制御や様々なアプリケーションを実行する方法が提案されている。撮影画像から複数の顔が検出されることもあるが、そのような場合は、複数の顔の中から注目すべき顔が設定されて、その注目すべき顔についてカメラ制御や各種アプリケーションが実行される。この注目すべき顔を、優先顔と呼ぶ。
例えば、顔検出機能を備えた従来のデジタルカメラでは、1枚の撮影画像(静止画像)から複数の顔が検出された場合、撮影画像の中心位置と撮影画像上における顔の位置との距離や撮影画像上の顔の大きさに基づいて優先顔を設定し、その優先顔にピントが合うようにオートフォーカス制御を実行している(例えば、下記特許文献1参照)。
動画像で考えた場合、或るタイミングにおいて、一旦、或る顔が優先顔として設定された後は、その顔が検出されている限り、その顔が優先顔として認識され続けることが求められる。従って、動画像上の優先顔に注目したカメラ制御等を行うデジタルカメラでは、顔の同定処理を行うことにより優先顔を追尾し続ける。この同定処理として、画像上の顔の位置情報に基づく同定処理が一般に利用される。位置情報に基づく同定処理は、画像上の顔の時間方向における位置変化が連続性を有している、という原理に基づいて行われる。
図19(a)及び(b)を参照して、位置情報に基づく同定処理を簡単に説明する。第1時刻における撮影によって、図19(a)に示す画像901が得られた後、第2時刻における撮影によって、図19(b)に示す画像902が得られた場合を考える。第1及び第2時刻間の時間長さは、例えば、動画像撮影時のフレーム周期と合致する。画像901及び902に対する顔検出処理によって、画像901から顔領域911及び912が抽出される一方で画像902から顔領域912及び922が抽出される。この場合、位置情報に基づく同定処理では、画像901及び902間で顔領域の位置を比較し、位置が近似している顔領域の顔は同一の顔であると判断することにより、顔の同定を行う。図19(a)及び(b)に示す例では、顔領域911及び912に含まれる顔は同一の顔であり、且つ、顔領域921及び922に含まれる顔は同一の顔であると判断される。
顔認識技術を利用して特定の顔を追尾する技術も存在するが、顔認識技術では、顔の画像から個人の特徴を抽出して特定の顔を追尾するという複雑な処理が必要となる。それに対して、上述の位置情報にのみ基づく同定処理は、簡素な処理にて特定の顔を追尾することが可能であるため、有益である。
特開2003−107335号公報
上述のようにして優先顔の追尾を行うことができるのであるが、何らかの原因によって優先顔として捉えられるべき注目顔が一時的に検出できなくなることもある。例えば、他の被写体の後ろに注目顔が位置することによってカメラから注目顔が見えなくなった場合、即ち、注目顔の遮蔽が生じた場合、その遮蔽が生じている期間中は、注目顔を検出することができなくなる。このような場合に実行されうる従来の同定処理を、図20(a)〜(c)を参照して説明する。
図20(a)、(b)及び(c)の画像950、960及び970は、夫々、第1、第2及び第3時刻の撮影によって得られた画像である。第1時刻の次に第2時刻が訪れ、第2時刻の次に第3時刻が訪れるものとする。第1、第2及び第3時刻において、デジタルカメラの撮影領域内に2つの顔FC1及びFC2が存在している。画像950から顔FC1及びFC2についての顔領域951及び952が抽出され、第1時刻において顔FC1が優先顔として設定されたとする。図20(a)〜(c)(及び後述する図21(a)〜(c))において、太い実線枠で囲まれた顔が優先顔を表している。
第2時刻において、被写体の移動によって顔FC1が顔FC2の後ろに隠れて、第2時刻の画像960からは顔FC1が検出されなかったものとする。符号962は、画像960から抽出された顔FC2の顔領域である。顔領域962の位置は、画像960の直前に得られた撮影画像上における優先顔の顔領域の位置(例えば、顔領域951の位置)に近い。加えて、画像960からは1つの顔領域しか検出されていない。このため、第2時刻では、顔FC1に代わり、顔領域962に対応する顔FC2が優先顔として認識される。
この後の被写体の移動によって、第3時刻の画像970から顔FC1及びFC2が検出されて、顔FC1及びFC2の顔領域971及び972が画像970から抽出される。但し、ユーザが注目している顔は顔FC1であるものの、第2時刻において優先顔が顔FC1から顔FC2へと遷移したため、第2及び第3時刻間の同定処理によって画像970の優先顔は顔FC2のままとなる。
図20(a)〜(c)に対応する例では、顔FC1が顔FC2の後ろに隠れることによって優先顔となるべき顔FC1が一時的に検出不可能となっているが、顔FC1が一時的にカメラの撮影領域外(視野外)に出てしまうような状況においても、同様の現象が生じうる。このような状況に対応する従来の優先顔の設定方法を、図21(a)〜(c)を参照して説明する。
図21(a)、(b)及び(c)の画像950a、960a及び970aは、夫々、第1、第2及び第3時刻の撮影によって得られた画像である。画像950aから顔FC1及びFC2についての顔領域951a及び952aが抽出され、第1時刻において顔FC1が優先顔として設定されたとする。第1及び第2時刻間における顔FC1の移動などにより、顔FC1が検出できなくなる程度に顔FC1の全部又は一部がカメラの撮影領域外に出ると、画像960aからは顔FC1が検出されなくなる。この時、画像960aから顔FC2が検出されて顔FC2の顔領域962aが抽出されると、カメラは、顔FC1の代わりに顔FC2を優先顔として再設定する。この後の顔FC1の移動やカメラのパンニングなどにより、第3時刻において、画像970aから顔FC1及びFC2が検出されて、それらの顔領域971a及び972aが抽出されたとしても、第2及び第3時刻間の同定処理によって画像970aの優先顔は顔FC2のままとされる。
このように、優先顔として捉えられるべき注目顔が一時的に検出できなった時において、単純に、注目顔が検出されている期間と同じ条件で同定処理を実行すると、注目顔と異なる顔が優先顔に設定されることもある。この場合、注目顔に対してカメラ制御等を行い続けることができなくなる。
そこで本発明は、注目すべき顔の安定的な認識に寄与する撮像装置を提供することを目的とする。
本発明に係る撮像装置は、繰り返し撮影によって時系列方向に複数の入力画像が並んで形成される入力画像列を取得する撮像手段と、前記入力画像列の画像データに基づき、各入力画像から人物の顔を検出して、画像上の検出顔の位置を表す位置情報を出力する顔検出手段と、前記顔検出手段によって検出される1以上の顔の中から優先顔を設定する優先顔設定手段と、前記顔検出手段によって検出される顔の位置情報に基づき、各入力画像内において前記優先顔を探索して前記優先顔を他の顔と区別して検出する同定手段と、前記優先顔の設定後に得られる第1入力画像から前記同定手段によって前記優先顔が検出される一方で、前記第1入力画像よりも後に得られる第2入力画像から前記同定手段によって前記優先顔を検出できなかったとき、前記第1入力画像上の前記優先顔の位置情報を含む保持情報を保持し、前記保持情報を用いて前記優先顔の再設定処理を実行する再設定手段と、を備えた撮像装置であって、前記再設定手段は、前記再設定処理において、前記保持情報と前記第2入力画像よりも後に得られる第3入力画像上の顔の位置情報とに基づき、前記同定手段による前記優先顔の探索条件と異なる探索条件にて、新たに優先顔として再設定されるべき再設定顔を前記第3入力画像内で探索することを特徴とする。
このように、一旦設定した優先顔が検出できなくなった時、優先顔の探索条件を変更して、注目されていない顔が新たに優先顔として再設定されることの回避を図る。これにより、真に注目すべき顔が検出可能になった際、その顔を優先顔として再設定することが可能となる。
具体的には例えば、前記同定手段によって前記優先顔が検出された時間的に連続する2枚の入力画像が第4及び第5入力画像から成り、前記第4入力画像の取得後に前記第5入力画像が取得されるとした場合、前記同定手段は、前記第4入力画像上における前記優先顔の位置を基準とする第1探索範囲を前記第5入力画像に対して設定し、前記第1探索範囲内で前記第5入力画像上の前記優先顔の探索を行う一方、前記再設定手段は、前記第1入力画像上における前記優先顔の位置を基準とする第2探索範囲を前記第3入力画像に対して設定し、前記第2探索範囲内で前記第3入力画像上の前記再設定顔の探索を行い、前記第2探索範囲の大きさは前記第1探索範囲の大きさよりも大きい。
そして例えば、前記再設定手段は、前記第1入力画像から検出された前記優先顔以外の顔が、前記再設定顔として探索されることを禁止する。
これにより、注目されていない顔が新たに優先顔として再設定されることが回避される。
より具体的には例えば、前記同定手段は、注目入力画像を含む時間的に連続する入力画像についての前記位置情報に基づき、前記顔検出手段によって検出される顔の同定を顔ごとに行い、この同定によって、前記注目入力画像から検出された顔が前記注目入力画像において新たに検出された顔であるのか或いは前記注目入力画像よりも前の入力画像においても検出されていた顔であるのかが判定され、前記再設定手段は、前記顔検出手段によって前記第3入力画像の前記第2探索範囲内から検出される顔の内、前記第2入力画像から検出されなかった顔であって且つ前記前記第3入力画像において新たに検出された顔が前記再設定顔として探索されるように、前記判定の結果に基づいて前記再設定処理を行う。
また例えば、異なる入力画像間における優先顔の動きを検出する動き検出手段を更に備え、前記再設定手段は、前記同定手段によって前記優先顔が検出されていた期間中における前記優先顔の動きに応じて、前記第2探索範囲の形状を可変させる。
また例えば、前記第1入力画像上の前記優先顔の特徴を表す付加情報が前記保持情報に含められ、前記再設定手段は、前記優先顔の位置情報だけでなく前記付加情報にも基づいて前記再設定処理を実行する。
本発明によれば、注目すべき顔の安定的な認識に寄与する撮像装置を提供することが可能である。
本発明の意義ないし効果は、以下に示す実施の形態の説明により更に明らかとなろう。ただし、以下の実施の形態は、あくまでも本発明の一つの実施形態であって、本発明ないし各構成要件の用語の意義は、以下の実施の形態に記載されたものに制限されるものではない。
以下、本発明の実施の形態につき、図面を参照して具体的に説明する。参照される各図において、同一の部分には同一の符号を付し、同一の部分に関する重複する説明を原則として省略する。
図1は、本発明の実施形態に係る撮像装置1の全体ブロック図である。撮像装置1は、例えば、デジタルビデオカメラである。撮像装置1は、動画像及び静止画像を撮影可能となっていると共に、動画像撮影中に静止画像を同時に撮影することも可能となっている。
[基本的な構成の説明]
撮像装置1は、撮像部11と、AFE(Analog Front End)12と、映像信号処理部13と、マイク14と、音声信号処理部15と、圧縮処理部16と、DRAM(Dynamic Random Access Memory)又はSDRAM(Synchronous Dynamic Random Access Memory)などの内部メモリ17と、SD(Secure Digital)カードや磁気ディスクなどの外部メモリ18と、伸張処理部19と、映像出力回路20と、音声出力回路21と、TG(タイミングジェネレータ)22と、CPU(Central Processing Unit)23と、バス24と、バス25と、操作部26と、表示部27と、スピーカ28と、を備えている。操作部26は、録画ボタン26a、シャッタボタン26b及び操作キー26c等を有している。撮像装置1内の各部位は、バス24又は25を介して、各部位間の信号(データ)のやり取りを行う。
TG22は、撮像装置1全体における各動作のタイミングを制御するためのタイミング制御信号を生成し、生成したタイミング制御信号を撮像装置1内の各部に与える。タイミング制御信号は、垂直同期信号Vsyncと水平同期信号Hsyncを含む。CPU23は、撮像装置1内の各部の動作を統括的に制御する。操作部26は、ユーザによる操作を受け付ける。操作部26に与えられた操作内容は、CPU23に伝達される。撮像装置1内の各部は、必要に応じ、信号処理時に一時的に各種のデータ(デジタル信号)を内部メモリ17に記録する。
図2は、図1の撮像部11の内部構成図である。撮像部11にカラーフィルタなどを用いることにより、撮像装置1は、撮影によってカラー画像を生成可能なように構成されている。
撮像部11は、光学系35と、絞り32と、撮像素子33と、ドライバ34を有している。光学系35は、ズームレンズ30及びフォーカスレンズ31を含む複数枚のレンズを備えて構成される。ズームレンズ30及びフォーカスレンズ31は光軸方向に移動可能である。
ドライバ34は、CPU23からの制御信号に基づいて、ズームレンズ30及びフォーカスレンズ31の各位置並びに絞り32の開度を駆動制御することにより、撮像部11の焦点距離(画角)及び焦点位置並びに撮像素子33への入射光量を制御する。被写体からの入射光は、光学系35を構成する各レンズ及び絞り32を介して、撮像素子33に入射する。光学系35を構成する各レンズは、被写体の光学像を撮像素子33上に結像させる。TG22は、上記タイミング制御信号に同期した、撮像素子33を駆動するための駆動パルスを生成し、該駆動パルスを撮像素子33に与える。
撮像素子33は、例えばCCD(Charge Coupled Devices)やCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等からなる固体撮像素子である。撮像素子33は、光学系35及び絞り32を介して入射した光学像を光電変換し、該光電変換によって得られた電気信号をAFE12に出力する。より具体的には、撮像素子33は、マトリクス状に二次元配列された複数の受光画素を備え、各撮影において、各受光画素は露光時間に応じた電荷量の信号電荷を蓄える。蓄えた信号電荷の電荷量に比例した大きさを有する各受光画素からの電気信号は、TG22からの駆動パルスに従って、後段のAFE12に順次出力される。光学系35に入射する光学像が同じであり且つ絞り32の開度が同じである場合、撮像素子33からの電気信号の大きさ(強度)は上記露光時間に比例して増大する。
AFE12は、撮像素子33から出力されるアナログ信号を増幅し、増幅されたアナログ信号をデジタル信号に変換してから映像信号処理部13に出力する。AFE12における信号増幅の増幅度はCPU23によって制御される。映像信号処理部13は、AFE12の出力信号によって表される画像に対して各種画像処理を施し、画像処理後の画像についての映像信号を生成する。映像信号は、画像の輝度を表す輝度信号Yと、画像の色を表す色差信号U及びVと、から構成される。
マイク14は撮像装置1の周辺音をアナログの音声信号に変換し、音声信号処理部15は、このアナログの音声信号をデジタルの音声信号に変換する。
圧縮処理部16は、映像信号処理部13からの映像信号を、所定の圧縮方式を用いて圧縮する。動画像または静止画像の撮影及び記録時において、圧縮された映像信号は外部メモリ18に記録される。また、圧縮処理部16は、音声信号処理部15からの音声信号を、所定の圧縮方式を用いて圧縮する。動画像の撮影及び記録時において、映像信号処理部13からの映像信号と音声信号処理部15からの音声信号は、圧縮処理部16にて時間的に互いに関連付けられつつ圧縮され、圧縮後のそれらは外部メモリ18に記録される。
録画ボタン26aは、動画像の撮影及び記録の開始/終了を指示するための押しボタンスイッチであり、シャッタボタン26bは、静止画像の撮影及び記録を指示するための押しボタンスイッチである。
撮像装置1の動作モードには、動画像及び静止画像の撮影が可能な撮影モードと、外部メモリ18に格納された動画像及び静止画像を表示部27に再生表示する再生モードと、が含まれる。操作キー26cに対する操作に応じて、各モード間の遷移は実施される。撮影モードでは、所定のフレーム周期にて順次撮影が行われ、撮像素子33から時系列で並ぶ画像列が取得される。この画像列を形成する各画像を「フレーム画像」と呼ぶ。
撮影モードにおいて、ユーザが録画ボタン26aを押下すると、CPU23の制御の下、その押下後に得られる各フレーム画像の映像信号及びそれに対応する音声信号が、順次、圧縮処理部16を介して外部メモリ18に記録される。動画像撮影の開始後、再度ユーザが録画ボタン26aを押下すると、映像信号及び音声信号の外部メモリ18への記録は終了し、1つの動画像の撮影は完了する。また、撮影モードにおいて、ユーザがシャッタボタン26bを押下すると、静止画像の撮影及び記録が行われる。
再生モードにおいて、ユーザが操作キー26cに所定の操作を施すと、外部メモリ18に記録された動画像又は静止画像を表す圧縮された映像信号は、伸張処理部19にて伸張されてから映像出力回路20に送られる。尚、撮影モードにおいては、通常、録画ボタン26a及びシャッタボタン26bに対する操作内容に関係なく、映像信号処理部13による映像信号の生成が逐次行われており、その映像信号は映像出力回路20に送られる。
映像出力回路20は、与えられたデジタルの映像信号を表示部27で表示可能な形式の映像信号(例えば、アナログの映像信号)に変換して出力する。表示部27は、液晶ディスプレイパネル及びそれを駆動する集積回路などを含む表示装置であり、映像出力回路20から出力された映像信号に応じた画像を表示する。
また、再生モードにおいて動画像を再生する際、外部メモリ18に記録された動画像に対応する圧縮された音声信号も、伸張処理部19に送られる。伸張処理部19は、受け取った音声信号を伸張して音声出力回路21に送る。音声出力回路21は、与えられたデジタルの音声信号をスピーカ28にて出力可能な形式の音声信号(例えば、アナログの音声信号)に変換してスピーカ28に出力する。スピーカ28は、音声出力回路21からの音声信号を音として外部に出力する。
尚、映像出力回路20からの映像信号及び音声出力回路21からの音声信号を、撮像装置1に設けられた外部出力端子(不図示)を介して外部機器(外部の表示装置など)に供給することも可能である。
特に記述しない限り、以下の説明は、撮影モードにおける撮像装置1の動作の説明である。
[顔処理ブロックの構成]
撮像装置1は、顔検出機能を備え、顔検出機能を利用してカメラ制御を行ったり、様々なアプリケーションを実行したりすることができる。図3に、顔検出機能に特に注目した、撮像装置1の一部ブロック図を示す。符号51〜54によって参照される各部位から成る顔処理ブロック50は、主として、映像信号処理部13、CPU23及び内部メモリ17によって実現される。例えば、顔検出部51は、映像信号処理部13に設けられ、顔追尾部52及び優先顔設定部54は、映像信号処理部13によって或いはCPU23と映像信号処理部13によって実現される。顔情報管理テーブル53は、内部メモリ17内に設けられる。尚、図1に示される他の部位も、必要に応じて、図3に示される各部位の機能の実現に関与する。
図3に示される各部位の機能を説明する。尚、時間の進行と共に、時刻t1、t2、・・・、tn-1、tn、tn+1・・・がこの順番で訪れるものとする(nは整数)。以下の説明では、隣接する時刻tn-1及びtn間の時間長さがフレーム周期と一致していることを想定する。従って、時刻tn-1の撮影によって得られたフレーム画像と時刻tnの撮影によって得られたフレーム画像は、時間的に連続して得られた2枚のフレーム画像である。但し、時刻tn-1及びtn間の時間長さを、フレーム周期の整数倍(例えば、2倍や3倍)にすることも可能である。以下、時刻tnの撮影によって得られたフレーム画像を、単に、時刻tnのフレーム画像とも呼ぶ(時刻tn-1などについても同様)。
また、或る画像に関し、その画像の情報を表すデータを画像データと呼ぶ。或る画像に関し、該画像の画像データも該画像の映像信号も、その画像を表す情報である。従って、画像データと映像信号を等価なものと捉えることができる。
フレーム画像の画像データは、顔検出部51に対する入力画像の画像データとして顔検出部51に与えられる。顔検出部51は、自身に与えられた入力画像の画像データに基づき、入力画像中から人物の顔を検出し、検出された顔を含む顔領域を抽出する。画像中に含まれる顔を検出する手法として様々な手法が知られており、顔検出部51は何れの手法をも採用可能である。
典型的には例えば、入力画像内に設定された着目領域の画像と所定の画像サイズを有する基準顔画像とを対比して両画像の類似度を判定し、その類似度に基づいて着目領域に顔が含まれているか否か(着目領域が顔領域であるか否か)を検出する。入力画像において着目領域は一画素ずつ左右方向又は上下方向にずらされる。そして、ずらされた後の着目領域の画像と基準顔画像とが対比されて、再度、両画像の類似度が判定され、同様の検出が行われる。このように、着目領域は、例えば入力画像の左上から右下方向に向けて1画素ずつずらされながら、更新設定される。また、入力画像を一定割合で縮小し、縮小後の画像に対して、同様の顔検出処理を行う。このような処理を繰り返すことにより、入力画像中から任意の大きさの顔を検出することができる。
顔検出部51によってフレーム画像から抽出される顔領域の形状は矩形である(ただし、その形状を矩形以外にすることも可能である)。顔検出部51によって、着目したフレーム画像から1又は複数の顔領域が抽出され、各顔領域の位置及び大きさを特定する情報を含む顔検出情報が出力される。顔検出部51による、フレーム画像内の顔領域の位置及び大きさを導出する処理を顔検出処理という。顔検出処理をフレーム画像ごとに行うことができる。
顔追尾部52は、フレーム画像ごとに行われた顔検出処理の結果(即ち、顔検出情報)に基づき、時間的に隣接するフレーム画像間で顔ごとに顔の同定処理を行い、顔検出処理及び同定処理の結果に基づいて顔情報管理テーブル53内のデータを順次更新していく。顔の同定処理によって、或るフレーム画像に現れる顔と他のフレーム画像に現れる顔とが同一の顔(同一の人物の顔)であるのか否かが判別される。
同定処理は、画像上の顔の時間方向における位置変化がフレーム画像列内において連続性を有している、という原理に基づいて行われる。これを、図4(a)〜(c)を参照してより具体的に説明する。図4(a)及び(b)において、画像201及び202は、夫々、時刻tn-1及びtnのフレーム画像の例を表している。矩形領域211及び221は画像201から抽出された顔領域であり、矩形領域212及び222は画像202から抽出された顔領域である。図4(c)では、顔領域211、212、221及び222が、共通の座標面上に示されている。点211c、212c、221c及び222cは、夫々、顔領域211、212、221及び222の中心を表している。
時刻tn-1及びtn間の時間長さは、例えば、1/60秒又は1/30秒である。そうすると、顔領域211及び212が同一の顔についての顔領域であるならば、通常、顔領域211及び212の位置は近似している。同定処理は、その位置の近似度に基づいて実行される。顔領域221及び222についても同様である。
具体的には、点211cを中心とする半径TH1の円の内側領域を探索範囲213として定義し、その探索範囲213内に中心が存在する顔領域が画像202上にあるか否かを判定する。そして、そのような顔領域が画像202上に存在する場合は、その顔領域に含まれる顔と、顔領域211に含まれる顔とが、同一の顔であると判断する。図4(a)〜(c)に示す例では、顔領域212の中心212cが探索範囲213内に存在するため、顔領域212に含まれる顔と、顔領域211に含まれる顔とは、同一の顔であると判断される。一方、顔領域222の中心222cは、探索範囲213内に存在しないため、顔領域222に含まれる顔と顔領域211に含まれる顔とは、異なる顔であると判断される。
同様に、点221cを中心とする半径TH1の円の内側領域を探索範囲223として定義し、その探索範囲223内に中心が存在する顔領域が画像202上にあるか否かを判定する。そして、そのような顔領域が画像202上に存在する場合は、その顔領域に含まれる顔と、顔領域221に含まれる顔とが、同一の顔であると判断する。図4(a)〜(c)に示す例では、顔領域222の中心222cが探索範囲223内に存在するため、顔領域222に含まれる顔と、顔領域221に含まれる顔とは、同一の顔であると判断される。一方、顔領域212の中心212cは、探索範囲223内に存在しないため、顔領域212に含まれる顔と顔領域221に含まれる顔とは、異なる顔であると判断される。
仮に、探索範囲213内に中心が存在する顔領域が画像202上に複数個存在する場合は、その複数の顔領域の夫々の中心と中心211cとの距離を比較して、より短い距離に対応する、画像202上の顔領域を特定し、特定した顔領域に含まれる顔と顔領域211に含まれる顔とが、同一の顔であると判断すればよい。探索範囲223についても同様である。
TH1は、時刻tn-1のフレーム画像上における着目した顔領域と、時刻tnのフレーム画像上における着目した顔領域とが同一の人物の顔であるか否かを区別するために設定された基準距離(画像上の基準距離)である。TH1の値を予め設定しておくことができる。TH1の値を、顔領域の大きさに応じて変化させてもよい。
尚、時刻tn-1のフレーム画像上における着目した顔領域と、時刻tnのフレーム画像上における着目した顔領域との間における重なり領域の面積を求め、その面積に基づいて同定処理を行うようにしてもよい。この場合は、例えば、図5に示されるような、顔領域211及び212が互いに重なり合う重なり領域214を特定し、その重なり領域214の、画像上の面積を求める。その後、その求めた面積を、顔領域211又は212の面積にて割った値を導出する。そして、導出した値が所定の基準値以上なら、顔領域211及び212に含まれる顔は、同一の顔であると判断する一方、そうでないなら、顔領域211及び212に含まれる顔は、異なる顔であると判断する。顔領域221及び222に含まれる顔についても、顔領域221及び222の重なり領域224の面積に基づいて、同様に処理される。重なり領域214の面積は、中心211c及び212c間の距離に依存するため、重なり領域214の面積に基づく同定処理も、結局、上述した中心間距離に基づく同定処理と等価であると言える。
このような同定処理によって、顔追尾部52は、過去のフレーム画像(例えば、時刻tn-1のフレーム画像)から検出された顔と、現在のフレーム画像(例えば、時刻tnのフレーム画像)から検出された顔との同定を行う。
顔検出処理及び同定処理の結果は、顔情報管理テーブル53(以下、単にテーブル53ともいう)内のデータに反映される。図6に、テーブル53のデータ構造を示す。図6では、互いに異なる3人の人物についての3つの顔が検出された場合におけるテーブル53のデータ構造を示す。この3つの顔に対して顔番号1、2及び3が割り当てられ、顔ごとに、顔の位置、履歴フラグ及び優先顔フラグを表すデータと、付加情報と、がテーブル53に格納される。顔番号iの位置は(xi_1,yi_1)及び(xi_2,yi_2)によって表される。iは、自然数であり、顔番号1〜3についてのみ考える場合、1、2又は3である。
図7に示す如く、(xi_1,yi_1)及び(xi_2,yi_2)は、顔番号iについての顔領域の左上隅及び右下隅の座標値(画像空間上の座標値)を表している。xi_1,yi_1は、その左上隅の水平方向座標値及び垂直方向座標値を表し、xi_2,yi_2は、その右下隅の水平方向座標値及び垂直方向座標値を表している。
顔番号iについての履歴フラグは、その顔番号iについての顔が過去のフレーム画像から連続して検出されている顔であるのかを示している。各履歴フラグには、“past”又は“new”が代入される。顔番号iについての履歴フラグが“past”であることは、顔番号iについての顔が過去のフレーム画像から連続して検出されている顔であることを示しており、顔番号iについての履歴フラグが“new”であることは、顔番号iについての顔が最新のフレーム画像において新たに検出された顔であることを示している。
例えば、時刻t1〜時刻tn-2のフレーム画像からは人物PAの顔が検出されず、時刻tn-1及びtnのフレーム画像から人物PAの顔が検出された場合を考える。また、人物PAの顔に対して顔番号1が割り当てられたとする。この場合、顔番号1の履歴フラグは、時刻tn-1のフレーム画像に対する顔検出処理及び同定処理後であって且つ時刻tnのフレーム画像に対する顔検出処理及び同定処理前においては、“new”となり、時刻tnのフレーム画像に対する顔検出処理及び同定処理後においては、“past”となる。
そして更に、時刻tn+1〜tn+4のフレーム画像から人物PAの顔が検出されず且つ時刻tn+5のフレーム画像から人物PAの顔が検出された場合を想定する。この場合、時刻tn+1〜tn+4のフレーム画像に対する顔検出処理及び同定処理によって人物PAの顔がフレーム画像から検出されないため、一旦、顔番号1の履歴フラグはリセットされる(リセットされた履歴フラグは何ら意味を有さない)。その後、時刻tn+5のフレーム画像に対する顔検出処理及び同定処理によって、時刻tn+5のフレーム画像から人物PAの顔が検出されると、人物PAの顔に対して新たに顔番号1が割り当てられて、顔番号1の履歴フラグは“new”となる。
ところで、撮像装置1では、顔検出機能を利用してカメラ制御を行ったり、様々なアプリケーションを実行したりすることができる。フレーム画像から複数の顔が検出されることもあるが、そのような場合は、複数の顔の中から注目すべき顔が設定されて、その注目すべき顔についてカメラ制御や各種アプリケーションが実行される。この注目すべき顔を、優先顔と呼ぶ。
テーブル53内の優先顔フラグによって何れの顔が優先顔であるかが規定される。優先顔フラグに「1」が代入されている顔番号の顔が優先顔であり、優先顔フラグに「0」が代入されている顔番号の顔は優先顔ではない。図6に示す例では、顔番号2の優先顔フラグにのみ「1」が代入されており、顔番号2に対応する顔が優先顔として取り扱われる。
優先顔の初期設定は、図3の優先顔設定部54によって行われる。優先顔設定部54は、画像データに基づいて自動的に或いはユーザによる手動操作に従って、優先顔を設定する。優先顔設定部54にて利用可能な優先顔の設定方法を、図8〜図10を参照して以下に例示する。図8〜図10において、太い実線枠で囲まれた顔が優先顔を表している。
例えば、図8に示す如く、時刻t1のフレーム画像から順番に各フレーム画像に対して顔検出処理を実行してゆき、最初に検出された顔を優先顔として設定するようにしてもよい。
或いは例えば、トリガ条件の成立時に得られたフレーム画像より検出された顔を、優先顔として設定するようにしてもよい。トリガ条件は、例えば、図1の操作部26に対して所定操作が施された時に成立する。
トリガ条件の成立時に得られたフレーム画像から複数の顔領域が抽出された場合は、顔の大きさに比例する顔領域の大きさを基準にして優先顔を設定するようにしてもよい。即ち例えば、図9に示す如く、その複数の顔領域の内、最大の大きさを有する顔領域についての顔を優先顔として設定するようにしてもよい。
トリガ条件の成立時に得られたフレーム画像から複数の顔領域が抽出された場合は、顔領域の位置を基準にして優先顔を設定するようにしてもよい。即ち例えば、図10に示す如く、その複数の顔領域の内、顔領域の中心がフレーム画像の中心に対して最も近い顔領域を特定し、その顔領域についての顔を優先顔として設定するようにしてもよい。
或いは例えば、ユーザによる優先顔を指定する操作を受け付け、その操作に従って、優先顔を設定するようにしてもよい。
テーブル53内の付加情報には、顔についての様々な情報を格納しておくことができる。図6では、付加情報の具体的な内容の図示を省略している。付加情報の利用方法については後述される。
一旦、或る顔が優先顔として設定された後は、その顔が顔検出処理によって検出されている限り、その顔が優先顔として認識され続けることが求められる。このため、撮像装置1では、優先顔設定部54による優先顔の設定後、上述の顔検出処理及び同定処理を繰り返し実行し、優先顔と優先顔以外の顔を含む各顔を画像上で追尾する。撮像装置1では、この追尾を、顔認識技術のような複雑な処理を用いることなく、顔領域の位置情報に基づいて実行している。つまり、顔認識技術のように、顔の画像から個人の特徴を抽出して特定の顔を追尾するような複雑な処理を必要としない。
しかしながら、他の被写体による、一時的な優先顔の遮蔽などが生じると、優先顔を現フレーム画像から検出することができず、結果、一時的に追尾が困難になる。優先顔の遮蔽によって顔検出ができなくなることは避けがたいが、遮蔽が解消された際、優先顔の追尾を正しく再開する能力が求められる。撮像装置は、優先顔の追尾を正しく再開することができる特徴的な機能を備える。
[優先顔追尾の動作手順]
この機能を実現する動作手順を、図11を参照して説明する。図11は、優先顔の追尾に注目した撮像装置1の動作フローチャートである。ステップS1〜S10の各処理は、顔処理ブロック50によって実行される。
まず、ステップS1において、顔検出部51による顔検出処理が行われる。この顔検出処理は現在のフレーム画像に対して行われる。現在のフレーム画像とは、顔検出処理等の処理を行う時点において得られている最新のフレーム画像を指す。ステップS1の顔検出処理は、周期的に行われ、その顔検出処理の実行周期は時刻tn-1及びtn間の時間長さと同じである。また、上述したように、本実施形態では、時刻tn-1及びtn間の時間長さがフレーム周期と一致していることを想定している。従って、ステップS1の顔検出処理は、フレーム画像ごとに実行される。但し、ステップS1の顔検出処理の実行周期を、フレーム周期の整数倍(例えば、2倍又は3倍)にすることも可能である。
ステップS1にて顔検出処理がなされると、ステップS2に移行する。ステップS2において、顔処理ブロック50は、ステップS1の顔検出処理の結果に基づき、現在のフレーム画像から1以上の顔が検出されたか否かを判断する。現在のフレーム画像から1以上の顔が検出された場合は、ステップS4に移行する。現在のフレーム画像から顔が1つも検出されなかった場合は、ステップS3のリセット処理が実行され、その後、ステップS1に戻る。リセット処理では、テーブル53内のデータが全て消去される。
ステップS4では、優先顔設定部54により、既に優先顔が設定されているか否かが判定される。優先顔設定部54により既に優先顔が設定されている場合はステップS6に移行するが、優先顔が未だ設定されていない場合はステップS5に移行する。ステップS5において、優先顔設定部54による優先顔の設定が行われた後、ステップS1に戻る。優先顔の設定結果は、テーブル53内の優先顔フラグに反映される。尚、ステップS5において常に優先顔の設定を行う必要はない。優先顔設定部54による優先顔の設定が未だなされていない期間においては、ステップS4からステップS5への移行が繰り返し生じるため、必要なタイミングにおいて、優先顔の設定を行えばよい。
ステップS6では、顔追尾部52によって上述の同定処理が行われる。具体的には、前回及び今回の顔検出処理の結果に基づいて、即ち、前回及び今回のフレーム画像に対して生成された顔検出情報に基づいて、前回のフレーム画像から検出された顔と、今回のフレーム画像から検出された顔との同定を行う。今回のフレーム画像と、上述の現在のフレーム画像とは同義である。前回のフレーム画像が時刻tn-1のフレーム画像であるなら、今回のフレーム画像は時刻tnのフレーム画像である。ステップS1の顔検出処理の結果と共にステップS6の同定処理の結果は、テーブル53内のデータに反映される。
その後、ステップS7において、今回のフレーム画像から優先顔が検出されたか否かが判断される。前回及び今回のフレーム画像上に優先顔として設定されている顔が存在しており且つその顔の検出及び同定が成功した場合は、今回のフレーム画像から優先顔が検出されたと判断され、ステップS7からステップS1に戻って、上述のステップS1以降の各処理が繰り返し実行される。一方、今回のフレーム画像から優先顔が検出されなかった時、優先顔が消失したと判断してステップS8に移行する。ステップS8〜S10では、優先顔の再設定処理が実行される。ステップS8〜S10における再設定処理は、顔追尾部52によって実行される。
再設定処理では、まず、優先顔が検出されていた直近のフレーム画像上における優先顔の情報がテーブル53内に保持される。ここで保持される情報を、以下、優先顔保持情報と呼ぶ。優先顔保持情報には、優先顔が検出されていた直近のフレーム画像上における優先顔の位置情報が含まれ、優先顔の付加情報も含まれうる。ステップS8において、顔追尾部52は、優先顔保持情報に含まれる優先顔の位置情報に基づき、優先顔の再探索範囲を設定する。その後、ステップS9において、その再探索範囲を今回のフレーム画像に適用し、今回のフレーム画像上における再探索範囲内に新たに検出された顔が存在しているか否かを判定する。そして、今回のフレーム画像上における再探索範囲内に新たに検出された顔が存在している場合、ステップS10にて、その新たに検出された顔を優先顔として再設定してからステップS1に戻る。一方、今回のフレーム画像上における再探索範囲内に新たに検出された顔が存在していない場合は、優先顔を再設定することなくステップS1に戻る。
図11の動作フローチャートに従う具体的動作例を、具体的な事例αに沿って説明する。図12(a)〜(e)の画像300、310、320、330及び340は、夫々、この具体的な事例αに沿った、時刻t1、t2、tn-1、tn及びtn+5のフレーム画像を表している(この具体的な事例αにおいては、n≧4)。また、図13(a)〜(e)は、時刻t1、t2、tn-1、tn及びtn+5におけるテーブル53のデータを表している。図13(a)〜(e)では、顔領域の位置を表す座標値の図示及び付加情報の具体的な内容の図示が省略されているが、それらの座標値及び付加情報は、顔検出処理や同定処理の結果に従って順次更新される。
事例αでは、まず、時刻t1のフレーム画像300から、2人の人物についての顔FC1及びFC2が検出される。顔領域301及び302は、夫々、フレーム画像300から抽出された顔FC1及びFC2についての顔領域である。顔FC1及びFC2に対して、夫々、顔番号1及び2が割り当てられたことを想定する。また、この時点では、優先化設定部54による優先顔の設定が行われていないものとする。結果、この時点では、図13(a)に示す如く、顔番号1及び2の履歴フラグは共に“new”であり且つ顔番号1及び2の優先顔フラグは共に“0”である。
その後、時刻t2のフレーム画像310からも、顔FC1及びFC2が検出されたとする。このため、図13(b)に示す如く、顔番号1及び2の履歴フラグは共に“past”とされる。顔領域311及び312は、夫々、フレーム画像310から抽出された顔FC1及びFC2についての顔領域である。また、時刻t2において、顔FC1が優先顔に設定されたものとする。この結果、顔番号1の優先顔フラグのみに“1”が代入される。
以後、時刻t3〜時刻tn-1の各フレーム画像から顔FC1及びFC2が検出されたとする。この場合、時刻t3〜時刻tn-1の各フレーム画像に対して、ステップS1、S2、S4、S6及びS7の処理が実行される。時刻t3〜時刻tn-1の各フレーム画像から優先顔としての顔FC1が検出されているため、時刻t3〜時刻tn-1の各フレーム画像に対して、ステップS8〜S10から成る優先顔の再設定処理は実行されない。図12(c)の顔領域321及び322は、夫々、時刻tn-1のフレーム画像320から抽出された顔FC1及びFC2についての顔領域である。
実空間上における被写体の移動により、時刻tn-1において顔FC1の一部が顔FC2の後ろに隠れている。時刻tnにおいて、顔FC1の遮蔽量が大きくなり、顔FC1の検出ができなくなったとする。即ち、時刻tnのフレーム画像330に対する顔検出処理によって、フレーム画像330から顔FC2だけが検出され、優先顔としての顔FC1が検出されなかったとする。そうすると、ステップS6及びS7を介してステップS8に至り、優先顔の再設定処理が実行される。図12(d)の顔領域332は、時刻tnのフレーム画像330から抽出された顔FC2についての顔領域である。
上述したように、再設定処理では、優先顔が検出されていた直近のフレーム画像上における優先顔の情報、即ち、優先顔保持情報がテーブル53内に保持される。事例αの再設定処理の開始時点から見て、優先顔が検出されていた直近のフレーム画像は、時刻tn-1のフレーム画像320である。従って、フレーム画像320上における優先顔の情報が、優先顔保持情報としてテーブル53内に保持される。図13(d)に示す、時刻tnにおけるテーブル53では、この保持の様子が省略され、顔番号1についての各情報が空白となっているが、顔番号1についての各情報を格納すべきメモリ領域に、優先顔保持情報を記憶しておいてもよい。
顔追尾部52は、優先顔を再度探索すべく、ステップS8において、優先顔の再探索範囲を設定する。図12(d)及び(e)に示される、符号335が付された円の内側が再探索範囲である。顔追尾部52は、優先顔保持情報に含まれる優先顔の位置情報に基づき、再探索範囲335を設定する。より具体的には、時刻tn-1のフレーム画像320上における顔領域321の中心を中心として有する、半径TH2の円の内側領域を再探索範囲335として設定する。ここで、TH2は、図4(c)に示される探索範囲213(及び223)の半径を規定する、上述のTH1よりも大きな値を有する。従って、再探索範囲335は、図4(c)に示される探索範囲213よりも大きい。
ステップS9において、顔追尾部52は、新たに検出された顔が再探索範囲335内に存在しているか否かを判定する。そして、その存在が確認された場合にのみ、優先顔の再設定を行う。より具体的には、再探索範囲335内に中心を有する顔領域であって且つ“new”の履歴フラグが代入された顔領域を、優先顔が再設定されるべきフレーム画像(事例αにおいて、時刻tn〜tn+5のフレーム画像)から探索し、そのような顔領域が探索された場合にのみ、探索された顔領域についての顔を優先顔として再設定する。
時刻tn+1〜tn+4の各フレーム画像は、時刻tnのフレーム画像330と同じ画像であり、時刻tn+1〜tn+4の各フレーム画像からは顔FC2のみが検出されたとする。時刻tn〜tn+4の各フレーム画像から抽出された、顔FC2の顔領域の中心は再探索範囲335内に位置している。しかし、顔FC2は、時刻tn-1〜tn+3の各フレーム画像においても検出されているが故に、顔FC2の顔領域に対応する履歴フラグは“psst”である。この結果、顔FC2は優先顔として設定されない。
その後、時刻tn+5のフレーム画像340から顔FC1及びFC2が検出されたとする。図12(e)の顔領域341及び342は、夫々、時刻tn+5のフレーム画像340から抽出された顔FC1及びFC2についての顔領域である。顔領域341についての顔は、過去のフレーム画像から連続して検出されている顔ではなく、最新のフレーム画像(即ち、フレーム画像340)において新たに検出された顔である。故に、顔領域341に対応する履歴フラグには“new”が代入される。更に、顔領域341の中心が再探索範囲335内に位置しているものとする。そうすると、顔追尾部52は、ステップS10において、顔領域341に対応する顔を優先顔として再設定する。図13(e)は、顔領域341に対して顔番号1が割り当てられた時の、時刻tn+5におけるテーブル53の内容を示している。優先顔の再設定の結果は、テーブル53に反映される。従って、図13(e)において、顔番号1に対応する優先顔フラグに“1”が代入される。
このように、顔検出処理、同定処理及び優先顔の再設定処理を含むループ処理が繰り返される過程において、過去に検出した顔と一致しない新規の顔が再探索範囲内に現れたとき、その新規の顔を優先顔として再設定する。これにより、優先顔となるべき注目顔(FC1)が一時的に検出不可能となっても、その後、正しく注目顔(FC1)を優先顔として再設定することが可能となる(優先顔の追尾を正しく再開することができる)。
また、時間的に隣接するフレーム画像間における顔の位置変化量と比べて、時刻tn-1及びtn+5間における顔の位置変化量は大きい可能性が高い。前者の位置変化量に対応する時間長さと比べて、後者の位置変化量に対応する時間長さが長いからである。これを考慮し、再探索範囲335の大きさを、同定処理における探索範囲(図4(c)に示される探索範囲213及び223)よりも大きくする。これにより、優先顔の再設定の確実性が増す。
上述の如くして設定された優先顔に注目したカメラ制御やアプリケーションを実行可能である。例えば、動画像の撮影時において、優先顔に常にピントが合うようにオートフォーカス制御を実行したり、優先顔の輝度レベルが適正レベルになるように露光制御を行ったりすることができる。このオートフォーカス制御は、例えば、優先顔の顔領域のコントラストに基づいてフォーカスレンズ31の位置を制御することにより実現され、この露光制御は、例えば、優先顔の顔領域の平均輝度レベルが適正レベルになるように絞り32の開度などを制御することにより実現される。この他、優先顔のホワイトバランスが所望のホワイトバランスとなるようにオートホワイトバランス制御を行うことも可能である。また、優先顔の注目してズームレンズ30の位置を制御したりすることも可能である。
上述してきた処理を基本とした応用処理例又は変形処理列を、第1応用例〜第4応用例として説明する。上述してきた内容(事例αを含む)は、矛盾なき限り、各応用例に適用される。矛盾なき限り、或る応用例に述べた事項を他の応用例に適用することもできる。
[第1応用例]
第1応用例を説明する。上述の事例αでは、実空間上で被写体が移動し、顔FC1が顔FC2の後ろに隠れることによって、優先顔としての顔FC1が一時的に検出不可能となっている。この後、事例αの如く、優先顔の再探索範囲内において顔FC1が新規の顔として再び検出されたならば、意図通りに優先顔が再設定される。しかしながら、図14に示す如く、顔FC1が顔FC2の後ろを横切って再探索範囲の外へ出るような経路をたどると、再探索範囲を拡大しない限り、意図通りに優先顔が再設定されない可能性も高まる。一方において、再探索範囲を拡大すると、顔FC1及びFC2と異なる顔FC3が優先顔として再設定される可能性も高まる。故に、単純に再探索範囲を拡大することは好ましくない。
これらの事情を考慮し、第1応用例では、優先顔としての顔FC1の、画像上の移動方向及び移動速度を計測し、その計測結果を利用して再探索範囲の形状及び大きさを決定する。
事例αにて想定した具体例を参照して、第1応用例をより具体的に説明する。第1応用例では、映像信号処理部13(又は図3の顔処理ブロック50)内に、動き検出部(不図示)が設けられる。動き検出部は、優先顔としての顔FC1が顔検出処理によって検出されている期間中、常に、顔FC1の移動方向及び移動速度を検出する。その検出した移動方向及び移動速度を表す情報をテーブル53内の付加情報に含めておくことができる。そして、優先顔としての顔FC1が顔検出処理によって検出されなくなった時、優先顔が検出されていた直近のフレーム画像上における移動方向及び移動速度に基づいて、再探索範囲を設定する。
例えば、事例αのように、時刻tn-1のフレーム画像から顔FC1及びFC2が検出される一方で時刻tnのフレーム画像から顔FC2のみが検出された場合を考える。この場合、顔追尾部52は、時刻tn-2及びtn-1のフレーム画像間における、顔FC1の移動方向及び移動速度を基準移動方向及び基準移動速度として取り扱い、基準移動方向及び基準移動速度に基づいて優先顔の再探索範囲を設定する。第1応用例において、時刻tnのフレーム画像を含む時刻tn以降のフレーム画像に対して設定される再探索範囲を符号335aにて表す。図15に、再探索範囲335aと共に、再探索範囲335aが設定されたフレーム画像を示す。図15において、矢印370は、基準移動方向を表している。今、この基準移動方向は、画像の右下に向かう方向と一致するものとする。
図12(d)に示される再探索範囲335の外形が真円であるのに対して、再探索範囲335aの外形は楕円になっている。つまり、再探索範囲335aは指向性のある形状を有している。この楕円の中心は、時刻tn-1のフレーム画像320上における顔領域321の中心と一致する。或いは、時刻tn-1のフレーム画像320上における顔領域321の中心よりも、右下側に位置する点を、この楕円の中心に設定してもよい。また、この楕円の長軸の方向は、基準移動方向と一致している。この楕円の長軸及び短軸の内、少なくとも長軸の長さは、図4(c)に示される探索範囲213の外形円の直径よりも長い。短軸の長さも、探索範囲213の外形円の直径よりも長くしてもよい。また、基準移動速度の増大に伴って、この楕円の長軸の長さを増大させてもよい。
また、再探索範囲の外形形状を楕円以外とすることも可能である。例えば、再探索範囲の外形形状を、長方形やひし形とすることも可能である。
時刻tn-2及びtn-1のフレーム画像間において、画像上の顔FC1が右下方向に移動していたならば、その後も、顔FC1が右下方向に移動する可能性が高い。そこで、上述のように基準移動方向に基づいて再探索範囲の形状を決定する。これにより、より的確に優先顔の再設定が行われるようになる。
上述の動き検出部は、例えば、時間的に隣接するフレーム画像の画像データに基づき、その隣接するフレーム画像間におけるオプティカルフローを求める。オプティカルフローの導出方法として、ブロックマッチング法、代表点マッチング法、勾配法などを利用可能である。求めたオプティカルフローは、その隣接するフレーム画像間における、物体の動きを表す動きベクトル(移動ベクトル)によって表現される。動きベクトルは、画像上の物体の移動方向及び移動速度を示す二次元量である。注目した顔に対して検出された動きベクトルによって、その注目した顔の移動方向及び移動速度が表現される。
[第2応用例]
第2応用例を説明する。上述の手法では、或る注目した顔領域が、再探索範囲335内に中心を有する顔領域であって且つ“new”の履歴フラグが代入された顔領域であることを基礎条件とし、その基礎条件を満たす顔領域についての顔を優先顔として再設定している。優先顔として再設定されるべき顔領域に対して、更に所定の付加条件を課してもよい。つまり、基礎条件及び付加条件を満たす顔領域を、優先顔が再設定されるべきフレーム画像から探索し、基礎条件及び付加条件を満たす顔領域が探索された場合にのみ、探索された顔領域についての顔を優先顔として再設定するようにしてもよい。
付加条件の充足/不充足は、当初の優先顔の特徴と、新たに優先顔として設定されるべき顔の特徴とが一致又は類似しているか否かに基づいて判断される。以下、具体例を説明する。事例αにて想定した内容が、第2応用例にも適用される。
付加条件の充足/不充足を判定するに当たり、画像上の顔(特に優先顔)の大きさ、傾き、向き、輝度レベル、色相を表す顔大きさ情報、顔傾き情報、顔向き情報、顔輝度情報、顔色情報を、テーブル53の付加情報内に格納しておく。更に、顔検出処理において用いられる基準顔画像と顔領域内の画像との類似度を表す類似度情報も、テーブル53の付加情報内に格納しておく。更に、顔検出処理において複数の基準顔画像が用いられる場合は、顔領域内の画像が、どの基準顔画像との間において最も高い類似度を有しているかを表す顔種類情報も、テーブル53の付加情報内に格納しておく。付加情報内に格納されるこれらの情報は、顔検出処理が行われる度に、最新の情報に更新される。優先顔の付加情報内に格納されるこれらの情報は、優先顔の特徴を表している。
優先顔の再設定処理が実行される際、優先顔が検出されていた直近のフレーム画像に対する付加情報を含んだ優先顔保持情報がテーブル53内に保持される。事例αの場合、時刻tn-1のフレーム画像上における優先顔FC1についての付加情報(顔大きさ情報、顔傾き情報、顔向き情報、顔輝度情報、顔色情報、類似度情報及び顔種類情報を含む)がテーブル53内に保持されることになる。
上記の基礎条件を満たす顔領域内の顔は、更に付加条件を満たす場合に優先顔として再設定される。従って、上記の基礎条件を満たす顔領域内の顔を、優先顔の候補と捉え、候補優先顔と呼ぶ。また、候補優先顔を含む顔領域が抽出されたフレーム画像を、便宜上、候補抽出元フレーム画像と呼ぶ。第2応用例では、候補優先顔が以下の1以上の付加条件を満たすときに限って、候補優先顔を優先顔として再設定する。
第1の付加条件は、優先顔保持情報にて規定される優先顔FC1の大きさと、候補抽出元フレーム画像上における候補優先顔の大きさとの差が、所定の大きさ閾値以下であるという条件である。
前者の大きさは、顔領域321の大きさであり、後者の大きさは、候補優先顔を含む顔領域の大きさである。
第2の付加条件は、優先顔保持情報にて規定される優先顔FC1の傾きと、候補抽出元フレーム画像上における候補優先顔の傾きとの差が、所定の傾き差以下であるという条件である。
顔検出部51は、顔検出処理の実行時において、入力画像(フレーム画像)内における顔の傾きをも検出することができるように形成されている。例えば、入力画像を回転させ、回転後の画像に対して上述した顔検出処理を行うことにより、傾いた顔を検出可能であると共に顔の傾き(傾き角度)を検出することができる。ここにおける顔の傾きとは、図16に示す如く、入力画像の垂直方向に対する顔の傾きを意味し、例えば、入力画像の垂直方向に平行な直線に対する顔の口中央と眉間を結ぶ直線の傾きである。
第3の付加条件は、優先顔保持情報にて規定される優先顔FC1の向きと、候補抽出元フレーム画像上における候補優先顔の向きが、一致或いは略一致しているという条件である。
顔検出部51は、顔検出処理の実行時において、入力画像(フレーム画像)における顔の向きも検出することができるように形成されている。即ち例えば、顔検出部51は、入力画像から検出された顔が、図17(a)に示すような正面顔(正面から見た顔)であるのか、或いは、図17(b)に示すような斜め顔(斜め方向から見た顔)であるのか、或るいは、図17(c)に示すような横顔(横から見た顔)であるのかを、複数段階に区別して検出可能である。顔の向きを検出する手法として様々な手法が提案されており、顔検出部51は何れの手法をも採用可能である。例えば、特開平10−307923号公報に記載の手法のように、入力画像の中から、目、鼻、口等の顔部品を順番に見つけていって画像中の顔の位置を検出し、顔部品の投影データに基づいて顔の向きを検出する。或いは例えば、特開2006−72770号公報に記載の手法を用いてもよい。
第4の付加条件は、優先顔保持情報にて規定される優先顔FC1の輝度レベルと、候補抽出元フレーム画像上における候補優先顔の輝度レベルとの差が、所定の輝度レベル差以下であるという条件である。
優先顔保持情報にて規定される優先顔FC1の輝度レベルは、時刻tn-1のフレーム画像320上における顔領域321の平均輝度を指す(図12(c)参照)。優先顔FC1の輝度レベルと対比されるべき候補優先顔の輝度レベルとは、候補抽出元フレーム画像上における候補優先顔の顔領域の平均輝度を指す。
第5の付加条件は、優先顔保持情報にて規定される優先顔FC1の色相と、候補抽出元フレーム画像上における候補優先顔の色相との差が、所定の色相差以下であるいう条件である。
優先顔保持情報にて規定される優先顔FC1の色相として、時刻tn-1のフレーム画像320上における顔領域321の平均的な色相を用いることができる(図12(c)参照)。優先顔FC1の色相と対比されるべき候補優先顔の色相として、候補抽出元フレーム画像上における候補優先顔の顔領域の平均的な色相を用いることができる。
第6の付加条件は、優先顔保持情報内の類似度情報に示されている、優先顔FC1の画像と基準顔画像との類似度と、候補優先顔の画像と基準顔画像との類似度との差が、所定の類似度差以下であるいう条件である。
前者の類似度は、時刻tn-1のフレーム画像320上における顔領域321内の画像と顔検出処理時に用いられる基準顔画像との類似度を指し、後者の類似度は、候補抽出元フレーム画像上における候補優先顔の顔領域内の画像と顔検出処理時に用いられる基準顔画像との類似度を指す。類似度は、対比画像間の類似の度合いを表し、対比画像が類似しているほど、大きな値を有する。
第7の付加条件は、優先顔保持情報内の顔種類情報の内容と、候補優先顔についての顔種類情報の内容が、一致しているという条件である。
第7の付加条件の充足/不充足について、具体例を挙げて説明する。上述したように、顔検出処理においては、入力画像(フレーム画像)内に設定された着目領域の画像と所定の画像サイズを有する基準顔画像とを対比して両画像の類似度を判定し、その類似度に基づいて着目領域に顔が含まれているか否か(着目領域が顔領域であるか否か)を検出する。この基準顔画像として、互いに異なる複数の基準顔画像を用いることができる。説明の具体化のため、複数の基準顔画像が、第1、第2及び第3の基準顔画像から成る場合を考える。この場合、着目領域の画像と第1〜第3の基準顔画像との類似度が、夫々、第1〜第3の類似度として求められる。
そして今、顔領域321に対して求められた第1〜第3の類似度の内、第1の類似度が最も大きかったとする。この内容は、優先顔保持情報内の顔種類情報に反映される。この場合において、候補抽出元フレーム画像上における候補優先顔の顔領域に対して求められた第1〜第3の類似度の内、第1の類似度が最も大きかったならば、第7の付加条件は満たされる一方で、第2又は第3の類似度が最も大きかったならば、第7の付加条件は満たされない。
このように、当初の優先顔の特徴と新たに優先顔として設定されるべき顔の特徴とが一致又は類似していることを付加条件として定めることにより、当初の優先顔の消失後、真に注目している顔を再び優先顔として再設定できる可能性が高まる。
[第3応用例]
第3応用例を説明する。図12(d)に示される再探索範囲335の大きさは、図4(c)に示される探索範囲213よりも大きくされるが、その再探索範囲335の大きさを、様々な指標に基づいて可変してもよい。
例えば、優先顔が検出されていた直近のフレーム画像上における優先顔の大きさに基づいて、再探索範囲335の大きさを可変設定してもよい。これを実現するために、上記の優先顔保持情報を利用してもよい。事例αについて考えた場合、優先顔が検出されていた直近のフレーム画像上における優先顔の大きさは、顔領域321の大きさに相当する。従って例えば、顔領域321の大きさが大きくなるにつれて、再探索範囲335の大きさを大きくすればよい。
また例えば、優先顔が検出されていた直近のフレーム画像上における優先顔の輝度レベル(即ち、顔領域321の平均輝度)を参照し、その輝度レベルが小さいほど再探索範囲335の大きさを大きくしてもよい。これと類似するが、優先顔が検出されていた直近のフレーム画像上における優先顔のコントラスト(即ち、顔領域321のコントラスト)を参照し、そのコントラストが小さいほど再探索範囲335の大きさを大きくしてもよい。通常、顔領域となるべき領域の輝度レベル及び/又はコントラストが小さいと、顔検出が難しくなって、画像上に顔が現れていたとしても顔検出に失敗することが多くなる。これを考慮して、輝度レベル及び/又はコントラストに応じて再探索範囲335の大きさを変化させる。顔領域321のコントラストは、顔領域321内の画像の空間周波数に含まれる、所定の高周波成分の量を求めることによって導出される。
また例えば、第1応用例で述べた基準移動速度を参照し、その基準移動速度が大きいほど再探索範囲335の大きさを大きくしてもよい。基準移動速度が大きいなら、より短時間の内に、優先顔となるべき顔(FC1)が再探索範囲外に出てしまう可能性が高まるからである。
[第4応用例]
第4応用例を説明する。上述の事例αでは、顔FC1が顔FC2の後ろに隠れることによって優先顔となるべき顔FC1が一時的に検出不可能となっているが、顔FC1が一時的に撮像装置1の撮影領域外(視野外)に出てしまうような事例(以下、事例βという)においても、本発明に係る優先顔の再設定方法は有効に機能する。事例βにおける撮像装置1の動作を、第4応用例として説明する。
図18(a)〜(e)の画像400、410、420、430及び440は、夫々、事例βに沿った、時刻t1、t2、tn-1、tn及びtn+5のフレーム画像を表している(事例βにおいては、n≧4)
事例αと同様、事例βにおいても、時刻t1及びt2のフレーム画像400及び410から2人の人物についての顔FC1及びFC2が検出され、時刻t2において、優先顔設定部54により顔FC1が優先顔に設定されたものとする。また、顔FC1及びFC2に対して、夫々、顔番号1及び2が割り当てられたことを想定する。従って、時刻t2において、顔番号1及び2の履歴フラグは共に“past”とされ、且つ、顔番号1の優先顔フラグのみに“1”が代入される。
そして、時刻t3〜時刻tn-1の各フレーム画像から顔FC1及びFC2が検出され、時刻t3〜時刻tn-1の各フレーム画像に対して、ステップS1、S2、S4、S6及びS7の処理が実行される。時刻t3〜時刻tn-1の各フレーム画像から優先顔としての顔FC1が検出されているため、時刻t3〜時刻tn-1の各フレーム画像に対して、ステップS8〜S10から成る優先顔の再設定処理は実行されない。矩形領域401、411及び421は、夫々、フレーム画像400、410及び420から抽出された顔FC1についての顔領域であり、矩形領域402、412及び422は、夫々、フレーム画像400、410及び420から抽出された顔FC2についての顔領域である。
実空間上における顔FC1の移動などに起因して、時刻tn-1において顔FC1が撮像装置1の撮影領域の外延近傍に位置し、時刻tnにおいて、顔検出処理によって顔FC1が検出できなくなる程度に顔FC1の一部又は全部が撮影領域外に出たとする。そうすると、時刻tnのフレーム画像430に対する顔検出処理によって、フレーム画像430から顔FC2だけが検出され、優先顔としての顔FC1が検出されない。この結果、ステップS6及びS7を介してステップS8に至り、優先顔の再設定処理が実行される。図18(d)の顔領域432は、時刻tnのフレーム画像430から抽出された顔FC2についての顔領域である。
優先顔の再設定処理は、上述してきたものと同様である。再設定処理では、優先顔が検出されていた直近のフレーム画像上における優先顔の情報、即ち、優先顔保持情報がテーブル53内に保持される。事例βの再設定処理の開始時点から見て、優先顔が検出されていた直近のフレーム画像は、時刻tn-1のフレーム画像420である。従って、フレーム画像420上における優先顔の情報が、優先顔保持情報としてテーブル53内に保持される。
顔追尾部52は、優先顔を再度探索すべく、ステップS8において、優先顔の再探索範囲を設定する。図18(d)及び(e)に示される、符号435が付された円の内側が再探索範囲である。再探索範囲の設定方法は、事例αにおけるそれと同様である。つまり、顔追尾部52は、優先顔保持情報に含まれる優先顔の位置情報に基づき、顔領域421の中心を中心として有する、半径TH2の円の内側領域を再探索範囲435として設定する。但し、事例αの場合と異なり、事例βでは、再探索範囲435の外周円の一部が撮影領域外に位置している。
その後、顔追尾部52は、再探索範囲435内に中心を有する顔領域であって且つ“new”の履歴フラグが代入された顔領域を、優先顔が再設定されるべきフレーム画像(事例βにおいて、時刻tn〜tn+5のフレーム画像)から探索し、そのような顔領域が探索された場合にのみ、探索された顔領域についての顔を優先顔として再設定する。
時刻tn+1〜tn+4の各フレーム画像は、時刻tnのフレーム画像430と同じ画像であり、時刻tn+1〜tn+4の各フレーム画像からは顔FC2のみが検出されたとする。時刻tn〜tn+4の各フレーム画像から抽出された、顔FC2の顔領域の中心は再探索範囲435内に位置していないが、仮に、それが再探索範囲435内に位置していたとしても、顔FC2が時刻tn-1〜tn+3の各フレーム画像においても検出されているが故に、顔FC2の顔領域に対応する履歴フラグは“psst”である。この結果、顔FC2は優先顔として再設定されない。
その後、実空間上における顔FC1の移動やパンニングなどによって、時刻tn+5のフレーム画像440から顔FC1及びFC2が検出されたとする。図18(e)の顔領域441及び442は、夫々、時刻tn+5のフレーム画像440から抽出された顔FC1及びFC2についての顔領域である。顔領域441についての顔は、過去のフレーム画像から連続して検出されている顔ではなく、最新のフレーム画像(即ち、フレーム画像440)において新たに検出された顔である。故に、顔領域441に対応する履歴フラグには“new”が代入される。更に、顔領域441の中心が再探索範囲435内に位置しているものとする。そうすると、顔追尾部52は、ステップS10において、顔領域441に対応する顔を優先顔として再設定する。
<<変形等>>
上述した説明文中に示した具体的な数値は、単なる例示であって、当然の如く、それらを様々な数値に変更することができる。上述の実施形態の変形例または注釈事項として、以下に、注釈1〜注釈3を記す。各注釈に記載した内容は、矛盾なき限り、任意に組み合わせることが可能である。
[注釈1]
上述の実施形態では、フレームを単位として考え、フレーム画像列に対して、顔検出処理を含む各種の処理を行っているが、フィールドを単位として考え、フィールド画像列に対して、それらの処理を行うようにしてもよい。
[注釈2]
図1の撮像装置1は、ハードウェア、或いは、ハードウェアとソフトウェアの組み合わせによって実現可能である。特に、図3に示される各部位が実行する演算処理は、ソフトウェア、またはハードウェアとソフトウェアの組み合わせによって実現可能である。ソフトウェアを用いて撮像装置1を構成する場合、ソフトウェアにて実現される部位についてのブロック図は、その部位の機能ブロック図を表すことになる。演算処理の全部または一部を、プログラムとして記述し、該プログラムをプログラム実行装置(例えばコンピュータ)上で実行することによって、その演算処理の全部または一部を実現するようにしてもよい。
[注釈3]
例えば、以下のように考えることができる。顔追尾部52は、上述の同定処理を行う同定手段と上述の再設定処理を行う再設定手段とを包含する。
本発明の実施形態に係る撮像装置の全体ブロック図である。 図1の撮像部の内部構成図である。 図1の撮像装置に内在する顔処理ブロックの内部ブロック図である。 図3の顔追尾部にて実行される同定処理の内容を説明するための図である。 図3の顔追尾部にて実行される同定処理の内容を説明するための図である。 図3の顔情報管理テーブルのデータ構造を示す図である。 顔領域の座標値を示す図である。 図3の優先顔設定部による優先顔の設定方法を説明するための図である。 図3の優先顔設定部による、他の優先顔の設定方法を説明するための図である。 図3の優先顔設定部による、更に他の優先顔の設定方法を説明するための図である。 優先顔の追尾に注目した、図1の撮像装置の動作フローチャートである。 本発明の実施形態に係り、2つの顔の位置の時間変化と優先顔の設定の様子を示した図である。 図12に対応する、各時刻における顔情報管理テーブルのデータ内容を示す図である。 注目している顔が再探索範囲外に出てしまう様子を示した図である。 本発明の実施形態の第1応用例に係る、優先顔の再探索範囲を示す図である。 顔の傾きの意義を示す図である。 正面顔、斜め顔及び横顔の意義を示す図である。 本発明の実施形態に係り、2つの顔の位置の時間変化と優先顔の設定の様子を示した図である。 従来技術に係り、同定処理の内容を説明するための図である。 従来の同定処理の実行時に観測される、優先顔の遷移の様子を示す図である。 従来の同定処理の実行時に観測される、優先顔の遷移の、他の様子を示す図である。
符号の説明
1 撮像装置
50 顔処理ブロック
51 顔検出部
52 顔追尾部
53 顔情報管理テーブル
54 優先顔設定部

Claims (6)

  1. 繰り返し撮影によって時系列方向に複数の入力画像が並んで形成される入力画像列を取得する撮像手段と、
    前記入力画像列の画像データに基づき、各入力画像から人物の顔を検出して、画像上の検出顔の位置を表す位置情報を出力する顔検出手段と、
    前記顔検出手段によって検出される1以上の顔の中から優先顔を設定する優先顔設定手段と、
    前記顔検出手段によって検出される顔の位置情報に基づき、各入力画像内において前記優先顔を探索して前記優先顔を他の顔と区別して検出する同定手段と、
    前記優先顔の設定後に得られる第1入力画像から前記同定手段によって前記優先顔が検出される一方で、前記第1入力画像よりも後に得られる第2入力画像から前記同定手段によって前記優先顔を検出できなかったとき、前記第1入力画像上の前記優先顔の位置情報を含む保持情報を保持し、前記保持情報を用いて前記優先顔の再設定処理を実行する再設定手段と、を備えた撮像装置であって、
    前記再設定手段は、前記再設定処理において、前記保持情報と前記第2入力画像よりも後に得られる第3入力画像上の顔の位置情報とに基づき、前記同定手段による前記優先顔の探索条件と異なる探索条件にて、新たに優先顔として再設定されるべき再設定顔を前記第3入力画像内で探索する
    ことを特徴とする撮像装置。
  2. 前記同定手段によって前記優先顔が検出された時間的に連続する2枚の入力画像が第4及び第5入力画像から成り、前記第4入力画像の取得後に前記第5入力画像が取得されるとした場合、
    前記同定手段は、前記第4入力画像上における前記優先顔の位置を基準とする第1探索範囲を前記第5入力画像に対して設定し、前記第1探索範囲内で前記第5入力画像上の前記優先顔の探索を行う一方、
    前記再設定手段は、前記第1入力画像上における前記優先顔の位置を基準とする第2探索範囲を前記第3入力画像に対して設定し、前記第2探索範囲内で前記第3入力画像上の前記再設定顔の探索を行い、
    前記第2探索範囲の大きさは前記第1探索範囲の大きさよりも大きい
    ことを特徴とする請求項1に記載の撮像装置。
  3. 前記再設定手段は、前記第1入力画像から検出された前記優先顔以外の顔が、前記再設定顔として探索されることを禁止する
    ことを特徴とする請求項2に記載の撮像装置。
  4. 前記同定手段は、注目入力画像を含む時間的に連続する入力画像についての前記位置情報に基づき、前記顔検出手段によって検出される顔の同定を顔ごとに行い、
    この同定によって、前記注目入力画像から検出された顔が前記注目入力画像において新たに検出された顔であるのか或いは前記注目入力画像よりも前の入力画像においても検出されていた顔であるのかが判定され、
    前記再設定手段は、前記顔検出手段によって前記第3入力画像の前記第2探索範囲内から検出される顔の内、前記第2入力画像から検出されなかった顔であって且つ前記前記第3入力画像において新たに検出された顔が前記再設定顔として探索されるように、前記判定の結果に基づいて前記再設定処理を行う
    ことを特徴とする請求項3に記載の撮像装置。
  5. 異なる入力画像間における優先顔の動きを検出する動き検出手段を更に備え、
    前記再設定手段は、前記同定手段によって前記優先顔が検出されていた期間中における前記優先顔の動きに応じて、前記第2探索範囲の形状を可変させる
    ことを特徴とする請求項2〜請求項4の何れかに記載の撮像装置。
  6. 前記第1入力画像上の前記優先顔の特徴を表す付加情報が前記保持情報に含められ、
    前記再設定手段は、前記優先顔の位置情報だけでなく前記付加情報にも基づいて前記再設定処理を実行する
    ことを特徴とする請求項1〜請求項5の何れかに記載の撮像装置。
JP2008182824A 2008-07-14 2008-07-14 撮像装置 Pending JP2010021943A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2008182824A JP2010021943A (ja) 2008-07-14 2008-07-14 撮像装置
US12/500,788 US8063947B2 (en) 2008-07-14 2009-07-10 Image shooting device
CN200910152107A CN101631198A (zh) 2008-07-14 2009-07-14 摄像装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008182824A JP2010021943A (ja) 2008-07-14 2008-07-14 撮像装置

Publications (1)

Publication Number Publication Date
JP2010021943A true JP2010021943A (ja) 2010-01-28

Family

ID=41504809

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008182824A Pending JP2010021943A (ja) 2008-07-14 2008-07-14 撮像装置

Country Status (3)

Country Link
US (1) US8063947B2 (ja)
JP (1) JP2010021943A (ja)
CN (1) CN101631198A (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011160062A (ja) * 2010-01-29 2011-08-18 Fujifilm Corp 追尾枠の初期位置設定装置およびその動作制御方法
JP2012230647A (ja) * 2011-04-27 2012-11-22 Canon Inc オブジェクト識別装置、オブジェクト識別方法及びプログラム
CN102891960A (zh) * 2011-07-19 2013-01-23 安讯士有限公司 用于确定图像调整参数的方法和相机
JP2013162225A (ja) * 2012-02-02 2013-08-19 Olympus Imaging Corp 追尾装置及び撮像装置、撮像装置に用いる追尾方法
JPWO2014013686A1 (ja) * 2012-07-19 2016-06-30 日本電気株式会社 照合装置及び照合装置の制御方法、並びにコンピュータ・プログラム
JP2018005881A (ja) * 2016-07-08 2018-01-11 深セン市優必選科技有限公司 顔検出追跡方法、ロボットヘッドの回動制御方法、及びロボット
JP2018134549A (ja) * 2018-06-11 2018-08-30 株式会社ユニバーサルエンターテインメント 遊技機
JP2018533805A (ja) * 2015-11-12 2018-11-15 アリババ グループ ホウルディング リミテッド 顔位置追跡方法、装置及び電子デバイス
JP2019022834A (ja) * 2018-11-22 2019-02-14 株式会社ユニバーサルエンターテインメント 遊技機
JP2019088962A (ja) * 2019-03-22 2019-06-13 株式会社ユニバーサルエンターテインメント 遊技機
JP2019088965A (ja) * 2019-03-22 2019-06-13 株式会社ユニバーサルエンターテインメント 遊技機

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5401420B2 (ja) * 2009-09-09 2014-01-29 パナソニック株式会社 撮像装置
JP5394296B2 (ja) * 2010-03-25 2014-01-22 富士フイルム株式会社 撮像装置及び画像処理方法
JP5577793B2 (ja) 2010-03-30 2014-08-27 ソニー株式会社 画像処理装置および方法、並びにプログラム
EP2555525B1 (en) * 2010-03-30 2017-10-25 FUJIFILM Corporation Compound-eye imaging device, and disparity adjustment method and program therefor
US9389774B2 (en) * 2010-12-01 2016-07-12 Sony Corporation Display processing apparatus for performing image magnification based on face detection
US9104909B2 (en) * 2010-12-15 2015-08-11 Canon Kabushiki Kaisha Image processing apparatus and method of processing image
JP5246275B2 (ja) * 2011-01-25 2013-07-24 株式会社ニコン 撮像装置およびプログラム
WO2012164896A1 (ja) * 2011-05-31 2012-12-06 パナソニック株式会社 画像処理装置及び画像処理方法並びにデジタルカメラ
KR101381439B1 (ko) * 2011-09-15 2014-04-04 가부시끼가이샤 도시바 얼굴 인식 장치 및 얼굴 인식 방법
EP2838253A4 (en) * 2012-04-09 2015-10-07 Sony Corp DISPLAY CONTROL DEVICE, DISPLAY CONTROL METHOD, AND PROGRAM
EP2924659A4 (en) 2012-11-22 2016-07-13 Sony Corp INFORMATION PROCESSING DEVICE, SYSTEM, INFORMATION PROCESSING AND PROGRAM
WO2014091667A1 (ja) * 2012-12-10 2014-06-19 日本電気株式会社 解析制御システム
WO2014122879A1 (ja) * 2013-02-05 2014-08-14 日本電気株式会社 解析処理システム
JP6098318B2 (ja) * 2013-04-15 2017-03-22 オムロン株式会社 画像処理装置、画像処理方法、画像処理プログラムおよび記録媒体
US9405978B2 (en) 2013-06-10 2016-08-02 Globalfoundries Inc. Prioritization of facial recognition matches based on likely route
US9729865B1 (en) 2014-06-18 2017-08-08 Amazon Technologies, Inc. Object detection and tracking
US10027883B1 (en) * 2014-06-18 2018-07-17 Amazon Technologies, Inc. Primary user selection for head tracking
BR102015005929B1 (pt) * 2015-03-17 2021-11-30 Samsung Eletrônica Da Amazônia Ltda Sistema e método para composição e compressão de vídeo com base em contexto a partir de objetos com resolução espacial normalizada
JP2017033358A (ja) 2015-08-03 2017-02-09 富士ゼロックス株式会社 認証装置
JP6921522B2 (ja) * 2016-12-15 2021-08-18 キヤノン株式会社 画像処理装置及びその制御方法並びにプログラム
JP6817590B1 (ja) * 2020-07-27 2021-01-20 パナソニックIpマネジメント株式会社 撮像装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH089227A (ja) * 1994-06-17 1996-01-12 Hitachi Ltd 自動追尾機能を有する撮像装置
JP2008113423A (ja) * 2006-10-03 2008-05-15 Nikon Corp 追尾装置、撮像装置、および追尾方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003107335A (ja) 2001-09-28 2003-04-09 Ricoh Co Ltd 撮像装置、自動合焦方法、およびその方法をコンピュータが実行するためのプログラム
JP4107104B2 (ja) 2003-02-25 2008-06-25 日産自動車株式会社 顔部位追跡装置
CN100435555C (zh) * 2005-11-17 2008-11-19 中国科学院半导体研究所 高速目标跟踪方法及其电路***
EP1962497B1 (en) * 2005-11-25 2013-01-16 Nikon Corporation Electronic camera and image processing device
JP4264660B2 (ja) * 2006-06-09 2009-05-20 ソニー株式会社 撮像装置、および撮像装置制御方法、並びにコンピュータ・プログラム
EP1909229B1 (en) * 2006-10-03 2014-02-19 Nikon Corporation Tracking device and image-capturing apparatus
JP5053731B2 (ja) * 2007-07-03 2012-10-17 キヤノン株式会社 画像表示制御装置及び画像表示制御方法及びプログラム及び記録媒体
US7879590B2 (en) * 2008-03-13 2011-02-01 Regents Of The University Of California Method to engineer MAPK signaling responses using synthetic scaffold interactions and scaffold-mediated feedback loops
JP4914398B2 (ja) * 2008-04-09 2012-04-11 キヤノン株式会社 表情認識装置、撮像装置、方法及びプログラム
US20100259639A1 (en) * 2009-04-13 2010-10-14 Qualcomm Incorporated Automatic backlight detection

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH089227A (ja) * 1994-06-17 1996-01-12 Hitachi Ltd 自動追尾機能を有する撮像装置
JP2008113423A (ja) * 2006-10-03 2008-05-15 Nikon Corp 追尾装置、撮像装置、および追尾方法

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011160062A (ja) * 2010-01-29 2011-08-18 Fujifilm Corp 追尾枠の初期位置設定装置およびその動作制御方法
JP2012230647A (ja) * 2011-04-27 2012-11-22 Canon Inc オブジェクト識別装置、オブジェクト識別方法及びプログラム
KR101826897B1 (ko) * 2011-07-19 2018-02-08 엑시스 에이비 화상 조정 파라미터를 결정하기 위한 방법 및 카메라
CN102891960A (zh) * 2011-07-19 2013-01-23 安讯士有限公司 用于确定图像调整参数的方法和相机
KR20130010875A (ko) * 2011-07-19 2013-01-29 엑시스 에이비 화상 조정 파라미터를 결정하기 위한 방법 및 카메라
KR101663752B1 (ko) * 2011-07-19 2016-10-07 엑시스 에이비 화상 조정 파라미터를 결정하기 위한 방법 및 카메라
US9635237B2 (en) 2011-07-19 2017-04-25 Axis Ab Method and camera for determining an image adjustment parameter
CN102891960B (zh) * 2011-07-19 2017-05-17 安讯士有限公司 用于确定图像调整参数的方法和相机
US10070053B2 (en) 2011-07-19 2018-09-04 Axis Ab Method and camera for determining an image adjustment parameter
JP2013162225A (ja) * 2012-02-02 2013-08-19 Olympus Imaging Corp 追尾装置及び撮像装置、撮像装置に用いる追尾方法
JPWO2014013686A1 (ja) * 2012-07-19 2016-06-30 日本電気株式会社 照合装置及び照合装置の制御方法、並びにコンピュータ・プログラム
US10068073B2 (en) 2012-07-19 2018-09-04 Nec Corporation Verification device and control method for verifiction device, as well as computer program
JP2018533805A (ja) * 2015-11-12 2018-11-15 アリババ グループ ホウルディング リミテッド 顔位置追跡方法、装置及び電子デバイス
US11003893B2 (en) 2015-11-12 2021-05-11 Advanced New Technologies Co., Ltd. Face location tracking method, apparatus, and electronic device
US11423695B2 (en) 2015-11-12 2022-08-23 Advanced New Technologies Co., Ltd. Face location tracking method, apparatus, and electronic device
JP2018005881A (ja) * 2016-07-08 2018-01-11 深セン市優必選科技有限公司 顔検出追跡方法、ロボットヘッドの回動制御方法、及びロボット
US10275639B2 (en) 2016-07-08 2019-04-30 UBTECH Robotics Corp. Face detecting and tracking method, method for controlling rotation of robot head and robot
JP2018134549A (ja) * 2018-06-11 2018-08-30 株式会社ユニバーサルエンターテインメント 遊技機
JP2019022834A (ja) * 2018-11-22 2019-02-14 株式会社ユニバーサルエンターテインメント 遊技機
JP2019088962A (ja) * 2019-03-22 2019-06-13 株式会社ユニバーサルエンターテインメント 遊技機
JP2019088965A (ja) * 2019-03-22 2019-06-13 株式会社ユニバーサルエンターテインメント 遊技機

Also Published As

Publication number Publication date
US20100007763A1 (en) 2010-01-14
CN101631198A (zh) 2010-01-20
US8063947B2 (en) 2011-11-22

Similar Documents

Publication Publication Date Title
JP2010021943A (ja) 撮像装置
EP2962455B1 (en) Image processing apparatus, image processing method, and program
JP2008129554A (ja) 撮像装置及びオートフォーカス制御方法
US20140146182A1 (en) Device and method for detecting moving objects
TWI539226B (zh) 物件追蹤影像處理方法及其系統
JP2011066873A (ja) 撮像装置及び画像処理装置
JP4701791B2 (ja) 画像処理装置、及びプログラム
JP2008206018A (ja) 撮像装置およびプログラム
US20120133798A1 (en) Electronic camera and object scene image reproducing apparatus
JP2008139683A (ja) 撮像装置及びオートフォーカス制御方法
JP2009124340A (ja) 撮像装置、撮影支援方法、及び撮影支援プログラム
JP6230386B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
KR20120080376A (ko) 디지털 영상 촬영 장치 및 이의 제어 방법
JP6762777B2 (ja) 撮像装置およびその制御方法ならびにプログラム
US20130051633A1 (en) Image processing apparatus
JP2008005438A (ja) 撮像装置及び撮像方法
JP4716266B2 (ja) 画像処理装置、撮像装置及びそのプログラム
JP2010237911A (ja) 電子機器
JP2008028758A (ja) 撮像装置、その制御方法およびコンピュータプログラム
JP2008109553A (ja) 画像再生装置及び方法並びに撮像装置
JP2009055093A (ja) 撮像装置
JP2014067142A (ja) 画像処理装置、画像処理方法、撮像装置、および撮像方法
JP2010028720A (ja) 撮像装置
US11627245B2 (en) Focus adjustment device and focus adjustment method
JP2014153650A (ja) 撮像装置、制御方法、及び、プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110628

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120612

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120801

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130122

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20130404