JP4747003B2 - 自動合焦制御装置およびその制御方法 - Google Patents

自動合焦制御装置およびその制御方法 Download PDF

Info

Publication number
JP4747003B2
JP4747003B2 JP2006046123A JP2006046123A JP4747003B2 JP 4747003 B2 JP4747003 B2 JP 4747003B2 JP 2006046123 A JP2006046123 A JP 2006046123A JP 2006046123 A JP2006046123 A JP 2006046123A JP 4747003 B2 JP4747003 B2 JP 4747003B2
Authority
JP
Japan
Prior art keywords
face
area
image
subject
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006046123A
Other languages
English (en)
Other versions
JP2007034261A5 (ja
JP2007034261A (ja
Inventor
雅彦 杉本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2006046123A priority Critical patent/JP4747003B2/ja
Priority to US11/471,621 priority patent/US7702231B2/en
Publication of JP2007034261A publication Critical patent/JP2007034261A/ja
Publication of JP2007034261A5 publication Critical patent/JP2007034261A5/ja
Application granted granted Critical
Publication of JP4747003B2 publication Critical patent/JP4747003B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Geometry (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)

Description

この発明は,自動合焦制御装置およびその制御方法に関する。
被写体像の中に含まれている肌色の領域を検出して,その検出された肌色の領域を合焦エリアとするものがある(特許文献1)。
特開平11−146405号公報
しかしながら,肌色の領域を検出する場合であってもその肌色を検出すべき被写体像自体のピントが極端にぼけているときには肌色の領域を正確に検出することは難しい。このために肌色の領域を合焦エリアとしても正確に合焦させることができないことがある。また,色情報を使わずに明暗(濃淡)情報のみから対象物を検出する場合も同様で極端にピントがぼけているときには,正確に対象物を検出することは難しい。ピントがぼけている場合に限らず正確に対象物を検出することは難しいため,対象物の部分に正確に合焦させることも難しい。
この発明は,対象物の部分に比較的正確に合焦させることができるようにすることを目的とする。
第1の発明による自動合焦制御装置は,被写体を撮像し,受光面前方に設けられ光軸方向に移動自在な撮像レンズによって結像する被写体像を表す画像データを出力する固体電子撮像装置,撮像指令に応じて被写体を撮像し,被写体像を表す撮像画像データを出力するように上記固体電子撮像装置を制御する第1の制御手段,上記第1の制御手段による制御のもとに本撮影前に上記固体電子撮像装置から出力される撮像画像データによって表される被写体像の中にある対象物の全体または一部を含む領域を検出する対象物領域検出手段,および上記対象物領域検出手段によって検出された対象物領域内に対応するデータにもとづいて合焦位置に移動するように上記撮像レンズの位置を制御する位置制御手段を備えていることを特徴とする。
第1の発明は,上記自動合焦制御装置に適した方法も提供している。すなわち,この方法は,撮像指令(撮像モードの設定)に応じて,固体電子撮像装置を用いて被写体を撮像し,上記固体電子撮像装置の受光面前方に設けられ光軸方向に移動自在な撮像レンズによって結像する被写体像を表す画像データを得,上記固体電子撮像装置から得られた撮像画像データによって表される被写体像の中に含まれている対象物の領域を検出し,検出された対象物領域に対応するデータにもとづいて合焦位置に移動するように上記撮像レンズの位置を制御するものである。
第1の発明によると,撮像指令に応じて被写体が撮像され,被写体像を表す撮像画像データが得られる。撮像画像データによって表される被写体像に含まれる対象物領域が検出される。検出された領域に対応するデータにもとづいて合焦位置に移動するように撮像レンズの位置が制御される。
第1の発明によると,本撮影(記録用の撮像)前に撮像が行われ,その撮像により得られる被写体像に含まれる対象物の画像のピントが合うように撮像レンズの位置が制御される。所望の対象物についてピントがあった被写体像が得られる。
上記位置制御手段によって制御された位置の上記撮像レンズを位置決めし,本撮影指令に応じて被写体像を本撮影することにより(シャッタ・レリーズ・ボタンのオンなどの記録指令に応じて)上記固体電子撮像装置から出力される画像データを記録媒体に記録する記録制御手段をさらに備えるようにしてもよい。
上記対象物領域検出手段によって検出された対象物の領域の全体または一部を含み,かつ同じまたは異なる大きさをもつAF対象領域を決定するAF対象領域決定手段,および上記AF対象領域決定手段によって決定された1または複数のAF対象領域に上記対象物の領域に近いほど係数が大きくなる重み付け係数を決定する重み付け係数決定手段をさらに備えてもよい。この場合,上記位置制御手段が,上記重み付け係数決定手段によって決定された重み付け係数に応じて,1または複数のAF対象領域のそれぞれの領域に対応するデータのレベルを調整して,調整されたデータにもとづいて合焦位置に移動するように上記撮像レンズの位置を制御するものとなろう。
上記重み付け係数決定手段は,たとえば,対象物らしさ,対象物の大きさ,対象物の明るさおよび対象物の位置の少なくとも一つにもとづいて決定されるものである。
撮像モードの設定手段,および上記撮像モードの設定手段によって撮像モードが設定されたことに応じて一定周期で被写体を撮像し,被写体像を表すスルー画像データを一定周期で出力するように上記固体電子撮像装置を制御する第3の制御手段をさらに備えてもよい。被写体像を記録媒体に記録する前に被写体を撮像することにより,被写体像を表すスルー画像が得られることがあるが,そのスルー画像を利用して撮像レンズの合焦位置を決定できる。
上記第3の制御手段による制御のもとに上記固体電子撮像装置から出力されたスルー画像データにもとづいて,上記位置制御手段による制御により上記撮像レンズが移動する合焦範囲を決定する合焦範囲決定手段をさらに備えてもよい。合焦範囲内で撮像レンズが移動するので,比較的迅速に撮像レンズの位置を制御できる。
上記位置制御手段は,上記第3の位置制御手段による制御のもとづいて上記固体電子撮像装置からスルー画像データが出力されるときの上記撮像レンズの位置にもとづいて定められる合焦範囲内において上記撮像レンズが移動するようにしてもよい。
上記位置制御手段は,所定の合焦範囲内で上記撮像レンズを移動させる。
また,上記撮像レンズの位置決めをするマニアル・フォーカス・ダイアルをさらに備えてもよい。この場合,上記合焦範囲は,上記マニアル・フォーカス・ダイアルにもとづいて決定されるものとなろう。
上記撮像レンズは,たとえば,ズーム・レンズでもよい。この場合,上記ズーム・レンズ位置に対応するフォーカス位置にもとづいて,上記合焦範囲が決定されてもよい。
上記対象物領域検出手段によって検出される対象物領域は,対象物らしさ,対象物の大きさ,対象物の明るさおよび対象物の位置の少なくとも一つにもとづいて検出されるものでもよい。
上記固体電子撮像装置から出力された画像データにより表される被写体像を表示する表示装置,および上記表示装置に表示された被写体像上において,上記対象物領域検出手段によって検出された対象物の領域を明示するように上記表示装置を制御する表示制御手段をさらに備えてもよい。
上記対象物の画像は,たとえば,顔または目の画像である。
上記対象物領域検出手段は,上記第1の制御手段のもとに上記固体電子撮像装置から出力された画像データから得られる輝度データにもとづいてAE制御を行うAE制御手段を備えてもよい。この場合,上記輝度データにもとづいて上記対象物の領域を検出するものとなろう。
上記対象物領域検出手段によって検出された対象物領域に対応するデータにもとづいて,上記固体電子撮像装置の露光量を算出する露光量算出手段,上記固体電子撮像装置の露光量が,上記露光量算出手段によって算出された露光量となるように露出を制御し,被写体を撮像して被写体像を表す撮像画像データを出力するように上記固体電子撮像装置を制御する第4の制御手段をさらに備えてもよい。この場合,上記位置制御手段は,上記第4の制御手段による制御のもとに上記固体電子撮像装置から出力された撮像画像データのうち,上記対象物領域検出手段によって検出された対象物領域に対応するデータにもとづいて合焦位置に移動するように上記撮像レンズの位置を制御するものとなろう。
上記対象物領域検出手段によって検出された対象物領域にもとづいてAF対象領域を決定するAF対象領域決定手段をさらに備えてもよい。この場合,上記露光量算出手段が,上記AF対象領域決定手段によって決定されたAF対象領域に対応するデータにもとづいて,上記固体電子撮像装置の露光量を算出するものとなろう。
上記AF対象領域決定手段は,たとえば,上記AF対象領域が上記対象物領域の内部となるように上記AF対象領域を決定するものである。
上記AF対象領域決定手段は,上記対象物領域検出手段によって複数の対象物領域が検出された場合に優先度の高い上記対象物領域にもとづいて上記AF対象領域を決定するものでもよい。
上記優先度の高い上記対象物領域とは,たとえば,最大の大きさをもつ対象物領域,最大の対象物らしさをもつ対象物領域,または被写体像の中心に最も近い対象物領域である。
上記AF対象領域決定手段は,上記対象物領域検出手段によって複数の対象物領域が検出された場合に複数の上記対象画像部分の明るさの重み付け平均にもとづいて上記AF対象領域を決定してもよい。
上記対象物の大きさ,対象物らしさ,および被写体像の中心からの位置の少なくとも一つを用いて上記重み付け平均を行うようにしてもよい。
上記本撮影の時の露光量または上記本撮影前に被写体を撮像するときの露光量との差が所定範囲内となるように上記露光量算出手段によって算出された露光量を補正する露光量補正手段をさらに備えることもできる。
上記対象物領域検出手段によって検出された対象物領域にもとづいてAF対象領域を決定するAF対象領域決定手段をさらに備えてもよい。この場合,上記位置制御手段は,上記AF対象領域決定手段によって決定されたAF対象領域に対応するデータにもとづいて合焦位置に移動するように上記撮像レンズの位置を制御するものとなろう。
上記AF対象領域決定手段は,たとえば,上記対象物の傾きおよび向きの少なくとも一方にもとづいて上記AF対象領域を決定する。
上記AF対象領域決定手段において決定される上記AF対象領域の取り得る範囲は,上記対象画像部分にもとづいてあらかじめ定められていてもよい。
フィルタ特性を変えることができ,かつ上記対象物領域検出手段によって検出された対象物領域に対応するデータの所望の周波数帯域成分を通過するディジタル・フィルタ手段,および上記対象物領域検出手段によって検出された対象物領域の大きさにもとづいて,上記フィルタ特性を変えるように上記ディジタル・フィルタ手段を制御するフィルタ制御手段をさらに備えてもよい。この場合,上記位置制御手段は,上記ディジタル・フィルタ手段を通過した上記対象物領域に対応するデータの所望の周波数帯域成分にもとづいて合焦位置に移動するように上記撮像レンズの位置を制御するものとなろう。なお,所望の周波数帯域成分を通過するディジタル・フィルタは,バンドパスフィルタ,ハイパスフィルタによって形成されるのが一般的である。
上記フィルタ制御手段は,上記対象物領域検出手段によって検出された対象物領域の大きさが大きいときよりも小さい方が通過する所望の周波数帯域がより高くなるフィルタ特性となるように上記ディジタル・フィルタ手段を制御するものでもよい。
上記対象物が顔の場合には,上記対象物領域検出手段によって検出された対象物領域にもとづいて,上記顔の胴体部分の領域を検出する胴体領域検出手段,および上記対象物領域検出手段によって検出された対象物領域と上記胴体領域検出手段によって検出された胴体部分の領域とにもとづいてAF対象領域を決定するAF対象領域決定手段をさらに備えることが好ましい。そして,上記位置制御手段は,上記AF対象領域決定手段によって決定されたAF対象領域に対応するデータにもとづいて合焦位置に移動するように上記撮像レンズの位置を制御するものとなろう。
また,上記対象物が顔の場合には,上記対象物領域検出手段によって検出された対象物領域にもとづいて,上記顔の胴体部分の領域を検出する胴体領域検出手段,および上記対象物領域検出手段によって検出された対象物領域に対応するデータの所望の周波数帯域成分と上記胴体領域検出手段によって検出された胴体領域に対応するデータの所望の周波数帯域成分とを通過するディジタル・フィルタ手段をさらに備えてもよい。この場合,上記位置制御手段は,上記対象物領域の所望の周波数帯域成分または上記対象物領域と上記胴体領域との両方の領域の所望の周波数帯域成分にもとづいて上記合焦位置制御を行うものとなろう。
上記対象物が顔の場合には,上記対象物領域検出手段によって検出された対象物領域にもとづいて,上記顔の胴体部分の領域を検出する胴体領域検出手段,上記対象物領域検出手段によって検出された対象物領域に対応するデータの所望の周波数帯域成分と上記胴体領域検出手段によって検出された胴体領域に対応するデータの所望の周波数帯域成分とをあらかじめ通過させるディジタル・フィルタ手段,および上記ディジタル・フィルタ手段によって通過した対象物領域の所望の周波数帯域成分にもとづいて上記撮像レンズの合焦位置制御ができるかどうかを判定する合焦位置制御判定手段をさらに備えてもよい。この場合,上記位置制御手段が,上記合焦位置制御判定手段によって合焦位置制御ができると判定されたことに応じて上記対象物領域の所望の周波数帯域成分にもとづいて合焦位置制御を行い,上記位置制御判定手段によって合焦位置制御ができないと判定されたことに応じて,あらかじめ通過されている上記胴体領域の所望の周波数帯域成分にもとづいて上記合焦位置制御を行うものが好ましい。
さらに,上記対象物が顔の場合には,上記対象物領域検出手段によって検出された対象物領域にもとづいて,上記顔の胴体部分の領域を検出する胴体領域検出手段,上記対象物領域検出手段によって検出された対象物領域に対応するデータの所望の周波数帯域成分と上記胴体領域検出手段によって検出された胴体領域に対応するデータの所望の周波数帯域成分とを通過させるディジタル・フィルタ手段,および上記被写体像または上記対象物領域検出手段によって検出された対象物領域の明るさが所定値以下かどうかを判定する明るさ判定手段をさらに備えてもよい。この場合,上記位置制御手段は,上記明るさ判定手段によって所定値以下と判定されたことに応じて,上記ディジタル・フィルタ手段を通過した対象物領域の所望の周波数帯域成分と胴体領域の所望の周波数帯域成分とにもとづいて上記合焦制御を行うものとなろう。
被写体を撮像したときの被写体像とこの被写体像に含まれる対象物との比率と,被写体を撮像したときのレンズの焦点距離と,被写体までの距離と,の関係をあらかじめ記憶する記憶手段,上記対象物領域検出手段によって検出された対象物領域と被写体像との第1の比率を算出する第1の比率算出手段,ならびに上記第1の比率算出手段によって算出された第1の比率および上記第1の比率算出手段によって上記第1の比率が算出されたときの上記レンズの焦点距離ならびに上記記憶手段に記憶されている上記比率,上記焦点距離および上記被写体までの距離にもとづいて被写体までの距離を算出する距離算出手段をさらに備える。
上記距離算出手段によって算出された被写体までの距離にもとづいて上記位置制御手段による上記撮像レンズの移動範囲を決定する移動範囲決定手段をさらに備えることもできる。
上記第1の比率算出手段は,上記対象物領域検出手段によって検出された対象物領域が複数あった場合に,最大の大きさの対象物領域と最小の大きさの対象物領域とを用いて,2つの上記第1の比率を算出するものでもよい。この場合,上記距離算出手段は,2つの上記第1の比率にもとづいて被写体までの2つの距離を算出するものとなり,上記移動範囲決定手段は,上記被写体までの2つの距離にもとづいて上記撮像レンズの移動範囲を決定するものとなろう。
上記位置制御手段は,上記距離算出手段によって算出された距離にもとづいて,合焦位置に移動するように上記撮像レンズの位置を制御するものでもよい。
上記第1の比率算出手段は,上記対象物領域検出手段によって検出された対象物領域が複数あった場合に,優先度の高い1または複数の上記対象物領域を用いて,上記1または複数の上記第1の比率を算出するものでもよい。この場合,上記距離算出手段は,上記1または複数の上記第1の比率にもとづいて被写体までの上記1または複数の距離を算出するものでもよいし,上記位置制御手段は,上記1または複数の距離にもとづいて合焦位置に移動するように上記撮像レンズの位置を制御するものでもよい。
上記優先度は,たとえば,対象物の大きさ,対象物らしさ,位置,明るさ,傾きおよび向きの少なくとも一つに依存する。
上記位置制御手段は,上記複数の距離の重み付け平均により得られる値にもとづいて上記撮像レンズの位置を制御するものでもよい。
上記位置制御手段における撮像レンズ位置制御に用いられる上記対象物領域に対応するデータを得るためのAF画像のサイズと上記対象物検出手段における検出処理に用いられる被写体像とのサイズとが異なる場合に上記対象物領域検出手段によって検出された対象物領域に相当する領域を上記AF画像上に規定する領域規定手段をさらに備えてもよい。この場合,上記位置制御手段は,上記領域規定手段によって規定された領域に対応するデータにもとづいて,合焦位置に移動するように上記撮像レンズの位置を制御するものとなろう。
上記位置制御手段は,上記対象物領域検出手段によって複数の対象領域が検出された場合に優先度の高い1または複数の上記対象物領域に対応するデータにもとづいて合焦位置に移動するように上記撮像レンズの位置を制御するものでもよい。
上記優先度は,たとえば,対象物の大きさ,対象物らしさ,位置,明るさ,傾きおよび向きの少なくとも一つに依存するものである。
上記対象物領域検出手段によって複数の対象領域が検出された場合に,いずれか1または複数の対象領域に対応するデータにもとづいて,上記固体電子撮像装置の露光量を制御する露出制御手段をさらに備えてもよい。この場合,上記位置制御手段は,上記露出制御手段における露出制御に用いられた対象領域に対応するデータにもとづいて合焦位置に移動するように上記撮像レンズを位置決めするものとなろう。
上記露光量算出手段は,上記対象物領域検出手段によって複数の対象領域が検出された場合に,いずれか1または複数の対象領域に対応するデータにもとづいて,上記固体電子撮像装置の露光量を算出するものでもよい。
上記位置制御手段は,上記対象物領域検出手段によって検出された対象物領域が複数あるときに,複数の対象物領域に対応するデータにもとづいて合焦位置に移動するように上記撮像レンズの位置を制御するものでもよい。
上記位置制御手段は,たとえば,複数の対象物領域に対応するデータにもとづいて決定される上記撮像レンズの位置のうち,もっともNEAR側の位置に位置決めするものである。
上記位置制御手段は,上撮像レンズをNEAR側からINF側に向かって所定距離ずつ移動し,移動位置ごとに被写体を撮像して得られる上記対象物領域に対応するデータの所望の周波数帯域成分のレベルを検出し,最初に極大値を与える位置に上記撮像レンズを位置決めするものでもよい。
上記位置制御手段は,複数の対象物領域に対応するデータにもとづいて決定される上記撮像レンズの位置のうち,もっともNEAR側の位置ともっともINF側の位置との中間の位置に位置決めするものでもよい。
図1は,この発明の実施例を示すもので,ディジタル・スチル・カメラの電気的構成を示すブロック図である。
この実施例によるディジタル・スチル・カメラは,被写体のうち顔の部分が適切に合焦するようにするものである。
ディジタル・スチル・カメラの全体の動作は,制御回路1によって統括される。この制御回路1には,CPU2,ディジタル・スチル・カメラの動作プログラム,所定のデータなどが記憶されているROM3およびデータを一時的に記憶するRAM4が含まれている。
ディジタル・スチル・カメラには,撮像モード,再生モードなどのモードを設定するモード設定スイッチ,シャッタ・レリーズ・ボタンなどのボタン,スイッチが含まれる操作装置5が設けられており,この操作装置5から出力される操作信号は,制御回路1に与えられる。
CCD12の前方には絞り10および撮像レンズ8が設けられている。撮像レンズ8は,その光軸方向に移動自在に支持されており(CCD12側をNEAR側,その反対側をINF側),レンズ駆動回路7によって被写体像(後述のように被写体像の中に顔が含まれている場合には,その顔)がCCD12の受光面上に合焦して結像するようにレンズ位置が制御される。絞り10は,絞り駆動回路9によって適正な露光量となるように絞り値が制御される。被写体が撮像されると,CCD12の受光面上に結像した被写体像を表す映像信号が撮像素子制御回路11の制御のもとに出力される。CCD12から出力した映像信号はアナログ信号処理回路13に入力する。レンズ駆動回路7,絞り駆動回路9および撮像素子制御回路11は,それぞれ制御回路1によって制御される。
映像信号は,アナログ信号処理回路13において白バランス調整などの所定のアナログ信号処理が行われる。アナログ信号処理回路13から出力した映像信号は,アナログ/ディジタル変換回路14においてディジタル画像データに変換されてディジタル信号処理回路15および制御回路1に入力する。
制御回路1において,入力したディジタル画像データから高周波数成分が抽出されることにより合焦データが得られる。得られた合焦データが,画像全体または画像の一部分の領域内において積算されることにより合焦評価値が得られる。得られた合焦評価値にもとづいて,CCD12の受光面上に被写体像が合焦するような位置に撮像レンズ8がレンズ駆動回路7によって制御される。
また,ディジタル画像データはディジタル信号処理回路15においてガンマ補正などの所定のディジタル信号処理が行われる。ディジタル信号処理回路15から出力された画像データは,メモリ16を介して表示装置17に与えられる。表示装置17の表示画面上に被写体像が表示される。ディジタル信号処理回路15から出力された画像データは顔抽出処理回路6にも入力する。顔抽出処理回路6において,ディジタル信号処理回路15から出力された画像データによって表される被写体像の中に含まれる顔が抽出される。抽出された顔の画像を表すデータおよび抽出された顔の領域を示す位置,大きさなどのデータは,制御回路1に与えられる。詳しくは,後述するように,被写体像の全体または顔を表すデータを用いて合焦制御が行われる。
シャッタ・レリーズ・ボタンが押されると,上述のようにしてディジタル信号処理回路15から出力した画像データは,メモリ16に与えられ,一時的に記憶される。画像データは,メモリ16から読み取られインターフェイス18を介してメモリ・カード19に与えられることにより記録される。
図2は,被写体とディジタル・スチル・カメラとの関係を示している。
被写体21および被写体22に向かってディジタル・スチル・カメラ20が配置されている。被写体21は人物であり,被写体22は自動車である。
この実施例においては,ディジタル・スチル・カメラ20の撮像レンズが撮像レンズの光軸に沿って移動する方向がZ軸方向に規定されている。Z軸が法線となる平面がXY平面に規定されている。
図3および図4は,ディジタル・スチル・カメラの記録処理手順を示すフローチャートである。
この記録処理においては,記録前に得られるスルー画像を用いて被写体像の中に含まれる顔の画像が検出される。検出された顔の画像部分が正確に合焦するように本サーチが行われる。また,ディジタル・スチル・カメラがコンティニュアスAF(オート・フォーカス)のものであった場合には,そのコンティニュアスAFの結果を利用して光軸方向における撮像レンズの移動範囲(合焦範囲)が決定され,決定された合焦範囲内で撮像レンズが移動させられて本サーチが行われる。
モード・スイッチにより撮像モードが設定されていると(ステップ31でYES),一定周期で被写体が撮像され,被写体像を表すスルー画像データが一定周期でCCD12から出力される(ステップ32)。すると,XY平面処理とZ方向処理とが並行して行われる。もっとも,並行して行われずに順番に行われるようにしてもよい。
XY平面処理においては,スルー画像データを利用して被写体像の中に含まれる顔の画像を検出する顔検出処理が行われる(ステップ33)。検出された顔画像領域から本サーチにおいて合焦すべき対象となるAF領域が決定される(ステップ34)。
図5(A)および図6(A)は,スルー画像データによって表される被写体像50および60の一例である。また,図5(B)および図6(B)は,決定されたAF領域54,65および66の一例である。
図5(A)を参照して,被写体像50には,人物像51と自動車の像52とが含まれている。このような被写体像50が得られ,顔検出処理が行われると,顔画像領域51が検出される。検出された顔画像領域51から図5(B)に示すようにAF領域54が決定される。
同様に,図6(A)を参照して,被写体像60には,第1の人物像61と第2の人物像62とが含まれている。このような被写体像60において顔検出処理が行われると,二つの顔画像領域61と64とが得られる。検出された二つの顔画像領域61と64とから図6(B)に示すような二つのAF領域65および66が決定される。
AF領域の大きさは,検出された顔領域の大きさと同じでもよいし,顔領域の大きさよりも大きい,あるいは小さくてもよい。また,検出された顔領域がある程度小さいまたは大きい場合にはAF領域として決定するのに用いられないようにしてもよい。
図3に戻って,Z方向処理においては,ディジタル・スチル・カメラがコンティニュアスAFのものかどうかが確認される(ステップ35)。コンティニュアスAFのものである場合には(ステップ35でYES),コンティニュアスAFの結果を用いて本サーチで撮像レンズ8の移動範囲とされる合焦範囲が決定される(ステップ36)。コンティニュアスAFのものでなければ(ステップ35でNO),ステップ36の処理はスキップされる。
図7は,コンティニュアスAFの結果(上側)と本サーチの様子(下側)を示している。
図7の上側を参照して,スルー画像データを用いてコンティニュアスAFが行われると,スルー画像が合焦するときの撮像レンズ8の位置Z2が得られる。この撮像レンズ8の位置Z12のNEAR側の距離aおよびINF側に距離bが合焦範囲として決定される。もっとも,コンティニュアスAFは,合焦する撮像レンズ8の位置Z1は被写体の変化に応じて移動するからその移動も考慮して合焦範囲が決定されることとなろう。
撮像レンズ8の位置のNEAR側に距離aの位置は位置Z11であり,INF側に距離bの位置は位置Z13であるから,本サーチにおいて撮像レンズ8が移動する範囲を示す合焦範囲はZ11からZ13となる。
図4を参照して,上述のようにして決定されたAF領域について,決定された合焦範囲内で本サーチが行われ(ステップ38),被写体像の中に含まれている顔の画像が合焦する撮像レンズ8の位置(合焦位置)が決定する(ステップ39)。
図7の下側を参照して,合焦範囲は,上述したように撮像レンズ8の位置がZ11からZ13で規定する範囲となる。この合焦範囲Z11〜Z13の間において,撮像レンズ8が所定距離ずつ移動させられて,それぞれの移動位置ごとに被写体像が撮像される。撮像された被写体像の中のAF領域に対応するデータから合焦データが抽出される。抽出された合焦データの積算値がAF領域合焦評価値として得られる。撮像レンズ8が合焦範囲Z11〜Z13内を移動させられながらAF領域合焦評価値が得られることにより,そのAF領域合焦評価値のグラフG1が得られる。これが上述した本サーチである。本サーチにより得られたグラフG1のうち,AF領域合焦評価値が最大となる撮像レンズ8の位置Z1fが合焦位置Z1fとして決定される。
図4に戻って,合焦位置が決定すると(ステップ39),決定された合焦位置に位置決めされるように撮像レンズ8が移動させられる(ステップ40)。撮像レンズ8が移動させられた位置は,被写体像の中の顔の画像がもっとも合焦するような位置である。
シャッタ・レリーズ・ボタンが押されると(ステップ41でYES),本撮影が行われる。本撮影によって得られた画像データがメモリ・カード19に記録される。
図8および図9は,他の実施例を示すもので,ディジタル・スチル・カメラの記録処理手順を示すフローチャートである。
この処理手順においては,スルー画像データを利用して顔検出処理が行われ,顔検出対象領域が決定される。決定された顔検出対象領域に対応するデータを用いてAF用のプリ・サーチが行われ,その後,本サーチが行われるものである。また,二段ストローク・タイプのシャッタ・レリーズ・ボタンが利用される。
上述したように,撮像モードが設定されると(ステップ31でYES),被写体が撮像されスルー画像データが得られる(ステップ32)。スルー画像データから顔検出処理が行われ(ステップ33),検出された顔の領域から顔検出対象領域が決定する(ステップ71)。
図10(A)は被写体像を示し,図10(B)は顔検出対象領域を示している。
(A)を参照して,スルー画像データによって表される被写体像50が得られる。この被写体像50には,人物像51および自動車の像52が含まれており,顔の画像53が検出される。
(B)を参照して,顔53に相当する領域(AF領域)54を含み,かつ領域54の囲む領域55が顔検出対象領域(AF領域)55として決定される。
図8に戻って,シャッタ・レリーズ・ボタンの第一段階の押し下げがあると(ステップ72でYES),AF用のプリ・サーチが行われる(ステップ73)。
図11は,AF用のプリ・サーチの処理手順を示すフローチャートである。
撮像レンズ8は,Z方向に所定の範囲内で移動自在であり,初期位置に位置決めされている。撮像レンズ8が初期位置にある状態で被写体が撮像され,被写体像全体Iを表す画像データが得られる。得られた画像データから高周波数成分が抽出されて積算されることにより,プリ合焦評価値が得られる(ステップ91)。
得られたプリ合焦評価値が所定のしきい値以上であれば(ステップ92でYES),そのプリ合焦評価値が得られたときの撮像レンズ8の位置において得られた被写体像は比較的ピントが合っているものと考えられる。そのために,撮像レンズ8のその位置が顔検出実行位置として記憶させられる(ステップ93)。顔検出実行位置において後述のように,決定された顔検出対象領域の中から顔を検出する処理が行われる。顔が検出されると,その検出された顔から高周波数成分が抽出されて評価値が得られる。得られた評価値が最大の顔検出実行位置における撮像レンズ8の位置が被写体像の顔の画像がもっとも合焦している位置として撮像レンズ8が位置決めされる。得られたプリ合焦評価値がしきい値未満であれば(ステップ92でNO),ステップ93の処理はスキップされる。
撮像レンズが移動範囲の最終位置でなければ(ステップ94でNO),撮像レンズ8が所定距離だけ移動させられ次の位置に位置決めさせられる(ステップ95)。撮像レンズ8が移動範囲の最終位置となるまで(ステップ94でYES),ステップ91〜93の処理が繰り返される。
図14(A)は,AF用プリ・サーチの処理によって得られたプリ合焦評価値と顔画像検出実行位置とを示している。
図14(A)の横軸は撮像レンズ8の移動方向(Z方向)であり,縦軸は全体合焦評価値である。
上述のように撮像レンズ8を所定距離ずつ移動させながらプリ合焦評価値を得ることにより,プリ合焦評価値のグラフG11が得られる。このグラフG11において,しきい値以上の部分に対応する撮像レンズ8の位置は,Z1,Z2,Z3,Z4,Z5,Z6,Z7およびZ8である。これらの撮像レンズの位置Z1,Z2,Z3,Z4,Z5,Z6,Z7およびZ8が顔検出実行位置として記憶される位置である。
上述の実施例においては,プリ合焦評価値を得るために被写体像の全体に対応するデータを用いているが,決定された顔領域に対応するデータを用いてもよい。顔領域に対応するデータから合焦データが抽出され,抽出された合焦データが積算されることによりプリ合焦積算値が得られる。
図8に戻って,AF用のプリ・サーチが終了すると,AF用のプリ・サーチにおいて得られた顔検出実行位置において顔検出処理が行われる(ステップ74)。
図12は,顔検出処理手順を示すフローチャートである。
記憶されている顔検出実行位置のうち,最初の顔検出実行位置に撮像レンズ8が位置決めされて被写体が撮像される。被写体像を表す画像データが顔抽出処理回路6に入力し,被写体像のうち,上述のようにして決定された顔検出対象領域の中に含まれている顔が検出される(ステップ101)。顔が検出されると(ステップ102でYES),撮像レンズ8が位置する顔検出実行位置に対応して顔検出処理の結果(検出された顔領域の位置,大きさなど)が記憶される(ステップ103)。顔が検出されないと(ステップ102でNO),ステップ103の処理はスキップされる。
撮像レンズが最後の顔検出実行位置でなければ(ステップ104でNO),撮像レンズ8が次の顔検出実行位置に移動させられる(ステップ105)。撮像レンズ8が最後の顔検出実行位置となるまで(ステップ104でYES),ステップ101〜103の処理が繰り返される。
図15の左側は,顔検出処理により得られる全体画像とそれらの全体画像のそれぞれの全体画像の中に含まれる顔の一例である。
上述したように,撮像レンズ8が顔検出実行位置Z1,Z2,Z3,Z4,Z5,Z6,Z7およびZ8にそれぞれ位置決めさせられて,被写体が撮像されることにより,被写体像I1,I2,I3,I4,I5,I6,I7およびI8が得られる。図15においては,撮像によって得られた被写体像I1,I2,I3,I4,I5,I6,I7およびI8のうち,被写体像I2,I3およびI4の顔検出対象領域55内に顔f2,f3およびf4がそれぞれ含まれている。
顔検出処理においては,顔検出実行位置Z2,Z3およびZ4にそれぞれ対応して顔f2,f3およびf4が記憶されることとなる。顔検出処理は,顔検出対象領域55内において行われるから,比較的早く終了する。
図8に戻って,顔検出処理が行われると検出された顔の領域を撮像レンズの位置にかかわらず顔情報画像に登録する処理(XY平面処理)(ステップ75)および顔が検出された顔検出実行位置を含む合焦範囲を決定する処理(Z方向処理)(ステップ76)が行われる。
図13は,顔領域登録処理手順を示すフローチャートである。
まず,記憶されている顔検出処理の結果が読み出される(ステップ111)。読み出された顔検出処理の結果が顔情報に登録される(ステップ112)。これらの顔検出処理の結果の読み出しおよび顔検出処理の結果の顔情報への登録が最後の顔検出処理の結果まで続けられる(ステップ113)。
図15の右側は,顔情報画像の一例である。
上述したように,顔検出実行位置Z2,Z3およびZ4に撮像レンズ8が位置決めされて被写体が撮像されることにより得られる被写体像I2,I3およびI4の顔検出対象領域55中に顔f2,f3およびf4が含まれている。これらの顔の位置,大きさなどが顔検出処理の結果として一駒の同一の顔情報Ifaceに登録される。
顔情報Ifaceには,撮像レンズ8が異なる位置において得られた被写体像に含まれている顔が登録されることとなる。この結果,顔情報Ifaceには,撮像レンズ8が顔検出実行位置Z2,Z3およびZ4のそれぞれの位置にあるときに得られる顔f2,f3およびf4が重ね合わされてできる顔領域A1が,顔が含まれる領域として登録される。
図8に戻って,顔情報登録処理(ステップ75)と並行して顔が検出された顔画像実行位置を含む合焦範囲が決定される(ステップ76)。
図14(A)および図10の左側を参照して,プリ合焦積算値がしきい値以上である撮像レンズ8の位置Z1〜Z4およびZ5〜Z8のうち,撮像レンズ8が顔検出実行位置Z2,Z3およびZ4にあるときに顔が検出されているから,プリ合焦評価値がしきい値以上である撮像レンズ8の位置Z5〜Z8が合焦範囲として決定される。
図9を参照して,顔情報Ifaceに登録された顔領域A1について,決定された合焦範囲内で本サーチが行われ(ステップ78),被写体像の中に含まれている顔が合焦する撮像レンズ8の位置(合焦位置)が決定する(ステップ79)。
図14(B)を参照して,合焦範囲は,撮像レンズ8の位置がZ1からZ4で規定する範囲となる。この合焦範囲Z1〜Z4の間において,撮像レンズ8が所定距離ずつ移動させられて,それぞれの移動位置ごとに被写体像が撮像される。撮像された被写体像の中から顔画像領域A1およびA2に対応するデータから合焦データが抽出される。抽出された合焦データの評価値が顔画像領域合焦評価値として得られる。撮像レンズ8が合焦範囲Z1〜Z4内を移動させられながら顔画像領域合焦評価値が得られることにより,その顔領域合焦評価値のグラフG22が得られる。これが上述した本サーチである。本サーチにより得られたグラフG22のうち,顔領域合焦評価値が最大となる撮像レンズ8の位置Zfが合焦位置Zfとして決定される。
図9に戻って,合焦位置が決定すると,決定された合焦位置に位置決めされるように撮像レンズ8が移動させられる(ステップ80)。撮像レンズ8が移動させられた位置は,被写体像の中の顔がもっとも合焦するような位置である。
シャッタ・レリーズ・ボタンの第二段階の押し下げがあると(ステップ81でYES),本撮影が行われる。本撮影によって得られた画像データがメモリ・カード19に記録される。
シャッタ・レリーズ・ボタンの第二段階の押し下げがなく(ステップ81でNO),シャッタ・レリーズ・ボタンの第一段階の押し下げが維持されていると(ステップ82でYES),シャッタ・レリーズ・ボタンの第二段階の押し下げの有無判定が繰り返される。シャッタ・レリーズ・ボタンの第二段階の押し下げがなく(ステップ81),シャッタ・レリーズ・ボタンの第一段階の押し下げが解放されると(ステップ82でNO),ステップ72の処理に戻る。
上述の実施例において,AF用のプリ・サーチ(ステップ73)における撮像レンズ8の移動距離を本サーチ(ステップ78)における撮像レンズ8の移動距離よりも大きくしてもよい。AF用のプリ・サーチの要する時間を短縮できる。
図16は,プリ合焦評価値を得る被写体像の領域の一例である。
上述した実施例においては,顔が検出された領域に対応する領域54の回りの領域55が顔検出対象領域とされ,その顔検出対象領域55内の画像を表す画像データから合焦データが抽出された上述したプリ合焦評価値としてもよいとされたが,領域54,55および被写体像50の全体の領域(AF領域)56のそれぞれに重み付け係数を割り当てて,それぞれの領域から得られる合焦データに重み付け係数を乗じて得られる合焦データからプリ合焦評価値を得るようにしてもよい。
顔の画像領域に対応する領域54は,重み付け係数が高く,領域54は中くらいの重み付け係数とされ,全体領域56は低い重み付け係数とされる。それぞれの領域から得られた合焦データに重み付け係数が乗じられて上述した(図14(A)参照)プリ合焦積算値が得られる。
図17は,他の実施例を示すもので,ディジタル・スチル・カメラの他の処理手順を示すフローチャートである。
撮像モードが設定され(ステップ31でYES),スルー画像データが得られ(ステップ32),シャッタ・レリーズ・ボタンの第一段階の押し下げがあると(ステップ121でYES),得られたスルー画像データからAE処理が行われる(ステップ122)。このAE処理において,絞り10の絞りおよびCCD12のシャッタ速度(いわゆる電子シャッタ)が決定される。
AE処理において輝度データが得られ,その得られた輝度データを用いて顔検出処理が行われる(ステップ123)。たとえば,人間の顔であると判断できる明るさが一定の領域に固まっている場合に,その領域が顔の画像領域であるとして検出できる。その後の処理は,検出された顔の画像領域から顔検出対象領域が決定され,図8のステップ73の処理に移行する。
また,上述の実施例においては,本サーチを行う合焦範囲を決定する場合にコンティニュアスAFの結果が利用されているが,ディジタル・スチル・カメラがズーム・レンズを備えているときには,それぞれのズーム位置に対応してパン・フォーカスの位置が規定されているので,それぞれのパン・フォーカスの位置を含む範囲を合焦範囲と決定して本サーチを行うようにしてもよい。さらに,単にスルー画像データが得られている場合のフォーカス位置を含むように合焦範囲を決定して本サーチを行うようにしてもよい。
さらに,ディジタル・スチル・カメラにマニアル・フォーカス・ダイアルが設けられており,このダイアルの回転位置に応じて撮像レンズの位置が位置決めされるものにおいては,そのマニアル・フォーカス・ダイアルの回転位置に応じて位置決めされる撮像レンズの位置を含む所定の範囲を上記の合焦範囲と決定してもよい。
さらに,上述した顔の画像の検出は,顔らしさ,顔の画像の明るさ,被写体像中における顔の位置にもとづいて行うものでもよい。また,顔の画像を検出するのではなく,たとえば,目の画像を検出し(目の位置,色などによって検出されよう),検出された目を表す画像データにもとづいて上述した処理を行うようにしてもよい。
さらに,検出された顔の画像の領域を表示装置17の表示画面上に表示するようにしてもよい。
図18は,他の実施例を示すもので,ディジタル・スチル・カメラの電気的構成を示すブロック図である。この図において,図1に示すものと同一物については,同一符号を付して説明を省略する。
ディジタル・スチル・カメラには,ズーム・レンズ8Aが設けられている。このズーム・レンズ8Aによって被写体像がCCD12の受光面上に結像する。
ディジタル信号処理回路15から出力された画像データは,顔検出回路6Aに入力する。この顔検出回路6Aにおいて,入力した画像データによって表される被写体像から顔(顔画像部分)が検出される。検出により得られた検出結果情報は,制御回路1Aに入力する。
制御回路1Aには,上述したCPU2,ROM3およびRAM4の他にEEPROM(electrically erasable programmable read only memory)4Aが含まれている。さらに,制御回路1Aには,フラッシュ回路24が接続されている。
図19(A)は被写体像の一例であり,(B)は顔検出規格化画像の一例である。
(A)を参照して,被写体像I1には,人物像25および樹木の画像27が含まれている。被写体像I1について顔検出処理が行われることにより,被写体像I1のうち,領域F1で囲まれた部分が顔の画像部分であるとして検出される。領域F1内には実際の顔に相当する画像部分26だけでなく,被写体である人物の後ろに存在する樹木の画像27も入り込んでいる。このために,領域F1は,顔の画像部分26のみを厳密に規定していない。領域F1内の画像が合焦するように合焦制御が行われると,不正確となることがある。この実施例においては,比較的正確な合焦制御が行われるように,領域F1から合焦制御に利用されるAF領域(AF対象領域)が決定される。決定されたAF領域内の画像が合焦するように,合焦制御が行われる。
(B)を参照して,顔検出規格化画像i1は,被写体像I1が規格化されたものである。顔検出規格化画像i1のデータ量が一定となるように(たとえば,1Mバイト),被写体像I1が規格化される。顔検出規格化画像i1において,被写体像I1中に検出された領域F1に相当する領域f1が規定される。この領域f1が縮小されてAF領域AF1が決定される。AF領域AF1の中心Cは,領域f1の中心と一致しているが必ずしも一致していなくともよい。AE領域AE1は,領域f1よりも縮小されているので,AE領域AE1内の画像にもとづいて露出制御が行われることにより,上述したように樹木の画像27の影響が排除され,顔の画像部分が合焦されることは理解できよう。
図20は,顔検出結果情報の一例である。
顔検出処理により得られる顔検出結果情報には,検出された顔(顔画像部分)の数,各顔の位置,各顔の大きさ,各顔の検出スコア,各顔の向き,各顔の傾きなどがある。検出される顔の数には上限が定められており,決められた上限値までの数が顔の数として検出結果情報となる。各顔の位置は,顔検出規格化画像の座標系における各顔の中心座標によって示される。各顔の大きさは,顔画像部分であると検出された領域f1の矩形の一辺の半分,すなわち,領域f1の中心と領域f1の辺までの距離によって表される。各顔の検出スコアは,顔検出処理において得られる顔らしさの指標を示すものである。各顔の向きは,図21(A),(B)および(C)に示すように,左向きの画像部分であるか,正面向きの画像部分であるか,および右向きの画像部分であるかを示すものである。各顔の傾きは,図22(A),(B),(C)および(D)に示すように,傾き0度(正立)の顔画像部分であるか,30度の傾きをもつ顔画像部分であるか,60度の傾きをもつ顔画像部分であるか,および90度の傾きをもつ顔画像部分であるかを示すように,顔画像部分の回転角度を示すものである,各顔の傾きは,たとえば,30度単位であるが,その単位以外の単位で表してもよい。
図23は,顔画像であるとして検出された領域と露出制御に利用されるAF領域との関係を示している。わかりやすくするために,顔画像であるとして検出された領域に対応する顔画像部分も示されている。
向きが0度(正面向き),向きが90度(右向き)および向きが−90度(左向き)の場合において,傾きが0度,90度,180度および270度のとき(0度等とする)と,傾きが0度,90度,180度および270度以外(0度等以外とする)のときと,に分けられて示されている。
顔画像部分I31で示されるように,向きが0度であり,かつ傾きが0度等の場合には,検出された矩形である顔画像部分の領域f31の一辺の半分の長さをa,矩形であるAF領域AF31の一辺の半分の長さをbとすると,b=k31×aで表される。但し,k31は0より大きい定数であり,1以下であっても1以上であってもよい。係数k31は,顔検出処理において検出される領域f31の大きさ(顔検出において用いられる顔検出枠の大きさ)に応じて適正な値に決定されるであろう。また,AF領域AF31の各頂点P1,P2,P3,およびP4の座標位置を(P1x,P1y),(P2x,P2y),(P3x,P3y),および(P4x,P4y),顔画像部分として検出された領域f1の中心Cの座標位置を(P0x,P0y)とすると,P1x=P0x−b,P1y=P0y−b,P2x=P0x+b,P2y=P0y−b,P3x=P0x−b,P3y=P0y+b,P4x=P0x+b,P4y=P0y+bとなる。
顔画像部分I32で示されるように,向きが0度であり,かつ傾きが30度(−30度)の場合には,b=k32×aで表される(k32は,定数)。AF領域AF32の各頂点P1,P2,P3,およびP4の座標位置を(P1x,P1y),(P2x,P2y),(P3x,P3y),および(P4x,P4y),AF領域AF32の一辺の半分の長さc,顔画像部分として検出された領域f32の中心Cの座標位置を(P0x,P0y)とすると,P1x=P0x−c,P1y=P0y−c,P2x=P0x+c,P2y=P0y−c,P3x=P0x−c,P3y=P0y+c,P4x=P0x+c,P4y=P0y+cとなる。
顔画像部分I33で示されるように,向きが90度(0度以上の向き)であり,かつ傾きが0度の場合には,顔画像部分であるとして検出された領域f33は五角形となる。顔の画像部分の中心Cから図6において上辺までの距離をaとし,顔の画像部分の中心からAF領域AF33の上辺または下辺および左辺までの距離をd,顔の画像部分の中心からAF領域AF33の右辺までの距離をeとすると,d=k33A×a,e=k33B×aで表される(但し,k33A,k33Bは,定数)。AF領域AF33の各頂点P1,P2,P3,およびP4の座標位置を(P1x,P1y),(P2x,P2y),(P3x,P3y),および(P4x,P4y),顔画像部分として検出された領域f1の中心Cの座標位置を(P0x,P0y)とすると,P1x=P0x−d,P1y=P0y−d,P2x=P0x+e,P2y=P0y−d,P3x=P0x−d,P3y=P0y+d,P4x=P0x+e,P4y=P0y+dとなる。この場合,顔画像部分は,横顔を表しているので,AF領域AF33に背景画像が入らないように,AF領域AF33は左側にずれており,AF領域AF33の中心と顔画像部分の中心Cとは一致しない。もっとも一致させるようにしてもよいのはいうまでもない。
顔画像部分I34で示されるように,向きが90度であり,かつ傾きが30度(−30度)の場合も顔画像部分であるとして検出された領域f34は五角形となる。顔の画像部分の中心Cから領域f34の長辺(二辺の短辺以外の辺)までの距離をa,AF領域AF34を矩形とした場合の一辺の半分をfとすると,f=k34c×aとなる(k34は定数)。AF領域AF32の各頂点P1,P2,P3,およびP4の座標位置を(P1x,P1y),(P2x,P2y),(P3x,P3y),および(P4x,P4y),顔画像部分として検出された領域f1の中心Cの座標位置を(P0x,P0y)とすると,P1x=P0x−f,P1y=P0y−f,P2x=P0x+f,P2y=P0y−f,P3x=P0x−f,P3y=P0y+f,P4x=P0x+f,P4y=P0y+fとなる。図6においては,AF領域AF34は,矩形でありそれらの辺の方向が水平方向または垂直方向となっているが,領域f34に対応させて傾けてもよい。
顔画像部分I35で示されるように,向きが90度(0度以上の向き)であり,かつ傾きが0度の場合には,顔画像部分であるとして検出された領域f35は五角形となる。顔の画像部分の中心Cから図6において上辺までの距離をaとし,顔の画像部分の中心からAF領域AF35の上辺または下辺および右辺までの距離をd,顔の画像部分の中心からAF領域AF35の左辺までの距離をeとすると,d=k35A×a,e=k35B×aで表される(但し,k33A,k33Bは,定数)。AF領域AF35の各頂点P1,P2,P3,およびP4の座標位置を(P1x,P1y),(P2x,P2y),(P3x,P3y),および(P4x,P4y),顔画像部分として検出された領域f1の中心Cの座標位置を(P0x,P0y)とすると,P1x=P0x−e,P1y=P0y−d,P2x=P0x+d,P2y=P0y−d,P3x=P0x−e,P3y=P0y+d,P4x=P0x+d,P4y=P0y+dとなる。この場合,顔画像部分は,横顔を表しているので,AF領域AF35に背景画像が入らないように,AF領域AF35は右側にずれており,AF領域AF35の中心と顔画像部分の中心Cとは一致しない。もっとも一致させるようにしてもよいのはいうまでもない。
顔画像部分I36で示されるように,向きが−90度であり,かつ傾きが30度(−30度)の場合も顔画像部分であるとして検出された領域f36は五角形となる。顔の画像部分の中心Cから領域f36の長辺(二辺の短辺以外の辺)までの距離をa,AF領域AF36を矩形とした場合の一辺の半分をfとすると,f=k36c×aとなる(k36は定数)。AF領域AF36の各頂点P1,P2,P3,およびP4の座標位置を(P1x,P1y),(P2x,P2y),(P3x,P3y),および(P4x,P4y),顔画像部分として検出された領域f1の中心Cの座標位置を(P0x,P0y)とすると,P1x=P0x−f,P1y=P0y−f,P2x=P0x+f,P2y=P0y−f,P3x=P0x−f,P3y=P0y+f,P4x=P0x+f,P4y=P0y+fとなる。図6においては,AF領域AF36は,矩形でありそれらの辺の方向が水平方向または垂直方向となっているが,領域f36に対応させて傾けてもよい。
以上のようにして,顔画像部分であるとして検出された領域f31等から露出制御に用いられるAF領域AF31等が決定される。顔画像部分が他の向きまたは傾きを持つ場合も同様にしてAF領域が決定されることとなる。
図24は,ディジタル・スチル・カメラの処理手順を示すフローチャートである。
撮像モードに設定され,被写体が撮像されると,撮像により得られた被写体像の顔検出処理が行われる(ステップ141)。シャッタ・レリーズ・ボタンの第一段階の押下があると(ステップ142でYES),顔検出処理により顔画像部分が検出されたかどうかが確認される(ステップ143)。顔画像部分が検出されていると(ステップ143でYES),顔画像部分が考慮された自動露出制御(顔検出AE)が行われる(ステップ144)。この顔検出AEについて詳しくは後述する。つづいて,顔画像部分が考慮された自動合焦制御(顔検出AF)が行われる(ステップ145)。顔画像部分が検出されていなければ(ステップ143でNO),顔画像部分については考慮されない通常のAEおよびAFが行われる(ステップ153,154)。
シャッタ・レリーズ・ボタンの第二段階の押下がなく(ステップ146でNO),シャッタ・レリーズ・ボタンの第一段階が依然として押されていれば(ステップ151でYES),再び顔検出処理が行われる(ステップ152)。シャッタ・レリーズ・ボタンが第一段階の押下から開放されていれば(ステップ151でNO),再びステップ141からの処理が繰り返される。
シャッタ・レリーズ・ボタンの第二段階の押下があると(ステップ146でYES),本露光が行われる(ステップ147)。その後,本露光により得られた画像データにもとづいて再び顔画像部分の検出が行われ(ステップ148),検出された顔画像部分がきれいな画像となるように色補正その他の信号処理が行われる(ステップ149)。信号処理された画像データがメモリ・カードに記録されることとなる(ステップ150)。
図24においては,シャッタ・レリーズ・ボタンの第一段階の押下に応じて顔検出AFの処理が行われているが,撮像モードが設定された場合にシャッタ・レリーズ・ボタンが押される前に撮像により得られる画像(いわゆるスルー画像)についても上述した顔検出AF処理を行うことができる。スルー画像について顔検出AF処理が行われる場合には,シャッタ・レリーズ・ボタンの押下前に顔検出AF処理が行われることとなろう。
図25は,顔検出AFの処理手順(図24ステップ145の処理手順)を示すフローチャートである。
撮像により得られた被写体像または顔検出規格化画像においてAF領域が設定される(ステップ160)。すると,後述するように,被写体像または顔検出規格化画像において設定されたAF領域がAF画像上に座標変換される(ステップ161)。座標変換されたAF領域にもとづいて,AF画像上において,高周波数成分を積算するためのフィルタ積算領域が設定される(ステップ162)。
合焦制御に用いられる被写体像を撮像するときの露出(AF露出)が設定される(ステップ163)。AF露出により,比較的適正な明るさの被写体像が得られ,その適正な明るさをもつ被写体像を用いて合焦制御できるので,比較的正確に合焦するようになる。つづいて,撮像によって得られた画像データから高周波数成分を抽出するためのAFフィルタが設定される(ステップ164)。
被写体像を合焦させるために,ズーム・レンズ1Aを構成するレンズの移動範囲を規定するAFサーチ範囲が設定され(ステップ165),その設定されたAFサーチ範囲においてAFサーチ処理(被写体像が合焦するようなズーム・レンズ1Aを構成するレンズの位置決め処理)が行われる(ステップ166)。
AFサーチ処理により,ズーム・レンズ1Aを構成するレンズが所定距離ずつ移動させられ,その移動位置ごとに画像データの高周波数成分が抽出されてAF評価値となる。このようにして得られたAF評価値が解析され(ステップ167),その解析結果を用いて合焦位置(被写体像が合焦するようなズーム・レンズ1Aを構成するレンズの位置)が演算される(ステップ168)。演算された合焦位置に,ズーム・レンズ1Aを構成するレンズが位置決めされる(ステップ169)。
図26は,AF領域設定処理手順(図25ステップ160の処理手順)を示すフローチャートである。
複数の顔がある場合,合焦させるべき顔が選択される(ステップ171)。顔が選択されると,その選択された顔に対応して上述のようにしてAF領域が算出される(ステップ172)。算出されたAF領域内の画像が合焦するように合焦制御が行われる。
複数の顔がある場合には,それらの顔の明るさを算出し,得られた複数の明るさの重み付け平均値を算出し,得られた平均値にもっとも近い明るさをもつ顔が合焦するように合焦制御を行うようにしてもよい。重み付け平均は,たとえば,顔の大きさが大きいほど,顔らしさの値が大きいほど,中心に近いほど重み量が大きくされて行われることとなろう。
図27は,AF画像上への座標変換処理(図25ステップ161の処理)を示すフローチャート,図28は,顔検出規格化画像上に設定されたAF領域がAF画像上に設定される様子を示している。
まず,顔検出規格化画像i1上にAF領域AF1が設定される(ステップ175)。そして,顔検出規格化画像i1上におけるAF領域AF1が共通座標系の画像(共通座標画像Ic)上に設定されるように座標変換処理が行われる(ステップ176)。共通座標画像I2上にAF領域が設定されると,つづいてAF画像i2上にAF領域AF2が設定されるように座標変換が行われる(ステップ177)。
図28を参照して,顔検出規格化画像i1上にAF領域AF1が設定される。顔規格化画像i1は,共通座標画像Icでは,領域A11の画像部分に相当するものとする。すると,顔検出規格化画像上の座標(xd,yd)は,共通座標画像上の座標(xc,yc)となる。ここで,xc=(xd+0.5)×wc_detect/wdetect−0.5+oc_d_x,yc=(yd+0.5)×hc_detect/0.5+oc_d_yとなる。これらの式にしたがって,AF領域AF1が共通座標系に座標変換される。
共通座標系に座標変換されたAF領域AF1は,AF座標系のAF領域AF2に座標変換される。共通座標画像上の座標(xc,yc)は,AE画像i2の座標(xAF,yAF)となる。ここで,xAF=(xc−oc_AF_x+0.5)×wAF/wc_AF−0.5,yAF=(yc−oc_AF_y+0.5)×hAF/hc_AF−0.5となる。これらの式にしたがって,AF領域AF1がAF画像i2に設定されることとなる。
ただし,上記の式において,Wc_detectは,共通座標画像における領域A1の横の長さ,Wdetectは顔規格化画像の横の長さ, hc_detectは,共通座標画像における領域A1の縦の長さ,hdetectは,顔規格化画像の縦の長さ,Oc_d_xは,領域A1の原点のx座標, Oc_d_yは,領域A1の原点のy座標,Oc_AF_xは,領域A2の原点のx座標,Oc_AF_yは,領域A2の原点のy座標,wAFは,AE画像の横の長さ,hAFは,AE画像の縦の長さ,wc_AFは,領域A2の横の長さ,wc_AFは,領域A2の縦の長さをそれぞれ示している。
顔規格化画像とAF画像とが同じ座標系であれば,座標変換処理は不要なのはいうまでもない。
図29は,AF露出設定処理手順(図25ステップ163の処理手順)を示すフローチャートである。この処理は,本露光時の露出量とAF露出量との差を一定範囲内に収めて,撮像中の露出変動を少なくするものである。
上述したように,顔検出AF処理の前に顔検出AEが行われて本露光時のEV値が得られている。検出された顔のうち,最大の顔のEV値から本露光EV値が減算された第1の差分値が所定の上限側の制限値dEVuより大きいかどうかが確認される(ステップ181)。
この第1の差分値が上限側の制限値dEVuより大きければ(ステップ181でYES),最大顔のEV値が本露光のEV値よりも大きいために離れすぎていると考えられる。このため,AF露出量AFEVは,本露光のEV値に上限側の制限値dEVuが加算された値に仮に決定される(ステップ182)。
第1の差分値が上限側の制限値dEVu未満であれば(ステップ181でNO),本露光時のEV値から最大の顔のEV値が減算された第2の差分値が所定の下限側の制限値dEVl未満かどうかが確認される(ステップ183)。
第2の差分値が下限側の制限値dEVlより大きければ(ステップ183でYES),最大顔のEV値が本露光のEV値よりも小さいために離れすぎていると考えられる。このため,AF露出量AFEVは,本露光のEV値に下限側の制限値dEVlが減算された値に仮に決定される(ステップ184)。AF露出量AFEVは本露光のEV値から一定範囲内に収まる。
第2の差分が下限側の制限値dEVl未満であれば(ステップ183でNO),最大の顔のEV値が本露光のEV値から余り離れていないと考えられる。最大の顔のEV値がAF露出量AFEVと仮に決定される(ステップ185)。
これらの制限値dEVuおよびdEVlは設計パラメータとしてEEPROM4Aに記憶させることができる。
つづいて,仮に決定されたAF露出量AFEVが,そのAF露出量AFEVに設定可能な範囲内にあるかどうかが確認される。
まず,仮に決定されたAF露出量が設定可能な最小の値であるAF追従露出下限値未満かどうかが確認される(ステップ186)。AF追従露出下限値未満であれば(ステップ186でYES),AF露出量AFEVは,AF追従露出下限値に決定される(ステップ187)。
仮に決定されたAF露出量がAF追従露出下限値以上であれば(ステップ186でNO),AF露出量か設定可能な最大の値であるAF追従露出上限値より大きいかどうかが確認される(ステップ188)。AF追従露出量上限値より大きければ(ステップ188でYES),AF露出量AFEVは,AF追従露出上限値に決定される(ステップ189)。
仮に決定されたAF露出量AFEVがAF追従露出量の上限値と下限値との間であれば(ステップ186および188のいずれでもNO),決定されたAF露出量AFEVが設定(記憶)される(ステップ190)。設定されたAF露出量AFEVにもとづいて,AF検出露出プログラム線図を用いて絞り値,シャッタ・スピード,感度が決定される(ステップ191)。
上述の実施例においては,最大の顔のEV値を用いてAF露出の設定処理を行っているが,顔らしさの最も大きな顔のEV値,もっとも中心に近い顔のEV値などの優先度の高い順に決定される顔のEV値を用いてAF露出の設定処理を行ってもよい。
図30(A)および(B)は,AFフィルタ設定処理手順(図25ステップ164の処理手順)を示すフローチャートである。
(A)は,フィルタ特性を任意に設定できる場合の処理である。すでに選択された顔の大きさが参照され(ステップ201),参照された顔の大きさに応じたフィルタ特性が算出される(ステップ202)。算出されたフィルタ特性がディジタル・フィルタに設定される。
(B)は,あらかじめ顔の大きさに応じてフィルタ特性が定められている場合の処理である。(A)と同じように,すでに選択された顔の大きさが参照され(ステップ201),あらかじめ定められているフィルタ特性の中から,参照された顔の大きさに応じたフィルタ特性が設定される(ステップ203)。
ディジタル・フィルタはソフトウエアによってCPU2の動作により実現できるが,ハードウエアによって実現してもよいのは言うまでもない。
図31は,バンド・パス・フィルタのフィルタ特性を示している。
4つのフィルタ特性FI1〜FI4が規定されている。フィルタ特性FI1からFI4となるにつれて通過可能な高周波数成分が高くなっている。上述のように,参照された顔の大きさが大きいほど被写体像の高周波数成分は少ないと考えられるので,通過可能な高周波数成分が比較的低くなるような特性FI1,FI2などがディジタル・フィルタに設定されるようになる。逆に顔の大きさが小さいほど被写体像の高周波数成分は多いと考えられるので,通過可能な高周波数成分が比較的卓なるような特性FI3,FI4などがディジタル・フィルタに設定されるようになる。
図32は,ハイ・パス・フィルタのフィルタ特性を示している。
4つのフィルタ特性FI5〜FI8が規定されている。フィルタ特性FI5からFI8となるにつれて通過可能な周波数帯域が高くなっている。上述したバンド・パス・フィルタと同様に顔の大きさが大きいほど,通過可能な周波数帯域が比較的低くなる特性FI5,FI6などがディジタル・フィルタに設定され,顔の大きさが小さいほど,通過可能な高周波数成分が比較的大きくなる特性FI7,FI8などがディジタル・フィルタに設定されるようになる。
図33および図34は,ズーム・レンズ8を構成する撮像レンズの位置とその位置から得られるAF評価値との関係の一例を示している。
図33を参照して,撮像レンズはNEAR側からINF側に所定距離ずつ移動させられて,その移動位置ごとに被写体が撮像される。撮像することにより得られた画像データの高周波数成分が得られ,得られた高周波数成分からAF評価値が算出される。NEAR側からINF側に移動させられながら,AF評価値が算出されることにより,グラフG1が得られる。
グラフG1においては,撮像レンズがNEAR側からINF側に移動するにつれてAF評価値が序々に大きくなり,撮像レンズがP01の位置にあるときにAF評価値が最大値AFpeakとなる。さらに撮像レンズがINF側に移動すると,AF評価値は序々に小さくなる。このように,図33に示す例では,AF評価値のピーク値AFpeakが存在すると考えられる。
図34においても同様にして,撮像レンズの位置とAF評価値との関係を示すグラフG1が得られる。しかしながら,撮像レンズがNEAR側からINF側に移動するにつれて単にAF評価値が増加しており,増加から減少に移行する箇所が存在しない。このような場合には,AF評価値のピーク値は存在しないとされる。
図35は,AF評価値の解析処理手順(図25ステップ167の処理手順)を示すフローチャートである。
この処理は,顔の画像部分に対応するAF領域からAF評価値のピーク値が存在しない場合(図34のような場合)には,AF領域を顔の画像部分だけでなく胴体の画像部分にまで拡大するものである。
顔にもとづいて決定されたAF領域にもとづいて得られたAF評価値のピークが存在するかどうかが確認される(ステップ211)。
AF領域のピークが無ければ(ステップ211でNO),AF領域の拡大処理をするかどうかが判定される(ステップ212)。AF領域の拡大処理を行うかどうかの判定はあらかじめ行われている設定にもとづくこととなろう。AF領域の拡大処理が行われる場合には(ステップ212でYES),AF領域の拡大処理が行われる(ステップ213)。このAF領域の拡大処理について詳しくは後述する。拡大されたAF領域にもとづいて上述したようにAF評価値が得られる。
新たに得られたAF評価値にピークが存在する(ステップ214でYES),あるいは顔にもとづいて設定されているAF領域から得られたAF評価値にピークが存在すれば(ステップ211でYES),得られたAF評価値のピークにもとづいて合焦位置が演算される(ステップ215)。得られた合焦位置となるようにズーム・レンズが駆動させられる(ステップ216)。
AF領域の拡大処理ができない(ステップ212でNO),あるいは拡大されたAF領域から得られたAF評価値にピークがなければ(ステップ214でNO),パン・フォーカス位置となるようにズーム・レンズが駆動させられる(ステップ217)。
図36は,AF領域拡大処理手順(図35ステップ213の処理手順)を示すフローチャートである。
検出された顔(選択された顔)の傾きに応じて,顔と胴体との位置関係も変わるため,AF領域拡大処理においては傾きに応じて拡大する方向が変わる。
傾きが0度,330度,または30度の場合には(ステップ221でYES),カメラを基準位置に構えている場合において顔は正立またはほぼ正立と考えられるので,胴体は顔に対して下方向に位置していると考えられる(図37(A)参照)。このため,下方向にAF領域を拡大する下延伸処理が行われる(ステップ222)。
傾きが90度,60度,または120度の場合には(ステップ221でNO,ステップ223でYES),カメラを基準位置に構えている場合において顔は90度またはほぼ90度に傾いていると考えられるので,基準位置において得られる画像を基準位置と同じ方向に配置した場合には,胴体は顔に対して左方向に位置していると考えられる(図37(B)参照)。このために,左方向にAF領域を拡大する左延伸処理が行われる(ステップ224)。
傾きが180度,150度,または210度の場合には(ステップ223でNO,ステップ225でYES),同様に顔は倒立またはほぼ倒立状態であると考えられるので,基準位置の画像中では胴体は顔の上方向に位置していると考えられる(図37(C)参照)。このために,上方向にAF領域を拡大する上延伸処理が行われる(ステップ226)。
傾きが270度,240度,または300度の場合には(ステップ225でNO),同様に胴体は基準位置画像中において,顔の右側にあると考えられる(図37(D)参照)。このために,右方向にAF領域を拡大する右延伸処理が行われる(ステップ227)。
図37(A)〜(D)は,被写体像の一例である。
(A)に示す被写体像IDは,カメラを基準位置に構えて撮像されたものである。(B)に示す被写体像ILは,カメラを基準位置から右(または左)に90度回転させた位置に構えて撮像されたものである,(C)に示す被写体像IUは,カメラを基準位置から逆さ(180度回転)にして撮像されたものである。(D)に示す被写体像IRは,カメラを基準位置から左(または右)に90度回転させた位置に構えて撮像されたものである。(A)に示すようにカメラを基準位置に構えて撮像することにより得られた被写体像IDと同じように(B)〜(D)に示すように横長の位置に配置された被写体像IL〜IRを基準位置画像ということにする。これらの基準位置画像ID〜IRにおいてAF拡大処理が行われる。基準位置画像ID〜IRの幅はwAF,高さはhAFとして図示されている。
上述したように,顔にもとづいて(A)に示すAF領域231,(B)に示すAF領域235,(C)に示すAF領域241および(D)に示すAF領域251が決定される。これらのAF領域231,235,241および251は,基準位置画像ID,IL,IUおよびIR中において左上,右上,左下および右下のそれぞれの頂点がQ1,Q2,Q3およびQ4で表されており,基準位置画像ID,IL,IUおよびIRにおける上下左右の位置関係とAF領域231,235,241および251における上下左右の位置関係とが対応している。
基準位置画像ID,IL,IUおよびIRには,顔にもとづいて決定されるAF領域231,235,241および251のほかに拡大されたAF領域233,234,236,237,238,242,243,252,253,254も図示されている。これらのAF領域のそれぞれの領域の幅AFHWDおよび高さAFVWDはいずれも等しい。基準位置画像ID,IL,IUおよびIRの左上の頂点をそれぞれ原点Oとすると,顔にもとづいて決定されるAF領域231,235,241および251ならびに拡大されたAF領域233等のうち,原点Oにもっとも近い位置のX座標はAFHST,Y座標はAFVSTによって示されている。
(A)を参照して,基準位置画像IDの場合において,顔にもとづいて決定されるAF領域231から得られるAF評価値にピークが存在しないときには,上述したように,AF領域231の下側の領域232,233から得られるAF評価値を用いてピーク検出処理が行われる。
(B)を参照して,基準位置画像ILの場合において,顔にもとづいて決定されるAF領域235から得られるAF評価値にピークが存在しないときには,上述したように,AF領域235の左側の領域236,237,238から得られるAF評価値を用いてピーク検出処理が行われる。
(C)を参照して,基準位置画像IUの場合において,顔にもとづいて決定されるAF領域241から得られるAF評価値にピークが存在しないときには,上述したように,AF領域241の上側の領域243,244から得られるAF評価値を用いてピーク検出処理が行われる。
(D)を参照して,基準位置画像IRの場合において,顔にもとづいて決定されるAF領域251から得られるAF評価値にピークが存在しないときには,上述したように,AF領域251の下側の領域252,253,254から得られるAF評価値を用いてピーク検出処理が行われる。
ただし,AF評価値は,顔にもとづいて決定されるAF領域231等から得られるAF評価値にピークが存在しないときに再びズーム・レンズを駆動して拡大されたAF領域232等から算出されるのではなく,顔にもとづいて決定されるAF領域231等からAF評価値を算出する時に拡大されたAF領域232等から得られるAF評価値も同時に算出される。これにより,顔にもとづいて決定されるAF領域231等にピークが存在しなかった場合に,再びズーム・レンズを駆動する必要が無くなり,拡大されたAF領域232等のすべてから迅速にAF評価値を得ることができる。
図38は,AF領域拡大処理に用いられる複数の項目とそれらの項目の算出の仕方とを各処理(下延伸処理,左延伸処理,上延伸処理,右延伸処理)ごとに示している。
上述したように,顔の傾きInplaneごとにAF領域を拡大する処理が変わる。顔にもとづいて決定されるAF領域の頂点の位置Q1,Q2,Q3,Q4のそれぞれのX座標,Y座標を(Q1x,Q1y),(Q2x,Q2y),(Q3x,Q3y),(Q4x,Q4y)とすると,1つのAF領域の幅AFHWDはQ2x-Q1xで表され,1つのAF領域の高さAFVWDはQ3y-Q1yで表される。
また,すべてのAF領域(顔にもとづいて決定されるAF領域と拡大されたAF領域との両方のAF領域)からAF評価値を算出するためにすべてのAF領域内の高周波数成分を抽出するために用いられる水平開始点算出変数KxはINT(Q1x/AFHWD)によって表され,垂直開始点算出変数KyはINT(Q3y/AFVWD)(INTは整数値を示す)によって表される。さらに,高周波数成分の抽出を開始するAF領域の水平開始点AFHST(上述したようにすべてのAF領域を考えたときに基準位置画像の原点Oにもっとも近い点のX座標)はQ1x-Kx×AFHWDによって表され,垂直開始点AFVST(すべてのAF領域を考えたときに基準位置画像の原点Oにもっとも近い点のY座標)はQ1y-Ky×AFVWDによって表される。
さらに,基準位置画像ID〜IRにおいて拡大できるAF領域の数は基準位置画像ID〜IRの大きさ,顔にもとづいて決定されるAF領域231等の位置によって異なる。AF領域の数を算出するための水平領域算出変数NxはINT[(wAF-AFHST)/AFHWD]+1によって表され,垂直領域算出変数NyはINT[(hAF-AFVST)/AFVWD]+1によって表される。これらの変数Nx,Nyを用いてすべてのAF領域の水平方向の領域数Hnum,垂直方向の領域数Vnumが処理内容に応じて決定する。下延伸処理,左延伸処理,上延伸処理および右延伸処理では水平方向の領域数はそれぞれ1,Nx,1およびNxであり,垂直方向の領域数はそれぞれNy,1,Nyおよび1である。
さらに,AF評価値を算出するAF領域を規定する積算領域配列Areaは,Area[Hnum][Vnum]で表される。顔領域Af評価値FaceAFvalueは,下延伸処理,左延伸処理,上延伸処理および右延伸処理においてそれぞれ,Area[0][0],Area[Nx-1][0],Area[0][Ny-1]およびArea[0][0],によって表される。
図39は,下延伸処理手順(図36ステップ222の処理手順)を示すフローチャート,図40(A),(B),(C)は,AF評価値のピーク検出に用いられるAF領域が拡大される様子を示している。上述したときに,顔にもとづくAF領域231から高周波数成分が抽出される時に,拡大されるAF領域232,233からも高周波数成分が抽出されており,AF領域が拡大されたあとに再びズーム・レンズが駆動されるものではない。
所定の変数kに,垂直方向に拡大されるAF領域の数を決定するステップ数vareastepが設定される(ステップ261)。変数kが垂直領域算出数Ny以上となると,拡大可能なAF領域の数の限界となったと考えられる。
変数kが垂直領域算出数Ny未満であれば(ステップ262でYES),変数kによって定められるAF領域まで拡大される(ステップ263)。拡大されたAF領域内から得られるAF評価値にピークがあれば(ステップ264でYES),下延伸処理は終了する。拡大されたAF領域内から得られるAF評価値にピークが無ければ(ステップ264でNO),拡大領域がステップ数vareastepだけ増加されて(ステップ265),再びAF評価値のピーク検出処理が行われる。
変数kが垂直領域算出数Ny以上となると(ステップ262でNO),その垂直領域算出数Nyによって規定されるAF領域から得られるAF評価値にピークが存在するかどうかが確認されることとなる(ステップ267)。
ピークが検出された場合には,上述したように合焦位置が演算され,合焦するようにズーム・レンズが駆動され,ピークが検出されない場合には,パン・フォーカス位置にズーム・レンズが駆動される(図35ステップ216,217参照)。
このような下延伸処理により,図40(A)に示す顔にもとづくAF領域231から図40(B),(C)に示すように拡大されたAF領域232,233から得られるAF評価値にもとづいてピークを検出できるようになる。
図41は,左延伸処理手順(図36ステップ224の処理手順)を示すフローチャート,図42(A),(B),(C)は,AF評価値のピーク検出に用いられるAF領域が拡大される様子を示している。
左延伸処理のためにAF領域は左方向に拡大されていく。このため,所定の変数kは,水平領域算出数Nxから1と水平方向に拡大されるAF領域の数を決定するステップ数hareastepとが減算された値に設定される(ステップ271)。変数kが水平領域算出数Nx以上となると,拡大可能なAF領域の数の限界となったと考えられる。
変数kが0より大きければ(ステップ272でYES),変数kによって定められるAF領域まで拡大される(ステップ273)。拡大されたAF領域内から得られるAF評価値にピークがあれば(ステップ274でYES),左延伸処理は終了する。拡大されたAF領域内から得られるAF評価値にピークが無ければ(ステップ274でNO),左延伸処理であるために拡大領域がステップ数hareastepだけ減少されて(ステップ275),再びAF評価値のピーク検出処理が行われる。
変数kが0以下となると(ステップ272でNO),その水平領域算出数Nxによって規定されるAF領域から得られるAF評価値にピークが存在するかどうかが確認されることとなる(ステップ277)。
このような下延伸処理により,図42(A)に示す顔にもとづくAF領域235から図42(B),(C)に示すように拡大されたAF領域236〜238から得られるAF評価値にもとづいてピークを検出できるようになる。
図43は,上延伸処理手順(図36ステップ226の処理手順)を示すフローチャート,図44(A),(B),(C)は,AF評価値のピーク検出に用いられるAF領域が拡大される様子を示している。
上延伸処理であるために,AF領域は下から上に拡大されていく。このため,所定の変数kに,垂直領域算出数Nyから1と垂直方向に拡大されるAF領域の数を決定するステップ数vareastepとが減算されることにより設定される(ステップ281)。変数kが0以下となると,拡大可能なAF領域の数の限界となったと考えられる。
変数kが0より大きければ(ステップ282でYES),変数kによって定められるAF領域まで拡大される(ステップ283)。拡大されたAF領域内から得られるAF評価値にピークがあれば(ステップ284でYES),上延伸処理は終了する。拡大されたAF領域内から得られるAF評価値にピークが無ければ(ステップ284でNO),変数kからステップ数vareastepが減算されることにより,拡大領域がステップ数vareastepだけ増加されて(ステップ285),再びAF評価値のピーク検出処理が行われる。
変数kが0以上となると(ステップ282でNO),垂直領域算出数Nyによって規定されるAF領域から得られるAF評価値にピークが存在するかどうかが確認されることとなる(ステップ287)。
このような上延伸処理により,図44(A)に示す顔にもとづくAF領域241から図44(B),(C)に示すように拡大されたAF領域242,243から得られるAF評価値にもとづいてピークを検出できるようになる。
図45は,右延伸処理手順(図36ステップ227の処理手順)を示すフローチャート,図46(A),(B),(C)は,AF評価値のピーク検出に用いられるAF領域が拡大される様子を示している
所定の変数kに,水平方向に拡大されるAF領域の数を決定するステップ数hareastepが設定される(ステップ291)。変数kが水平領域算出数Nx以上となると,拡大可能なAF領域の数の限界となったと考えられる。
変数kが水平領域算出数Nx未満であれば(ステップ272でYES),変数kによって定められるAF領域まで拡大される(ステップ273)。拡大されたAF領域内から得られるAF評価値にピークがあれば(ステップ274でYES),右延伸処理は終了する。拡大されたAF領域内から得られるAF評価値にピークが無ければ(ステップ274でNO),拡大領域がステップ数hareastepだけ増加されて(ステップ275),再びAF評価値のピーク検出処理が行われる。
変数kが水平領域算出数Nx以上となると(ステップ292でNO),その水平領域算出数Nxによって規定されるAF領域から得られるAF評価値にピークが存在するかどうかが確認されることとなる(ステップ297)。
このような右延伸処理により,図46(A)に示す顔にもとづくAF領域251から図46(B),(C)に示すように拡大されたAF領域252,253から得られるAF評価値にもとづいてピークを検出できるようになる。
上述の実施例においては,拡大されるAF領域は1つずつ増えているが,2つまたはその他の数ずつ増えてもよいのはいうまでもない。
図47は,AF評価値解析処理手順の他の例を示すフローチャートである。この図において図35に示す処理と同一の処理については同一符号を付して説明を省略する。
図35に示すAF評価値解析処理が,顔にもとづいて決定されるAF評価値にピークが無かった場合にAF領域を拡大する処理を行っているのに対し,図47に示す処理では,顔の明るさ(顔にもとづいて決定されるAF領域内の明るさ)がしきい値以上でなければ(ステップ219でNO),顔の明るさが暗いために顔にもとづいて決定されたAF領域にもとづいて得られるAF評価値を用いて合焦制御ができないと考えられる。このために,AF領域の拡大処理が行われる(ステップ213)。
パン・フォーカス位置(いわゆる置きピン位置)は,被写体距離を算出することにより次のようにして求めることができる。
図48は,顔検出規格化画像300の一例である。
顔検出規格化画像300の幅をWdetect,高さをhdetectとし,画像300において設定されたAF領域300Aの一辺の半分の長さをa,中心をP0とする。すると,被写体画面比率paは,式1から算出される。
pa=(AF領域の一辺の長さ)/(画像の高さ)=2a/hdetect・・・式1
AF領域(顔を示す領域)は,必ずしも正確な顔の大きさを示すものではない。このために,正確な顔の大きさに近づけるために調整係数kpを用いて式2に示すように被写体画面比率paが調整される。調整された被写体画面比率paをpbとする。
pb=kp×pa・・・式2
被写体距離を算出するためには被写体画面比率を事前に実験して得られた焦点距離の値に換算する必要がある。被写体距離を一定にして,ズーム比を変化させた場合には「焦点距離」比=「被写体の画面比率」比の関係が成立するから,焦点距離の値に換算するための被写体画面比率基準倍率換算値pcは,式3から求められる。但し,Ztestは事前実験時の焦点距離,Z0は対象となる被写体の撮像時の焦点距離であり,ズーム位置に算出可能なものである。
pc=pb×Ztest/Z0・・・式3
ズーム比を一定にして被写体距離を変化させた場合には,「被写体距離」比=「被写体画面比率」比の逆数=「被写体の画面比率の逆数」比の関係が成立する。このことから,被写体距離ILcalcの逆数は,式4から算出される。但し,kiIcaIcは,距離逆数換算係数である。
ILcalc=pc×kiIcalc・・・式4
式4から被写体距離Lcalcは,式5によって表される。
Lcalc=1/ILcalc・・・式5
図49は,パルス数とズーム・レンズの焦点レンズのパン・フォーカス位置との関係を示している。
焦点レンズには,ホーム・ポジションHPと呼ばれる位置が規定されており,このホーム・ポジションに焦点レンズが位置している状態からのパルス数に応じて焦点レンズの移動距離が決定する。INF位置は最も遠い被写体距離に合焦させることができる焦点レンズの位置である。このINF位置までのパルス数は,ズーム比,調整値を考慮してEEPROM4Aに設定されている。NEAR位置は最も近い被写体距離に合焦させることができる焦点レンズの位置である。焦点レンズを位置決めするパン・フォーカス位置は,ホーム・ポジションHPからINF位置に移動させるために必要なパルス数にINF位置からパン・フォーカス位置に移動させるために必要なパルス数を加算したものとなる。INF位置からパン・フォーカス位置に移動させるために必要なパルス数は,近似式やLUT(ルックアップ・テーブル)にあらかじめ格納されているデータを用いて算出できる。
図50は,被写体までの距離の逆数とINF位置からパン・フォーカス位置に焦点レンズを移動させるのに必要なパルス数との関係を示すグラフである。
これらの関係は,ズーム比に応じて異なるためズーム比ごとの関係を示すグラフG11からG14が示されている。これらのグラフG11からG14を用いて被写体距離の逆数が上述のように算出されることにより,パルス数が算出されて焦点レンズがパン・フォーカス位置に位置決めできるのは理解されよう。また,被写体距離の逆数からパルス数の導出する方法は,特に限定する必要はなく,LUTを使っても良いし,近似式を使用しても構わない。
図51は,パン・フォーカス算出処理手順(図35ステップ217の処理手順)を示すフローチャートである。
まず,上述のようにして被写体画面比率が計算され(ステップ301),基準倍率換算値が求められる(ステップ302)。つづいて,上述のようにして被写体距離が算出され(ステップ303),パルス数が算出される(ステップ304)。算出されたパルス数にもとづく距離だけ焦点レンズが移動させられることとなる。
被写体像に複数の顔があった場合には,たとえば,それらの複数の顔を用いて,上述した被写体像との被写体画面比率を算出して,被写体までの複数の距離を算出することができる。複数の距離のいずれかを用いて合焦制御を行うことができるようになる。たとえば,もっとも近い場所にある顔,中間的な場所にある顔,遠い場所にある顔などが合焦するようにできる。また,複数の顔に,大きさ,顔らしさ,中心からの位置,明るさ,傾き,向きなどの優先度をつけて,その優先度の高い顔が合焦するようにできる。さらに,複数の距離の重み付け平均にもとづいて得られる距離を用いて合焦制御することもできる。
図52は,AFサーチ範囲設定処理手順(図25ステップ165の処理手順)を示すフローチャートである。このAFサーチ範囲は,上述のようにして決定されたパン・フォーカス位置の前後の範囲をAFサーチ範囲と設定し,その範囲内において焦点レンズを移動させて上述した高周波数成分の抽出,AF評価値の算出等が行われるものである。このようなサーチを狭範囲サーチと呼ぶことにする。
狭範囲サーチが設定されていなければ(ステップ311でNO),通常のAFにおいて用いられるサーチ範囲で焦点レンズが移動させられる(ステップ319)。
狭範囲サーチが設定されていると(ステップ311でYES),上述のようにしてパン・フォーカス位置が算出される(ステップ312)。AF開始位置(焦点レンズの移動開始位置)は,パン・フォーカス位置からNEAR側に所定距離だけ加算した位置に規定される(ステップ313)。設定されたAF開始位置がNEAR側の限界位置を超えてしまうと(ステップ314でYES),AF開始位置はNEAR側の限界位置に設定される(ステップ315)。
AF終了位置(焦点レンズの移動終了位置)は,パン・フォーカス位置からINF側に所定距離だけ加算した位置に規定される(ステップ316)。設定されたAF終了位置がINF側の限界位置を超えてしまうと(ステップ317でYES),AF終了位置はINF側の限界位置に設定される(ステップ318)。
焦点レンズを移動させる範囲がパン・フォーカス位置を中心とした範囲に限定されるので,比較的迅速にAFサーチが終了する。
図53は,AFサーチ範囲設定処理の他の処理手順を示すフローチャートである。この図において図52に示す処理と同一の処理については同一符号を付して説明を省略する。この処理は,複数の顔が検出された場合の処理を示している。
検出された顔が複数の場合には(ステップ322でYES),検出された顔の中から最大の顔についてのパン・フォーカス位置が検出される(ステップ323)。検出されたパン・フォーカス位置が第1の変数PTNEARに設定される。つづいて,検出された顔の中から最小の顔についてのパン・フォーカス位置が検出される(ステップ324)。検出されたパン・フォーカス位置が第2の変数PTINFに設定される。
このようにして設定された第1の変数PTNEARに所定距離を加算した位置がAF開始位置に設定される(ステップ313A)。また設定された第2の変数PTINFから所定距離を減算した位置がAF終了位置に設定される(ステップ316A)。最大の顔は,手前にあると考えられ,その手前にある顔を基準としてNEAR側のAF開始位置が決定され,最小の顔は,遠くにあると考えられ,その遠くにある顔を基準としてINF側のAF終了位置に設定される。最大の顔と最小の顔とを考慮してAFサーチの範囲が設定されるようになる。
検出された顔が複数の場合には(ステップ322でNO),上述と同様にパン・フォーカス位置が算出され(ステップ325),第1の変数PTNEARおよび第2の変数PTINFに設定される(ステップ326,327)。これにより,図52と同様にAF開始位置とAF終了位置とが決定される。(ステップ313A,316A)。
図54から図56は,合焦位置の検出の仕方を示している。
図54は,被写体像の一例である。
被写体像330には,二人の人物像が含まれており,顔検出処理が行われることにより,顔335および336が検出されたものとする。
図55は,顔335および顔336から得られるAF評価値と焦点レンズとの関係を示している。
顔335は比較的大きく,被写体が手前にあるためにAF評価値のグラフG21のピーク位置Peakpos1は比較的NEAR側に位置する。これに対して,顔336は比較的小さく,被写体が遠くにあるためにAF評価値のグラフG22のピーク位置Peakpos2は比較的INF側に位置する。
このように,複数の顔がある場合において複数のピークがある場合には,もっともNEAR側のピークが選択され,そのピーク位置となるように焦点レンズが位置決めされる。
図56は,合焦位置演算処理手順(図25ステップ168の処理手順)を示すフローチャートである。
撮像された被写体像に複数の顔がなければ(ステップ331でNO),その一つの顔のAF評価値にピーク位置の演算処理が行われる(ステップ334)。
撮像された被写体像に複数の顔があった場合には(ステップ331でYES),複数の顔のそれぞれの顔のAF評価値からピーク位置が演算される(ステップ332)。得られたピーク位置のうち,もっともNEAR側にあるピーク位置が選択され(ステップ333),その位置に焦点レンズが位置決めされることとなる。ピーク位置が複数ある場合には,それらの中間的な位置に焦点レンズが位置決めされてもよい。
複数の顔があった場合には,複数の顔のうち,大きさ,顔らしさ,位置明るさ傾き,向きなどの優先度の高い1または複数の顔を決定し,決定された顔の画像を表すデータを用いて焦点レンズ位置を位置決めすることができる。
図57および図58は顔が複数あった場合の他の処理の例である。
図57は,上述のように二つの顔から得られるAF評価値のグラフG31とG32とを示している。
焦点レンズがNEAR側からINF側に向かって所定距離ずつ移動させられて(ステップ341),その移動位置ごとにAF評価値が得られる。AF評価値が得られることにより,図57に示すように,AF評価値のグラフG31,G32が序々に生成されていく。得られたAF評価値が解析されて極大値かどうかが判定される(ステップ342,343)。
極大値でなければ(ステップ343でNO),焦点レンズがINF側のサーチ終端(限界位置)となったかどうかが確認される(ステップ345)。終端でなければ(ステップ345でNO),次の位置に焦点レンズが移動させられて再びAF評価値の算出,解析等が行われる(ステップ346,342,343)。終端であれば(ステップ345でYES),極大値が無くピーク値が検出されないので,合焦位置としてパン・フォーカス位置が演算され,その位置に焦点レンズが移動させられる(ステップ347,348)。
極大値であると判定されると(ステップ343でYES),その後のAFサーチが中断される(ステップ344)。得られた極大値を与えるピーク位置Peakpos3が合焦位置と判断され,その合焦位置が演算される(ステップ347)。演算された合焦位置に焦点レンズが移動させられる(ステップ348)。
極大値と判定された場合には,その後のAFサーチ(焦点レンズの移動等)が中断されて合焦位置が演算されるので,焦点レンズの位置決めを迅速にできる。
ディジタル・スチル・カメラの電気的構成を示すブロック図である。 ディジタル・スチル・カメラと被写体との関係を示している。 記録処理手順を示すフローチャートである。 記録処理手順を示すフローチャートである。 (A)は被写体像の一例を,(B)は顔検出対象領域の一例をそれぞれ示している。 (A)は被写体像の一例を,(B)は顔検出対象領域の一例をそれぞれ示している。 撮像レンズの位置とAF領域合焦積算値との関係を示している。 他の実施例を示すもので,記録処理手順のフローチャートである。 他の実施例を示すもので,記録処理手順のフローチャートである。 (A)は被写体像を,(B)は顔検出対象領域の一例をそれぞれ示している。 AF用のプリ・サーチ処理手順を示すフローチャートである。 顔検出処理手順のフローチャートである。 顔画像領域登録処理手順を示すフローチャートである。 (A)は撮像レンズ位置とプリ合焦評価値との関係を,(B)は撮像レンズ位置と顔領域合焦積算値との関係を示している。 顔情報画像の登録処理を示している。 領域ごとの重み付け係数を示している。 他の実施例を示すもので,記録処理手順を示すフローチャートである。 ディジタル・スチル・カメラの電気的構成を示すブロック図である。 (A)は被写体像の一例を示し,(B)は顔検出規格化画像の一例を示している。 顔検出結果情報を示している。 (A)は左向きの顔画像部分を,(B)は正面の顔画像部分を,(C)は右向きの顔画像部分を示している。 (A)は傾きが0度の顔画像部分を,(B)は傾きが30度の顔画像部分を,(C)は傾きが60度の顔画像部分を,(D)は傾きが90度の顔画像部分をそれぞれ示している。 顔画像であるとして検出された領域と露出制御に利用されるAE領域との関係を示している。 ディジタル・スチル・カメラの処理手順を示すフローチャートである。 顔検出AFの処理手順を示すフローチャートである。 AF領域設定処理手順を示すフローチャートである。 AF画像上への座標変換処理手順を示すフローチャートである。 顔検出規格化画像と共通座標画像とAF画像との関係を示している。 AF露出設定処理手順を示すフローチャートである。 (A)および(B)はAFフィルタ設定処理手順を示すフローチャートである。 フィルタの特性を示している。 フィルタの特性を示している。 AF評価値と焦点レンズとの関係を示している。 AF評価値と焦点レンズとの関係を示している。 AF評価値解析処理手順を示すフローチャートである。 AF領域拡大処理手順を示すフローチャートである。 (A)〜(D)は被写体像とAF領域との関係を示している。 AF領域拡大処理に用いられる複数の項目とそれらの項目の算出の仕方を示すテーブルである。 下延伸処理手順を示すフローチャートである。 (A)〜(C)は被写体像の一例である。 左延伸処理手順を示すフローチャートである。 (A)〜(C)は被写体像の一例である。 上延伸処理手順を示すフローチャートである。 (A)〜(C)は被写体像の一例である。 右延伸処理手順を示すフローチャートである。 (A)〜(C)は被写体像の一例である。 AF評価値解析処理手順を示すフローチャートである。 顔検出規格化画像の一例である。 焦点レンズの位置とパルス数との関係を示している。 被写体距離の逆数とINF位置からのパルス数との関係を示している。 パン・フォーカス算出処理手順を示すフローチャートである。 AFサーチ範囲設定処理手順を示すフローチャートである。 AFサーチ範囲設定処理手順を示すフローチャートである。 被写体像の一例である。 焦点レンズのレンズ位置とAF評価値との関係を示している。 合焦位置演算処理手順を示すフローチャートである。 焦点レンズのレンズ位置とAF評価値との関係を示している。 合焦位置制御処理手順を示すフローチャートである。
符号の説明
1 制御回路
6 顔抽出処理回路
7 レンズ駆動回路
8 撮像レンズ
12 CCD
20 ディジタル・スチル・カメラ

Claims (27)

  1. 被写体を撮像し,受光面前方に設けられ光軸方向に移動自在な撮像レンズによって結像する被写体像を表す画像データを出力する固体電子撮像装置,
    撮像指令に応じて被写体を撮像し,本撮影前に被写体像を表す撮像画像データを出力するように上記固体電子撮像装置を制御する第1の制御手段,
    上記第1の制御手段による制御のもとに上記固体電子撮像装置から出力される撮像画像データによって表される被写体像の中にある顔または目の全体または一部を含む領域を検出する対象物領域検出手段,
    上記対象物領域検出手段によって検出された顔または目に対応するデータにもとづいて合焦位置に移動するように上記撮像レンズの位置を制御する位置制御手段,
    フィルタ特性を変えることができ,かつ上記対象物領域検出手段によって検出された顔または目に対応するデータのうち上記フィルタ特性の周波数帯域成分を通過するディジタル・フィルタ手段,および
    上記対象物領域検出手段によって検出された顔または目の大きさが小さいほど,通過可能な高周波成分が高くなる上記フィルタ特性となるように上記ディジタル・フィルタ手段を制御するフィルタ制御手段をさらに備え,
    上記位置制御手段は,上記ディジタル・フィルタ手段を通過した上記顔または目に対応するデータにもとづいて合焦位置に移動するように上記撮像レンズの位置を制御するものであ
    上記対象物領域検出手段によって検出された顔または目の領域の全体または一部を含み,かつ同じまたは異なる大きさをもつAF対象領域を決定するAF対象領域決定手段,および
    上記AF対象領域決定手段によって決定された1または複数のAF対象領域の重み付け係数を,顔または目に近いほど係数が大きくなるように決定する重み付け係数決定手段をさらに備え,
    上記位置制御手段が,上記重み付け係数決定手段によって決定された重み付け係数に応じて,1または複数のAF対象領域のそれぞれの領域に対応するデータのレベルを調整して,調整されたデータにもとづいて合焦位置に移動するように上記撮像レンズの位置を制御するものである,
    自動合焦制御装置。
  2. 上記位置制御手段によって上記撮像レンズを位置決めし,本撮影指令に応じて被写体像を本撮影することにより上記固体電子撮像装置から出力される画像データを記録媒体に記録する記録制御手段をさらに備えた請求項1に記載の自動合焦制御装置。
  3. 上記重み付け係数決定手段が,顔または目らしさ,顔または目の大きさ,顔または目の明るさおよび顔または目の位置の少なくとも一つにもとづいて決定されるものである,請求項1に記載の自動合焦制御装置。
  4. 撮像モードの設定手段,および
    上記撮像モードの設定手段によって撮像モードが設定されたことに応じて一定周期で被写体を撮像し,被写体像を表すスルー画像データを一定周期で出力するように上記固体電子撮像装置を制御する第の制御手段,
    をさらに備えた請求項1からのうちいずれか一項に記載の自動合焦制御装置。
  5. 上記第の制御手段による制御のもとに上記固体電子撮像装置から出力されたスルー画像データにもとづいて,上記位置制御手段による制御により上記撮像レンズが移動する合焦範囲を決定する合焦範囲決定手段をさらに備えた請求項に記載の自動合焦制御装置。
  6. 上記位置制御手段が,上記第2の制御手段による制御もとづいて上記固体電子撮像装置からスルー画像データが出力されるときの上記撮像レンズの位置にもとづいて定められる合焦範囲内において上記撮像レンズ移動するものである,請求項4または5に記載の自動合焦制御装置。
  7. 上記位置制御手段が所定の合焦範囲内で上記撮像レンズの位置を制御するものである,請求項1からのうちいずれか一項に記載の自動合焦制御装置。
  8. 上記撮像レンズの位置決めをするマニアル・フォーカス・ダイアルをさらに備え,
    上記合焦範囲が上記マニアル・フォーカス・ダイアルにもとづいて決定されるものである,
    請求項からのうちいずれか一項に記載の自動合焦制御装置。
  9. 上記撮像レンズがズーム・レンズであり,上記ズーム・レンズ位置に対応するフォーカス位置にもとづいて,上記合焦範囲が決定されるものである,請求項からのうちいずれか一項に記載の自動合焦制御装置。
  10. 上記対象物領域検出手段によって検出される顔または目が,顔または目らしさ,顔または目の大きさ,顔または目の明るさおよび顔または目の位置の少なくとも一つにもとづいて検出されるものである,請求項1からのうちいずれか一項に記載の自動合焦制御装置。
  11. 上記固体電子撮像装置から出力された画像データにより表される被写体像を表示する表示装置,および
    上記表示装置に表示された被写体像上において,上記対象物領域検出手段によって検出された顔または目の領域を明示するように上記表示装置を制御する表示制御手段,
    をさらに備えた請求項1から10のうちいずれか一項に記載の自動合焦制御装置。
  12. 上記対象物領域検出手段が,
    上記第1の制御手段のもとに上記固体電子撮像装置から出力された画像データから得られる輝度データにもとづいてAE制御を行うAE制御手段を備え,
    上記輝度データにもとづいて上記顔または目の領域を検出するものである,
    請求項1から11のうちいずれか一項に記載の自動合焦制御装置。
  13. 上記AF対象領域決定手段によって決定されたAF対象領域に対応するデータにもとづいて,上記固体電子撮像装置の露光量を算出する露光量算出手段
    をさらに備えた請求項1から12のうちいずれか一項に記載の自動合焦制御装置。
  14. 上記AF対象領域決定手段は,上記AF対象領域が上記顔または目の領域の内部となるように上記AF対象領域を決定するものである,請求項1から13のうちいずれか一項に記載の自動合焦制御装置。
  15. 上記AF対象領域決定手段は,上記対象物領域検出手段によって複数の顔または目の領域が検出された場合に優先度の高い上記対象物領域にもとづいて上記AF対象領域を決定するものである,請求項1から13のうちいずれか一項に記載の自動合焦制御装置。
  16. 上記優先度は,顔または目の大きさ,顔または目らしさ,位置,明るさ,傾きおよび向きの少なくとも一つに依存するものである,請求項15に記載の自動合焦制御装置。
  17. 上記AF対象領域決定手段は,上記対象物領域検出手段によって複数の顔または目の領域が検出された場合に複数の顔または目の領域の明るさの重み付け平均にもとづいて上記AF対象領域を決定するものである,請求項1から13のうちいずれか一項に記載の自動合焦制御装置。
  18. 上記顔または目の大きさ,顔または目らしさ,位置,明るさ,傾きおよび向き,の少なくとも一つを用いて上記重み付け平均を行うものである,請求項17に記載の自動合焦制御装置。
  19. 上記本撮影の時の露光量または上記本撮影前に被写体を撮像するときの露光量との差が所定範囲内となるように上記露光量算出手段によって算出された露光量を補正する露光量補正手段をさらに備えた請求項13に記載の自動合焦制御装置。
  20. 上記AF対象領域決定手段は,上記顔または目の傾きおよび向きの少なくとも一方にもとづいてAF対象領域を決定するものである,請求項1に記載の自動合焦制御装置。
  21. 上記AF対象領域決定手段において決定される上記AF対象領域の取り得る範囲が上記対象画像部分にもとづいてあらかじめ定められている,請求項20に記載の自動合焦制御装置。
  22. 上記フィルタ制御手段は,上記対象物領域検出手段によって検出された対象物領域の大きさが大きいときよりも小さい方が通過する所望の周波数帯域がより高くなるフィルタ特性となるように上記ディジタル・フィルタ手段を制御するものである,請求項1から21のうちいずれか一項に記載の自動合焦制御装置。
  23. 被写体を撮像したときの被写体像とこの被写体像に含まれる対象物との比率と,被写体を撮像したときのレンズの焦点距離と,被写体までの距離と,の関係をあらかじめ記憶する記憶手段,
    上記対象物領域検出手段によって検出された対象物領域と被写体像との第1の比率を算出する第1の比率算出手段,ならびに
    上記第1の比率算出手段によって算出された第1の比率および上記第1の比率算出手段によって上記第1の比率が算出されたときの上記レンズの焦点距離ならびに上記記憶手段に記憶されている上記比率,上記焦点距離および上記被写体までの距離にもとづいて被写体までの距離を算出する距離算出手段,
    をさらに備えた請求項1から22のうちいずれか一項に記載の自動合焦制御装置。
  24. 上記距離算出手段によって算出された被写体までの距離にもとづいて上記位置制御手段による上記撮像レンズの移動範囲を決定する移動範囲決定手段をさらに備えた請求項23に記載の自動合焦制御装置。
  25. 上記第1の比率算出手段は,上記対象物領域検出手段によって検出された対象物領域が複数あった場合に,最大の大きさの対象物領域と最小の大きさの対象物領域とを用いて,2つの上記第1の比率を算出するものであり,
    上記距離算出手段は,2つの上記第1の比率にもとづいて被写体までの2つの距離を算出するものであり,
    上記移動範囲決定手段は,上記被写体までの2つの距離にもとづいて上記撮像レンズの移動範囲を決定するものである,
    請求項24に記載の自動合焦制御装置。
  26. 上記露光量算出手段は,上記対象物領域検出手段によって複数の顔または目の領域が検出された場合に,いずれか1または複数の顔または目の領域に対応するデータにもとづいて,上記固体電子撮像装置の露光量を算出するものである,請求項13に記載の自動合焦制御装置。
  27. 撮像指令に応じて,固体電子撮像装置を用いて被写体を撮像し,上記固体電子撮像装置の受光面前方に設けられ光軸方向に移動自在な撮像レンズによって結像する被写体像を表す画像データを得,
    対象物領域検出手段が,上記固体電子撮像装置から得られた本撮影前の撮像画像データによって表される被写体像の中に含まれている顔または目の領域を検出し,
    位置制御手段が,検出された顔または目の領域に対応するデータにもとづいて合焦位置に移動するように上記撮像レンズの位置を制御し,
    ディジタル・フィルタ手段が,フィルタ特性を変えることができ,かつ上記対象物領域検出手段によって検出された顔または目の領域に対応するデータのうち上記フィルタ特性の周波数帯域成分を通過し,
    フィルタ制御手段が,上記対象物領域検出手段によって検出された顔または目の領域の大きさが小さいほど,通過可能な高周波成分が高くなる上記フィルタ特性となるように上記ディジタル・フィルタ手段を制御し,
    上記位置制御手段は,上記ディジタル・フィルタ手段を通過した上記顔または目の領域に対応するデータにもとづいて合焦位置に移動するように上記撮像レンズの位置を制御
    重み付け係数決定手段が,上記対象物領域検出手段によって検出された顔または目の領域の全体または一部を含み,かつ同じまたは異なる大きさをもつAF対象領域を決定するAF対象領域決定手段,および
    上記AF対象領域決定手段によって決定された1または複数のAF対象領域に上記対象物の領域に近いほど係数が大きくなる重み付け係数を決定し,
    上記位置制御手段が,上記重み付け係数決定手段によって決定された重み付け係数に応じて,1または複数のAF対象領域のそれぞれの領域に対応するデータのレベルを調整して,調整されたデータにもとづいて合焦位置に移動するように上記撮像レンズの位置を制御するものである,
    自動合焦制御装置の制御方法。
JP2006046123A 2005-06-22 2006-02-23 自動合焦制御装置およびその制御方法 Expired - Fee Related JP4747003B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2006046123A JP4747003B2 (ja) 2005-06-22 2006-02-23 自動合焦制御装置およびその制御方法
US11/471,621 US7702231B2 (en) 2005-06-22 2006-06-21 Autofocus control apparatus and method of controlling the same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005181614 2005-06-22
JP2006046123A JP4747003B2 (ja) 2005-06-22 2006-02-23 自動合焦制御装置およびその制御方法

Publications (3)

Publication Number Publication Date
JP2007034261A JP2007034261A (ja) 2007-02-08
JP2007034261A5 JP2007034261A5 (ja) 2009-10-08
JP4747003B2 true JP4747003B2 (ja) 2011-08-10

Family

ID=37793544

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006046123A Expired - Fee Related JP4747003B2 (ja) 2005-06-22 2006-02-23 自動合焦制御装置およびその制御方法

Country Status (2)

Country Link
US (1) US7702231B2 (ja)
JP (1) JP4747003B2 (ja)

Families Citing this family (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2005026803A1 (ja) * 2003-09-10 2007-11-08 シャープ株式会社 撮影レンズ位置制御装置
JP2007225897A (ja) * 2006-02-23 2007-09-06 Fujifilm Corp 合焦位置決定装置及び方法
JP4985062B2 (ja) * 2006-04-14 2012-07-25 株式会社ニコン カメラ
JP4182117B2 (ja) * 2006-05-10 2008-11-19 キヤノン株式会社 撮像装置及びその制御方法及びプログラム及び記憶媒体
JP4338047B2 (ja) * 2006-07-25 2009-09-30 富士フイルム株式会社 撮像装置
JP4658015B2 (ja) * 2006-10-13 2011-03-23 富士フイルム株式会社 デジタルカメラおよびその制御方法
JP5016909B2 (ja) * 2006-12-15 2012-09-05 キヤノン株式会社 撮像装置
JP4725802B2 (ja) * 2006-12-27 2011-07-13 富士フイルム株式会社 撮影装置、合焦方法および合焦プログラム
KR101310230B1 (ko) * 2007-01-17 2013-09-24 삼성전자주식회사 디지털 촬영장치, 그 제어방법 및 제어방법을 실행시키기위한 프로그램을 저장한 기록매체
KR101323735B1 (ko) * 2007-01-17 2013-10-30 삼성전자주식회사 디지털 촬영장치, 그 제어방법 및 제어방법을 실행시키기위한 프로그램을 저장한 기록매체
JP4873729B2 (ja) * 2007-04-06 2012-02-08 キヤノン株式会社 光学機器
KR101431535B1 (ko) * 2007-08-30 2014-08-19 삼성전자주식회사 얼굴인식 기능을 이용한 영상 촬영 장치 및 방법
JP4946741B2 (ja) * 2007-09-05 2012-06-06 セイコーエプソン株式会社 画像処理装置、画像処理方法、及び画像処理システム
JP4544282B2 (ja) * 2007-09-14 2010-09-15 ソニー株式会社 データ処理装置、およびデータ処理方法、並びにプログラム
JP2009069748A (ja) * 2007-09-18 2009-04-02 Fujifilm Corp 撮像装置およびその自動焦点調節方法
JP4518131B2 (ja) * 2007-10-05 2010-08-04 富士フイルム株式会社 撮像方法及び装置
JP4917509B2 (ja) * 2007-10-16 2012-04-18 ルネサスエレクトロニクス株式会社 オートフォーカス制御回路、オートフォーカス制御方法及び撮像装置
JP2009109839A (ja) * 2007-10-31 2009-05-21 Nikon Corp 画像追尾装置、撮像装置
JP2009115921A (ja) * 2007-11-02 2009-05-28 Olympus Corp 撮像装置
JP2009118009A (ja) * 2007-11-02 2009-05-28 Sony Corp 撮像装置、その制御方法およびプログラム
JP4483930B2 (ja) * 2007-11-05 2010-06-16 ソニー株式会社 撮像装置、その制御方法およびプログラム
JP5048468B2 (ja) 2007-11-28 2012-10-17 富士フイルム株式会社 撮像装置およびその撮像方法
JP5294647B2 (ja) * 2008-02-19 2013-09-18 キヤノン株式会社 焦点調節装置及びその制御方法
JP4981758B2 (ja) * 2008-07-15 2012-07-25 キヤノン株式会社 焦点調節装置及び方法
KR101442615B1 (ko) * 2008-07-31 2014-09-23 삼성전자주식회사 포커스 렌즈의 제어 방법, 상기 방법에 따라 작동하는포커스 렌즈의 제어 장치, 및 상기 방법을 기록한 기록매체
US8090246B2 (en) * 2008-08-08 2012-01-03 Honeywell International Inc. Image acquisition system
JP2010096962A (ja) * 2008-10-16 2010-04-30 Fujinon Corp Af枠自動追尾機能を備えたオートフォーカスシステム
JP5457008B2 (ja) * 2008-10-16 2014-04-02 富士フイルム株式会社 Af枠自動追尾機能を備えたオートフォーカスシステム
JP5517435B2 (ja) 2008-10-22 2014-06-11 キヤノン株式会社 自動合焦装置および自動合焦方法、ならびに、撮像装置
JP4911165B2 (ja) * 2008-12-12 2012-04-04 カシオ計算機株式会社 撮像装置、顔検出方法及びプログラム
JP5075110B2 (ja) * 2008-12-26 2012-11-14 キヤノン株式会社 焦点調節装置及び方法
JP5381486B2 (ja) * 2009-08-13 2014-01-08 ソニー株式会社 撮像装置および方法
JP5500915B2 (ja) * 2009-08-31 2014-05-21 キヤノン株式会社 撮像装置及び露出制御方法
JP2011053255A (ja) 2009-08-31 2011-03-17 Renesas Electronics Corp オートフォーカス装置、オートフォーカス方法及びプログラム
JP5743501B2 (ja) * 2010-11-25 2015-07-01 キヤノン株式会社 物体追尾装置、物体追尾方法、及び物体追尾プログラム
JP5883564B2 (ja) * 2011-02-03 2016-03-15 オリンパス株式会社 撮像装置
US8830378B2 (en) * 2011-03-29 2014-09-09 Olympus Corporation Image capturing system and image capturing method, involving image restoration processing
JP2013143755A (ja) * 2012-01-12 2013-07-22 Xacti Corp 電子カメラ
JP2013218049A (ja) * 2012-04-06 2013-10-24 Sony Corp 撮像装置とフォーカス制御方法およびプログラム
JP5963606B2 (ja) * 2012-08-10 2016-08-03 キヤノン株式会社 撮像装置及びその制御方法
JP2014056169A (ja) * 2012-09-13 2014-03-27 Olympus Imaging Corp 焦点調節装置及び焦点調節方法
JP2014089521A (ja) * 2012-10-29 2014-05-15 Toshiba Corp 検出装置、映像表示システムおよび検出方法
JP5991755B2 (ja) * 2012-11-16 2016-09-14 キヤノン株式会社 自動焦点検出装置およびその制御方法
JP2013167891A (ja) * 2013-04-08 2013-08-29 Canon Inc 撮像装置、撮像装置の制御方法、プログラム及び記憶媒体
WO2014208224A1 (ja) * 2013-06-24 2014-12-31 オリンパスメディカルシステムズ株式会社 オートフォーカス装置
JP2014096817A (ja) * 2013-12-20 2014-05-22 Nikon Corp 焦点調節装置及びカメラ
JP2014149540A (ja) * 2014-03-28 2014-08-21 Canon Inc 焦点調節装置、撮像装置、及びその制御方法
JP5926757B2 (ja) * 2014-03-28 2016-05-25 キヤノン株式会社 自動合焦装置および自動合焦方法、ならびに、撮像装置
US10027883B1 (en) * 2014-06-18 2018-07-17 Amazon Technologies, Inc. Primary user selection for head tracking
US9729865B1 (en) 2014-06-18 2017-08-08 Amazon Technologies, Inc. Object detection and tracking
JP6352150B2 (ja) * 2014-11-06 2018-07-04 株式会社ソシオネクスト 画像処理装置および画像処理方法
WO2016103962A1 (ja) * 2014-12-26 2016-06-30 富士フイルム株式会社 合焦制御装置、撮像装置、合焦制御方法、及び合焦制御プログラム
JP6501536B2 (ja) * 2015-02-02 2019-04-17 キヤノン株式会社 撮像装置及びその制御方法、プログラム、記憶媒体
JP6445887B2 (ja) * 2015-02-09 2018-12-26 キヤノン株式会社 焦点調節装置、撮像装置およびこれらの制御方法、プログラム
US10491804B2 (en) 2016-03-29 2019-11-26 Huawei Technologies Co, Ltd. Focus window determining method, apparatus, and device
JP7129294B2 (ja) * 2018-09-21 2022-09-01 キヤノン株式会社 電子機器および領域選択方法
JP7277149B2 (ja) * 2019-01-18 2023-05-18 キヤノン株式会社 撮像装置及びその制御方法
EP3919958B1 (en) * 2019-01-31 2024-04-03 Panasonic Intellectual Property Management Co., Ltd. Imaging device

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3502978B2 (ja) 1992-01-13 2004-03-02 三菱電機株式会社 映像信号処理装置
US7158182B2 (en) * 2001-09-28 2007-01-02 Nikon Corporation Camera that engages in a focusing operation through a contrast method
US8159561B2 (en) * 2003-10-10 2012-04-17 Nikon Corporation Digital camera with feature extraction device
JP4305119B2 (ja) 2003-10-10 2009-07-29 株式会社ニコン デジタルカメラ
JP4254467B2 (ja) 2003-10-10 2009-04-15 株式会社ニコン デジタルカメラ
JP2006208558A (ja) 2005-01-26 2006-08-10 Canon Inc 撮像装置
JP2007010898A (ja) * 2005-06-29 2007-01-18 Casio Comput Co Ltd 撮像装置及びそのプログラム

Also Published As

Publication number Publication date
US20070064145A1 (en) 2007-03-22
US7702231B2 (en) 2010-04-20
JP2007034261A (ja) 2007-02-08

Similar Documents

Publication Publication Date Title
JP4747003B2 (ja) 自動合焦制御装置およびその制御方法
JP4290100B2 (ja) 撮像装置及びその制御方法
JP4578334B2 (ja) 撮像レンズの合焦位置決定装置およびその方法
US8184171B2 (en) Image pickup apparatus, image processing apparatus, image pickup method, and image processing method
JP4674471B2 (ja) デジタルカメラ
JP5098259B2 (ja) カメラ
US7756408B2 (en) Focus control amount determination apparatus, method, and imaging apparatus
US8073207B2 (en) Method for displaying face detection frame, method for displaying character information, and image-taking device
KR101455018B1 (ko) 촬상 장치, 촬상 방법, 및 컴퓨터 판독 가능한 기록 매체
JP4460560B2 (ja) 撮像装置及び撮影方法
JP4515972B2 (ja) 撮像レンズの合焦位置決定装置およびその方法
JP2008271240A (ja) 撮像装置、画像処理装置、撮像方法、及び画像処理方法
EP2166748A1 (en) Auto focus device
US7957633B2 (en) Focus adjusting apparatus and focus adjusting method
JP5950664B2 (ja) 撮像装置およびその制御方法
JP5144724B2 (ja) 撮像装置、画像処理装置、撮像方法、及び画像処理方法
JP2007133301A (ja) オートフォーカスカメラ
US20200228726A1 (en) Imaging apparatus, and control method and control program therefor
JP4589646B2 (ja) ディジタル・スチル・カメラおよびその制御方法
JP2009219085A (ja) 撮像装置
JP6349703B2 (ja) 電子カメラ及び画像処理プログラム
JP2015118274A (ja) 撮像装置、その制御方法及びプログラム
JP4681899B2 (ja) 撮像装置及び撮像方法
JP6041752B2 (ja) カメラ焦点調整装置
JP5965653B2 (ja) 追尾装置及び追尾方法

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20061212

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080715

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090825

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20090825

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20091013

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091020

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091118

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100331

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20100412

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20100521

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110304

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110516

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140520

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4747003

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees