JP6186521B2 - 合焦制御装置、撮像装置、合焦制御方法、及び合焦制御プログラム - Google Patents

合焦制御装置、撮像装置、合焦制御方法、及び合焦制御プログラム Download PDF

Info

Publication number
JP6186521B2
JP6186521B2 JP2016566026A JP2016566026A JP6186521B2 JP 6186521 B2 JP6186521 B2 JP 6186521B2 JP 2016566026 A JP2016566026 A JP 2016566026A JP 2016566026 A JP2016566026 A JP 2016566026A JP 6186521 B2 JP6186521 B2 JP 6186521B2
Authority
JP
Japan
Prior art keywords
area
focus
eye
focus position
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016566026A
Other languages
English (en)
Other versions
JPWO2016103962A1 (ja
Inventor
貽丹彡 張
貽丹彡 張
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JPWO2016103962A1 publication Critical patent/JPWO2016103962A1/ja
Application granted granted Critical
Publication of JP6186521B2 publication Critical patent/JP6186521B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Ophthalmology & Optometry (AREA)
  • Geometry (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)

Description

本発明は、合焦制御装置、撮像装置、合焦制御方法、及び合焦制御プログラムに関する。
近年、CCD(Charge Coupled Device)イメージセンサ、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の撮像素子の高解像度化に伴い、デジタルスチルカメラ、デジタルビデオカメラ、及びスマートフォン等の撮像機能を有する情報機器の需要が急増している。なお、以上のような撮像機能を有する情報機器を撮像装置と称する。
これら撮像装置では、主要な被写体に焦点を合わせる合焦制御方法として、コントラストAF(Auto Focus、自動合焦)方式や位相差AF方式が採用されている。
コントラストAF方式は、フォーカスレンズを光軸方向に沿って駆動させつつ各駆動段階で得られる撮像画像信号のコントラストを評価値として取得し、最も評価値の高いレンズ位置を合焦位置とする方式である。ここでいうフォーカスレンズとは、光軸方向に移動することで、撮像光学系の焦点距離を調節するレンズである。
撮像画像信号において合焦させるべき領域を示す特定領域(以下、AF領域という)を設定する方法としては様々なものがある。例えば、特許文献1に記載の撮像装置は、撮像素子により撮像された撮像画像信号から、人間の顔と目を抽出し、更に顔の方向を特定し、顔が正面を向いている場合は顔をAF領域として設定し、顔が横を向いている場合は目をAF領域として設定している。
特許文献2に記載の撮像装置は、撮像画像信号に基づいて被写体の中から顔を検出し、さらに目、鼻、口元、口角、瞳等の顔の中の器官を検出し、検出した目をAF領域として設定している。
特許文献3に記載の撮像装置は、撮像画像信号から被写体の目及び鼻、口、耳の候補群を抽出し、抽出した目の候補群の中から条件を満たす一対の候補を目の対と判断する。そして、目の候補群とそれに対応する顔を形成する他のパーツを対応付けて顔領域を検出し、検出した顔領域をAF領域に設定している。
特許文献4に記載の撮像装置は、複数の撮像画像信号の各々から被写体の顔領域を検出し、さらに検出した顔領域から目、口又は鼻等の器官を検出する。そして、顔領域の移動位置を複数の撮像画像信号上で追従し、少なくとも1つの器官の撮像画像信号上での位置を補正したものをAF領域に設定する方法が記載されている。
日本国特開2013−80248号公報 日本国特開2012−231200号公報 日本国特開2012−199986号公報 日本国特開2012−198807号公報
近年の撮像装置では、顔領域に合焦させるだけでなく、目領域にも合焦させたいというユーザ要望が強くなってきている。また、近年の撮像装置では、被写体に合焦させるまでの時間の短縮が求められている。
一方で、撮像画像信号から目領域を検出する処理は、撮像画像信号から顔領域を検出する処理と比べて複雑であり、処理に多くの時間を要する。このため、任意のタイミングで得られた撮像画像信号から顔領域と目領域を同時に検出することは難しい。
したがって、目領域に合焦させようとすると、目領域の検出処理が終わるまで待ってから、検出された目領域に対して評価値を算出することになる。しかし、被写体が動いていた場合には、検出された目領域と、現時点での目領域の位置とにずれが生じる可能性があり、意図した合焦結果を得られない可能性がある。
特許文献1〜4には、このような顔領域と目領域が同じタイミングで検出することが難しいという課題について考慮されていない。
本発明は、上記事情に鑑みてなされたものであり、目領域への合焦を可能にしつつ、意図した合焦結果を得ることのできる合焦制御装置、撮像装置、合焦制御方法、及び合焦制御プログラムを提供することを目的とする。
本発明の合焦制御装置は、光軸方向に移動可能なフォーカスレンズを移動させながら、上記フォーカスレンズの位置毎に、上記フォーカスレンズを通して被写体を撮像する撮像素子により被写体を撮像させ、上記撮像により得られる撮像画像信号に基づいて上記フォーカスレンズの合焦位置を決定する合焦位置決定部と、上記撮像素子により被写体を撮像して得られる撮像画像信号に対し顔検出処理を行う顔検出部と、上記撮像素子により被写体を撮像して得られる撮像画像信号に対し目検出処理を行う目検出部と、任意の時刻において上記撮像素子により撮像して得られた第一の撮像画像信号から上記顔検出部により検出された顔領域と、上記任意の時刻よりも前の時刻において上記撮像素子により撮像して得られた第二の撮像画像信号から上記目検出部により検出された目領域とに基づいて、上記撮像画像信号において合焦させるべき領域を示す特定領域を決定する特定領域決定部と、上記撮像画像信号のうちの上記特定領域決定部により決定された特定領域の信号に基づいて上記合焦位置決定部により決定される合焦位置に上記フォーカスレンズを駆動する駆動部と、を備えるものである。
本発明の撮像装置は、上記合焦制御装置と、上記撮像素子と、を備えるものである。
本発明の合焦制御方法は、光軸方向に移動可能なフォーカスレンズを移動させながら、上記フォーカスレンズの位置毎に、上記フォーカスレンズを通して被写体を撮像する撮像素子により被写体を撮像させ、上記撮像により得られる撮像画像信号に基づいて上記フォーカスレンズの合焦位置を決定する合焦位置決定ステップと、上記撮像素子により被写体を撮像して得られる撮像画像信号に対し顔検出処理を行う顔検出ステップと、上記撮像素子により被写体を撮像して得られる撮像画像信号に対し目検出処理を行う目検出ステップと、任意の時刻において上記撮像素子により撮像して得られた第一の撮像画像信号から上記顔検出ステップにより検出された顔領域と、上記任意の時刻よりも前の時刻において上記撮像素子により撮像して得られた第二の撮像画像信号から上記目検出ステップにより検出された目領域とに基づいて、上記撮像画像信号において合焦させるべき領域を示す特定領域を決定する特定領域決定ステップと、上記撮像画像信号のうちの上記特定領域決定ステップにより決定された特定領域の信号に基づいて上記合焦位置決定ステップにより決定される合焦位置に上記フォーカスレンズを駆動する駆動ステップと、を備えるものである。
本発明の合焦制御プログラムは、光軸方向に移動可能なフォーカスレンズを移動させながら、上記フォーカスレンズの位置毎に、上記フォーカスレンズを通して被写体を撮像する撮像素子により被写体を撮像させ、上記撮像により得られる撮像画像信号に基づいて上記フォーカスレンズの合焦位置を決定する合焦位置決定ステップと、上記撮像素子により被写体を撮像して得られる撮像画像信号に対し顔検出処理を行う顔検出ステップと、上記撮像素子により被写体を撮像して得られる撮像画像信号に対し目検出処理を行う目検出ステップと、任意の時刻において上記撮像素子により撮像して得られた第一の撮像画像信号から上記顔検出ステップにより検出された顔領域と、上記任意の時刻よりも前の時刻において上記撮像素子により撮像して得られた第二の撮像画像信号から上記目検出ステップにより検出された目領域とに基づいて、上記撮像画像信号において合焦させるべき領域を示す特定領域を決定する特定領域決定ステップと、上記撮像画像信号のうちの上記特定領域決定ステップにより決定された特定領域の信号に基づいて上記合焦位置決定ステップにより決定される合焦位置に上記フォーカスレンズを駆動する駆動ステップと、をコンピュータに実行させるためのプログラムである。
本発明によれば、目領域への合焦を可能にしつつ、意図した合焦結果を得ることのできる合焦制御装置、撮像装置、合焦制御方法、及び合焦制御プログラムを提供することができる。
本発明の一実施形態を説明するための撮像装置の一例としてのデジタルカメラの概略構成を示す図である。 図1に示すデジタルカメラにおけるコントラストAF処理部20の機能ブロック図である。 目領域の抽出の一例を示す図である。 顔検出部31で検出される顔領域と、目検出部32で検出される目領域とを時系列で示す図である。 AF領域の決定方法を説明するための図である。 AF領域の決定方法を説明するための他の図である。 図1に示すデジタルカメラのAF動作を説明するためのフローチャートである。 評価値曲線の一例を示す図である。 顔領域Fと、目領域Eと、拡大目領域EZとを例示する図である。 拡大目領域EZの設定の変形例を示す図である。 本発明の撮影装置の一実施形態であるスマートフォン200の外観を示すものである。 図11のスマートフォンの内部ブロック図である。
以下、本発明の実施形態について図面を参照して説明する。
図1は、本発明の一実施形態を説明するための撮像装置の一例としてのデジタルカメラの概略構成を示す図である。
図1に示すデジタルカメラの撮像系は、撮像光学系(撮像レンズ1と絞り2とを含む)と、CCD型やCMOS型等の撮像素子5とを備える。撮像レンズ1及び絞り2を含む撮像光学系は、カメラ本体に着脱可能または固定となっている。撮像レンズ1は、光軸方向に移動可能なフォーカスレンズを含む。
デジタルカメラの電気制御系全体を統括制御するシステム制御部11は、発光部12及び受光部13を制御する。また、システム制御部11は、レンズ駆動部8を制御して撮像レンズ1に含まれるフォーカスレンズの位置を調整する。さらに、システム制御部11は、絞り駆動部9を介して絞り2の開口量を制御することにより、露光量の調整を行う。
また、システム制御部11は、撮像素子駆動部10を介して撮像素子5を駆動し、撮像レンズ1を通して撮像した被写体像を撮像画像信号として出力させる。システム制御部11には、操作部14を通してユーザから指示信号が入力される。撮像画像信号は、X方向とこれに直交するY方向に二次元状に配列された複数の画素信号からなる。
デジタルカメラの電気制御系は、さらに、撮像素子5の出力に接続された相関二重サンプリング処理等のアナログ信号処理を行うアナログ信号処理部6と、アナログ信号処理部6から出力されるアナログ信号をデジタル信号に変換するアナログデジタル変換回路(A/D)7とを備える。アナログ信号処理部6及びアナログデジタル変換回路7は、システム制御部11によって制御される。
さらに、このデジタルカメラの電気制御系は、メインメモリ16と、メインメモリ16に接続されたメモリ制御部15と、アナログデジタル変換回路7から出力される撮像画像信号に対し、補間演算、ガンマ補正演算、及びRGB−YC変換処理等を行って撮像画像データを生成するデジタル信号処理部17と、デジタル信号処理部17で生成された撮像画像データをJPEG(Joint Photographic Experts Group)形式に圧縮したり圧縮画像データを伸張したりする圧縮伸張処理部18と、コントラストAF処理部20と、着脱自在の記録媒体22が接続される外部メモリ制御部21と、カメラ背面等に搭載された表示部24が接続される表示制御部23と、を備えている。
メモリ制御部15、デジタル信号処理部17、圧縮伸張処理部18、コントラストAF処理部20、外部メモリ制御部21、及び表示制御部23は、制御バス25及びデータバス26によって相互に接続され、システム制御部11からの指令によって制御される。
図2は、図1に示すデジタルカメラにおけるコントラストAF処理部20の機能ブロック図である。
コントラストAF処理部20は、顔検出部31と、目検出部32と、AF領域決定部33と、合焦位置決定部34と、を備える。これらの機能ブロックは、システム制御部11に含まれるプロセッサが合焦制御プログラムを実行することによって形成される。
顔検出部31は、撮像素子5から出力されてアナログデジタル変換回路7によりデジタル変換された撮像画像信号に対し周知の顔検出処理を行って、人及び動物の顔を検出する。顔の検出方法としては、複数の顔画像情報を登録した辞書を用いて検出する方法や、テンプレートマッチングを用いて検出する方法などが適用可能である。
顔検出部31は、顔があることを検出すると、撮像画像信号における顔が存在する領域(以下、顔領域という)の座標を顔検出結果として出力する。また、顔検出部31は、検出された顔領域が、デジタルカメラに対し正面を向いている顔なのか、デジタルカメラに対し斜めを向いている顔なのかの顔の向きの情報も顔検出結果として出力する。
目検出部32は、顔検出部31により検出された顔領域の撮像画像信号に対し周知の目検出処理を行って、人及び動物の目を検出する。目検出部32は、目があることを検出すると、撮像画像信号における目が存在する目座標(1点の座標)を中心とする所定の領域(例えば、この目座標を含む顔領域の面積の10%程度の領域)を目領域とし、目領域の座標を目検出結果として出力する。
なお、人や動物の顔がデジタルカメラに対し正面を向いている場合には、左右の目に対応する2つの目領域が目検出部32により検出される。顔がデジタルカメラに対し正面を向いているかどうかは、顔検出部31によって検出することができる。顔検出部31によって検出された顔領域が、デジタルカメラに対し正面を向いている顔を示す領域である場合、目検出部32は、この顔領域から検出される2つの目領域のうちのいずれか一方を目検出結果として出力する。
また、人や動物の顔がデジタルカメラに対し斜めになっている場合にも、左右の目に対応する2つの目領域が目検出部32により検出される。この場合、目検出部32は、目の検出対象となる顔領域の撮像画像信号における位置によって、その顔領域に含まれる左右2つの目の目領域のどちらを目検出結果として出力するかを決定する。
デジタルカメラから見て、デジタルカメラの画角の中心よりも左側にいる人は、右半身が手前に写るように体全体を画角の中心に向ける傾向がある。また、デジタルカメラから見て、デジタルカメラの画角の中心よりも右側にいる人は、左半身が手前に写るように体全体を画角の中心に向ける傾向がある。
つまり、図3(A)に示すように、人の顔が撮像画像信号の中心よりも左側にあれば、この顔から検出される2つの目領域のうち、より左側にある目領域WRが、デジタルカメラにより近い位置にある目を示す領域となる。
また、図3(B)に示すように、人の顔が撮像画像信号の中心よりも右側にあれば、この顔から検出される2つの目領域のうち、より右側にある目領域WLが、デジタルカメラにより近い位置にある目を示す領域となる。
目に合焦させる場合は、デジタルカメラに近い位置にある目に合焦させることで、違和感のない撮像画像を得ることができる。このため、目検出部32は、斜め顔を示す顔領域については、その顔領域の撮像画像信号上での位置に基づいて、デジタルカメラにより近い位置にある目の目領域を目検出結果として出力する。
合焦位置決定部34は、撮像レンズ1に含まれるフォーカスレンズを光軸方向に移動させながら、フォーカスレンズの位置毎に撮像素子5により被写体を撮像させ、この撮像により得られる撮像画像信号に基づいてフォーカスレンズの合焦位置を決定する。
具体的には、合焦位置決定部34は、フォーカスレンズの移動位置毎に得られる撮像画像信号の所定領域のコントラスト値を評価値として算出する。評価値は、例えば、所定領域において、各画素信号における隣接画素信号との輝度の差を積算することで得る。
そして、合焦位置決定部34は、算出した複数の評価値と、この複数の評価値の各々に対応するフォーカスレンズ位置の情報との関係を示す評価値曲線を算出し、その評価値曲線において評価値が最大となるフォーカスレンズの位置を合焦位置として決定する。
AF領域決定部33は、任意の時刻においてコントラストAFの指示(以下、AF指示という)があると、この任意の時刻において撮像素子5により撮像して得られた第一の撮像画像信号から顔検出部31により検出された顔領域と、この任意の時刻よりも前の時刻において撮像素子5により撮像して得られた第二の撮像画像信号から目検出部32により検出された目領域と、に基づいて、撮像素子5から出力される撮像画像信号において合焦させるべき領域を示す特定領域であるAF領域を決定する。AF領域決定部33は、特定領域決定部として機能する。
図4は、顔検出部31で検出される顔領域と、目検出部32で検出される目領域とを時系列で示す図である。
図4に示すように、時刻T1〜T4において、顔検出部31により正方形の顔領域W1〜W4が検出される。ここでは、精度よくコントラストAFを行うために、顔検出部31は、顔領域W1と時刻T1よりも前に検出された顔領域とを平均して、顔領域WW1を得る。
同様に、顔検出部31は、顔領域W2と時刻T1で得られた顔領域WW1とを平均して顔領域WW2を得る。また、顔検出部31は、顔領域W3と時刻T2で得られた顔領域WW2とを平均して顔領域WW3を得る。また、顔検出部31は、顔領域W4と時刻T3で得られた顔領域WW3とを平均して顔領域WW4を得る。
例えば、顔領域W2の中心座標T2(x、y)及び顔領域W2の一辺の長さT2(L)と、時刻T1で得られた顔領域WW1の中心座標(X1、Y1)及び顔領域WW1の一辺の長さL1とを用いて、次式(1)により、平均された顔領域WW2の中心座標(X2、Y2)及び顔領域WW2の一辺の長さL2が算出される。
X2=(T2(x)+X1)/2
Y2=(T2(y)+Y1)/2
L2=(T2(L)+L1))/2・・・(1)
時刻T1において行われる、顔領域WW1内の撮像画像信号に対する目検出部32の目検出処理結果と、時刻T2において行われる、顔領域WW2内の撮像画像信号に対する目検出部32の目検出処理結果とは、顔検出処理結果に比べ、検出に時間がかかるため、時刻T3と時刻T4でそれぞれ出力される。
時刻T3において目検出部32から出力される目領域E1は、顔領域W1から検出された目座標P1を含む目領域と、時刻T2で出力された目領域とを平均したものとなる。目領域E1の中心座標が時刻T3において目検出部32から出力された目座標PP1となる。
同様に、時刻T4において目検出部32から出力される目領域E2は、顔領域W2から検出された目座標P2を含む目領域と、時刻T3で出力された目領域E1とを平均したものとなる。目領域E2の中心座標が時刻T4において目検出部32から出力された目座標PP2となる。
顔検出部31により検出される顔領域の大きさは、顔領域W1〜W4に例示されるように、同じ被写体であっても変動することがある。このため、この顔領域の大きさのばらつきを平均によって最小限に抑えることで、AF領域の決定精度を向上させることができる。
また、目領域についても、顔領域の大きさに対して目領域の大きさを決める場合には、同じ被写体であっても、顔領域の変動につられて目領域の大きさは変動する可能性がある。このため、平均処理を行うことが有効となる。なお、顔領域と目領域の各々の平均処理は必須ではない。
図4の例において、時刻T4においてAF指示がユーザによりなされると、AF領域決定部33は、時刻T4で検出された顔領域WW4と、時刻T4で出力された目領域E2とに基づいてAF領域を決定する。
例えば、AF領域決定部33は、図5に示すように、時刻T4で検出された顔領域WW4の中に、時刻T4で出力された目領域E2の中心座標PP2が存在する場合には、顔領域WW4と目領域E2のいずれかをAF領域として決定する。
また、AF領域決定部33は、図6に示すように、時刻T4で検出された顔領域WW4の外に、時刻T4で出力された目領域E2の中心座標PP2が存在する場合には、顔領域WW4をAF領域として決定する。このような場合は、時刻T2から時刻T4の間に被写体が大きく移動しており、目領域E2の検出精度が低い(実際の目ではなく、背景等を目領域E2としている可能性が高い)と判断できるため、顔領域WW4がAF領域として決定される。
図7は、図1に示すデジタルカメラのAF動作を説明するためのフローチャートである。図7の処理は、操作部14のシャッタボタンが押される等して、AF指示がシステム制御部11に入力されることで開始される。
AF指示がなされると、システム制御部11は、フォーカスレンズを移動させながら撮像素子5により被写体を撮像させる(ステップS0)。この各撮像のうち、最初に行われた撮像によって得られた撮像画像信号を撮像画像信号IAとする。
顔検出部31は、撮像画像信号IAを取得すると、撮像画像信号IAに顔検出処理を施し、顔検出結果(顔領域の座標)を出力する。この顔検出処理と並行して、目検出部32は、撮像画像信号IAが得られた時刻よりも前の時刻で撮像素子5により撮像して得られた撮像画像信号IBに対する目検出処理の結果(目領域の座標)を出力する(ステップS1)。
次に、AF領域決定部33は、ステップS1で検出された顔領域(以下、顔領域Fとする)と目領域(以下、目領域Eとする)とを比較し、顔領域Fの中に目領域Eの中心が存在するか否かを判定する(ステップS2)。
AF領域決定部33は、顔領域Fの中に目領域Eの中心が存在しない場合、言い換えると、顔領域Fの外に目領域Eの中心が存在する場合(ステップS2:NO)は、顔領域FをAF領域に決定する(ステップS11)。
ステップS11の後、合焦位置決定部34は、ステップS0の各撮像により得られる撮像画像信号のうちのステップS11で決定されたAF領域の信号に基づいて、フォーカスレンズの位置毎に評価値を算出し、評価値が最大となるフォーカスレンズの位置を第一の合焦位置G1として決定する。
第一の合焦位置G1が決定されると、システム制御部11は、レンズ駆動部8を制御して、この第一の合焦位置G1にフォーカスレンズを駆動し(ステップS12)、AF動作を終了する。システム制御部11は、駆動部として機能する。この駆動部は、システム制御部11に含まれるプロセッサが合焦制御プログラムを実行することによって実現される機能ブロックである。合焦制御プログラムを実行したシステム制御部11とコントラストAF処理部20は合焦制御装置として機能する。
ステップS2の判定がYESの場合、合焦位置決定部34は、ステップS0の各撮像で得られた撮像画像信号のうちのステップS1で検出された顔領域Fの信号に基づいて、フォーカスレンズ位置毎に評価値を算出し、評価値が最大となるフォーカスレンズの第一の合焦位置G1を決定する(ステップS3)。
また、合焦位置決定部34は、ステップS0の各撮像で得られた撮像画像信号のうちのステップS1で検出された目領域Eの信号に基づいて、フォーカスレンズの位置毎に評価値を算出し、評価値が最大となるフォーカスレンズの第二の合焦位置G2を決定する(ステップS4)。
目領域Eは顔領域Fに比べると小さい領域である。このため、目領域Eについては、評価値曲線が図8に例示されるようなものとなり、第二の合焦位置G2を一意に決定できない場合がある。このため、AF領域決定部33は、ステップS4の後、ステップS4の処理によって第二の合焦位置G2が決定できたか否かを判定する(ステップS5)。
ステップS4の処理によって第二の合焦位置G2が決定できた場合(ステップS5:NO)、AF領域決定部33は、第一の合焦位置G1と第二の合焦位置G2との比較を行う。具体的には、AF領域決定部33は、第一の合焦位置G1と第二の合焦位置G2との差が第一の閾値TH1未満であり、かつ、第二の合焦位置G2が第一の合焦位置G1よりも撮像素子5側にあるか否かを判定する(ステップS6)。
ステップS6の判定がYESのとき、AF領域決定部33は、目領域EをAF領域に決定する(ステップS7)。ステップS7の後、システム制御部11は、レンズ駆動部8を制御して、第二の合焦位置G2にフォーカスレンズを駆動し(ステップS8)、AF動作を終了する。
ステップS6の判定がNOのとき、AF領域決定部33は、顔領域FをAF領域に決定する(ステップS9)。ステップS9の後、システム制御部11は、レンズ駆動部8を制御して、第一の合焦位置G1にフォーカスレンズを駆動し(ステップS10)、AF動作を終了する。
目領域Eの信号が、顔領域Fに含まれる目を撮像して得られたものであれば、顔領域Fの信号に基づく第一の合焦位置G1と目領域Eの信号に基づく第二の合焦位置G2とに大きな差は生じない。このため、第一の合焦位置G1と第二の合焦位置G2との差が大きいということは、目領域Eの信号が、顔領域に含まれる目とは違う部分(例えば背景)を撮像して得られたものである可能性が高い。そのため、ステップS6の判定において、第一の合焦位置G1と第二の合焦位置G2との差が第一の閾値TH1以上のときには、目領域Eの信頼性は低いとして、AF領域決定部33は、顔領域FをAF領域に決定する。
また、第一の合焦位置G1と第二の合焦位置G2との差が第一の閾値TH1未満であっても、目領域Eの信号に基づいて決められる第二の合焦位置G2が、顔領域Fの信号に基づいて決められる第一の合焦位置G1よりも被写体側にある場合は、第二の合焦位置G2にフォーカスレンズを駆動してしまうと、顔領域Fにおいて大部分にフォーカスが合わない可能性が生じ、顔をはっきりと撮像することができない可能性がある。このような状況を避けるために、ステップS6の判定において、第一の合焦位置G1と第二の合焦位置G2との差が第一の閾値TH1未満でかつ、第二の合焦位置G2が第一の合焦位置G1よりも撮像素子5側にある場合にのみ、目領域EをAF領域として決定している。
ステップS5の判定がYESのとき、AF領域決定部33は、目領域Eを含む、目領域Eを拡大した拡大目領域EZを設定する(ステップS13)。その後、合焦位置決定部34は、ステップS0の各撮像で得られた撮像画像信号のうちのステップS13で設定された拡大目領域EZの信号に基づいて、フォーカスレンズの位置毎に評価値を算出し、評価値が最大となるフォーカスレンズの第三の合焦位置G3を決定する(ステップS14)。
目領域Eを拡大した拡大目領域EZは、情報量が目領域Eよりも増える。このため、拡大目領域EZについては、目領域Eよりも、合焦位置を決定できる可能性を高くすることができる。
図9は、顔領域Fと、目領域Eと、拡大目領域EZとを例示する図である。
図9の例では、拡大目領域EZの中心座標が、目領域Eの中心座標よりも、目領域Eを含む顔領域Fの中心に近づく方向にずれている。
拡大目領域の中心座標が、目領域Eの中心座標よりも顔領域Fの中心に近づく方向にずれるとは、目領域Eの中心座標を起点とし、顔領域Fの中心座標を終点とするベクトルをX方向成分とY方向成分に分解したときに、目領域Eの中心座標からX方向成分ベクトルの向く方向に所定量ずれた位置に拡大目領域EZの中心座標がある状態と、目領域Eの中心座標からY方向成分ベクトルの向く方向に所定量ずれた位置に拡大目領域EZの中心座標がある状態と、目領域Eの中心座標からX方向成分ベクトルの向く方向とY方向成分ベクトルの向く方向とにそれぞれ所定量ずれた位置に拡大目領域の中心座標がある状態と、を含む。
図9のように拡大目領域EZを設定することで、拡大目領域EZが顔領域Fからはみ出してしまう可能性を低くすることができる。拡大目領域EZが顔領域Fの外に出ないことで、拡大目領域EZの信号に基づいて合焦位置が決定されて、この合焦位置にフォーカスレンズが駆動された場合でも、顔以外の部分に焦点が合うのを防いで、合焦精度を高めることができる。
なお、拡大目領域EZの中心座標が、目領域Eの中心座標よりも、目領域Eを含む顔領域Fの中心に近づく方向にずれていても、例えば、図10に示すように、拡大目領域EZの一部が顔領域Fの外に出てしまう場合がある。
このような場合、AF領域決定部33は、拡大目領域EZのうち顔領域Fよりも外側にある部分(図10において斜線が施された領域)を除外して拡大目領域EZを設定することが好ましい。これにより、拡大目領域EZの信号に基づいて合焦位置が決定されて、この合焦位置にフォーカスレンズが駆動された場合でも、顔以外の部分に焦点が合うのを確実に防いで、合焦精度を高めることができる。
拡大目領域EZは顔領域Fに比べると小さい領域である。このため、拡大目領域EZについても、評価値曲線が図8に例示されるようなものになる可能性はあり、第三の合焦位置G3を一意に決定できない場合がある。このため、AF領域決定部33は、ステップS14の後、ステップS14の処理によって第三の合焦位置G3が決定できたか否かを判定する(ステップS15)。
ステップS14の処理によって第三の合焦位置G3が決定できた場合(ステップS15:NO)、AF領域決定部33は、第一の合焦位置G1と第三の合焦位置G3との比較を行う。具体的には、AF領域決定部33は、第一の合焦位置G1と第三の合焦位置G3との差が第二の閾値TH2未満であり、かつ、第三の合焦位置G3が第一の合焦位置G1よりも撮像素子5側にあるか否かを判定する(ステップS16)。
ステップS16の判定がYESのとき、AF領域決定部33は、拡大目領域EZをAF領域に決定する(ステップS17)。ステップS17の後、システム制御部11は、レンズ駆動部8を制御して、第三の合焦位置G3にフォーカスレンズを駆動し(ステップS18)、AF動作を終了する。
ステップS16の判定がNOのとき、AF領域決定部33は、顔領域FをAF領域に決定する(ステップS9)。ステップS9の後、システム制御部11は、レンズ駆動部8を制御して、第一の合焦位置G1にフォーカスレンズを駆動し(ステップS10)、AF動作を終了する。
拡大目領域EZの信号が、顔領域Fに含まれる目を含む範囲を撮像して得られたものであれば、顔領域Fの信号に基づく第一の合焦位置G1と拡大目領域EZの信号に基づく第三の合焦位置G3とに大きな差は生じない。
このため、第一の合焦位置G1と第三の合焦位置G3との差が大きいということは、拡大目領域EZの信号が、顔領域に含まれる目とは違う部分(例えば背景)を撮像して得られたものである可能性が高い。したがって、ステップS16の判定において、第一の合焦位置G1と第三の合焦位置G3との差が第二の閾値TH2以上のときには、拡大目領域EZの信頼性は低いとして、AF領域決定部33は、顔領域FをAF領域に決定する。
また、第一の合焦位置G1と第三の合焦位置G3との差が第二の閾値TH2未満であっても、拡大目領域EZの信号に基づいて決められる第三の合焦位置G3が、顔領域Fの信号に基づいて決められる第一の合焦位置G1よりも被写体側にある場合は、第三の合焦位置G3にフォーカスレンズを駆動してしまうと、顔領域Fの大部分においてフォーカスが合わない可能性が生じ、顔をはっきりと撮像することができない可能性がある。
このような状況を避けるために、ステップS16の判定において、第一の合焦位置G1と第三の合焦位置G3との差が第二の閾値TH2未満でかつ、第三の合焦位置G3が第一の合焦位置G1よりも撮像素子5側にある場合にのみ、拡大目領域EZをAF領域として決定している。
以上のように、図1に示すデジタルカメラは、任意の時刻に検出された顔領域と、この任意の時刻よりも前に得られた撮像画像信号から検出された目領域との関係によって、目領域と顔領域のどちらをAF領域にしてフォーカスレンズの駆動を行うかを決めることができる。
このため、被写体が動くことによって顔領域と目領域との位置に大きな差が生じた場合でも、誤合焦する確率を減らして、安定したAF動作を実現することができる。また、被写体が動いていない場合、つまり、顔領域の中に目領域の中心が存在する場合には、目領域と顔領域のうちの合焦精度が高くなる方の信号に基づいて決められた合焦位置にフォーカスレンズを駆動することができる。このため、被写体が動いていない場合には、精度の高いAF動作を行うことができる。
また、第二の合焦位置G2が決定不能の場合でも、拡大目領域EZが設定されて、この拡大目領域EZの信号に基づいて第三の合焦位置G3の決定が行われる。そして、第三の合焦位置G3が決定できた場合には、第三の合焦位置G3にフォーカスレンズを駆動することが可能となるため、目付近に焦点を合わせた撮像が行われる可能性を増やすことができる。
また、第二の合焦位置G2及び第三の合焦位置G3にフォーカスレンズを駆動すると合焦精度が低下すると想定される場合(ステップS6:NO、及び、ステップS16:NO)には、顔領域がAF領域として決定される。このため、どのような状況であっても、少なくとも顔領域には焦点を合わせた撮像が可能となり、合焦精度を確保することができる。
なお、AF指示がシステム制御部11に入力されると、表示制御部23は、ライブビュー画像を表示部24に表示させるとともに、AF動作時には、顔領域と目領域を示す情報(例えば、顔枠と目枠)を表示部24に表示させてもよい。
ただし、目領域を示す情報については、ステップS2の判定がYESになったときにだけ表示させるようにするとよい。このようにすることで、目のないところに目枠が表示されることはなくなり、ユーザに違和感を与えずにすむ。
さらに、ステップS7、ステップS9、及びステップS11の処理が行われたときに、表示制御部23は、AF領域として決定された領域を示す枠を強調表示させ、AF領域として決定されなかった枠の色や輝度を変更したりしてもよい。これにより、どの領域に焦点が合わせられているのかをユーザが直感的に認識することができる。
次に、撮像装置としてスマートフォンの構成について説明する。
図11は、本発明の撮影装置の一実施形態であるスマートフォン200の外観を示すものである。図11に示すスマートフォン200は、平板状の筐体201を有し、筐体201の一方の面に表示部としての表示パネル202と、入力部としての操作パネル203とが一体となった表示入力部204を備えている。また、この様な筐体201は、スピーカ205と、マイクロホン206と、操作部207と、カメラ部208とを備えている。なお、筐体201の構成はこれに限定されず、例えば、表示部と入力部とが独立した構成を採用したり、折り畳み構造やスライド機構を有する構成を採用したりすることもできる。
図12は、図11に示すスマートフォン200の構成を示すブロック図である。図12に示すように、スマートフォンの主たる構成要素として、無線通信部210と、表示入力部204と、通話部211と、操作部207と、カメラ部208と、記憶部212と、外部入出力部213と、GPS(Global Positioning System)受信部214と、モーションセンサ部215と、電源部216と、主制御部220とを備える。また、スマートフォン200の主たる機能として、図示省略の基地局装置と図示省略の移動通信網とを介した移動無線通信を行う無線通信機能を備える。
無線通信部210は、主制御部220の指示にしたがって、移動通信網に収容された基地局装置に対し無線通信を行うものである。この無線通信を使用して、音声データ、画像データ等の各種ファイルデータ、電子メールデータなどの送受信や、Webデータやストリーミングデータなどの受信を行う。
表示入力部204は、主制御部220の制御により、画像(静止画像及び動画像)や文字情報などを表示して視覚的にユーザに情報を伝達するとともに、表示した情報に対するユーザ操作を検出する、いわゆるタッチパネルであって、表示パネル202と、操作パネル203とを備える。
表示パネル202は、LCD(Liquid Crystal Display)、OELD(Organic Electro−Luminescence Display)などを表示デバイスとして用いたものである。
操作パネル203は、表示パネル202の表示面上に表示される画像を視認可能に載置され、ユーザの指や尖筆によって操作される一又は複数の座標を検出するデバイスである。このデバイスをユーザの指や尖筆によって操作すると、操作に起因して発生する検出信号を主制御部220に出力する。次いで、主制御部220は、受信した検出信号に基づいて、表示パネル202上の操作位置(座標)を検出する。
図12に示すように、本発明の撮影装置の一実施形態として例示しているスマートフォン200の表示パネル202と操作パネル203とは一体となって表示入力部204を構成しているが、操作パネル203が表示パネル202を完全に覆うような配置となっている。
係る配置を採用した場合、操作パネル203は、表示パネル202外の領域についても、ユーザ操作を検出する機能を備えてもよい。換言すると、操作パネル203は、表示パネル202に重なる重畳部分についての検出領域(以下、表示領域と称する)と、それ以外の表示パネル202に重ならない外縁部分についての検出領域(以下、非表示領域と称する)とを備えていてもよい。
なお、表示領域の大きさと表示パネル202の大きさとを完全に一致させても良いが、両者を必ずしも一致させる必要は無い。また、操作パネル203が、外縁部分と、それ以外の内側部分の2つの感応領域を備えていてもよい。さらに、外縁部分の幅は、筐体201の大きさなどに応じて適宜設計されるものである。さらにまた、操作パネル203で採用される位置検出方式としては、マトリクススイッチ方式、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式、静電容量方式などが挙げられ、いずれの方式を採用することもできる。
通話部211は、スピーカ205やマイクロホン206を備え、マイクロホン206を通じて入力されたユーザの音声を主制御部220にて処理可能な音声データに変換して主制御部220に出力したり、無線通信部210あるいは外部入出力部213により受信された音声データを復号してスピーカ205から出力させたりするものである。また、図18に示すように、例えば、スピーカ205を表示入力部204が設けられた面と同じ面に搭載し、マイクロホン206を筐体201の側面に搭載することができる。
操作部207は、キースイッチなどを用いたハードウェアキーであって、ユーザからの指示を受け付けるものである。例えば、図11に示すように、操作部207は、スマートフォン200の筐体201の側面に搭載され、指などで押下されるとオンとなり、指を離すとバネなどの復元力によってオフ状態となる押しボタン式のスイッチである。
記憶部212は、主制御部220の制御プログラムや制御データ、アプリケーションソフトウェア、通信相手の名称や電話番号などを対応づけたアドレスデータ、送受信した電子メールのデータ、ウェブブラウジングによりダウンロードしたウェブデータや、ダウンロードしたコンテンツデータを記憶し、またストリーミングデータなどを一時的に記憶するものである。また、記憶部212は、スマートフォン内蔵の内部記憶部217と着脱自在な外部メモリスロットを有する外部記憶部218により構成される。なお、記憶部212を構成するそれぞれの内部記憶部217と外部記憶部218は、フラッシュメモリタイプ、ハードディスクタイプ、マルチメディアカードマイクロタイプ、カードタイプのメモリ、RAM(Random Access Memory)、ROM(Read Only Memory)などの格納媒体を用いて実現される。
外部入出力部213は、スマートフォン200に連結される全ての外部機器とのインターフェースの役割を果たすものであり、他の外部機器に通信等(例えば、ユニバーサルシリアルバス、IEEE1394など)又はネットワーク(例えば、インターネット、無線LAN(Local Area Network)、ブルートゥース(Bluetooth)(登録商標)、RFID(Radio Frequency Identification)、赤外線通信、UWB(Ultra Wideband)(登録商標)、ジグビー(ZigBee)(登録商標)など)により直接的又は間接的に接続するためのものである。
スマートフォン200に連結される外部機器としては、例えば、有線又は無線ヘッドセット、有線又は無線外部充電器、有線又は無線データポート、カードソケットを介して接続されるメモリカードやSIM(Subscriber Identity Module)カード、UIM(User Identity Module Card)カード、オーディオビデオI/O(Input/Output)端子を介して接続される外部オーディオビデオ機器、無線接続される外部オーディオビデオ機器、有線又は無線接続されるスマートフォン、有線又は無線接続されるパーソナルコンピュータ、有線又は無線接続されるパーソナルコンピュータ、イヤホンなどがある。外部入出力部213は、このような外部機器から伝送を受けたデータをスマートフォン200の内部の各構成要素に伝達することや、スマートフォン200の内部のデータが外部機器に伝送されるようにすることができる。
GPS受信部214は、主制御部220の指示にしたがって、GPS衛星ST1〜STnから送信されるGPS信号を受信し、受信した複数のGPS信号に基づく測位演算処理を実行し、スマートフォン200の緯度、経度、高度からなる位置を検出する。GPS受信部214は、無線通信部210や外部入出力部213(例えば、無線LAN)から位置情報を取得できる時には、その位置情報を用いて位置を検出することもできる。
モーションセンサ部215は、例えば、3軸の加速度センサなどを備え、主制御部220の指示にしたがって、スマートフォン200の物理的な動きを検出する。スマートフォン200の物理的な動きを検出することにより、スマートフォン200の動く方向や加速度が検出される。係る検出結果は、主制御部220に出力されるものである。
電源部216は、主制御部220の指示にしたがって、スマートフォン200の各部に、バッテリ(図示しない)に蓄えられる電力を供給するものである。
主制御部220は、マイクロプロセッサを備え、記憶部212が記憶する制御プログラムや制御データにしたがって動作し、スマートフォン200の各部を統括して制御するものである。また、主制御部220は、無線通信部210を通じて、音声通信やデータ通信を行うために、通信系の各部を制御する移動通信制御機能と、アプリケーション処理機能を備える。
アプリケーション処理機能は、記憶部212が記憶するアプリケーションソフトウェアにしたがって主制御部220が動作することにより実現するものである。アプリケーション処理機能としては、例えば、外部入出力部213を制御して対向機器とデータ通信を行う赤外線通信機能や、電子メールの送受信を行う電子メール機能、Webページを閲覧するWebブラウジング機能などがある。
また、主制御部220は、受信データやダウンロードしたストリーミングデータなどの画像データ(静止画像や動画像のデータ)に基づいて、映像を表示入力部204に表示する等の画像処理機能を備える。画像処理機能とは、主制御部220が、上記画像データを復号し、この復号結果に画像処理を施して、画像を表示入力部204に表示する機能のことをいう。
さらに、主制御部220は、表示パネル202に対する表示制御と、操作部207、操作パネル203を通じたユーザ操作を検出する操作検出制御を実行する。表示制御の実行により、主制御部220は、アプリケーションソフトウェアを起動するためのアイコンや、スクロールバーなどのソフトウェアキーを表示したり、あるいは電子メールを作成したりするためのウィンドウを表示する。なお、スクロールバーとは、表示パネル202の表示領域に収まりきれない大きな画像などについて、画像の表示部分を移動する指示を受け付けるためのソフトウェアキーのことをいう。
また、操作検出制御の実行により、主制御部220は、操作部207を通じたユーザ操作を検出したり、操作パネル203を通じて、上記アイコンに対する操作や、上記ウィンドウの入力欄に対する文字列の入力を受け付けたり、あるいは、スクロールバーを通じた表示画像のスクロール要求を受け付ける。
さらに、操作検出制御の実行により主制御部220は、操作パネル203に対する操作位置が、表示パネル202に重なる重畳部分(表示領域)か、それ以外の表示パネル202に重ならない外縁部分(非表示領域)かを判定し、操作パネル203の感応領域や、ソフトウェアキーの表示位置を制御するタッチパネル制御機能を備える。
また、主制御部220は、操作パネル203に対するジェスチャ操作を検出し、検出したジェスチャ操作に応じて、予め設定された機能を実行することもできる。ジェスチャ操作とは、従来の単純なタッチ操作ではなく、指などによって軌跡を描いたり、複数の位置を同時に指定したり、あるいはこれらを組み合わせて、複数の位置から少なくとも1つについて軌跡を描く操作を意味する。
カメラ部208は、図1に示したデジタルカメラにおける外部メモリ制御部21、記録媒体22、表示制御部23、表示部24、及び操作部14以外の構成を含む。カメラ部208によって生成された撮像画像データは、記憶部212に記録したり、外部入出力部213や無線通信部210を通じて出力したりすることができる。図11に示すにスマートフォン200において、カメラ部208は表示入力部204と同じ面に搭載されているが、カメラ部208の搭載位置はこれに限らず、表示入力部204の背面に搭載されてもよい。
また、カメラ部208はスマートフォン200の各種機能に利用することができる。例えば、表示パネル202にカメラ部208で取得した画像を表示することや、操作パネル203の操作入力のひとつとして、カメラ部208の画像を利用することができる。また、GPS受信部214が位置を検出する際に、カメラ部208からの画像を参照して位置を検出することもできる。さらには、カメラ部208からの画像を参照して、3軸の加速度センサを用いずに、或いは、3軸の加速度センサと併用して、スマートフォン200のカメラ部208の光軸方向を判断することや、現在の使用環境を判断することもできる。勿論、カメラ部208からの画像をアプリケーションソフトウェア内で利用することもできる。
その他、静止画又は動画の画像データにGPS受信部214により取得した位置情報、マイクロホン206により取得した音声情報(主制御部等により、音声テキスト変換を行ってテキスト情報となっていてもよい)、モーションセンサ部215により取得した姿勢情報等などを付加して記録部212に記録したり、外部入出力部213や無線通信部210を通じて出力したりすることもできる。
以上のような構成のスマートフォン200においても、カメラ部208に図1のコントラストAF処理部20を設けることで、高精度の合焦制御が可能になる。
以上説明してきたように、本明細書には以下の事項が開示されている。
開示された合焦制御装置は、光軸方向に移動可能なフォーカスレンズを移動させながら、上記フォーカスレンズの位置毎に、上記フォーカスレンズを通して被写体を撮像する撮像素子により被写体を撮像させ、上記撮像により得られる撮像画像信号に基づいて上記フォーカスレンズの合焦位置を決定する合焦位置決定部と、上記撮像素子により被写体を撮像して得られる撮像画像信号に対し顔検出処理を行う顔検出部と、上記撮像素子により被写体を撮像して得られる撮像画像信号に対し目検出処理を行う目検出部と、任意の時刻において上記撮像素子により撮像して得られた第一の撮像画像信号から上記顔検出部により検出された顔領域と、上記任意の時刻よりも前の時刻において上記撮像素子により撮像して得られた第二の撮像画像信号から上記目検出部により検出された目領域とに基づいて、上記撮像画像信号において合焦させるべき領域を示す特定領域を決定する特定領域決定部と、上記撮像画像信号のうちの上記特定領域決定部により決定された特定領域の信号に基づいて上記合焦位置決定部により決定される合焦位置に上記フォーカスレンズを駆動する駆動部と、を備えるものである。
開示された合焦制御装置は、上記特定領域決定部は、上記顔領域の外に、上記目領域の中心が存在する場合には、上記顔領域を上記特定領域として決定するものである。
開示された合焦制御装置は、上記特定領域決定部は、上記顔領域の中に、上記目領域の中心が存在する場合には、上記撮像画像信号のうちの上記顔領域の信号に基づいて上記合焦位置決定部により決定される上記フォーカスレンズの第一の合焦位置と、上記撮像画像信号のうちの上記目領域の信号に基づいて上記合焦位置決定部により決定される上記フォーカスレンズの第二の合焦位置と、の比較により、上記顔領域と上記目領域のいずれかを上記特定領域として決定するものである。
開示された合焦制御装置は、上記特定領域決定部は、上記第一の合焦位置と上記第二の合焦位置との差が第一の閾値未満であり、かつ、上記第二の合焦位置が上記第一の合焦位置よりも上記撮像素子側にある場合に、上記目領域を上記特定領域として決定するものである。
開示された合焦制御装置は、上記特定領域決定部は、上記第二の合焦位置が決定不能の場合に、上記撮像画像信号のうちの上記目領域を拡大した拡大目領域の信号に基づいて上記合焦位置決定部により決定される上記フォーカスレンズの第三の合焦位置と、上記第一の合焦位置と、の比較により、上記顔領域と上記拡大目領域のいずれかを上記特定領域として決定するものである。
開示された合焦制御装置は、上記特定領域決定部は、上記第一の合焦位置と上記第三の合焦位置との差が第二の閾値未満であり、かつ、上記第三の合焦位置が上記第一の合焦位置よりも上記撮像素子側にある場合に、上記拡大目領域を上記特定領域として決定するものである。
開示された合焦制御装置は、上記特定領域決定部は、上記拡大目領域の中心を、上記目領域の中心よりも上記顔領域の中心に近づける方向にずらすものである。
開示された合焦制御装置は、上記特定領域決定部は、上記拡大目領域のうち、上記顔領域よりも外側にある部分を上記拡大目領域から除外するものである。
開示された撮像装置は、上記合焦制御装置と、上記撮像素子と、を備えるものである。
開示された合焦制御方法は、光軸方向に移動可能なフォーカスレンズを移動させながら、上記フォーカスレンズの位置毎に、上記フォーカスレンズを通して被写体を撮像する撮像素子により被写体を撮像させ、上記撮像により得られる撮像画像信号に基づいて上記フォーカスレンズの合焦位置を決定する合焦位置決定ステップと、上記撮像素子により被写体を撮像して得られる撮像画像信号に対し顔検出処理を行う顔検出ステップと、上記撮像素子により被写体を撮像して得られる撮像画像信号に対し目検出処理を行う目検出ステップと、任意の時刻において上記撮像素子により撮像して得られた第一の撮像画像信号から上記顔検出ステップにより検出された顔領域と、上記任意の時刻よりも前の時刻において上記撮像素子により撮像して得られた第二の撮像画像信号から上記目検出ステップにより検出された目領域とに基づいて、上記撮像画像信号において合焦させるべき領域を示す特定領域を決定する特定領域決定ステップと、上記撮像画像信号のうちの上記特定領域決定ステップにより決定された特定領域の信号に基づいて上記合焦位置決定ステップにより決定される合焦位置に上記フォーカスレンズを駆動する駆動ステップと、を備えるものである。
開示された合焦制御方法は、上記特定領域決定ステップでは、上記顔領域の外に、上記目領域の中心が存在する場合には、上記顔領域を上記特定領域として決定するものである。
開示された合焦制御方法は、上記特定領域決定ステップでは、上記顔領域の中に、上記目領域の中心が存在する場合には、上記撮像画像信号のうちの上記顔領域の信号に基づいて上記合焦位置決定ステップにより決定される上記フォーカスレンズの第一の合焦位置と、上記撮像画像信号のうちの上記目領域の信号に基づいて上記合焦位置決定ステップにより決定される上記フォーカスレンズの第二の合焦位置と、の比較により、上記顔領域と上記目領域のいずれかを上記特定領域として決定するものである。
開示された合焦制御方法は、上記特定領域決定ステップでは、上記第一の合焦位置と上記第二の合焦位置との差が第一の閾値未満であり、かつ、上記第二の合焦位置が上記第一の合焦位置よりも上記撮像素子側にある場合に、上記目領域を上記特定領域として決定するものである。
開示された合焦制御方法は、上記特定領域決定ステップでは、上記第二の合焦位置が決定不能の場合に、上記撮像画像信号のうちの上記目領域を含み上記目領域よりも大きい拡大目領域の信号に基づいて上記合焦位置決定ステップにより決定される上記フォーカスレンズの第三の合焦位置と、上記第一の合焦位置と、の比較により、上記顔領域と上記拡大目領域のいずれかを上記特定領域として決定するものである。
開示された合焦制御方法は、上記特定領域決定ステップでは、上記第一の合焦位置と上記第三の合焦位置との差が第二の閾値未満であり、かつ、上記第三の合焦位置が上記第一の合焦位置よりも上記撮像素子側にある場合に、上記拡大目領域を上記特定領域として決定するものである。
開示された合焦制御方法は、上記特定領域決定ステップでは、上記拡大目領域の中心を、上記目領域の中心よりも上記顔領域の中心に近づける方向にずらすものである。
開示された合焦制御方法は、上記特定領域決定ステップでは、上記拡大目領域のうち、上記顔領域よりも外側にある部分を上記拡大目領域から除外するものである。
開示された合焦制御プログラムは、光軸方向に移動可能なフォーカスレンズを移動させながら、上記フォーカスレンズの位置毎に、上記フォーカスレンズを通して被写体を撮像する撮像素子により被写体を撮像させ、上記撮像により得られる撮像画像信号に基づいて上記フォーカスレンズの合焦位置を決定する合焦位置決定ステップと、上記撮像素子により被写体を撮像して得られる撮像画像信号に対し顔検出処理を行う顔検出ステップと、上記撮像素子により被写体を撮像して得られる撮像画像信号に対し目検出処理を行う目検出ステップと、任意の時刻において上記撮像素子により撮像して得られた第一の撮像画像信号から上記顔検出ステップにより検出された顔領域と、上記任意の時刻よりも前の時刻において上記撮像素子により撮像して得られた第二の撮像画像信号から上記目検出ステップにより検出された目領域とに基づいて、上記撮像画像信号において合焦させるべき領域を示す特定領域を決定する特定領域決定ステップと、上記撮像画像信号のうちの上記特定領域決定ステップにより決定された特定領域の信号に基づいて上記合焦位置決定ステップにより決定される合焦位置に上記フォーカスレンズを駆動する駆動ステップと、をコンピュータに実行させるためのプログラムである。
本発明は、特にデジタルカメラ等に適用して利便性が高く、有効である。
以上、本発明を特定の実施形態によって説明したが、本発明はこの実施形態に限定されるものではなく、開示された発明の技術思想を逸脱しない範囲で種々の変更が可能である。
本出願は、2014年12月26日出願の日本特許出願(特願2014−265823)に基づくものであり、その内容はここに取り込まれる。
1 撮像レンズ(フォーカスレンズ含む)
5 撮像素子
11 システム制御部(駆動部)
20 コントラストAF処理部
31 顔検出部
32 目検出部
33 AF領域決定部(特定領域決定部)
34 合焦位置決定部

Claims (18)

  1. 光軸方向に移動可能なフォーカスレンズを移動させながら、前記フォーカスレンズの位置毎に、前記フォーカスレンズを通して被写体を撮像する撮像素子により被写体を撮像させ、前記撮像により得られる撮像画像信号に基づいて前記フォーカスレンズの合焦位置を決定する合焦位置決定部と、
    前記撮像素子により被写体を撮像して得られる撮像画像信号に対し顔検出処理を行う顔検出部と、
    前記撮像素子により被写体を撮像して得られる撮像画像信号に対し目検出処理を行う目検出部と、
    任意の時刻において前記撮像素子により撮像して得られた第一の撮像画像信号から前記顔検出部により検出された顔領域と、前記任意の時刻よりも前の時刻において前記撮像素子により撮像して得られた第二の撮像画像信号から前記目検出部により検出された目領域とに基づいて、前記撮像画像信号において合焦させるべき領域を示す特定領域を決定する特定領域決定部と、
    前記撮像画像信号のうちの前記特定領域決定部により決定された特定領域の信号に基づいて前記合焦位置決定部により決定される合焦位置に前記フォーカスレンズを駆動する駆動部と、を備える合焦制御装置。
  2. 請求項1記載の合焦制御装置であって、
    前記特定領域決定部は、前記顔領域の外に、前記目領域の中心が存在する場合には、前記顔領域を前記特定領域として決定する合焦制御装置。
  3. 請求項1又は2記載の合焦制御装置であって、
    前記特定領域決定部は、前記顔領域の中に、前記目領域の中心が存在する場合には、前記撮像画像信号のうちの前記顔領域の信号に基づいて前記合焦位置決定部により決定される前記フォーカスレンズの第一の合焦位置と、前記撮像画像信号のうちの前記目領域の信号に基づいて前記合焦位置決定部により決定される前記フォーカスレンズの第二の合焦位置と、の比較により、前記顔領域と前記目領域のいずれかを前記特定領域として決定する合焦制御装置。
  4. 請求項3記載の合焦制御装置であって、
    前記特定領域決定部は、前記第一の合焦位置と前記第二の合焦位置との差が第一の閾値未満であり、かつ、前記第二の合焦位置が前記第一の合焦位置よりも前記撮像素子側にある場合に、前記目領域を前記特定領域として決定する合焦制御装置。
  5. 請求項3又は4記載の合焦制御装置であって、
    前記特定領域決定部は、前記第二の合焦位置が決定不能の場合に、前記撮像画像信号のうちの前記目領域を拡大した拡大目領域の信号に基づいて前記合焦位置決定部により決定される前記フォーカスレンズの第三の合焦位置と、前記第一の合焦位置と、の比較により、前記顔領域と前記拡大目領域のいずれかを前記特定領域として決定する合焦制御装置。
  6. 請求項5記載の合焦制御装置であって、
    前記特定領域決定部は、前記第一の合焦位置と前記第三の合焦位置との差が第二の閾値未満であり、かつ、前記第三の合焦位置が前記第一の合焦位置よりも前記撮像素子側にある場合に、前記拡大目領域を前記特定領域として決定する合焦制御装置。
  7. 請求項5又は6記載の合焦制御装置であって、
    前記特定領域決定部は、前記拡大目領域の中心を、前記目領域の中心よりも前記顔領域の中心に近づける方向にずらす合焦制御装置。
  8. 請求項7記載の合焦制御装置であって、
    前記特定領域決定部は、前記拡大目領域のうち、前記顔領域よりも外側にある部分を前記拡大目領域から除外する合焦制御装置。
  9. 請求項1〜8のいずれか1項記載の合焦制御装置と、
    前記撮像素子と、を備える撮像装置。
  10. 光軸方向に移動可能なフォーカスレンズを移動させながら、前記フォーカスレンズの位置毎に、前記フォーカスレンズを通して被写体を撮像する撮像素子により被写体を撮像させ、前記撮像により得られる撮像画像信号に基づいて前記フォーカスレンズの合焦位置を決定する合焦位置決定ステップと、
    前記撮像素子により被写体を撮像して得られる撮像画像信号に対し顔検出処理を行う顔検出ステップと、
    前記撮像素子により被写体を撮像して得られる撮像画像信号に対し目検出処理を行う目検出ステップと、
    任意の時刻において前記撮像素子により撮像して得られた第一の撮像画像信号から前記顔検出ステップにより検出された顔領域と、前記任意の時刻よりも前の時刻において前記撮像素子により撮像して得られた第二の撮像画像信号から前記目検出ステップにより検出された目領域とに基づいて、前記撮像画像信号において合焦させるべき領域を示す特定領域を決定する特定領域決定ステップと、
    前記撮像画像信号のうちの前記特定領域決定ステップにより決定された特定領域の信号に基づいて前記合焦位置決定ステップにより決定される合焦位置に前記フォーカスレンズを駆動する駆動ステップと、を備える合焦制御方法。
  11. 請求項10記載の合焦制御方法であって、
    前記特定領域決定ステップでは、前記顔領域の外に、前記目領域の中心が存在する場合には、前記顔領域を前記特定領域として決定する合焦制御方法。
  12. 請求項10又は11記載の合焦制御方法であって、
    前記特定領域決定ステップでは、前記顔領域の中に、前記目領域の中心が存在する場合には、前記撮像画像信号のうちの前記顔領域の信号に基づいて前記合焦位置決定ステップにより決定される前記フォーカスレンズの第一の合焦位置と、前記撮像画像信号のうちの前記目領域の信号に基づいて前記合焦位置決定ステップにより決定される前記フォーカスレンズの第二の合焦位置と、の比較により、前記顔領域と前記目領域のいずれかを前記特定領域として決定する合焦制御方法。
  13. 請求項12記載の合焦制御方法であって、
    前記特定領域決定ステップでは、前記第一の合焦位置と前記第二の合焦位置との差が第一の閾値未満であり、かつ、前記第二の合焦位置が前記第一の合焦位置よりも前記撮像素子側にある場合に、前記目領域を前記特定領域として決定する合焦制御方法。
  14. 請求項12又は13記載の合焦制御方法であって、
    前記特定領域決定ステップでは、前記第二の合焦位置が決定不能の場合に、前記撮像画像信号のうちの前記目領域を含み前記目領域よりも大きい拡大目領域の信号に基づいて前記合焦位置決定ステップにより決定される前記フォーカスレンズの第三の合焦位置と、前記第一の合焦位置と、の比較により、前記顔領域と前記拡大目領域のいずれかを前記特定領域として決定する合焦制御方法。
  15. 請求項14記載の合焦制御方法であって、
    前記特定領域決定ステップでは、前記第一の合焦位置と前記第三の合焦位置との差が第二の閾値未満であり、かつ、前記第三の合焦位置が前記第一の合焦位置よりも前記撮像素子側にある場合に、前記拡大目領域を前記特定領域として決定する合焦制御方法。
  16. 請求項14又は15記載の合焦制御方法であって、
    前記特定領域決定ステップでは、前記拡大目領域の中心を、前記目領域の中心よりも前記顔領域の中心に近づける方向にずらす合焦制御方法。
  17. 請求項16記載の合焦制御方法であって、
    前記特定領域決定ステップでは、前記拡大目領域のうち、前記顔領域よりも外側にある部分を前記拡大目領域から除外する合焦制御方法。
  18. 光軸方向に移動可能なフォーカスレンズを移動させながら、前記フォーカスレンズの位置毎に、前記フォーカスレンズを通して被写体を撮像する撮像素子により被写体を撮像させ、前記撮像により得られる撮像画像信号に基づいて前記フォーカスレンズの合焦位置を決定する合焦位置決定ステップと、
    前記撮像素子により被写体を撮像して得られる撮像画像信号に対し顔検出処理を行う顔検出ステップと、
    前記撮像素子により被写体を撮像して得られる撮像画像信号に対し目検出処理を行う目検出ステップと、
    任意の時刻において前記撮像素子により撮像して得られた第一の撮像画像信号から前記顔検出ステップにより検出された顔領域と、前記任意の時刻よりも前の時刻において前記撮像素子により撮像して得られた第二の撮像画像信号から前記目検出ステップにより検出された目領域とに基づいて、前記撮像画像信号において合焦させるべき領域を示す特定領域を決定する特定領域決定ステップと、
    前記撮像画像信号のうちの前記特定領域決定ステップにより決定された特定領域の信号に基づいて前記合焦位置決定ステップにより決定される合焦位置に前記フォーカスレンズを駆動する駆動ステップと、をコンピュータに実行させるための合焦制御プログラム。
JP2016566026A 2014-12-26 2015-11-12 合焦制御装置、撮像装置、合焦制御方法、及び合焦制御プログラム Active JP6186521B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014265823 2014-12-26
JP2014265823 2014-12-26
PCT/JP2015/081896 WO2016103962A1 (ja) 2014-12-26 2015-11-12 合焦制御装置、撮像装置、合焦制御方法、及び合焦制御プログラム

Publications (2)

Publication Number Publication Date
JPWO2016103962A1 JPWO2016103962A1 (ja) 2017-08-17
JP6186521B2 true JP6186521B2 (ja) 2017-08-23

Family

ID=56149996

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016566026A Active JP6186521B2 (ja) 2014-12-26 2015-11-12 合焦制御装置、撮像装置、合焦制御方法、及び合焦制御プログラム

Country Status (4)

Country Link
US (1) US9912859B2 (ja)
JP (1) JP6186521B2 (ja)
CN (1) CN107209345B (ja)
WO (1) WO2016103962A1 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102392789B1 (ko) * 2015-10-21 2022-05-02 삼성전자주식회사 초점 설정을 위한 방법 및 그 전자 장치
JP6630337B2 (ja) * 2017-10-17 2020-01-15 キヤノン株式会社 電子機器およびその制御方法
JP7066388B2 (ja) * 2017-12-06 2022-05-13 キヤノン株式会社 焦点調節装置、その制御方法、およびプログラム、記憶媒体、並びに撮像装置
CN109272000B (zh) * 2018-09-10 2022-01-25 南方电网电力科技股份有限公司 一种机器人仪表对准和调焦方法及装置
JP7129294B2 (ja) * 2018-09-21 2022-09-01 キヤノン株式会社 電子機器および領域選択方法
JP7390790B2 (ja) * 2018-12-28 2023-12-04 株式会社ミツトヨ 画像測定装置および非接触形状測定装置
EP3904956A4 (en) * 2018-12-28 2022-02-16 Sony Group Corporation IMAGING APPARATUS, IMAGING PROCEDURE AND PROGRAM
JP2020149304A (ja) * 2019-03-13 2020-09-17 ソニー株式会社 撮像装置および表情検出方法
EP3995877A4 (en) * 2019-07-12 2022-08-24 Sony Group Corporation IMAGING APPARATUS, IMAGING PROCEDURE AND PROGRAM
JP7293025B2 (ja) * 2019-07-29 2023-06-19 キヤノン株式会社 撮像装置およびその制御方法
JP2021032984A (ja) * 2019-08-21 2021-03-01 キヤノン株式会社 撮像装置およびその制御方法
JP7418104B2 (ja) * 2019-08-30 2024-01-19 キヤノン株式会社 画像処理装置及び画像処理装置の制御方法
CN111654622B (zh) * 2020-05-28 2022-10-14 维沃移动通信有限公司 拍摄对焦方法、装置、电子设备及存储介质
JP2022045757A (ja) * 2020-09-09 2022-03-22 キヤノン株式会社 撮像制御装置およびその制御方法
JP2022131706A (ja) * 2021-02-26 2022-09-07 キヤノン株式会社 画像処理装置およびその制御方法、撮像装置、プログラム
US11729502B2 (en) * 2021-04-28 2023-08-15 Canon Kabushiki Kaisha Apparatus including focusing function and method of the same

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4747003B2 (ja) * 2005-06-22 2011-08-10 富士フイルム株式会社 自動合焦制御装置およびその制御方法
JP4824627B2 (ja) * 2007-05-18 2011-11-30 富士フイルム株式会社 自動焦点調節装置及び自動焦点調節方法並びに撮像装置及び撮像方法
JP5046788B2 (ja) * 2007-08-10 2012-10-10 キヤノン株式会社 撮像装置及びその制御方法
JP4888838B2 (ja) * 2008-05-12 2012-02-29 トヨタ自動車株式会社 運転者撮像装置および運転者撮像方法
JP5159532B2 (ja) * 2008-09-16 2013-03-06 キヤノン株式会社 撮像装置とその制御方法
KR101728042B1 (ko) * 2010-10-01 2017-04-18 삼성전자주식회사 디지털 촬영 장치 및 이의 제어 방법
JP5669549B2 (ja) * 2010-12-10 2015-02-12 オリンパスイメージング株式会社 撮像装置
JP5788197B2 (ja) * 2011-03-22 2015-09-30 オリンパス株式会社 画像処理装置、画像処理方法、画像処理プログラム及び撮像装置
JP5156108B2 (ja) 2011-04-23 2013-03-06 オリンパスイメージング株式会社 撮像装置および撮像方法
JP5161399B2 (ja) 2011-06-24 2013-03-13 オリンパスイメージング株式会社 カメラシステム
JP5692141B2 (ja) 2012-04-06 2015-04-01 トヨタ自動車株式会社 液圧ブレーキシステム
JP5950664B2 (ja) * 2012-04-10 2016-07-13 キヤノン株式会社 撮像装置およびその制御方法
JP5075288B2 (ja) 2012-05-31 2012-11-21 キヤノン株式会社 撮像装置及びその制御方法
JP6084982B2 (ja) * 2012-09-19 2017-02-22 富士フイルム株式会社 撮像装置
CN103778406B (zh) * 2012-10-19 2018-03-09 佳能株式会社 对象检测方法及设备
JP5647209B2 (ja) * 2012-11-07 2014-12-24 オリンパスイメージング株式会社 撮像装置及び撮像方法
US9854216B2 (en) * 2013-12-10 2017-12-26 Canon Kabushiki Kaisha Image pickup apparatus that displays image based on signal output from image pickup device, method of controlling the same, and storage medium

Also Published As

Publication number Publication date
CN107209345A (zh) 2017-09-26
US9912859B2 (en) 2018-03-06
US20170289441A1 (en) 2017-10-05
CN107209345B (zh) 2018-10-16
JPWO2016103962A1 (ja) 2017-08-17
WO2016103962A1 (ja) 2016-06-30

Similar Documents

Publication Publication Date Title
JP6186521B2 (ja) 合焦制御装置、撮像装置、合焦制御方法、及び合焦制御プログラム
JP5948492B2 (ja) 撮像装置及び合焦制御方法
JP5750558B2 (ja) 撮像装置及び合焦制御方法
JP5982601B2 (ja) 撮像装置及び合焦制御方法
JP6031587B2 (ja) 撮像装置、信号処理方法、信号処理プログラム
JP6307526B2 (ja) 撮像装置及び合焦制御方法
JP6028112B2 (ja) 撮像装置及び合焦制御方法
JP5872122B2 (ja) 撮像装置及び合焦制御方法
JP5978411B2 (ja) 撮像装置及び合焦制御方法
JP6251851B2 (ja) 合焦制御装置、合焦制御方法、合焦制御プログラム、レンズ装置、撮像装置
JP6364560B2 (ja) 合焦制御装置、撮像装置、合焦制御方法、及び、合焦制御プログラム
JP5982600B2 (ja) 撮像装置及び合焦制御方法
JP5990665B2 (ja) 撮像装置及び合焦制御方法
JP6186498B2 (ja) 撮像装置及び合焦制御方法
JP6171105B2 (ja) 撮像装置及び合焦制御方法
JP6379307B2 (ja) 撮像装置、合焦制御方法、及び合焦制御プログラム
WO2020209097A1 (ja) 画像表示装置、画像表示方法、及びプログラム
JP6236580B2 (ja) 合焦制御装置、合焦制御方法、合焦制御プログラム、レンズ装置、撮像装置
WO2013145887A1 (ja) 撮像装置及び撮像方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170403

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20170403

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20170630

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170731

R150 Certificate of patent or registration of utility model

Ref document number: 6186521

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250