JP2003241067A - Image pickup unit - Google Patents

Image pickup unit

Info

Publication number
JP2003241067A
JP2003241067A JP2002040235A JP2002040235A JP2003241067A JP 2003241067 A JP2003241067 A JP 2003241067A JP 2002040235 A JP2002040235 A JP 2002040235A JP 2002040235 A JP2002040235 A JP 2002040235A JP 2003241067 A JP2003241067 A JP 2003241067A
Authority
JP
Japan
Prior art keywords
area
depth
field
image
evaluation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002040235A
Other languages
Japanese (ja)
Other versions
JP3675412B2 (en
Inventor
Rieko Izume
理恵子 井爪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP2002040235A priority Critical patent/JP3675412B2/en
Publication of JP2003241067A publication Critical patent/JP2003241067A/en
Application granted granted Critical
Publication of JP3675412B2 publication Critical patent/JP3675412B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Focusing (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image pickup unit which can display a subject included in a range of depth of field in an easier-to-see state. <P>SOLUTION: An evaluation value calculation part 205 finds respective evaluation values as to a plurality of evaluation areas provided to a picture inputted from a photographing function part 3 before photographing, and an area selection part 220 selects, as an area within the depth of field, an evaluation area wherein a subject distance found by a distance calculation part 210 is within the range of depth of field according to the evaluation values. An area division part 230 divides the picture inputted from the photographing function part 3 before photographing into a plurality of divided areas according to the features of the subject, a focusing area determination part 240 determines a divided area where more than a half of at least one area within the depth of field overlaps with one of the divided areas as a focusing area, and a display part 16 makes a display based upon the focusing area. <P>COPYRIGHT: (C)2003,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、撮影前に複数の画
素で構成される画像を入力して、撮影レンズの合焦制御
を行う撮像装置において、被写界深度に基づいた表示を
行う技術に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a technique for displaying images based on the depth of field in an image pickup apparatus for inputting an image composed of a plurality of pixels before image pickup to control the focus of a photographing lens. Regarding

【0002】[0002]

【従来の技術】従来、デジタルカメラなどの撮像装置で
は、撮影前にオートフォーカスが行われ、その際にフォ
ーカスフレームなどが表示されることによって、大凡合
焦している被写体を把握することができる。しかし、合
焦している被写体の前後のピント範囲(被写界深度)が
分からないため、合焦している被写体の周囲の被写体が
被写界深度深度の範囲内に入っているのか否か、背景が
ぼけているのか否か等を把握することができなかった。
このような問題点に対して、例えば、特開平9−619
23号公報では、ファインダ画面に合焦している位置を
示すフォーカスフレームを表示し、ファインダ画面内に
撮影する視野とは別に液晶表示板を設け、合焦している
位置までの距離と、被写界深度の前側および後側までの
距離とを示すカメラが示されており、また、特開平8−
220420号公報では、ファインダ視野内全域に透明
度可変板を設け、その透明度可変板を複数の単位視野領
域に分割し、それぞれの単位視野領域に対応する測距情
報に基づいて、被写界深度内外において透明度可変板の
単位視野領域の透明度を相違させるカメラが示されてい
る。
2. Description of the Related Art Conventionally, in an image pickup apparatus such as a digital camera, autofocusing is performed before photographing, and a focus frame or the like is displayed at that time, so that an in-focus subject can be grasped. . However, since the focus range (depth of field) before and after the in-focus subject is unknown, whether the subjects around the in-focus subject are within the depth-of-field range. , It was not possible to understand whether or not the background was blurred.
For such a problem, for example, Japanese Patent Laid-Open No. 9-619
In the publication No. 23, a focus frame indicating the in-focus position is displayed on the finder screen, and a liquid crystal display plate is provided in the finder screen in addition to the field of view for photographing, and the distance to the in-focus position and A camera showing the distance to the front side and the rear side of the depth of field is shown.
In JP 220420, a transparency varying plate is provided in the entire area of the viewfinder, the transparency varying plate is divided into a plurality of unit visual field regions, and the inside and outside of the depth of field are determined based on distance measurement information corresponding to each unit visual field region. Shows a camera in which the transparency of the unit visual field of the transparency varying plate is made different.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、上述の
カメラのうち前者のカメラは、被写界深度の範囲を距離
情報としてしか表示しないため、撮影する視野を見なが
ら、撮影者が視野内にある人物や物体等までの距離を目
測して、被写界深度の範囲内にある人物や物体等を予測
しなければならず、また、後者のカメラは、予め分割さ
れた固定の領域について被写界深度の範囲内にあるのか
否かを表示するものであり、種々の被写体に合わせた表
示をするものでないため、実際に被写界深度の範囲内に
ある被写体を明瞭に把握することができないといった問
題点があった。
However, the former camera among the above-mentioned cameras only displays the range of depth of field as distance information, so that the photographer is within the field of view while looking at the field of view to be photographed. The distance to a person or object must be visually estimated to predict a person or object within the depth of field. Since it displays whether or not it is within the depth of field, it is not a display that matches various subjects, so it is not possible to clearly understand the subject actually within the depth of field. There was a problem such as.

【0004】本発明は、上記課題に鑑みてなされたもの
であり、被写界深度の範囲内に含まれる被写体をより分
かり易く表示可能な撮像装置を提供することを目的とす
る。
The present invention has been made in view of the above problems, and an object of the present invention is to provide an image pickup apparatus capable of more easily displaying a subject included within the range of the depth of field.

【0005】[0005]

【課題を解決するための手段】上記の課題を解決するた
めに、請求項1の発明は、撮影前に複数の画素で構成さ
れる画像を入力して、撮影レンズの合焦制御を行うとと
もに、被写界深度に基づいた表示を行う撮像装置におい
て、(a)前記画像に設定された複数の評価領域について
それぞれ前記撮影レンズの合焦状態に関する評価値を算
出する評価値算出手段と、(b)前記評価値に基づいて前
記撮影レンズの合焦位置を求め、前記合焦位置への前記
撮影レンズの駆動を制御する制御手段と、(c)前記評価
値に基づいて、前記複数の評価領域のうち、当該評価領
域内の被写体までの被写体距離が前記被写界深度の範囲
内である評価領域を被写界深度内領域として選出する選
出手段と、(d)前記画像中の被写体の特徴に基づいて、
前記画像を複数の分割領域に分割する分割手段と、(e)
前記複数の分割領域のうち、前記被写界深度内領域と重
複する領域を含む分割領域を合焦領域として決定する決
定手段と、(f)前記合焦領域に基づいた表示を行う表示
手段とを備えることを特徴とする。
In order to solve the above-mentioned problems, according to the invention of claim 1, an image composed of a plurality of pixels is input before photographing to control the focusing of the photographing lens. In the imaging device that performs display based on the depth of field, (a) an evaluation value calculation unit that calculates an evaluation value related to the focusing state of the photographing lens for each of the plurality of evaluation regions set in the image, b) obtaining a focus position of the taking lens based on the evaluation value, control means for controlling driving of the taking lens to the focus position, and (c) based on the evaluation value, the plurality of evaluations Of the area, a selection means for selecting an evaluation area in which the object distance to the object in the evaluation area is within the range of the depth of field, and (d) the object in the image. Based on features
Dividing means for dividing the image into a plurality of divided areas, (e)
Of the plurality of divided areas, a determination means for determining a divided area including an area overlapping the area within the depth of field as a focused area, and (f) a display means for performing display based on the focused area. It is characterized by including.

【0006】また、請求項2の発明は、請求項1に記載
された撮像装置であって、前記表示手段が、撮影前に入
力された前記画像のうち前記合焦領域と、その他の領域
とを区別して表示することを特徴とする。
According to a second aspect of the invention, there is provided the image pickup apparatus according to the first aspect, wherein the display means displays the focusing area and other areas in the image input before photographing. The feature is that they are displayed separately.

【0007】また、請求項3の発明は、請求項1または
請求項2のいずれかに記載された撮像装置であって、前
記表示手段が、撮影前に入力された前記画像の全領域が
前記合焦領域である場合に、その旨を表示することを特
徴とする。
Further, the invention of claim 3 is the image pickup apparatus according to claim 1 or 2, wherein the display means is the entire area of the image inputted before photographing. If the area is in focus, the fact is displayed.

【0008】また、請求項4の発明は、請求項1から請
求項3のいずれかに記載された撮像装置であって、ユー
ザーの操作に基づいて前記被写界深度を指定する値を変
更する変更手段をさらに備えることを特徴とする。
The invention according to claim 4 is the image pickup apparatus according to any one of claims 1 to 3, wherein the value designating the depth of field is changed based on a user operation. It is characterized by further comprising a changing means.

【0009】また、請求項5の発明は、請求項1から請
求項4のいずれかに記載された撮像装置であって、前記
決定手段が、前記分割領域と前記被写界深度内領域とが
重複する領域の面積に基づいて前記合焦領域を決定する
ことを特徴とする。
According to a fifth aspect of the invention, there is provided the image pickup apparatus according to any one of the first to fourth aspects, wherein the determining means determines that the divided area and the area within the depth of field are equal to each other. The focusing area is determined based on the areas of the overlapping areas.

【0010】[0010]

【発明の実施の形態】以下、本発明の実施形態を図面に
基づいて説明する。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the drawings.

【0011】<撮像装置の要部構成>図1は本発明の一
実施形態である撮像装置1を示す斜視図である。また、
図2は撮像装置1の背面図である。
<Main Configuration of Imaging Device> FIG. 1 is a perspective view showing an imaging device 1 according to an embodiment of the present invention. Also,
FIG. 2 is a rear view of the image pickup apparatus 1.

【0012】図1に示すように、撮像装置1の前面側に
は、撮影レンズ11とファインダ窓2とが設けられてい
る。撮影レンズ11の内側には撮影レンズ11を介して
入射する被写体像を光電変換して画像信号(画素ごとの
画素データの配列からなる信号)を生成するための画像
生成手段としてCCD撮像素子30が設けられている。
As shown in FIG. 1, a photographing lens 11 and a finder window 2 are provided on the front side of the image pickup apparatus 1. A CCD image pickup device 30 is provided inside the photographing lens 11 as an image generation unit for photoelectrically converting a subject image incident through the photographing lens 11 to generate an image signal (a signal including an array of pixel data for each pixel). It is provided.

【0013】撮影レンズ11には光軸方向に沿って駆動
可能なレンズ系が含まれており、当該レンズ系を光軸方
向に駆動することにより、CCD撮像素子30に結像さ
れる被写体像の合焦状態を実現することができるように
構成されている。
The photographic lens 11 includes a lens system that can be driven along the optical axis direction. By driving the lens system in the optical axis direction, a subject image formed on the CCD image pickup device 30 is formed. It is configured so that a focused state can be realized.

【0014】また、撮像装置1の上面側には、レリーズ
ボタン8と、カメラ状態表示部13と、撮影条件設定ボ
タン14とが配置されている。レリーズボタン8は被写
体の撮影を行うときにユーザーが押下操作を行って撮像
装置1に撮影指示を与えるボタンである。ここでは、レ
リーズボタン8を半押し状態(S1)とすることによっ
て後述するオートフォーカス動作が実施され、全押し状
態(S2)とすることによって後述する本撮影が実施さ
れる。カメラ状態表示部13は例えばセグメント表示タ
イプの液晶モニタによって構成され、撮像装置1におけ
る現在の設定内容等をユーザーに示すために設けられて
いる。また、撮影条件設定ボタン14は、シャッタース
ピードや絞りなどの露光条件の設定や、ホワイトバラン
ス(WB)、露出補正などの条件設定の変更を行うため
のボタンである。
Further, on the upper surface side of the image pickup apparatus 1, there are arranged a release button 8, a camera state display section 13, and a photographing condition setting button 14. The release button 8 is a button that the user performs a pressing operation when shooting a subject and gives a shooting instruction to the image pickup apparatus 1. Here, the release button 8 is half-pressed (S1) to perform an autofocus operation, which will be described later, and the fully-pressed state (S2), to perform a main shooting described later. The camera status display unit 13 is composed of, for example, a segment display type liquid crystal monitor, and is provided to show the user the present setting contents and the like in the image pickup apparatus 1. The shooting condition setting button 14 is a button for setting exposure conditions such as shutter speed and aperture, and changing condition settings such as white balance (WB) and exposure correction.

【0015】また、撮像装置1の側面部には、ユーザー
によるレリーズボタン8の押下操作に伴う本撮影動作で
得られる画像データを記憶するためのメモリカードなど
の記憶メディア9を着装する着装部15が形成されてお
り、交換可能な記憶メディア9を着装することができ
る。さらに、着装部15から記憶メディア9を取り出す
際に押下するカード取り出しボタン7が配置されてお
り、着装部15から記憶メディア9を取り出すことがで
きる。
Further, on the side surface portion of the image pickup apparatus 1, a mounting portion 15 for mounting a storage medium 9 such as a memory card for storing image data obtained by a main photographing operation in response to a user's operation of pressing the release button 8. Is formed, and the exchangeable storage medium 9 can be attached. Further, a card eject button 7 that is pressed when the storage medium 9 is taken out from the mounting portion 15 is arranged, and the storage medium 9 can be taken out from the mounting portion 15.

【0016】また、撮像装置1の側面部には、ユーザー
の操作に基づいて被写界深度を指定する値を変更するた
めの被写界深度変更ダイヤル10が配置されている。被
写界深度変更ダイヤル10は、図2に示すA,Bの方向
に回動させることによって、後述する表示部16にライ
ブビュー画像とともに表示させる被写界深度に基づく表
示を変更させることができる。背面LCD16に表示す
る被写界深度に基づく表示に関しては後程詳述する。
On the side surface of the image pickup apparatus 1, a depth of field changing dial 10 for changing a value designating the depth of field based on a user's operation is arranged. The depth-of-field change dial 10 can be rotated in the directions A and B shown in FIG. 2 to change the display based on the depth-of-field displayed on the display unit 16 described later together with the live view image. . The display based on the depth of field displayed on the rear LCD 16 will be described later in detail.

【0017】また、図2に示すように、撮像装置1の背
面図には、ライブビュー画像や撮影画像等を表示するた
めのLCDからなる表示部16と、撮像装置1の各種撮
影モード(ポートレートモード、風景モード、マクロ撮
影モードなど)および各種撮影条件(ISO感度、解像
度など)を変更するための操作ボタン17と、ファイン
ダ窓2とが設けられている。さらに、表示部16にライ
ブビュー画像とともに被写界深度に基づく表示を行うた
めの被写界深度情報表示ボタン20と、被写界深度に基
づく表示を変更することができる状態とする被写界深度
変更設定ボタン25と、被写界深度に基づく表示の表示
方法を切り換えるための表示切換ボタン27とが設けら
れている。被写界深度情報表示ボタン20、被写界深度
変更設定ボタン25、表示切換ボタン27と、撮像装置
1の動作との関係についてはさらに後述する。
As shown in FIG. 2, the rear view of the image pickup apparatus 1 includes a display section 16 including an LCD for displaying live-view images and photographed images, and various image pickup modes (ports) of the image pickup apparatus 1. An operation button 17 for changing rate mode, landscape mode, macro shooting mode, etc. and various shooting conditions (ISO sensitivity, resolution, etc.), and a finder window 2 are provided. Further, a depth-of-field information display button 20 for performing display based on the depth-of-field together with the live view image on the display unit 16, and a depth-of-field that allows the display based on the depth-of-field to be changed. A depth change setting button 25 and a display switching button 27 for switching the display method of the display based on the depth of field are provided. The relationship between the depth-of-field information display button 20, the depth-of-field change setting button 25, the display switching button 27, and the operation of the image pickup apparatus 1 will be described later.

【0018】<撮像装置1の機能ブロック>図3は撮像
装置1の内部構成を示すブロック図である。図3に示す
ように、撮像装置1は、画像信号を処理するための撮影
機能部3、オートフォーカスや被写界深度に基づく表示
を実現するための合焦機能部200およびレンズ駆動部
110、ライブビュー画像や撮影結果を表示するための
表示部16、撮像装置1に設けられた各部を統括的に制
御するカメラ制御部100とを備えて構成される。
<Functional Block of Imaging Device 1> FIG. 3 is a block diagram showing an internal configuration of the imaging device 1. As shown in FIG. 3, the image pickup apparatus 1 includes a photographing function unit 3 for processing an image signal, a focusing function unit 200 and a lens driving unit 110 for realizing display based on autofocus and depth of field. A display unit 16 for displaying a live-view image and a shooting result, and a camera control unit 100 that integrally controls each unit provided in the image pickup apparatus 1 are configured.

【0019】撮影レンズ11を介してCCD撮像素子3
0に結像される被写体像は、CCD撮像素子30におい
て複数の画素を有する電気的な画像、すなわち画像信号
に変換され、A/D変換器40へと導かれる。
CCD image pickup device 3 through the taking lens 11
The subject image formed at 0 is converted into an electric image having a plurality of pixels, that is, an image signal in the CCD image pickup device 30, and is guided to the A / D converter 40.

【0020】A/D変換器40はCCD撮像素子30か
ら出力される画像信号を例えば1画素あたり10ビット
のデジタル信号に変換する。A/D変換器40から出力
される画像信号は、WB調整部50へと導かれる。
The A / D converter 40 converts the image signal output from the CCD image pickup device 30 into, for example, a 10-bit digital signal per pixel. The image signal output from the A / D converter 40 is guided to the WB adjustment unit 50.

【0021】WB調整部50はR,G,Bの各色成分の
画素データのレベル変換を行なうものである。このWB
調整部50は、カメラ制御部100で記憶されるレベル
変換テーブルを用いてR,G,Bの各色成分の画素デー
タのレベルを変換する。WB調整部50から出力される
画像信号は画素補間部60へと導かれる。また、ここで
は、レリーズボタン8が押下されてS1状態となると、
オートフォーカス動作などを行うべくWB調整部50か
ら合焦機能部200の画像メモリ201へと画像信号が
導かれる。
The WB adjusting unit 50 converts the level of pixel data of R, G and B color components. This WB
The adjusting unit 50 uses the level conversion table stored in the camera control unit 100 to convert the level of pixel data of R, G, and B color components. The image signal output from the WB adjustment unit 50 is guided to the pixel interpolation unit 60. Further, here, when the release button 8 is pressed to enter the S1 state,
An image signal is guided from the WB adjusting unit 50 to the image memory 201 of the focusing function unit 200 to perform an autofocus operation or the like.

【0022】まず、撮影機能部3内のデータ処理である
WB調整部50から画素補間部60へ画像信号が導かれ
た場合について説明する。
First, a case where an image signal is guided from the WB adjusting unit 50, which is data processing in the photographing function unit 3, to the pixel interpolating unit 60 will be described.

【0023】画素補間部60は各画素に対して欠落した
色の情報を周辺の画素の値を基に推測することによって
補間処理を行うものである。画素補間部60から出力さ
れる画像信号は、γ補正部70へと導かれる。
The pixel interpolating unit 60 performs interpolation processing by estimating missing color information for each pixel based on the values of peripheral pixels. The image signal output from the pixel interpolation unit 60 is guided to the γ correction unit 70.

【0024】γ補正部70は画素データの階調を補正す
るものである。このγ補正部70は、画像を表示部16
などで観察することを想定して、表示部16などの種類
に合わせて階調補正を行う。γ補正部70から出力され
る画像信号は、エッジ強調部80へと導かれる。また、
ここでは、レリーズボタン8が押下されてS1状態とさ
れたときに被写界深度に基づく表示を表示部16へ表示
するように指示されている場合、被写界深度に基づく表
示を表示部16へ表示すべくγ補正部70から合焦機能
部200の領域分割部230へと画像信号が導かれる。
The γ correction unit 70 corrects the gradation of pixel data. The γ correction unit 70 displays the image on the display unit 16.
Gradation correction is performed in accordance with the type of the display unit 16 and the like on the assumption that the display is observed. The image signal output from the γ correction unit 70 is guided to the edge enhancement unit 80. Also,
Here, when the display unit 16 is instructed to display a display based on the depth of field when the release button 8 is pressed to enter the S1 state, the display based on the depth of field is displayed on the display unit 16. The image signal is guided from the γ correction unit 70 to the area dividing unit 230 of the focusing function unit 200 for display.

【0025】エッジ強調部80はレンズ系やCCD撮像
素子30、画像処理などの影響によってボケたエッジを
強調するものである。エッジ強調部80でエッジを強調
されて出力される画像信号は彩度処理部90および表示
部16へと導かれる。なお、ここでは、レリーズボタン
8が押下されてS2状態となると、本撮影を行うべくエ
ッジ強調部80から彩度処理部90へと画像信号が導か
れる。
The edge emphasizing section 80 is for emphasizing a blurred edge due to the influence of the lens system, the CCD image pickup device 30, image processing and the like. The image signal output with the edges enhanced by the edge enhancement unit 80 is guided to the saturation processing unit 90 and the display unit 16. Note that, here, when the release button 8 is pressed to enter the S2 state, the image signal is guided from the edge enhancement unit 80 to the saturation processing unit 90 in order to perform the actual shooting.

【0026】彩度処理部90はエッジ強調部80から入
力されるR,G,Bの画像信号に対して、例えばYCr
Cb系に色空間を変換し、色再現性を向上させる色補正
を行うものである。彩度処理部90で色補正されて出力
される画像信号は記憶画像作成部95へと導かれる。
The saturation processing unit 90 applies, for example, YCr to the R, G, B image signals input from the edge enhancing unit 80.
The color space is converted to the Cb system, and color correction for improving color reproducibility is performed. The image signal that is color-corrected and output by the saturation processing unit 90 is guided to the stored image creating unit 95.

【0027】記憶画像作成部95は本撮影によって得ら
れる画像信号に対して所定の圧縮方法による画像圧縮処
理を施すように構成されており、画像圧縮の施された画
像信号が記憶画像作成部95から出力され、記憶メディ
ア9に記憶される。
The stored image creating section 95 is configured to perform an image compression process by a predetermined compression method on the image signal obtained by the main photographing, and the image signal subjected to the image compression is stored image creating section 95. And is stored in the storage medium 9.

【0028】このように、撮影レンズ11を介してCC
D撮像素子30に結像される被写体像に基づいて取得さ
れた画像信号は、撮影機能部3中のCCD撮像素子30
〜記憶画像作成部95において種々の信号処理を施され
て記憶メディア9に記憶される。
As described above, the CC is taken through the photographing lens 11.
The image signal acquired based on the subject image formed on the D image pickup device 30 is transferred to the CCD image pickup device 30 in the photographing function unit 3.
~ Various signal processing is performed in the stored image creating unit 95 and stored in the storage medium 9.

【0029】次に、合焦機能部200について説明す
る。
Next, the focusing function section 200 will be described.

【0030】合焦機能部200は、画像メモリ201、
評価値算出部205、距離算出部210、領域選出部2
20、領域分割部230、合焦領域決定部240から構
成されている。
The focusing function section 200 includes an image memory 201,
Evaluation value calculation unit 205, distance calculation unit 210, area selection unit 2
20, an area dividing section 230, and a focusing area determining section 240.

【0031】画像メモリ201は、コントラスト方式の
オートフォーカス制御を行うために画像信号を一時的に
記憶するためのものである。この画像メモリ201に
は、レンズ駆動部110が撮影レンズ11のレンズ位置
を段階的に駆動させ、カメラ制御部100の制御によっ
て撮影レンズ11の各レンズ位置で撮影された画像信号
が格納される。
The image memory 201 is for temporarily storing an image signal for performing contrast type autofocus control. In the image memory 201, the lens driving unit 110 drives the lens positions of the taking lens 11 in a stepwise manner, and the image signals taken at the respective lens positions of the taking lens 11 are stored under the control of the camera control unit 100.

【0032】評価値算出部205は画像メモリ201か
ら画像信号を取り込み、画像の複数の評価領域について
コントラストを評価するものである。つまり、評価値算
出部205では、コントラスト方式のオートフォーカス
動作において実施されているものと同様に、評価領域内
の各隣接画素間に関するコントラスト値の総和として評
価値を求める。
The evaluation value calculation unit 205 takes in an image signal from the image memory 201 and evaluates the contrast of a plurality of evaluation areas of the image. That is, the evaluation value calculation unit 205 obtains the evaluation value as the sum of the contrast values between adjacent pixels in the evaluation area, similar to that performed in the contrast autofocus operation.

【0033】図4は、画像メモリ201に取り込まれた
画像G1に対して設定された複数の評価領域Eの一例を
示す模式図である。図4に示すように、評価領域Eは点
線枠で囲まれた長方形の領域であり、それぞれの評価領
域Eの間には多少の間隔があるものの画像G1の全領域
をカバーするように縦に5個、横に4個で合計20個の
同じ大きさの評価領域Eが設けられている。そして、図
4に示すように評価領域Eは撮影前に予め画像に対する
位置が設定され、それぞれの評価領域Eには画像に対す
る位置に対応する番号が付されており、それぞれの評価
領域Eの位置と、対応する番号はカメラ制御部100に
おいて管理されている。したがって、ここでは、評価値
算出部205は画像メモリ201から取り込まれた画像
信号より、20個の評価領域Eにおいて撮影レンズ11
の各レンズ位置におけるコントラストを評価値として算
出する。
FIG. 4 is a schematic diagram showing an example of a plurality of evaluation areas E set for the image G1 captured in the image memory 201. As shown in FIG. 4, the evaluation area E is a rectangular area surrounded by a dotted frame, and the evaluation areas E are vertically arranged so as to cover the entire area of the image G1 although there is some space between them. A total of 20 evaluation regions E of the same size are provided, 5 in total and 4 in the horizontal direction. Then, as shown in FIG. 4, the evaluation area E is set in advance with respect to the image before photographing, and each evaluation area E is assigned with a number corresponding to the position with respect to the image. The corresponding numbers are managed by the camera control unit 100. Therefore, here, the evaluation value calculation unit 205 determines, based on the image signal captured from the image memory 201, that the photographic lens 11 is in the 20 evaluation regions E.
The contrast at each lens position is calculated as an evaluation value.

【0034】そして、カメラ制御部100は評価値算出
部205がすべての評価領域Eについて算出した評価値
に基づいて、最も近景の被写体に対して撮影レンズ11
を合焦状態とするレンズ位置を撮影レンズ11の合焦位
置として求め、カメラ制御部100の制御の下で、求め
た合焦位置へ撮影レンズ11を駆動させることによっ
て、オートフォーカス動作が完了する。具体的には、評
価値算出部205は、図5に示すような画像G1を画像
メモリ201から取り込んで、図6に示すように、画像
G1に対して設定されたすべての評価領域Eについて撮
影レンズ11の各レンズ位置におけるコントラストを評
価値として算出し、最も近景の被写体のある近景領域F
Eの評価値に基づいて、撮影レンズ11の合焦位置を求
め、合焦位置へ撮影レンズ11を駆動させる。
Then, the camera control section 100 uses the evaluation values calculated by the evaluation value calculation section 205 for all the evaluation areas E to take the lens 11 with respect to the object in the closest view.
The autofocus operation is completed by obtaining the lens position that brings the subject into focus as the focus position of the taking lens 11, and driving the taking lens 11 to the obtained focusing position under the control of the camera control unit 100. . Specifically, the evaluation value calculation unit 205 captures the image G1 as shown in FIG. 5 from the image memory 201, and captures all the evaluation areas E set for the image G1 as shown in FIG. The contrast at each lens position of the lens 11 is calculated as an evaluation value, and the foreground region F with the object in the closest view is calculated.
Based on the evaluation value of E, the in-focus position of the taking lens 11 is obtained, and the taking lens 11 is driven to the in-focus position.

【0035】距離算出部210は評価値算出部205が
すべての評価領域Eについて算出した評価値に基づい
て、それぞれの評価領域Eに含まれる被写体までの距離
(被写体距離)をそれぞれ算出するものである。ここで
は、それぞれの評価領域Eにおけるコントラストが最も
高くなるレンズ位置に基づいて被写体距離を算出する。
The distance calculation unit 210 calculates the distance to each subject included in each evaluation area E (subject distance) based on the evaluation values calculated by the evaluation value calculation unit 205 for all evaluation areas E. is there. Here, the subject distance is calculated based on the lens position where the contrast is highest in each evaluation area E.

【0036】領域選出部220は距離算出部210にお
いて算出されたすべての評価領域Eについての被写体距
離のうち被写界深度の範囲内に被写体距離が入る評価領
域を被写界深度内領域として選出する。つまり、ここで
は、評価値に基づいた被写体距離に基づいて、複数の評
価領域のうち、評価領域内の被写体までの被写体距離が
被写界深度の範囲内である評価領域を被写界深度内領域
として選出する。
The area selection unit 220 selects an evaluation area in which the object distance falls within the depth of field range out of the object distances of all the evaluation areas E calculated by the distance calculation unit 210, as the in-depth field area. To do. That is, here, based on the subject distance based on the evaluation value, an evaluation region in which the subject distance to the subject in the evaluation region is within the depth of field is selected from the plurality of evaluation regions. Select as an area.

【0037】ここで、CCD撮像素子30の画素間のピ
ッチ(間隔)をd、許容錯乱円径をδとすると、δ=k
dと表される。一般的には、kは装置固有の定数であ
り、例えばk=2と設定されるが、本実施形態に係る撮
像装置1においては、被写界深度変更ダイヤル10のユ
ーザーによる操作に基づいてkの値を変更することによ
って許容錯乱円径δを変更することができる。許容錯乱
円径δを変更可能とする意義については後述する。さら
に、合焦している被写体(主被写体)までの距離をa、
撮影レンズ11の焦点距離をf、撮影レンズ11のFナ
ンバー(絞り値)をFとすると、被写界深度内に入る位
置は、撮影レンズ11からの距離が、t1(下記数1)
からt2(下記数2)までの間となる。
Here, when the pitch (distance) between pixels of the CCD image pickup device 30 is d and the permissible circle of confusion diameter is δ, δ = k
It is represented by d. In general, k is a device-specific constant, and is set to, for example, k = 2. However, in the imaging device 1 according to the present embodiment, k is determined based on the user's operation of the depth-of-field change dial 10. The permissible circle of confusion diameter δ can be changed by changing the value of. The significance of changing the permissible circle of confusion diameter δ will be described later. Further, the distance to the focused subject (main subject) is a,
Assuming that the focal length of the taking lens 11 is f and the F number (aperture value) of the taking lens 11 is F, at a position within the depth of field, the distance from the taking lens 11 is t1 (Equation 1 below).
To t2 (Equation 2 below).

【0038】[0038]

【数1】 [Equation 1]

【0039】[0039]

【数2】 [Equation 2]

【0040】したがって、領域選出部220はオートフ
ォーカスを完了した時点で、δ、F、a、fは全て決定
されるため、それらの値に基づいてt1およびt2を求
めることによって被写界深度の範囲を算出し、すべての
評価領域Eのうち、評価領域Eについての被写体距離が
被写界深度の範囲内である評価領域Eを被写界深度内領
域として選出する。図7は、領域選出部220によって
選出された被写界深度内領域の具体的な一例を示す模式
図である。図7に示すように、画像G1に対して被写体
距離が被写界深度の範囲内である評価領域を被写界深度
内領域Ha〜Hhとして選出する。そして、評価領域に
は予め位置情報とともに番号が付されているため、カメ
ラ制御部100の制御の下で、選出した被写界深度内領
域に対応する評価領域の番号を合焦領域決定部240へ
送信する。
Therefore, when the area selection unit 220 completes the autofocus, all of δ, F, a, and f are determined, and therefore t1 and t2 are calculated based on these values to determine the depth of field. The range is calculated, and of all the evaluation areas E, the evaluation area E in which the subject distance for the evaluation area E is within the depth of field is selected as the area within the depth of field. FIG. 7 is a schematic diagram showing a specific example of the area within the depth of field selected by the area selection unit 220. As shown in FIG. 7, the evaluation area in which the subject distance is within the range of the depth of field with respect to the image G1 is selected as the areas Ha to Hh. Then, since the evaluation area is numbered together with the position information in advance, under the control of the camera control unit 100, the number of the evaluation area corresponding to the selected area within the depth of field is set as the focus area determination unit 240. Send to.

【0041】領域分割部230はγ補正部70から入力
された画像信号に基づく画像G2中の被写体の特徴に基
づいて、画像G2を複数の分割領域に分割するものであ
る。図5に示したような画像が画像G2としてγ補正部
70から入力された場合、画像G2の被写体の特徴に基
づいて、図8に示すように、画像G2を異なるハッチン
グを付して示す複数の分割領域Ra〜Reに分割する。
ここでは、被写体の特徴として色を用いたK平均法など
を用いて、類似する色の集合を一つの領域として、画像
を分割することができる。なお、類似する色の集合は被
写体の各部の輪郭によって区切られた領域とも言えるた
め、ここでは、画像を被写体の輪郭によって区切られた
領域に分割しているとも言える。また、被写体の輪郭を
直接的に抽出する方法によっても画像を分割することが
できる。また、領域分割部230では分割した分割領域
のそれぞれに対して番号を付して画像中の位置情報とと
もに分割結果を合焦領域決定部240へ送信する。
The area dividing unit 230 divides the image G2 into a plurality of divided areas based on the characteristics of the subject in the image G2 based on the image signal input from the γ correction unit 70. When an image as shown in FIG. 5 is input as the image G2 from the γ correction unit 70, a plurality of images G2 are shown with different hatching based on the characteristics of the subject of the image G2, as shown in FIG. The divided areas Ra to Re are divided.
Here, an image can be divided using a set of similar colors as one area by using a K-means method or the like that uses colors as the characteristics of the subject. Since a set of similar colors can be said to be a region divided by the contour of each part of the subject, it can be said that the image is divided into regions divided by the subject contour here. The image can also be divided by a method of directly extracting the contour of the subject. Further, the area dividing unit 230 assigns a number to each of the divided areas and transmits the division result to the focused area determining unit 240 together with the position information in the image.

【0042】合焦領域決定部240は、領域分割部23
0によって分割された分割領域のうち、1つの被写界深
度内領域の半分以上の領域と重複する領域を含む分割領
域を合焦領域として決定するものである。なお、ここで
合焦領域とは、被写体のうち被写界深度の範囲内にある
領域を示している。具体的な合焦領域の決定方法につい
ては図9および図10を参照しつつ以下説明する。
The in-focus area determining section 240 includes an area dividing section 23.
Among the divided areas divided by 0, a divided area including an area that overlaps with more than half of one in-depth-of-field area is determined as the focus area. Here, the in-focus area refers to an area within the depth of field of the subject. A specific method of determining the focus area will be described below with reference to FIGS. 9 and 10.

【0043】図9および図10は、図7で示した領域選
出部220によって選出された被写界深度内領域Ha〜
Hhのうち被写界深度内領域Hfに基づいて、図8で示
した領域分割部230によって分割された分割領域のう
ちの1つである分割領域Rcが合焦領域であるか否かに
ついて判定を行う様子を説明する模式図である。
FIG. 9 and FIG. 10 show the in-depth-of-field area Ha ~ selected by the area selection unit 220 shown in FIG.
Based on the in-depth-of-field region Hf of Hh, it is determined whether or not the divided region Rc, which is one of the divided regions divided by the region dividing unit 230 shown in FIG. 8, is the focused region. It is a schematic diagram explaining a mode that performs.

【0044】図10は、図9で示した被写界深度内領域
Hfおよび分割領域Rcのみを拡大して示した図であ
る。図10では、被写界深度内領域Hfと分割領域Rc
とが重複する領域を領域Xとし、被写界深度内領域Hf
のうち分割領域Rcと重複しない領域を領域Yとしてい
る。ここで、合焦領域決定部240は、X/(X+Y)
≧0.5である場合、つまり被写界深度内領域Hfと分
割領域Rcとが重複する領域Xが被写界深度内領域Hf
の半分以上である場合に、分割領域Rcを合焦領域とし
て決定する。
FIG. 10 is an enlarged view of only the in-depth-of-field region Hf and the divided region Rc shown in FIG. In FIG. 10, the area Hf within the depth of field and the divided area Rc
A region X is a region where and overlap with each other, and a region Hf within the depth of field
An area Y that does not overlap the divided area Rc is defined as an area Y. Here, the focus area determination unit 240 determines X / (X + Y)
When ≧ 0.5, that is, the region X in which the in-depth-of-field region Hf and the divided region Rc overlap is the in-depth-of-field region Hf.
If it is equal to or more than half, the divided area Rc is determined as the focus area.

【0045】そして、ここでは、合焦領域決定部240
は、すべての被写界深度内領域と分割領域との組合せに
ついて、図9および図10で示したような判定を行う。
なお、1つの分割領域と複数の被写界深度内領域とが重
複する場合、当該1つの分割領域と、少なくとも1つの
被写界深度内領域Hの半分以上の領域とが重複すれば、
当該1つの分割領域を合焦領域として決定する。そし
て、合焦領域決定部240において決定された合焦領域
についての画像中の位置情報に基づいたデータをカメラ
制御部100の制御の下で表示部16へ出力する。
Then, in this case, the focus area determination unit 240
Performs the determination as shown in FIGS. 9 and 10 for all combinations of the depth-of-field region and the divided region.
When one divided area and a plurality of depth-of-field areas overlap, if the one divided area and at least one half or more of the at least one depth-of-field area H overlap,
The one divided area is determined as the focus area. Then, the data based on the position information in the image regarding the focus area determined by the focus area determination unit 240 is output to the display unit 16 under the control of the camera control unit 100.

【0046】なお、ここでは、1つの被写界深度内領域
と分割領域とが重複する領域が当該1つの被写界深度内
領域の半分以上である場合に、分割領域を合焦領域とし
て決定したが、これに限られるものではなく、遠景のコ
ントラストが近景のコントラストよりも大きな撮影条件
等では、1つの被写界深度内領域と重複する領域を多少
なりとも含む分割領域を合焦領域として決定するもので
あっても良い。また、近景のコントラストが比較的大き
な撮影条件等では、上述したように1つの被写界深度内
領域と分割領域とが重複する領域が当該1つの被写界深
度内領域の所定割合以上(好ましくは半分以上)である
場合に、分割領域を合焦領域として決定するようなもの
とした方が好ましい。また、遠景のコントラストが近景
のコントラストよりも明確に小さな撮影条件等を考慮す
ると、1つの被写界深度内領域と分割領域とが重複する
領域が当該1つの被写界深度内領域の8割以上である場
合に、分割領域を合焦領域として決定するようなものと
した方がさらに好ましい。
Note that, here, when the area in which one in-depth-of-field area and the divided area overlap is more than half of the one in-depth-of-field area, the divided area is determined as the in-focus area. However, the present invention is not limited to this, and under a shooting condition or the like in which the contrast of the distant view is larger than the contrast of the near view, a divided region including a region overlapping with one region within the depth of field is set as the focusing region. It may be decided. Further, under a shooting condition or the like in which the contrast of the near view is relatively large, the area where one area within the depth of field and the divided area overlap as described above is equal to or more than a predetermined ratio of the area within the depth of field (preferably Is more than half), it is preferable to determine the divided area as the focused area. Further, in consideration of a shooting condition or the like in which the contrast of the distant view is clearly smaller than the contrast of the near view, an area in which one region within the depth of field and the divided region overlap is 80% of the one region within the depth of field. In the above case, it is more preferable to determine the divided area as the focused area.

【0047】したがって、ここでは、画像中の被写体の
特徴に基づいて分割した各分割領域と各被写界深度内領
域とが重複する領域の面積に基づいて合焦領域を決定す
ることによって、種々の被写体に対して、信頼性の高い
合焦領域を決定することができる。
Therefore, here, the focus area is determined by determining the focus area based on the area of the area where each of the divided areas divided based on the characteristics of the subject in the image and each area within the depth of field overlap. It is possible to determine a highly reliable focusing area for the subject.

【0048】表示部16は撮影待機状態においてCCD
撮像素子30において逐次光電変換して1/30秒毎に
得られる画像信号に基づいて画像表示を行う。なお、表
示部16はエッジ強調部80から入力された画像をライ
ブビュー画像として表示する。また、表示部16は、カ
メラ制御部100の制御の下で、合焦領域決定部240
から入力された合焦領域についてのデータに基づいた表
示をライブビュー画像上において行う。図11は、ライ
ブビュー画像上に合焦領域を示した一例を示す模式図で
ある。図11では、合焦領域に該当する部分を斜線で示
しているが、ここでは、図8で示した分割領域Ra〜R
eのうち分割領域Ra〜Rdが合焦領域として決定され
て表示されており、ライブビュー画像上では、その他の
領域の色とは異なる色の表示態様で分割領域Ra〜Rd
を表示することによって、画像のうち合焦領域と、その
他の領域とを区別して表示する。なお、ここで言う異な
る色の表示態様で表示する具体的な例としては、分割領
域Ra〜Rdをフルカラーで表示し、その他の領域をモ
ノクロで表示するなどの表示方法が挙げられる。したが
って、ここでは、撮影前に入力された画像について合焦
領域とその他の領域とを区別して表示することによっ
て、撮影前に被写界深度の範囲内に含まれている被写体
をより分かり易く表示することができる。
The display unit 16 is a CCD in the standby state for photographing.
Image display is performed based on an image signal obtained by performing photoelectric conversion in the image pickup device 30 every 1/30 second. The display unit 16 displays the image input from the edge enhancement unit 80 as a live view image. Further, the display unit 16 is under the control of the camera control unit 100, the focusing area determination unit 240.
The live view image is displayed on the basis of the data about the in-focus area input from the. FIG. 11 is a schematic diagram showing an example in which the focus area is shown on the live view image. In FIG. 11, the portion corresponding to the in-focus area is indicated by diagonal lines, but here, the divided areas Ra to R shown in FIG.
The divided areas Ra to Rd of e are determined and displayed as the focused areas, and the divided areas Ra to Rd are displayed in a color different from the colors of the other areas on the live view image.
By displaying, the focused area and the other areas of the image are displayed separately. As a specific example of displaying in different color display modes, there is a display method such as displaying the divided areas Ra to Rd in full color and displaying the other areas in monochrome. Therefore, here, by displaying the in-focus area and other areas separately for the image input before shooting, the subject included in the range of the depth of field before shooting can be displayed more easily. can do.

【0049】また、表示部16は、本撮影を行った後
は、カメラ制御部100の制御の下で、アフタービュー
画像を所定の時間表示する。
Further, the display unit 16 displays the after-view image for a predetermined time under the control of the camera control unit 100 after the main photographing.

【0050】カメラ制御部100はCPUが所定のプロ
グラムを実行することによって撮像装置1における種々
の制御を実現し、ユーザーが、レリーズボタン8、撮影
条件設定ボタン14、操作ボタン17、被写界深度情報
表示ボタン20、被写界深度変更設定ボタン25、およ
び表示切換ボタン27を含む各種ボタンを押下操作した
場合や、被写界深度変更ダイヤル10を回動させた場合
に、その操作内容に応じて撮影機能部3および合焦機能
部200の各部やレンズ駆動部110を制御するように
構成される。また、カメラ制御部100は、レンズ駆動
部110と連繋し、オートフォーカス制御時にはレンズ
駆動部110が撮影レンズ11のレンズ位置を段階的に
駆動させた場合に、各レンズ位置でCCD撮像素子30
の撮影動作を制御し、かつ、その撮影された画像信号を
画像メモリ201に格納するように制御する。また、カ
メラ制御部100には図示を省略しているが、各種プロ
グラムや情報を格納、管理するための不揮発性のメモリ
やRAMなどのメモリが備えられている。
The camera control unit 100 realizes various controls in the image pickup apparatus 1 by the CPU executing a predetermined program, and the user releases the release button 8, the photographing condition setting button 14, the operation button 17, the depth of field. Depending on the operation contents when various buttons including the information display button 20, the depth of field change setting button 25, and the display switching button 27 are pressed or the depth of field change dial 10 is rotated. Is configured to control the respective units of the photographing function unit 3 and the focusing function unit 200 and the lens driving unit 110. In addition, the camera control unit 100 is linked to the lens driving unit 110, and when the lens driving unit 110 drives the lens position of the taking lens 11 stepwise during the autofocus control, the CCD image pickup device 30 at each lens position.
The image pickup operation is controlled and the image signal thus photographed is stored in the image memory 201. Although not shown, the camera control unit 100 is provided with a memory such as a non-volatile memory or a RAM for storing and managing various programs and information.

【0051】被写界深度情報表示ボタン20は、レリー
ズボタン8を押下してS1状態とする前に当該被写界深
度情報表示ボタン20の押下によって、オートフォーカ
ス後、合焦領域決定部240から入力された合焦領域に
ついてのデータに基づいた表示をライブビュー画像上に
おいて行うためのものである。また、ライブビュー画像
上において合焦領域に基づいた表示が行われている状態
で、被写界深度情報表示ボタン20を押下すると、合焦
領域に基づいた表示が消え、再び被写界深度情報表示ボ
タン20を押下すると、ライブビュー画像上において合
焦領域に基づいた表示を行う。なお、合焦領域に基づい
た表示をしない場合には、図12に示すようにライブビ
ュー画像上には最も近景の被写体のある近景領域FEの
輪郭をユーザーが区別可能なように表示する。
The depth-of-field information display button 20 is pushed from the depth-of-field information display button 20 before the release button 8 is pressed to enter the S1 state. This is for displaying on the live view image based on the input data about the in-focus area. Further, when the depth-of-field information display button 20 is pressed while the display based on the in-focus area is performed on the live view image, the display based on the in-focus area disappears and the depth-of-field information is displayed again. When the display button 20 is pressed, the live view image is displayed based on the in-focus area. When the display based on the in-focus area is not performed, the contour of the foreground area FE where the closest object is present is displayed on the live view image so that the user can distinguish it, as shown in FIG.

【0052】表示切換ボタン27は、ライブビュー画像
上における合焦領域に基づいた表示の表示方法を切り換
えるボタンである。具体的には、図11で示したよう
に、ライブビュー画像上でその他の領域の色とは異なる
色の表示態様で合焦領域を表示している状態で、表示切
換ボタン27が押下されると、カメラ制御部100の制
御の下で、図13に示すように、ライブビュー画像上で
その他の領域の輪郭よりも合焦領域の輪郭を強調するよ
うな表示態様に切り換え、再び表示切換ボタン27が押
下されると、図11に示すようなその他の領域の色とは
異なる色の表示態様で合焦領域を表示する表示に切り換
える。つまり、ユーザーは、時と場合によってライブビ
ュー画像上への合焦領域に基づく表示態様を切り換える
ことができる。したがって、撮影前に入力された画像の
うち、合焦領域とその他の領域とを区別するために、そ
の他の領域の色とは異なる色の表示態様で合焦領域の色
を表示したり、その他の領域の輪郭とは異なる表示態様
で合焦領域の輪郭を表示することによって、被写界深度
の範囲内に含まれる被写体を視覚的に分かり易く表示す
ることができる。
The display switching button 27 is a button for switching the display method of the display based on the in-focus area on the live view image. Specifically, as shown in FIG. 11, the display switching button 27 is pressed in a state where the focused area is displayed in a display mode of a color different from the colors of the other areas on the live view image. Then, under the control of the camera control unit 100, as shown in FIG. 13, the display mode is switched to a mode in which the contour of the focused area is emphasized over the contours of other areas on the live view image, and the display switching button is again displayed. When 27 is pressed, the display is switched to display the focused area in a display mode of a color different from the colors of the other areas as shown in FIG. That is, the user can switch the display mode based on the focused area on the live view image depending on the time. Therefore, in order to distinguish the in-focus area from other areas in the image input before shooting, the colors of the in-focus area are displayed in a display mode different from the colors of the other areas, and By displaying the contour of the in-focus area in a display mode different from the contour of the area, the subject included in the depth of field can be displayed in an easily understandable manner.

【0053】また、図11および図13では、表示部1
6に表示されるライブビュー画像の一部の領域を合焦領
域が占める場合について示しているが、もしも、ライブ
ビュー画像の全領域が合焦領域に該当する場合に合焦領
域に該当する領域の色をその他の領域の色とは異なる表
示態様で表示したり、合焦領域に該当する領域の輪郭を
その他の領域の輪郭とは異なる表示態様で表示すると、
ライブビュー画像全体の色が異なる表示態様で表示され
たり、ライブビュー画像全体にわたって輪郭が異なる表
示態様で表示されたりして、ライブビュー画像が非常に
見づらいものとなる。
11 and 13, the display unit 1
6 shows the case where the focus area occupies a part of the live view image displayed in No. 6, but if the entire area of the live view image corresponds to the focus area, the area corresponding to the focus area When the color of is displayed in a display mode different from the colors of the other areas, or when the contour of the area corresponding to the focus area is displayed in a display mode different from the contours of the other areas,
The entire live view image is displayed in different display modes, and the entire live view image is displayed in different display outlines, which makes the live view image very difficult to see.

【0054】そこで、ここでは、合焦領域決定部240
において撮影前に入力された画像G2の全領域が合焦領
域であると決定した場合、カメラ制御部100の制御の
下で、図14に示すように、表示部16の右上に特別な
記号13Aを表示することによって、ライブビュー画像
の全領域が合焦領域に該当する旨を表示する。したがっ
て、ここでは、撮影前に入力された画像の全領域が合焦
領域である場合は、その旨を表示することによって、撮
影前にすべての被写体が被写界深度の範囲内に含まれて
いることを見易く表示することができる。
Therefore, here, the focus area determining unit 240
When it is determined that the entire area of the image G2 input before the shooting is the in-focus area, the special symbol 13A is displayed on the upper right of the display unit 16 under the control of the camera control unit 100, as shown in FIG. By displaying, the fact that the entire area of the live view image corresponds to the focused area is displayed. Therefore, here, if the entire area of the image input before shooting is the focus area, by displaying that fact, all the subjects are included in the range of the depth of field before shooting. It can be displayed in an easy-to-see manner.

【0055】被写界深度変更設定ボタン25は、押下さ
れるとカメラ制御部100の制御の下で、被写界深度を
算出する際に用いられる許容錯乱円径δの値を被写界深
度変更ダイヤル10の回動によって変更可能な状態とす
ることができる。また、再び被写界深度変更設定ボタン
25が押下されると、カメラ制御部100の制御の下
で、被写界深度変更ダイヤル10を回動させても許容錯
乱円径δの値が変更されない状態となる。
When the depth-of-field change setting button 25 is pressed, the value of the permissible circle of confusion diameter δ used when calculating the depth of field is controlled by the camera control unit 100. A changeable state can be obtained by rotating the change dial 10. When the depth of field change setting button 25 is pressed again, the value of the permissible circle of confusion diameter δ is not changed even if the depth of field change dial 10 is rotated under the control of the camera control unit 100. It becomes a state.

【0056】図15および図16は、具体的に被写界深
度変更ダイヤル10の回動によって許容錯乱円径δの値
を変更した際の合焦領域の決定および表示について示し
た模式図である。なお、ここでは、図7で被写界深度内
領域Ha〜Hhを求めた時よりも許容錯乱円径δの値を
小さくする方向に変更した場合、つまり、被写界深度の
範囲をより狭くする方向に変更した場合を示している。
FIGS. 15 and 16 are schematic diagrams showing the determination and display of the in-focus area when the value of the permissible circle of confusion diameter δ is specifically changed by rotating the depth-of-field change dial 10. . It should be noted that here, when the value of the permissible circle of confusion diameter δ is changed to be smaller than when the areas Ha to Hh in the depth of field in FIG. 7 are changed, that is, the range of the depth of field is narrowed. This shows the case where the direction is changed to.

【0057】図15は、領域選出部220によって選出
された被写界深度内領域の具体的な一例を示す模式図で
ある。図15に示すように、画像G1に対して被写体距
離が被写界深度の範囲内である評価領域を被写界深度内
領域Ha〜Heとして選出する。ここでは、図7に示し
た被写界深度内領域Ha〜Hhを選出したときよりも、
被写界深度の範囲が狭くなっているため、最も近景の被
写体のある近景領域FE(被写界深度内領域Hb)内の
被写体の距離から比較的近い被写体距離の被写体を持つ
評価領域が被写界深度内領域Ha〜Heとして選出され
る。
FIG. 15 is a schematic diagram showing a specific example of the in-depth-of-field area selected by the area selecting section 220. As shown in FIG. 15, the evaluation area in which the subject distance is within the range of the depth of field with respect to the image G1 is selected as the areas Ha to He within the depth of field. Here, rather than when the areas Ha to Hh in the depth of field shown in FIG. 7 are selected,
Since the range of the depth of field is narrow, the evaluation region having a subject with a relatively short subject distance from the subject distance in the foreground region FE (region within depth of field Hb) where the closest subject is located is covered. Areas within the depth of field Ha to He are selected.

【0058】図16は、図15で示した被写界深度内領
域に基づいて合焦領域決定部240において決定した合
焦領域に基づいてライブビュー画像上に行った表示を示
す模式図である。ここでは、図11で示した合焦領域に
基づいてライブビュー画像上に表示を行ったときより
も、被写界深度の範囲が狭くなっているため、最も近景
の被写体である右側の人物(分割領域Ra,Rb)のみ
が合焦領域として決定されて表示されている。
FIG. 16 is a schematic diagram showing a display performed on the live view image based on the focus area determined by the focus area determining unit 240 based on the area within the depth of field shown in FIG. . Here, since the range of the depth of field is narrower than when the display is performed on the live view image based on the in-focus area shown in FIG. 11, the person on the right side, which is the closest subject ( Only the divided areas Ra and Rb) are determined and displayed as the focus area.

【0059】このように、ユーザーは、被写界深度変更
ダイヤル10を回動させることによって、被写界深度を
指定する値を変更可能とすることで、要求される許容ぼ
けの条件が比較的厳しい撮影と、比較的厳しくない撮影
とで、合焦領域を決定するための条件を変化させること
ができるため、撮影条件に合わせた合焦領域の表示をす
ることができる。
As described above, the user can change the value designating the depth of field by rotating the depth of field changing dial 10, so that the required blurring condition is relatively small. Since the condition for determining the in-focus area can be changed between strict shooting and relatively less severe shooting, it is possible to display the in-focus area according to the shooting conditions.

【0060】<撮像装置1の動作>次に、撮像装置1の
動作について説明する。図17および図18は撮像装置
1における合焦動作および被写界深度に基づいた表示を
行うための処理を示すフローチャートである。なお、こ
こでは、説明を簡単にするために、許容錯乱円径δはあ
らかじめユーザーによって被写界深度変更ダイヤル10
によって設定されており、図17および図18のフロー
チャート上では許容錯乱円径δは変更されないものと
し、表示切換ボタン27が途中で押下されて合焦領域に
基づいた表示の変更もされない場合を例にとって説明を
行う。
<Operation of Image Pickup Device 1> Next, the operation of the image pickup device 1 will be described. 17 and 18 are flowcharts showing the processing for performing the focusing operation and the display based on the depth of field in the image pickup apparatus 1. Here, in order to simplify the description, the permissible circle of confusion δ is set beforehand by the user by the depth of field changing dial 10.
17 and 18, the permissible circle of confusion diameter δ is not changed, and the display switching button 27 is pressed midway and the display based on the in-focus area is not changed. To explain.

【0061】まず、撮像装置1が撮影待機状態となる
と、図17に示すステップS1に進む。
First, when the image pickup apparatus 1 is in the image pickup standby state, the process proceeds to step S1 shown in FIG.

【0062】ステップS1では、撮像装置1のカメラ制
御部100は、ユーザーがレリーズボタン8を半押し状
態(S1)としてオートフォーカス動作開始の指示の入
力を行ったか否かを判断する。そして、ユーザーからの
オートフォーカス動作の指示の入力があった場合に、撮
像装置1においてCCD撮像素子30に結像される被写
体像を合焦状態とするためのオートフォーカス制御が開
始され、ステップS2へ進む。
In step S1, the camera control unit 100 of the image pickup apparatus 1 determines whether or not the user has input the instruction to start the autofocus operation with the release button 8 half pressed (S1). Then, when the user inputs an instruction of the autofocus operation, the autofocus control for bringing the subject image formed on the CCD image pickup device 30 into the focused state in the image pickup apparatus 1 is started, and step S2 Go to.

【0063】ステップS2では、レンズ駆動部110が
撮影レンズ11のレンズ位置を段階的に駆動させ、カメ
ラ制御部100の制御によって撮影レンズ11の各レン
ズ位置で撮影された画像信号がWB調整部50から画像
メモリ201へ取り込まれて画像G1として格納され、
ステップS3へ進む。
In step S2, the lens driving unit 110 drives the lens position of the taking lens 11 step by step, and the image signal taken at each lens position of the taking lens 11 is controlled by the camera control unit 100 so that the WB adjusting unit 50 outputs the image signal. From the image memory 201 and stored as an image G1,
Go to step S3.

【0064】ステップS3では、評価値算出部205に
おいて、ステップS2において画像メモリ209に取り
込まれた画像G1に対して設けた、図6に示したような
すべての評価領域Eについて、撮影レンズ11の各レン
ズ位置におけるコントラストを評価値として算出してス
テップS4へ進む。
In step S3, in the evaluation value calculation unit 205, all the evaluation areas E as shown in FIG. 6 which are provided for the image G1 captured in the image memory 209 in step S2 are stored in the photographing lens 11. The contrast at each lens position is calculated as an evaluation value, and the process proceeds to step S4.

【0065】ステップS4では、カメラ制御部100が
ステップS3で算出した評価値をもとに、最も近景の被
写体のある近景領域FEの評価値に基づいて撮影レンズ
11を合焦状態とするレンズ位置を撮影レンズ11の合
焦位置として決定し、カメラ制御部100の制御の下
で、決定した合焦位置へ撮影レンズ11を駆動させ、ス
テップS5へ進む。
In step S4, based on the evaluation value calculated in step S3 by the camera control unit 100, the lens position for bringing the photographing lens 11 into the in-focus state based on the evaluation value of the near-view area FE where the subject in the closest view is located. Is determined as the focus position of the photographing lens 11, and the photographing lens 11 is driven to the determined focus position under the control of the camera control unit 100, and the process proceeds to step S5.

【0066】ステップS5では、カメラ制御部100
が、ユーザーによる被写界深度情報表示ボタン20の押
下操作によって表示部16にライブビュー画像とともに
被写界深度に基づく表示を行うように設定されているか
否かを判断する。ここでは、被写界深度に関する情報を
表示するように設定されている場合には、ステップS6
へ進み、被写界深度に基づく表示を行うように設定され
ていない場合には、ステップS12へ進む。
In step S5, the camera controller 100
However, it is determined whether or not the display unit 16 is set to display the live view image based on the depth of field by pressing the depth of field information display button 20 by the user. Here, if it is set to display the information regarding the depth of field, step S6 is performed.
If the display based on the depth of field is not set, the process proceeds to step S12.

【0067】ステップS6では、距離算出部210が、
ステップS3において算出された評価値に基づいてすべ
ての評価領域Eそれぞれに含まれる被写体までの被写体
距離をそれぞれ算出し、ステップS7へ進む。
In step S6, the distance calculation unit 210
Based on the evaluation value calculated in step S3, the subject distance to the subject included in each of the evaluation areas E is calculated, and the process proceeds to step S7.

【0068】ステップS7では、領域選出部220がオ
ートフォーカスを完了した時点で決定された許容錯乱円
径δ、絞り値F、合焦しているの被写体(主被写体)ま
での距離a、撮影レンズ11の焦点距離fに基づいて被
写界深度の範囲を算出し、ステップS8へ進む。
In step S7, the permissible circle of confusion diameter δ, the aperture value F, the distance a to the focused subject (main subject), which is determined when the area selection unit 220 completes the autofocus, the photographing lens The range of the depth of field is calculated based on the focal length f of 11, and the process proceeds to step S8.

【0069】ステップS8では、領域選出部220がス
テップS6で算出されたすべての評価領域Eの被写体距
離のうち被写界深度の範囲内に被写体距離が入る評価領
域を被写界深度内領域として選出しステップS9へ進
む。つまり、ここでは、図6で示したような評価領域E
から、図7で示したように、被写界深度内領域を選出
し、すべての評価領域Eには位置情報と対応付けられた
番号が付されているため、被写界深度内領域に対応する
番号を合焦領域決定部240へ送信する。
In step S8, the area selection unit 220 sets the evaluation area in which the object distance falls within the depth of field of the object distances of all the evaluation areas E calculated in step S6 as the in-depth of area area. Proceed to the selection step S9. That is, here, the evaluation area E as shown in FIG.
From the above, as shown in FIG. 7, a region within the depth of field is selected, and since all evaluation regions E are numbered in association with position information, they correspond to the region within the depth of field. The number to be selected is transmitted to the focus area determination unit 240.

【0070】ステップS9では、領域分割部230がγ
補正部70から入力された画像G2中の被写体の特徴に
基づいて、画像G2を複数の分割領域に分割し、ステッ
プS10へ進む。つまり、ここでは、図8に示したよう
に、画像を被写体の特徴に基づいて被写体の輪郭によっ
て区切られた領域に分割する。そして、ここでは、領域
分割部230では分割した分割領域のそれぞれに対して
番号を付して画像中の位置情報とともに分割結果を合焦
領域決定部240へ送信する。
In step S9, the area dividing section 230 sets the γ
The image G2 is divided into a plurality of divided areas based on the characteristics of the subject in the image G2 input from the correction unit 70, and the process proceeds to step S10. That is, here, as shown in FIG. 8, the image is divided into regions divided by the contour of the subject based on the features of the subject. Then, here, the area division unit 230 assigns a number to each of the divided areas and transmits the division result to the focused area determination unit 240 together with the position information in the image.

【0071】ステップS10では、合焦領域決定部24
0がステップS9において分割された分割領域のうち、
1つの被写界深度内領域の半分以上の領域と重複する領
域を含む分割領域を合焦領域として決定する。このステ
ップS10における合焦領域決定部240の具体的な処
理のフローについては、図18において別フローチャー
トとして示している。
In step S10, the focus area determining unit 24
0 is among the divided areas divided in step S9
A divided area including an area that overlaps with more than half of one area within the depth of field is determined as the focus area. A specific processing flow of the focusing area determination unit 240 in step S10 is shown as another flowchart in FIG.

【0072】ステップS9からステップS10へ進む
と、図18に示す合焦領域の決定の動作が開始され、ス
テップS21へ進む。
When the process proceeds from step S9 to step S10, the operation of determining the focus area shown in FIG. 18 is started, and the process proceeds to step S21.

【0073】ステップS21では、ステップS8におい
て選出されたm個の被写界深度内領域Hk(k=1,
2,3,・・・,m)の画像中における位置情報を取り
込んでステップS22へ進む。
In step S21, the m in-depth-of-field regions Hk (k = 1, 1) selected in step S8 are selected.
2, 3, ..., M), position information in the image is fetched, and the process proceeds to step S22.

【0074】ステップS22では、ステップS9におい
て分割されたn個の分割領域Rj(j=1,2,3,・
・・,n)の画像中における位置情報を取り込んでステ
ップS23へ進む。
In step S22, the n divided regions Rj (j = 1, 2, 3, ...) Divided in step S9.
.., n), the position information in the image is fetched, and the process proceeds to step S23.

【0075】ステップS23では、1つの被写界深度内
領域Hkと1つの分割領域Rjとが重複する領域の面積
Dを算出し、ステップS24へ進む。ここでは、まだス
テップS24の判定がされていない被写界深度内領域H
kと分割領域Rjの組合せのうち、分割領域Rjについ
ては付された番号が最小の分割領域Rjが算出の対象と
なり、この番号が最小の分割領域Rjと、当該分割領域
Rjに対してまだステップS24の判定がされていない
被写界深度内領域Hkのうち付された番号が最小の被写
界深度内領域Hkとの組合せについて面積Dを算出する
こととなる。
In step S23, the area D of the area in which one in-depth-of-field area Hk and one divided area Rj overlap is calculated, and the flow advances to step S24. Here, the region H within the depth of field that has not been determined in step S24
Among the combinations of k and the divided areas Rj, the divided area Rj with the smallest number assigned to the divided area Rj is the target of calculation, and the divided area Rj with the smallest number and the step for the divided area Rj are still in step. The area D is calculated for a combination with the in-depth-of-field area Hk having the smallest number in the in-depth-of-field area Hk that has not been determined in S24.

【0076】ステップS24では、ステップS23で算
出した面積Dが各被写界深度内領域の面積Sの半分以上
であるか否かについて判定を行う。つまり、D≧0.5
Sであるか否かを判定し、D≧0.5Sである場合はス
テップS25へ進み、D≧0.5Sでない場合はステッ
プS26へ進む。
In step S24, it is determined whether the area D calculated in step S23 is equal to or more than half the area S of each in-depth-of-field region. That is, D ≧ 0.5
It is determined whether S or not. If D ≧ 0.5S, the process proceeds to step S25, and if D ≧ 0.5S, the process proceeds to step S26.

【0077】ステップS25では、ステップS24にお
いてD≧0.5Sであると判定されたため、分割領域R
jにかかる被写体を被写界深度の範囲内であると決定
し、ステップS28へ進む。
In step S25, since it is determined in step S24 that D ≧ 0.5S, the divided region R
It is determined that the subject of j is within the depth of field, and the process proceeds to step S28.

【0078】ステップS26では、m個すべての被写界
深度内領域Hkについて判定が済んだか否かについて判
断を行う。ここでは、m個すべての被写界深度内領域H
kについて判定が済んでいる場合はステップS27へ進
み、m個すべての被写界深度内領域Hkについて判定が
済んでいない場合はステップS23へ戻り、次の被写界
深度内領域Hkについて判定等を行う。つまり、1つの
分割領域Rjに対して、ステップS24においてD≧
0.5Sであると判定をするまで、m個の被写界深度内
領域Hkと重複する領域の面積Dを順に算出し、ステッ
プS24の判定を繰り返す。
In step S26, it is determined whether or not the determination has been completed for all m in-depth-of-field regions Hk. Here, all m depth-of-field regions H
If the determination has been completed for k, the process proceeds to step S27. If the determination has not been completed for all m in-depth-of-field regions Hk, the process returns to step S23 to determine the next in-depth-of-field region Hk. I do. That is, for one divided region Rj, D ≧ D in step S24.
Until it is determined to be 0.5S, the areas D of the regions overlapping the m in-depth-of-field regions Hk are sequentially calculated, and the determination of step S24 is repeated.

【0079】ステップS27では、1つの分割領域Rj
に対して、m個すべての被写界深度内領域Hkと重複す
る面積Dを算出してステップS24においてD≧0.5
Sであると判定されなかったため、分割領域Rjにかか
る被写体は被写界深度の範囲外であると決定し、ステッ
プS28へ進む。
In step S27, one divided region Rj
On the other hand, the area D that overlaps with all the m in-depth-of-field regions Hk is calculated, and D ≧ 0.5 in step S24.
Since it is not determined to be S, it is determined that the subject in the divided region Rj is out of the depth of field, and the process proceeds to step S28.

【0080】ステップS28では、n個すべての分割領
域Rjについて判定が済んだか否かについて判断を行
う。ここでは、n個すべての分割領域Rjについて判定
が済んでいる場合はステップS29へ進み、n個すべて
の分割領域Rjについて判定が済んでいない場合はステ
ップS23へ戻り、次の分割領域Rjについて判定等を
行う。
In step S28, it is determined whether or not the determination has been completed for all n divided areas Rj. Here, if the determination is completed for all n divided areas Rj, the process proceeds to step S29. If the determination is not completed for all n divided areas Rj, the process returns to step S23 to determine the next divided area Rj. And so on.

【0081】ステップS29では、ステップS25およ
びステップS27において決定された合焦領域について
の画像中の位置情報に基づいたデータをカメラ制御部1
00の制御の下で表示部16へ出力し、合焦領域の決定
のフローが終了する。
In step S29, the data based on the position information in the image of the in-focus area determined in steps S25 and S27 is transferred to the camera controller 1.
Output to the display unit 16 under the control of 00, and the flow of determining the focus area ends.

【0082】このようにステップS10において合焦領
域が決定されると、ステップS11へ進む。
When the focus area is determined in step S10 as described above, the process proceeds to step S11.

【0083】ステップS11では、ステップS12にお
いて決定された合焦領域に基づいてカメラ制御部100
の制御の下で表示部16に表示が行われ、ステップS1
3へ進む。具体的には、合焦領域決定部240からカメ
ラ制御部100の制御の下で表示部16へ入力された合
焦領域についての画像中の位置情報に基づいて、図11
に示すように、ライブビュー画像上で、その他の領域の
色とは異なる色の表示態様で合焦領域を表示する。
In step S11, the camera control unit 100 is determined based on the focus area determined in step S12.
Is displayed on the display unit 16 under the control of step S1.
Go to 3. Specifically, based on the positional information in the image regarding the focus area input from the focus area determination unit 240 to the display unit 16 under the control of the camera control unit 100, the process shown in FIG.
As shown in, the focused area is displayed on the live view image in a display mode of a color different from the colors of the other areas.

【0084】また、ステップS5において、表示部16
にライブビュー画像とともに被写界深度に基づく表示を
行うように設定されていないと判断した場合にはステッ
プS12へ進むが、ステップS12では、図12に示す
ように、カメラ制御部100の制御の下で、撮影レンズ
11の合焦位置を決定した際に用いされた最も近景の被
写体のある近景領域FEの輪郭をライブビュー画像上に
ユーザーが区別可能なように表示し、ステップS13へ
進む。
In step S5, the display unit 16
When it is determined that the display based on the depth of field is not set together with the live view image in step S12, the process proceeds to step S12. In step S12, as shown in FIG. Below, the contour of the foreground area FE with the closest object used when the focus position of the taking lens 11 is determined is displayed on the live view image so that the user can distinguish it, and the process proceeds to step S13.

【0085】ステップS13では、カメラ制御部100
がS1状態が継続されているか否かを判断する。ここで
は、S1状態が継続されていると判断した場合はステッ
プS14へ進み、レリーズボタン8が押下されてS1状
態となってから30秒間経過してもレリーズボタン8の
押下によってS2状態とならない場合や、再びレリーズ
ボタン8が半押しされた場合に、S1状態が解除された
と判断し、ステップS15へ進む。
In step S13, the camera control unit 100
Determines whether the S1 state is continued. Here, if it is determined that the S1 state is continued, the process proceeds to step S14, and if the release button 8 is not pressed to enter the S2 state even after 30 seconds have elapsed since the release button 8 was pressed to enter the S1 state, Alternatively, when the release button 8 is half-pressed again, it is determined that the S1 state is released, and the process proceeds to step S15.

【0086】ステップS14では、カメラ制御部100
がレリーズボタン8が押下されてS2状態となったか否
かを判断する。ここでは、S2状態となった場合はステ
ップS16へ進み、S2状態とならない場合はステップ
S13へ戻る。
In step S14, the camera control unit 100
Determines whether the release button 8 has been pressed to enter the S2 state. Here, if the state is S2, the process proceeds to step S16, and if the state is not S2, the process returns to step S13.

【0087】ステップS15では、S1状態が解除され
たことに伴って、ステップS11においてライブビュー
画像上に表示した合焦領域に基づいた表示を消去し、ス
テップS1へ戻る。
In step S15, the display based on the in-focus area displayed on the live view image in step S11 is erased as the S1 state is released, and the process returns to step S1.

【0088】ステップS16では、ステップS15にお
いてレリーズボタン8が押下されてS2状態になったた
め、カメラ制御部100の制御の下で本撮影の処理が実
施されて、ステップS1へ戻る。
In step S16, since the release button 8 is pressed in step S15 to enter the S2 state, the main photographing process is performed under the control of the camera control unit 100, and the process returns to step S1.

【0089】以上、本実施形態では、撮影前に入力され
た画像中の複数の評価領域についてそれぞれ評価値を求
め、その値に基づいてオートフォーカスを行い、また、
複数の評価領域についての評価値に基づいて被写体距離
が被写界深度の範囲内である評価領域を被写界深度内領
域として選出し、画像中の被写体の特徴に基づいて分割
した分割領域のうち被写界深度内領域と重複する領域を
含む分割領域を合焦領域として決定し、決定した合焦領
域に基づいた表示を行うことによって、撮影前に被写界
深度の範囲内に含まれている被写体をより分かり易く表
示することができる。
As described above, in the present embodiment, the evaluation value is obtained for each of a plurality of evaluation regions in the image input before photographing, and autofocusing is performed based on the evaluation value.
Based on the evaluation values of multiple evaluation areas, an evaluation area whose subject distance is within the depth of field is selected as an area within the depth of field, and the divided areas are divided based on the characteristics of the subject in the image. The divided area including the area that overlaps the in-depth-of-field area is determined as the in-focus area, and display is performed based on the determined in-focus area so that it is included in the in-depth-of-field area before shooting. It is possible to display the subject in a more understandable manner.

【0090】<変形例>以上、この発明の実施形態につ
いて説明したが、この発明は上記説明した内容のものに
限定されるものではない。
<Modification> The embodiment of the present invention has been described above, but the present invention is not limited to the above description.

【0091】例えば、上述した実施形態においては、撮
影レンズ11の合焦位置を決定する際に用いた評価値に
かかる最も近景の被写体のある近景領域についても、領
域内の被写体までの被写体距離を算出して被写界深度内
領域として選出していたが、これに限られるものではな
く、近景領域については、被写界深度の範囲内に存在し
ているのは当然であるため、領域内の被写体までの被写
体距離を算出することなく、被写界深度内領域として選
出するようなものであっても良い。
For example, in the above-described embodiment, the object distance to the subject within the region is also set for the foreground region where the closest subject is the evaluation value used in determining the focus position of the taking lens 11. Although it was calculated and selected as the region within the depth of field, it is not limited to this, and it is natural that the near view region exists within the range of the depth of field. The object may be selected as the in-depth-of-field area without calculating the object distance to the object.

【0092】また、上述した実施形態においては、画像
中に設定された評価領域は20個であったが、これに限
られるものではなく、評価領域の数を減少させたり、増
加させたものであっても良い。
In the above-described embodiment, the number of evaluation areas set in the image is 20, but the number is not limited to this, and the number of evaluation areas may be decreased or increased. It may be.

【0093】また、上述した実施形態においては、画像
に対して設けられた複数の評価領域について、各々の評
価領域の間隔が空いていたが、これに限られるものでは
なく、各々の評価領域の間隔が空いていないものであっ
ても良い。
Further, in the above-described embodiment, the plurality of evaluation areas provided for the image are spaced apart from each other, but the present invention is not limited to this. It does not matter if there are no intervals.

【0094】また、上述した実施形態においては、ライ
ブビュー画像上に合焦領域と近景領域とを同時に表示し
なかったが、これに限られるものではなく、ライブビュ
ー画像上に合焦領域と近景領域とを同時に表示するよう
なものであっても良い。
Further, in the above-described embodiment, the in-focus area and the near view area are not simultaneously displayed on the live view image, but the present invention is not limited to this, and the in-focus area and the near view area are displayed on the live view image. The area and the area may be displayed at the same time.

【0095】また、上述した実施形態においては、画像
中の評価領域内の被写体の被写体距離を算出して被写界
深度内領域を選出したが、これに限られるものではな
く、例えば、すべての評価領域内の評価値がそれぞれ最
大となる撮影レンズ11の位置に基づいた値など、評価
領域についての評価値に基づいた何らかの値に基づい
て、被写界深度内領域を選出するようにしても良い。
Further, in the above-described embodiment, the subject distance of the subject in the evaluation region in the image is calculated to select the region within the depth of field. However, the present invention is not limited to this, and for example, all The intra-depth-of-field area may be selected based on some value based on the evaluation value for the evaluation area, such as a value based on the position of the taking lens 11 where the evaluation value in the evaluation area is maximum. good.

【0096】また、上述した実施形態における撮像装置
の動作においては、許容錯乱円径δがあらかじめユーザ
ーによって設定されていた状態における被写界深度に基
づく表示を行う場合について示したが、これに限られる
ものではなく、被写界深度に基づく表示がなされている
時に、ユーザーが被写界深度変更ダイヤル10を回動さ
せることによって、変更された許容錯乱円径δにしたが
った合焦領域を改めて決定して被写界深度に基づく表示
を変更するようなものであっても良い。
Further, in the operation of the image pickup apparatus in the above-described embodiment, the case where the display based on the depth of field in the state in which the permissible circle of confusion diameter δ is set in advance by the user is shown, but the present invention is not limited to this. However, the user rotates the depth-of-field change dial 10 when the display based on the depth-of-field is performed, so that the focus area according to the changed permissible circle of confusion diameter δ is re-established. It may be determined and the display based on the depth of field may be changed.

【0097】また、上述した実施形態における撮像装置
の動作においては、被写界深度に基づく表示がなされて
いる時に、表示切換ボタン27が途中で押下されない場
合について示したが、これに限られるものではなく、被
写界深度に基づく表示がなされている時に、表示切換ボ
タン27が途中で押下されることによって、被写界深度
に基づく表示と、近景領域の輪郭が区別可能な表示とを
切り換えるようなものであっても良い。
Further, in the operation of the image pickup apparatus in the above-described embodiment, the case where the display switching button 27 is not pressed halfway when the display based on the depth of field is shown, but the present invention is not limited to this. Instead, when the display based on the depth of field is being displayed, the display switching button 27 is pressed midway to switch between the display based on the depth of field and the display in which the contour of the near view area can be distinguished. It may be something like this.

【0098】なお、上述した具体的実施形態には以下の
構成を有する発明が含まれている。
The specific embodiments described above include inventions having the following configurations.

【0099】(1)請求項2に記載された撮像装置であ
って、前記表示手段が、撮影前に入力された前記画像の
うち、前記その他の領域の色とは異なる色の表示態様で
前記合焦領域を表示することを特徴とする撮像装置。
(1) The image pickup device according to claim 2, wherein the display means displays the image input before photographing in a color different from the color of the other regions. An imaging device, which displays a focused area.

【0100】(1)の発明によれば、撮影前に入力され
た画像のうち、合焦領域とその他の領域とを区別するた
めに、その他の領域とは異なる色の表示態様で合焦領域
の色を表示することによって、被写界深度の範囲内に含
まれる被写体を視覚的に分かり易く表示することができ
る。
According to the invention of (1), in order to distinguish the in-focus area from other areas in the image input before photographing, the in-focus area is displayed in a color different from that of the other areas. By displaying the color of, the subject included in the range of the depth of field can be displayed in a visually easy-to-understand manner.

【0101】(2)請求項2に記載された撮像装置であ
って、前記表示手段が、撮影前に入力された前記画像の
うち、前記その他の領域の輪郭とは異なる表示態様で前
記合焦領域の輪郭を表示することを特徴とする撮像装
置。
(2) The image pickup apparatus according to claim 2, wherein the display unit displays the in-focus image in a display mode different from the contours of the other regions in the image input before photographing. An image pickup apparatus characterized by displaying an outline of an area.

【0102】(2)の発明によれば、撮影前に入力され
た画像のうち、合焦領域とその他の領域とを区別するた
めに、その他の領域の輪郭とは異なる表示態様で合焦領
域の輪郭を表示することによって、被写界深度の範囲内
に含まれる被写体を視覚的に分かり易く表示することが
できる。
According to the invention of (2), in order to distinguish the in-focus region from other regions in the image input before photographing, the in-focus region is displayed in a display mode different from the contours of the other regions. By displaying the contour of, the subject included in the range of the depth of field can be displayed in a visually easy-to-understand manner.

【0103】[0103]

【発明の効果】以上説明したように、請求項1の発明に
よれば、撮影前に入力された画像中の複数の評価領域に
ついてそれぞれ評価値を求め、その値に基づいてオート
フォーカスを行い、また、複数の評価領域についての評
価値に基づいて被写体までの距離が被写界深度の範囲内
である評価領域を被写界深度内領域として選出し、画像
中の被写体の特徴に基づいて分割した分割領域のうち被
写界深度内領域と重複する領域を含む分割領域を合焦領
域として決定し、決定した合焦領域に基づいた表示を行
うことによって、撮影前に被写界深度の範囲内に含まれ
ている被写体をより分かり易く表示することができる。
As described above, according to the first aspect of the invention, the evaluation value is obtained for each of a plurality of evaluation regions in the image input before photographing, and the autofocus is performed based on the evaluation value. In addition, an evaluation area in which the distance to the subject is within the depth of field is selected as an area within the depth of field based on the evaluation values of a plurality of evaluation areas, and divided based on the characteristics of the subject in the image. The divided area including the area that overlaps the in-depth-of-field area among the divided areas is determined as the focused area, and display is performed based on the determined focused area, so that the range of the depth of field before shooting is determined. It is possible to display the subject included in the object more easily.

【0104】また、請求項2の発明によれば、撮影前に
入力された画像について合焦領域とその他の領域とを区
別して表示することによって、撮影前に被写界深度の範
囲内に含まれている被写体をより分かり易く表示するこ
とができる。
According to the second aspect of the present invention, by displaying the in-focus area and the other area separately for the image input before photographing, it is included in the range of depth of field before photographing. It is possible to display the subject in a more understandable manner.

【0105】また、請求項3の発明によれば、撮影前に
入力された画像の全領域が合焦領域である場合は、その
旨を表示することによって、撮影前にすべての被写体が
被写界深度の範囲内に含まれていることを見易く表示す
ることができる。
According to the third aspect of the present invention, when the entire area of the image input before photographing is the in-focus area, a message to that effect is displayed so that all subjects are photographed before photographing. It is possible to easily display that it is included within the depth of field.

【0106】また、請求項4の発明によれば、被写界深
度を指定する値をユーザーの操作によって変更可能とす
ることによって、要求される許容ぼけの条件が比較的厳
しい撮影と、比較的厳しくない撮影とで、合焦領域を決
定するための条件を変化させることができるため、撮影
条件に合わせた合焦領域の表示をすることができる。
According to the invention of claim 4, the value designating the depth of field can be changed by the operation of the user, so that the required blurring condition is relatively strict and Since the condition for determining the in-focus area can be changed depending on whether the shooting is not strict, the in-focus area can be displayed in accordance with the shooting condition.

【0107】また、請求項5の発明によれば、画像中の
被写体の特徴に基づいて分割した各分割領域と各被写界
深度内領域とが重複する領域の面積に基づいて合焦領域
を決定することによって、種々の被写体に対して、信頼
性の高い合焦領域を決定することができる。
Further, according to the invention of claim 5, the focusing area is determined based on the area of the area where each divided area divided based on the characteristics of the subject in the image and each area within the depth of field overlap. By determining, it is possible to determine a highly reliable focus area for various subjects.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施形態である撮像装置を示す斜視
図である。
FIG. 1 is a perspective view showing an imaging device according to an embodiment of the present invention.

【図2】図1に示す撮像装置の背面図である。FIG. 2 is a rear view of the image pickup apparatus shown in FIG.

【図3】図1に示す撮像装置の内部構成を示すブロック
図である。
3 is a block diagram showing an internal configuration of the image pickup apparatus shown in FIG. 1. FIG.

【図4】画像に対して設定された複数の評価領域の一例
を示す模式図である。
FIG. 4 is a schematic diagram showing an example of a plurality of evaluation areas set for an image.

【図5】画像メモリに記憶した画像の一例を示す模式図
である。
FIG. 5 is a schematic diagram showing an example of an image stored in an image memory.

【図6】画像メモリに記憶した画像に対して設定された
評価領域を示す模式図である。
FIG. 6 is a schematic diagram showing an evaluation area set for an image stored in an image memory.

【図7】領域選出部によって選出された被写界深度内領
域の一例を示す模式図である。
FIG. 7 is a schematic diagram showing an example of a region within the depth of field selected by a region selection unit.

【図8】画像を被写体の特徴に基づいて複数の分割領域
に分割した模式図である。
FIG. 8 is a schematic diagram in which an image is divided into a plurality of divided areas based on the characteristics of a subject.

【図9】分割領域が合焦領域であるか否かの判定を行う
様子を説明する模式図である。
FIG. 9 is a schematic diagram illustrating how to determine whether a divided area is a focused area.

【図10】分割領域が合焦領域であるか否かの判定を行
う様子を説明する模式図である。
FIG. 10 is a schematic diagram illustrating how to determine whether a divided area is a focused area.

【図11】ライブビュー画像上に合焦領域の色を異なる
表示態様で示した一例を示す模式図である。
FIG. 11 is a schematic diagram showing an example in which colors of a focused area are displayed in different display modes on a live view image.

【図12】ライブビュー画像上に近景領域を区別可能に
表示している模式図である。
FIG. 12 is a schematic diagram in which a near view area is displayed in a distinguishable manner on a live view image.

【図13】ライブビュー画像上に合焦領域の輪郭を強調
して示した一例を示す模式図である。
FIG. 13 is a schematic diagram showing an example in which a contour of a focused area is highlighted on a live view image.

【図14】ライブビュー画像の全領域が合焦領域に該当
する旨を表示する様子を示す模式図である。
FIG. 14 is a schematic diagram showing a state of displaying that the entire area of the live view image corresponds to the focused area.

【図15】許容錯乱円径を変更した際の合焦領域の決定
について示した模式図である。
FIG. 15 is a schematic diagram showing determination of a focusing area when the diameter of the circle of confusion is changed.

【図16】許容錯乱円径を変更した際の合焦領域の表示
について示した模式図である。
FIG. 16 is a schematic diagram showing display of a focusing area when the diameter of the permissible circle of confusion is changed.

【図17】撮像装置における動作を示すフローチャート
である。
FIG. 17 is a flowchart showing the operation of the image pickup apparatus.

【図18】撮像装置における動作を示すフローチャート
である。
FIG. 18 is a flowchart showing the operation of the image pickup apparatus.

【符号の説明】[Explanation of symbols]

1 撮像装置 8 レリーズボタン 10 被写界深度変更ダイヤル 11 撮影レンズ 16 表示部 100 カメラ制御部 110 レンズ駆動部 201 画像メモリ 205 評価値算出部 210 距離算出部 220 領域選出部 230 領域分割部 240 合焦領域決定部 1 Imaging device 8 Release button 10 Depth of field change dial 11 Shooting lens 16 Display 100 camera controller 110 lens drive 201 image memory 205 Evaluation Value Calculation Unit 210 Distance calculator 220 Area selection section 230 Area Division 240 Focus area determination unit

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 5/232 G02B 7/11 N 5/907 D // H04N 101:00 G03B 3/00 A Fターム(参考) 2H011 AA03 BA31 BB04 DA05 2H051 AA00 BA47 DA03 DA07 DA19 DA39 EB20 GA12 GA17 2H102 AA33 BB08 BB26 CA03 5C022 AA13 AB22 AC03 AC12 AC42 AC52 5C052 GA02 GA07 GE06 ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 7 Identification code FI theme code (reference) H04N 5/232 G02B 7/11 N 5/907 D // H04N 101: 00 G03B 3/00 A F term ( Reference) 2H011 AA03 BA31 BB04 DA05 2H051 AA00 BA47 DA03 DA07 DA19 DA39 EB20 GA12 GA17 2H102 AA33 BB08 BB26 CA03 5C022 AA13 AB22 AC03 AC12 AC42 AC52 5C052 GA02 GA07 GE06

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 撮影前に複数の画素で構成される画像を
入力して、撮影レンズの合焦制御を行うとともに、被写
界深度に基づいた表示を行う撮像装置において、 (a) 前記画像に設定された複数の評価領域についてそ
れぞれ前記撮影レンズの合焦状態に関する評価値を算出
する評価値算出手段と、 (b) 前記評価値に基づいて前記撮影レンズの合焦位置
を求め、前記合焦位置への前記撮影レンズの駆動を制御
する制御手段と、 (c) 前記評価値に基づいて、前記複数の評価領域のう
ち、当該評価領域内の被写体までの被写体距離が前記被
写界深度の範囲内である評価領域を被写界深度内領域と
して選出する選出手段と、 (d) 前記画像中の被写体の特徴に基づいて、前記画像
を複数の分割領域に分割する分割手段と、 (e) 前記複数の分割領域のうち、前記被写界深度内領
域と重複する領域を含む分割領域を合焦領域として決定
する決定手段と、 (f) 前記合焦領域に基づいた表示を行う表示手段と、
を備えることを特徴とする撮像装置。
1. An image pickup apparatus for inputting an image composed of a plurality of pixels before photographing to control focusing of a photographing lens and displaying based on a depth of field, comprising: (a) the image Evaluation value calculation means for calculating an evaluation value relating to the in-focus state of the taking lens for each of the plurality of evaluation areas set in (b) obtaining the in-focus position of the taking lens based on the evaluation value, Control means for controlling the driving of the taking lens to the focal position, (c) based on the evaluation value, the subject distance to the subject in the evaluation region among the plurality of evaluation regions is the depth of field. Selecting means for selecting an evaluation area within the range of as the area within the depth of field, (d) a dividing means for dividing the image into a plurality of divided areas based on the characteristics of the subject in the image, e) Among the plurality of divided areas, the Determining means for determining a division region including a region overlapping the depth of field region as the in-focus region, and a display means for performing display based on (f) the focus area,
An imaging device comprising:
【請求項2】 請求項1に記載された撮像装置であっ
て、 前記表示手段が、 撮影前に入力された前記画像のうち前記合焦領域と、そ
の他の領域とを区別して表示することを特徴とする撮像
装置。
2. The image pickup apparatus according to claim 1, wherein the display unit distinguishes and displays the in-focus area and other areas in the image input before photographing. A characteristic imaging device.
【請求項3】 請求項1または請求項2に記載された撮
像装置であって、 前記表示手段が、 撮影前に入力された前記画像の全領域が前記合焦領域で
ある場合に、その旨を表示することを特徴とする撮像装
置。
3. The image pickup apparatus according to claim 1, wherein when the display unit causes the entire area of the image input before photographing to be the in-focus area, that effect is obtained. Is displayed.
【請求項4】 請求項1から請求項3のいずれかに記載
された撮像装置であって、 ユーザーの操作に基づいて前記被写界深度を指定する値
を変更する変更手段、をさらに備えることを特徴とする
撮像装置。
4. The imaging device according to claim 1, further comprising a changing unit that changes a value that specifies the depth of field based on a user's operation. An imaging device characterized by.
【請求項5】 請求項1から請求項4のいずれかに記載
された撮像装置であって、 前記決定手段が、 前記分割領域と前記被写界深度内領域とが重複する領域
の面積に基づいて前記合焦領域を決定することを特徴と
する撮像装置。
5. The image pickup apparatus according to claim 1, wherein the determining unit is based on an area of a region where the divided region and the region within the depth of field overlap. An image pickup apparatus, characterized in that the focusing area is determined.
JP2002040235A 2002-02-18 2002-02-18 Imaging device Expired - Fee Related JP3675412B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002040235A JP3675412B2 (en) 2002-02-18 2002-02-18 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002040235A JP3675412B2 (en) 2002-02-18 2002-02-18 Imaging device

Publications (2)

Publication Number Publication Date
JP2003241067A true JP2003241067A (en) 2003-08-27
JP3675412B2 JP3675412B2 (en) 2005-07-27

Family

ID=27781036

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002040235A Expired - Fee Related JP3675412B2 (en) 2002-02-18 2002-02-18 Imaging device

Country Status (1)

Country Link
JP (1) JP3675412B2 (en)

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005026803A1 (en) * 2003-09-10 2005-03-24 Sharp Kabushiki Kaisha Imaging lens position control device
JP2007086481A (en) * 2005-09-22 2007-04-05 Nippon Hoso Kyokai <Nhk> Focusing area display picture producing device, focusing area display picture producing method, and focusing area display picture producing program
JP2007274587A (en) * 2006-03-31 2007-10-18 Canon Inc Imaging apparatus and control method thereof
JP2008004996A (en) * 2006-06-20 2008-01-10 Casio Comput Co Ltd Imaging apparatus and program thereof
JP2008103944A (en) * 2006-10-18 2008-05-01 Fujifilm Corp Imaging apparatus, imaging method, display device, display method, and program
JP2008145465A (en) * 2006-12-06 2008-06-26 Sigma Corp Method of adjusting depth of field and user interface for photographing apparatus
JP2009025381A (en) * 2007-07-17 2009-02-05 Nikon Corp Digital camera
JP2009044682A (en) * 2007-08-10 2009-02-26 Canon Inc Imaging apparatus and control method thereof
US7519285B2 (en) 2005-01-24 2009-04-14 Canon Kabushiki Kaisha Imaging apparatus, imaging method, imaging program, and storage medium
JP2009088722A (en) * 2007-09-28 2009-04-23 Casio Comput Co Ltd Imaging apparatus, focused state display method and program
JP2009098167A (en) * 2007-10-12 2009-05-07 Casio Comput Co Ltd Imaging device and program of the same
JP2011211739A (en) * 2011-06-01 2011-10-20 Fujifilm Corp Stereoscopic vision image preparation device, stereoscopic vision image output device and stereoscopic vision image preparation method
EP2430827A1 (en) * 2009-05-12 2012-03-21 Canon Kabushiki Kaisha Image pickup apparatus
JP2012199986A (en) * 2012-05-31 2012-10-18 Canon Inc Imaging apparatus and control method thereof
JP2012235180A (en) * 2011-04-28 2012-11-29 Nikon Corp Digital camera
WO2013123983A1 (en) * 2012-02-22 2013-08-29 Sony Ericsson Mobile Communications Ab Method and device relating to image content
CN103312965A (en) * 2012-03-12 2013-09-18 株式会社理光 photography apparatus and a photography method
JP2013242407A (en) * 2012-05-18 2013-12-05 Canon Inc Imaging device and control method of the same
JP2014068088A (en) * 2012-09-25 2014-04-17 Sharp Corp Imaging apparatus and imaging apparatus control method
JP2014216715A (en) * 2013-04-23 2014-11-17 ソニー株式会社 Image processing device, image processing method, and program
CN104221362A (en) * 2012-03-28 2014-12-17 富士胶片株式会社 Imaging device and imaging assistance method
KR101480401B1 (en) * 2007-12-10 2015-01-08 삼성전자주식회사 Apparatus of processing digital image and method of controlling thereof
JP2015028647A (en) * 2014-09-16 2015-02-12 キヤノン株式会社 Imaging apparatus and control method thereof
US9237272B2 (en) 2013-05-22 2016-01-12 Panasonic Intellectual Property Management Co., Ltd. Imaging apparatus and method for displaying captured image with different colors associated with distances
US9277111B2 (en) 2012-05-18 2016-03-01 Canon Kabushiki Kaisha Image capture apparatus and control method therefor
KR101777353B1 (en) * 2011-06-16 2017-09-11 삼성전자주식회사 Digital photographing apparatus and control method thereof
JP2018097380A (en) * 2018-02-01 2018-06-21 キヤノン株式会社 Imaging device and control method of the same
JP2019208170A (en) * 2018-05-30 2019-12-05 キヤノン株式会社 Image processing apparatus, image processing method, program, and storage medium

Cited By (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005026803A1 (en) * 2003-09-10 2005-03-24 Sharp Kabushiki Kaisha Imaging lens position control device
US7519285B2 (en) 2005-01-24 2009-04-14 Canon Kabushiki Kaisha Imaging apparatus, imaging method, imaging program, and storage medium
JP4681407B2 (en) * 2005-09-22 2011-05-11 日本放送協会 In-focus area display image generation apparatus and in-focus area display image generation program
JP2007086481A (en) * 2005-09-22 2007-04-05 Nippon Hoso Kyokai <Nhk> Focusing area display picture producing device, focusing area display picture producing method, and focusing area display picture producing program
JP2007274587A (en) * 2006-03-31 2007-10-18 Canon Inc Imaging apparatus and control method thereof
JP2008004996A (en) * 2006-06-20 2008-01-10 Casio Comput Co Ltd Imaging apparatus and program thereof
JP2008103944A (en) * 2006-10-18 2008-05-01 Fujifilm Corp Imaging apparatus, imaging method, display device, display method, and program
JP4699330B2 (en) * 2006-10-18 2011-06-08 富士フイルム株式会社 IMAGING DEVICE, IMAGING METHOD, DISPLAY DEVICE, DISPLAY METHOD, AND PROGRAM
JP2008145465A (en) * 2006-12-06 2008-06-26 Sigma Corp Method of adjusting depth of field and user interface for photographing apparatus
JP2009025381A (en) * 2007-07-17 2009-02-05 Nikon Corp Digital camera
JP2009044682A (en) * 2007-08-10 2009-02-26 Canon Inc Imaging apparatus and control method thereof
USRE46834E1 (en) 2007-08-10 2018-05-08 Canon Kabushiki Kaisha Image capturing apparatus and control method therefor
JP2009088722A (en) * 2007-09-28 2009-04-23 Casio Comput Co Ltd Imaging apparatus, focused state display method and program
JP2009098167A (en) * 2007-10-12 2009-05-07 Casio Comput Co Ltd Imaging device and program of the same
KR101480401B1 (en) * 2007-12-10 2015-01-08 삼성전자주식회사 Apparatus of processing digital image and method of controlling thereof
EP2430827A4 (en) * 2009-05-12 2013-06-19 Canon Kk Image pickup apparatus
US9591246B2 (en) 2009-05-12 2017-03-07 Canon Kabushiki Kaisha Image pickup apparatus with blur correcting function
CN102422630A (en) * 2009-05-12 2012-04-18 佳能株式会社 Image pickup apparatus
US9201288B2 (en) 2009-05-12 2015-12-01 Canon Kabushiki Kaisha Image processing apparatus with blur correcting function
EP3110135A1 (en) * 2009-05-12 2016-12-28 Canon Kabushiki Kaisha Image pickup apparatus
EP2430827A1 (en) * 2009-05-12 2012-03-21 Canon Kabushiki Kaisha Image pickup apparatus
JP2012235180A (en) * 2011-04-28 2012-11-29 Nikon Corp Digital camera
JP2011211739A (en) * 2011-06-01 2011-10-20 Fujifilm Corp Stereoscopic vision image preparation device, stereoscopic vision image output device and stereoscopic vision image preparation method
KR101777353B1 (en) * 2011-06-16 2017-09-11 삼성전자주식회사 Digital photographing apparatus and control method thereof
WO2013123983A1 (en) * 2012-02-22 2013-08-29 Sony Ericsson Mobile Communications Ab Method and device relating to image content
CN103312965A (en) * 2012-03-12 2013-09-18 株式会社理光 photography apparatus and a photography method
CN104221362A (en) * 2012-03-28 2014-12-17 富士胶片株式会社 Imaging device and imaging assistance method
US9264612B2 (en) 2012-03-28 2016-02-16 Fujifilm Corporation Imaging apparatus and photographing support method
JP5716130B2 (en) * 2012-03-28 2015-05-13 富士フイルム株式会社 Imaging apparatus and imaging support method
US9277111B2 (en) 2012-05-18 2016-03-01 Canon Kabushiki Kaisha Image capture apparatus and control method therefor
JP2013242407A (en) * 2012-05-18 2013-12-05 Canon Inc Imaging device and control method of the same
JP2012199986A (en) * 2012-05-31 2012-10-18 Canon Inc Imaging apparatus and control method thereof
JP2014068088A (en) * 2012-09-25 2014-04-17 Sharp Corp Imaging apparatus and imaging apparatus control method
JP2014216715A (en) * 2013-04-23 2014-11-17 ソニー株式会社 Image processing device, image processing method, and program
US9237272B2 (en) 2013-05-22 2016-01-12 Panasonic Intellectual Property Management Co., Ltd. Imaging apparatus and method for displaying captured image with different colors associated with distances
JP2015028647A (en) * 2014-09-16 2015-02-12 キヤノン株式会社 Imaging apparatus and control method thereof
JP2018097380A (en) * 2018-02-01 2018-06-21 キヤノン株式会社 Imaging device and control method of the same
JP2019208170A (en) * 2018-05-30 2019-12-05 キヤノン株式会社 Image processing apparatus, image processing method, program, and storage medium
JP7158180B2 (en) 2018-05-30 2022-10-21 キヤノン株式会社 Image processing device, image processing method, program, storage medium

Also Published As

Publication number Publication date
JP3675412B2 (en) 2005-07-27

Similar Documents

Publication Publication Date Title
JP3675412B2 (en) Imaging device
JP6512810B2 (en) Image pickup apparatus, control method and program
US7978253B2 (en) Image pickup device using blur processing and control method thereof
JP5779959B2 (en) Imaging device
JP5036599B2 (en) Imaging device
US9386228B2 (en) Image processing device, imaging device, image processing method, and non-transitory computer-readable medium
JP3823921B2 (en) Imaging device
JP5262417B2 (en) Image processing apparatus, image processing method, and image processing program
KR20100039430A (en) Image processor, image processing method, digital camera, and imaging apparatus
JP2006254229A (en) Imaging apparatus, imaging method and imaging program
JP2006115446A (en) Photographing device, and method of evaluating image
US20180288308A1 (en) Imaging apparatus, control method, and non-transitory storage medium
US7724297B2 (en) Imaging device having a display to display images captured by a plurality of image sensors with different display regions
KR20140014288A (en) Imaging device
JP5451259B2 (en) Imaging apparatus, control method thereof, and program
JP2006091915A (en) Imaging apparatus
JP6833801B2 (en) Imaging equipment, imaging methods, programs and recording media
JP4866317B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP2009118083A (en) Digital camera
JP2020017807A (en) Image processing apparatus, image processing method, and imaging apparatus
JP2007311962A (en) Electronic camera and image display program
JP4498116B2 (en) Imaging apparatus and raw data processing method
KR100745508B1 (en) Image pickup apparatus
JP2016122939A (en) Imaging device
JP4335648B2 (en) Digital camera and imaging method of digital camera

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040908

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041019

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20041119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041129

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20041129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050412

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050425

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090513

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100513

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100513

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110513

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120513

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130513

Year of fee payment: 8

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees