JP5233554B2 - Imaging apparatus and program - Google Patents

Imaging apparatus and program Download PDF

Info

Publication number
JP5233554B2
JP5233554B2 JP2008251272A JP2008251272A JP5233554B2 JP 5233554 B2 JP5233554 B2 JP 5233554B2 JP 2008251272 A JP2008251272 A JP 2008251272A JP 2008251272 A JP2008251272 A JP 2008251272A JP 5233554 B2 JP5233554 B2 JP 5233554B2
Authority
JP
Japan
Prior art keywords
imaging
unit
comparison
accessory
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008251272A
Other languages
Japanese (ja)
Other versions
JP2010087584A (en
Inventor
智士 中川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2008251272A priority Critical patent/JP5233554B2/en
Publication of JP2010087584A publication Critical patent/JP2010087584A/en
Application granted granted Critical
Publication of JP5233554B2 publication Critical patent/JP5233554B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Focusing (AREA)
  • Blocking Light For Cameras (AREA)
  • Structure And Mechanism Of Cameras (AREA)
  • Automatic Focus Adjustment (AREA)

Description

本発明は、アクセサリを着脱自在な撮像装置及び当該撮像装置に機能させるプログラムに関する。   The present invention relates to an imaging device in which an accessory is detachable and a program that causes the imaging device to function.

従来、撮像装置として、レンズにコンバータレンズ等のアクセサリを装着すると、装着されたアクセサリと情報通信を行って当該アクセサリの種類を特定して報知するビデオカメラが知られている(例えば、特許文献1参照)。
これにより、ユーザは装置本体に装着されたアクセサリを認識することができ、撮像装置の使い勝手を向上させることができる。
特開2001−255578号公報
2. Description of the Related Art Conventionally, as an imaging device, a video camera is known that, when an accessory such as a converter lens is attached to a lens, performs information communication with the attached accessory to identify and notify the type of the accessory (for example, Patent Document 1). reference).
Thereby, the user can recognize the accessory attached to the apparatus main body, and can improve the usability of the imaging apparatus.
JP 2001-255578 A

しかしながら、装着されたアクセサリを判別するためには、当該アクセサリと装置本体との間に通信機能を具備する必要があるといった問題がある。   However, in order to determine the attached accessory, there is a problem that it is necessary to provide a communication function between the accessory and the apparatus main body.

そこで、本発明の課題は、装着されたアクセサリとの通信機能を持たずに、当該アクセサリの種類の判別を行うことができる撮像装置及びプログラムを提供することである。   Therefore, an object of the present invention is to provide an imaging apparatus and a program that can determine the type of an accessory without having a communication function with the attached accessory.

上記課題を解決するため、請求項1に記載の発明の撮像装置は、
アクセサリを着脱自在に構成された撮像レンズ部と、前記撮像レンズ部により結像された被写体の光学像を撮像する撮像手段と、前記撮像レンズ部にアクセサリが装着されていない状態で前記撮像手段により撮像された第1被写体画像と、前記撮像レンズ部にアクセサリが装着された状態で前記撮像手段により撮像された第2被写体画像とを比較する比較手段と、前記比較手段による比較結果に基づいて、前記撮像レンズ部に装着されたアクセサリの種類を特定する特定手段と、を備えることを特徴としている。
In order to solve the above problem, an imaging apparatus according to claim 1 is provided.
An imaging lens unit configured to be detachable from an accessory, an imaging unit that captures an optical image of a subject imaged by the imaging lens unit, and the imaging unit without an accessory attached to the imaging lens unit Based on a comparison result by the comparison unit, a comparison unit that compares the captured first subject image with a second subject image captured by the imaging unit in a state where an accessory is attached to the imaging lens unit, Specifying means for specifying the type of accessory attached to the imaging lens unit.

請求項2に記載の発明は、請求項1に記載の撮像装置において、
前記撮像手段により撮像された第1被写体画像内で前記比較手段による比較に係る比較領域を設定する比較領域設定手段と、前記撮像手段により撮像された第2被写体画像内で前記比較領域に対応する対応領域を特定する対応領域特定手段と、を更に備え、前記比較手段は、前記比較領域設定手段により設定された前記比較領域内の画像と前記対応領域特定手段により特定された前記対応領域内の画像とを比較することを特徴としている。
The invention according to claim 2 is the imaging apparatus according to claim 1,
Comparison area setting means for setting a comparison area for comparison by the comparison means in the first subject image captured by the imaging means, and corresponding to the comparison area in the second subject image captured by the imaging means Corresponding area specifying means for specifying a corresponding area, wherein the comparing means includes an image in the comparison area set by the comparison area setting means and an image in the corresponding area specified by the corresponding area specifying means. It is characterized by comparing with images.

請求項3に記載の発明は、請求項2に記載の撮像装置において、
前記撮像レンズ部の合焦位置を調整する自動合焦処理を行う合焦制御手段を更に備え、前記比較領域設定手段は、前記合焦制御手段による前記自動合焦処理の判定に係る合焦判定領域に基づいて、前記比較領域を設定することを特徴としている。
The invention according to claim 3 is the imaging apparatus according to claim 2,
It further comprises a focus control means for performing an automatic focus process for adjusting the focus position of the imaging lens unit, and the comparison area setting means is a focus determination related to the determination of the automatic focus process by the focus control means. The comparison area is set based on the area.

請求項4に記載の発明は、請求項2に記載の撮像装置において、
前記撮像手段により撮像された第1被写体画像を表示する表示手段と、前記表示手段に表示された前記第1被写体画像における前記比較領域の位置を指示入力する指示入力手段と、を更に備え、前記比較領域設定手段は、前記指示入力手段により入力された前記比較領域の位置に基づいて、前記比較領域を設定することを特徴としている。
The invention according to claim 4 is the imaging apparatus according to claim 2,
A display unit for displaying the first subject image captured by the imaging unit; and an instruction input unit for instructing and inputting a position of the comparison area in the first subject image displayed on the display unit, The comparison area setting means sets the comparison area based on the position of the comparison area input by the instruction input means.

請求項5に記載の発明は、請求項1〜4の何れか一項に記載の撮像装置において、
前記アクセサリは、テレコンバータレンズ、ワイドコンバータレンズ、魚眼レンズ、カラーフィルタ、ライトバランシングフィルタ、減光フィルタ、又はクロスフィルタの内の何れか1つを含むことを特徴としている。
Invention of Claim 5 is an imaging device as described in any one of Claims 1-4,
The accessory includes any one of a teleconverter lens, a wide converter lens, a fisheye lens, a color filter, a light balancing filter, a neutral density filter, and a cross filter.

請求項6に記載の発明は、請求項1〜5の何れか一項に記載の撮像装置において、
前記撮像レンズ部は、複数種類のアクセサリを着脱自在に構成され、前記特定手段は、前記撮像レンズ部に装着された前記複数種類のアクセサリを特定することを特徴としている。
Invention of Claim 6 is an imaging device as described in any one of Claims 1-5,
The imaging lens unit is configured to be detachable from a plurality of types of accessories, and the specifying unit specifies the plurality of types of accessories attached to the imaging lens unit.

請求項7に記載の発明は、請求項1〜6の何れか一項に記載の撮像装置において、
前記特定手段により特定された前記アクセサリの種類に係るアクセサリ情報と、前記撮像手段により撮像された第2被写体画像とを対応付けて記録する記録手段を更に備えることを特徴としている。
The invention according to claim 7 is the imaging apparatus according to any one of claims 1 to 6,
The apparatus further comprises recording means for recording the accessory information related to the accessory type specified by the specifying means and the second subject image captured by the imaging means in association with each other.

請求項8に記載の発明のプログラムは、
アクセサリを着脱自在に構成された撮像レンズ部と、前記撮像レンズ部により結像された被写体の光学像を撮像する撮像手段と、を備える撮像装置のコンピュータを、
前記撮像レンズ部にアクセサリが装着されていない状態で前記撮像手段により撮像された第1被写体画像と、前記撮像レンズ部にアクセサリが装着された状態で前記撮像手段により撮像された第2被写体画像とを比較する比較手段、前記比較手段による比較結果に基づいて、前記撮像レンズ部に装着されたアクセサリの種類を特定する特定手段、として機能させることを特徴としている。
The program of the invention described in claim 8 is:
An imaging device computer comprising: an imaging lens unit configured to be detachable from an accessory; and an imaging unit that captures an optical image of a subject imaged by the imaging lens unit;
A first subject image captured by the imaging means without an accessory attached to the imaging lens unit, and a second subject image captured by the imaging means with an accessory attached to the imaging lens unit Based on a comparison result by the comparison means, and a specification means for specifying the type of accessory attached to the imaging lens unit.

本発明によれば、撮像レンズ部に装着されたアクセサリとの通信機能を持たずに、当該アクセサリの種類の判別を行うことができる。   According to the present invention, it is possible to determine the type of the accessory without having a communication function with the accessory attached to the imaging lens unit.

以下に、本発明について、図面を用いて具体的な態様を説明する。ただし、発明の範囲は、図示例に限定されない。
図1は、本発明を適用した一実施形態の撮像装置100の概略構成を示すブロック図である。また、図2は、撮像装置100のデータメモリ9に記憶されているフラグテーブルTの一例を模式的に示す図である。
Hereinafter, specific embodiments of the present invention will be described with reference to the drawings. However, the scope of the invention is not limited to the illustrated examples.
FIG. 1 is a block diagram illustrating a schematic configuration of an imaging apparatus 100 according to an embodiment to which the present invention is applied. FIG. 2 is a diagram schematically illustrating an example of the flag table T stored in the data memory 9 of the imaging apparatus 100.

本実施形態の撮像装置100は、撮像レンズ部1にアクセサリが装着されていない状態で電子撮像部2により撮像され生成された第1検出用画像データと、撮像レンズ部1にアクセサリが装着された状態で電子撮像部2により撮像され生成された第2検出用画像データとを比較して、当該比較結果に基づいて撮像レンズ部1に装着されたアクセサリの種類を特定する。
具体的には、図1に示すように、撮像装置100は、撮像レンズ部1、電子撮像部2と、撮像処理部3と、画像処理部4と、メモリカード5と、表示部6と、表示処理部7と、操作入力部8と、データメモリ9と、プログラムメモリ10と、制御部11とを備えている。
In the imaging apparatus 100 of the present embodiment, the first detection image data captured and generated by the electronic imaging unit 2 in a state where the accessory is not attached to the imaging lens unit 1, and the accessory is attached to the imaging lens unit 1. The second detection image data captured and generated by the electronic imaging unit 2 in the state is compared, and the type of the accessory attached to the imaging lens unit 1 is specified based on the comparison result.
Specifically, as illustrated in FIG. 1, the imaging device 100 includes an imaging lens unit 1, an electronic imaging unit 2, an imaging processing unit 3, an image processing unit 4, a memory card 5, a display unit 6, A display processing unit 7, an operation input unit 8, a data memory 9, a program memory 10, and a control unit 11 are provided.

撮像レンズ部1は、複数のレンズから構成され、ズームレンズ1aやフォーカスレンズ1b等を備えている。また、撮像レンズ部1は、被写体の撮像の際に、ズームレンズ1aを光軸方向に移動させるズーム駆動部1c、フォーカスレンズ1bを光軸方向に移動させる合焦駆動部1d等を備えている。   The imaging lens unit 1 includes a plurality of lenses and includes a zoom lens 1a, a focus lens 1b, and the like. In addition, the imaging lens unit 1 includes a zoom driving unit 1c that moves the zoom lens 1a in the optical axis direction and a focusing driving unit 1d that moves the focus lens 1b in the optical axis direction when imaging a subject. .

また、各種アクセサリは、撮像レンズ部1と自由に着脱自在である。
ここで、アクセサリとしては、例えば、テレコンバータレンズ、ワイドコンバータレンズ、魚眼レンズ、カラーフィルタ、ライトバランシングフィルタ、減光フィルタ、クロスフィルタ等が挙げられるが、これらに限られるものではない。
なお、図1にあっては、アクセサリとしてコンバージョンレンズ200を装着している状態を図示している。
Various accessories are freely detachable from the imaging lens unit 1.
Here, examples of the accessory include a teleconverter lens, a wide converter lens, a fisheye lens, a color filter, a light balancing filter, a neutral density filter, a cross filter, and the like, but are not limited thereto.
FIG. 1 shows a state where a conversion lens 200 is attached as an accessory.

電子撮像部2は、被写体を撮像して画像フレームを生成する。また、電子撮像部2は、撮像レンズ部1の複数のレンズを通過した被写体像を二次元の画像信号に変換するCCD(Charge Coupled Device)やCMOS(Complementary Metal-oxide Semiconductor)等から構成されている。   The electronic imaging unit 2 captures a subject and generates an image frame. The electronic imaging unit 2 includes a CCD (Charge Coupled Device), a CMOS (Complementary Metal-oxide Semiconductor), or the like that converts a subject image that has passed through a plurality of lenses of the imaging lens unit 1 into a two-dimensional image signal. Yes.

撮像処理部3は、電子撮像部2の制御や、AE(自動露出処理)、AF(自動合焦処理)、AWB(自動ホワイトバランス)の制御などを行う。
なお、AE、AF、AWBについては制御部11で行っても良い。
また、撮像処理部3は、電子撮像部2に所定の露出時間で被写体を撮像させ、当該電子撮像部2の撮像領域から画像フレームを読み出す。その後、撮像処理部3は、読み出した画像フレームを画像処理部4に転送する。
The imaging processing unit 3 controls the electronic imaging unit 2, controls AE (automatic exposure processing), AF (automatic focusing processing), AWB (automatic white balance), and the like.
Note that the control unit 11 may perform AE, AF, and AWB.
Further, the imaging processing unit 3 causes the electronic imaging unit 2 to image a subject with a predetermined exposure time, and reads an image frame from the imaging area of the electronic imaging unit 2. Thereafter, the imaging processing unit 3 transfers the read image frame to the image processing unit 4.

また、撮影時にライブビュー画像表示を行う場合には、撮像処理部3は、電子撮像部2により被写体を所定の撮像フレームレートで連続して撮像させて、ライブビュー画像表示用の画像フレームを逐次生成させる。   When live view image display is performed at the time of shooting, the imaging processing unit 3 causes the electronic imaging unit 2 to continuously capture the subject at a predetermined imaging frame rate, and sequentially displays image frames for live view image display. Generate.

画像処理部4は、撮像処理部3から転送された画像フレームに基づいて、画質調整処理や解像度変換処理や画像圧縮処理等を行って表示用画像データや記録用画像データを生成する。
なお、画質調整処理や解像度変換処理は、制御部11で行っても良い。
The image processing unit 4 performs image quality adjustment processing, resolution conversion processing, image compression processing, and the like based on the image frame transferred from the imaging processing unit 3 to generate display image data and recording image data.
The image quality adjustment process and the resolution conversion process may be performed by the control unit 11.

メモリカード5は、例えば、不揮発性メモリ(フラッシュメモリ)等により構成され、画像処理部4により生成された本撮影画像の画像データを記憶する。
ここで、本撮影画像の画像データは、例えば、Exif形式の画像ファイルから構成されるものである。
The memory card 5 is configured by, for example, a nonvolatile memory (flash memory) or the like, and stores image data of the actual captured image generated by the image processing unit 4.
Here, the image data of the captured image is composed of, for example, an Exif format image file.

表示処理部7は、データメモリ9に一時的に記憶されている表示データを読み出して表示部6に表示させる制御を行う。
表示部6は、表示処理部7からの出力信号に基づいて電子撮像部2により撮像された画像などを表示画面6a(図3(a)等参照)に表示する。具体的には、表示部6は、電子撮像部2による被写体の撮像により生成された複数の画像フレームに基づいてライブビュー画像を表示したり、本撮影画像として撮影されたレックビュー画像等を表示する。
また、表示部6は、ライブビュー画像の表示中に自動合焦処理におけるAF対象に重畳させてAF枠Fを表示する。
The display processing unit 7 performs control to read out display data temporarily stored in the data memory 9 and display it on the display unit 6.
The display unit 6 displays an image captured by the electronic imaging unit 2 on the display screen 6a (see FIG. 3A and the like) based on the output signal from the display processing unit 7. Specifically, the display unit 6 displays a live view image based on a plurality of image frames generated by imaging the subject by the electronic imaging unit 2, or displays a REC view image or the like captured as a main captured image. To do.
The display unit 6 displays the AF frame F so as to be superimposed on the AF target in the automatic focusing process while the live view image is displayed.

操作入力部8は、当該撮像装置100の所定操作を行うためのものであり、被写体の撮影指示に係るシャッターボタン8a、機能選択や表示設定等に係るメニュー画面の表示指示に係るメニューボタン8b、動作モード等の選択や決定指示に係る選択決定ボタン8c、動作モードの設定指示に係るモード設定ボタン8d等を備え、これらのボタンの各操作に応じて所定の操作信号を制御部11に出力する。   The operation input unit 8 is for performing a predetermined operation of the imaging apparatus 100, and includes a shutter button 8a related to a subject shooting instruction, a menu button 8b related to a menu screen display instruction related to function selection, display setting, and the like. A selection / decision button 8c related to an operation mode selection or determination instruction, a mode setting button 8d related to an operation mode setting instruction, and the like are provided, and a predetermined operation signal is output to the control unit 11 in accordance with each operation of these buttons. .

制御部11は、撮像装置100の各部を制御するものである。具体的には、制御部11は、プログラムメモリ10に記憶された撮像装置100用の各種処理プログラムに従って各種の制御動作を行うものである。   The control unit 11 controls each unit of the imaging device 100. Specifically, the control unit 11 performs various control operations according to various processing programs for the imaging apparatus 100 stored in the program memory 10.

データメモリ9は、例えば、フラッシュメモリ等により構成され、制御部11によって処理されるデータ等を一時記憶する。   The data memory 9 is composed of, for example, a flash memory and temporarily stores data processed by the control unit 11.

また、データメモリ9は、各種フラグを格納するフラグテーブルTを記憶している(図2参照)。フラグテーブルTは、例えば、図2に示すように、検出用画像撮影処理における画像の撮影枚数に係る検出用画像フラグや、アクセサリの検出の有無に係るフラグや、シャッターボタン8aの半押しの有無に係る半押しフラグ等を格納する。
検出用画像フラグは、例えば、検出用画像の撮影枚数が0枚である場合には、「0」が設定され、撮影枚数が1枚である場合には、「1」が設定され、撮影枚数が2枚である場合には、「2」が設定される。
なお、フラグテーブルTは、一例であってこれに限られるものではなく、適宜任意に変更することができる。
The data memory 9 stores a flag table T for storing various flags (see FIG. 2). For example, as shown in FIG. 2, the flag table T includes a detection image flag related to the number of images to be captured in the detection image capturing process, a flag related to whether or not an accessory is detected, and whether or not the shutter button 8 a is half-pressed. Stores the half-press flag and the like related to.
The detection image flag is set to “0” when, for example, the number of detection images taken is 0, and is set to “1” when the number of shots is 1, and the number of shots is set. If there are two, “2” is set.
Note that the flag table T is an example and is not limited thereto, and can be arbitrarily changed as appropriate.

プログラムメモリ10は、制御部11の動作に必要な各種プログラムやデータを記憶している。
このプログラムは、後述する合焦制御処理ルーチン、比較領域設定処理ルーチン、対応領域特定処理ルーチン、比較処理ルーチン、特定処理ルーチンを含む。
ここでいうルーチンとは、コンピュータのプログラムの部分をなし、ある機能をもった一連の命令群のことである。
The program memory 10 stores various programs and data necessary for the operation of the control unit 11.
This program includes a focus control process routine, a comparison area setting process routine, a corresponding area specifying process routine, a comparison process routine, and a specifying process routine, which will be described later.
Here, the routine is a series of instructions that constitute a part of a computer program and have a certain function.

合焦制御処理ルーチンは、被写体の撮影の際のフォーカスレンズ1bの合焦位置を調整する自動合焦処理に係る機能を制御部11に実現させるための命令群を含む。
具体的には、合焦制御処理ルーチンにより、制御部11は、撮像処理部3の制御下にて電子撮像部2により生成された画像フレームを取得して、当該画像フレームにおける自動合焦処理の判定に係るAF枠F内(合焦判定領域)の画像にピントが合うように、合焦駆動部1dによりフォーカスレンズ1bを光軸方向に移動させてコントラストAF方式により合焦位置を調整する自動合焦処理を行う。
ここで、制御部11、電子撮像部2、撮像処理部3及び合焦駆動部1dは、合焦制御手段を構成している。
The focus control processing routine includes a command group for causing the control unit 11 to realize a function related to the automatic focus processing for adjusting the focus position of the focus lens 1b when photographing the subject.
Specifically, according to the focus control processing routine, the control unit 11 acquires an image frame generated by the electronic imaging unit 2 under the control of the imaging processing unit 3, and performs automatic focusing processing on the image frame. The focus driving unit 1d moves the focus lens 1b in the optical axis direction so as to focus on the image in the AF frame F related to the determination (in-focus determination area), and automatically adjusts the focus position by the contrast AF method. Perform the focusing process.
Here, the control unit 11, the electronic imaging unit 2, the imaging processing unit 3, and the focusing drive unit 1d constitute a focusing control unit.

比較領域設定処理ルーチンは、電子撮像部2により撮像された第1検出用画像(第1被写体画像)内で比較処理(後述)に係る比較領域を設定する比較領域設定処理に係る機能を制御部11に実現させるための命令群を含む。
具体的には、比較領域設定処理ルーチンにより、制御部11は、カラーフィルタ検出処理、減光フィルタ検出処理、ライトバランシングフィルタ検出処理、特殊フィルタ検出処理、コンバータレンズ検出処理、魚眼レンズ検出処理にて、検出用画像撮影処理にて電子撮像部2により撮像された第1検出用画像内でAF枠Fを略中心とする所定範囲(例えば、縦;a1画素×横;b1画素からなる矩形領域)を比較領域A1(図3(a)参照)として設定する。
ここで、制御部11及び電子撮像部2は、比較領域設定手段を構成している。
The comparison area setting process routine has a function related to the comparison area setting process for setting a comparison area related to the comparison process (described later) in the first detection image (first subject image) imaged by the electronic imaging unit 2. 11 includes a group of instructions to be realized.
Specifically, by the comparison area setting processing routine, the control unit 11 performs color filter detection processing, neutral density filter detection processing, light balancing filter detection processing, special filter detection processing, converter lens detection processing, fisheye lens detection processing, A predetermined range (for example, vertical; a1 pixel × horizontal; b1 pixel rectangular area) having the AF frame F as the center in the first detection image captured by the electronic imaging unit 2 in the detection image capturing process. It is set as the comparison area A1 (see FIG. 3A).
Here, the control unit 11 and the electronic imaging unit 2 constitute a comparison area setting unit.

対応領域特定処理ルーチンは、電子撮像部2により撮像された第2検出用画像(第2被写体画像)内で比較領域A1に対応する対応領域を特定する対応領域特定処理に係る機能を制御部11に実現させるための命令群を含む。
具体的には、対応領域特定処理ルーチンにより、制御部11は、カラーフィルタ検出処理、減光フィルタ検出処理、ライトバランシングフィルタ検出処理、特殊フィルタ検出処理、コンバータレンズ検出処理、魚眼レンズ検出処理にて、検出用画像撮影処理にて電子撮像部2により撮像された第2検出用画像を画像解析して、当該第2検出用画像内でAF枠Fを略中心として比較領域A1に最も類似する領域を特定して、当該領域(例えば、縦;a2画素×横;b2画素からなる矩形領域)を対応領域A2(図3(b)参照)として特定する。
ここで、制御部11及び電子撮像部2は、対応領域特定手段を構成している。
The corresponding area specifying process routine includes a function related to the corresponding area specifying process for specifying the corresponding area corresponding to the comparison area A1 in the second detection image (second subject image) captured by the electronic imaging unit 2. Includes a group of instructions for realizing
Specifically, according to the corresponding area specifying processing routine, the control unit 11 performs color filter detection processing, neutral density filter detection processing, light balancing filter detection processing, special filter detection processing, converter lens detection processing, fisheye lens detection processing, The second detection image captured by the electronic imaging unit 2 in the detection image capturing process is subjected to image analysis, and an area most similar to the comparison area A1 with the AF frame F approximately at the center in the second detection image. Specifically, the region (for example, vertical; a2 pixel × horizontal; rectangular region including b2 pixels) is specified as the corresponding region A2 (see FIG. 3B).
Here, the control unit 11 and the electronic imaging unit 2 constitute a corresponding area specifying unit.

比較処理ルーチンは、制御部11を比較手段として機能させるためのプログラム部分である。即ち、比較処理ルーチンは、撮像レンズ部1にアクセサリが装着されていない状態で電子撮像部2により撮像され生成された第1検出用画像データと、撮像レンズ部1にアクセサリが装着された状態で電子撮像部2により撮像され生成された第2検出用画像データとを比較する比較処理に係る機能を制御部11に実現させるための命令群を含む。
具体的には、比較処理ルーチンにより、制御部11は、比較領域設定処理にて設定された比較領域A1内の画像データと対応領域特定処理にて特定された対応領域A2内の画像データとを比較する。例えば、制御部11は、コンバータレンズ検出処理においては、比較領域A1の縦のサイズ(a1画素)と対応領域A2の縦のサイズ(a2画素)どうしを比較し、また、魚眼レンズ検出処理においては、比較領域A1内の画像データと対応領域A2内の画像データとの間に所定のディストーションがあるか否かを比較し、また、カラーフィルタ検出処理においては、比較領域内の画像データと対応領域内の画像データとの間に所定色成分(RGB)の差があるか否かを比較し、また、ライトバランシングフィルタ検出処理においては、比較領域内の画像データと対応領域内の画像データとの間に所定の色温度の差があるか否かを比較し、また、減光フィルタ検出処理においては、比較領域内の画像データと対応領域内の画像データとの間に所定の輝度成分の差があるか否かを比較し、また、特殊フィルタ検出処理においては、ここではクロスフィルタの検出を行うので、比較領域内の画像内の高輝度部分が対応領域内の画像にて十字の光条となっているか否かを比較する。
The comparison processing routine is a program part for causing the control unit 11 to function as comparison means. That is, the comparison processing routine includes the first detection image data imaged and generated by the electronic imaging unit 2 in a state where the accessory is not attached to the imaging lens unit 1, and the accessory is attached to the imaging lens unit 1. It includes a command group for causing the control unit 11 to realize a function related to the comparison process for comparing the second detection image data imaged and generated by the electronic imaging unit 2.
Specifically, by the comparison processing routine, the control unit 11 uses the image data in the comparison area A1 set in the comparison area setting process and the image data in the corresponding area A2 specified in the corresponding area specifying process. Compare. For example, in the converter lens detection process, the control unit 11 compares the vertical size (a1 pixel) of the comparison area A1 with the vertical size (a2 pixel) of the corresponding area A2, and in the fisheye lens detection process, It is compared whether or not there is a predetermined distortion between the image data in the comparison area A1 and the image data in the corresponding area A2, and in the color filter detection process, the image data in the comparison area and the corresponding area In the light balancing filter detection process, the comparison between the image data in the comparison area and the image data in the corresponding area is performed. In the neutral density filter detection process, the image data in the comparison area and the image data in the corresponding area are compared with each other. In the special filter detection process, since the cross filter is detected here, the high-luminance part in the image in the comparison area is the image in the corresponding area. Compare whether or not it is a cross-light.

特定処理ルーチンは、制御部11を特定手段として機能させるためのプログラム部分である。即ち、特定処理ルーチンは、比較処理による比較領域A1内の画像データと対応領域A2内の画像データとの比較結果に基づいて、撮像レンズ部1に装着されたアクセサリの種類を特定する特定処理に係る機能を制御部11に実現させるための命令群を含む。
具体的には、特定処理ルーチンにより、制御部11は、コンバータレンズ検出処理にて、対応領域A2の縦のサイズ(a2画素)が比較領域A1の縦のサイズ(a1画素)に対して大きくなっていると判定された場合には、アクセサリがテレコンバータレンズであると特定する一方で、対応領域A2の縦のサイズ(a2画素)が比較領域A1の縦のサイズ(a1画素)に対して小さくなっていると判定された場合には、アクセサリがワイドコンバータレンズであると特定する。また、制御部11は、魚眼レンズ検出処理にて、所定のディストーションがあると判定された場合には、アクセサリが魚眼レンズであると特定(ディストーションの程度を鑑みて、セミフィッシュレンズも検出出来るようにすることが好ましい)する。また、制御部11は、カラーフィルタ検出処理にて、所定色成分の差があると判定された場合には、アクセサリがカラーフィルタであると特定する。また、制御部11は、ライトバランシングフィルタ検出処理にて、所定の色温度の差があると判定された場合には、アクセサリがライトバランシングフィルタであると特定する。また、制御部11は、減光フィルタ検出処理にて、所定の輝度成分の差があると判定された場合には、アクセサリが減光フィルタであると特定する。また、制御部11は、特殊フィルタ検出処理にて、比較領域A1内の画像の光っている部分が対応領域A2内の画像にて十字の光条となっていると判定された場合には、アクセサリがクロスフィルタであると特定する。
The specific processing routine is a program part for causing the control unit 11 to function as a specifying unit. That is, the specifying process routine is a specifying process for specifying the type of accessory attached to the imaging lens unit 1 based on the comparison result between the image data in the comparison area A1 and the image data in the corresponding area A2 by the comparison process. A group of instructions for causing the control unit 11 to realize such a function is included.
Specifically, according to the specific processing routine, the control unit 11 causes the vertical size (a2 pixel) of the corresponding area A2 to be larger than the vertical size (a1 pixel) of the comparison area A1 in the converter lens detection process. If it is determined that the accessory is a teleconverter lens, the vertical size (a2 pixel) of the corresponding area A2 is smaller than the vertical size (a1 pixel) of the comparison area A1. If it is determined that the accessory is a wide converter lens, the accessory is specified. In addition, when it is determined in the fisheye lens detection process that there is a predetermined distortion, the control unit 11 specifies that the accessory is a fisheye lens (so that a semi-fish lens can be detected in view of the degree of distortion). Preferably). Further, when it is determined in the color filter detection process that there is a difference between the predetermined color components, the control unit 11 specifies that the accessory is a color filter. Further, when it is determined in the light balancing filter detection process that there is a difference in the predetermined color temperature, the control unit 11 specifies that the accessory is a light balancing filter. Moreover, the control part 11 specifies that an accessory is a neutral density filter, when it determines with there being a difference of a predetermined | prescribed luminance component in a neutral density filter detection process. In addition, when it is determined by the special filter detection process that the shining portion of the image in the comparison area A1 is a cross light stripe in the image in the corresponding area A2, Identify the accessory as a cross filter.

図4は、撮像装置100によるメイン処理の一例を示すフローチャートである。
図4に示すように、電源投入後、制御部11は、ユーザによるモード設定ボタン8dの所定操作に基づいて動作モードとして撮影モードが選択指示されているか否かを判定する(ステップS1)。
ここで、撮影モードが選択指示されたと判定されると(ステップS1;YES)、制御部11は、当該撮像装置100の各部を制御して撮影モード処理(後述)を実行する(ステップS2)。
FIG. 4 is a flowchart illustrating an example of main processing performed by the imaging apparatus 100.
As shown in FIG. 4, after the power is turned on, the control unit 11 determines whether or not the shooting mode is instructed as an operation mode based on a predetermined operation of the mode setting button 8d by the user (step S1).
Here, if it is determined that the shooting mode is selected and instructed (step S1; YES), the control unit 11 controls each unit of the imaging apparatus 100 and executes shooting mode processing (described later) (step S2).

その後、制御部11は、ユーザによるモード設定ボタン8dの所定操作に基づいて動作モードとしてアクセサリ検出モードが選択指示されているか否かを判定する(ステップS3)。また、ステップS1にて、撮影モードが選択指示されていないと判定された場合にも(ステップS1;NO)、制御部11は、処理をステップS3に移行させる。
ここで、アクセサリ検出モードが選択指示されたと判定されると(ステップS3;YES)、制御部11は、当該撮像装置100の各部を制御してアクセサリ検出モード処理(後述)を実行する(ステップS4)。
Thereafter, the control unit 11 determines whether or not the accessory detection mode is instructed to be selected as the operation mode based on a predetermined operation of the mode setting button 8d by the user (step S3). Even when it is determined in step S1 that the shooting mode is not instructed to be selected (step S1; NO), the control unit 11 shifts the process to step S3.
Here, if it is determined that the accessory detection mode is selected and instructed (step S3; YES), the control unit 11 controls each unit of the imaging apparatus 100 and executes accessory detection mode processing (described later) (step S4). ).

その後、制御部11は、ユーザによるモード設定ボタン8dの所定操作に基づいて電源オフ処理が選択指示されているか否かを判定する(ステップS5)。また、ステップS3にて、アクセサリ検出モードが選択指示されていないと判定された場合にも(ステップS3;NO)、制御部11は、処理をステップS5に移行させる。
ここで、電源オフ処理が選択指示されていないと判定されると(ステップS5;NO)、制御部11は、処理をステップS1に移行させて、それ以降の処理を繰り返し実行する。
一方、電源オフ処理が選択指示されたと判定されると(ステップS5;YES)、制御部11は、当該撮像装置100の各部を制御してメイン処理を終了させる。
Thereafter, the control unit 11 determines whether or not a power-off process is instructed to be selected based on a predetermined operation of the mode setting button 8d by the user (step S5). Even when it is determined in step S3 that the accessory detection mode is not instructed to be selected (step S3; NO), the control unit 11 shifts the process to step S5.
If it is determined that the power-off process is not instructed to be selected (step S5; NO), the control unit 11 shifts the process to step S1 and repeatedly executes the subsequent processes.
On the other hand, when it is determined that the power-off process is instructed to be selected (step S5; YES), the control unit 11 controls each unit of the imaging apparatus 100 and ends the main process.

先ず、アクセサリ検出モード処理について、図5〜図8を参照して詳細に説明する。
図5は、アクセサリ検出モード処理に係る動作の一例を示すフローチャートである。
First, the accessory detection mode process will be described in detail with reference to FIGS.
FIG. 5 is a flowchart illustrating an example of an operation related to the accessory detection mode process.

図5に示すように、制御部11は、データメモリ9のフラグテーブルTにアクセサリフラグ=0、検出用フラグ=0を書き込んだ後(ステップS101)、アクセサリ検出モードの終了指示があるか否かを判定する(ステップS102)。
ここでは、アクセサリ検出モードが終了していないと判定されたとして(ステップS102;NO)、続けて、制御部11は、ユーザによる操作入力部8のメニューボタン8b等の所定操作に基づいてメニュー処理の実行が指示されているか否かを判定する(ステップS103)。
ここで、メニュー処理の実行が指示されていると判定されると(ステップS103;YES)、制御部11は、表示処理部7により所定のメニュー画面を表示部6に表示させる(ステップS104)。
As shown in FIG. 5, after writing the accessory flag = 0 and the detection flag = 0 in the flag table T of the data memory 9 (step S <b> 101), the control unit 11 determines whether there is an instruction to end the accessory detection mode. Is determined (step S102).
Here, assuming that the accessory detection mode has not ended (step S102; NO), the control unit 11 continues the menu process based on a predetermined operation such as the menu button 8b of the operation input unit 8 by the user. It is determined whether or not execution is instructed (step S103).
If it is determined that the execution of the menu process is instructed (step S103; YES), the control unit 11 causes the display processing unit 7 to display a predetermined menu screen on the display unit 6 (step S104).

次に、撮像処理部3は、電子撮像部2によりライブビュー画像表示に応じた所定の撮像フレームレートで被写体を撮像させる(ステップS105)。また、ステップS103にて、メニュー処理の実行が指示されていないと判定された場合にも(ステップS103;NO)、制御部11は、処理をステップS105に移行させる。
そして、制御部11は、Gフラグが表示に設定されている場合は後述するライブビュー表示設定処理にて設定されたガイダンス表示G(後述)を、データメモリ9から読み出した後(ステップS1052)、当該ガイダンス表示G(後述)を電子撮像部2によって生成されたライブビュー画像表示用の画像フレームに重畳させて、表示処理部7を介して表示部6に表示させる(ステップS106)。
また同時に、制御部11は、半押しフラグがオンで且つA1フラグが表示に設定されている場合は後述するライブビュー表示設定処理にて設定された比較領域A1(後述)をデータメモリ9から読み出した後(ステップS1052)、当該比較領域A1(後述)を電子撮像部2によって生成されたライブビュー画像表示用の画像フレームに重畳させて、表示処理部7を介して表示部6に表示させる。A1フラグが非表示に設定されている場合は、比較領域A1の重畳表示は行わない(ステップS106)。
また同時に、制御部11は、半押しフラグがオンで且つA2フラグが表示に設定されている場合、後述するライブビュー表示設定処理にて設定された対応領域A2(後述)をデータメモリ9から読み出した後(ステップS1052)、当該対応領域A2(後述)を電子撮像部2によって生成されたライブビュー画像表示用の画像フレームに重畳させて、表示処理部7を介して表示部6に表示させる。A2フラグが非表示に設定されている場合は、対応領域A1の重畳表示は行わない(ステップS106)。
Next, the imaging processing unit 3 causes the electronic imaging unit 2 to image a subject at a predetermined imaging frame rate corresponding to live view image display (step S105). Even when it is determined in step S103 that execution of the menu process is not instructed (step S103; NO), the control unit 11 shifts the process to step S105.
When the G flag is set to display, the control unit 11 reads the guidance display G (described later) set in the live view display setting process described later from the data memory 9 (step S1052), The guidance display G (described later) is superimposed on the image frame for live view image display generated by the electronic imaging unit 2 and displayed on the display unit 6 via the display processing unit 7 (step S106).
At the same time, the control unit 11 reads the comparison area A1 (described later) set in the live view display setting process described later from the data memory 9 when the half-press flag is on and the A1 flag is set to display. After that (step S1052), the comparison area A1 (described later) is superimposed on the live view image display image frame generated by the electronic imaging unit 2 and displayed on the display unit 6 via the display processing unit 7. When the A1 flag is set to non-display, the comparison area A1 is not superimposed and displayed (step S106).
At the same time, when the half-press flag is on and the A2 flag is set to display, the control unit 11 reads the corresponding area A2 (described later) set in the live view display setting process described later from the data memory 9. After that (step S1052), the corresponding area A2 (described later) is superimposed on the live view image display image frame generated by the electronic imaging unit 2 and displayed on the display unit 6 via the display processing unit 7. When the A2 flag is set to non-display, the corresponding area A1 is not superimposed and displayed (step S106).

次に、制御部11は、データメモリ9のフラグテーブルTを参照して半押しフラグがONに設定されているか否かを判定する(ステップS107)。ここで、半押しフラグが設定されていないと判定されると(ステップS107;NO)、制御部11は、ユーザにより操作入力部8のシャッターボタン8aが半押し操作されているか否かを検出して判定する(ステップS108)。
ここで、シャッターボタン8aの半押し操作が検出されていないと判定されると(ステップS108;NO)、制御部11は、処理をステップS102に移行させる。
Next, the control unit 11 refers to the flag table T in the data memory 9 and determines whether or not the half-press flag is set to ON (step S107). If it is determined that the half-press flag is not set (step S107; NO), the control unit 11 detects whether or not the shutter button 8a of the operation input unit 8 is half-pressed by the user. (Step S108).
If it is determined that the half-pressing operation of the shutter button 8a is not detected (step S108; NO), the control unit 11 shifts the process to step S102.

一方、ステップS108にて、シャッターボタン8aの半押し操作が検出されたと判定されると(ステップS108;YES)、制御部11は、データメモリ9のフラグテーブルTに半押しフラグONを書き込み(ステップS109)、基本撮影条件設定処理を実行する(ステップS110)。
基本撮影条件設定処理では、例えば、合焦制御処理ルーチンにより、制御部11は、コントラストAF方式によって合焦位置を調整する自動合焦処理を行って、合焦駆動部1dによりフォーカスレンズ1bを光軸方向に移動させて当該フォーカスレンズ1bの光軸方向の位置を決定する。
その後、制御部11は、被写体の撮像の際の露出条件を調整する自動露出処理を行って、露出値を決定した後、自動露出処理により決定された露出値とデータメモリ9に記憶されているプログラム線図に基づいて、ISO感度と、レンズの絞り値と、シャッタースピードと、フラッシュのON/OFFを決定する。
これにより、基本撮影条件設定処理を終了する。
On the other hand, if it is determined in step S108 that the half-press operation of the shutter button 8a has been detected (step S108; YES), the control unit 11 writes the half-press flag ON in the flag table T of the data memory 9 (step S108). S109) A basic photographing condition setting process is executed (step S110).
In the basic shooting condition setting process, for example, by the focus control process routine, the control unit 11 performs an automatic focus process for adjusting the focus position by the contrast AF method, and the focus driving unit 1d causes the focus lens 1b to light. The position of the focus lens 1b in the optical axis direction is determined by moving in the axial direction.
After that, the control unit 11 performs an automatic exposure process for adjusting the exposure condition at the time of imaging the subject, determines the exposure value, and then stores the exposure value determined by the automatic exposure process and the data memory 9. Based on the program diagram, ISO sensitivity, lens aperture value, shutter speed, and flash ON / OFF are determined.
Thereby, the basic photographing condition setting process is terminated.

次に、制御部11は、ステップS106でライブビュー画像と重畳して表示する各種情報のための各種設定を行うライブビュー表示設定処理を実行する(ステップS111;後述)。   Next, the control unit 11 executes live view display setting processing for performing various settings for various information to be displayed superimposed on the live view image in step S106 (step S111; described later).

その後、制御部11は、処理をステップS102に移行させて、それ以降の処理を繰り返し実行する。ステップS107にて、半押しフラグがONに設定されていると判定されると(ステップS107;YES)、制御部11は、ユーザによるシャッターボタン8aの半押し操作が維持されているか否かを判定する(ステップS112)。
ここで、シャッターボタン8aの半押し操作が維持されていないと判定されると(ステップS112;NO)、制御部11は、データメモリ9のフラグテーブルTに半押しフラグOFFを書き込む(ステップS113)。
Thereafter, the control unit 11 shifts the process to step S102 and repeatedly executes the subsequent processes. If it is determined in step S107 that the half-press flag is set to ON (step S107; YES), the control unit 11 determines whether the half-press operation of the shutter button 8a by the user is maintained. (Step S112).
If it is determined that the half-press operation of the shutter button 8a is not maintained (step S112; NO), the control unit 11 writes the half-press flag OFF in the flag table T of the data memory 9 (step S113). .

次に、制御部11は、ユーザにより操作入力部8のシャッターボタン8aが全押し操作されているか否かを検出して判定する(ステップS114)。また、ステップS112にて、シャッターボタン8aの半押し操作が維持されていると判定された場合にも(ステップS112;YES)、制御部11は、処理をステップS114に移行させる。
ここで、シャッターボタン8aの全押し操作が検出されたと判定されると(ステップS114;YES)、制御部11は、電子撮像部2により被写体の検出用画像を撮影させる検出用画像撮影処理を実行する(ステップS115;後述)。
そしてその後、制御部11は、ステップS102に移行させて、それ以降の処理を繰り返し実行する。
一方、ステップS114にて、シャッターボタン8aの全押し操作が検出されていないと判定されると(ステップS114;NO)、制御部11は、処理をステップS102に移行させて、それ以降の処理を繰り返し実行する。
Next, the control unit 11 detects and determines whether or not the shutter button 8a of the operation input unit 8 has been fully pressed by the user (step S114). Even when it is determined in step S112 that the half-press operation of the shutter button 8a is maintained (step S112; YES), the control unit 11 shifts the process to step S114.
Here, if it is determined that the full-pressing operation of the shutter button 8a has been detected (step S114; YES), the control unit 11 executes a detection image capturing process in which the electronic image capturing unit 2 captures a subject detection image. (Step S115; described later).
Then, after that, the control unit 11 shifts to step S102 and repeatedly executes the subsequent processing.
On the other hand, when it is determined in step S114 that the full pressing operation of the shutter button 8a has not been detected (step S114; NO), the control unit 11 shifts the process to step S102 and performs the subsequent processes. Run repeatedly.

次に、検出用画像撮影処理について、図6〜図8を参照して詳細に説明する。
図6は、検出用画像撮影処理に係る動作の一例を示すフローチャートである。
Next, the detection image capturing process will be described in detail with reference to FIGS.
FIG. 6 is a flowchart illustrating an example of an operation related to the detection image capturing process.

図6に示すように、制御部11は、データメモリ9のフラグテーブルTの検出用画像フラグの値に応じて処理を分岐させる(ステップS201)。
ここで、制御部11により検出用画像フラグの値が0であると判定されると(ステップS201;=0)、撮像処理部3は、電子撮像部2により被写体の第1検出用画像を撮像させて第1検出用画像データをステップS408(後述)で設定してデータメモリ9に記録した比較領域(図3(a)の比較領域A1)と関連付けてデータメモリ9に一時的に格納する(ステップS202)。続けて、制御部11は、データメモリ9のフラグテーブルTに検出用画像フラグ=1を書き込む(ステップS203)。
その後、リターン処理にて図5のステップS102へ以降する。
As shown in FIG. 6, the control unit 11 branches the process according to the value of the detection image flag in the flag table T of the data memory 9 (step S201).
If the control unit 11 determines that the value of the detection image flag is 0 (step S201; = 0), the imaging processing unit 3 captures the first detection image of the subject by the electronic imaging unit 2. The first detection image data is temporarily stored in the data memory 9 in association with the comparison area (comparison area A1 in FIG. 3A) set in step S408 (described later) and recorded in the data memory 9 ( Step S202). Subsequently, the control unit 11 writes the detection image flag = 1 in the flag table T of the data memory 9 (step S203).
Thereafter, the process returns to step S102 in FIG.

その後、ユーザにより撮像レンズ部1のレンズ着脱機構に何れかのアクセサリが装着された後、検出用画像撮影処理が再度実行され、ステップS201にて、制御部11により検出用画像フラグの値が1であると判定されると(ステップS201;=1)、撮像処理部3は、電子撮像部2により被写体の第2検出用画像を撮像させて第2検出用画像データをステップS410(後述)で設定してデータメモリ9に記録した対応領域(図3(b)の対応領域A2)と関連付けてデータメモリ9に一時的に格納する(ステップS204)。続けて、制御部11は、データメモリ9のフラグテーブルTに検出用画像フラグ=2を書き込む(ステップS205)。   Thereafter, after any accessory is attached to the lens attaching / detaching mechanism of the imaging lens unit 1 by the user, the detection image capturing process is executed again, and the value of the detection image flag is set to 1 by the control unit 11 in step S201. If it is determined (step S201; = 1), the imaging processing unit 3 causes the electronic imaging unit 2 to capture the second detection image of the subject, and obtains the second detection image data in step S410 (described later). It is temporarily stored in the data memory 9 in association with the corresponding area set and recorded in the data memory 9 (corresponding area A2 in FIG. 3B) (step S204). Subsequently, the control unit 11 writes the detection image flag = 2 in the flag table T of the data memory 9 (step S205).

次に、制御部11は、アクセサリとしてカラーフィルタが装着されているか否かを検出するカラーフィルタ検出処理を実行する(ステップS206)。   Next, the control unit 11 performs a color filter detection process for detecting whether or not a color filter is attached as an accessory (step S206).

ここで、カラーフィルタ検出処理について、図7を参照して詳細に説明する。
図7は、カラーフィルタ検出処理に係る動作の一例を示すフローチャートである。
図7に示すように、制御部11は、比較領域設定処理ルーチンにより、データメモリ9に格納されている第1検出用画像データの比較領域を取得して、当該比較領域の4つの所定隅部を読み出す(ステップS261)。
Here, the color filter detection processing will be described in detail with reference to FIG.
FIG. 7 is a flowchart illustrating an example of an operation related to the color filter detection process.
As shown in FIG. 7, the control unit 11 acquires a comparison area of the first detection image data stored in the data memory 9 by the comparison area setting processing routine, and obtains four predetermined corners of the comparison area. Is read (step S261).

次に、制御部11は、対応領域特定処理ルーチンにより、データメモリ9に格納されている第2検出用画像データの対応領域を取得して、当該対応領域を画像解析して、前記比較領域の4つの所定隅部と対応する当該対応領域の4つの所定隅部を特定して読み出す(ステップS262)。   Next, the control unit 11 obtains the corresponding area of the second detection image data stored in the data memory 9 by the corresponding area specifying processing routine, analyzes the corresponding area, and analyzes the comparison area. The four predetermined corners of the corresponding area corresponding to the four predetermined corners are specified and read (step S262).

次に、制御部11は、比較処理ルーチンにより、比較領域設定処理にて設定された比較領域内の所定部位画像データと対応領域特定処理にて特定された対応領域内の所定部位画像データとを比較して、比較領域内の画像データと対応領域内の画像データとの間に所定色成分の差があるか否かを判定する(ステップS263)。
そして、特定処理ルーチンにより、所定色成分の差があると判定されると(ステップS263;YES)、制御部11は、撮像レンズ部1に所定のカラーフィルタが装着されていると判断し(ステップS264)、一方、所定色成分の差がないと判定されると(ステップS263;NO)、所定のカラーフィルタが装着されていないと判断する(ステップS265)。
これにより、カラーフィルタ検出処理を終了して図6に戻る。
Next, the control unit 11 uses the comparison processing routine to obtain the predetermined part image data in the comparison area set in the comparison area setting process and the predetermined part image data in the corresponding area specified in the corresponding area specifying process. In comparison, it is determined whether there is a difference in predetermined color components between the image data in the comparison area and the image data in the corresponding area (step S263).
If it is determined by the specific processing routine that there is a difference between the predetermined color components (step S263; YES), the control unit 11 determines that a predetermined color filter is attached to the imaging lens unit 1 (step S263). On the other hand, if it is determined that there is no difference between the predetermined color components (step S263; NO), it is determined that the predetermined color filter is not attached (step S265).
As a result, the color filter detection process ends and the processing returns to FIG.

次に、制御部11は、アクセサリとして減光フィルタが装着されているか否かを検出する減光フィルタ検出処理を実行する(ステップS207)。
減光フィルタ検出処理は、下記に説明する以外の点でカラーフィルタ検出処理と略同様であり、その説明を省略する。
具体的には、制御部11は、比較領域設定処理及び対応領域特定処理後に、比較処理ルーチンにより、比較領域設定処理にて設定された比較領域内の所定部位画像データと対応領域特定処理にて特定された対応領域内の所定部位画像データとを比較して、比較領域内の画像データと対応領域内の画像データとの間に所定の輝度成分の差があるか否かを判定する。
そして、特定処理ルーチンにより、所定の輝度成分の差があると判定されると、制御部11は、撮像レンズ部1に所定の減光フィルタが装着されていると判断し、一方、所定の輝度成分の差がないと判定されると、所定の減光フィルタが装着されていないと判断する。
これにより、減光フィルタ検出処理を終了する。
Next, the control unit 11 performs a neutral density filter detection process for detecting whether or not the neutral density filter is attached as an accessory (step S207).
The neutral density filter detection process is substantially the same as the color filter detection process except for the point described below, and a description thereof will be omitted.
Specifically, after the comparison area setting process and the corresponding area specifying process, the control unit 11 performs the predetermined region image data in the comparison area set in the comparison area setting process and the corresponding area specifying process by the comparison process routine. The predetermined part image data in the specified corresponding area is compared, and it is determined whether or not there is a predetermined luminance component difference between the image data in the comparison area and the image data in the corresponding area.
When it is determined by the specific processing routine that there is a difference between the predetermined luminance components, the control unit 11 determines that a predetermined neutral density filter is attached to the imaging lens unit 1, while If it is determined that there is no component difference, it is determined that the predetermined neutral density filter is not attached.
Thereby, the neutral density filter detection process is terminated.

次に、制御部11は、アクセサリとしてライトバランシングフィルタが装着されているか否かを検出するライトバランシングフィルタ検出処理を実行する(ステップS208)。
ライトバランシングフィルタ検出処理は、下記に説明する以外の点でカラーフィルタ検出処理と略同様であり、その説明を省略する。
具体的には、制御部11は、比較領域設定処理及び対応領域特定処理後に、比較処理ルーチンにより、比較領域設定処理にて設定された比較領域内の所定部位画像データと対応領域特定処理にて特定された対応領域内の所定部位画像データとを比較して、比較領域内の画像データと対応領域内の画像データとの間に所定の色温度の差があるか否かを判定する。
そして、特定処理ルーチンにより、所定の色温度の差があると判定されると、制御部11は、撮像レンズ部1に所定のライトバランシングフィルタが装着されていると判断し、一方、所定の色温度の差がないと判定されると、所定のライトバランシングフィルタが装着されていないと判断する。
これにより、ライトバランシングフィルタ検出処理を終了する。
Next, the control unit 11 performs a light balancing filter detection process for detecting whether or not a light balancing filter is attached as an accessory (step S208).
The light balancing filter detection process is substantially the same as the color filter detection process except for the point described below, and the description thereof is omitted.
Specifically, after the comparison area setting process and the corresponding area specifying process, the control unit 11 performs the predetermined region image data in the comparison area set in the comparison area setting process and the corresponding area specifying process by the comparison process routine. The predetermined part image data in the specified corresponding area is compared, and it is determined whether or not there is a predetermined color temperature difference between the image data in the comparison area and the image data in the corresponding area.
When it is determined by the specific processing routine that there is a difference in the predetermined color temperature, the control unit 11 determines that the predetermined light balancing filter is attached to the imaging lens unit 1, while the predetermined color is changed. If it is determined that there is no temperature difference, it is determined that the predetermined light balancing filter is not attached.
Thereby, the light balancing filter detection process is terminated.

次に、制御部11は、アクセサリとして特殊フィルタが装着されているか否かを検出する特殊フィルタ検出処理を実行する(ステップS209)。
特殊フィルタ検出処理は、下記に説明する以外の点でカラーフィルタ検出処理と略同様であり、その説明を省略する。
具体的には、制御部11は、比較領域設定処理及び対応領域特定処理後に、比較処理ルーチンにより、比較領域設定処理にて設定された比較領域内の所定部位画像データと対応領域特定処理にて特定された対応領域内の所定部位画像データとを比較して、比較領域内の画像の高輝度部分が対応領域内の画像にて十字の光条となっているか否かを判定する。
そして、特定処理ルーチンにより、比較領域内の画像の高輝度部分が対応領域内の画像にて十字の光条となっていると判定されると、制御部11は、撮像レンズ部1に所定のクロスフィルタが装着されていると判断し、一方、比較領域内の画像の高輝度部分が対応領域内の画像にて十字の光条となっていないと判定されると、所定のクロスフィルタが装着されていないと判断する。
これにより、特殊フィルタ検出処理を終了する。
Next, the control unit 11 executes a special filter detection process for detecting whether or not a special filter is attached as an accessory (step S209).
The special filter detection process is substantially the same as the color filter detection process in points other than those described below, and a description thereof will be omitted.
Specifically, after the comparison area setting process and the corresponding area specifying process, the control unit 11 performs the predetermined region image data in the comparison area set in the comparison area setting process and the corresponding area specifying process by the comparison process routine. The predetermined part image data in the specified corresponding area is compared, and it is determined whether or not the high-intensity part of the image in the comparison area is a cross light stripe in the image in the corresponding area.
When it is determined by the specific processing routine that the high-luminance portion of the image in the comparison area is a cross light stripe in the image in the corresponding area, the control unit 11 applies a predetermined value to the imaging lens unit 1. If it is determined that the cross filter is attached, and it is determined that the high-intensity portion of the image in the comparison area is not a cross light streak in the image in the corresponding area, the predetermined cross filter is attached. Judge that it is not.
Thereby, the special filter detection process is terminated.

次に、制御部11は、アクセサリとして魚眼レンズが装着されているか否かを検出する魚眼レンズ検出処理を実行する(ステップS210)。
魚眼レンズ検出処理は、下記に説明する以外の点でカラーフィルタ検出処理と略同様であり、その説明を省略する。
具体的には、制御部11は、比較領域設定処理及び対応領域特定処理後に、比較処理ルーチンにより、比較領域設定処理にて設定された比較領域内の所定部位画像データと対応領域特定処理にて特定された対応領域内の所定部位画像データとを比較して、比較領域内の画像データと対応領域内の画像データとの間に所定のディストーションがあるか否かを判定する。
そして、特定処理ルーチンにより、所定のディストーションがあると判定されると、制御部11は、撮像レンズ部1に所定の魚眼レンズが装着されていると判断し、一方、所定のディストーションがないと判定されると、所定の魚眼レンズが装着されていないと判断する。
これにより、魚眼レンズ検出処理を終了する。
Next, the control part 11 performs the fisheye lens detection process which detects whether the fisheye lens is mounted | worn as an accessory (step S210).
The fisheye lens detection process is substantially the same as the color filter detection process except for the point described below, and the description thereof is omitted.
Specifically, after the comparison area setting process and the corresponding area specifying process, the control unit 11 performs the predetermined region image data in the comparison area set in the comparison area setting process and the corresponding area specifying process by the comparison process routine. The predetermined part image data in the specified corresponding area is compared, and it is determined whether or not there is a predetermined distortion between the image data in the comparison area and the image data in the corresponding area.
When it is determined by the specific processing routine that there is a predetermined distortion, the control unit 11 determines that the predetermined fisheye lens is attached to the imaging lens unit 1, and on the other hand, determines that there is no predetermined distortion. Then, it is determined that the predetermined fisheye lens is not attached.
This completes the fisheye lens detection process.

次に、制御部11は、アクセサリとしてコンバータレンズが装着されているか否かを検出するコンバータレンズ検出処理を実行する(ステップS211)。   Next, the control part 11 performs the converter lens detection process which detects whether the converter lens is mounted | worn as an accessory (step S211).

ここで、コンバータレンズ検出処理について、図8を参照して詳細に説明する。
図8は、コンバータレンズ検出処理に係る動作の一例を示すフローチャートである。
Here, the converter lens detection process will be described in detail with reference to FIG.
FIG. 8 is a flowchart illustrating an example of an operation related to the converter lens detection process.

図8に示すように、先ず、制御部11は、魚眼レンズ検出処理にて、魚眼レンズを検出したか否かを判定する(ステップS2111)。
ここで、魚眼レンズを検出したと判定されると(ステップS2111;YES)、制御部11は、コンバータレンズは装着していないと判断してコンバータレンズ検出処理を終了させる。
一方、ステップS2111にて、魚眼レンズを検出していないと判定されると(ステップS2111;NO)、データメモリ9に格納されている第1検出用画像データの比較領域A1の画像データを読み出す(ステップS2112)。
As shown in FIG. 8, first, the control unit 11 determines whether or not a fisheye lens has been detected in the fisheye lens detection process (step S2111).
If it is determined that the fisheye lens has been detected (step S2111; YES), the control unit 11 determines that the converter lens is not attached and ends the converter lens detection process.
On the other hand, if it is determined in step S2111 that the fisheye lens is not detected (step S2111; NO), the image data in the comparison area A1 of the first detection image data stored in the data memory 9 is read (step S2111). S2112).

次に、制御部11は、データメモリ9に格納されている第2検出用画像データの対応領域A2の画像データを読み出す(ステップS2113)。   Next, the control unit 11 reads the image data of the corresponding area A2 of the second detection image data stored in the data memory 9 (step S2113).

次に、制御部11は、比較処理ルーチンにより、比較領域A1の縦のサイズ(a1画素)と対応領域A2の縦のサイズ(a2画素)どうしを比較して(ステップS2114)、比較領域A1の縦のサイズに対する対応領域A2の縦のサイズの倍率Xを算出する(ステップS2115)。
そして、制御部11は、比較領域A1の縦のサイズに対する対応領域A2の縦のサイズの倍率Xに応じて処理を分岐させる(ステップS2116)。ここで、比較領域A1の縦のサイズに対する対応領域A2の縦のサイズの倍率Xが1よりも大きくなっている場合には(ステップS2116;>1)、特定処理ルーチンにより、制御部11は、アクセサリとしてテレコンバータレンズが装着されていると特定する(ステップS2117)。一方、比較領域A1の縦のサイズに対する対応領域A2の縦のサイズの倍率Xが1よりも小さくなっている場合には(ステップS2116;<1)、特定処理ルーチンにより、制御部11は、アクセサリとしてワイドコンバータレンズが装着されていると特定する(ステップS2118)。また、比較領域A1の縦のサイズに対する対応領域A2の縦のサイズの倍率Xが1と等しい場合には(ステップS2116;=1)、アクセサリとしてコンバータレンズは装着されていないものと特定し、特段の処理を行わない。
これにより、コンバータレンズ検出処理を終了して、図6のステップS212へ進む。
Next, the control unit 11 compares the vertical size (a1 pixel) of the comparison area A1 with the vertical size (a2 pixel) of the corresponding area A2 by the comparison processing routine (step S2114). The magnification X of the vertical size of the corresponding area A2 with respect to the vertical size is calculated (step S2115).
Then, the control unit 11 branches the process according to the magnification X of the vertical size of the corresponding area A2 with respect to the vertical size of the comparison area A1 (step S2116). Here, when the magnification X of the vertical size of the corresponding area A2 with respect to the vertical size of the comparison area A1 is larger than 1 (step S2116;> 1), the control unit 11 causes the specific processing routine to It is specified that a teleconverter lens is attached as an accessory (step S2117). On the other hand, when the magnification X of the vertical size of the corresponding area A2 with respect to the vertical size of the comparison area A1 is smaller than 1 (step S2116; <1), the control unit 11 causes the accessory to execute the accessory according to the specific processing routine. It is specified that a wide converter lens is attached (step S2118). When the magnification X of the vertical size of the corresponding area A2 with respect to the vertical size of the comparison area A1 is equal to 1 (step S2116; = 1), it is specified that the converter lens is not attached as an accessory. Do not perform the process.
As a result, the converter lens detection process ends, and the process proceeds to step S212 in FIG.

そして、図6に示すように、制御部11は、何れかのアクセサリが検出されたか否かを判定する(ステップS212)。
ここで、何れかのアクセサリが検出されたと判定されると(ステップS212;YES)、制御部11は、検出したアクセサリの種類をアクセサリデータとしてデータメモリ9に記憶して(ステップS213)、データメモリ9のフラグテーブルTにアクセサリフラグ=1を書き込む(ステップS214)。
一方、ステップS212にて、何れかのアクセサリが検出されていないと判定されると(ステップS212;NO)、制御部11は、データメモリ9のフラグテーブルTにアクセサリフラグ=0を書き込む(ステップS215)。ステップS214またはステップS215の処理が終了したら、リターン処理にて図5のS102に進む。
ここで、コンバータレンズ検出処理以外の各アクセサリの検出処理において、比較領域と対応領域の4隅に位置する所定部位を用いて各アクセサリの検出処理を行っている理由について記述する。
これは、仮に魚眼レンズを装着していたとした場合、中央部程画像の差が大きいから、比較領域と対応領域の4隅に位置する部位を用いて各アクセサリの検出処理を行っているものである。
魚眼レンズの検出においても比較領域と対応領域の4隅に位置する部位を用いているのは、魚眼レンズがずれて装着されている場合であってもどのような魚眼レンズが装着されているか(セミフィッシュかもしれない)確実に検出できるように、4隅に位置する部位を用いているものである。
And as shown in FIG. 6, the control part 11 determines whether any accessory was detected (step S212).
If it is determined that any accessory is detected (step S212; YES), the control unit 11 stores the detected accessory type in the data memory 9 as accessory data (step S213), and the data memory. 9 is written in the flag table T of 9 (step S214).
On the other hand, when it is determined in step S212 that any accessory is not detected (step S212; NO), the control unit 11 writes the accessory flag = 0 in the flag table T of the data memory 9 (step S215). ). When the process of step S214 or step S215 is completed, the process proceeds to S102 of FIG. 5 in the return process.
Here, in the detection process of each accessory other than the converter lens detection process, the reason why the detection process of each accessory is performed using predetermined parts located at the four corners of the comparison area and the corresponding area will be described.
In this case, if the fish-eye lens is attached, the difference between the images in the central part is large. Therefore, the detection processing of each accessory is performed using the parts located at the four corners of the comparison area and the corresponding area. .
In the detection of the fisheye lens, the parts located at the four corners of the comparison region and the corresponding region are used because the fisheye lens is mounted even if the fisheye lens is mounted shifted (semi-fish In order to be able to detect reliably, the part located in four corners is used.

なお、その後、検出用画像撮影処理が再度実行されて、ステップS201にて、検出用画像フラグの値が2であると判定された場合には(ステップS201;=2)、制御部11は、表示処理部7により「設定リセット」を表示部6に表示させる(ステップS216)。
次に、制御部11は、データメモリ9に記憶されている第1検出用画像データ及び第2検出用画像データ並びにアクセサリデータを削除して(ステップS217)、データメモリ9のフラグテーブルTに検出用画像フラグ=0を書き込む(ステップS218)。その後、リターン処理にて図5のS102に進む。
そして、モード設定ボタン8dにより動作モードを「撮影モード」に設定する指示を受けた場合、アクセサリ検出モードを終了し(ステップS102)、リターン処理にて図4のステップS5に進む。
モード設定ボタン8dによる指示は「撮影モード」であるから、電源オフの指示は行われずに(ステップS5)、撮影モードが選択され(ステップS1;YES)、以下に詳述する撮影モード処理が実行される(ステップS2)。
After that, when the detection image photographing process is executed again and it is determined in step S201 that the value of the detection image flag is 2 (step S201; = 2), the control unit 11 The display processing unit 7 displays “setting reset” on the display unit 6 (step S216).
Next, the control unit 11 deletes the first detection image data, the second detection image data, and the accessory data stored in the data memory 9 (step S217), and detects them in the flag table T of the data memory 9. The image flag = 0 is written (step S218). Thereafter, the process proceeds to S102 in FIG.
When the instruction to set the operation mode to “shooting mode” is received from the mode setting button 8d, the accessory detection mode is terminated (step S102), and the process proceeds to step S5 in FIG.
Since the instruction by the mode setting button 8d is “shooting mode”, the power-off instruction is not issued (step S5), the shooting mode is selected (step S1; YES), and the shooting mode process described in detail below is executed. (Step S2).

次に、撮影モード処理について図9及び図10を参照して説明する。
図9は、撮影モード処理に係る動作の一例を示すフローチャートである。
Next, photographing mode processing will be described with reference to FIGS.
FIG. 9 is a flowchart illustrating an example of an operation related to the shooting mode process.

撮影モード処理は、メイン処理にて、ユーザによる操作入力部8の所定操作に基づいて動作モードとして撮影モードが選択された場合に実行される処理である。
図9に示すように、先ず、制御部11は、撮影モードの終了指示があるか否かを判定する(ステップS301)。ここでは、撮影モードの終了指示が無いと判定されたとして(ステップS301;NO)、続けて、制御部11は、ユーザによる操作入力部8のメニューボタン8b等の所定操作に基づいてメニュー処理の実行が指示されているか否かを判定する(ステップS302)。
ここで、メニュー処理の実行が指示されていると判定されると(ステップS302;YES)、制御部11は、表示処理部7により所定のメニュー画面を表示部6に表示させる(ステップS303)。
The shooting mode process is a process executed when the shooting mode is selected as the operation mode based on a predetermined operation of the operation input unit 8 by the user in the main process.
As shown in FIG. 9, first, the control unit 11 determines whether or not there is an instruction to end the shooting mode (step S301). Here, assuming that it is determined that there is no instruction to end the shooting mode (step S301; NO), the control unit 11 continues the menu processing based on a predetermined operation such as the menu button 8b of the operation input unit 8 by the user. It is determined whether execution is instructed (step S302).
If it is determined that the execution of the menu process is instructed (step S302; YES), the control unit 11 causes the display processing unit 7 to display a predetermined menu screen on the display unit 6 (step S303).

次に、撮像処理部3は、電子撮像部2によりライブビュー画像表示に応じた所定の撮像フレームレートで被写体を撮像させる(ステップS304)。また、ステップS302にて、メニュー処理の実行が指示されていないと判定された場合にも(ステップS302;NO)、制御部11は、処理をステップS304に移行させる。
そして、制御部11は、Gフラグが表示に設定されている場合は後述するライブビュー表示設定処理にて設定されたガイダンス表示G(後述)を、データメモリ9から読み出した後(ステップS305)、当該ガイダンス表示G(後述)を電子撮像部2によって生成されたライブビュー画像表示用の画像フレームに重畳させて、表示処理部7を介して表示部6に表示させる。(ステップS306)。
撮影モード処理においては、A1フラグ及びA2フラグは非表示に設定されているので、ステップ306と結果的に異なり、比較領域A1及び対応領域A2の重畳表示は行わない。
Next, the imaging processing unit 3 causes the electronic imaging unit 2 to image a subject at a predetermined imaging frame rate corresponding to live view image display (step S304). In addition, when it is determined in step S302 that execution of the menu process is not instructed (step S302; NO), the control unit 11 shifts the process to step S304.
When the G flag is set to display, the control unit 11 reads the guidance display G (described later) set in the live view display setting process described later from the data memory 9 (step S305), The guidance display G (described later) is superimposed on the image frame for live view image display generated by the electronic imaging unit 2 and displayed on the display unit 6 via the display processing unit 7. (Step S306).
In the shooting mode process, the A1 flag and the A2 flag are set to non-display, so that the comparison area A1 and the corresponding area A2 are not superimposed and displayed as a result unlike step 306.

次に、制御部11は、データメモリ9のフラグテーブルTを参照して半押しフラグがONに設定されているか否かを判定する(ステップS307)。ここで、半押しフラグが設定されていないと判定されると(ステップS307;NO)、制御部11は、ユーザにより操作入力部8のシャッターボタン8aが半押し操作されているか否かを判定する(ステップS308)。
ここで、シャッターボタン8aが半押し操作されていないと判定されると(ステップS308;NO)、制御部11は、処理をステップS301に移行させる。
Next, the control unit 11 refers to the flag table T of the data memory 9 and determines whether or not the half-press flag is set to ON (step S307). If it is determined that the half-press flag is not set (step S307; NO), the control unit 11 determines whether or not the shutter button 8a of the operation input unit 8 is half-pressed by the user. (Step S308).
If it is determined that the shutter button 8a has not been pressed halfway (step S308; NO), the control unit 11 shifts the process to step S301.

一方、ステップS308にて、シャッターボタン8aが半押し操作されたと判定されると(ステップS308;YES)、制御部11は、データメモリ9のフラグテーブルTに半押しフラグONを書き込み(ステップS309)、基本撮影条件設定処理を実行する(ステップS310)。
基本撮影条件設定処理は、アクセサリ検出モード処理におけるものと略同様となっている。即ち、基本撮影条件設定処理では、例えば、合焦制御処理ルーチンにより、制御部11は、コントラストAF方式によって合焦位置を調整する自動合焦処理を行って、合焦駆動部1dによりフォーカスレンズ1bを光軸方向に移動させて当該フォーカスレンズ1bの光軸方向の位置を決定する。
その後、制御部11は、被写体の撮像の際の露出条件を調整する自動露出処理を行って、露出値を決定した後、自動露出処理により決定された露出値とデータメモリ9に記憶されているプログラム線図に基づいて、ISO感度と、レンズの絞り値と、シャッタースピードと、フラッシュのON/OFFを決定する。
これにより、基本撮影条件設定処理を終了する。
On the other hand, if it is determined in step S308 that the shutter button 8a has been half-pressed (step S308; YES), the controller 11 writes the half-press flag ON in the flag table T of the data memory 9 (step S309). Then, the basic photographing condition setting process is executed (step S310).
The basic photographing condition setting process is substantially the same as that in the accessory detection mode process. That is, in the basic shooting condition setting process, for example, by the focus control process routine, the control unit 11 performs an automatic focus process for adjusting the focus position by the contrast AF method, and the focus driving unit 1d performs the focus lens 1b. Is moved in the optical axis direction to determine the position of the focus lens 1b in the optical axis direction.
After that, the control unit 11 performs an automatic exposure process for adjusting the exposure condition at the time of imaging the subject, determines the exposure value, and then stores the exposure value determined by the automatic exposure process and the data memory 9. Based on the program diagram, ISO sensitivity, lens aperture value, shutter speed, and flash ON / OFF are determined.
Thereby, the basic photographing condition setting process is terminated.

次に、制御部11は、ライブビュー表示設定処理を実行する(ステップS311)。
ここで、ライブビュー表示設定処理について図10を参照して説明する。
図10は、ライブビュー表示設定処理に係る動作の一例を示すフローチャートである。
Next, the control unit 11 executes live view display setting processing (step S311).
Here, the live view display setting process will be described with reference to FIG.
FIG. 10 is a flowchart illustrating an example of an operation related to the live view display setting process.

図10に示すように、制御部11は、ズームレンズ1aの光軸方向の位置から焦点距離を換算する(ステップS401)。
次に、制御部11は、データメモリ9のフラグテーブルTのアクセサリフラグの値に応じて処理を分岐させる(ステップS402)。
ここで、アクセサリフラグの値が1であると判定されると(ステップS402;=1)、制御部11は、データメモリ9からアクセサリデータを読み出した後(ステップS403)、当該アクセサリデータに基づいて、ライブビュー画像に重畳して表示されるガイダンス表示画像G(例えば、f:60mm テレコン×1.2等;図3(b)参照)を設定して、データメモリ9に記録するとともに、データメモリ9のフラグテーブルTのGフラグに、表示設定するフラグを書き込む(ステップS404)。
As shown in FIG. 10, the control unit 11 converts the focal length from the position of the zoom lens 1a in the optical axis direction (step S401).
Next, the control unit 11 branches the process according to the value of the accessory flag in the flag table T of the data memory 9 (step S402).
Here, if it is determined that the value of the accessory flag is 1 (step S402; = 1), the controller 11 reads the accessory data from the data memory 9 (step S403), and then, based on the accessory data. A guidance display image G (for example, f: 60 mm telecon × 1.2, etc .; see FIG. 3B) is set and recorded in the data memory 9 while being superimposed on the live view image. The flag for display setting is written in the G flag of the flag table T of 9 (step S404).

一方、ステップS402にて、アクセサリフラグの値が0であると判定されると(ステップS402;=0)、制御部11は、ライブビュー画像に重畳して表示されるガイダンス表示画像G(例えば、f:50mm アクセサリなし等;図3(a)参照)を設定して、データメモリ9に記録するとともに、データメモリ9のフラグテーブルTのGフラグに、表示設定するフラグを書き込む(ステップS405)。   On the other hand, when it is determined in step S402 that the value of the accessory flag is 0 (step S402; = 0), the control unit 11 displays a guidance display image G (for example, superimposed on the live view image (for example, f: 50 mm No accessory etc .; see FIG. 3A), and is recorded in the data memory 9 and a flag for display setting is written in the G flag of the flag table T of the data memory 9 (step S405).

次に、制御部11は、データメモリ9のフラグテーブルTの検出用画像フラグの値に応じて処理を分岐させる(ステップS406)。
ここで、検出用画像フラグが2であると判定されると(ステップS406;=2)、制御部11は、第1検出用画像及び第2検出用画像の撮影が済んでいることから、比較領域A1及び対応領域A2を非表示に設定して、データメモリ9のフラグテーブルTのA1フラグ及びA2フラグに、非表示設定するフラグを書き込む(ステップS407)。
Next, the control unit 11 branches the process according to the value of the detection image flag in the flag table T of the data memory 9 (step S406).
Here, if it is determined that the detection image flag is 2 (step S406; = 2), the control unit 11 has already taken the first detection image and the second detection image. The area A1 and the corresponding area A2 are set to non-display, and the flag for non-display setting is written in the A1 flag and the A2 flag of the flag table T of the data memory 9 (step S407).

また、ステップS406にて、検出用画像フラグが0であると判定されると(ステップS406;=0)、制御部11は、ライブビュー画像を、比較領域設定処理ルーチンにより、所定範囲(例えば、AF枠Fを中心とする所定範囲)を比較領域A1として設定した後、当該比較領域A1をライブビュー画像に重畳表示するように設定して、当該設定した比較領域A1をデータメモリ9に記録し、同じくデータメモリ9のフラグテーブルTのA1フラグに表示設定するフラグを書き込む(ステップS408)。その後、制御部11は、対応領域A2を非表示に設定して、データメモリ9のフラグテーブルTのA2フラグに非表示設定するフラグを書き込む(ステップS409)。   If it is determined in step S406 that the detection image flag is 0 (step S406; = 0), the control unit 11 uses a comparison area setting processing routine to convert the live view image to a predetermined range (for example, A predetermined range centered on the AF frame F) is set as the comparison area A1, and then the comparison area A1 is set to be superimposed on the live view image, and the set comparison area A1 is recorded in the data memory 9. Similarly, a flag for display setting is written in the A1 flag of the flag table T of the data memory 9 (step S408). Thereafter, the control unit 11 sets the corresponding area A2 to non-display and writes a flag to be set to non-display in the A2 flag of the flag table T of the data memory 9 (step S409).

また、ステップS406にて、検出用画像フラグが1であると判定されると(ステップS406;=1)、制御部11は、ライブビュー画像を、対応領域特定処理ルーチンにより、画像解析して当該ライブビュー画像内の、図6のステップS202で記録した比較領域A1に対応する対応領域A2を設定した後、当該対応領域A2を表示するように設定して、当該設定した対応領域A2をデータメモリ9に記録し、同じくデータメモリ9のフラグテーブルTのA2フラグに、表示設定するフラグを書き込む(ステップS410)。その後、制御部11は、比較領域A1を非表示に設定して、データメモリ9のフラグテーブルTのA1フラグに、非表示設定するフラグを書き込む(ステップS411)。
これにより、ライブビュー表示設定処理を終了する。
If it is determined in step S406 that the detection image flag is 1 (step S406; = 1), the control unit 11 performs image analysis on the live view image by the corresponding region specifying processing routine and performs the analysis. After setting the corresponding area A2 corresponding to the comparison area A1 recorded in step S202 of FIG. 6 in the live view image, the corresponding area A2 is set to be displayed, and the set corresponding area A2 is stored in the data memory. The flag for display setting is written in the A2 flag of the flag table T of the data memory 9 (step S410). Thereafter, the control unit 11 sets the comparison area A1 to non-display and writes a flag for non-display setting to the A1 flag of the flag table T of the data memory 9 (step S411).
Thereby, the live view display setting process ends.

その後、図9に示すように、制御部11は、処理をステップS301に移行させて、それ以降の処理を繰り返し実行する。
そして、ステップS306にて、表示処理部7は、ライブビュー表示設定処理にて設定された設定内容に係る所定のガイダンス表示Gを電子撮像部2によって生成されたライブビュー画像表示用の画像フレームに重畳させて表示部6に表示させる。具体的には、表示処理部7は、例えば、ライブビュー画像の左下側に所定のガイダンス表示Gを重畳表示させる。
これにより、撮像レンズ部1にアクセサリが装着されている場合には、装着されているアクセサリの種類等をユーザに報知することができ(図3(b)参照)、一方、撮像レンズ部1にアクセサリが装着されていない場合にも、アクセサリが装着されていないことをユーザに報知することができる。
Thereafter, as illustrated in FIG. 9, the control unit 11 shifts the process to step S <b> 301 and repeatedly executes the subsequent processes.
In step S <b> 306, the display processing unit 7 uses the predetermined guidance display G related to the setting content set in the live view display setting process as an image frame for live view image display generated by the electronic imaging unit 2. Superimposed and displayed on the display unit 6. Specifically, the display processing unit 7 displays a predetermined guidance display G in a superimposed manner on the lower left side of the live view image, for example.
Thereby, when an accessory is attached to the imaging lens unit 1, it is possible to notify the user of the type of attached accessory or the like (see FIG. 3B), while the imaging lens unit 1 is informed. Even when the accessory is not attached, the user can be notified that the accessory is not attached.

その後、ステップS307にて、半押しフラグがONに設定されていると判定されると(ステップS307;YES)、制御部11は、ユーザによるシャッターボタン8aの半押し操作が維持されているか否かを判定する(ステップS312)。
ここで、シャッターボタン8aの半押し操作が維持されていないと判定されると(ステップS312;NO)、制御部11は、データメモリ9のフラグテーブルTに半押しフラグOFFを書き込む(ステップS313)。
Thereafter, when it is determined in step S307 that the half-press flag is set to ON (step S307; YES), the control unit 11 determines whether or not the half-press operation of the shutter button 8a by the user is maintained. Is determined (step S312).
If it is determined that the half-press operation of the shutter button 8a is not maintained (step S312; NO), the control unit 11 writes the half-press flag OFF in the flag table T of the data memory 9 (step S313). .

次に、制御部11は、ユーザにより操作入力部8のシャッターボタン8aが全押し操作されているか否かを判定する(ステップS314)。また、ステップS312にて、シャッターボタン8aの半押し操作が維持されていると判定された場合にも(ステップS312;YES)、制御部11は、処理をステップS314に移行させる。
ここで、制御部11によりシャッターボタン8aが全押し操作されたと判定されると(ステップS314;YES)、撮像処理部3は、電子撮像部2により被写体の記録用画像を撮像させる(ステップS315)。続けて、制御部11は、当該電子撮像部2による撮像によって生成された記録用画像の画像データに対して所定の画像処理等を施した後、本撮影画像としてメモリカード5に記憶させる(ステップS316)。
このとき、Exif形式の画像ファイルから構成される本撮影画像の画像データに対して、装着されているアクセサリに係るアクセサリデータをExifタグ情報として付帯させる。
Next, the control unit 11 determines whether or not the user has fully pressed the shutter button 8a of the operation input unit 8 (step S314). Even when it is determined in step S312 that the half-press operation of the shutter button 8a is maintained (step S312; YES), the control unit 11 shifts the process to step S314.
Here, if it is determined by the control unit 11 that the shutter button 8a has been fully pressed (step S314; YES), the imaging processing unit 3 causes the electronic imaging unit 2 to capture an image for recording a subject (step S315). . Subsequently, the control unit 11 performs predetermined image processing or the like on the image data of the recording image generated by the image pickup by the electronic image pickup unit 2 and then stores it in the memory card 5 as the actual captured image (step) S316).
At this time, accessory data related to the attached accessory is attached as Exif tag information to the image data of the actual captured image configured from the image file in the Exif format.

次に、制御部11は、当該メモリカード5に記録した記録用画像を、表示処理部7を介して表示部6に撮影結果の確認のため、ガイダンス表示Gを重畳せずに記録用画像のみを表示させる(ステップS317)。
その後、制御部11は、処理をステップS301に移行させて、それ以降の処理を繰り返し実行する。
Next, the control unit 11 records only the recording image without superimposing the guidance display G on the display unit 6 via the display processing unit 7 for confirming the photographing result. Is displayed (step S317).
Then, the control part 11 transfers a process to step S301, and repeatedly performs the process after it.

以上のように、本実施形態の撮像装置100によれば、撮像レンズ部1にアクセサリが装着されていない状態で電子撮像部2により撮像された第1検出用画像と、撮像レンズ部1にアクセサリが装着された状態で電子撮像部2により撮像された第2検出用画像とを比較する比較処理を行う。具体的には、第1検出用画像内で比較処理に係る比較領域A1を設定し、また、第2検出用画像を画像解析して当該第2検出用画像内で比較領域A1に対応する対応領域A2を特定し、これら比較領域A1の画像データと対応領域A2の画像データとを比較する。
そして、比較処理の結果に基づいて、撮像レンズ部1に装着された、例えば、テレコンバータレンズ、ワイドコンバータレンズ、魚眼レンズ、カラーフィルタ、ライトバランシングフィルタ、減光フィルタ、クロスフィルタ等のアクセサリの種類を特定する特定処理を行う。
従って、従来のように、アクセサリと装置本体との間に通信機能を具備しなくとも、電子撮像部2により生成される画像データに基づいて、装着されたアクセサリの種類の判別を適正に行うことができる。これにより、撮像装置100のコストをより安価なものとすることができる。
As described above, according to the imaging apparatus 100 of the present embodiment, the first detection image captured by the electronic imaging unit 2 in a state where the accessory is not attached to the imaging lens unit 1, and the accessory in the imaging lens unit 1. A comparison process is performed for comparing the second detection image captured by the electronic imaging unit 2 in a state in which is mounted. Specifically, the comparison area A1 related to the comparison process is set in the first detection image, and the second detection image is image-analyzed to correspond to the comparison area A1 in the second detection image. The area A2 is specified, and the image data in the comparison area A1 is compared with the image data in the corresponding area A2.
Based on the result of the comparison process, the types of accessories such as a teleconverter lens, a wide converter lens, a fisheye lens, a color filter, a light balancing filter, a neutral density filter, a cross filter, and the like attached to the imaging lens unit 1 are selected. Perform specific processing to identify.
Therefore, as in the past, even if the communication function is not provided between the accessory and the apparatus main body, the type of the attached accessory is properly determined based on the image data generated by the electronic imaging unit 2. Can do. Thereby, the cost of the imaging device 100 can be made cheaper.

また、自動合焦処理の判定に係るAF枠Fに基づいて比較領域A1を設定することができるので、比較領域A1の設定をAF枠F、即ち、ピントが合わせられる主要な被写体を基準として適正に、且つ、簡便に行うことができる。   Further, since the comparison area A1 can be set based on the AF frame F related to the determination of the automatic focusing process, the setting of the comparison area A1 is appropriate with the AF frame F, that is, the main subject to be focused as a reference. Moreover, it can be carried out easily.

さらに、検出用画像撮影処理にて、カラーフィルタ検出処理、減光フィルタ検出処理、ライトバランシングフィルタ検出処理、特殊フィルタ検出処理、魚眼レンズ検出処理、コンバータレンズ検出処理を順次行うことにより、撮像レンズ部1に同時に装着された複数種類のアクセサリを特定することができるので、より使い勝手の良い撮像装置100を提供することができる。   Further, in the detection image photographing process, the imaging lens unit 1 is sequentially performed by performing a color filter detection process, a neutral density filter detection process, a light balancing filter detection process, a special filter detection process, a fisheye lens detection process, and a converter lens detection process. Since it is possible to specify a plurality of types of accessories that are simultaneously attached to the camera, it is possible to provide the imaging device 100 that is more convenient to use.

また、本撮影画像の画像データをExif形式の画像ファイルから構成される画像データとして、アクセサリデータをExifタグ情報として対応付けて記憶するので、Exif情報のアクセサリデータを確認することで、当該画像の撮影の際に装着されていたアクセサリを認識することができる。   Further, since the image data of the actual captured image is stored as image data composed of image files in the Exif format and the accessory data is stored in association with the Exif tag information, the accessory data of the Exif information can be confirmed by checking the accessory data of the image. It is possible to recognize the accessory that was attached at the time of shooting.

なお、本発明は、上記実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲において、種々の改良並びに設計の変更を行っても良い。
例えば、上記実施形態にあっては、比較領域設定処理にて第1検出用画像にて所定範囲を比較領域A1として設定するようにしたが、これに限られるものではなく、例えば、操作入力部8としてタッチパネル(図示略)を表示画面6aに配設して、タッチパネルの接触位置に応じて比較領域A1を選択設定するような構成としても良い。
即ち、表示部6に表示された第1検出用画像における比較領域A1の位置を、ユーザによるタッチパネル(指示入力手段)の所定の接触操作により指示入力して、制御部11は、比較領域設定処理ルーチンにより、タッチパネルの接触操作に基づいて入力された比較領域A1の位置に基づいて比較領域A1を設定するようにしても良い。
これにより、比較領域A1をユーザ所望の位置に簡便に設定することができ、より使い勝手の良い撮像装置100を提供することができる。
The present invention is not limited to the above-described embodiment, and various improvements and design changes may be made without departing from the spirit of the present invention.
For example, in the above-described embodiment, the predetermined range is set as the comparison area A1 in the first detection image in the comparison area setting process. However, the present invention is not limited to this. For example, the operation input unit 8, a touch panel (not shown) may be provided on the display screen 6a, and the comparison area A1 may be selected and set according to the touch position of the touch panel.
That is, the control unit 11 inputs the instruction of the position of the comparison area A1 in the first detection image displayed on the display unit 6 by a predetermined touch operation of the touch panel (instruction input unit) by the user. According to the routine, the comparison area A1 may be set based on the position of the comparison area A1 input based on the touch operation of the touch panel.
Thereby, the comparison area A1 can be easily set at a position desired by the user, and the imaging device 100 that is more convenient to use can be provided.

なお、上記実施形態にあっては、ライブビュー画像に重畳させて比較領域A1や対応領域A2を表示するようにしたが、これに限られるものではなく、比較領域A1や対応領域A2を表示するか否かは適宜任意に変更することができる。   In the above embodiment, the comparison area A1 and the corresponding area A2 are displayed so as to be superimposed on the live view image. However, the present invention is not limited to this, and the comparison area A1 and the corresponding area A2 are displayed. It can be arbitrarily changed as appropriate.

さらに、上記実施形態にあっては、装着されているアクセサリを表示画面6aに表示するようにしたが、アクセサリの報知方法はこれに限られるものではなく、例えば、発音処理部(図示略)によりスピーカ(図示略)から所定の音声(例えば、「テレコンバータレンズが装着されています」等)を発音するようにしても良い。   Furthermore, in the above-described embodiment, the attached accessory is displayed on the display screen 6a. However, the accessory notification method is not limited to this. For example, the pronunciation processing unit (not shown) may be used. A predetermined sound (for example, “the teleconverter lens is attached”) may be generated from a speaker (not shown).

また、上記実施形態にあっては、複数種類のアクセサリの特定を行うようにしたが、これに限られるものではなく、複数種類のアクセサリのうち、何れか一のアクセサリの装着の有無を判定するようにしても良い。即ち、撮像レンズ部1には何れか一のアクセサリのみを装着できるように構成して、当該アクセサリの装着の有無を判定するようにしても良い。   In the above embodiment, a plurality of types of accessories are specified. However, the present invention is not limited to this, and it is determined whether or not any one of the plurality of types of accessories is mounted. You may do it. In other words, the imaging lens unit 1 may be configured so that only one of the accessories can be mounted, and whether or not the accessory is mounted may be determined.

さらに、上記実施形態では、比較領域A1と対応領域A2の画像データどうしを比較するようにしたが、比較領域A1を設定するか否か、及び対応領域A2を特定するか否かは適宜任意に変更することができる。即ち、第1検出用画像データと第2検出用画像データどうしを比較しても良い。また、テレコンバータレンズの装着の判定にあっては、比較領域に対して対応領域が、第2検出用画像の一部領域とはならずに全体領域となる場合があり、かかる場合等にあっては、比較領域と第2検出用画像全体を比較するようにしても良い。   Further, in the above embodiment, the image data of the comparison area A1 and the corresponding area A2 are compared with each other. However, whether to set the comparison area A1 and whether to specify the corresponding area A2 is arbitrarily determined as appropriate. Can be changed. That is, the first detection image data and the second detection image data may be compared. In addition, when determining whether to attach the teleconverter lens, the corresponding area for the comparison area may not be a partial area of the second detection image, but may be an entire area. Thus, the comparison region and the entire second detection image may be compared.

また、撮像装置100の構成は、上記実施形態に例示したものは一例であり、これに限られるものではない。
さらに、上記実施形態にあっては、比較手段、特定手段、比較領域設定手段、対応領域特定手段、合焦制御手段としての機能を、制御部11によって所定のプログラム等が実行されることにより実現される構成としたが、これに限られるものではなく、例えば、各種機能を実現するためのロジック回路等から構成しても良い。
In addition, the configuration of the imaging apparatus 100 is merely an example illustrated in the above embodiment, and is not limited thereto.
Furthermore, in the above embodiment, the functions as the comparison means, the identification means, the comparison area setting means, the corresponding area identification means, and the focus control means are realized by executing a predetermined program or the like by the control unit 11. However, the present invention is not limited to this. For example, a logic circuit for realizing various functions may be used.

本発明を適用した一実施形態の撮像装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the imaging device of one Embodiment to which this invention is applied. 図1の撮像装置のデータメモリに記憶されるフラグテーブルの一例を模式的に示す図である。It is a figure which shows typically an example of the flag table memorize | stored in the data memory of the imaging device of FIG. 図1の撮像装置の表示部に表示される表示画面の一例を示す図である。It is a figure which shows an example of the display screen displayed on the display part of the imaging device of FIG. 図1の撮像装置によるメイン処理に係る動作の一例を示すフローチャートである。3 is a flowchart illustrating an example of an operation related to main processing by the imaging apparatus of FIG. 1. 図4のメイン処理におけるアクセサリ検出モード処理に係る動作の一例を示すフローチャートである。5 is a flowchart illustrating an example of an operation related to an accessory detection mode process in the main process of FIG. 4. 図5のアクセサリ検出処理における検出用画像撮影処理に係る動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation | movement which concerns on the image imaging process for a detection in the accessory detection process of FIG. 図6の検出用画像撮影処理におけるカラーフィルタ検出処理に係る動作の一例を示すフローチャートである。7 is a flowchart illustrating an example of an operation related to a color filter detection process in the detection image capturing process of FIG. 6. 図6の検出用画像撮影処理におけるコンバータレンズ検出処理に係る動作の一例を示すフローチャートである。7 is a flowchart illustrating an example of an operation related to a converter lens detection process in the detection image capturing process of FIG. 6. 図4のメイン処理における撮影モード処理に係る動作の一例を示すフローチャートである。5 is a flowchart illustrating an example of an operation related to a shooting mode process in the main process of FIG. 4. 図9の撮影モード処理におけるライブビュー表示設定処理に係る動作の一例を示すフローチャートである。10 is a flowchart illustrating an example of an operation related to a live view display setting process in the shooting mode process of FIG. 9.

符号の説明Explanation of symbols

100 撮像装置
1 撮像レンズ部
1a ズームレンズ
1b フォーカスレンズ
2 電子撮像部
3 撮像処理部
6 表示部
8 操作入力部
10 プログラムメモリ
11 制御部
200 コンバージョンレンズ
DESCRIPTION OF SYMBOLS 100 Imaging device 1 Imaging lens part 1a Zoom lens 1b Focus lens 2 Electronic imaging part 3 Imaging processing part 6 Display part 8 Operation input part 10 Program memory 11 Control part 200 Conversion lens

Claims (8)

アクセサリを着脱自在に構成された撮像レンズ部と、
前記撮像レンズ部により結像された被写体の光学像を撮像する撮像手段と、
前記撮像レンズ部にアクセサリが装着されていない状態で前記撮像手段により撮像された第1被写体画像と、前記撮像レンズ部にアクセサリが装着された状態で前記撮像手段により撮像された第2被写体画像とを比較する比較手段と、
前記比較手段による比較結果に基づいて、前記撮像レンズ部に装着されたアクセサリの種類を特定する特定手段と、
を備えることを特徴とする撮像装置。
An imaging lens unit configured to be detachable from the accessory;
Imaging means for capturing an optical image of a subject imaged by the imaging lens unit;
A first subject image captured by the imaging means without an accessory attached to the imaging lens unit, and a second subject image captured by the imaging means with an accessory attached to the imaging lens unit A comparison means for comparing
Based on the comparison result by the comparison means, a specification means for specifying the type of accessory attached to the imaging lens unit;
An imaging apparatus comprising:
前記撮像手段により撮像された第1被写体画像内で前記比較手段による比較に係る比較領域を設定する比較領域設定手段と、
前記撮像手段により撮像された第2被写体画像内で前記比較領域に対応する対応領域を特定する対応領域特定手段と、を更に備え、
前記比較手段は、前記比較領域設定手段により設定された前記比較領域内の画像と前記対応領域特定手段により特定された前記対応領域内の画像とを比較することを特徴とする請求項1に記載の撮像装置。
Comparison area setting means for setting a comparison area for comparison by the comparison means in the first subject image captured by the imaging means;
A corresponding area specifying means for specifying a corresponding area corresponding to the comparison area in the second subject image imaged by the imaging means;
The comparison means compares the image in the comparison area set by the comparison area setting means with the image in the corresponding area specified by the corresponding area specifying means. Imaging device.
前記撮像レンズ部の合焦位置を調整する自動合焦処理を行う合焦制御手段を更に備え、
前記比較領域設定手段は、前記合焦制御手段による前記自動合焦処理の判定に係る合焦判定領域に基づいて、前記比較領域を設定することを特徴とする請求項2に記載の撮像装置。
A focusing control means for performing an automatic focusing process for adjusting a focusing position of the imaging lens unit;
The imaging apparatus according to claim 2, wherein the comparison area setting unit sets the comparison area based on a focus determination area related to determination of the automatic focusing process by the focus control unit.
前記撮像手段により撮像された第1被写体画像を表示する表示手段と、
前記表示手段に表示された前記第1被写体画像における前記比較領域の位置を指示入力する指示入力手段と、を更に備え、
前記比較領域設定手段は、前記指示入力手段により入力された前記比較領域の位置に基づいて、前記比較領域を設定することを特徴とする請求項2に記載の撮像装置。
Display means for displaying a first subject image imaged by the imaging means;
An instruction input means for inputting an instruction for a position of the comparison area in the first subject image displayed on the display means;
The imaging apparatus according to claim 2, wherein the comparison area setting unit sets the comparison area based on the position of the comparison area input by the instruction input unit.
前記アクセサリは、テレコンバータレンズ、ワイドコンバータレンズ、魚眼レンズ、カラーフィルタ、ライトバランシングフィルタ、減光フィルタ、又はクロスフィルタの内の何れか1つを含むことを特徴とする請求項1〜4の何れか一項に記載の撮像装置。   The accessory includes any one of a teleconverter lens, a wide converter lens, a fisheye lens, a color filter, a light balancing filter, a neutral density filter, and a cross filter. The imaging device according to one item. 前記撮像レンズ部は、複数種類のアクセサリを着脱自在に構成され、
前記特定手段は、前記撮像レンズ部に装着された前記複数種類のアクセサリを特定することを特徴とする請求項1〜5の何れか一項に記載の撮像装置。
The imaging lens unit is configured to be detachable from a plurality of types of accessories,
The imaging device according to claim 1, wherein the specifying unit specifies the plurality of types of accessories attached to the imaging lens unit.
前記特定手段により特定された前記アクセサリの種類に係るアクセサリ情報と、前記撮像手段により撮像された第2被写体画像とを対応付けて記録する記録手段を更に備えることを特徴とする請求項1〜6の何れか一項に記載の撮像装置。   7. The recording apparatus according to claim 1, further comprising: a recording unit that records the accessory information related to the accessory type specified by the specifying unit and the second subject image captured by the imaging unit in association with each other. The imaging device according to any one of the above. アクセサリを着脱自在に構成された撮像レンズ部と、前記撮像レンズ部により結像された被写体の光学像を撮像する撮像手段と、を備える撮像装置のコンピュータを、
前記撮像レンズ部にアクセサリが装着されていない状態で前記撮像手段により撮像された第1被写体画像と、前記撮像レンズ部にアクセサリが装着された状態で前記撮像手段により撮像された第2被写体画像とを比較する比較手段、
前記比較手段による比較結果に基づいて、前記撮像レンズ部に装着されたアクセサリの種類を特定する特定手段、
として機能させることを特徴とするプログラム。
An imaging device computer comprising: an imaging lens unit configured to be detachable from an accessory; and an imaging unit that captures an optical image of a subject imaged by the imaging lens unit;
A first subject image captured by the imaging means without an accessory attached to the imaging lens unit, and a second subject image captured by the imaging means with an accessory attached to the imaging lens unit Comparison means to compare,
Identification means for identifying the type of accessory attached to the imaging lens unit based on the comparison result by the comparison means;
A program characterized by functioning as
JP2008251272A 2008-09-29 2008-09-29 Imaging apparatus and program Expired - Fee Related JP5233554B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008251272A JP5233554B2 (en) 2008-09-29 2008-09-29 Imaging apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008251272A JP5233554B2 (en) 2008-09-29 2008-09-29 Imaging apparatus and program

Publications (2)

Publication Number Publication Date
JP2010087584A JP2010087584A (en) 2010-04-15
JP5233554B2 true JP5233554B2 (en) 2013-07-10

Family

ID=42251138

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008251272A Expired - Fee Related JP5233554B2 (en) 2008-09-29 2008-09-29 Imaging apparatus and program

Country Status (1)

Country Link
JP (1) JP5233554B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5822518B2 (en) * 2011-04-26 2015-11-24 キヤノン株式会社 Imaging apparatus, control method thereof, and program
JP6059948B2 (en) * 2012-10-24 2017-01-11 オリンパス株式会社 Interchangeable lens and imaging apparatus using the same
JP6257741B2 (en) * 2016-12-12 2018-01-10 オリンパス株式会社 Interchangeable lens and imaging apparatus using the same

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0667278A (en) * 1992-08-20 1994-03-11 Asahi Optical Co Ltd Camera with accessory discriminating function
JP4838652B2 (en) * 2006-07-25 2011-12-14 キヤノン株式会社 Imaging device
JP2009093103A (en) * 2007-10-12 2009-04-30 Nikon Corp Camera and converter lens

Also Published As

Publication number Publication date
JP2010087584A (en) 2010-04-15

Similar Documents

Publication Publication Date Title
CN101334578B (en) Image photographing apparatus, image photographing method, and computer program
US8823864B2 (en) Image capturing apparatus and associated methodology for auto-focus and facial detection
JP2008009263A (en) Imaging device and program therefor
KR20120114177A (en) Image processing device capable of generating wide-range image
JP5667726B2 (en) Interchangeable lens camera and viewfinder display method
JP2007201534A (en) Imaging apparatus
KR20120071969A (en) Digital image photographing apparatus and method for controlling the same
CN101360190A (en) Imaging device, and control method for imaging device
KR20120115127A (en) Image processing device capable of generating wide-range image
JP2012231415A (en) Imaging apparatus, image display device, and image display method
JP2012008307A (en) Imaging apparatus and display method
JP2011217103A (en) Compound eye photographing method and apparatus
KR20140031804A (en) Imaging apparatus, imaging method and storage medium
JP6389342B2 (en) Imaging apparatus and control method thereof
JP2010181725A (en) Digital camera and program
US8571404B2 (en) Digital photographing apparatus, method of controlling the same, and a computer-readable medium storing program to execute the method
JP5233554B2 (en) Imaging apparatus and program
JP2010035131A (en) Imaging apparatus and imaging method
JP5868038B2 (en) Imaging apparatus, control method therefor, program, and storage medium
JP4269344B2 (en) Electronic camera
JP2008263478A (en) Imaging apparatus
JP4853447B2 (en) Digital camera, focus control system thereof, focus control method, focus control program
JP2012239079A (en) Photographing device
KR20130092213A (en) Digital photographing apparatus and control method thereof
JP5648563B2 (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110916

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20110916

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120809

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120814

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130311

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160405

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees