JP2006041741A - Camera system - Google Patents

Camera system Download PDF

Info

Publication number
JP2006041741A
JP2006041741A JP2004216388A JP2004216388A JP2006041741A JP 2006041741 A JP2006041741 A JP 2006041741A JP 2004216388 A JP2004216388 A JP 2004216388A JP 2004216388 A JP2004216388 A JP 2004216388A JP 2006041741 A JP2006041741 A JP 2006041741A
Authority
JP
Japan
Prior art keywords
vignetting
image
image data
camera system
recording
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2004216388A
Other languages
Japanese (ja)
Inventor
Hisato Ide
寿人 井出
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2004216388A priority Critical patent/JP2006041741A/en
Publication of JP2006041741A publication Critical patent/JP2006041741A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Exposure Control For Cameras (AREA)
  • Stroboscope Apparatuses (AREA)
  • Accessories Of Cameras (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To abolish vignetting in a picking-up image without spoiling snapshot property. <P>SOLUTION: A camera system includes a lens barrel, an imaging unit for imaging a subject image to generate image data, a vignetting judging unit, an image processor, and a recorder. The vignetting judging unit judges the state of the vignetting in the image at photographing time. After this judgement, image data for recording in which the data of a region becoming the vignetting in the image is deleted from the image data is automatically formed by the image processor. And, the recording unit records this image data for recording. Accordingly, the correction of a focal length and warning of the vignetting are performed immediately before the photographing like a patent reference 1, and there is no possibility that a photographer cannot concentrate to the photographing. As a result, the vignetting in the photographed image can be abolished without spoiling the snapshot property. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、電子カメラ、及びカメラシステムに関する。特に本発明は、閃光装置を用いた撮影においてケラレをなくす技術に関する。   The present invention relates to an electronic camera and a camera system. In particular, the present invention relates to a technique for eliminating vignetting in photographing using a flash device.

従来より、内蔵型の閃光装置と、ズーム位置により鏡筒長が変わる撮影レンズとを備えたカメラが知られている。このようなカメラで被写体を照明して撮影すると、画角や被写体距離等の条件によっては、図1に示すように被写体の一部が撮影レンズの鏡筒の影に入ることがある。その場合、閃光装置の照射光は被写体の一部を照明できず、ケラレのある写真になってしまう。なお、外付け型の閃光装置をカメラに装着して撮影する場合も、条件によっては同様にケラレが生じる。   2. Description of the Related Art Conventionally, there has been known a camera including a built-in flash device and a photographing lens whose lens barrel length changes depending on a zoom position. When a subject is illuminated and photographed with such a camera, depending on conditions such as the angle of view and subject distance, a part of the subject may enter the shadow of the lens barrel of the photographing lens as shown in FIG. In this case, the light emitted from the flash device cannot illuminate a part of the subject, resulting in a vignetting photograph. Even when an external flash device is attached to the camera for shooting, vignetting occurs similarly depending on conditions.

そこで、特許文献1の電子閃光器内蔵電動ズームレンズ付カメラは、焦点距離、被写体距離が所定値より小さい場合、ズームレンズの焦点距離を補正している。さらに、ズーム端点にて焦点距離をそれ以上補正できない場合には、警告している。
また、特許文献2のカメラのストロボ照射範囲制御装置は、撮影レンズ群の光軸をストロボ光軸と交わる方向に偏心させることで、照射範囲が被写体の全域を含むように試みている。
特開平5−288977号公報 特開平6−18970号公報
Therefore, the electronic zoom lens-equipped camera of Patent Document 1 corrects the focal length of the zoom lens when the focal length and subject distance are smaller than predetermined values. Further, if the focal length cannot be corrected any more at the zoom end point, a warning is given.
In addition, the strobe irradiation range control device for a camera disclosed in Patent Document 2 attempts to include the entire area of the subject by decentering the optical axis of the photographing lens group in a direction intersecting the strobe optical axis.
Japanese Patent Laid-Open No. 5-288877 Japanese Patent Laid-Open No. 6-18970

特許文献1の方法は、焦点距離の補正、或いは警告を撮影の寸前に行うので、速写性が損なわれる。また、撮影に集中できず、例えばポートレート撮影時に被写体の一瞬の表情を捉えることができなくなるおそれがある。
特許文献2の方法は、撮影レンズ群の光軸を偏心させるので、ピントを合わせている被写体の前後において、偏心前と偏心後でボケ具合が異なり、違和感が生じるおそれがある。また、撮影レンズの機構が複雑になり、製造コストが高くなると考えられる。
According to the method of Patent Document 1, since the focal length is corrected or a warning is performed immediately before photographing, the rapid photographing property is impaired. In addition, it is not possible to concentrate on shooting, and for example, it may not be possible to capture a momentary facial expression during portrait shooting.
The method of Patent Document 2 decenters the optical axis of the photographic lens group. Therefore, before and after defocusing, the degree of blur is different between before and after defocusing, and there is a possibility that an uncomfortable feeling may occur. In addition, the mechanism of the photographic lens is complicated, and the manufacturing cost is considered to be high.

本発明の目的は、速写性を損なうことなく、撮像画像におけるケラレをなくす技術を提供することである。
本発明の別の目的は、撮影レンズの機構を複雑化することなく、上記目的を達成することである。
An object of the present invention is to provide a technique that eliminates vignetting in a captured image without impairing rapid shooting characteristics.
Another object of the present invention is to achieve the above object without complicating the mechanism of the taking lens.

請求項1のカメラシステムは、レンズ鏡筒と、撮像部と、ケラレ判定部と、画像処理部と、記録部とを備えたことを特徴とする。レンズ鏡筒は、被写体からの光束を結像する撮影光学系を有する。撮像部は、撮影光学系によって結像した被写体像を撮像して画像データを生成する。ケラレ判定部は、画像データに基づく画像におけるケラレの状態を撮影時に判定する。画像処理部は、ケラレの状態に基づいて、画像においてケラレとなる領域に対応するケラレ画像データを画像データから削除した記録用画像データを作成する。記録部は、記録用画像データを記録する。   According to another aspect of the present invention, a camera system includes a lens barrel, an imaging unit, an vignetting determination unit, an image processing unit, and a recording unit. The lens barrel has a photographing optical system that forms an image of a light beam from a subject. The imaging unit captures a subject image formed by the imaging optical system and generates image data. The vignetting determination unit determines the vignetting state in the image based on the image data at the time of shooting. Based on the vignetting state, the image processing unit creates recording image data in which the vignetting image data corresponding to the vignetting area in the image is deleted from the image data. The recording unit records image data for recording.

請求項2の発明は、請求項1のカメラシステムにおいて、被写体を照明する照明装置に関する情報と、レンズ鏡筒に関する情報とに基づいて、ケラレ判定部がケラレの状態を判定することを特徴とする。
請求項3の発明は、請求項1のカメラシステムにおいて、装着されるアクセサリの情報と、レンズ鏡筒に関する情報とに基づいて、ケラレ判定部がケラレの状態を判定することを特徴とする。
According to a second aspect of the present invention, in the camera system of the first aspect, the vignetting determination unit determines the vignetting state based on information on the illumination device that illuminates the subject and information on the lens barrel. .
According to a third aspect of the present invention, in the camera system of the first aspect, the vignetting determination unit determines the vignetting state based on information on the attached accessory and information on the lens barrel.

請求項4の発明は、請求項1のカメラシステムにおいて、画像データのうち、所定輝度より低輝度の画像データが所定の範囲に亘って存在するか否かに応じてケラレ判定部がケラレの状態を判定することを特徴とする。
請求項5の発明は、請求項1〜請求項4のいずれかのカメラシステムにおいて、ケラレ画像データを削除する前の画像データによる画像と同じアスペクト比で、画像処理部が記録用画像データを作成することを特徴とする。
According to a fourth aspect of the present invention, in the camera system of the first aspect, the vignetting determination unit determines whether the vignetting determination unit is in a vignetting state according to whether or not image data having a lower luminance than the predetermined luminance is present over a predetermined range. It is characterized by determining.
According to a fifth aspect of the present invention, in the camera system according to any one of the first to fourth aspects, the image processing unit creates image data for recording with the same aspect ratio as the image based on the image data before the vignetting image data is deleted. It is characterized by doing.

請求項6の発明は、請求項1〜請求項4のいずれかのカメラシステムにおいて、ケラレ画像データを削除する前の画像データによる画像と異なるアスペクト比で、画像処理部が記録用画像データを作成することを特徴とする。
請求項7の発明は、請求項1〜請求項6のいずれかのカメラシステムにおいて、ケラレ画像データを削除する前の画像データによる画像の中心と記録用画像データによる画像の中心とがほぼ一致するように、画像処理部が記録用画像データを作成することを特徴とする。
According to a sixth aspect of the present invention, in the camera system according to any one of the first to fourth aspects, the image processing unit creates image data for recording with an aspect ratio different from that of the image based on the image data before the vignetting image data is deleted. It is characterized by doing.
According to a seventh aspect of the present invention, in the camera system according to any one of the first to sixth aspects, the center of the image based on the image data before deleting the vignetting image data substantially coincides with the center of the image based on the recording image data. As described above, the image processing unit creates image data for recording.

請求項8の発明は、請求項1〜請求項6のいずれかのカメラシステムにおいて、ケラレ画像データを削除する前の画像データによる画像の中心と記録用画像データによる画像の中心とが異なるように、画像処理部が記録用画像データを作成することを特徴とする。   According to an eighth aspect of the present invention, in the camera system of any one of the first to sixth aspects, the center of the image based on the image data before deleting the vignetting image data is different from the center of the image based on the recording image data. The image processing unit creates image data for recording.

本発明のカメラシステムでは、ケラレ判定部は、画像におけるケラレの状態を撮影時に判定する。そして、ケラレの状態に基づいて、ケラレとなる領域のデータを撮像した画像データから自動的に削除し、それを記録用画像データとして記録する。このため、特許文献1のように撮影の寸前に焦点距離の補正やケラレの警告が行われ、撮影者が撮影に集中できなくなるおそれはない。この結果、速写性を損なうことなく、撮像画像におけるケラレをなくすことができる。   In the camera system of the present invention, the vignetting determination unit determines the vignetting state in the image at the time of shooting. Then, based on the state of vignetting, the data of the area to be vignetted is automatically deleted from the captured image data and recorded as image data for recording. For this reason, as in Patent Document 1, focal length correction and vignetting warning are performed immediately before shooting, and there is no possibility that the photographer cannot concentrate on shooting. As a result, it is possible to eliminate vignetting in the captured image without impairing the rapid photographing property.

以下、図面を用いて本発明の実施の形態を説明する。なお、各図において同一要素には同一符合を付し、重複する説明を省略する。
<第1の実施形態>
図2は、本発明の第1の実施形態におけるカメラシステムの概略構成図である。本実施形態は、請求項1、請求項2、請求項5〜請求項8に対応する。図に示すように、カメラシステム20は、電子閃光装置22と、撮影レンズ26とを電子カメラ30に装着することで構成されている。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. In addition, in each figure, the same code | symbol is attached | subjected to the same element and the overlapping description is abbreviate | omitted.
<First Embodiment>
FIG. 2 is a schematic configuration diagram of the camera system according to the first embodiment of the present invention. The present embodiment corresponds to claims 1, 2, and 5 to 8. As shown in the figure, the camera system 20 is configured by attaching an electronic flash device 22 and a photographing lens 26 to an electronic camera 30.

電子カメラ30は、レリーズ釦34と、通信端子36と、測光部38と、ペンタプリズム40と、拡散板42と、ミラー44と、ファインダ46と、撮像素子駆動回路48と、撮像素子50と、シャッタ52と、クイックリターンミラー54と、調光センサ55と、焦点検出装置56と、CPU60と、システムバス62と、画像処理部64と、画像メモリ66と、画像圧縮部70と、表示部72と、画像表示回路74と、カードインターフェース78と、交換可能なメモリカード80とを有している。電子カメラ30は、上記要素に加えて、撮影条件等を設定するための設定用釦群等も有している(図示せず)。撮影時におけるカメラシステム20のシステム制御は、CPU60により行われる。   The electronic camera 30 includes a release button 34, a communication terminal 36, a photometry unit 38, a pentaprism 40, a diffusion plate 42, a mirror 44, a finder 46, an image sensor driving circuit 48, an image sensor 50, Shutter 52, quick return mirror 54, light control sensor 55, focus detection device 56, CPU 60, system bus 62, image processing unit 64, image memory 66, image compression unit 70, and display unit 72. An image display circuit 74, a card interface 78, and a replaceable memory card 80. In addition to the above elements, the electronic camera 30 also has a setting button group for setting shooting conditions and the like (not shown). System control of the camera system 20 at the time of shooting is performed by the CPU 60.

電子閃光装置22は、設定部90と、発光部92と、発光制御部94と、表示部96と、シュー接点98とを有している。発光部92は、メインコンデンサ及びキセノン管を有している(図示せず)。発光制御部94は、メインコンデンサに蓄積された電荷をキセノン管に流すことで、発光部92を発光させる。シュー接点98は、電子カメラ30の通信端子36に接続され、電子カメラ30のCPU60と、発光制御部94とのデータ交信の接点となる。   The electronic flash device 22 includes a setting unit 90, a light emitting unit 92, a light emission control unit 94, a display unit 96, and a shoe contact 98. The light emitting unit 92 includes a main capacitor and a xenon tube (not shown). The light emission control unit 94 causes the light emitting unit 92 to emit light by causing the charge accumulated in the main capacitor to flow through the xenon tube. The shoe contact 98 is connected to the communication terminal 36 of the electronic camera 30 and serves as a data communication contact between the CPU 60 of the electronic camera 30 and the light emission control unit 94.

撮影レンズ26は、ピントを合わせるために移動する合焦用レンズ120と、画角を調節するために移動するズーム用レンズ122と、移動したレンズの位置を検出するエンコーダ124と、透過光量を調節する絞り部材126と、レンズや絞り部材126を駆動する駆動モータ128と、レンズCPU130とを有している。なお、撮影レンズ26は、交換型のものに限らず、電子カメラ30と一体型のものでもよい。   The photographing lens 26 includes a focusing lens 120 that moves to adjust the focus, a zoom lens 122 that moves to adjust the angle of view, an encoder 124 that detects the position of the moved lens, and the amount of transmitted light. A diaphragm member 126 for driving the lens, a driving motor 128 for driving the lens and the diaphragm member 126, and a lens CPU 130. Note that the photographing lens 26 is not limited to the interchangeable lens, and may be one integrated with the electronic camera 30.

本実施形態の特徴の1つは、撮影時の電子閃光装置22に関する情報と、撮影レンズ26の鏡筒に関する情報とが得られれば、その撮影条件での撮像画像におけるケラレの状態を判定するテーブルデータをCPU60が記憶していることである。ここでの『ケラレの状態』とは、ケラレの有無と、ケラレ有りの場合には撮像画像におけるどの領域がケラレとなっているかの情報である。   One of the features of this embodiment is that a table for determining the state of vignetting in a captured image under the shooting conditions if information on the electronic flash device 22 at the time of shooting and information on the lens barrel of the shooting lens 26 are obtained. That is, the CPU 60 stores data. Here, “the state of vignetting” is information on the presence or absence of vignetting and which area in the captured image is vignetting when there is vignetting.

以下、テーブルデータについて具体的に説明するが、ここでは説明の簡単化のため、撮影レンズ26にアクセサリが装着されていないとする。撮影レンズ26の種類及び光学ズーム位置(焦点距離)、撮影距離が決定すれば、レンズ繰り出し量が決定するので、撮影レンズ26の鏡筒長が決定する。鏡筒長と、撮影レンズ26の種類により決まる口径(外径)とにより、撮影レンズ26の光軸方向における外形寸法が決定する。これに加えて電子閃光装置22の機種が決定すれば、発光部92の位置が決定する。この位置と撮影レンズ26の外形寸法に応じて、図1に斜線で示す「ケラレになる領域」が決まり、これに被写体の撮影距離の情報を勘案すれば、ケラレの状態を判定でき、ケラレ有りの場合には、画像のどの領域がケラレとなるかも判定することができる。従って、ケラレに寄与する条件の各々を変えた実験やシミュレーションを行うことで、テーブルデータは予め作成可能である。   Hereinafter, the table data will be described in detail. Here, for the sake of simplicity, it is assumed that no accessory is attached to the photographing lens 26. When the type of the photographing lens 26, the optical zoom position (focal length), and the photographing distance are determined, the lens extension amount is determined, so that the lens barrel length of the photographing lens 26 is determined. The outer dimension of the photographic lens 26 in the optical axis direction is determined by the lens barrel length and the aperture (outer diameter) determined by the type of the photographic lens 26. In addition to this, if the model of the electronic flash device 22 is determined, the position of the light emitting unit 92 is determined. Depending on the position and the outer dimensions of the photographic lens 26, the “vignetting area” indicated by the oblique lines in FIG. 1 is determined, and the vignetting state can be determined by considering the shooting distance information of the subject. In this case, it is possible to determine which area of the image is vignetting. Therefore, the table data can be created in advance by performing experiments and simulations with different conditions contributing to vignetting.

本実施形態のもう1つの特徴は、ケラレが生じるか否かを上記テーブルデータに基づいて撮像素子50の露光前に判定し、生じる場合には、ケラレとなる領域のデータ(請求項記載のケラレ画像データに対応)を元の画像データから自動的に削除して記録することである。
図3は、画像においてケラレとなっている領域の一例と、その場合にどの領域のデータを削除して記録用の画像データを作成するかを示す説明図である。電子閃光装置22の閃光が撮影レンズ26の鏡筒先端によって遮られた場合、図3(a)に示すように撮影レンズ26の鏡筒の外形が画像の下部においてケラレとなって表れる。その場合、例えば図3(b)、或いは、図3(c)、図3(d)、図3(e)の点線内のみのデータが記録用画像データとして記録される(詳細は後述するステップS33参照)。
Another feature of the present embodiment is to determine whether or not vignetting occurs before exposure of the image sensor 50 based on the table data, and if it occurs, data on an area that becomes vignetting (the vignetting described in claims). (Corresponding to image data) is automatically deleted from the original image data and recorded.
FIG. 3 is an explanatory diagram showing an example of a vignetting area in an image and which area data is deleted to create image data for recording. When the flash of the electronic flash device 22 is blocked by the lens barrel tip of the photographic lens 26, the outer shape of the lens barrel of the photographic lens 26 appears as vignetting in the lower part of the image as shown in FIG. In this case, for example, data within only the dotted line in FIG. 3B, FIG. 3C, FIG. 3D, or FIG. 3E is recorded as recording image data (details will be described later) (See S33).

以下、上記カメラシステム20の動作を、レリーズ釦34が半押しされた場合の処理、レリーズ釦34が半押し後に全押しされた場合の処理の順に説明する。
図4は、レリーズ釦34が半押しされた場合の動作を示す流れ図であり、以下、図中のステップ番号に従ってその処理を説明する。なお、本実施形態では説明の簡単化のため、電子閃光装置22のバウンス角度は固定とする。また、本発明の目的の1つは撮影レンズの機構を複雑化せずに撮像画像におけるケラレをなくすことなので、撮影レンズ26の光軸は偏心させない。以上の2点は第2の実施形態についても同様である。
Hereinafter, the operation of the camera system 20 will be described in the order of processing when the release button 34 is half-pressed and processing when the release button 34 is fully pressed after being half-pressed.
FIG. 4 is a flowchart showing the operation when the release button 34 is half-pressed. The processing will be described below according to the step numbers in the figure. In the present embodiment, the bounce angle of the electronic flash device 22 is fixed to simplify the description. One of the objects of the present invention is to eliminate vignetting in the captured image without complicating the mechanism of the photographing lens, so that the optical axis of the photographing lens 26 is not decentered. The above two points are the same for the second embodiment.

[ステップS1]レリーズ釦34が半押しされると、それに同期してCPU60は、電子閃光装置22の充電状態を示すSBフラグを0にする。0は充電が完了していないことを意味し、1は充電完了を意味する。
[ステップS2]焦点検出装置56、CPU60、レンズCPU130、駆動モータ128は、例えば公知の位相差方式の焦点検出動作により、撮影者が選択したフォーカスエリアの被写体にピントを合わせる。同時に、エンコーダ124により検出されるレンズ位置が、レンズCPU130からCPU60に伝達される。これにより、CPU60は、ピントが合っている位置の被写体と、電子カメラ30との距離を撮影距離として求める。なお、撮影距離は、レンズ位置からではなく、例えば測距装置により三角測距法で求めてもよい。
[Step S1] When the release button 34 is half-pressed, the CPU 60 sets the SB flag indicating the charging state of the electronic flash device 22 to 0 in synchronization therewith. 0 means that charging has not been completed, and 1 means that charging has been completed.
[Step S2] The focus detection device 56, the CPU 60, the lens CPU 130, and the drive motor 128 focus on the subject in the focus area selected by the photographer, for example, by a known phase difference type focus detection operation. At the same time, the lens position detected by the encoder 124 is transmitted from the lens CPU 130 to the CPU 60. Thus, the CPU 60 obtains the distance between the subject at the focused position and the electronic camera 30 as the shooting distance. Note that the shooting distance may be obtained not by the lens position but by, for example, a triangulation method using a distance measuring device.

[ステップS3]測光部38は、被写体輝度を測光し、この測光値をCPU60に伝達する。
[ステップS4]CPU60は、測光値に基づいて、電子閃光装置22による照射が必要か(即ち、被写体が低輝度であるか)否かを判定する。
照射を行う必要がある場合、CPU60は、電子閃光装置22の電源がオンされるまで待機してから次のステップS5に進む。従って、電子閃光装置22が装着されていなければ、CPU60は例えば、被写体が低輝度であり閃光発光を伴う撮影が推奨される旨の表示を表示部72に出力させ、電子閃光装置22の装着を促す。なお、ステップS3以前で既に電子閃光装置22が電子カメラ30に装着されており、電子閃光装置22の電源がオンにされていれば、このステップS4でCPU60は待機しない。
[Step S3] The photometry unit 38 measures the subject brightness and transmits the photometric value to the CPU 60.
[Step S4] The CPU 60 determines whether irradiation by the electronic flash device 22 is necessary based on the photometric value (that is, whether the subject has low brightness).
If irradiation is necessary, the CPU 60 waits until the electronic flash device 22 is turned on before proceeding to the next step S5. Therefore, if the electronic flash device 22 is not attached, the CPU 60 outputs, for example, a display to the display unit 72 indicating that the subject has low brightness and photography with flashing is recommended, and the electronic flash device 22 is attached. Prompt. If the electronic flash device 22 has already been attached to the electronic camera 30 before step S3 and the electronic flash device 22 is turned on, the CPU 60 does not wait in step S4.

照射を行う必要がない場合、SBフラグは0のままステップS8に進む。
[ステップS5]ステップS4で照射が必要と判断された場合、電子閃光装置22のメインコンデンサの充電が開始されていなければ、CPU60は、開始させるように発光制御部94に指令する。充電が開始しているが完了していない場合、電子閃光装置22はメインコンデンサの充電を継続する。
If it is not necessary to perform irradiation, the SB flag remains 0 and the process proceeds to step S8.
[Step S5] If it is determined in step S4 that irradiation is necessary, if charging of the main capacitor of the electronic flash device 22 has not started, the CPU 60 instructs the light emission control unit 94 to start. If charging has started but not completed, the electronic flash unit 22 continues to charge the main capacitor.

[ステップS6]CPU60は、電子閃光装置22の発光制御部94と交信して、充電が完了しているか否かを判定する。充電が完了している場合、ステップS7に進み、充電が完了していない場合、ステップS5に戻る。
[ステップS7]CPU60は、SBフラグを1にする。
[ステップS8]CPU60は、レリーズ釦34が半押しされた状態であるか否かを判定する。半押しされていればステップS1に戻り、上記ステップS1〜S7の処理が繰り返される。半押しされていなければ(全押しされた場合、或いは、押圧が解除された場合)、半押し処理は終了し、別の処理に移行する。以上が半押しされた場合の動作説明である。
[Step S6] The CPU 60 communicates with the light emission control unit 94 of the electronic flash device 22 to determine whether or not charging is complete. If charging is complete, the process proceeds to step S7. If charging is not complete, the process returns to step S5.
[Step S7] The CPU 60 sets the SB flag to 1.
[Step S8] The CPU 60 determines whether or not the release button 34 is half pressed. If it is half-pressed, the process returns to step S1 and the processes of steps S1 to S7 are repeated. If it is not half-pressed (when it is fully pressed or when the pressing is released), the half-pressing process ends and the process proceeds to another process. The above is an explanation of the operation when half-pressed.

図5は、レリーズ釦34が半押し後に全押しされた場合の動作を示す流れ図である。以下、図5に示すステップ番号に従って、レリーズ釦34が全押しされた場合の動作を説明する。
[ステップS21]レリーズ釦34の全押しに同期してCPU60は、撮影レンズ26の鏡筒に関する情報と、電子閃光装置22に関する情報(機種と照射角)のうち取得していないものや更新されたものとを、レンズCPU130や発光制御部94から取得する。ここで必要となる撮影レンズ26の鏡筒に関する情報とは、撮影レンズ26の種類、光軸方向の全長、焦点距離や撮影距離に応じたレンズの繰り出し長、口径等の外形情報等である。
FIG. 5 is a flowchart showing the operation when the release button 34 is fully pressed after being half pressed. Hereinafter, the operation when the release button 34 is fully pressed according to the step numbers shown in FIG. 5 will be described.
[Step S21] The CPU 60 synchronizes with the full depression of the release button 34, and the information regarding the lens barrel of the photographing lens 26 and the information regarding the electronic flash device 22 (model and irradiation angle) are not acquired or updated. Is acquired from the lens CPU 130 or the light emission control unit 94. The information related to the lens barrel of the photographic lens 26 required here includes the type of the photographic lens 26, the total length in the optical axis direction, the extended length of the lens according to the focal length and the photographic distance, outer shape information such as the aperture.

[ステップS22]CPU60は、撮像後の画像データに基づく画像内に、鏡筒外形によって閃光が遮られたことによるケラレが生じるか否かを判定する。この判定には、撮影レンズ26の鏡筒に関する情報と、電子閃光装置22の機種、照射角と、撮影距離と、前述のテーブルデータとを用いる。ケラレが生じる場合、ステップS23に進み、そうでない場合、ステップS25に進む。   [Step S22] The CPU 60 determines whether or not vignetting occurs in the image based on the captured image data because the flash is blocked by the outer shape of the lens barrel. For this determination, information on the lens barrel of the photographing lens 26, the model of the electronic flash device 22, the irradiation angle, the photographing distance, and the table data described above are used. If vignetting occurs, the process proceeds to step S23, and if not, the process proceeds to step S25.

[ステップS23]CPU60は、前述のテーブルデータを用いて、撮像画像においてケラレとなる領域の位置及び範囲を画素位置に対応させて判定する。
[ステップS24]CPU60は、ケラレの状態を示すケラレフラグを1にする。1はケラレが生じることを示し、0はケラレが生じないことを示す。この後、ステップS26に進む。
[Step S23] The CPU 60 determines the position and range of the vignetting area in the captured image in association with the pixel position using the table data described above.
[Step S24] The CPU 60 sets the vignetting flag indicating the vignetting state to 1. 1 indicates that vignetting occurs, and 0 indicates that vignetting does not occur. Thereafter, the process proceeds to step S26.

[ステップS25]CPU60は、ケラレフラグを0にする。この後、ステップS26に進む。
[ステップS26]レンズCPU130は、CPU60の指令に従って駆動モータ128を制御して、設定された絞り値になるように絞り部材126を調節する。
[ステップS27]CPU60は、シャッタ52を全開して、撮像素子50を撮像可能な状態にする。
[Step S25] The CPU 60 sets the vignetting flag to 0. Thereafter, the process proceeds to step S26.
[Step S26] The lens CPU 130 controls the drive motor 128 in accordance with a command from the CPU 60 to adjust the diaphragm member 126 so that the set diaphragm value is obtained.
[Step S27] The CPU 60 fully opens the shutter 52 to make the image pickup device 50 ready for image pickup.

[ステップS28]CPU60は、SBフラグが1であるか否かを判定する。1である場合、ステップS29に進み、そうでない場合、ステップS30に進む。
[ステップS29]発光制御部94は、CPU60の指令に従って、発光部92をプリ発光させる。プリ発光の停止後、CPU60は、調光センサ55が出力する測光値等に応じて本発光量を求める。CPU60は、本発光量を発光制御部94に伝達し、発光制御部94は、本発光量で発光部92を発光させる。
[Step S28] The CPU 60 determines whether or not the SB flag is 1. When it is 1, it progresses to step S29, and when that is not right, it progresses to step S30.
[Step S29] The light emission control unit 94 causes the light emitting unit 92 to perform pre-light emission in accordance with a command from the CPU 60. After the stop of pre-emission, the CPU 60 obtains the main emission amount according to the photometric value output from the light control sensor 55 or the like. The CPU 60 transmits the main light emission amount to the light emission control unit 94, and the light emission control unit 94 causes the light emitting unit 92 to emit light with the main light emission amount.

[ステップS30]CPU60は、撮像素子50の電荷蓄積を制御し、撮像する。なお、SBフラグが1の場合、ステップS29の発光部92の発光に同調して電荷蓄積を制御する。SBフラグが0の場合、照射が行われずに撮像素子50は蓄積制御される。
[ステップS31]設定された露光時間に応じた電荷蓄積制御の後、画像処理部64は、撮像素子50から読み出される画素信号にA/D変換や公知の画像処理を施し、画像データを生成する。この画像データは、画像メモリ(バッファ)66に取り込まれる。
[Step S30] The CPU 60 controls the charge accumulation of the image sensor 50 to capture an image. When the SB flag is 1, charge accumulation is controlled in synchronization with the light emission of the light emitting unit 92 in step S29. When the SB flag is 0, the image sensor 50 is controlled to be accumulated without irradiation.
[Step S31] After the charge accumulation control according to the set exposure time, the image processing unit 64 performs A / D conversion or known image processing on the pixel signal read from the image sensor 50, and generates image data. . This image data is taken into an image memory (buffer) 66.

[ステップS32]CPU60は、ケラレフラグが1か0かを判定し、1であればステップS33に進み、0であればステップS34に進む。
[ステップS33]CPU60は、画像におけるどの領域がケラレとなるかの情報(ステップS23で判定済)を、画像処理部64に伝達する。そして、画像処理部64は、ケラレとなっている領域の分布と、アスペクト比に関する設定と、画像の中心をずらすか否かの設定と基づいて、記録用画像データを作成する。ここでの『アスペクト比に関する設定』とは、ステップS31で生成された画像データが示す画像と記録用画像データによる画像とでアスペクト比を同じにするか否かの設定である。また、『画像の中心をずらすか否かの設定』とは、ステップS31で生成された画像データが示す画像と記録用画像データによる画像とで画像の中心が示す被写体部分が同じになるように設定されているか否かである。画像の中心をずらさない設定の場合、削除される領域は、図3(b)、(d)のように上下方向にも左右方向にも対称になる必要がある。
[Step S32] The CPU 60 determines whether the vignetting flag is 1 or 0. If it is 1, the process proceeds to step S33, and if it is 0, the process proceeds to step S34.
[Step S <b> 33] The CPU 60 transmits information about which area in the image is vignetted (determined in step S <b> 23) to the image processing unit 64. Then, the image processing unit 64 creates recording image data based on the distribution of the vignetting area, the setting relating to the aspect ratio, and the setting as to whether or not the center of the image is shifted. Here, “setting concerning the aspect ratio” is a setting as to whether or not the aspect ratio is the same between the image indicated by the image data generated in step S31 and the image based on the recording image data. Further, “setting whether to shift the center of the image” means that the subject portion indicated by the center of the image is the same between the image indicated by the image data generated in step S31 and the image based on the recording image data. Whether it is set or not. In the case where the center of the image is not shifted, the area to be deleted needs to be symmetrical both in the vertical direction and in the horizontal direction as shown in FIGS.

記録用画像データは、ステップS31で生成された画像データから、ケラレとなっている領域のデータを完全に削除することで作成される。この際、元の画像は長方形なので、ケラレになっていない領域の一部も削除しないとケラレ領域を完全に削除できないが、ケラレになっていない領域の削除量ができる限り少なくなるように行われる。
以下、ステップS31で生成された画像データが示す画像が前述の図3(a)のようになっている場合を例として、削除方法を説明する。アスペクト比が固定で、画像の中心をずらさない設定の場合、図3(b)に示すように点線外の周囲の領域のデータが削除される。アスペクト比が固定で、画像の中心をずらす設定の場合、図3(c)に示すように点線外の左右と下側の領域のデータが削除される。この例ではケラレが画像の下部にのみ生じているので上下方向には非対称に削除され、削除前後において、画像の中心は若干ずれる。アスペクト比変更で、画像の中心をずらさない設定の場合、図3(d)に示すように点線外の上下の領域のデータが削除される。アスペクト比変更で、画像の中心をずらす設定の場合、図3(e)に示すように点線外の下側の領域のデータが削除される。この後、ステップS34に進む。
The recording image data is created by completely deleting the vignetting area data from the image data generated in step S31. At this time, since the original image is a rectangle, the vignetting area cannot be completely deleted unless a part of the vignetting area is also deleted, but the deletion amount of the vignetting area is reduced as much as possible. .
Hereinafter, the deletion method will be described by taking as an example the case where the image indicated by the image data generated in step S31 is as shown in FIG. When the aspect ratio is fixed and the center of the image is not shifted, the data in the surrounding area outside the dotted line is deleted as shown in FIG. In the case where the aspect ratio is fixed and the center of the image is shifted, the data in the left and right and lower areas outside the dotted line is deleted as shown in FIG. In this example, vignetting occurs only in the lower part of the image, so the image is deleted asymmetrically in the vertical direction, and the center of the image is slightly shifted before and after the deletion. When the aspect ratio is changed so that the center of the image is not shifted, the data in the upper and lower areas outside the dotted line is deleted as shown in FIG. When the aspect ratio is changed to shift the center of the image, the data in the lower area outside the dotted line is deleted as shown in FIG. Thereafter, the process proceeds to step S34.

[ステップS34]CPU60は、記録用画像データを画像圧縮部70に入力させ、画像圧縮部70は記録用画像データに圧縮処理を施す。この後CPU60は、圧縮後の記録用画像データを、カードインターフェース78を介してメモリカード80に記録させる。また、ケラレフラグが1である場合、CPU60は、ステップS34で生成した記録用画像データを、画像処理部64から画像表示回路74に入力させる。ケラレフラグが0の場合(ステップS34を介していない)場合、CPU60は、ステップS31で生成されて画像メモリ66に記憶されている画像データを記録用画像データとして画像表示回路74に入力させる。画像表示回路74は、入力された記録用画像データに所定の処理を施して、表示部72に画像として表示させる。以上が本実施形態のカメラシステム20の動作説明である。   [Step S34] The CPU 60 causes the image compression unit 70 to input the recording image data, and the image compression unit 70 performs a compression process on the recording image data. Thereafter, the CPU 60 records the compressed recording image data on the memory card 80 via the card interface 78. If the vignetting flag is 1, the CPU 60 causes the image processing unit 64 to input the recording image data generated in step S34 to the image display circuit 74. If the vignetting flag is 0 (not via step S34), the CPU 60 causes the image display circuit 74 to input the image data generated in step S31 and stored in the image memory 66 as recording image data. The image display circuit 74 performs predetermined processing on the input recording image data and causes the display unit 72 to display the image data. The above is the description of the operation of the camera system 20 of the present embodiment.

閃光装置を用いた撮影では、撮影者が撮影に集中するあまりに、撮影レンズ26の鏡筒長などの影響を考慮し忘れて、撮像画像にケラレが生じることがある。そこで、本実施形態では、撮像画像におけるケラレの状態を撮影時(この例では撮像素子50の露光直前)に判定する。そして、ケラレが生じる場合には、撮像画像のどの領域がケラレとなるかを求め、撮像した画像データから、ケラレとなっている領域のデータを自動的に削除し、それを記録用画像データとして記録する。このため、撮影者は、ケラレが生じる条件で撮影しても、撮影後に撮像画像からケラレを除く必要はないので、余分な時間を費やすことはない。従って、ユーザの利便性は大いに向上する。   In photographing using the flash device, the photographer may concentrate on photographing, and may forget to consider the influence of the lens barrel length of the photographing lens 26 and cause vignetting in the captured image. Therefore, in this embodiment, the state of vignetting in the captured image is determined at the time of shooting (in this example, immediately before the exposure of the image sensor 50). When vignetting occurs, the area of the captured image is determined as vignetting, the vignetting area data is automatically deleted from the captured image data, and this is used as recording image data. Record. For this reason, even if the photographer shoots under conditions that cause vignetting, there is no need to remove vignetting from the captured image after shooting, so no extra time is spent. Therefore, the convenience for the user is greatly improved.

さらに、特許文献1のように撮影の寸前に焦点距離の補正やケラレの警告が行われ、撮影者が撮影に集中できなくなるおそれはない。この結果、速写性を損なうことなく、即ち、シャッタチャンスを逃すことなく、撮像画像におけるケラレをなくすことができる。以上の効果は、撮影レンズやその他のアクセサリの機構を複雑化することなく実現できるので、特許文献2とは異なり、製造コストが高くなるおそれはない。   Further, as in Patent Document 1, correction of focal length and warning of vignetting are performed immediately before shooting, and there is no possibility that the photographer cannot concentrate on shooting. As a result, it is possible to eliminate vignetting in the captured image without impairing the rapid photographing property, that is, without missing a photo opportunity. Since the above effects can be realized without complicating the mechanism of the photographic lens and other accessories, unlike Patent Document 2, there is no possibility that the manufacturing cost increases.

次に、第1の実施形態の別の例を説明する。図6は、第1の実施形態におけるカメラシステムの別の例を示す概略構成図である。この例は、請求項1、請求項3、請求項5〜請求項8に対応する。上述した例と、この例との主な違いは、カメラシステムにアクセサリが装着されており、ケラレの状態の判定に際してアクセサリの情報も考慮することである。なお、図2の例と区別するため、CPUは60b、撮影レンズは26b、レンズCPUは130b、電子カメラは30b、カメラシステムは20bとして表記する。   Next, another example of the first embodiment will be described. FIG. 6 is a schematic configuration diagram illustrating another example of the camera system according to the first embodiment. This example corresponds to claims 1, 3, and 5 to 8. The main difference between the above-described example and this example is that an accessory is attached to the camera system, and the accessory information is also taken into account when determining the vignetting state. In order to distinguish from the example of FIG. 2, the CPU is denoted as 60b, the photographing lens is denoted as 26b, the lens CPU is denoted as 130b, the electronic camera is denoted as 30b, and the camera system is denoted as 20b.

図6において、電子カメラ30bにはテレコンバージョンレンズ24が装着されており、撮影レンズ26bには光学フィルタ28が装着されている。光学フィルタ28上には、フィルタの種類を示すバーコードが表記されている。撮影レンズ26bは、センサ132を有することを除き、前述の撮影レンズ26と同じである。撮影レンズ26bのレンズCPU130bは、光学フィルタ28が装着されたときに、センサ132により光学フィルタ28上のバーコードを読み取り、光学フィルタ28の種類を取得する。テレコンバージョンレンズ24内には、テレコンCPU110が内蔵されている。   In FIG. 6, a tele conversion lens 24 is attached to the electronic camera 30b, and an optical filter 28 is attached to the photographing lens 26b. On the optical filter 28, a barcode indicating the type of filter is written. The photographic lens 26b is the same as the photographic lens 26 described above except that it includes a sensor 132. When the optical filter 28 is attached, the lens CPU 130b of the photographic lens 26b reads the barcode on the optical filter 28 by the sensor 132 and acquires the type of the optical filter 28. A telecon CPU 110 is built in the teleconversion lens 24.

図6の例では、CPU60bがケラレの状態の判定に用いるテーブルデータには、図2の例で挙げた撮影レンズ26bの鏡筒に関する情報、電子閃光装置22の情報、撮影距離に加えて、アクセサリの装着の有無や、アクセサリの外形寸法も反映されている。即ち、テーブルデータには、光学フィルタ28が装着されているか否か(装着されている場合にはその種類)、テレコンバージョンレンズ24が装着されているか否か(装着されている場合にはその種類)、フードが装着されているか否かの情報も反映されている。なお、通常は撮影レンズ26bの種類によって装着されるフードは決まっているので、撮影レンズ26bの種類からフードの外形寸法も決定する。   In the example of FIG. 6, the table data used by the CPU 60b to determine the vignetting state includes accessories in addition to the information about the lens barrel of the photographing lens 26b, the information about the electronic flash device 22, and the photographing distance mentioned in the example of FIG. The presence / absence of mounting and the external dimensions of accessories are also reflected. That is, the table data includes whether or not the optical filter 28 is attached (the type if attached), and whether or not the teleconversion lens 24 is attached (the type if attached). ), Information on whether or not a hood is attached is also reflected. Since the hood to be mounted is usually determined depending on the type of the photographing lens 26b, the outer dimension of the hood is also determined from the type of the photographing lens 26b.

従って、この例ではCPU60bは、撮像画像において、撮影光学系の焦点距離に応じた画角内にアクセサリの外形が侵入することによるケラレが存在するか否かを判定する。なお、テレコンバージョンレンズ24が装着されている分、撮影光学系の光軸方向の全長が長くなっており、テレコンバージョンレンズ24が装着されていない場合よりもケラレやすくなっている。そして、ケラレが存在する場合には、ケラレとなる領域の位置や範囲を画素位置に対応させて判定する。   Therefore, in this example, the CPU 60b determines whether or not there is vignetting due to the outer shape of the accessory entering the angle of view corresponding to the focal length of the photographing optical system in the captured image. Note that the total length in the optical axis direction of the photographing optical system is increased by the amount of the teleconversion lens 24 attached, and vignetting is easier than when the teleconversion lens 24 is not attached. If vignetting exists, the position or range of the area that is vignetted is determined in correspondence with the pixel position.

カメラシステム20bにおいてレリーズ釦34が半押しされた場合の処理は前述と同様であり、全押しされた場合の処理のみが異なる。図7は、カメラシステム20bにおいて、レリーズ釦34が全押しされた場合の動作を示す流れ図である。以下、カメラシステム20bにおいて、レリーズ釦34が半押し後に全押しされた場合の処理を説明する。
[ステップS51]レリーズ釦34が全押しされると、それに同期してCPU60bは、撮影レンズ26bの鏡筒に関する情報と、電子閃光装置22に関する情報と、アクセサリに関する情報のうち取得していないものや更新されたものとを、レンズCPU130b、発光制御部94、テレコンCPU110から取得する。
The processing when the release button 34 is half-pressed in the camera system 20b is the same as described above, and only the processing when the release button 34 is fully pressed is different. FIG. 7 is a flowchart showing the operation when the release button 34 is fully pressed in the camera system 20b. Hereinafter, in the camera system 20b, processing when the release button 34 is fully pressed after being half pressed will be described.
[Step S51] When the release button 34 is fully pressed, the CPU 60b synchronizes with this and the CPU 60b acquires information on the lens barrel of the photographing lens 26b, information on the electronic flash device 22, and information on accessories that have not been acquired. The updated one is acquired from the lens CPU 130b, the light emission control unit 94, and the telecon CPU 110.

具体的には、CPU60bは、前述のステップS21で述べた撮影レンズ26bの鏡筒に関する情報に加えて、撮影レンズ26bにフードが装着されているか否かの情報をレンズCPU130bから取得する。また、CPU60bは、撮影レンズ26bに装着されている光学フィルタ28の種類をレンズCPU130bから取得する。なお、光学フィルタ28が装着されていない場合、CPU60bは、装着されていないことを示す情報をレンズCPU130bから取得する。さらに、CPU60bは、テレコンバージョンレンズ24の種類をテレコンCPU110から取得する。なお、テレコンバージョンレンズ24が装着されていない場合、テレコンCPU110からの入力がないので、CPU60bは、それが装着されていないという情報を取得する。以下のステップS52〜S64は、ステップS52、S53でのケラレの状態の判定においてアクセサリに関する情報がさらに反映されることを除き、前述のステップS22〜S34と同様である。   Specifically, the CPU 60b acquires, from the lens CPU 130b, information on whether or not a hood is attached to the photographic lens 26b in addition to the information regarding the lens barrel of the photographic lens 26b described in step S21. Further, the CPU 60b acquires the type of the optical filter 28 attached to the photographing lens 26b from the lens CPU 130b. When the optical filter 28 is not attached, the CPU 60b acquires information indicating that the optical filter 28 is not attached from the lens CPU 130b. Further, the CPU 60 b acquires the type of the teleconversion lens 24 from the telecon CPU 110. When the teleconversion lens 24 is not attached, there is no input from the telecon CPU 110, so the CPU 60b acquires information that it is not attached. The following steps S52 to S64 are the same as steps S22 to S34 described above, except that information about accessories is further reflected in the determination of the vignetting state in steps S52 and S53.

このように、図6、7のカメラシステム20bにおいても、前述のカメラシステム20と同様の効果を得ることができる。さらに、カメラシステム20bでは、ケラレの状態の判定に用いるテーブルデータにおいて、電子閃光装置22の機種、照射角、撮影レンズ26bの種類、焦点距離、撮影距離に加えて、光学フィルタ28の種類、フードが装着されているか否かの情報、テレコンバージョンレンズ24の種類も反映させた。従って、アクセサリを装着した場合など、より多岐に亘る撮影条件において、ケラレの状態を判定できる。   As described above, also in the camera system 20b of FIGS. 6 and 7, the same effect as that of the camera system 20 described above can be obtained. Further, in the camera system 20b, in the table data used for determining the vignetting state, in addition to the model of the electronic flash device 22, the irradiation angle, the type of the photographing lens 26b, the focal length, and the photographing distance, the type of the optical filter 28, the hood Information on whether or not is attached and the type of the teleconversion lens 24 are also reflected. Therefore, the vignetting state can be determined under a wider variety of shooting conditions such as when accessories are attached.

以下、第1の実施形態の補足事項を説明する。
ケラレの状態の判定は、本実施形態のようにテーブルデータを用いて行うのではなく、ケラレの要因となり得る種々の条件を反映させた演算により行ってもよい。
ケラレの状態を判定するテーブルデータにおいて、撮影レンズ26、26bの絞り値や、電子閃光装置22のバウンス角度を考慮しない例を述べたが、それらを考慮してテーブルデータを作成し、それらの情報を取得してケラレの状態を判定してもよい。
Hereinafter, supplementary items of the first embodiment will be described.
The determination of the vignetting state is not performed using the table data as in the present embodiment, but may be performed by calculation reflecting various conditions that may cause vignetting.
In the table data for determining the vignetting state, the example in which the aperture value of the photographing lenses 26 and 26b and the bounce angle of the electronic flash device 22 are not taken into account has been described. May be acquired to determine the vignetting state.

撮像素子50が露光される直前にケラレの状態を判定したが、この判定処理は、撮像素子50の露光直後(例えばステップS31とS32の間)であっても実施可能である。
以下、テーブルデータによるケラレ判定について補足説明をする。ここでは一例として焦点距離のみに着目した場合について説明する。
ズーム位置を広角側にすると鏡筒が被写体側に直進繰り出しし、ズーム位置を望遠側にすると鏡筒が像面側に直進繰り込みする撮影レンズが用いられている場合、広角側において、電子閃光装置22の照明光が鏡筒先端部でケラレやすくなる。従って、ケラレが生じる臨界の焦点距離をfiとすれば、焦点距離fがfiより小さいとき、ケラレ有りと判定できる。
Although the vignetting state is determined immediately before the image sensor 50 is exposed, this determination process can be performed even immediately after the exposure of the image sensor 50 (for example, between steps S31 and S32).
In the following, supplementary explanation will be given for vignetting determination using table data. Here, a case where attention is paid only to the focal length will be described as an example.
When the zoom position is set to the wide-angle side, the lens barrel moves straight forward to the subject side, and when the zoom position is set to the telephoto side, if an imaging lens is used in which the lens barrel moves straight forward to the image plane side, The illuminating light 22 is easily vignetted at the tip of the lens barrel. Accordingly, if the critical focal length at which vignetting occurs is fi, it can be determined that there is vignetting when the focal length f is smaller than fi.

或いは、広角側にすると鏡筒が像面側に直進繰り込みし、望遠側にすると鏡筒が被写体側に直進繰り出しする撮影レンズが用いられている場合、望遠側においてケラレやすくなる。この場合、ケラレが生じる臨界の焦点距離をfi’とすれば、焦点距離fがfi’より大きいとき、ケラレ有りと判定できる。
或いは、ズーム中間域で鏡筒長が最短になり、広角側にしても望遠側にしても鏡筒が被写体側に直進繰り出しする撮影レンズが用いられているとする。この場合、ケラレが生じる臨界の焦点距離を望遠側でfit、広角側でfiwとすれば、焦点距離fがfitより大きいときと、焦点距離fがfiwより小さいときにケラレ有りと判定できる。
Alternatively, when a photographic lens is used in which the lens barrel moves straight forward to the image plane side when set to the wide-angle side and the lens barrel moves straight forward toward the subject side when set to the telephoto side, vignetting is likely to occur on the telephoto side. In this case, if the critical focal length at which vignetting occurs is fi ′, it can be determined that there is vignetting when the focal length f is greater than fi ′.
Alternatively, it is assumed that a photographic lens is used in which the lens barrel length is the shortest in the intermediate zoom range, and the lens barrel extends straight toward the subject side regardless of whether it is on the wide-angle side or on the telephoto side. In this case, if the critical focal length at which vignetting occurs is fit on the telephoto side and fiw on the wide-angle side, it can be determined that there is vignetting when the focal length f is larger than fit and when the focal length f is smaller than fiw.

なお、図1から分かるように被写体がカメラ側に近づくほどケラレが生じやすくなる。従って、撮影距離のみに着目すれば、撮影距離が臨界値Siより小さいときにケラレ有りと判定できる。
<第2の実施形態>
次に、請求項1、請求項4〜請求項8に対応する第2の実施形態のカメラシステムを説明する。第2の実施形態は、撮像素子50の露光直後にケラレの状態を判定することと、ケラレの状態の判定方法とを除き、第1の実施形態と同様である。このため、第1の実施形態と機能が異なるのは電子カメラのCPUのみであるので、電子カメラの符合は30c、CPUの符合は60cとして区別し、他の要素は第1の実施形態と同一符号を付して説明する。
As can be seen from FIG. 1, vignetting tends to occur as the subject approaches the camera. Therefore, if attention is paid only to the shooting distance, it can be determined that there is vignetting when the shooting distance is smaller than the critical value Si.
<Second Embodiment>
Next, the camera system of 2nd Embodiment corresponding to Claim 1, Claim 4-Claim 8 is demonstrated. The second embodiment is the same as the first embodiment except for determining the vignetting state immediately after exposure of the image sensor 50 and the method for determining the vignetting state. For this reason, since only the CPU of the electronic camera differs in function from the first embodiment, the sign of the electronic camera is identified as 30c, the sign of the CPU is identified as 60c, and the other elements are the same as in the first embodiment. A description will be given with reference numerals.

図8、図9は、第2の実施形態におけるケラレの状態の判定方法の説明図であり、図8(a)は、撮像素子50の全有効画素の領域の模式的平面図である。以下、図8、図9を用いてケラレの状態の判定方法を説明する。本実施形態では、CPU60cは、図8(a)に示すように、撮像素子50の全有効画素を垂直方向には例えばa〜lの12列に、水平方向には例えば1〜15の15行に、計12×15のブロックに分けて認識する。なお、ブロックの分割数は、垂直方向12×水平方向15に限定されるものではない。そして、全有効画素の中心を原点として、原点を通る水平方向の線をX軸、原点を通る垂直方向の線をY軸とする。   FIGS. 8 and 9 are explanatory diagrams of a method for determining the vignetting state according to the second embodiment, and FIG. 8A is a schematic plan view of a region of all effective pixels of the image sensor 50. Hereinafter, a method for determining the vignetting state will be described with reference to FIGS. In the present embodiment, as shown in FIG. 8A, the CPU 60c arranges all the effective pixels of the image sensor 50 in 12 columns of a to l in the vertical direction and 15 rows of 1 to 15 in the horizontal direction, for example. In addition, a total of 12 × 15 blocks are recognized. The number of block divisions is not limited to the vertical direction 12 × the horizontal direction 15. Then, with the center of all effective pixels as the origin, the horizontal line passing through the origin is taken as the X axis, and the vertical line passing through the origin is taken as the Y axis.

CPU60cは、生成された画像データから、各ブロックの輝度値を算出する。本実施形態では一例として、輝度値は、各ブロックにおける全画素の画素値の平均値とし、黒レベルなら0、白レベルなら255となるように(8ビットで)表す。各ブロックに対して、輝度値が15以下であれば輝度フラグを1とし、輝度値が16以上であれば輝度フラグを0とする。なお、輝度値の閾値(請求項記載の所定輝度に対応)は、ここでは一例として16にしたが、発光量等の撮影条件に応じて変更してもよい。   The CPU 60c calculates the luminance value of each block from the generated image data. In this embodiment, as an example, the luminance value is an average value of the pixel values of all the pixels in each block, and is expressed (in 8 bits) so that it is 0 for the black level and 255 for the white level. For each block, the luminance flag is 1 if the luminance value is 15 or less, and the luminance flag is 0 if the luminance value is 16 or more. Note that the threshold value of the luminance value (corresponding to the predetermined luminance in the claims) is 16 as an example here, but it may be changed according to the photographing conditions such as the light emission amount.

そして、CPU60cは、輝度フラグが1のブロックの分布(即ち、低輝度領域の分布)によってケラレの状態を判定する。ここで、本実施形態では、ケラレとなる領域は画像において左右対称に生じるものとしてケラレの状態を判定する。これは、フード等のアクセサリの装着状態が正常であれば、電子閃光装置22の閃光を遮る物が左右非対称に位置することはあまりないと考えられるからである。従って、Y軸を境に対称位置にあるブロック同士で比較して、輝度値が同じか否かを判定する。同じであることが全ブロックに対して成立している場合、その画像データにはケラレが生じていると判定し、そうでない場合、ケラレ無しと判定する。   Then, the CPU 60c determines the vignetting state based on the distribution of the blocks whose luminance flag is 1 (that is, the distribution of the low luminance area). Here, in the present embodiment, the vignetting state is determined on the basis that the vignetting region is generated symmetrically in the image. This is because, if the attachment state of an accessory such as a hood is normal, it is considered that objects that block the flash of the electronic flash device 22 are not often positioned asymmetrically. Therefore, it is determined whether or not the luminance values are the same by comparing blocks at symmetrical positions with respect to the Y axis. When the same is true for all blocks, it is determined that vignetting has occurred in the image data. Otherwise, it is determined that there is no vignetting.

図8(b)は、図3(a)に示した撮像画像においてケラレとなっている領域を、黒く塗り潰して図8(a)に重畳したものである。図8(b)のようにケラレが生じている場合、各ブロックの輝度フラグは、例えば図8(c)に示すようになる。図8(c)において、Y軸より左側では、輝度フラグが1のブロックは、c列の15行目、d列の14、15行目、e列の14、15行目、及びf列の13〜15行目のブロックのみである。これに対し、Y軸より右側では、輝度フラグが1のブロックは、j列の15行目、i列の14、15行目、h列の14、15行目、及びg列の13〜15行目のブロックのみである。従って、Y軸を境に対称に分布しており、ケラレが生じていると判定される。   FIG. 8B shows a vignetting area in the captured image shown in FIG. 3A, which is blacked out and superimposed on FIG. 8A. When vignetting occurs as shown in FIG. 8B, the luminance flag of each block is as shown in FIG. 8C, for example. In FIG. 8C, on the left side of the Y-axis, the block with the luminance flag of 1 is the 15th row of the c column, the 14th and 15th rows of the d column, the 14th and 15th rows of the e column, and the fth column. Only the blocks in the 13th to 15th rows. On the other hand, on the right side of the Y-axis, the block having the luminance flag of 1 is the 15th row of the j column, the 14th and 15th rows of the i column, the 14th and 15th rows of the h column, and the 13th to 15th rows of the g column. Only the block on the line. Therefore, the distribution is symmetrical with respect to the Y axis, and it is determined that vignetting has occurred.

図9(a)は、撮像画像においてケラレとなっている領域を、黒く塗り潰して図8(a)に重畳した別の例である。なお、このような形状のケラレが生じる原因としては、電子カメラには不適合なフードが装着されている場合や、電子閃光装置22の照射角が画角に対して小さい場合が挙げられる。この場合も、Y軸を境に対称位置にあるブロック同士で比較して、輝度値が同じであることが全ブロックに対して成立しているので、ケラレ有りと判定される。   FIG. 9A is another example in which the vignetting area in the captured image is blacked out and superimposed on FIG. 8A. Note that the cause of such vignetting may be a case where an unsuitable hood is attached to the electronic camera or a case where the irradiation angle of the electronic flash device 22 is smaller than the angle of view. Also in this case, it is determined that there is vignetting because all the blocks have the same luminance value when compared at blocks symmetrical at the Y axis.

なお、ケラレの判定条件として、『Y軸を境に対称位置にあるブロック同士で比較して、輝度値が同じであることが全ブロックに対して成立している』としたが、全ブロックに対してでなくてもよい。所定の割合以上で同じである場合に、ケラレ有りと判定してもよい。なぜなら、ケラレのエッジ領域では、輝度フラグの0または1の判定は、Y軸を境に対称位置にあるブロック同士で異なる可能性があるからである。   Note that the vignetting judgment condition is that “the same luminance value is established for all blocks compared with each other in blocks symmetrical at the Y axis”. It may not be. It may be determined that there is vignetting when they are the same at a predetermined ratio or more. This is because in the vignetting edge region, the determination of the brightness flag 0 or 1 may be different between blocks at symmetrical positions with respect to the Y axis.

次に、第2の実施形態の処理の流れを説明する。第1の実施形態と第2の実施形態との動作上の違いは、レリーズ釦34が全押しされた後の動作のみであるので、図2に相当する概略構成図や、レリーズ釦34が半押しされた場合の動作の説明を省略する。図10は、第2の実施形態において、レリーズ釦34が全押しされた後の動作を示す流れ図である。以下、図10に示すステップ番号に従って、第2の実施形態のカメラシステムの動作を説明する。   Next, the processing flow of the second embodiment will be described. The difference in operation between the first embodiment and the second embodiment is only the operation after the release button 34 is fully pressed, so that the schematic configuration diagram corresponding to FIG. A description of the operation when pressed is omitted. FIG. 10 is a flowchart showing an operation after the release button 34 is fully pressed in the second embodiment. The operation of the camera system of the second embodiment will be described below according to the step numbers shown in FIG.

ステップS81、S82、S83、S84、S85、S86、S90の処理は、ステップ番号の違いを除いて第1の実施形態のS26、S27、S28、S29、S30、S31、S34とそれぞれ同様である。従って、重複する説明を省略し、ステップS87、S88、S89のみを説明する。
[ステップS87]CPU60cは、ステップS86で生成された画像データから、各ブロックの輝度値を算出する。
The processes of steps S81, S82, S83, S84, S85, S86, and S90 are the same as S26, S27, S28, S29, S30, S31, and S34 of the first embodiment, except for the difference in the step numbers. Therefore, the overlapping description is omitted and only steps S87, S88, and S89 are described.
[Step S87] The CPU 60c calculates the luminance value of each block from the image data generated in step S86.

次に、CPU60cは、各ブロックに対して、輝度値が15以下であれば輝度フラグを1とし、輝度値が16以上であれば輝度フラグを0とする。
次に、CPU60cは、Y軸を境に対称位置にあるブロック同士で比較して、輝度値が同じか否かを判定する。同じであることが全ブロックに対して成立している場合、ケラレが生じていると判定し、そうでない場合、ケラレ無しと判定する。ケラレが生じている場合、ケラレフラグを1としてからステップS88に進み、ケラレが生じていない場合、ケラレフラグを0としてからステップS90に進む。
Next, for each block, the CPU 60c sets the luminance flag to 1 if the luminance value is 15 or less, and sets the luminance flag to 0 if the luminance value is 16 or more.
Next, the CPU 60c compares the blocks at symmetrical positions with the Y axis as a boundary, and determines whether or not the luminance values are the same. If the same is true for all blocks, it is determined that vignetting has occurred, and if not, it is determined that there is no vignetting. If vignetting has occurred, the vignetting flag is set to 1 before proceeding to step S88. If vignetting has not occurred, the vignetting flag is set to 0 before proceeding to step S90.

[ステップS88]CPU60cは、輝度フラグが1であるブロックの分布を、ケラレとなっている領域の分布として、それを画像処理部64に伝達する。
[ステップS89]画像処理部64は、ケラレとなっている領域の分布と、アスペクト比に関する設定と、画像の中心をずらすか否かの設定と基づいて、前述のステップS33と同様に記録用画像データを作成する。以上が第2の実施形態の動作説明である。
[Step S88] The CPU 60c transmits the distribution of the block having the luminance flag of 1 to the image processing unit 64 as the distribution of the vignetting area.
[Step S89] Based on the distribution of the vignetting area, the setting relating to the aspect ratio, and the setting as to whether or not to shift the center of the image, the image processing unit 64 records an image for recording in the same manner as in step S33 described above. Create data. The above is the description of the operation of the second embodiment.

このように第2の実施形態では、撮像素子50が露光されて(ステップS85)画像データが生成された直後にケラレの状態を判定するが、第1の実施形態と同様の効果を得ることができる。
なお、第2の実施形態では、ケラレが左右対称に生じるとしてケラレの状態を判定したが、本発明はそのような判定方法に限定されるものではない。画像データにおいて、所定輝度より低輝度の領域(即ち、輝度フラグが1のブロック)の分布が所定の範囲に適合するか否かによって、ケラレが生じているか否かを判定してもよい。ケラレが生じている場合には、上述と同様に所定輝度より低輝度の部分が削除されるように記録用画像データを作成すればよい。
As described above, in the second embodiment, the vignetting state is determined immediately after the image sensor 50 is exposed (step S85) and the image data is generated. However, the same effect as in the first embodiment can be obtained. it can.
In the second embodiment, the vignetting state is determined on the assumption that vignetting occurs symmetrically, but the present invention is not limited to such a determination method. In the image data, whether or not vignetting has occurred may be determined depending on whether or not the distribution of an area having a luminance lower than the predetermined luminance (that is, a block having a luminance flag of 1) matches a predetermined range. When vignetting has occurred, the image data for recording may be created so that a portion having a luminance lower than the predetermined luminance is deleted as described above.

ここでの『所定の範囲』とは、例えば、画像の右辺、左辺、下辺の少なくともいずれかを含み、且つ、画像の中心部は含まない範囲である。以下、『所定の範囲』の一例としてこのように設定した理由を説明する。
電子閃光装置22の閃光が撮影レンズ26の鏡筒先端によって遮られた場合、図8(b)のように撮影レンズ26の鏡筒の外形が画像の下部においてケラレとなって表れる。従って、輝度フラグが1のブロックが画像の下辺を含むように分布していれば、ケラレが生じていると判定可能である。
Here, the “predetermined range” is, for example, a range including at least one of the right side, the left side, and the lower side of the image and not including the central portion of the image. Hereinafter, the reason why the setting is made as described above will be described as an example of the “predetermined range”.
When the flash of the electronic flash device 22 is blocked by the lens barrel tip of the photographing lens 26, the outer shape of the lens barrel of the photographing lens 26 appears as vignetting in the lower part of the image as shown in FIG. Therefore, if the blocks having the luminance flag of 1 are distributed so as to include the lower side of the image, it can be determined that vignetting has occurred.

電子カメラ30cには不適合なフードが装着されている場合や、電子閃光装置22の照射角が画角に対して小さい場合、図9(a)のように画像の右端や左端においてケラレが生じる。従って、輝度フラグが1のブロックが画像の右辺または左辺を含むように分布していれば、ケラレが生じていると判定可能である。
撮影レンズ26bの像空間の上部において電子閃光装置22の閃光が遮られる要因はあまり考えられない(照射角が画角より小さく、画像の右辺、左辺、下辺もケラレとなる場合等を除く)。従って、ケラレが生じるとすれば、通常は、画像の右辺、左辺、下辺の少なくともいずれかを含むと考えられる。
When an incompatible hood is attached to the electronic camera 30c, or when the irradiation angle of the electronic flash device 22 is smaller than the angle of view, vignetting occurs at the right and left ends of the image as shown in FIG. Therefore, if the blocks having the luminance flag of 1 are distributed so as to include the right side or the left side of the image, it can be determined that vignetting has occurred.
There are few factors that can block the flash of the electronic flash device 22 in the upper part of the image space of the photographing lens 26b (except when the illumination angle is smaller than the angle of view and the right side, left side, and lower side of the image are vignetted). Therefore, if vignetting occurs, it is usually considered to include at least one of the right side, the left side, and the lower side of the image.

また、輝度フラグが1のブロックが画像の中心部を含む場合、画像全体が低輝度である可能性があり、低輝度領域を削除して記録用画像データを作成することはできない。従って、その場合は、ケラレが生じているとは判定しない。
<本発明の補足事項>
以下、第1及び第2実施形態に共通の補足事項を説明する。
Further, when the block having the luminance flag of 1 includes the center of the image, there is a possibility that the entire image has low luminance, and it is not possible to create recording image data by deleting the low luminance area. Therefore, in this case, it is not determined that vignetting has occurred.
<Supplementary items of the present invention>
Hereinafter, supplementary matters common to the first and second embodiments will be described.

[1]電子閃光装置22が電子カメラ30(30b、30c)に装着される例を述べたが、電子閃光装置は、電子カメラに内蔵のものでもよい。
[2]生成した記録用画像データを電子カメラ30(30b、30c)が記録する例を述べたが、例えば無線等により記録用画像データを外部に伝送して、外部で記録するようにしてもよい。
[1] Although the example in which the electronic flash device 22 is mounted on the electronic camera 30 (30b, 30c) has been described, the electronic flash device may be incorporated in the electronic camera.
[2] The example in which the generated recording image data is recorded by the electronic camera 30 (30b, 30c) has been described. For example, the recording image data may be transmitted to the outside by wireless or the like and recorded externally. Good.

[3]作成した記録用画像データを自動的に記録するのではなく、記録用画像データに基づく画像が表示部72に表示された後、撮影者が記録の指示を入力した場合に記録するようにしてもよい。これは、ケラレにより撮像画像の一部が削除された場合、撮影者がレリーズ釦34を全押しした瞬間に意図していた撮影の構図と、記録用画像データに基づく画像とが若干異なることになり、撮影者は記録用画像データの記録を必ずしも望まないと考えられるからである。   [3] The created recording image data is not automatically recorded, but is recorded when the photographer inputs a recording instruction after the image based on the recording image data is displayed on the display unit 72. It may be. This is because, when a part of the captured image is deleted due to vignetting, the shooting composition intended when the photographer fully pressed the release button 34 and the image based on the recording image data are slightly different. This is because the photographer does not necessarily want to record the recording image data.

[4]請求項と実施形態との対応関係は、例えば以下の通りである。
請求項記載の撮像部は、撮影レンズ26(26b)、撮像素子駆動回路48、撮像素子50、シャッタ52、画像処理部64と、これらに画像データを生成させるCPU60(60b、60c)の機能とに対応する。
請求項記載の撮影時は、レリーズ釦34の全押し開始から、記録用画像データが生成されるまでに対応する。
[4] The correspondence between the claims and the embodiment is, for example, as follows.
The image pickup unit described in the claims includes the functions of the photographing lens 26 (26b), the image pickup device driving circuit 48, the image pickup device 50, the shutter 52, the image processing unit 64, and the CPU 60 (60b, 60c) that causes these to generate image data. Corresponding to
The shooting described in the claims corresponds to the time from when the release button 34 is fully pressed until the recording image data is generated.

請求項記載のケラレ判定部は、ケラレの状態をテーブルデータに基づいて撮影時に判定するCPU60、60bの機能に対応する(第1の実施形態)。また、請求項記載のケラレ判定部は、各ブロックの輝度フラグを算出することでケラレの状態を撮影時に判定するCPU60cの機能に対応する(第2の実施形態)。
請求項記載の画像処理部は、『画像におけるどの領域がケラレとなるかの情報』をCPU60(60b、60c)から受けて、それに基づいて記録用画像データを生成する画像処理部62の機能に対応する。
The vignetting determination unit described in the claims corresponds to the functions of the CPUs 60 and 60b that determine the vignetting state at the time of shooting based on the table data (first embodiment). Further, the vignetting determination unit described in the claims corresponds to the function of the CPU 60c that determines the vignetting state at the time of shooting by calculating the luminance flag of each block (second embodiment).
The image processing unit described in the claims has a function of the image processing unit 62 that receives “information about which area in the image is vignetting” from the CPU 60 (60b, 60c) and generates image data for recording based on the information. Correspond.

請求項記載の記録部は、CPU60、60b、60cの指令に従って記録用画像データをメモリカード80に記録するカードインターフェース78の機能に対応する。
なお、以上に示した対応関係は、参考のための一解釈であり、本発明を限定するものではない。
The recording unit described in the claims corresponds to the function of the card interface 78 that records the image data for recording on the memory card 80 in accordance with instructions from the CPUs 60, 60 b, 60 c.
It should be noted that the correspondence relationship shown above is an interpretation for reference and does not limit the present invention.

焦点距離や被写体距離等の条件によって生じるケラレの説明図である。It is explanatory drawing of the vignetting produced by conditions, such as a focal distance and an object distance. 本発明の第1の実施形態におけるカメラシステムの概略構成図である。It is a schematic block diagram of the camera system in the 1st Embodiment of this invention. ケラレとなる領域の一例と、どの領域のデータを削除して記録用画像データを作成するかを示す説明図である。It is explanatory drawing which shows an example of the area | region used as vignetting, and which area | region data is deleted and recording image data is produced. 第1の実施形態のカメラシステムにおいて、レリーズ釦が半押しされた場合の処理を示す流れ図である。6 is a flowchart illustrating processing when a release button is half-pressed in the camera system of the first embodiment. 第1の実施形態のカメラシステムにおいて、レリーズ釦が全押しされた場合の処理を示す流れ図である。6 is a flowchart showing processing when the release button is fully pressed in the camera system of the first embodiment. 第1の実施形態のカメラシステムの別の例の概略構成図である。It is a schematic block diagram of another example of the camera system of 1st Embodiment. 第1の実施形態のカメラシステムの別の例において、レリーズ釦が全押しされた場合の処理を示す流れ図である。6 is a flowchart showing processing when a release button is fully pressed in another example of the camera system of the first embodiment. 第2の実施形態におけるケラレの状態の判定の説明図である。It is explanatory drawing of determination of the state of vignetting in 2nd Embodiment. 第2の実施形態におけるケラレの状態の判定の説明図である。It is explanatory drawing of determination of the state of vignetting in 2nd Embodiment. 第2の実施形態のカメラシステムにおいて、レリーズ釦が全押しされた場合の処理を示す流れ図である。9 is a flowchart showing processing when a release button is fully pressed in the camera system of the second embodiment.

符号の説明Explanation of symbols

22 電子閃光装置
26、26b 撮影レンズ
28 光学フィルタ
38 測光部
48 撮像素子駆動回路
50 撮像素子
56 焦点検出装置
60、60b、60c CPU
64 画像処理部
66 画像メモリ
72 表示部
74 画像表示回路
130、130b レンズCPU
132 センサ
22 electronic flash device 26, 26b photographing lens 28 optical filter 38 photometry unit 48 image sensor drive circuit 50 image sensor 56 focus detection device 60, 60b, 60c CPU
64 Image processing unit 66 Image memory 72 Display unit 74 Image display circuit 130, 130b Lens CPU
132 sensors

Claims (8)

被写体からの光束を結像する撮影光学系を有するレンズ鏡筒と、
前記撮影光学系によって結像した被写体像を撮像して画像データを生成する撮像部と、
前記画像データに基づく画像におけるケラレの状態を撮影時に判定するケラレ判定部と、
前記ケラレの状態に基づいて、前記画像においてケラレとなる領域に対応するケラレ画像データを前記画像データから削除した記録用画像データを作成する画像処理部と、
前記記録用画像データを記録する記録部とを備えたことを特徴とするカメラシステム。
A lens barrel having an imaging optical system that forms an image of a light beam from a subject;
An imaging unit that captures a subject image formed by the imaging optical system and generates image data;
A vignetting determination unit that determines the state of vignetting in an image based on the image data at the time of shooting;
An image processing unit that creates recording image data in which the vignetting image data corresponding to the vignetting area in the image is deleted from the image data based on the vignetting state;
A camera system comprising: a recording unit that records the recording image data.
請求項1に記載のカメラシステムにおいて、
前記ケラレ判定部は、被写体を照明する照明装置に関する情報と、前記レンズ鏡筒に関する情報とに基づいて、前記ケラレの状態を判定することを特徴とするカメラシステム。
The camera system according to claim 1,
The vignetting determination unit determines the vignetting state based on information on an illumination device that illuminates a subject and information on the lens barrel.
請求項1に記載のカメラシステムにおいて、
前記ケラレ判定部は、装着されるアクセサリの情報と、前記レンズ鏡筒に関する情報とに基づいて、前記ケラレの状態を判定することを特徴とするカメラシステム。
The camera system according to claim 1,
The vignetting determination unit determines the vignetting state based on information on accessories to be attached and information on the lens barrel.
請求項1に記載のカメラシステムにおいて、
前記ケラレ判定部は、前記画像データのうち、所定輝度より低輝度の画像データが所定の範囲に亘って存在するか否かに応じて前記ケラレの状態を判定することを特徴とするカメラシステム。
The camera system according to claim 1,
The vignetting determination unit determines the vignetting state according to whether or not image data having a luminance lower than a predetermined luminance exists in a predetermined range of the image data.
請求項1〜請求項4のいずれか1項に記載のカメラシステムにおいて、
前記画像処理部は、前記ケラレ画像データを削除する前の前記画像データによる画像と同じアスペクト比で前記記録用画像データを作成することを特徴とするカメラシステム。
In the camera system according to any one of claims 1 to 4,
The camera system, wherein the image processing unit creates the recording image data with the same aspect ratio as that of the image based on the image data before the vignetting image data is deleted.
請求項1〜請求項4のいずれか1項に記載のカメラシステムにおいて、
前記画像処理部は、前記ケラレ画像データを削除する前の前記画像データによる画像と異なるアスペクト比で前記記録用画像データを作成することを特徴とするカメラシステム。
In the camera system according to any one of claims 1 to 4,
The camera system, wherein the image processing unit creates the recording image data with an aspect ratio different from that of the image based on the image data before the vignetting image data is deleted.
請求項1〜請求項6のいずれか1項に記載のカメラシステムにおいて、
前記画像処理部は、前記ケラレ画像データを削除する前の前記画像データによる画像の中心と前記記録用画像データによる画像の中心とがほぼ一致するように、前記記録用画像データを作成することを特徴とするカメラシステム。
The camera system according to any one of claims 1 to 6,
The image processing unit creates the recording image data so that the center of the image based on the image data before deleting the vignetting image data substantially matches the center of the image based on the recording image data. A featured camera system.
請求項1〜請求項6のいずれか1項に記載のカメラシステムにおいて、
前記画像処理部は、前記ケラレ画像データを削除する前の前記画像データによる画像の中心と前記記録用画像データによる画像の中心とが異なるように、前記記録用画像データを作成することを特徴とするカメラシステム。
The camera system according to any one of claims 1 to 6,
The image processing unit creates the recording image data so that the center of the image based on the image data before deleting the vignetting image data is different from the center of the image based on the recording image data. Camera system.
JP2004216388A 2004-07-23 2004-07-23 Camera system Withdrawn JP2006041741A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004216388A JP2006041741A (en) 2004-07-23 2004-07-23 Camera system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004216388A JP2006041741A (en) 2004-07-23 2004-07-23 Camera system

Publications (1)

Publication Number Publication Date
JP2006041741A true JP2006041741A (en) 2006-02-09

Family

ID=35906284

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004216388A Withdrawn JP2006041741A (en) 2004-07-23 2004-07-23 Camera system

Country Status (1)

Country Link
JP (1) JP2006041741A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008129275A (en) * 2006-11-20 2008-06-05 Fujifilm Corp Photographing device
JP2010081169A (en) * 2008-09-25 2010-04-08 Casio Hitachi Mobile Communications Co Ltd Image pickup device and program
WO2011078201A1 (en) * 2009-12-24 2011-06-30 富士通テン株式会社 Image processing device, image processing system, and image processing method
US9158183B2 (en) 2011-12-15 2015-10-13 Fujitsu Limited Stereoscopic image generating device and stereoscopic image generating method
US10681271B2 (en) 2017-03-15 2020-06-09 Ricoh Company, Ltd. Image processing apparatus, image capturing system, image processing method, and recording medium

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008129275A (en) * 2006-11-20 2008-06-05 Fujifilm Corp Photographing device
JP2010081169A (en) * 2008-09-25 2010-04-08 Casio Hitachi Mobile Communications Co Ltd Image pickup device and program
WO2011078201A1 (en) * 2009-12-24 2011-06-30 富士通テン株式会社 Image processing device, image processing system, and image processing method
CN102934427A (en) * 2009-12-24 2013-02-13 富士通天株式会社 Image processing device, image processing system, and image processing method
US9706175B2 (en) 2009-12-24 2017-07-11 Fujitsu Ten Limited Image processing device, image processing system, and image processing method
US9158183B2 (en) 2011-12-15 2015-10-13 Fujitsu Limited Stereoscopic image generating device and stereoscopic image generating method
US10681271B2 (en) 2017-03-15 2020-06-09 Ricoh Company, Ltd. Image processing apparatus, image capturing system, image processing method, and recording medium

Similar Documents

Publication Publication Date Title
US7697830B2 (en) Digital camera that performs focus detection using phase difference and contrast value
US8411159B2 (en) Method of detecting specific object region and digital camera
JP4872834B2 (en) Image recognition device, focus adjustment device, and imaging device
JP3679693B2 (en) Auto focus camera
US20090086050A1 (en) Image capture device and image capture method
US7283736B2 (en) Imaging apparatus and imaging method
JP4888249B2 (en) Focus detection apparatus and imaging apparatus
JP2006050149A (en) Panning photographic method and photographing apparatus
JP2006041741A (en) Camera system
JP2009088800A (en) Color imaging device
JP5070856B2 (en) Imaging device
JP4985155B2 (en) Focus adjustment device and imaging device
JP2005173254A (en) Camera system
JP4481185B2 (en) Image display device
JP2009139427A (en) Camera and photographing control method
JP2003270521A (en) Camera
JP2005345501A (en) Electronic camera
JP2005024858A (en) Digital single lens reflex camera
JP2010117488A (en) Imaging apparatus and focal position-detecting device
JP5447579B2 (en) Tracking device, focus adjustment device, and photographing device
JP2010098698A (en) Imaging apparatus, control method thereof and program
JP4810768B2 (en) camera
JP4532169B2 (en) Focus detection device
JP2007036951A (en) Camera having electronic viewfinder
JP2007057933A (en) Camera having electronic view finder

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20071002