JP2007049363A - Camera - Google Patents

Camera Download PDF

Info

Publication number
JP2007049363A
JP2007049363A JP2005230936A JP2005230936A JP2007049363A JP 2007049363 A JP2007049363 A JP 2007049363A JP 2005230936 A JP2005230936 A JP 2005230936A JP 2005230936 A JP2005230936 A JP 2005230936A JP 2007049363 A JP2007049363 A JP 2007049363A
Authority
JP
Japan
Prior art keywords
live view
illumination light
auxiliary illumination
image data
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005230936A
Other languages
Japanese (ja)
Inventor
Yoji Watanabe
洋二 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2005230936A priority Critical patent/JP2007049363A/en
Publication of JP2007049363A publication Critical patent/JP2007049363A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)
  • Focusing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a camera for displaying an image capable of allowing a user to visually recognize that auxiliary illumination is being radiated without generating an unnatural blank white phenomenon on the display screen of an image display device displaying a live view when the auxiliary illumination light is radiated for ranging. <P>SOLUTION: The camera comprises a flash device 300 for projecting the auxiliary illumination light to a subject when the subject is in low luminance, an image pickup element 212b for displaying the live view for picking up the image, a liquid crystal monitor 222 for displaying by live view image data which is acquired by the image pickup element 212b for displaying the live view, and a microcomputer 201 for controlling a body. The microcomputer 201 for controlling the body performs control to allow the liquid crystal monitor 222 to display a pseudo halation image during the radiation of the auxiliary illumination light to the subject by the flash device 300. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、カメラに関し、特にライブビュー表示機能を有するカメラに関する。   The present invention relates to a camera, and more particularly to a camera having a live view display function.

現在のほとんどのデジタルコンパクトカメラには、例えば液晶ディスプレイ(Liquid Crystal Display)等からなる画像表示装置に、所定の周期で当該デジタルカメラ内の撮像素子により生成される画像データを順次更新して連続的に表示させる機能が設けられている。このような表示は、一般にスルー画表示またはライブビュー表示と称される(以降、ライブビュー表示と称する)。   In most current digital compact cameras, for example, an image display device such as a liquid crystal display is continuously updated by sequentially updating image data generated by an image sensor in the digital camera at a predetermined cycle. The function to display is provided. Such a display is generally referred to as a live view display or a live view display (hereinafter referred to as a live view display).

そして、デジタル一眼レフレックスカメラにライブビュー表示機能を付加させる例として、例えば特許文献1に開示されているような技術が提案されている。   As an example of adding a live view display function to a digital single lens reflex camera, for example, a technique disclosed in Patent Document 1 has been proposed.

特許文献1に開示されている技術では、電子カメラに対し、通常の撮像用撮像素子である第1の撮像素子を有する第1の撮像手段の他に、ライブビュー表示用の撮像素子である第2の撮像素子を有する第2の撮像手段を設ける。そして、上記第2の撮像手段へ、当該電子カメラの撮影レンズユニットを透過した被写体光束を導くために、当該電子カメラ内に光路変更手段または光束分割手段を設ける。具体的には、当該電子カメラのファインダー光学系の一部にハーフミラーを用い、該ハーフミラーを透過した光束を、上記第2の撮像手段へ導いて、ライブビュー表示用の撮像素子である上記第2の撮像素子で受光させる。このようにして、ライブビュー表示を可能としている。
特開2000−165730号公報
In the technique disclosed in Patent Document 1, in addition to a first image pickup unit having a first image pickup element which is a normal image pickup element for an electronic camera, a first image pickup element for live view display is used. Second imaging means having two imaging elements is provided. Then, in order to guide the subject light beam that has passed through the photographing lens unit of the electronic camera to the second imaging unit, an optical path changing unit or a light beam dividing unit is provided in the electronic camera. Specifically, a half mirror is used as a part of the finder optical system of the electronic camera, and the light beam that has passed through the half mirror is guided to the second imaging unit, which is an image sensor for live view display. Light is received by the second image sensor. In this way, live view display is possible.
JP 2000-165730 A

通常、オートフォーカス(AF)機能を有する一眼レフレックスカメラにおいて、被写体が低輝度である場合には、測距時に補助照明光の照射が行われる。そして、このことが、以下の問題を生じる。すなわち、ライブビュー表示の実行中に補助照明光の照射が行われてしまうと、その時ライブビュー表示を行っている画像表示装置の表示画面は一瞬真っ白になり、その後もある程度の時間が経過するまで補助照明光の照射前の状態の表示画面に戻らないという、表示画面の白飛び現象の問題である。この白飛び現象は、ライブビュー表示用の撮像素子の受光量が飽和してしまうことに起因する。   Usually, in a single-lens reflex camera having an autofocus (AF) function, when a subject has low luminance, irradiation of auxiliary illumination light is performed during distance measurement. This causes the following problems. That is, if irradiation of auxiliary illumination light is performed during execution of live view display, the display screen of the image display device that is performing live view display at that time is white for a moment, and until a certain amount of time passes thereafter This is a problem of the whiteout phenomenon of the display screen that does not return to the display screen in the state before the irradiation of the auxiliary illumination light. This whiteout phenomenon is caused by the saturation of the amount of light received by the image sensor for live view display.

そして、上記特許文献1に開示された技術は、この問題まで考慮に入れて提案された発明ではない。
本発明は、上記の事情に鑑みて為されたもので、測距用補助照明光の照射が行われた時に、ライブビュー表示を実行中の画像表示装置の表示画面に不自然な白飛び現象を起こさず且つ補助照明光照射中であることをユーザーが視覚的に認識可能な画像表示を行うカメラを提供することを目的とする。
The technique disclosed in Patent Document 1 is not an invention proposed in consideration of this problem.
The present invention has been made in view of the above circumstances, and when the auxiliary illumination light for distance measurement is irradiated, an unnatural white-out phenomenon occurs on the display screen of the image display apparatus that is performing live view display. It is an object of the present invention to provide a camera that displays an image that allows a user to visually recognize that auxiliary illumination light is being emitted.

上記の目的を達成するために、本発明の一態様によるカメラは、撮影レンズの焦点ズレ量を検出する測距手段と、所定の周期で被写体の撮像を行うライブビュー表示用撮像手段と、上記ライブビュー表示用撮像手段が取得した画像データを順次表示する表示手段と、上記被写体が低輝度である場合に、上記測距手段による測距時に上記被写体に対して補助照明光を照射する補助照明光照射手段と、上記補助照明光照射手段が上記被写体に対して補助照明光を照射している間は、上記表示手段に、上記補助照明光照射手段による補助照明光の照射直前に上記ライブビュー表示用撮像手段が取得した画像データに対して画像処理を施した画像データを表示させる制御手段と、を具備することを特徴とする。   In order to achieve the above object, a camera according to an aspect of the present invention includes a distance measuring unit that detects a defocus amount of a photographing lens, a live view display imaging unit that images a subject at a predetermined period, Display means for sequentially displaying the image data acquired by the live view display imaging means, and auxiliary lighting for irradiating the subject with auxiliary illumination light during distance measurement by the distance measuring means when the subject has low brightness While the light irradiation means and the auxiliary illumination light irradiation means irradiate the subject with auxiliary illumination light, the live view is displayed on the display means immediately before the auxiliary illumination light is emitted by the auxiliary illumination light irradiation means. Control means for displaying image data obtained by performing image processing on the image data acquired by the display imaging means.

本発明によれば、測距用補助照明光の照射が行われた時に、ライブビュー表示を実行中の画像表示装置の表示画面に不自然な白飛び現象を起こさず且つ補助照明光照射中であることをユーザーが視覚的に認識可能な画像表示を行うカメラを提供することができる。   According to the present invention, when the auxiliary illumination light for distance measurement is irradiated, the display screen of the image display apparatus that is executing the live view display does not cause an unnatural whitening phenomenon and is being irradiated with the auxiliary illumination light. It is possible to provide a camera that displays an image that allows a user to visually recognize a certain situation.

まず、本発明の一実施形態に係るカメラのシステム構成について、図1を参照して説明する。なお、本実施形態では、カメラとして一眼レフレックスカメラを例に説明する。   First, a system configuration of a camera according to an embodiment of the present invention will be described with reference to FIG. In the present embodiment, a single lens reflex camera will be described as an example of the camera.

図1に示すように、カメラ1は、レンズ鏡筒100、カメラ本体200、及びフラッシュ装置300から構成される。上記レンズ鏡筒100内部には、複数の光学レンズから構成される撮影光学系102が配設されている。この撮影光学系102は、後述するレンズ駆動機構103により光軸方向に移動自在に構成されており、被写体(不図示)からの光束をカメラ本体200の内部方向に透過させる。   As shown in FIG. 1, the camera 1 includes a lens barrel 100, a camera body 200, and a flash device 300. In the lens barrel 100, a photographing optical system 102 composed of a plurality of optical lenses is disposed. The photographing optical system 102 is configured to be movable in the optical axis direction by a lens driving mechanism 103 to be described later, and transmits a light beam from a subject (not shown) in the internal direction of the camera body 200.

また、上記撮影光学系102を透過した光束を当該カメラ本体200の内部に導くための、所定の口径を有する露光用開口が、カメラ本体200の前面側の略中央部に形成されている。この露光用開口の周縁部には撮影光学系装着部(不図示)が形成されている。この撮影光学系装着部(不図示)を介して、上記レンズ鏡筒100は、上記カメラ本体200に着脱自在となっている。したがって、カメラ本体200には、撮影時の用途に応じた種々のレンズ鏡筒100を装着させることができる。   An exposure opening having a predetermined aperture for guiding the light beam that has passed through the photographing optical system 102 to the inside of the camera body 200 is formed at a substantially central portion on the front side of the camera body 200. A photographing optical system mounting portion (not shown) is formed at the peripheral edge of the exposure opening. The lens barrel 100 is detachably attached to the camera body 200 via the photographing optical system mounting portion (not shown). Accordingly, various lens barrels 100 can be attached to the camera body 200 according to the purpose of shooting.

そして、レンズ鏡筒100の各部の制御は、当該レンズ鏡筒100内に設けられたレンズ制御用マイクロコンピュータ(以下、Lucomと称する)101によって行われる。一方、カメラ本体200の各部の制御は、当該カメラ本体200内に設けられた制御手段としてのボディ制御用マイクロコンピュータ(以下、Bucomと称する)201によって行われる。ここで、カメラ本体200にレンズ鏡筒100が装着された際には、通信コネクタ101aを介してLucom101とBucom201とが通信可能に接続される。この場合、カメラシステムとして、Lucom101がBucom201に従属するように稼動するようになっている。   Each part of the lens barrel 100 is controlled by a lens control microcomputer (hereinafter referred to as “Lucom”) 101 provided in the lens barrel 100. On the other hand, each part of the camera body 200 is controlled by a body control microcomputer (hereinafter referred to as Bucom) 201 as a control means provided in the camera body 200. Here, when the lens barrel 100 is attached to the camera body 200, the Lucom 101 and the Bucom 201 are communicably connected via the communication connector 101a. In this case, as the camera system, the Lucom 101 operates so as to be subordinate to the Bucom 201.

まず、上記レンズ鏡筒100の構成及び動作制御を説明する。上記レンズ鏡筒100は、撮影光学系102、レンズ駆動機構103、絞り104、及び絞り駆動機構105を有する。そして、上記撮影光学系102は、図1においては、当該撮影光学系102を構成する複数の光学レンズを1つの光学レンズで代表して図示している。この撮影光学系102は、レンズ駆動機構103内に存在する図示しないDCモータにより、その光軸方向に駆動される。   First, the configuration and operation control of the lens barrel 100 will be described. The lens barrel 100 includes a photographing optical system 102, a lens driving mechanism 103, a diaphragm 104, and a diaphragm driving mechanism 105. In FIG. 1, the photographing optical system 102 represents a plurality of optical lenses constituting the photographing optical system 102 as a single optical lens. The photographing optical system 102 is driven in the optical axis direction by a DC motor (not shown) existing in the lens driving mechanism 103.

さらに、撮影光学系102の後方には絞り104が設けられている。この絞り104は、絞り駆動機構105内に存在する図示しないステッピングモータによって開閉駆動される。このように絞り104の開閉が制御されることで、撮影光学系102を介してカメラ本体200に入射する被写体からの光束の光量が制御される。   Further, a stop 104 is provided behind the photographic optical system 102. The diaphragm 104 is driven to open and close by a stepping motor (not shown) existing in the diaphragm drive mechanism 105. By controlling the opening / closing of the diaphragm 104 in this way, the amount of light flux from the subject incident on the camera body 200 via the photographing optical system 102 is controlled.

ここで、レンズ駆動機構103内のDCモータの制御及び絞り駆動機構105内のステッピングモータの制御は、Bucom201の指令を受けたLucom101によって行われる。   Here, the control of the DC motor in the lens driving mechanism 103 and the control of the stepping motor in the aperture driving mechanism 105 are performed by the Lucom 101 that has received a command from the Bucom 201.

以下、カメラ本体200のシステム構成について説明する。   Hereinafter, the system configuration of the camera body 200 will be described.

まず、カメラ本体200の内部には、クイックリターンミラーとしての第1反射ミラー202a、フォーカシングスクリーン202b、ファインダー光学系202c、接眼レンズ202dから構成されるファインダー装置が設けられている。なお、上記第1反射ミラー202aはハーフミラーを用いた構成としており、これにより上記第1反射ミラー202aにおいて上記光束を一部透過させることができる。   First, a finder device including a first reflecting mirror 202a as a quick return mirror, a focusing screen 202b, a finder optical system 202c, and an eyepiece 202d is provided inside the camera body 200. Note that the first reflecting mirror 202a is configured to use a half mirror, whereby the first reflecting mirror 202a can partially transmit the light flux.

さらに、上記ファインダー光学系202cの近傍(具体的な位置は、図2を参照して後述)には、図1に示すように、合焦表示用スーパーインポーズLED240が配置されている。この合焦表示用スーパーインポーズLED240により、ファインダー視野内の被写体画面に重畳してLED光が投影され、ファインダー視野内に合焦表示(合焦動作が終了した旨の表示)が表示される。すなわち、この合焦表示用スーパーインポーズLED240により表示される合焦表示により、ユーザーは合焦動作の終了を確認することができる。なお、この合焦表示用スーパーインポーズLED240は、上記Bucom201の制御を受けて動作する。   Further, in the vicinity of the finder optical system 202c (a specific position will be described later with reference to FIG. 2), as shown in FIG. The focus display superimpose LED 240 projects the LED light so as to be superimposed on the subject screen in the viewfinder field, and displays a focus display (display indicating that the focusing operation has been completed) in the viewfinder field. That is, the user can confirm the end of the focusing operation by the focusing display displayed by the superimposing LED 240 for focusing display. The focus display superimpose LED 240 operates under the control of the Bucom 201.

カメラが通常状態(上記ファインダー装置における上記接眼レンズ202dを介して被写体像を観察する状態)、すなわち上記第1反射ミラー202aが図1に示すように撮影光路内に位置している状態では、撮影光学系102を介して入射した被写体からの光束の一部が第1反射ミラー202aにて反射される。これによって、フォーカシングスクリーン202b、ファインダー光学系202c、及び接眼レンズ202dを介して観察用の像が形成される。なお、ライブビュー表示に用いる画像データを撮像する為の撮像素子でありライブビュー表示用撮像手段の一部であるライブビュー表示用撮像素子212bが、ファインダー光学系202c近傍(具体的な位置は、図2を参照して後述する)に設けられている。   When the camera is in a normal state (a state in which a subject image is observed through the eyepiece 202d in the viewfinder device), that is, in a state where the first reflecting mirror 202a is positioned in the photographing optical path as shown in FIG. A part of the light beam from the subject incident through the optical system 102 is reflected by the first reflecting mirror 202a. As a result, an image for observation is formed through the focusing screen 202b, the finder optical system 202c, and the eyepiece lens 202d. The live view display imaging element 212b, which is an imaging element for imaging image data used for live view display and is part of the live view display imaging means, is located near the viewfinder optical system 202c (specific position is: (Described later with reference to FIG. 2).

また、上記ファインダー光学系202cの近傍には、上記Bucom201に接続された測光回路204が設けられている。そして、上記ファインダー光学系202cを通過した光束の一部が、この測光回路204内の図示しないホトセンサに入射するようになっている。測光回路204では、ホトセンサで検出された光束の光量に基づき周知の測光処理が行われる。測光回路204で処理された結果は、Bucom201に送信される。Bucom201では、測光回路204から入力された結果に基づいて撮影時の露光量が演算される。この結果は、Bucom201からLucom101に送信される。Lucom101では、Bucom201から通知された露光量に基づいて絞り104の駆動制御が行われる。   A photometric circuit 204 connected to the Bucom 201 is provided in the vicinity of the finder optical system 202c. A part of the light beam that has passed through the finder optical system 202c enters a photosensor (not shown) in the photometry circuit 204. In the photometry circuit 204, a well-known photometry process is performed based on the light amount of the light beam detected by the photosensor. The result processed by the photometry circuit 204 is transmitted to the Bucom 201. In the Bucom 201, the exposure amount at the time of photographing is calculated based on the result input from the photometry circuit 204. This result is transmitted from Bucom 201 to Lucom 101. In the Lucom 101, drive control of the diaphragm 104 is performed based on the exposure amount notified from the Bucom 201.

そして、上記第1反射ミラー202aを透過してサブミラー203で反射された光束は、自動焦点調節処理(AF処理)を行うためのAFセンサユニット205に導かれる。なお、上記サブミラー203は、上記第1反射ミラー202aの反射鏡面の裏面側に設けられており、上記第1反射ミラー202aが不図示の撮影光路から退避した位置に移動された場合には、それに伴って当該サブミラー203が折り畳まれるようになっている。   The light beam transmitted through the first reflecting mirror 202a and reflected by the sub-mirror 203 is guided to an AF sensor unit 205 for performing an automatic focus adjustment process (AF process). The sub mirror 203 is provided on the back side of the reflecting mirror surface of the first reflecting mirror 202a. When the first reflecting mirror 202a is moved to a position retracted from a photographing optical path (not shown), Along with this, the sub mirror 203 is folded.

AFセンサユニット205の内部には、エリアセンサ(不図示)が設けられており、このエリアセンサに入射した光束は電気信号に変換される。このエリアセンサからの出力は、AFセンサ駆動回路206を介してBucom201へ送信される。そして、Bucom201において測距処理が行われ、焦点調節に必要な撮影光学系102の焦点状態(デフォーカス量)が演算される。この結果は、Bucom201からLucom101に送信される。Lucom101では、Bucom201から通知された駆動量に基づいて撮影光学系102の駆動制御が行われる。   An area sensor (not shown) is provided inside the AF sensor unit 205, and a light beam incident on the area sensor is converted into an electric signal. The output from the area sensor is transmitted to the Bucom 201 via the AF sensor driving circuit 206. Then, ranging processing is performed in the Bucom 201, and the focus state (defocus amount) of the photographing optical system 102 necessary for focus adjustment is calculated. This result is transmitted from Bucom 201 to Lucom 101. In the Lucom 101, drive control of the photographing optical system 102 is performed based on the drive amount notified from the Bucom 201.

なお、画像撮影時には、従来の一眼レフレックスカメラと同様、第1反射ミラー202aとサブミラー203が不図示の退避位置に移動し、撮影光束は撮影用撮像素子212aに入射するようになる。このような第1反射ミラー202aの駆動は、ミラー駆動機構207によって行われる。また、ミラー駆動機構207の制御は、Bucom201によって行われる。このように第1反射ミラー202aがUP位置に移動されることによって、撮影光学系102を透過した被写体からの光束はシャッター部208の方向に入射する。フォーカルプレーン式のシャッター部208を構成する先幕と後幕とを駆動するためのばね力は、シャッターチャージ機構209によってチャージされる。また、先幕と後幕の駆動は、シャッター制御回路210によって行われる。これらシャッターチャージ機構209及びシャッター制御回路210は、Bucom201によって制御される。   At the time of image capturing, the first reflecting mirror 202a and the sub mirror 203 are moved to a retracted position (not shown) as in the conventional single-lens reflex camera, and the imaging light beam enters the imaging element 212a for imaging. Such driving of the first reflecting mirror 202 a is performed by the mirror driving mechanism 207. The mirror drive mechanism 207 is controlled by the Bucom 201. As the first reflecting mirror 202a is moved to the UP position in this way, the light flux from the subject that has passed through the photographing optical system 102 enters the direction of the shutter unit 208. The spring force for driving the front curtain and rear curtain constituting the focal plane type shutter unit 208 is charged by the shutter charge mechanism 209. The front curtain and the rear curtain are driven by the shutter control circuit 210. The shutter charge mechanism 209 and the shutter control circuit 210 are controlled by the Bucom 201.

そして、このとき、上記撮影光学系102を透過してカメラ本体200に入射してきた撮影光束は、ファインダー光学系202cには入射しない為、ファインダー内はブラックアウトした状態になる。すなわち、この時、表示手段である液晶モニタ222への、ライブビュー表示用撮像素子212bの取得した画像データによるライブビュー表示は行われない。ただし、このときの撮影光束は、上記撮影用撮像素子212aには入射するので、上記ライブビュー表示用撮像素子212bの代わりに上記撮影用撮像素子212aを利用して、上記液晶モニタ222にてライブビュー表示を行うことは可能である。   At this time, the photographic light flux that has passed through the photographic optical system 102 and entered the camera body 200 does not enter the finder optical system 202c, so the inside of the finder is blacked out. That is, at this time, the live view display by the image data acquired by the live view display imaging element 212b is not performed on the liquid crystal monitor 222 as the display means. However, since the imaging light flux at this time is incident on the imaging sensor 212a for shooting, the imaging sensor 212a is used instead of the imaging device 212b for live view display and the liquid crystal monitor 222 performs live. It is possible to perform view display.

なお、ライブビュー表示では、上記ライブビュー表示用撮像素子212b(上記撮影用撮像素子212aでも勿論よい)に入射した被写体像の画像データに所定の演算等が施され、該画像データが、ほぼリアルタイムで液晶モニタ222に表示される。この際、上記画像データは順次、連続的に表示されるので、当該デジタルカメラの捉えている被写体像が、人間の視覚にとっては、上記液晶モニタ222に動画として表示されているように見える。また、ライブビュー表示の動作の開始指示及び停止指示等は上記Bucom201により出される。そして、実際のライブビュー表示に関する動作制御は、上記画像処理コントローラ218により為される。   In the live view display, predetermined calculation or the like is performed on the image data of the subject image incident on the live view display imaging element 212b (or the photographing imaging element 212a), and the image data is almost in real time. Is displayed on the liquid crystal monitor 222. At this time, since the image data is sequentially displayed successively, the subject image captured by the digital camera appears to the human vision as being displayed as a moving image on the liquid crystal monitor 222. Also, the Bucom 201 issues an instruction to start and stop the live view display operation. The operation control related to the actual live view display is performed by the image processing controller 218.

ところで、上記シャッター部208を通過した光束は、シャッター部208の後方に配置された撮影用撮像素子212aに入射する。撮影用撮像素子212aで得られた電気信号(画像信号)は、所定タイミング毎に撮像インターフェイス回路217を介して読み出されてデジタル化される。このように撮像インターフェイス回路217でデジタル化されて得られた画像データは、画像処理コントローラ218を介してSDRAMなどで構成されたバッファメモリ219に格納される。ここで、バッファメモリ219は、画像データなどのデータの一時保管用メモリであり、画像データに各種処理が施される際のワークエリアなどに利用される。   By the way, the light flux that has passed through the shutter unit 208 is incident on the imaging element 212a for photographing that is disposed behind the shutter unit 208. The electrical signal (image signal) obtained by the imaging element 212a for photographing is read out and digitized via the imaging interface circuit 217 at every predetermined timing. Thus, the image data obtained by digitization by the imaging interface circuit 217 is stored in the buffer memory 219 configured by SDRAM or the like via the image processing controller 218. Here, the buffer memory 219 is a memory for temporarily storing data such as image data, and is used as a work area when various processes are performed on the image data.

なお、撮影画像を記録する記録手段としては、上記バッファメモリ219の他に、FlashRom220及び記録メディア221が、上記画像処理コントローラ218に接続されて設けられている。ここで、上記FlashRom220はカメラに内蔵のメモリを想定しており、上記記録メディア221はカメラの外部に装着され得るものを想定している。例えば記録メディア221としては、カメラに着脱自在に構成されたメモリーカードやハードディスクドライブなどが用いられる。また、Bucom201には、カメラ制御に必要な所定の制御パラメータを記憶する不揮発性メモリ223がアクセス可能に接続されている。この不揮発性メモリ223は、例えば書き換え可能なEEPROMで構成されている。   In addition to the buffer memory 219, a flash ROM 220 and a recording medium 221 are provided as recording means for recording a captured image, connected to the image processing controller 218. Here, the FlashRom 220 is assumed to be a memory built in the camera, and the recording medium 221 is assumed to be mounted outside the camera. For example, as the recording medium 221, a memory card or a hard disk drive configured to be detachable from the camera is used. The Bucom 201 is connected to a nonvolatile memory 223 that stores predetermined control parameters necessary for camera control. The non-volatile memory 223 is composed of, for example, a rewritable EEPROM.

ところで、画像撮影終了後には、撮像インターフェイス回路217を介して読み出されバッファメモリ219に格納された上記画像データが、画像処理コントローラ218によって読み出される。そして、画像処理コントローラ218によって読み出された画像データは、ホワイトバランス補正や、階調補正、色補正などの周知の画像処理が施された後、バッファメモリ219に格納される。その後、バッファメモリ219に格納された画像処理後の画像データが画像処理コントローラ218によって読み出されてビデオ信号に変換され、表示用の所定のサイズにリサイズされた後、液晶モニタ222に出力表示される。ユーザーは、液晶モニタ222に表示された画像により、撮影した画像を確認することができる。   By the way, after the end of image shooting, the image processing controller 218 reads the image data read out via the imaging interface circuit 217 and stored in the buffer memory 219. The image data read by the image processing controller 218 is stored in the buffer memory 219 after being subjected to known image processing such as white balance correction, gradation correction, and color correction. Thereafter, the image data after image processing stored in the buffer memory 219 is read by the image processing controller 218, converted into a video signal, resized to a predetermined size for display, and then output and displayed on the liquid crystal monitor 222. The The user can confirm the photographed image with the image displayed on the liquid crystal monitor 222.

そして、撮影画像記録時には、画像処理コントローラ218によって処理されバッファメモリ219に記録された上記画像処理後の画像データが、JPEG方式などの周知の圧縮方式によって圧縮される。このJPEG圧縮によって得られたJPEGデータは、バッファメモリ219に格納された後、所定のヘッダ情報が付加されたJPEGファイルとしてFlashRom220や記録メディア221に記録される。   At the time of recording a captured image, the image data after the image processing processed by the image processing controller 218 and recorded in the buffer memory 219 is compressed by a known compression method such as the JPEG method. The JPEG data obtained by this JPEG compression is stored in the buffer memory 219 and then recorded on the FlashRom 220 or the recording medium 221 as a JPEG file to which predetermined header information is added.

ここで、FlashRom220や記録メディア221に記録されたJPEGファイルから画像を再生する際には、FlashRom220や記録メディア221に記録されたJPEGデータが画像処理コントローラ218によって読み出されて伸長される。その後、この伸長されたデータがビデオ信号に変換された後、表示用の所定のサイズにリサイズされ、液晶モニタ222に出力表示される。   Here, when an image is reproduced from the JPEG file recorded on the FlashRom 220 or the recording medium 221, the JPEG data recorded on the FlashRom 220 or the recording medium 221 is read and decompressed by the image processing controller 218. Thereafter, the decompressed data is converted into a video signal, resized to a predetermined size for display, and output and displayed on the liquid crystal monitor 222.

なお、上記Bucom201には、電源回路224を介して電源としての電池225が接続されている。電池225により供給された電圧は、電源回路224において当該カメラにおける各部が必要とする電圧に変換され、その後各部に供給されるようになっている。また、当該カメラの動作状態を表示出力によってユーザーに告知するための動作表示用LCD226、及び当該カメラの各種操作部材の操作状態を検出するためのカメラ操作SW(カメラ操作スイッチ)227が、Bucom201に接続されて設けられている。   Note that a battery 225 as a power source is connected to the Bucom 201 via a power circuit 224. The voltage supplied from the battery 225 is converted into a voltage required by each part of the camera in the power supply circuit 224 and then supplied to each part. Further, an operation display LCD 226 for notifying the user of the operation state of the camera by display output and a camera operation SW (camera operation switch) 227 for detecting operation states of various operation members of the camera are provided in the Bucom 201. Connected and provided.

以下、フラッシュ装置300のシステム構成を説明する。このフラッシュ装置300は、フラッシュ制御回路301、充電及び発光回路303、及び発光部307を有している。そして、上記発光部307の充電及び発光は、充電及び発光回路303を介してフラッシュ制御回路301により制御される。そして、このフラッシュ制御回路301は、上記Bucom201から、充電及び発光等の開始指示及び停止指示等を受ける。本実施形態に係るカメラでは、被写体が低輝度の場合等には、上記フラッシュ装置300により被写体に向けての発光が行われ、被写体の輝度不足を補った撮影が行われる。   Hereinafter, the system configuration of the flash device 300 will be described. The flash device 300 includes a flash control circuit 301, a charging and light emitting circuit 303, and a light emitting unit 307. Then, charging and light emission of the light emitting unit 307 are controlled by the flash control circuit 301 via the charging and light emitting circuit 303. Then, the flash control circuit 301 receives from the Bucom 201 a start instruction, a stop instruction, etc., such as charging and light emission. In the camera according to the present embodiment, when the subject has a low luminance, the flash device 300 emits light toward the subject, and shooting is performed to compensate for the lack of luminance of the subject.

以下、上記ファインダー光学系202cの構成の一例を、図2を参照して説明する。   Hereinafter, an example of the configuration of the finder optical system 202c will be described with reference to FIG.

図2に示される第2反射ミラー(ハーフミラー)202c2、第3反射ミラー202c3、第4反射ミラー(ハーフミラー)202c4、及び結像レンズ202c5が、図1におけるファインダー光学系202cに含まれる部材である。言い換えれば、本実施形態において、ファインダー光学系202cは、第2反射ミラー(ハーフミラー)202c2、第3反射ミラー202c3、第4反射ミラー(ハーフミラー)202c4、及び結像レンズ202c5から構成される。   The second reflecting mirror (half mirror) 202c2, the third reflecting mirror 202c3, the fourth reflecting mirror (half mirror) 202c4, and the imaging lens 202c5 shown in FIG. 2 are members included in the viewfinder optical system 202c in FIG. is there. In other words, in the present embodiment, the finder optical system 202c includes a second reflecting mirror (half mirror) 202c2, a third reflecting mirror 202c3, a fourth reflecting mirror (half mirror) 202c4, and an imaging lens 202c5.

まず、図2に示す構成例における、上記各構成部材の具体的な配設位置を説明する。   First, specific arrangement positions of the respective constituent members in the configuration example shown in FIG. 2 will be described.

上記第1反射ミラー202aは、撮影光学系102の光軸上に配設される。そして、この第1反射ミラー202aにより略直角に、図2においては右方向に反射された光束の光路上に、上記第2反射ミラー202c2が配設される。そして、上記第1反射ミラー202aと上記第2反射ミラー202c2との間における上記光束の光路上には、フォーカシングスクリーン202bが配設される。   The first reflecting mirror 202 a is disposed on the optical axis of the photographing optical system 102. The second reflecting mirror 202c2 is disposed on the optical path of the light beam reflected by the first reflecting mirror 202a at a substantially right angle, in the right direction in FIG. A focusing screen 202b is disposed on the optical path of the light beam between the first reflection mirror 202a and the second reflection mirror 202c2.

また、上記第2反射ミラー202c2の後方(図2においては右方向)には、測光センサ204a及び合焦表示用スーパーインポーズLED240が配設される。   A photometric sensor 204a and a focus display superimpose LED 240 are disposed behind the second reflecting mirror 202c2 (rightward in FIG. 2).

そして、上記第2反射ミラー202c2にて略直角に上方向に反射された光束の光路上には、第3反射ミラー202c3が配設される。そして、この第3反射ミラー202c3にて略直角に、図2においては左方向、すなわち上記第1反射ミラー202aから上記第2反射ミラー202c2に向かう方向と反対方向に反射された光束の光路上には、第4反射ミラー202c4が配設される。   A third reflection mirror 202c3 is disposed on the optical path of the light beam reflected upward at a substantially right angle by the second reflection mirror 202c2. Then, on the optical path of the light beam reflected by the third reflection mirror 202c3 at a substantially right angle, in the left direction in FIG. 2, that is, in the direction opposite to the direction from the first reflection mirror 202a toward the second reflection mirror 202c2. Is provided with a fourth reflecting mirror 202c4.

また、上記第4反射ミラー202c4の後方(図2においては左方向)には、結像レンズ202c5、及びライブビュー表示用撮像素子212bが配設される。   In addition, an imaging lens 202c5 and a live view display imaging device 212b are disposed behind the fourth reflection mirror 202c4 (leftward in FIG. 2).

さらに、上記第4反射ミラー202c4にて略直角に反射された光束の光路上であって、上記撮影光学系102の光軸と平行に且つ上記撮影光学系102に入射する光束と同様の方向に、接眼レンズ202dが配設される。   Further, on the optical path of the light beam reflected substantially at right angles by the fourth reflecting mirror 202c4, the light beam is parallel to the optical axis of the photographing optical system 102 and in the same direction as the light beam incident on the photographing optical system 102. An eyepiece 202d is disposed.

以下、図2を参照して、上述のような構成を採る上記ファインダー光学系202cにおいて、被写体(不図示)から発した光束が辿る光路を説明する。   Hereinafter, with reference to FIG. 2, an optical path followed by a light beam emitted from a subject (not shown) in the finder optical system 202c having the above-described configuration will be described.

まず、上記撮影光学系102から射出した光束は、第1反射ミラー202aに入射し、フォーカシングスクリーン202b方向へ反射される。そして、このフォーカシングスクリーン202bにて上記光束は一旦結像する。その後、フォーカシングスクリーン202bを射出した光束は、第2反射ミラー202c2へ入射する。上述したように、第2反射ミラー202c2はハーフミラーで構成されており、この第2反射ミラー202c2を透過した光束は、図1に示す測光回路204内に設けられた測光センサ204aに入射する。   First, the light beam emitted from the photographing optical system 102 enters the first reflecting mirror 202a and is reflected in the direction of the focusing screen 202b. The light beam once forms an image on the focusing screen 202b. Thereafter, the light beam emitted from the focusing screen 202b is incident on the second reflecting mirror 202c2. As described above, the second reflecting mirror 202c2 is formed of a half mirror, and the light beam that has passed through the second reflecting mirror 202c2 enters the photometric sensor 204a provided in the photometric circuit 204 shown in FIG.

さらに、図2に示すように、上記第2反射ミラー202c2後方(上記測光センサ204aが配置される側と同じ側)には、合焦表示用スーパーインポーズLED240が設置される。そして、この合焦表示用スーパーインポーズLED240により、ファインダー視野内に示される被写体画面に重畳してLED光を投影が投影され、ファインダー視野内に合焦表示の表示がなされる。ユーザーは、この合焦表示により、合焦動作が終了したことを知ることができる。なお、上記合焦表示用スーパーインポーズLED240の配置位置は、上記第2反射ミラー202c2の後方に限られることはなく、反射面がハーフミラーである反射部材の後方であればよいことは勿論である。   Further, as shown in FIG. 2, a focus display superimpose LED 240 is installed behind the second reflecting mirror 202c2 (the same side as the side where the photometric sensor 204a is disposed). Then, the focus display superimpose LED 240 projects the LED light so as to be superimposed on the subject screen shown in the viewfinder field of view, and the focus display is displayed in the viewfinder field of view. The user can know that the focusing operation has been completed by this focusing display. Note that the position of the focus display superimpose LED 240 is not limited to the rear of the second reflecting mirror 202c2, but may be any position as long as it is behind the reflecting member whose reflecting surface is a half mirror. is there.

一方、上記第2反射ミラー202c2にて反射された光束は、さらに第3反射ミラー202c3により、ハーフミラーで構成された第4反射ミラー202c4方向へ反射される。そして、この第4反射ミラー202c4を透過した光束は、結像レンズ202c5を介して、ライブビュー表示用撮像素子212bにて結像する。   On the other hand, the light beam reflected by the second reflection mirror 202c2 is further reflected by the third reflection mirror 202c3 in the direction of the fourth reflection mirror 202c4 formed of a half mirror. The light beam that has passed through the fourth reflecting mirror 202c4 is imaged by the live view display imaging element 212b via the imaging lens 202c5.

また、上記第4反射ミラー202c4にて反射された光束は、接眼レンズ202dへ入射し、当該カメラ1のユーザーは、この接眼レンズ202dを介して、被写体像を目視確認することができる。   The light beam reflected by the fourth reflecting mirror 202c4 enters the eyepiece lens 202d, and the user of the camera 1 can visually confirm the subject image via the eyepiece lens 202d.

上述したようなファインダー光学系202cの構成により、ユーザーは、上記フォーカシングスクリーン202bに結像した被写体像、すなわちTTL(Through The Lens)の光学式ファインダー(OVF:Optical View Finder)に表示される画像と同様の画像を、ライブビュー表示として液晶モニタ222にて観察することができる。   With the configuration of the finder optical system 202c as described above, the user can display a subject image formed on the focusing screen 202b, that is, an image displayed on an optical viewfinder (OVF) of the TTL (Through The Lens). A similar image can be observed on the liquid crystal monitor 222 as a live view display.

なお、ここでは、上記第4反射ミラー202c4の後方に結像レンズ202c5及びライブビュー表示用撮像素子212bを配置したが、結像レンズ202c5及びライブビュー表示用撮像素子212bの配置位置は、上記第4反射ミラー202c4の後方に限られず、第2反射ミラー202c2乃至第4反射ミラー202c4のうち何れか一つの反射ミラーの後方に配置すればよいことは言うまでも無い。なお、結像レンズ202c5及びライブビュー表示用撮像素子212bを、自身の後方に配置する反射ミラーは、ハーフミラーにより構成されていなければならない。   Here, the imaging lens 202c5 and the live view display imaging device 212b are arranged behind the fourth reflection mirror 202c4. However, the arrangement positions of the imaging lens 202c5 and the live view display imaging device 212b are as described above. Needless to say, it is not limited to the rear of the four reflecting mirrors 202c4, and may be arranged behind any one of the second reflecting mirrors 202c2 to 202c4. In addition, the reflection mirror which arrange | positions the image formation lens 202c5 and the image pick-up element 212b for live view display behind itself must be comprised with the half mirror.

また、上述したファインダー光学系202cの代わりに、ペンタプリズムを用いる構成のカメラとしても勿論良い。この場合、ペンタプリズムの何れか1つの反射面をハーフミラーとし、該ハーフミラーの後方に、結像レンズ及びライブビュー表示用撮像素子を設ければよい。   Of course, a camera using a pentaprism instead of the finder optical system 202c described above may be used. In this case, any one reflecting surface of the pentaprism may be a half mirror, and an imaging lens and a live view display imaging device may be provided behind the half mirror.

次に、図3を参照して、本実施形態に係るカメラの外観(上面及び背面)及び各種操作部材について説明する。   Next, with reference to FIG. 3, the external appearance (upper surface and rear surface) and various operation members of the camera according to the present embodiment will be described.

まず、カメラ1における上面側から説明する。図3に示すように、カメラ1の上面には、操作部材として、パワーレバー401、レリーズボタン402、及びモードダイヤル403が設けられている。なお、図3においては、上記フラッシュ装置300は収納状態となっている。   First, the upper surface side of the camera 1 will be described. As shown in FIG. 3, a power lever 401, a release button 402, and a mode dial 403 are provided on the upper surface of the camera 1 as operation members. In FIG. 3, the flash device 300 is stored.

上記パワーレバー401は、当該カメラ1の電源のON/OFFするための操作部材である。このパワーレバー401が回動操作されることにより、当該カメラ1のメイン電源のON/OFFが切り換えられる。   The power lever 401 is an operation member for turning on / off the power of the camera 1. When the power lever 401 is turned, the main power source of the camera 1 is switched on / off.

上記レリーズボタン402は、撮影準備動作及び露光動作を実行させるためのボタンである。このレリーズボタンは、第1レリーズスイッチと第2レリーズスイッチの2段式のスイッチで構成されており、レリーズボタン402が半押し操作されることによって第1レリーズスイッチがONされて測光処理や測距処理等の撮影準備動作が実行される。また、レリーズボタン402が全押し操作されることによって第2レリーズスイッチがONされて露光動作が実行される。   The release button 402 is a button for executing a shooting preparation operation and an exposure operation. This release button is composed of a two-stage switch of a first release switch and a second release switch. When the release button 402 is pressed halfway, the first release switch is turned on to perform photometry processing or distance measurement. A shooting preparation operation such as processing is executed. Further, when the release button 402 is fully pressed, the second release switch is turned on to perform the exposure operation.

モードダイヤル403は、撮影時の撮影モードを設定するための操作部材である。このモードダイヤル403が回転操作されることによって撮影時の撮影モードが設定される。例えば、プログラムAEモード(P)、絞り優先AEモード(A)、シャッター優先AEモード(S)、マニュアルモード(M)、そしてシーンモード(SCN)の5つのモードが設定可能である。   A mode dial 403 is an operation member for setting a shooting mode at the time of shooting. When the mode dial 403 is rotated, a shooting mode at the time of shooting is set. For example, five modes of a program AE mode (P), an aperture priority AE mode (A), a shutter priority AE mode (S), a manual mode (M), and a scene mode (SCN) can be set.

プログラムAEモードは、カメラ1によって演算された露光条件(絞り値及びシャッタースピード)に従って露光動作が行われるモードである。絞り優先AEモードは、ユーザーによって設定された絞り値に応じてシャッタースピードが設定されて露光が行われるモードである。   The program AE mode is a mode in which an exposure operation is performed according to the exposure conditions (aperture value and shutter speed) calculated by the camera 1. The aperture priority AE mode is a mode in which exposure is performed with the shutter speed set according to the aperture value set by the user.

シャッター優先AEモードは、ユーザーによって設定されたシャッタースピードに応じて絞り値が設定されて露光が行われるモードである。   The shutter priority AE mode is a mode in which exposure is performed with an aperture value set according to the shutter speed set by the user.

マニュアルモードは、ユーザーによって設定された絞り値及びシャッタースピードで露光が行われるモードである。   The manual mode is a mode in which exposure is performed with an aperture value and a shutter speed set by the user.

シーンモードは、種々の撮影シーンに適した条件で撮影が行われるモードである。なお、シーンモードにおいては、モードダイヤル403をSCNに設定した状態で、所望のシーンをメニュー画面上で設定する必要がある。   The scene mode is a mode in which shooting is performed under conditions suitable for various shooting scenes. In the scene mode, it is necessary to set a desired scene on the menu screen with the mode dial 403 set to SCN.

また、上記コントロールダイヤル404は、他の操作部材が押された状態で操作される操作部材である。このコントロールダイヤル404が回転操作されることにより、現在ユーザーによって押されている操作部材に係る機能の設定変更を行うことが可能である。ここで、コントロールダイヤル404を利用した設定が行われているときには、そのときのカメラ1の動作状態が動作表示用LCD226(図1参照)に表示される。ユーザーはこの表示を見ながら設定変更を行うことができる。   The control dial 404 is an operation member that is operated while another operation member is pressed. By rotating the control dial 404, it is possible to change the setting of the function related to the operation member currently pressed by the user. Here, when the setting using the control dial 404 is performed, the operation state of the camera 1 at that time is displayed on the operation display LCD 226 (see FIG. 1). The user can change the setting while viewing this display.

以下、カメラ1の背面側を説明する。カメラ1の背面側には、図3に示すように操作部材として再生ボタン419、十字ボタン424、及びOKボタン425が設けられている。そして、表示部材として液晶モニタ222が設けられている。   Hereinafter, the back side of the camera 1 will be described. On the back side of the camera 1, as shown in FIG. 3, a playback button 419, a cross button 424, and an OK button 425 are provided as operation members. A liquid crystal monitor 222 is provided as a display member.

上記再生ボタン419は、カメラ1の動作モードを、FlashROM220(図1参照)や記録メディア221(図1参照)に記録されたJPEGファイルから画像を再生できる再生モードに切り替えるためのボタンである。   The playback button 419 is a button for switching the operation mode of the camera 1 to a playback mode in which an image can be played back from a JPEG file recorded on the Flash ROM 220 (see FIG. 1) or the recording medium 221 (see FIG. 1).

上記液晶モニタ222は、例えばメニュー画面の表示やライブビュー表示等が行われる表示部材である。メニュー画面は、複数の階層構造からなるメニュー項目によって構成されており、ユーザーは、所望のメニュー項目を十字ボタン424で選択して、OKボタン425で選択した項目を決定することができる。ここで、メニュー項目としては、例えばFlashROM220(図1参照)や記録メディア221(図1参照)のセットアップ、画像データの画質、画像処理、シーンモード等の設定を行うことができる撮影メニュー、画像再生時の再生条件及び画像プリント時の設定などを行うことができる再生メニュー、撮影者の好みに応じた種々の細かい設定を行うことができるカスタムメニュー、及び警告音の種類などのカメラの動作状態を設定するセットアップメニューなどがある。   The liquid crystal monitor 222 is a display member that performs menu screen display, live view display, and the like. The menu screen is composed of menu items having a plurality of hierarchical structures, and the user can select a desired menu item with the cross button 424 and determine the item selected with the OK button 425. Here, the menu items include, for example, a shooting menu that can be used to set up flash ROM 220 (see FIG. 1) and recording medium 221 (see FIG. 1), image data image quality, image processing, scene mode, and image playback. The camera's operating status, such as the playback menu that allows you to set playback conditions and image print settings, a custom menu that allows you to make various fine settings according to the photographer's preferences, and the type of warning sound There is a setup menu to set.

なお、本実施形態に係るカメラの有する機能であるライブビュー表示モードの設定は、上記の各種メニューのうち、撮影メニュー、カスタムメニュー、及びセットアップメニューのうち何れのメニュー項目に含めても良い。   Note that the setting of the live view display mode, which is a function of the camera according to the present embodiment, may be included in any menu item of the shooting menu, custom menu, and setup menu among the various menus described above.

また、例えばシーンモードの設定時には、モードダイヤル403がシーンモード(SCN)に設定されている状態で、メニュー画面上で所望のシーンを選択することができる。このシーンの例としては、ポートレート、スポーツ、記念撮影、風景、夜景などがある。これら選択されたシーンに応じて露光条件、フラッシュ発光の条件、測光モード、AF方式、連写間隔などの撮影時の撮影条件が設定される。   Also, for example, when setting the scene mode, a desired scene can be selected on the menu screen while the mode dial 403 is set to the scene mode (SCN). Examples of this scene include portrait, sports, commemorative photo, landscape, night view, and the like. In accordance with the selected scene, shooting conditions such as exposure conditions, flash emission conditions, photometry mode, AF method, and continuous shooting interval are set.

以下、図4に示すフローチャートを参照して、本実施形態に係るカメラがライブビュー表示モードに設定されている場合の撮影時における動作制御を説明する。また、この動作制御は、Bucom201が行う動作制御である。なお、この動作制御を行う際の、当該カメラにおける各構成部材の動作については、図1を参照して詳述したので、ここでは一部省略し、動作制御の流れを中心に説明する。   Hereinafter, with reference to the flowchart shown in FIG. 4, operation control during shooting when the camera according to the present embodiment is set to the live view display mode will be described. This operation control is operation control performed by Bucom 201. Since the operation of each component in the camera when performing this operation control has been described in detail with reference to FIG. 1, a part of the operation will be omitted here, and the operation control flow will be mainly described.

まず、撮像インターフェイス回路217に、利用する撮像素子としてライブビュー表示用撮像素子212bを選択させる(ステップS1)。なお、撮影用撮像素子212a及びライブビュー表示用撮像素子212bの双方を同時に選択することは勿論可能である。次に、ライブビュー表示の動作の開始指示を、画像処理コントローラ218に出す(ステップS2)。以降、図1を参照して上述したように、画像処理コントローラ218によりライブビュー表示が行われる。   First, the imaging interface circuit 217 is caused to select the live view display imaging device 212b as the imaging device to be used (step S1). Of course, it is possible to simultaneously select both the imaging element 212a for photographing and the imaging element 212b for live view display. Next, an instruction to start a live view display operation is issued to the image processing controller 218 (step S2). Thereafter, as described above with reference to FIG. 1, live view display is performed by the image processing controller 218.

続いて、ユーザーによってレリーズボタン402が半押し(第1レリーズスイッチがON)されたか否かを判断する(ステップS3)。ここで、ユーザーによってレリーズボタン402が半押し(第1レリーズスイッチがON)されていないと判断した場合は、ユーザーによる撮影モードの変更を行う操作がなされたか否かを判断する(ステップS15)。ここで、撮影モードの変更を行う操作がなされたと判断した場合は、不図示のメインの処理へ戻る。一方、撮影モードの変更を行う操作がなされていないと判断した場合は、上記ステップS3へ戻る。   Subsequently, it is determined whether or not the release button 402 is half-pressed by the user (the first release switch is turned on) (step S3). If it is determined that the user has not pressed the release button 402 halfway (the first release switch is ON), it is determined whether or not the user has performed an operation for changing the shooting mode (step S15). If it is determined that an operation for changing the shooting mode has been performed, the process returns to the main process (not shown). On the other hand, if it is determined that the operation for changing the shooting mode has not been performed, the process returns to step S3.

上記ステップS3において、ユーザーによってレリーズボタン402が半押し(第1レリーズスイッチがON)されたと判断した場合は、測光回路204において測光処理が行われて輝度データが生成される。この結果は、Bucom201に送信され、Bucom201において露光量が演算される(ステップS4)。   If it is determined in step S3 that the user has pressed the release button 402 halfway (the first release switch is turned on), the photometric circuit 204 performs photometric processing to generate luminance data. This result is transmitted to Bucom 201, and the exposure amount is calculated in Bucom 201 (step S4).

また、上記ステップS4に続いて、本実施形態に特有の測距及び焦点調節を行うステップを実行する(ステップS5)。このステップS5の詳細については、図6を参照して後述する。そして、上記ステップS5において行った測距及び焦点調節により合焦動作が終了した旨の表示(合焦表示)を、合焦表示用スーパーインポーズLED240に、ファインダー視野内に重畳して表示させる(ステップS6)。   Further, following step S4, a step of performing distance measurement and focus adjustment specific to the present embodiment is executed (step S5). Details of step S5 will be described later with reference to FIG. Then, a display indicating that the in-focus operation has been completed by the distance measurement and focus adjustment performed in step S5 (in-focus display) is displayed on the in-focus display superimpose LED 240 in a superimposed manner in the viewfinder field ( Step S6).

その後、ユーザーによって第2レリーズスイッチがONされたか否か、即ちレリーズボタン402が全押しされたか否かを判断する(ステップS7)。このステップS7において、第2レリーズスイッチがONされていないと判断した場合には、ステップS7からステップS16に分岐して、第1レリーズスイッチがONされたままであるか否かを判断する(ステップS16)。このステップS16において、第1レリーズスイッチはONされたままであると判断した場合は、再び上記ステップS7へ戻り、第2レリーズスイッチがONされたか否かを判断する。   Thereafter, it is determined whether or not the second release switch has been turned on by the user, that is, whether or not the release button 402 has been fully pressed (step S7). If it is determined in step S7 that the second release switch is not turned on, the process branches from step S7 to step S16 to determine whether or not the first release switch remains turned on (step S16). ). If it is determined in step S16 that the first release switch remains on, the process returns to step S7 again to determine whether the second release switch has been turned on.

上記ステップS7において、第2レリーズスイッチがONされたと判断した場合は、画像処理コントローラ218に対して、ライブビュー表示の動作を一旦停止させる指示を出す(ステップS8)。   If it is determined in step S7 that the second release switch has been turned ON, an instruction to temporarily stop the live view display operation is issued to the image processing controller 218 (step S8).

その後、撮像インターフェイス回路217に、利用する撮像素子として撮影用撮像素子212aを選択させる(ステップS9)。続いて、ミラー駆動機構207に、第1反射ミラー202aを上述した退避位置に移動させる(ステップS10)。次に、撮影動作を行う(ステップS11)。   Thereafter, the imaging interface circuit 217 is caused to select the imaging element 212a for imaging as the imaging element to be used (step S9). Subsequently, the mirror driving mechanism 207 moves the first reflecting mirror 202a to the retracted position (step S10). Next, a photographing operation is performed (step S11).

この撮影動作とは、具体的には、上記ステップS4で演算された露光量に基づいて、絞り駆動機構105に絞り104の絞り込みを行わせ、画像処理コントローラ218を介して撮像インターフェイス回路217に、撮影用撮像素子212aの撮像動作を開始させる。そして、上記ステップS4で演算した露光量に基づいて、シャッター制御回路210に、シャッター部208の開閉駆動を行わせる。その後、シャッター制御回路210にシャッター部208を閉じさせ、撮影用撮像素子212aの撮影動作を停止させる。   Specifically, the photographing operation is to cause the diaphragm driving mechanism 105 to narrow down the diaphragm 104 based on the exposure amount calculated in step S4, and to cause the imaging interface circuit 217 to pass through the image processing controller 218. The imaging operation of the imaging image sensor 212a is started. Then, based on the exposure amount calculated in step S4, the shutter control circuit 210 is caused to open and close the shutter unit 208. Thereafter, the shutter control circuit 210 closes the shutter unit 208 and stops the photographing operation of the photographing image sensor 212a.

なお、上記撮影用撮像素子212aで得られた電気信号(画像信号)は、所定のタイミングで撮像インターフェイス回路217を介して読み出されてデジタル化される。さらに、撮像インターフェイス回路217でデジタル化されて得られた画像データは、画像処理コントローラ218によって、ホワイトバランス補正や、階調補正、色補正などの周知の画像処理が施される。   The electrical signal (image signal) obtained by the imaging element 212a for photography is read out and digitized via the imaging interface circuit 217 at a predetermined timing. Further, the image data obtained by digitization by the imaging interface circuit 217 is subjected to known image processing such as white balance correction, gradation correction, and color correction by the image processing controller 218.

その後、絞り104を開放させ、第1反射ミラー202aを撮影光路内の位置に復帰させる(ステップS12)。そして、上記画像データをバッファメモリ219に格納させる(ステップS13)。なお、バッファメモリ219は、例えば高速連写によって撮影される多数の画像データを一時格納するのに十分な容量を有している。その後、ユーザーにより、十字ボタン424、及びOKボタン425を用いての、撮影モードの変更を行う操作がなされたか否かを判断する(ステップS14)。ここで、撮影モードの変更を行う操作がなされたと判断した場合は、不図示のメインの処理へ戻る。一方、撮影モードの変更を行う操作がなされていないと判断した場合は、上記ステップS1へ戻る。   Thereafter, the aperture 104 is opened, and the first reflecting mirror 202a is returned to the position in the photographing optical path (step S12). Then, the image data is stored in the buffer memory 219 (step S13). Note that the buffer memory 219 has a capacity sufficient to temporarily store a large number of image data shot by, for example, high-speed continuous shooting. Thereafter, it is determined whether or not the user has performed an operation for changing the shooting mode using the cross button 424 and the OK button 425 (step S14). If it is determined that an operation for changing the shooting mode has been performed, the process returns to the main process (not shown). On the other hand, if it is determined that the operation for changing the shooting mode has not been performed, the process returns to step S1.

以下、本実施形態に特有の処理である上記ステップS5、すなわち測距及び焦点調節ステップのサブルーチンについて、図5に示すフローチャート、及び図6,7に示すタイムチャートを参照して説明する。なお、図6は補助照明光が使用されない場合、図7は補助照明光が使用される場合におけるタイムチャートである。   Hereinafter, the above-described step S5, which is a process unique to the present embodiment, that is, the subroutine of distance measurement and focus adjustment step will be described with reference to the flowchart shown in FIG. 5 and the time charts shown in FIGS. 6 is a time chart when the auxiliary illumination light is not used, and FIG. 7 is a time chart when the auxiliary illumination light is used.

ここでは、ライブビュー表示のフレームレートは、(1/30)秒と設定している。すなわち、画像処理コントローラ218は、図6,7に示す “ライブビュー表示:撮像”タイムチャートに示すように、ライブビュー表示用撮像素子212bに、30ms毎に、ライブビュー表示用の画像データを撮像させる。そして、このように撮像された画像データが、液晶モニタ222にライブビュー表示される。   Here, the frame rate of live view display is set to (1/30) seconds. That is, the image processing controller 218 captures live view display image data every 30 ms on the live view display imaging element 212b as shown in the “live view display: imaging” time chart shown in FIGS. Let The image data thus captured is displayed in live view on the liquid crystal monitor 222.

また、一度表示された画像データは、図6,7に示す “ライブビュー表示:表示”タイムチャートに示すように、次に画像データが更新表示されるまで、液晶モニタ222に表示され続ける。したがって、液晶モニタ222に表示するライブビュー表示は、人間の視覚にとって、動画として認識される。   The image data once displayed continues to be displayed on the liquid crystal monitor 222 until the next image data is updated and displayed as shown in the “live view display: display” time chart shown in FIGS. Therefore, the live view display displayed on the liquid crystal monitor 222 is recognized as a moving image for human vision.

ユーザーによりレリーズボタン402が半押しされると、すなわち第1レリーズスイッチがONされると(図6,7に示す“第1レリーズスイッチ”タイムチャート参照)、“測距”タイムチャートに示すように、まず補助照明光無し(“測距”タイムチャートにおける第1回目測距が該当)で測距を行う(ステップS21)。なお、具体的には、AFセンサユニット205において検出された信号が、AFセンサ駆動回路206を介してBucom201へ送信される。これに応じて、Bucom201では測距処理を行う。   When the release button 402 is half-pressed by the user, that is, when the first release switch is turned on (see the “first release switch” time chart shown in FIGS. 6 and 7), as shown in the “distance measurement” time chart. First, distance measurement is performed without auxiliary illumination light (corresponding to the first distance measurement in the “distance measurement” time chart) (step S21). Specifically, a signal detected by the AF sensor unit 205 is transmitted to the Bucom 201 via the AF sensor driving circuit 206. In response to this, the Bucom 201 performs distance measurement processing.

次に、上記ステップS21における測距処理の結果に基づいて、被写体が低輝度であるか否かを判断する(ステップS22)。なお、この判断の基準としては、上記ステップS21における補助照明光無しの測距において、AFセンサユニット205における電荷蓄積(積分)が、所定のレベルに達したか否かを判断の基準とする。この所定のレベルは、デフォルト値として設定しておいても、ユーザーが設定できるようにしても、どちらでもよい。ここで、このステップS22において被写体が低輝度ではないと判断した場合には、後述するステップS26へ進む。   Next, based on the result of the distance measuring process in step S21, it is determined whether or not the subject has low luminance (step S22). The criterion for this determination is whether or not the charge accumulation (integration) in the AF sensor unit 205 has reached a predetermined level in the distance measurement without auxiliary illumination light in step S21. The predetermined level may be set as a default value or may be set by the user. If it is determined in step S22 that the subject does not have low brightness, the process proceeds to step S26 described later.

上記ステップS22において被写体が低輝度であると判断した場合、補助照明光照射時には、上記液晶モニタ222に、ライブビュー表示の代わりに擬似的白飛び画像データ(詳細は後述)の生成及び表示を行うよう、画像処理コントローラ218に指示を出す(ステップS23)。   When it is determined in step S22 that the subject has low luminance, pseudo-blown image data (details will be described later) is generated and displayed on the liquid crystal monitor 222 instead of the live view display when the auxiliary illumination light is irradiated. An instruction is issued to the image processing controller 218 (step S23).

上記ステップS23を詳細に説明すると、画像処理コントローラ218に、補助照明光照射時にはライブビュー表示における表示更新を行うことを禁止し、且つ補助照明光照射直前にライブビュー表示用撮像素子212bの取得した画像データを基に上記擬似的白飛び画像データを生成し、補助照明光照射時には上記擬似的白飛び画像データを上記液晶モニタ222に表示させる指示を出す。なお、この擬似的白飛び画像データについての詳細は後述する。   The step S23 will be described in detail. The image processing controller 218 is prohibited from updating the display in the live view display when the auxiliary illumination light is irradiated, and the live view display image sensor 212b is acquired immediately before the auxiliary illumination light irradiation. The pseudo whiteout image data is generated based on the image data, and an instruction to display the pseudo whiteout image data on the liquid crystal monitor 222 is given when the auxiliary illumination light is irradiated. The details of the pseudo whiteout image data will be described later.

そして、充電及び発光回路303を介して、フラッシュ制御回路301に上記発光部307を発光制御(図7に示す“補助光フラッシュ”タイムチャート参照)させながら、再び測距動作を行う(ステップS24)。   Then, the distance measurement operation is performed again while the flash control circuit 301 controls the light emission unit 307 to emit light (see the “auxiliary light flash” time chart shown in FIG. 7) via the charging and light emission circuit 303 (step S24). .

すなわち、上記ステップS23及びステップS24における動作制御により、フラッシュ装置300を用いて補助照明光(フラッシュプリ発光)を被写体に照射しながら測距を行い、その間、図7の“ライブビュー表示:表示”タイムチャートに示すように、ライブビュー表示の表示更新は行わず、その代わりに上記液晶モニタ222には、上記擬似的白飛び画像データを表示する。   That is, by the operation control in steps S23 and S24, the flash device 300 is used to measure the distance while irradiating the subject with auxiliary illumination light (flash pre-emission), and during that time, “live view display: display” in FIG. As shown in the time chart, the display of live view display is not updated, but the pseudo whiteout image data is displayed on the liquid crystal monitor 222 instead.

なお、上記擬似的白飛び画像データとは、補助照明光照射直前にライブビュー表示用撮像素子212bの取得した画像データに対して、RGBの混合比(色バランス)は変えずに、明るさ(輝度レベル)だけを変更調整(たとえば輝度レベルをプラス30%程度等)する画像処理を施して生成した画像データである。言い換えれば、上記擬似的白飛び画像データとは、適正露出の画像データよりも白色掛かった画像データであるとも言える。なお、上記擬似的白飛び画像データの実際の表示画面については、図8を参照して後述する。   The pseudo whiteout image data is the brightness (color balance) of the image data acquired by the live view display imaging device 212b immediately before the auxiliary illumination light irradiation without changing the RGB mixing ratio (color balance). This is image data generated by performing image processing for changing and adjusting only (luminance level) (for example, the luminance level is about 30% plus). In other words, it can be said that the pseudo whiteout image data is image data that is whiter than image data of appropriate exposure. The actual display screen of the pseudo whiteout image data will be described later with reference to FIG.

そして、上記ステップS24にて補助照明光を照射しての測距を終えた後、画像処理コントローラ218に、ライブビュー表示における表示更新を行うことを許可する指示を出す(ステップS25)。したがって、このステップS25により、液晶モニタ222では、上記擬似的白飛び画像データの表示から、ライブビュー表示へと切り換わる。つまり、液晶モニタ222におけるライブビュー表示を再開する。   Then, after completing the distance measurement by irradiating the auxiliary illumination light in step S24, the image processing controller 218 is instructed to permit display updating in the live view display (step S25). Accordingly, in step S25, the liquid crystal monitor 222 switches from the pseudo whiteout image data display to the live view display. That is, the live view display on the liquid crystal monitor 222 is resumed.

つづいて、測距結果を参照して、撮影光学系102の位置が合焦の範囲内の位置にあるか否かを判断する(ステップS26)。このステップS26において、撮影光学系102の位置が、合焦の範囲内の位置にあると判断した場合には、図4に示すフローチャートに戻り、上記ステップS6の合焦表示ステップへ進む。この合焦表示ステップでは、ファインダー視野内の被写体画面に重畳して、合焦表示用スーパーインポーズLED240によるLED光を投影させ、ファインダー視野内に、合焦動作が終了した旨の表示をさせる。   Subsequently, referring to the distance measurement result, it is determined whether or not the position of the photographing optical system 102 is within the in-focus range (step S26). If it is determined in step S26 that the position of the photographing optical system 102 is within the in-focus range, the process returns to the flowchart shown in FIG. 4 and proceeds to the in-focus display step in step S6. In this focus display step, the LED light from the focus display superimpose LED 240 is projected onto the subject screen in the viewfinder field of view, and a display to the effect that the focus operation has been completed is displayed in the viewfinder field of view.

なお、この合焦表示は、図6及び図7の“合焦表示”タイムチャートに示すように最後の測距により合焦を確認した後に、合焦表示用スーパーインポーズLED240に行わせる。   This focus display is performed by the focus display superimpose LED 240 after the focus is confirmed by the last distance measurement as shown in the “focus display” time charts of FIGS. 6 and 7.

一方、上記ステップS26において、撮影光学系102の位置が合焦の範囲内の位置にないと判断した場合は、測距結果に基づいて、焦点調節に必要な撮影光学系102の駆動量を演算する(ステップS27)。そして、この演算結果をLucom101に送信し、Lucom101により、Bucom201が通知した駆動量に基づいて撮影光学系102の駆動制御(図6,7に示す“レンズ駆動”タイムチャート参照)が行われる(ステップS28)。   On the other hand, if it is determined in step S26 that the position of the photographing optical system 102 is not within the in-focus range, the driving amount of the photographing optical system 102 necessary for focus adjustment is calculated based on the distance measurement result. (Step S27). Then, the calculation result is transmitted to the Lucom 101, and the drive control of the photographing optical system 102 (see the “lens drive” time chart shown in FIGS. 6 and 7) is performed by the Lucom 101 based on the drive amount notified by the Bucom 201 (steps shown in FIGS. 6 and 7). S28).

その後、前回の測距において、補助照明光の照射を行ったか否かを判断する(ステップS29)。ここで、前回の測距において、補助照明光の照射を行ったと判断した場合は、上記ステップS23へ戻り、以降再び補助照明光を用いての測距を行う。また、前回の測距において、補助照明光の照射を行っていないと判断した場合は、上記ステップS21へ戻り、以降のステップを再び繰り返す。   Thereafter, it is determined whether or not the auxiliary illumination light has been irradiated in the previous distance measurement (step S29). If it is determined that the auxiliary illumination light has been irradiated in the previous distance measurement, the process returns to step S23, and the distance measurement is performed again using the auxiliary illumination light. If it is determined in the previous distance measurement that the auxiliary illumination light is not irradiated, the process returns to step S21 and the subsequent steps are repeated.

そして、全く補助照明光を用いずに合焦を完了する場合は、図6に示すタイムチャートのように、通常のライブビュー表示を行いながら測距動作を行うことになる。   When focusing is completed without using any auxiliary illumination light, a ranging operation is performed while performing normal live view display as shown in the time chart of FIG.

以下、図8を参照して、実際の上記擬似的白飛び画像データの表示画面、及びライブビュー表示の表示画面について説明する。なお、図8(a)及び(c)はライブビュー表示の表示画面、図8(b)は擬似的白飛び画像データの表示画面を示しており、補助照明光照射時における上記液晶モニタ222における表示画面の時系列的な変遷としては、(a)→(b)→(c)となる。   Hereinafter, the actual display screen of the pseudo whiteout image data and the display screen of the live view display will be described with reference to FIG. 8A and 8C show a display screen for live view display, and FIG. 8B shows a display screen for pseudo whiteout image data. In the liquid crystal monitor 222 at the time of auxiliary illumination light irradiation, FIG. The time-series transition of the display screen is (a) → (b) → (c).

まず、図8(a)は、ライブビュー表示用撮像素子212bの取得した画像データが上記液晶モニタ222に表示されている画面、すなわちライブビュー表示の表示画面を示した図である。そして、図8(b)は、補助照明光照射時における上記液晶モニタ222の表示画面、すなわち上記擬似的白飛び画像データの表示画面を示した図である。   First, FIG. 8A is a diagram showing a screen on which the image data acquired by the live view display image sensor 212b is displayed on the liquid crystal monitor 222, that is, a display screen for live view display. FIG. 8B shows a display screen of the liquid crystal monitor 222 when the auxiliary illumination light is irradiated, that is, a display screen of the pseudo whiteout image data.

ここで、上記擬似的白飛び画像データは、上述したように補助照明光照射直前にライブビュー表示用撮像素子212bの取得した画像データを加工して生成される。したがって、例えば図8(a)に示す表示画面の画像データが、補助照明光の照射直前にライブビュー表示用撮像素子212bが取得した画像データであるとすると、上記液晶モニタ222の表示画面は補助照明光照射に伴って図8(a)に示す表示画面から図8(b)に示す表示画面に変化する。これらの図から分かるように、ライブビュー表示の表示画面から上記擬似的白飛び画像データの表示画面に切り換わっても、ユーザーにとって視覚的に違和感の無い表示画面の切り換わりとなる。   Here, the pseudo whiteout image data is generated by processing the image data acquired by the live view display imaging element 212b immediately before the auxiliary illumination light irradiation as described above. Therefore, for example, if the image data of the display screen shown in FIG. 8A is image data acquired by the live view display imaging element 212b immediately before the irradiation of the auxiliary illumination light, the display screen of the liquid crystal monitor 222 is auxiliary. With the illumination light irradiation, the display screen shown in FIG. 8A changes to the display screen shown in FIG. As can be seen from these figures, even when the display screen of the live view display is switched to the display screen of the above-described pseudo whiteout image data, the display screen is visually switched without any discomfort.

その後、補助照明光の照射が終了すると、図8(c)に示すように、上記液晶モニタ222にはライブビュー表示用撮像素子212bの取得した画像データを用いた通常のライブビュー表示が再び行われる(図8(c)参照)。このとき、上記液晶モニタ222の表示画面は、図8(b)に示す表示画面から図8(c)に示す表示画面へと切り換わるが、それらの図から分かるように、やはりユーザーにとって視覚的に違和感の無い表示画面の切り換わりとなる。   Thereafter, when the irradiation of the auxiliary illumination light is completed, as shown in FIG. 8C, the liquid crystal monitor 222 performs normal live view display again using the image data acquired by the live view display imaging element 212b. (See FIG. 8C). At this time, the display screen of the liquid crystal monitor 222 is switched from the display screen shown in FIG. 8 (b) to the display screen shown in FIG. 8 (c). The display screen is switched without any discomfort.

以上説明したように、本実施形態によれば、補助照明光の照射が行われた時に、ライブビュー表示を実行中の画像表示装置である液晶モニタ222の表示画面が、不自然な白飛びを起こさず且つ補助照明光照射中であることをユーザーが視覚的に認識可能な画像表示を行うカメラを提供することができる。   As described above, according to the present embodiment, when the auxiliary illumination light is irradiated, the display screen of the liquid crystal monitor 222, which is the image display device that is executing the live view display, has an unnatural whiteout. It is possible to provide a camera that displays an image that can be visually recognized by the user that the auxiliary illumination light irradiation is not occurring.

具体的には、補助照明光としてフラッシュプリ発光が行われている間は、液晶モニタ222には上述した擬似的白飛び画像データが表示される。これにより、補助照明光としてフラッシュプリ発光が行われている間の液晶モニタ222の表示画面に、白飛びが起こることで生じる問題点(ライブビュー表示の実行中に補助照明光の照射が行われてしまうと、その時ライブビュー表示を行っている画像表示装置の表示画面は一瞬真っ白になり、その後もある程度の時間が経過するまで補助照明光照射前の状態の表示画面に戻らないという問題点)が解決する。   Specifically, the above-described pseudo whiteout image data is displayed on the liquid crystal monitor 222 while flash pre-light emission is performed as auxiliary illumination light. As a result, there is a problem that occurs when whiteout occurs on the display screen of the liquid crystal monitor 222 while flash pre-emission is performed as auxiliary illumination light (the illumination of the auxiliary illumination light is performed during live view display). If this happens, the display screen of the image display device that is currently displaying live view will be white for a moment and will not return to the display screen before the auxiliary illumination light irradiation until a certain amount of time has passed. Will be resolved.

なお、上記擬似的白飛び画像データは、補助照明光照射直前にライブビュー表示用撮像素子212bの取得した画像データを加工して生成される。したがって、上記擬似的白飛び画像データは、ライブビュー表示の途中に差し挟む一画像データとしては、非常に好適な画像データである。すなわち、上記擬似的白飛び画像データは、その前後に表示されるライブビュー表示における被写体像と近似的な被写体像を示す画像データである為、ユーザーの視覚にとって違和感は無い。また、上記擬似的白飛び画像データは白色掛かった表示画像である為、補助照明光照射中であることを、ユーザーが感覚的に認識できる。   The pseudo whiteout image data is generated by processing the image data acquired by the live view display imaging element 212b immediately before the auxiliary illumination light irradiation. Therefore, the pseudo whiteout image data is very suitable image data as one image data sandwiched in the middle of live view display. That is, the pseudo whiteout image data is image data indicating a subject image approximate to the subject image in the live view display displayed before and after that, and thus there is no sense of incongruity for the user's vision. Further, since the pseudo whiteout image data is a display image with white, the user can sensuously recognize that the auxiliary illumination light is being irradiated.

以上、一実施形態に基づいて本発明を説明したが、本発明は上述した実施形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形及び応用が可能なことは勿論である。例えば、上記擬似的白飛び画像データは、輝度レベルの変更調節により生成したが、色バランスを変更調節して他の色を強調した画像を生成しても勿論よい。また、上記擬似的白飛び画像データとしては、補助照明光を照射していることが撮影者に感覚的に認識できるような画像データ(例えば白色掛かった表示画像となる画像データ)であれば、デフォルトの画像データとして予め設定しておいても勿論良い。   As mentioned above, although this invention was demonstrated based on one Embodiment, this invention is not limited to embodiment mentioned above, Of course, a various deformation | transformation and application are possible within the range of the summary of this invention. is there. For example, the pseudo whiteout image data is generated by changing and adjusting the luminance level. However, it is of course possible to generate an image in which other colors are emphasized by changing and adjusting the color balance. Moreover, as the above-described pseudo whiteout image data, if it is image data (for example, image data that becomes a display image over white) that the photographer can sensuously recognize that the auxiliary illumination light is being irradiated, Of course, it may be preset as default image data.

また、ライブビュー表示の表示更新の許可についても、測距後に直ちに許可するのではなく、ライブビュー表示用撮像素子212bの飽和状態が元に戻るまでの数駒分の画像データについても表示更新を禁止して擬似白飛び画像データを表示し、その後にライブビュー表示の表示更新を許可することで、不自然な白飛び現象をより完全に防止できる。   In addition, permission to update the display of the live view display is not permitted immediately after the distance measurement, but display update is also performed for several frames of image data until the saturated state of the image sensor 212b for live view display is restored. By prohibiting and displaying the pseudo whiteout image data and then permitting the display update of the live view display, the unnatural whiteout phenomenon can be more completely prevented.

以上、本実施形態はカメラとして一眼レフレックスカメラを例に説明したが、本実施形態は、コンパクトカメラ等の一眼レフレックスカメラ以外のカメラに対しても勿論適用することが出来る。   As described above, the present embodiment has been described by taking a single-lens reflex camera as an example. However, the present embodiment can also be applied to a camera other than a single-lens reflex camera such as a compact camera.

さらに、上述した実施形態には種々の段階の発明が含まれており、開示される複数の構成要件の適当な組み合わせにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、発明が解決しようとする課題の欄で述べた課題が解決でき、発明の効果の欄で述べられている効果が得られる場合には、この構成要件が削除された構成も発明として抽出され得る。   Further, the above-described embodiments include inventions at various stages, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some constituent requirements are deleted from all the constituent requirements shown in the embodiment, the problem described in the column of the problem to be solved by the invention can be solved, and the effect described in the column of the effect of the invention Can be extracted as an invention.

本発明の一実施形態に係るカメラのシステム構成を示す図。The figure which shows the system configuration | structure of the camera which concerns on one Embodiment of this invention. 本発明の一実施形態に係るカメラにおけるファインダー光学系の構成を示す図。1 is a diagram illustrating a configuration of a finder optical system in a camera according to an embodiment of the present invention. 本発明の一実施形態に係るカメラの外観(上面及び背面)を示す図。The figure which shows the external appearance (upper surface and back surface) of the camera which concerns on one Embodiment of this invention. 本発明の一実施形態に係るカメラがライブビュー表示モードに設定されている場合の、撮影時における動作制御を示すフローチャート。The flowchart which shows the operation control at the time of imaging | photography when the camera which concerns on one Embodiment of this invention is set to the live view display mode. 本発明の一実施形態に係るカメラにおける測距及び焦点調節ステップのフローチャート。5 is a flowchart of distance measurement and focus adjustment steps in the camera according to the embodiment of the present invention. 本発明の一実施形態に係るカメラにおける測距及び焦点調節ステップ(補助照明光不使用時)のタイムチャート。4 is a time chart of distance measurement and focus adjustment steps (when auxiliary illumination light is not used) in a camera according to an embodiment of the present invention. 本発明の一実施形態に係るカメラにおける測距及び焦点調節ステップ(補助照明光使用時)のタイムチャート。The time chart of the ranging and the focus adjustment step (at the time of auxiliary illumination light use) in the camera which concerns on one Embodiment of this invention. (a)及び(c)は通常のライブビュー表示の表示画面、(b)は擬似的白飛び画像データの表示画面を示す図。(A) And (c) is a display screen of normal live view display, (b) is a figure which shows the display screen of pseudo whiteout image data.

符号の説明Explanation of symbols

101…レンズ制御用マイクロコンピュータ、 200…カメラ本体、 201…ボディ制御用マイクロコンピュータ、 202c…ファインダー光学系、 212b…ライブビュー表示用撮像素子、 212a…撮影用撮像素子、 217…撮像インターフェイス回路、 218…画像処理コントローラ、 222…液晶モニタ、 226…動作表示用LCD、 227…カメラ操作SW、 240…合焦表示用スーパーインポーズLED、 300…フラッシュ装置、 301…フラッシュ制御回路。     DESCRIPTION OF SYMBOLS 101 ... Lens control microcomputer, 200 ... Camera main body, 201 ... Body control microcomputer, 202c ... Finder optical system, 212b ... Imaging device for live view display, 212a ... Imaging device for imaging | photography, 217 ... Imaging interface circuit, 218 DESCRIPTION OF SYMBOLS ... Image processing controller 222 ... Liquid crystal monitor, 226 ... LCD for operation display, 227 ... Camera operation SW, 240 ... Superimpose LED for focus display, 300 ... Flash device, 301 ... Flash control circuit.

Claims (3)

撮影レンズの焦点ズレ量を検出する測距手段と、
所定の周期で被写体の撮像を行うライブビュー表示用撮像手段と、
上記ライブビュー表示用撮像手段が取得した画像データを順次表示する表示手段と、
上記被写体が低輝度である場合に、上記測距手段による測距時に上記被写体に対して補助照明光を照射する補助照明光照射手段と、
上記補助照明光照射手段が上記被写体に対して補助照明光を照射している間は、上記表示手段に、上記補助照明光照射手段による補助照明光の照射直前に上記ライブビュー表示用撮像手段が取得した画像データに対して画像処理を施した画像データを表示させる制御手段と、
を具備することを特徴とするカメラ。
A distance measuring means for detecting a defocus amount of the photographing lens;
Live view display imaging means for imaging a subject at a predetermined cycle;
Display means for sequentially displaying the image data acquired by the live view display imaging means;
An auxiliary illumination light irradiating means for irradiating the subject with auxiliary illumination light during distance measurement by the distance measuring means when the subject has low brightness;
While the auxiliary illumination light irradiating means irradiates the subject with auxiliary illumination light, the live view display imaging means is displayed on the display means immediately before the auxiliary illumination light irradiation is performed by the auxiliary illumination light irradiating means. Control means for displaying image data obtained by performing image processing on the acquired image data;
A camera comprising:
上記カメラは、画像処理手段を含み、
上記画像処理手段は、上記補助照明光照射手段による補助照明光の照射直前に上記ライブビュー表示用撮像手段が取得した画像データに対して画像処理を施すことで、擬似的白飛び画像データを生成することを特徴とする請求項1に記載のカメラ。
The camera includes image processing means,
The image processing unit generates pseudo whiteout image data by performing image processing on the image data acquired by the live view display imaging unit immediately before the auxiliary illumination light irradiation by the auxiliary illumination light irradiation unit. The camera according to claim 1, wherein:
上記画像処理は、上記補助照明光照射手段による補助照明光の照射直前に上記ライブビュー表示用撮像手段が取得した画像データに対し、該画像データの色バランスを変更せず且つ輝度レベルを上昇させる処理であることを特徴とする請求項2に記載のカメラ。   The image processing increases the luminance level without changing the color balance of the image data acquired by the live view display imaging unit immediately before the auxiliary illumination light irradiation by the auxiliary illumination light irradiation unit. The camera according to claim 2, wherein the camera is a process.
JP2005230936A 2005-08-09 2005-08-09 Camera Pending JP2007049363A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005230936A JP2007049363A (en) 2005-08-09 2005-08-09 Camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005230936A JP2007049363A (en) 2005-08-09 2005-08-09 Camera

Publications (1)

Publication Number Publication Date
JP2007049363A true JP2007049363A (en) 2007-02-22

Family

ID=37851839

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005230936A Pending JP2007049363A (en) 2005-08-09 2005-08-09 Camera

Country Status (1)

Country Link
JP (1) JP2007049363A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8289441B2 (en) 2009-07-02 2012-10-16 Fujifilm Corporation Imaging apparatus and imaging control method
WO2013190762A1 (en) * 2012-06-21 2013-12-27 ソニー株式会社 Imaging device and image display method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8289441B2 (en) 2009-07-02 2012-10-16 Fujifilm Corporation Imaging apparatus and imaging control method
WO2013190762A1 (en) * 2012-06-21 2013-12-27 ソニー株式会社 Imaging device and image display method

Similar Documents

Publication Publication Date Title
JP2006345172A (en) Viewfinder device and camera
JP2008070611A (en) Imaging apparatus, exposure condition adjustment method and program
JP2006295244A (en) Digital camera
JP2008211630A (en) Imaging apparatus
JP2002152558A (en) Camera
JP2006339902A (en) Finder and camera
JP4956403B2 (en) Imaging apparatus, control method thereof, and program
JP4941141B2 (en) Imaging device
JP2007006097A (en) Camera
JP4717840B2 (en) Imaging apparatus and control method thereof
JP2007060131A (en) Camera with live view display function
JP2007049363A (en) Camera
JP2011114441A (en) Imaging apparatus
JP2007248852A (en) Focusing device for camera
JP2005024858A (en) Digital single lens reflex camera
JP4396309B2 (en) Imaging apparatus and imaging method
JP4810768B2 (en) camera
JP2005024857A (en) Digital single lens reflex camera
JP4967579B2 (en) camera
JP2005006217A (en) Digital single lens reflex camera
JP2008257083A (en) Electronic camera
JP2007036951A (en) Camera having electronic viewfinder
JP4780877B2 (en) Electronic camera and control method
JP2009300668A (en) Imaging apparatus and control method for imaging apparatus
JP2005020199A (en) Digital single-lens reflex camera