WO2013047483A1 - 撮影装置、撮影方法及びプログラム - Google Patents

撮影装置、撮影方法及びプログラム Download PDF

Info

Publication number
WO2013047483A1
WO2013047483A1 PCT/JP2012/074490 JP2012074490W WO2013047483A1 WO 2013047483 A1 WO2013047483 A1 WO 2013047483A1 JP 2012074490 W JP2012074490 W JP 2012074490W WO 2013047483 A1 WO2013047483 A1 WO 2013047483A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
optical
interchangeable lens
viewfinder
lens
Prior art date
Application number
PCT/JP2012/074490
Other languages
English (en)
French (fr)
Inventor
武弘 河口
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2013536287A priority Critical patent/JP5607260B2/ja
Priority to CN201280047980.XA priority patent/CN103842903B/zh
Publication of WO2013047483A1 publication Critical patent/WO2013047483A1/ja
Priority to US14/228,652 priority patent/US8848090B2/en

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/02Viewfinders
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/02Viewfinders
    • G03B13/10Viewfinders adjusting viewfinders field
    • G03B13/12Viewfinders adjusting viewfinders field to compensate for change of camera lens or size of picture
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/02Bodies
    • G03B17/12Bodies with means for supporting objectives, supplementary lenses, filters, masks, or turrets
    • G03B17/14Bodies with means for supporting objectives, supplementary lenses, filters, masks, or turrets interchangeably
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/18Signals indicating condition of a camera member or suitability of light
    • G03B17/20Signals indicating condition of a camera member or suitability of light visible in viewfinder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/61Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4"

Definitions

  • the present invention relates to a photographing apparatus, a photographing method, and a program, and relates to a photographing apparatus, a photographing method, and a program that have a finder optical system in addition to the photographing optical system.
  • Patent Document 1 is an electronic camera whose lens can be exchanged, and displays a subject image (field-of-view confirmation image) photographed via a finder optical system on a monitor in the finder, and is used for photographing on the field-of-view confirmation image.
  • An electronic camera that displays a frame indicating a range of an angle of view (photographing range) photographed by an image sensor with an on-screen function is disclosed.
  • Patent Document 1 has a problem that, when communication with an interchangeable lens is not possible, the focal length of the lens cannot be acquired, and thus a frame indicating the photographing range cannot be displayed.
  • the invention described in Patent Document 1 displays a field-of-view confirmation image as an electronic image, but there is a time lag from shooting to display, and an optical image is clearer than an electronic image, so an optical finder is desired. .
  • the present invention has been made in view of such circumstances, and a photographing apparatus capable of displaying a frame indicating a photographing range on an optical image of an optical finder even when communication with an interchangeable lens attached to a camera body is not possible,
  • An object is to provide a photographing method and a program.
  • an imaging apparatus includes a camera mount on which an interchangeable lens is mounted, an image sensor that generates an image signal according to subject light that has passed through the interchangeable lens, and optical of the subject.
  • An optical viewfinder capable of observing an image
  • an electronic viewfinder capable of superimposing and displaying an image on an optical image
  • lens information acquisition means for acquiring information of an interchangeable lens mounted on a camera mount
  • an interchangeable lens of the interchangeable lens in the lens information acquisition means A first display control unit configured to display a captured image based on the image signal on the electronic viewfinder when the information cannot be acquired;
  • the photographing apparatus when the information of the interchangeable lens cannot be acquired, the photographed image based on the image signal generated by the image sensor is displayed on the electronic viewfinder. Thereby, even when an interchangeable lens that cannot communicate is mounted, the captured image can be confirmed.
  • a moving unit that moves a superimposed position of the captured image displayed on the electronic viewfinder by the first display control unit, and a captured image moved by the moving unit.
  • Position determining means for determining the position of the captured image based on the position; display control means for displaying on the electronic viewfinder a shooting range image that can identify the shooting range on the optical image at the position determined by the position determining means; May be provided.
  • the optical finder may include finder magnification changing means for changing the magnification of the optical image.
  • finder magnification changing means for changing the magnification of the optical image.
  • the imaging apparatus may include a storage unit that stores the position of the imaging range image.
  • the storage unit includes a determination unit that determines whether the position of the shooting range image is stored, and the first display control unit stores the position of the shooting range image by the determination unit. If it is determined that the captured image has been displayed, the captured image may be displayed on the electronic viewfinder at the position stored in the storage means instead of displaying the captured image on the electronic viewfinder. Thereby, even when an interchangeable lens that cannot be communicated is attached, the range of the captured image can be confirmed on the optical image of the optical viewfinder.
  • an input unit that receives an input of a change in the position and size of a captured image displayed on the electronic viewfinder, and a position and a size in which the change is input by the input unit.
  • Photographing range determining means for determining a range in which the subject is photographed.
  • the first display control unit may set an image in a range determined by the imaging range determination unit in the captured image as a new captured image.
  • the interchangeable lens includes a zoom lens and a focus lens
  • the lens information acquisition unit acquires position information of the zoom lens and the focus lens in the interchangeable lens mounted on the camera mount.
  • a calculation unit that calculates the position and size of the shooting range image based on the position information of the zoom lens and the focus lens may be provided. Thereby, the frame can be automatically displayed when communication is possible.
  • the finder Shutter control means for shielding the optical image by the shutter.
  • a step of forming an image of subject light that has passed through an interchangeable lens mounted via a camera mount on an image sensor, and information on the interchangeable lens mounted on the camera mount is acquired.
  • the step of imaging the subject light that has passed through the interchangeable lens mounted via the camera mount on the image sensor, the step of acquiring information of the interchangeable lens mounted on the camera mount, and the information of the interchangeable lens could not be acquired.
  • the arithmetic unit is caused to display a captured image based on an image signal generated by the image sensor on an electronic viewfinder that is superimposed and displayed on the optical image of the optical viewfinder.
  • a frame indicating the shooting range can be displayed on the optical image of the optical viewfinder.
  • Block diagram of digital camera 1 The flowchart which shows the flow of a photography preparation process when the interchangeable lens in 1st Embodiment is attached.
  • the figure which shows the image of the display of the hybrid finder in EVF mode The flowchart which shows the flow of the imaging
  • the figure used for explanation of step S44 The figure used for explanation of step S44 The figure used for explanation of step S44 The figure used for explanation of step S44 The flowchart which shows the flow of a photography preparation process when the interchangeable lens in 5th Embodiment is attached.
  • Figure showing the image of electronic viewfinder display Figure showing the image of electronic viewfinder display
  • FIG. 1 is a block diagram illustrating an example of the internal configuration of the digital camera 1.
  • the digital camera 1 is a digital camera that receives light passing through a lens with an imaging device, converts the light into a digital signal, and records it on a storage medium.
  • the operation of the entire apparatus is centrally controlled by a central processing unit (CPU) 41. .
  • CPU central processing unit
  • the digital camera 1 includes a power supply 11, an imaging device 13, an AFE (Analog Front End) 14, a DSP (Digital Signal Processor) 15, a recording medium 16, an operation unit 17, an LCD driver 18, and a system bus 19. , SDRAM 20, flash ROM 21, flash 27, LCD 22, hybrid finder (HVF) 50, and driver 25 for driving the interchangeable lens 12, the optical finder 51, and the electronic viewfinder 52 connected to the serial I / O terminal of the DSP 15. , 26, 24.
  • FIG. 1 illustrates the case where the interchangeable lens 12 is attached to the digital camera 1, various types of interchangeable lenses can be attached to the digital camera 1.
  • the power source 11 includes a battery and a power control unit (not shown), and supplies power to each block of the digital camera 1.
  • Each block supplied with power is controlled and operated by a CPU 41 provided in the DSP 15, and the CPU 41 controls each unit of the digital camera 1 by executing a predetermined control program based on an input from the operation unit 17.
  • the operation unit 17 includes a release switch, a mode dial, a playback button, a MENU / OK key, a cross key, a BACK key, and the like.
  • a signal from the operation unit 17 is input to the CPU 41, and the CPU 41 is based on the input signal. 1 is controlled, for example, lens drive control, aperture drive control, shooting operation control, image processing control, image data recording / playback control, display control of the LCD 22 for stereoscopic display, and the like.
  • the release switch is an operation button for inputting an instruction to start shooting, and is composed of a two-stroke switch having an S1 switch that is turned on when half-pressed and an S2 switch that is turned on when fully pressed.
  • the mode dial is a selection means for selecting a 2D shooting mode, a 3D shooting mode, an auto shooting mode, a manual shooting mode, a scene position such as a person, a landscape, a night view, a macro mode, a moving image mode, and a parallax priority shooting mode according to the present invention. is there.
  • the playback button is a button for switching to a playback mode in which a still image or a moving image of a stereoscopic image (3D image), a planar image (2D image), or a captured image is displayed on the LCD 22.
  • the MENU / OK key is an operation key having both a function as a menu button for instructing to display a menu on the screen of the LCD 22 and a function as an OK button for instructing confirmation and execution of selection contents.
  • the cross key is an operation unit for inputting instructions in four directions, up, down, left, and right, and functions as a button (cursor moving operation means) for selecting an item from the menu screen or instructing selection of various setting items from each menu. To do.
  • the up / down key of the cross key functions as a zoom switch for shooting or a playback zoom switch in playback mode
  • the left / right key functions as a frame advance (forward / reverse feed) button in playback mode.
  • the BACK key is used to delete a desired object such as a selection item, cancel an instruction content, or return to the previous operation state.
  • the flash ROM 21 stores various parameters necessary for control, pixel defect data of the image sensor 13, and the like.
  • the CPU 41 controls each part of the digital camera 1 by reading the control program recorded in the program ROM into the SDRAM 20 and executing it sequentially.
  • the SDRAM 20 is used as a program execution processing area, a temporary storage area for image data, and various work areas.
  • the interchangeable lens 12 is mechanically and electrically connected to the camera body of the digital camera 1 through a camera mount (not shown).
  • the interchangeable lens 12 includes a zoom lens 31, a focus lens 32, an iris 33, and a shutter 34, and is driven by a lens driver 25 based on instructions from the CPU 41, respectively.
  • the user manually drives the zoom lens 31, the focus lens 32, the iris 33, and the shutter 34 via a rotating ring (not shown) or the like.
  • the zoom lens 31 and the focus lens 32 move back and forth on the same optical axis to perform zoom and focus.
  • the iris 33 controls the amount of light incident on the image sensor 13 and controls the exposure together with the shutter speed.
  • the iris 33 is made up of, for example, five diaphragm blades, and is subjected to aperture control in six steps from 1 to the aperture values from the aperture values F1.4 to F11.
  • the shutter 34 operates so that subject light that has passed through the zoom lens 31, the focus lens 32, and the iris 33 is incident on the image sensor 13 for a predetermined time.
  • the image sensor 13 is disposed at the rear stage of the shutter 34 and receives subject light via the interchangeable lens 12.
  • the imaging device 13 includes a light receiving surface on which a large number of light receiving devices are arranged in a matrix.
  • the subject light that has passed through the interchangeable lens 12 forms an image on the light receiving surface of the image pickup device 13 and is converted into an electric signal by each light receiving device.
  • An image sensor such as a CMOS or CCD can be used as the image sensor.
  • the AFE 14 includes a gain-up unit 35, an A / D converter 36, and a timing generator 37, and the imaging device 13 is synchronized with the vertical transfer clock and horizontal transfer clock supplied from the timing generator 37 for each pixel.
  • the accumulated charge is output as a serial image signal line by line.
  • the CPU 41 controls the timing generator 37 to control the driving of the image sensor 13.
  • the charge accumulation time (exposure time) of each pixel is determined by the electronic shutter drive signal given from the timing generator 37.
  • the CPU 41 instructs the timing generator 37 on the charge accumulation time.
  • the output of the image signal is started when the digital camera 1 is set to the shooting mode.
  • the digital camera 1 when the digital camera 1 is set to the photographing mode, output of an image signal is started to display a through image on the LCD 22.
  • the output of the image signal for the through image is temporarily stopped when the instruction for the main photographing is given, and is started again when the main photographing is finished.
  • the image signal output from the image sensor 13 is an analog signal, and the analog image signal is taken into the gain-up unit 35.
  • the gain-up unit 35 includes a correlated double sampling circuit (CDS) and an automatic gain control circuit (AGC).
  • CDS correlated double sampling circuit
  • AGC automatic gain control circuit
  • the CDS removes noise contained in the image signal, and the AGC amplifies the noise-removed image signal with a predetermined gain.
  • the analog image signal that has undergone the required signal processing by the gain-up unit 35 is taken into the A / D converter 36.
  • the A / D converter 36 converts the captured analog image signal into a digital image signal having a gradation width of a predetermined bit.
  • This image signal is so-called RAW data, and has gradation values indicating the density of R, G, and B for each pixel.
  • This digital image signal is taken into the DSP 15.
  • the DSP 15 includes an image buffer 42, a YC processing unit 43, an AE / AWB detection circuit 44, an AF detection circuit 45, a timer 46, a compression / decompression unit 47, a recording media interface 48, a video encoder 49, and the like. ing. These are connected to the system bus 19 and can transmit / receive information to / from each other via the system bus 19.
  • the image buffer 42 stores an image signal for one frame taken from the A / D converter 36.
  • the AF detection circuit 45 takes in R, G, and B image signals stored in the image buffer 42 according to a command from the CPU 41, and calculates a focus evaluation value necessary for AF (Automatic Focus) control.
  • the AF detection circuit 45 includes a high-pass filter that passes only a high-frequency component of the G signal, an absolute value processing unit, and an AF area extraction unit that cuts out a signal within a predetermined focus area (hereinafter referred to as an AF area) set on the screen. And an integration unit that integrates the absolute value data in the AF area, and outputs the absolute value data in the AF area integrated by the integration unit to the CPU 41 as a focus evaluation value.
  • a position where the focus evaluation value is maximized is searched and the focus lens 32 is moved to that position, or the focus lens group is moved in a direction in which the focus evaluation value increases.
  • a hill-climbing method in which a focus lens group is set at that point can be used.
  • the AE / AWB detection circuit 44 takes in the R, G, and B image signals stored in the image buffer 42, integrates the G signals of the entire screen, or gives different weights to the central portion and the peripheral portion of the screen.
  • the signals are integrated and an integrated value necessary for the AE control is output to the CPU 41.
  • CPU41 calculates a luminance value from an integrated value, and calculates
  • the AE / AWB detection circuit 44 divides one screen into a plurality of areas (for example, 16 ⁇ 16) as physical quantities necessary for AWB control, and the colors of the R, G, and B image signals for each divided area. Calculate another average integrated value.
  • the CPU 41 obtains a ratio of R / G and B / G for each divided area from the obtained R accumulated value, B accumulated value, and G accumulated value, and R of the obtained R / G and B / G values.
  • the light source type is discriminated based on the distribution in the color space of / G and B / G.
  • the AE / AWB detection circuit 44 performs white balance adjustment by applying a digital gain corresponding to the type of light source to the image signal for one frame stored in the image buffer 42, and also performs gamma (gradation characteristics) processing and sharpness processing. To generate R, G, and B signals.
  • the YC processing unit 43 performs predetermined signal processing on the image signals of R, G, and B colors captured in a dot-sequential manner, and generates an image signal (Y / C signal) composed of a luminance signal Y and color difference signals Cr and Cb. ) Is generated.
  • This Y / C signal is stored in the SDRAM 20.
  • the compression / decompression unit 47 performs compression processing in a predetermined format (for example, JPEG) on the input Y / C signal in accordance with a compression command from the CPU 41 to generate compressed image data. Further, in accordance with a decompression command from the CPU 41, the input compressed image data is subjected to decompression processing in a predetermined format to generate uncompressed image data.
  • a predetermined format for example, JPEG
  • the video encoder 49 controls display on the LCD 22 via the driver 18 in accordance with a command from the CPU 41.
  • the LCD 22 can display a moving image (through image) and can be used as an electronic viewfinder, and can display a photographed image (preview image) before recording, a reproduced image read from a recording medium loaded in the camera, and the like. .
  • the LCD 22 displays various menu screens for manually setting the camera operation mode, white balance, image pixel number, sensitivity, and the like according to the operation of the mode dial or the menu button.
  • a screen for a graphical user interface (GUI) capable of setting manual setting items accordingly is displayed.
  • GUI graphical user interface
  • the recording media interface 48 controls reading / writing of data with respect to the recording media 16 in accordance with a command from the CPU 41.
  • the recording medium 16 may be detachable from the camera body such as a memory card, or may be built into the camera body. In the case of detachable, a card slot is provided in the camera body, and the card slot is used by being loaded.
  • the timer 46 measures the timer time in the self-timer mode, and measures the repetition time of the finder display process (detailed later).
  • the hybrid viewfinder 50 is mainly composed of an optical viewfinder 51, an electronic viewfinder 52, a prism 53, and a viewfinder shutter 54, and the optical image of the optical viewfinder 51 and the electronic viewfinder 52 are connected via one eyepiece. An electronic image can be visually recognized.
  • the optical viewfinder 51 is a variable magnification finder whose magnification can be changed in stages with the magnification of the interchangeable lens 12, and is mainly provided between the objective lens, the eyepiece lens, and the optical path of the optical viewfinder 51.
  • a finder optical system including a variable magnification lens disposed in the interior of the zoom lens.
  • the variable power lens is driven via the driver 23 according to an instruction from the CPU 41.
  • the CPU 41 zooms so that the angle of view of the image (captured image) captured by the image sensor 13 and the angle of view of the optical viewfinder 51 substantially coincide.
  • the variable power lens is moved according to the magnification of the lens 31.
  • the electronic viewfinder 52 is a liquid crystal panel, for example, and is used as a display means for captured images and frames.
  • the display of the electronic viewfinder 52 is guided to the eyepiece portion of the optical finder 51 by a prism 53 disposed in the optical path of the optical finder 51.
  • the finder shutter 54 is, for example, a liquid crystal shutter, and is disposed in the optical path of the optical finder 51 and closer to the objective lens than the prism 53. When the viewfinder shutter 54 is closed, no optical image is displayed on the hybrid viewfinder 50, and only the electronic image of the electronic viewfinder 52 is visible.
  • a program for causing the CPU 41 to execute the imaging process is a program storage configured by a non-transitory computer-readable recording medium (RAM, ROM, memory card, etc.) existing inside or outside the digital camera 1. Stored in the department.
  • FIG. 2 is a flowchart showing the flow of processing in the shooting preparation stage when an interchangeable lens is attached to the digital camera 1. This process is mainly performed by the CPU 41.
  • the interchangeable lens is attached to the camera body of the digital camera 1 (step S10).
  • the subject light that has passed through the interchangeable lens forms an image on the light receiving surface of the image sensor 13 through the diaphragm 14.
  • the signal charges stored in the main pixel and subpixel of the image sensor 13 are sequentially read out by the timing generator 37 as a voltage signal (image signal) corresponding to the signal charge at a predetermined frame rate, and image data is sequentially generated.
  • the generated image data is sequentially input to the SDRAM 20.
  • the CPU 41 changes the aperture amount (F value) of the diaphragm 14 based on the image data.
  • the CPU 41 determines whether it is possible to communicate with the interchangeable lens, that is, whether the interchangeable lens is electrically connected (step S12).
  • the CPU 41 obtains position information of the zoom lens 31 and the focus lens 32 of the interchangeable lens, that is, the focal length and subject distance of the interchangeable lens (step). S14). Based on the focal length of the interchangeable lens, the subject distance, the magnification of the optical viewfinder 51, and the positional relationship between the optical viewfinder 51 and the optical axis of the interchangeable lens, the CPU 41 captures the range of the subject image photographed by the image sensor 13 (shooting range). The position and size of a frame that is a frame indicating the position is calculated (step S16). When the positions of the zoom lens 31 and the focus lens 32 of the interchangeable lens are changed, the CPU 41 acquires the focal length and subject distance of the interchangeable lens and recalculates the position and size of the frame frame. Is desirable.
  • step S12 If the interchangeable lens is not electrically connected (NO in step S12), the CPU 41 does not know where to display the frame frame, so the adjustment mode is set by a user operation (steps S18 to S24). That is, as shown in FIG. 3, the CPU 41 displays an image (captured image) captured by the image sensor 13 on the electronic viewfinder 52 (step S18). The CPU 41 causes the electronic viewfinder 52 to continuously display the sequentially generated image data.
  • the CCD 41 opens the finder shutter 54 via the driver 26 and displays an optical image on the optical finder 51 as shown in FIG. 4 (step S20). As a result, as shown in FIG. 5, an electronic image is superimposed on the optical image on the hybrid finder 50. In FIG. 5, the appearance of the optical viewfinder 51 and the outline of the display content of the electronic viewfinder 52 are not connected.
  • the CPU 41 may perform processing such as edge enhancement on the captured image displayed on the electronic viewfinder 52 in order to facilitate later processing.
  • FIG. 6 is a diagram in which the position and size of the captured image are changed from the state shown in FIG. In FIG. 6, the appearance of the optical viewfinder 51 and the outline of the display content of the electronic viewfinder 52 are connected without a sense of incongruity.
  • the CPU 41 sets the range of the captured image whose position and size have been changed in step S22 as the position and size of the frame (step S24).
  • the CPU 41 causes the electronic viewfinder 52 to display the frame frame at the position and size of the frame frame calculated at step S16 or at the position and size of the frame frame determined at step S24 (step S26). As a result, as shown in FIG. 7, the frame frame is displayed so as to overlap the optical image of the optical viewfinder 51.
  • the processing illustrated in FIG. 2 may be performed periodically at predetermined intervals, or may be performed by the user instructing via the operation unit 17 when the zoom lens 31 or the focus lens 32 is moved. Good.
  • the CPU 41 performs zooming by moving the zoom lens 31 along the optical axis via the driver 25 in accordance with an input from the operation unit 17 while looking at the frame.
  • an S1 ON signal is input to the CPU 41, and the CPU 41 performs an AE / AF / AWB operation via the AF detection circuit 45 and the AE / AWB detection circuit 44.
  • an S2 ON signal is input to the CPU 41, and the CPU 41 starts photographing and recording processing. That is, the image sensor 13 is exposed with the shutter speed and aperture value determined based on the photometric result.
  • the image data output from the image sensor 13 is taken into the YC processing unit 43 via the AFE 14 to generate an image signal (Y / C signal), and the compression / decompression unit 47 follows a predetermined compression format (for example, JPEG format). After being compressed, it is stored in the SDRAM 20.
  • a predetermined compression format for example, JPEG format
  • a JPEG file is generated from the compressed data stored in the SDRAM 20, and the JPEG file is recorded on the recording medium 16 via the recording medium interface 48. As a result, an image is taken and recorded.
  • the image recorded on the recording medium 16 as described above can be reproduced and displayed on the LCD 22 by setting the mode of the digital camera 1 to the reproduction mode with the reproduction button.
  • the CPU 41 When the playback mode is set, the CPU 41 outputs a command to the recording media interface 48 to read out the image file recorded last on the recording media 16.
  • the compressed image data of the read image file is added to the compression / decompression unit 47, decompressed to an uncompressed luminance / color difference signal, and then output to the LCD 22 via the video encoder 49.
  • the frame advance of the image is performed by operating the left and right keys of the cross key.
  • the right key of the cross key is pressed, the next image file is read from the recording medium 16 and reproduced and displayed on the LCD 22.
  • the left key of the cross key is pressed, the previous image file is read out from the recording medium 16 and reproduced and displayed on the LCD 22.
  • the frame frame suitable for the interchangeable lens can be displayed on the optical viewfinder with a simple adjustment.
  • the camera lens correction function is not provided in the photographing lens or the image pickup device, but it is desirable that the camera shake correction function is turned off when the camera lens correction function is provided.
  • the frame frame is displayed as an image indicating the shooting range.
  • the frame frame is not limited to the frame frame as long as the shooting range can be identified.
  • a mark indicating an extension point of the imaging range area may be displayed, or a semi-transparent masking area other than the imaging range may be displayed.
  • magnification of the optical viewfinder and the electronic viewfinder (hereinafter referred to as finder magnification) is not changed, but it may be appropriate to change the finder magnification.
  • the finder magnification is changed as necessary.
  • the digital camera 1-1 according to the second embodiment will be described below. Note that description of the same parts as those of the first embodiment is omitted.
  • FIG. 8 is a flowchart showing the flow of processing in the shooting preparation stage when the interchangeable lens is attached to the digital camera 1. This process is mainly performed by the CPU 41.
  • the interchangeable lens is attached to the camera body of the digital camera 1 (step S10).
  • the CPU 41 determines whether communication with the interchangeable lens is possible, that is, whether the interchangeable lens is electrically connected (step S12).
  • the CPU 41 obtains position information of the zoom lens 31 and the focus lens 32 of the interchangeable lens, that is, the focal length and subject distance of the interchangeable lens (step). S14). Based on the focal length of the interchangeable lens, the subject distance, the magnification of the optical viewfinder 51, and the positional relationship between the optical viewfinder 51 and the optical axis of the interchangeable lens, the CPU 41 captures the range of the subject image photographed by the image sensor 13 (shooting range). The position and size of a frame that is a frame indicating the position is calculated (step S16).
  • the CPU 41 When the interchangeable lens is not electrically connected (NO in step S12), the CPU 41 does not know where to display the frame frame, so the adjustment mode by the user operation is set.
  • the CPU 41 displays an image (captured image) captured by the image sensor 13 on the electronic viewfinder 52 (step S18).
  • the CCD 41 opens the finder shutter 54 via the driver 26 and causes the optical finder 51 to display an optical image (step S20).
  • the hybrid finder 50 displays as shown in FIG.
  • the CPU 41 determines whether or not the ratio of the captured image displayed on the electronic viewfinder 52 to the optical image of the optical viewfinder 51 is equal to or less than a certain value (step S30). If the ratio of the captured image displayed on the electronic viewfinder 52 to the optical image of the optical viewfinder 51 is equal to or less than a certain value (YES in step S30), the CPU 41 can zoom the optical viewfinder 51, that is, the optical viewfinder. It is determined whether or not the finder magnification of 51 can be increased (step S32). *
  • step S34 the finder magnification may be automatically increased to a predetermined magnification, or the optical finder 51 is set so that the size of the optical image matches the size of the captured image based on an instruction from the operation unit 17 of the user.
  • the viewfinder magnification may be changed. Thereby, the hybrid finder 50 has a field of view suitable for photographing.
  • the CPU 41 optically displays the captured image displayed on the electronic viewfinder 52. It is determined whether or not the ratio of the viewfinder 51 to the optical image is a certain value or more (step S36).
  • the CPU 41 determines whether the optical viewfinder 51 can be set to the wide-angle side. Is determined (step S38).
  • the CPU 41 lowers the optical viewfinder 51, that is, the viewfinder magnification of the optical viewfinder 51, as shown in FIG. 12 (step S40).
  • the viewfinder magnification may be automatically reduced to a predetermined magnification, or the optical viewfinder 51 is set so that the size of the optical image matches the size of the captured image based on an instruction from the operation unit 17 of the user.
  • the viewfinder magnification may be changed.
  • the hybrid finder 50 has a field of view suitable for photographing.
  • step S34 and S40 When the finder magnification of the optical finder is changed (steps S34 and S40), when the finder magnification is not changed (NO at steps S32 and S38), and when the EVF region is not less than a certain value or more than a certain value ( In step S36 NO), the user uses the four-way key of the operation unit 17 to indicate four directions, up, down, left, and right so that the image displayed on the electronic viewfinder 52 matches the optical image of the optical viewfinder 51. Enter an instruction to change (enlarge or reduce) the size. When an instruction is input, the CPU 41 detects this and changes the position and size of the captured image displayed on the electronic viewfinder 52 in accordance with the input of the cross key (step S22).
  • the CPU 41 sets the range of the captured image whose position and size have been changed in step S22 as the position and size of the frame (step S24).
  • the CPU 41 causes the electronic viewfinder 52 to display the frame frame at the position and size of the frame frame calculated at step S16 or at the position and size of the frame frame determined at step S24 (step S26).
  • the finder magnification of the optical viewfinder can be changed, even when an interchangeable lens that cannot communicate is mounted on the camera body, the frame frame that was on the interchangeable lens can be photographed with simple adjustment. It is possible to superimpose and display the optical image in a field of view suitable for the region.
  • the finder magnification of the optical finder is changed. However, it may be difficult to see depending on the finder magnification.
  • the electronic viewfinder is switched depending on the finder magnification.
  • the digital camera 1-2 according to the third embodiment will be described below. The description of the same parts as those in the first and second embodiments is omitted.
  • FIG. 13 is a flowchart showing a flow of processing in a shooting preparation stage when an interchangeable lens is attached to the digital camera 1. This process is mainly performed by the CPU 41.
  • the interchangeable lens is attached to the camera body of the digital camera 1 (step S10).
  • the CPU 41 determines whether communication with the interchangeable lens is possible, that is, whether the interchangeable lens is electrically connected (step S12).
  • the CPU 41 obtains position information of the zoom lens 31 and the focus lens 32 of the interchangeable lens, that is, the focal length and subject distance of the interchangeable lens (step). S14). Based on the focal length of the interchangeable lens, the subject distance, the magnification of the optical viewfinder 51, and the positional relationship between the optical viewfinder 51 and the optical axis of the interchangeable lens, the CPU 41 captures the range of the subject image photographed by the image sensor 13 (shooting range). The position and size of a frame that is a frame indicating the position is calculated (step S16).
  • the CPU 41 When the interchangeable lens is not electrically connected (NO in step S12), the CPU 41 does not know where to display the frame frame, so the adjustment mode by the user operation is set.
  • the CPU 41 displays an image (captured image) captured by the image sensor 13 on the electronic viewfinder 52 (step S18).
  • the CCD 41 opens the finder shutter 54 via the driver 26 and causes the optical finder 51 to display an optical image (step S20).
  • the CPU 41 determines whether or not the optical viewfinder 51 is in an OVF mode in which an optical image is visible, that is, whether or not the viewfinder shutter 54 is closed (step S42). If it is the OVF mode (YES in step S42), the CPU 41 determines whether or not the ratio of the captured image displayed on the electronic viewfinder 52 to the optical image of the optical viewfinder 51 is equal to or less than a certain value. (Step S30). If the ratio of the captured image displayed on the electronic viewfinder 52 to the optical image of the optical viewfinder 51 is equal to or less than a certain value (YES in step S30), the CPU 41 can zoom the optical viewfinder 51, that is, the optical viewfinder. It is determined whether or not the finder magnification of 51 can be increased (step S32).
  • the CPU 41 zooms the optical finder 51 to increase the finder magnification of the optical finder 51 (step S34).
  • step S32 If the optical viewfinder 51 cannot be zoomed (NO in step S32), the viewfinder shutter 54 is closed, and the hybrid viewfinder 50 is changed to the EVF mode in which only the image of the electronic viewfinder 52 is visible as shown in FIG. S44), the process is terminated.
  • step S42 determines whether the display area is to be expanded, that is, whether the captured image is to be enlarged (step). S46). If the photographed image is not to be enlarged (NO in step S46), the process ends in the EVF mode as it is.
  • step S46 If the photographed image is to be enlarged (YES in step S46), the viewfinder shutter 54 is opened to change the hybrid viewfinder 50 to the OVF mode, and the photographed image is displayed on the electronic viewfinder 52 and superimposed on the optical image. (Step S48).
  • step S34 When the EVF region is not below a certain value (NO in step S30), when the finder magnification of the optical finder is changed (step S34), and when the mode is changed to the OVF mode (step S48), the user Using the four-way key of the operation unit 17, up / down / left / right directions and size change (enlargement / reduction) instructions are given so that the image displayed on the viewfinder 52 matches the optical image of the optical viewfinder 51. input. When an instruction is input, the CPU 41 detects this and changes the position and size of the captured image displayed on the electronic viewfinder 52 in accordance with the input of the cross key (step S22).
  • the CPU 41 sets the range of the captured image whose position and size have been changed in step S22 as the position and size of the frame (step S24).
  • the CPU 41 causes the electronic viewfinder 52 to display the frame frame at the position and size of the frame frame calculated at step S16 or at the position and size of the frame frame determined at step S24 (step S26).
  • the optical magnification of the interchangeable lens when the optical magnification of the interchangeable lens is high, even if the frame frame is displayed on the optical viewfinder, the area becomes too small and the shooting area may be difficult to see. It can be solved by changing.
  • the electronic viewfinder when the optical viewfinder cannot be wide-angled, the electronic viewfinder is switched.
  • the digital camera 1-3 according to the fourth embodiment will be described below. The description of the same parts as those of the first, second and third embodiments is omitted.
  • FIG. 15 is a flowchart showing the flow of processing in the shooting preparation stage when the interchangeable lens is attached to the digital camera 1. This process is mainly performed by the CPU 41.
  • the interchangeable lens is attached to the camera body of the digital camera 1 (step S10).
  • the CPU 41 determines whether communication with the interchangeable lens is possible, that is, whether the interchangeable lens is electrically connected (step S12).
  • the CPU 41 obtains position information of the zoom lens 31 and the focus lens 32 of the interchangeable lens, that is, the focal length and subject distance of the interchangeable lens (step). S14). Based on the focal length of the interchangeable lens, the subject distance, the magnification of the optical viewfinder 51, and the positional relationship between the optical viewfinder 51 and the optical axis of the interchangeable lens, the CPU 41 captures the range of the subject image photographed by the image sensor 13 (shooting range). The position and size of a frame that is a frame indicating the position is calculated (step S16).
  • the CPU 41 When the interchangeable lens is not electrically connected (NO in step S12), the CPU 41 does not know where to display the frame frame, so the adjustment mode by the user operation is set.
  • the CPU 41 displays an image (captured image) captured by the image sensor 13 on the electronic viewfinder 52 (step S18).
  • the CCD 41 opens the finder shutter 54 via the driver 26 and causes the optical finder 51 to display an optical image (step S20).
  • the CPU 41 determines whether or not the optical viewfinder 51 is in an OVF mode in which an optical image is visible, that is, whether or not the viewfinder shutter 54 is closed (step S42). If it is the OVF mode (YES in step S42), the CPU 41 determines whether or not the captured image displayed on the electronic viewfinder 52 is the maximum size (step S50). If the captured image has the maximum size (YES in step S50), the CPU 41 determines whether or not the finder magnification of the optical finder 51 can be set to a wide angle (step S38).
  • the CPU 41 lowers the finder magnification of the optical finder 51, that is, the finder magnification of the optical finder 51 (step S40).
  • the finder magnification of the optical finder 51 cannot be set to a wide angle (NO in step S38), for example, the optical image as shown in FIG. 16 is wider than the photographed image as shown in FIG. In such a case, the display of the hybrid finder 50 is as shown in FIG. In this case, as shown in FIG. 19, even if the captured image is maximized in wide angle, the captured image may not be enlarged to approximately the same size as the optical image. Therefore, the CPU 41 closes the viewfinder shutter 54, changes the hybrid viewfinder 50 to the EVF mode in which only the image of the electronic viewfinder 52 is visible as shown in FIG. 14 (step S44), and ends the process.
  • step S42 the CPU 41 determines whether the display area is to be narrowed, that is, whether the captured image is to be reduced (step S52). If the captured image is not to be reduced (NO in step S52), the process ends in the EVF mode as it is.
  • the CPU 41 opens the finder shutter 54, changes the hybrid finder 50 to the OVF mode, and further displays the captured image on the electronic viewfinder 52 to display the optical image. Is superimposed and displayed (step S48).
  • step S50 When the EVF area is not maximum (NO in step S50), when the finder magnification of the optical finder is changed (step S40), and when the mode is changed to the OVF mode (step S48), the user performs the electronic viewfinder 52.
  • the cross key on the operation unit 17 is used to input an instruction in four directions (up, down, left and right) and a change in size (enlargement and reduction).
  • the CPU 41 detects this and changes the position and size of the captured image displayed on the electronic viewfinder 52 in accordance with the input of the cross key (step S22).
  • the CPU 41 sets the range of the captured image whose position and size have been changed in step S22 as the position and size of the frame (step S24).
  • the CPU 41 causes the electronic viewfinder 52 to display the frame frame at the position and size of the frame frame calculated at step S16 or at the position and size of the frame frame determined at step S24 (step S26).
  • the interchangeable lens has a wider angle than the optical finder, the problem that the photographing area cannot be seen with the optical finder can be solved by changing to the EVF mode.
  • the frame frame of the interchangeable lens is displayed on the optical viewfinder, but the interchangeable lens may not be the size of the image sensor.
  • the angle of view is adjusted by limiting the use range of the image sensor.
  • a digital camera 1-4 according to the fifth embodiment will be described below. The description of the same parts as those in the first to fourth embodiments is omitted.
  • FIG. 20 is a flowchart showing a flow of processing in the shooting preparation stage when the interchangeable lens is attached to the digital camera 1. This process is mainly performed by the CPU 41.
  • the interchangeable lens is attached to the camera body of the digital camera 1 (step S10).
  • the CPU 41 confirms the image (captured image) captured by the image sensor 13, and determines whether or not vignetting as shown in FIG. 21 has occurred (step S54).
  • the surrounding black part is a vignetting part.
  • the CPU 41 can automatically determine whether there is vignetting by detecting the size and shape of the black area. For example, the CPU 41 detects a dark part based on an output value (for example, an integrated value) of the image sensor 13, and when the captured image is electronically zoomed (enlarged a part of the area) with the same aspect, the dark part is detected. Whether or not there is vignetting can be determined based on whether or not it disappears. Further, the CPU 41 may display a captured image on the electronic viewfinder 52 or the LCD 22 and make a determination based on an instruction input by the user via the operation unit 17.
  • the CPU 41 performs vignetting adjustment for extracting an area having the same aspect ratio as that of the image sensor 13 within the light receiving range of the image sensor 13 as shown in FIG. 22 (step S56).
  • the CPU 41 can automatically perform vignetting adjustment by a method similar to so-called electronic zoom. Further, the CPU 41 displays the captured image on the electronic viewfinder 52 or the LCD 22, and the user inputs the position and size via the operation unit 17, and the input position and size are set as the range where the subject is captured. The vignetting adjustment may be performed by doing so.
  • step S58 determines whether or not the frame frame needs to be adjusted. The processing in this step may be performed based on an instruction input by the user via the operation unit 17. Further, the CPU 41 first performs steps S30 and S32. If these steps are YES, the CPU 41 may perform step S34 and then set step S58 to YES, or first perform steps S50 and S38. In the case of YES in step S58, step S58 may be set to YES after performing step S40.
  • step S58 the CPU 41 performs the processing of steps S10 to S24 (see FIG. 2) which is the frame frame adjustment processing. Since it has already been described, detailed description of the processing of steps S10 to S24 is omitted.
  • step S18 an image in a range where the subject input in step S56 is captured among the captured images acquired by the image sensor 13 is displayed on the electronic viewfinder 52 as a new captured image.
  • the interchangeable lens does not match the size of the image sensor, and even when vignetting occurs on the image sensor, it is suitable for shooting by using an area without vignetting as a shooting area. You can shoot at the angle of view.
  • the frame frame suitable for the interchangeable lens is displayed on the optical viewfinder, but it is difficult to perform the same processing for the second and subsequent times.
  • settings such as vignetting amount, frame frame size / position / finder magnification, etc. are stored for each interchangeable lens, and can be used immediately by simply reading the settings at the next use. It is a form to do.
  • the digital camera 1-5 according to the sixth embodiment will be described below. The description of the same parts as those in the first to fifth embodiments is omitted.
  • FIG. 23 is a flowchart showing the flow of processing in the shooting preparation stage when the interchangeable lens is attached to the digital camera 1. This process is mainly performed by the CPU 41.
  • the interchangeable lens is attached to the camera body of the digital camera 1 (step S10).
  • the CPU 41 determines whether or not the setting relating to the interchangeable lens can be read from the flash ROM 21 (step S60).
  • the CPU 41 receives this and determines whether the setting related to the name or number of the interchangeable lens is stored in the flash ROM 21.
  • the settings relating to the interchangeable lens include the amount of vignetting (result of the vignetting adjustment process shown in FIG. 20), the size and position of the frame, and the viewfinder magnification of the optical viewfinder 51, and are stored in association with the name or number of the interchangeable lens. ing.
  • step S60 If the setting can be read (YES in step S60), the CPU 41 reads the setting relating to the interchangeable lens from the flash ROM 21 (step S62), and displays a frame frame based on the read setting (step S64).
  • step S60 If the setting cannot be read (NO in step S60), the setting relating to the interchangeable lens is not stored in the flash ROM 21, and the vignetting adjustment process (steps S54 to S58) and the frame frame adjustment process (steps shown in FIG. 20). Steps S12 to S26) are performed. Since these processes have already been described, description thereof will be omitted.
  • the CPU 41 stores the adjusted setting in the flash ROM 21 in association with the name or number of the interchangeable lens (step S66).
  • the name or number of the interchangeable lens may be automatically assigned by the CPU 41 according to a predetermined rule, or may be input by the user.
  • the setting relating to the interchangeable lens is given a name and saved, and the next time the same interchangeable lens is attached, it can be used immediately by simply reading the setting. Can be in a state.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Viewfinders (AREA)
  • Structure And Mechanism Of Cameras (AREA)

Abstract

 交換レンズがカメラ本体に取り付けられたら(ステップS10)、CPUは、交換レンズと通信可能であるかを判断し(ステップS12)、通信できない場合(ステップS12でNO)は、CCDが撮影した画像(撮影画像)の電子像と光学ファインダの光学像とを重畳表示させる(ステップS18、S20)。撮影画像が光学像に一致するように移動指示及び大きさの変更(拡大、縮小)の指示がユーザにより入力されると、CPUはこれを検出し、撮影画像の位置及び大きさを変更する(ステップS22)。CPUは、ステップS22で変更された撮影画像の範囲をフレーム枠の位置及び大きさとして(ステップS24)、電子ビューファインダに表示させる(ステップS26)。

Description

撮影装置、撮影方法及びプログラム
 本発明は撮影装置、撮影方法及びプログラムに係り、撮影光学系とは別にファインダ光学系を有する撮影装置、撮影方法及びプログラムに関する。
 特許文献1には、レンズが交換可能な電子カメラであって、ファインダ光学系を介して撮影された被写体像(視野確認画像)をファインダ内モニタに表示するとともに、視野確認画像上に撮影用の撮像素子で撮影される画角の範囲(撮影範囲)を示す枠をオンスクリーン機能で重畳表示する電子カメラが開示されている。
特開2008-96584号公報
 しかしながら、特許文献1に記載の発明は、交換レンズと通信ができない場合には、レンズの焦点距離等が取得できないため、撮影範囲を示す枠を表示することができないという問題がある。また、特許文献1に記載の発明は、視野確認画像を電子像で表示するが、撮影から表示までにタイムラグがある上、電子像より光学像の方がクリアであるため、光学ファインダを使用したい。
 本発明はこのような事情に鑑みてなされたもので、カメラ本体に取り付けられた交換レンズと通信できない場合においても、光学ファインダの光学像に撮影範囲を示す枠を表示することができる撮影装置、撮影方法及びプログラムを提供することを目的とする。
 目的を達成するために、本発明の一の態様に係る撮影装置は、交換レンズを装着させるカメラマウントと、交換レンズを通過した被写体光に応じた画像信号を生成する撮像素子と、被写体の光学像を観察可能な光学ファインダと、画像を光学像に重畳表示可能な電子ビューファインダと、カメラマウントに装着された交換レンズの情報を取得するレンズ情報取得手段と、レンズ情報取得手段において交換レンズの情報を取得できなかった場合には、画像信号に基づく撮影画像を電子ビューファインダに表示させる第1の表示制御手段と、を備える。
 本発明の一の態様に係る撮影装置によれば、交換レンズの情報が取得できなかった場合には、撮像素子で生成された画像信号に基づく撮影画像を電子ビューファインダに表示させる。これにより、通信できない交換レンズが装着された場合においても、撮影画像を確認することができる。
 本発明の他の態様に係る撮影装置において、第1の表示制御手段により電子ビューファインダに表示された撮影画像の光学像に対する重畳位置を移動させる移動手段と、移動手段により移動された撮影画像の位置に基づいて撮影画像の位置を決定する位置決定手段と、位置決定手段により決定された位置に光学像上において撮影範囲を識別可能な撮影範囲画像を電子ビューファインダに表示させる表示制御手段と、を備えてもよい。これにより、通信できない交換レンズが装着された場合においても、撮影画像の範囲を光学ファインダの光学像上で確認することができる。
 本発明の他の態様に係る撮影装置において、光学ファインダは、光学像の倍率を変更するファインダ倍率変更手段を備えてもよい。これにより、撮影に適した視野で撮影画像の範囲を確認することができる。
 本発明の他の態様に係る撮影装置において、撮影範囲画像の位置を記憶する記憶手段を備えてもよい。これにより、再度同じ交換レンズを用いる場合には、記憶された内容を読み出すだけで、再度設定を行うことなく、撮影範囲を確認することができる。
 本発明の他の態様に係る撮影装置において、記憶手段に撮影範囲画像の位置が記憶されているか判断する判断手段を備え、第1の表示制御手段は、判断手段により撮影範囲画像の位置が記憶されていると判断された場合には、撮影画像を電子ビューファインダに表示させる代わりに、撮影範囲画像を記憶手段に記憶された位置で電子ビューファインダに表示させてもよい。これにより、通信できない交換レンズが装着された場合においても、撮影画像の範囲を光学ファインダの光学像上で確認することができる。
 本発明の他の態様に係る撮影装置において、電子ビューファインダに表示された撮影画像の位置及び大きさの変更の入力を受け付ける入力手段と、入力手段により変更が入力された位置及び大きさに基づいて、被写体が撮影されている範囲を決定する撮影範囲決定手段と、を備えてもよい。これにより、交換レンズと撮像素子のサイズが合わずケラレが発生しても、ケラレのない画像を撮影することができる。
 本発明の他の態様に係る撮影装置において、第1の表示制御手段は、撮影画像のうちの撮影範囲決定手段により決定された範囲の画像を新たな撮影画像としてもよい。
 本発明の他の態様に係る撮影装置において、交換レンズは、ズームレンズ及びフォーカスレンズを含み、レンズ情報取得手段は、カメラマウントに装着された交換レンズにおけるズームレンズ及びフォーカスレンズの位置情報を取得し、ズームレンズ及びフォーカスレンズの位置情報を取得した場合には、ズームレンズ及びフォーカスレンズの位置情報に基づいて撮影範囲画像の位置及び大きさを算出する算出手段を備えてもよい。これにより、通信可能な場合には自動的にフレーム枠を表示させることができる。
 本発明の他の態様に係る撮影装置において、光学像を観察できないように光学像を遮光するファインダシャッターと、第1の表示制御手段により電子ビューファインダに撮影画像が表示された場合には、ファインダシャッターにより光学像を遮光するシャッタ制御手段と、を備えてもよい。これにより、電子ビューファインダに表示された電子像のみを確認できるようになる。
 本発明の他の態様に係る撮影方法において、カメラマウントを介して装着された交換レンズを通過した被写体光を撮像素子に結像させるステップと、カメラマウントに装着された交換レンズの情報を取得するステップと、交換レンズの情報が取得できなかった場合には、光学ファインダの光学像に重畳表示される電子ビューファインダに撮像素子で生成された画像信号に基づく撮影画像を表示させるステップと、を備える。
 カメラマウントを介して装着された交換レンズを通過した被写体光を撮像素子に結像させるステップと、カメラマウントに装着された交換レンズの情報を取得するステップと、交換レンズの情報が取得できなかった場合には、光学ファインダの光学像に重畳表示される電子ビューファインダに撮像素子で生成された画像信号に基づく撮影画像を表示させるステップと、を演算装置に実行させる。
 本発明によれば、カメラ本体に取り付けられた交換レンズと通信できない場合においても、光学ファインダの光学像に撮影範囲を示す枠を表示することができる。
デジタルカメラ1のブロック図 第1の実施の形態における交換レンズが取り付けられたときの撮影準備処理の流れを示すフローチャート 電子ビューファインダの表示のイメージを示す図 光学ファインダの表示のイメージを示す図 ハイブリッドファインダの表示のイメージを示す図 ハイブリッドファインダの表示のイメージを示す図 ハイブリッドファインダの表示のイメージを示す図 第2の実施の形態における交換レンズが取り付けられたときの撮影準備処理の流れを示すフローチャート 電子ビューファインダの表示のイメージを示す図 ハイブリッドファインダの表示のイメージを示す図 ハイブリッドファインダの表示のイメージを示す図 ハイブリッドファインダの表示のイメージを示す図 第3の実施の形態における交換レンズが取り付けられたときの撮影準備処理の流れを示すフローチャート EVFモードにおけるハイブリッドファインダの表示のイメージを示す図 第4の実施の形態における交換レンズが取り付けられたときの撮影準備処理の流れを示すフローチャート ステップS44の説明に用いる図 ステップS44の説明に用いる図 ステップS44の説明に用いる図 ステップS44の説明に用いる図 第5の実施の形態における交換レンズが取り付けられたときの撮影準備処理の流れを示すフローチャート 電子ビューファインダの表示のイメージを示す図 電子ビューファインダの表示のイメージを示す図 第6の実施の形態における交換レンズが取り付けられたときの撮影準備処理の流れを示すフローチャート
 以下、添付図面に従って本発明に係る撮影装置を実施するための最良の形態について詳細に説明する。
 <第1の実施の形態>
 [撮像装置の構成の説明]
 図1は、デジタルカメラ1の内部構成の一例を示すブロック図である。このデジタルカメラ1は、レンズを通った光を撮像素子で受け、デジタル信号に変換して記憶メディアに記録するデジタルカメラであり、装置全体の動作は中央処理装置(CPU)41によって統括制御される。
 図1に示すように、デジタルカメラ1は、電源11、撮像素子13、AFE(Analog Front End)14、DSP (Digital Signal Processor)15、記録メディア16、操作部17、LCDドライバ18、システムバス19、SDRAM20、フラッシュROM21、フラッシュ27、LCD22、ハイブリッドファインダ(HVF)50の他、DSP15のシリアルI/O端子と接続され、交換レンズ12、光学ファインダ51、電子ビューファインダ52を駆動するためのドライバ25、26、24を備えて構成されている。なお、図1は、デジタルカメラ1に交換レンズ12が装着された場合を図示しているが、デジタルカメラ1には様々な種類の交換レンズを装着可能である。
 電源11は、図示しないバッテリー及び電源制御部を含み、デジタルカメラ1の各ブロックに電源供給を行う。電源供給された各ブロックはDSP15に備えられたCPU41に制御されて動作し、CPU41は、操作部17からの入力に基づき所定の制御プログラムを実行することにより、デジタルカメラ1の各部を制御する。
 操作部17は、レリーズスイッチ、モードダイヤル、再生ボタン、MENU/OKキー、十字キー、BACKキー等を含み、この操作部17からの信号はCPU41に入力され、CPU41は入力信号に基づいてデジタルカメラ1の各回路を制御し、例えば、レンズ駆動制御、絞り駆動制御、撮影動作制御、画像処理制御、画像データの記録/再生制御、立体表示用のLCD22の表示制御などを行う。
 レリーズスイッチは、撮影開始の指示を入力する操作ボタンであり、半押し時にONするS1スイッチと、全押し時にONするS2スイッチとを有する二段ストローク式のスイッチで構成されている。モードダイヤルは、2D撮影モード、3D撮影モード、オート撮影モード、マニュアル撮影モード、人物、風景、夜景等のシーンポジション、マクロモード、動画モード、本発明に係る視差優先撮影モードを選択する選択手段である。
 再生ボタンは、撮影記録した立体視画像(3D画像)、平面画像(2D画像)の静止画又は動画をLCD22に表示させる再生モードに切り替えるためのボタンである。MENU/OKキーは、LCD22の画面上にメニューを表示させる指令を行うためのメニューボタンとしての機能と、選択内容の確定及び実行などを指令するOKボタンとしての機能とを兼備した操作キーである。十字キーは、上下左右の4方向の指示を入力する操作部であり、メニュー画面から項目を選択したり、各メニューから各種設定項目の選択を指示したりするボタン(カーソル移動操作手段)として機能する。また、十字キーの上/下キーは撮影時のズームスイッチあるいは再生モード時の再生ズームスイッチとして機能し、左/右キーは再生モード時のコマ送り(順方向/逆方向送り)ボタンとして機能する。BACKキーは、選択項目など所望の対象の消去や指示内容の取消し、あるいは1つ前の操作状態に戻らせるときなどに使用される。
 フラッシュROM21にはCPU41が実行する制御プログラムの他、制御に必要な各種パラメータや撮像素子13の画素欠陥データ等が記録されている。CPU41は、このプログラムROMに記録された制御プログラムをSDRAM20に読み出し、逐次実行することにより、デジタルカメラ1の各部を制御する。なお、このSDRAM20は、プログラムの実行処理領域として利用される他、画像データ等の一時記憶領域、各種作業領域として利用される。
 交換レンズ12は、図示しないカメラマウントを介してデジタルカメラ1のカメラ本体に機械的及び電気的に接続される。交換レンズ12は、ズームレンズ31、フォーカスレンズ32、アイリス33、及びシャッタ34から構成され、それぞれCPU41の命令に基づいてレンズドライバ25により駆動される。交換レンズ12と通信(電気的に接続)できない場合には、ユーザがズームレンズ31、フォーカスレンズ32、アイリス33、及びシャッタ34を回転リング(図示せず)等を介して手動で駆動する。
 ズームレンズ31及びフォーカスレンズ32は、同じ光軸上を前後移動し、ズーム及びフォーカスを行う。
 アイリス33は、撮像素子13へ入射する光量を制御し、シャッタスピードと共に露出の制御を行う。アイリス33は、例えば、5枚の絞り羽根からなり、絞り値F1.4~F11まで1AV刻みで6段階に絞り制御される。
 シャッタ34は、ズームレンズ31、フォーカスレンズ32、及びアイリス33を介した被写体光を、所定の時間だけ撮像素子13へ入射させるように動作する。
 撮像素子13は、シャッタ34の後段に配置されており、交換レンズ12を介した被写体光を受光する。撮像素子13は、周知のように多数の受光素子がマトリクス状に配列された受光面を備えている。交換レンズ12を介した被写体光は、この撮像素子13の受光面上に結像され、各受光素子によって電気信号に変換される。なお、撮像素子としては、CMOS、CCD等のイメージセンサが適用可能である。
 AFE14は、ゲインアップ部35、A/D変換器36、及びタイミングジェネレータ37から構成され、撮像素子13は、タイミングジェネレータ37から供給される垂直転送クロック及び水平転送クロックに同期して、各画素に蓄積された電荷を1ラインずつシリアルな画像信号として出力する。CPU41は、タイミングジェネレータ37を制御して、撮像素子13の駆動を制御する。
 なお、各画素の電荷蓄積時間(露出時間)は、タイミングジェネレータ37から与えられる電子シャッタ駆動信号によって決められる。CPU41は、タイミングジェネレータ37に対して電荷蓄積時間を指示する。
 また、画像信号の出力は、デジタルカメラ1が撮影モードにセットされると開始される。すなわち、デジタルカメラ1が撮影モードにセットされると、LCD22にスルー画像を表示するため、画像信号の出力が開始される。このスルー画像用の画像信号の出力は、本撮影の指示が行われると、一旦停止され、本撮影が終了すると、再度開始される。
 撮像素子13から出力される画像信号は、アナログ信号であり、このアナログの画像信号は、ゲインアップ部35に取り込まれる。
 ゲインアップ部35は、相関二重サンプリング回路(CDS)、及び自動ゲインコントロール回路(AGC)を含んで構成される。CDSは、画像信号に含まれるノイズの除去を行い、AGCは、ノイズ除去された画像信号を所定のゲインで増幅する。このゲインアップ部35で所要の信号処理が施されたアナログの画像信号は、A/D変換器36に取り込まれる。
 A/D変換器36は、取り込んだアナログの画像信号を所定ビットの階調幅を持ったデジタルの画像信号に変換する。この画像信号は、いわゆるRAWデータであり、画素毎R、G、Bの濃度を示す階調値を有している。このデジタルの画像信号は、DSP15に取り込まれる。
 DSP15は、前述したCPU41の他、画像バッファ42、YC処理部43、AE・AWB検出回路44、AF検出回路45、タイマ46、圧縮伸長部47、記録メディアインターフェース48、ビデオエンコーダ49等から構成されている。これらはシステムバス19と接続されており、システムバス19を介して互いに情報を送受信することが可能である。
 画像バッファ42は、A/D変換器36から取り込んだ1コマ分の画像信号を格納する。
 AF検出回路45は、CPU41の指令に従い、画像バッファ42に格納されたR、G、Bの画像信号を取り込み、AF(Automatic Focus)制御に必要な焦点評価値を算出する。このAF検出回路45は、G信号の高周波成分のみを通過させるハイパスフィルタ、絶対値化処理部、画面に設定された所定のフォーカス領域(以下、AFエリアという)内の信号を切り出すAFエリア抽出部、及び、AFエリア内の絶対値データを積算する積算部を含み、この積算部で積算されたAFエリア内の絶対値データを焦点評価値としてCPU41に出力する。焦点評価値に基づくフォーカスレンズ群の制御方式としては、焦点評価値が極大となる位置をサーチし、その位置にフォーカスレンズ32を移動させる方式や、フォーカスレンズ群を焦点評価値が増加する方向に移動させて行き、焦点評価値が減少し始める点を検出するとその位置にフォーカスレンズ群を設定する山登り方式を用いることができる。
 AE・AWB検出回路44は、画像バッファ42に格納されたR、G、Bの画像信号を取り込み、画面全体のG信号を積算し、又は画面中央部と周辺部とで異なる重みづけをしたG信号を積算し、そのAE制御に必要な積算値をCPU41に出力する。CPU41は、積算値から輝度値を算出し、輝度値から露出値を求める。また露出値から所定のプログラム線図に従って、絞り値及びシャッタ速度を決定する。
 また、AE・AWB検出回路44は、AWB制御に必要な物理量として、1画面を複数のエリア(例えば、16×16)に分割し、分割したエリア毎にR、G、Bの画像信号の色別の平均積算値を算出する。CPU41は、得られたRの積算値、Bの積算値、Gの積算値から分割エリア毎にR/G及びB/Gの比を求め、求めたR/G、B/Gの値のR/G、B/Gの色空間における分布等に基づいて光源種判別を行う。そして、判別された光源種に適したホワイトバランス調整値に従って、例えば各比の値がおよそ1(つまり、1画面においてRGBの積算比率がR:G:B=1:1:1)になるように、ホワイトバランス調整回路のR、G、B信号に対するゲイン値(ホワイトバランス補正値)を決定する。AE・AWB検出回路44は、画像バッファ42に格納された1コマ分の画像信号に光源種に応じたデジタルゲインをかけることでホワイトバランス調整を行うとともに、ガンマ(階調特性)処理及びシャープネス処理を行ってR、G、B信号を生成する。
 YC処理部43は、点順次に取り込んだR、G、Bの各色の画像信号に対して所定の信号処理を施し、輝度信号Yと色差信号Cr、Cbとからなる画像信号(Y/C信号)を生成する。このY/C信号は、SDRAM20に格納される。
 圧縮伸長部47は、CPU41からの圧縮指令に従い、入力されたY/C信号に所定形式(たとえば、JPEG)の圧縮処理を施し、圧縮画像データを生成する。また、CPU41からの伸張指令に従い、入力された圧縮画像データに所定形式の伸張処理を施して、非圧縮の画像データを生成する。
 ビデオエンコーダ49は、CPU41からの指令に従い、ドライバ18を介してLCD22への表示を制御する。
 LCD22は、動画(スルー画像)を表示して電子ビューファインダとして使用できるとともに、撮影した記録前の画像(プレビュー画像)やカメラに装填された記録メディアから読み出した再生画像等を表示することができる。また、LCD22は、カメラの動作モードやホワイトバランス、画像のピクセル数、感度等をマニュアル設定する際の各種のメニュー画面をモードダイヤルやメニューボタンの操作に応じて表示させ、操作ボタン112の操作に応じてマニュアル設定項目の設定が可能なグラフィカル・ユーザ・インターフェース(GUI)用の画面を表示する。
 記録メディアインターフェース48は、CPU41からの指令に従い、記録メディア16に対してデータの読み/書きを制御する。なお、記録メディア16は、メモリカードのようにカメラ本体に対して着脱自在なものでもよいし、また、カメラ本体に内蔵されたものでもよい。着脱自在とする場合は、カメラ本体にカードスロットを設け、このカードスロットに装填して使用する。
 タイマ46は、セルフタイマモードにおけるタイマ時間の計測を行ったり、ファインダ表示処理(後に詳述)の繰り返し時間の計測を行ったりする。
 ハイブリッドファインダ50は、主として、光学ファインダ51と、電子ビューファインダ52と、プリズム53と、ファインダーシャッター54とで構成され、1つの接眼部を介して光学ファインダ51の光学像と電子ビューファインダ52の電子像とを視認可能である。
 光学ファインダ51は、交換レンズ12の変倍に伴って倍率が段階的に変更可能な変倍ファインダであり、主として、対物レンズと、接眼レンズと、これらの間に設けられ、光学ファインダ51の光路内に進退自在に配設された変倍レンズとで構成されたファインダ光学系を有する。変倍レンズは、CPU41の指示によりドライバ23を介して駆動される。CPU41は、交換レンズ12のズームレンズ31の位置が取得できた場合には撮像素子13で撮影される画像(撮影画像)の画角と光学ファインダ51の画角とが略一致するように、ズームレンズ31の倍率に応じて変倍レンズを移動させる。
 電子ビューファインダ52は、例えば液晶パネルであり、撮影された画像、枠などの表示手段として使用される。電子ビューファインダ52の表示は、光学ファインダ51の光路内に配設されたプリズム53により光学ファインダ51の接眼部に導かれる。
 ファインダーシャッター54は、例えば液晶シャッタであり、光学ファインダ51の光路内であって、プリズム53より対物レンズ側に配設される。ファインダーシャッター54が閉まると、ハイブリッドファインダ50には光学像が表示されず、電子ビューファインダ52の電子像のみが視認可能となる。
 [撮像装置の動作の説明]
 次に、デジタルカメラ1の動作について説明する。この撮像処理はCPU41によって制御される。この撮像処理をCPU41に実行させるためのプログラムはデジタルカメラ1の内外に存在する非一時的な(non-transitory)コンピュータ読み取り可能な記録媒体(RAM、ROM、メモリカードなど)で構成されたプログラム格納部に記憶されている。
 図2は、デジタルカメラ1に交換レンズが取り付けられたときの撮影準備段階の処理の流れを示すフローチャートである。この処理は、主としてCPU41によって行われる。
 交換レンズがデジタルカメラ1のカメラ本体に取り付けられる(ステップS10)。交換レンズを通過した被写体光は、絞り14を介して撮像素子13の受光面に結像される。タイミングジェネレータ37により、撮像素子13の主画素及び副画素に蓄えられた信号電荷は、信号電荷に応じた電圧信号(画像信号)として所定のフレームレートで順次読み出され、画像データが順次生成される。生成された画像データは順次SDRAM20に入力される。CPU41は、画像データに基づいて、絞り14の開口量(F値)を変更する。
 CPU41は、交換レンズと通信可能であるか、すなわち交換レンズが電気的に接続されているかを判断する(ステップS12)。
 交換レンズが電気的に接続されている場合(ステップS12でYES)は、CPU41は、交換レンズのズームレンズ31、フォーカスレンズ32の位置情報、すなわち交換レンズの焦点距離や被写体距離を取得する(ステップS14)。CPU41は、交換レンズの焦点距離や被写体距離、光学ファインダ51の倍率、光学ファインダ51と交換レンズの光軸との位置関係に基づいて、撮像素子13で撮影される被写体像の範囲(撮影範囲)を示す枠であるフレーム枠の位置及び大きさを算出する(ステップS16)。CPU41は、交換レンズのズームレンズ31、フォーカスレンズ32の位置が変更された場合には、交換レンズの焦点距離や被写体距離を取得してフレーム枠の位置及び大きさを算出しなおすようにするのが望ましい。
 交換レンズが電気的に接続されていない場合(ステップS12でNO)は、CPU41がフレーム枠をどこに表示すればよいか解らないため、ユーザ操作による調整モードとなる(ステップS18~S24)。すなわち、CPU41は、図3に示すように、撮像素子13が撮影した画像(撮影画像)を電子ビューファインダ52に表示させる(ステップS18)。CPU41は、順次生成された画像データを電子ビューファインダ52に連続的に表示させる。
 CCD41は、ドライバ26を介してファインダーシャッター54を開け、図4に示すように、光学ファインダ51に光学像を表示させる(ステップS20)。その結果、図5に示すように、ハイブリッドファインダ50には、光学像に電子像が重畳表示される。なお、図5においては、光学ファインダ51の見た目と電子ビューファインダ52の表示内容の輪郭線は繋がっていない。CPU41は、後で行う処理を行いやすくするため、電子ビューファインダ52に表示された撮影画像に対してエッジ強調等の処理を行っても良い。
 ユーザが、電子ビューファインダ52に表示された画像が光学ファインダ51の光学像に一致するように、操作部17の十字キーを用いて上下左右の4方向の指示及び大きさの変更(拡大、縮小)の指示を入力する。指示が入力されると、CPU41はこれを検出し、十字キーの入力に従って電子ビューファインダ52に表示した撮影画像の位置及び大きさを変更する(ステップS22)。図6は、図5に示す状態から撮影画像の位置及び大きさが変更された図である。図6においては、光学ファインダ51の見た目と電子ビューファインダ52の表示内容の輪郭線が略違和感なく繋がっている。
 CPU41は、ステップS22で位置及び大きさが変更された撮影画像の範囲をフレーム枠の位置及び大きさとする(ステップS24)。
 CPU41は、ステップS16で算出されたフレーム枠の位置及び大きさで、又はステップS24で決定されたフレーム枠の位置及び大きさで、電子ビューファインダ52にフレーム枠を表示させる(ステップS26)。これにより、図7に示すように、光学ファインダ51の光学像にフレーム枠が重ねて表示される。
 これにより、撮影準備が終了される。図2に示す処理は、所定の間隔で定期的に行ってもよいし、ユーザがズームレンズ31やフォーカスレンズ32を動かした時にユーザが操作部17を介して指示することにより行うようにしてもよい。CPU41は、フレーム枠を見ながら、操作部17からの入力に応じて、ドライバ25を介してズームレンズ31を光軸に沿って移動させてズーミングを行う。
 レリーズスイッチが半押しされると、S1ON信号がCPU41に入力され、CPU41はAF検出回路45及びAE・AWB検出回路44を介してAE/AF/AWB動作を実施する。
 レリーズスイッチが全押しされると、CPU41にS2ON信号が入力され、CPU41は、撮影、記録処理を開始する。すなわち、測光結果に基づき決定されたシャッタ速度、絞り値で撮像素子13を露光する。
 撮像素子13から出力された画像データは、AFE14を介してYC処理部43に取り込まれて画像信号(Y/C信号)が生成され、圧縮伸長部47で所定の圧縮フォーマット(たとえばJPEG形式)に従って圧縮された後、SDRAM20に格納される。
 SDRAM20に記憶された圧縮データからJPEGファイルが生成され、そのJPEGファイルは記録メディアインターフェース48を介して記録メディア16に記録される。これにより、画像が撮影、記録される。
 以上のようにして記録メディア16に記録された画像は、再生ボタンによりデジタルカメラ1のモードを再生モードに設定することにより、LCD22で再生表示させることができる。
 再生モードに設定されると、CPU41は、記録メディアインターフェース48にコマンドを出力し、記録メディア16に最後に記録された画像ファイルを読み出させる。
 読み出された画像ファイルの圧縮画像データは、圧縮伸長部47に加えられ、非圧縮の輝度/色差信号に伸張されたのち、ビデオエンコーダ49を介してLCD22に出力される。
 画像のコマ送りは、十字キーの左右のキー操作によって行われ、十字キーの右キーが押されると、次の画像ファイルが記録メディア16から読み出され、LCD22に再生表示される。また、十字キーの左キーが押されると、一つ前の画像ファイルが記録メディア16から読み出され、LCD22に再生表示される。
 本実施の形態によれば、通信ができない交換レンズが装着された場合においても、簡単な調整を行うだけで、交換レンズにあったフレーム枠を光学ファインダに重ねて表示することができる。
 なお、本実施の形態では、撮影レンズ又は撮像素子に手ブレ補正機能を備えていないが、手ブレ補正機能を備えている場合には手ブレ補正機能はOFFすることが望ましい。
 また、本実施の形態では、撮影範囲を示す画像としてフレーム枠を表示したが、撮影範囲が識別可能な画像であればフレーム枠に限定されるものではない。例えば、撮影範囲の領域の拡張点を示すマークを表示してもよいし、撮影範囲以外を半透過マスキングしたものを表示してもよい。
 <第2の実施の形態>
 本発明の第1の実施の形態では、光学ファインダや電子ビューファインダの倍率(以下、ファインダ倍率という)を変更しなかったが、ファインダ倍率を変更したほうが適切な場合がある。
 本発明の第2の実施の形態は、必要に応じてファインダ倍率を変える形態である。以下、第2の実施の形態に係るデジタルカメラ1-1について説明する。なお、第1の実施の形態と同一の部分については説明を省略する。
 図8は、デジタルカメラ1に交換レンズが取り付けられたときの撮影準備段階の処理の流れを示すフローチャートである。この処理は、主としてCPU41によって行われる。
 交換レンズがデジタルカメラ1のカメラ本体に取り付けられる(ステップS10)。CPU41は、交換レンズと通信可能であるか、すなわち交換レンズが電気的に接続されているかを判断する(ステップS12)。
 交換レンズが電気的に接続されている場合(ステップS12でYES)は、CPU41は、交換レンズのズームレンズ31、フォーカスレンズ32の位置情報、すなわち交換レンズの焦点距離や被写体距離を取得する(ステップS14)。CPU41は、交換レンズの焦点距離や被写体距離、光学ファインダ51の倍率、光学ファインダ51と交換レンズの光軸との位置関係に基づいて、撮像素子13で撮影される被写体像の範囲(撮影範囲)を示す枠であるフレーム枠の位置及び大きさを算出する(ステップS16)。
 交換レンズが電気的に接続されていない場合(ステップS12でNO)は、CPU41がフレーム枠をどこに表示すればよいか解らないため、ユーザ操作による調整モードとなる。CPU41は、撮像素子13が撮影した画像(撮影画像)を電子ビューファインダ52に表示させる(ステップS18)。CCD41は、ドライバ26を介してファインダーシャッター54を開け、光学ファインダ51に光学像を表示させる(ステップS20)。本実施の形態では、図4に示す光学像に図9に示す撮影画像を重畳表示させるため、ハイブリッドファインダ50は図10に示すような表示となる。
 CPU41は、電子ビューファインダ52に表示された撮影画像の光学ファインダ51の光学像に占める割合が一定値以下であるか否かを判断する(ステップS30)。電子ビューファインダ52に表示された撮影画像の光学ファインダ51の光学像に占める割合が一定値以下である場合(ステップS30でYES)には、CPU41は、光学ファインダ51がズームできるか、すなわち光学ファインダ51のファインダ倍率が高くできるか否かを判断する(ステップS32)。 
 光学ファインダ51がズームできる場合(ステップS32でYES)には、CPU41は、図11に示すように、光学ファインダ51をズームして光学ファインダ51のファインダ倍率を高くする(ステップS34)。ステップS34では、自動的に所定の倍率までファインダ倍率を高くしても良いし、ユーザの操作部17から指示に基づいて光学像の大きさが撮影画像の大きさと一致するように光学ファインダ51のファインダ倍率を変えてもよい。これにより、ハイブリッドファインダ50が撮影に適した視野となる。
 電子ビューファインダ52に表示された撮影画像の光学ファインダ51の光学像に占める割合が一定値以下でない場合(ステップS30でNO)には、CPU41は、電子ビューファインダ52に表示された撮影画像の光学ファインダ51の光学像に占める割合が一定値以上か否かを判断する(ステップS36)。
 電子ビューファインダ52に表示された撮影画像の光学ファインダ51の光学像に占める割合が一定値以上である場合(ステップS36でYES)には、CPU41は、光学ファインダ51が広角側にできるか否かを判断する(ステップS38)。
 光学ファインダ51が広角側にできる場合(ステップS38でYES)には、CPU41は、図12に示すように、光学ファインダ51を広角側、すなわち光学ファインダ51のファインダ倍率を低くする(ステップS40)。ステップS40では、自動的に所定の倍率までファインダ倍率を低くしても良いし、ユーザの操作部17から指示に基づいて光学像の大きさが撮影画像の大きさと一致するように光学ファインダ51のファインダ倍率を変えてもよい。これにより、ハイブリッドファインダ50が撮影に適した視野となる。
 光学ファインダのファインダ倍率が変更された場合(ステップS34、S40)、ファインダ倍率が変えられなかった場合(ステップS32、S38でNO)、及びEVFの領域が一定値以下でも一定値以上でもない場合(ステップS36でNO)には、ユーザが、電子ビューファインダ52に表示された画像が光学ファインダ51の光学像に一致するように、操作部17の十字キーを用いて上下左右の4方向の指示及び大きさの変更(拡大、縮小)の指示を入力する。指示が入力されると、CPU41はこれを検出し、十字キーの入力に従って電子ビューファインダ52に表示した撮影画像の位置及び大きさを変更する(ステップS22)。
 CPU41は、ステップS22で位置及び大きさが変更された撮影画像の範囲をフレーム枠の位置及び大きさとする(ステップS24)。
 CPU41は、ステップS16で算出されたフレーム枠の位置及び大きさで、又はステップS24で決定されたフレーム枠の位置及び大きさで、電子ビューファインダ52にフレーム枠を表示させる(ステップS26)。
 本実施の形態によれば、光学ファインダのファインダ倍率が変倍可能であったときには、通信ができない交換レンズがカメラ本体に装着されたときでも、簡単な調整で交換レンズにあったフレーム枠を撮影領域に適した視野の光学像に重ねて表示することができる。
 <第3の実施の形態>
 本発明の第2の実施の形態では、光学ファインダのファインダ倍率を変える形態であるが、ファインダ倍率によっては見づらいことが考えられる。
 本発明の第3の実施の形態は、ファインダ倍率によっては電子ビューファインダに切り替える形態である。以下、第3の実施の形態に係るデジタルカメラ1-2について説明する。なお、第1、2の実施の形態と同一の部分については説明を省略する。
 図13は、デジタルカメラ1に交換レンズが取り付けられたときの撮影準備段階の処理の流れを示すフローチャートである。この処理は、主としてCPU41によって行われる。
 交換レンズがデジタルカメラ1のカメラ本体に取り付けられる(ステップS10)。CPU41は、交換レンズと通信可能であるか、すなわち交換レンズが電気的に接続されているかを判断する(ステップS12)。
 交換レンズが電気的に接続されている場合(ステップS12でYES)は、CPU41は、交換レンズのズームレンズ31、フォーカスレンズ32の位置情報、すなわち交換レンズの焦点距離や被写体距離を取得する(ステップS14)。CPU41は、交換レンズの焦点距離や被写体距離、光学ファインダ51の倍率、光学ファインダ51と交換レンズの光軸との位置関係に基づいて、撮像素子13で撮影される被写体像の範囲(撮影範囲)を示す枠であるフレーム枠の位置及び大きさを算出する(ステップS16)。
 交換レンズが電気的に接続されていない場合(ステップS12でNO)は、CPU41がフレーム枠をどこに表示すればよいか解らないため、ユーザ操作による調整モードとなる。CPU41は、撮像素子13が撮影した画像(撮影画像)を電子ビューファインダ52に表示させる(ステップS18)。CCD41は、ドライバ26を介してファインダーシャッター54を開け、光学ファインダ51に光学像を表示させる(ステップS20)。
 CPU41は、光学ファインダ51により光学像が視認可能なOVFモードであるか否か、すなわちファインダーシャッター54が閉じていないか否かを判断する(ステップS42)。OVFモードであるである場合(ステップS42でYES)は、CPU41は、電子ビューファインダ52に表示された撮影画像の光学ファインダ51の光学像に占める割合が一定値以下であるか否かを判断する(ステップS30)。電子ビューファインダ52に表示された撮影画像の光学ファインダ51の光学像に占める割合が一定値以下である場合(ステップS30でYES)には、CPU41は、光学ファインダ51がズームできるか、すなわち光学ファインダ51のファインダ倍率が高くできるか否かを判断する(ステップS32)。
 光学ファインダ51がズームできる場合(ステップS32でYES)には、CPU41は、光学ファインダ51をズームして光学ファインダ51のファインダ倍率を高くする(ステップS34)。
 光学ファインダ51がズームできない場合(ステップS32でNO)には、ファインダーシャッター54を閉じ、図14に示すようにハイブリッドファインダ50を電子ビューファインダ52の画像のみが視認可能なEVFモードに変更し(ステップS44)、処理を終了する。
 OVFモードでない場合(ステップS42でNO)、すなわちハイブリッドファインダ50がEVFモードである場合には、CPU41は、表示領域を広げようとしたか、すなわち撮影画像を拡大しようとしたかを判断する(ステップS46)。撮影画像を拡大しようとしていない場合(ステップS46でNO)には、そのままEVFモードにて処理を終了する。
 撮影画像を拡大しようとしている場合(ステップS46でYES)には、ファインダーシャッター54を開いてハイブリッドファインダ50をOVFモードに変更し、さらに撮影画像を電子ビューファインダ52に表示して光学像に重畳表示させる(ステップS48)。
 EVFの領域が一定値以下でもない場合(ステップS30でNO)、光学ファインダのファインダ倍率が変更された場合(ステップS34)、及びOVFモードに変えた場合(ステップS48)には、ユーザが、電子ビューファインダ52に表示された画像が光学ファインダ51の光学像に一致するように、操作部17の十字キーを用いて上下左右の4方向の指示及び大きさの変更(拡大、縮小)の指示を入力する。指示が入力されると、CPU41はこれを検出し、十字キーの入力に従って電子ビューファインダ52に表示した撮影画像の位置及び大きさを変更する(ステップS22)。
 CPU41は、ステップS22で位置及び大きさが変更された撮影画像の範囲をフレーム枠の位置及び大きさとする(ステップS24)。
 CPU41は、ステップS16で算出されたフレーム枠の位置及び大きさで、又はステップS24で決定されたフレーム枠の位置及び大きさで、電子ビューファインダ52にフレーム枠を表示させる(ステップS26)。
 本実施の形態によれば、交換レンズの光学倍率が高かった場合には光学ファインダにフレーム枠を表示してもエリアが小さくなりすぎ、撮影領域が見づらくなることがあるという問題を、EVFモードに変更することで解消することができる。
 <第4の実施の形態>
 本発明の第3の実施の形態では、光学ファインダがズームできない場合は電子ビューファインダに切り替える形態であるが、ファインダ倍率によっては電子ビューファインダに切り替える形態はこれに限られない。
 本発明の第4実施の形態は、光学ファインダが広角にできない場合に電子ビューファインダに切り替える形態である。以下、第4の実施の形態に係るデジタルカメラ1-3について説明する。なお、第1、2及び3の実施の形態と同一の部分については説明を省略する。
 図15は、デジタルカメラ1に交換レンズが取り付けられたときの撮影準備段階の処理の流れを示すフローチャートである。この処理は、主としてCPU41によって行われる。
 交換レンズがデジタルカメラ1のカメラ本体に取り付けられる(ステップS10)。CPU41は、交換レンズと通信可能であるか、すなわち交換レンズが電気的に接続されているかを判断する(ステップS12)。
 交換レンズが電気的に接続されている場合(ステップS12でYES)は、CPU41は、交換レンズのズームレンズ31、フォーカスレンズ32の位置情報、すなわち交換レンズの焦点距離や被写体距離を取得する(ステップS14)。CPU41は、交換レンズの焦点距離や被写体距離、光学ファインダ51の倍率、光学ファインダ51と交換レンズの光軸との位置関係に基づいて、撮像素子13で撮影される被写体像の範囲(撮影範囲)を示す枠であるフレーム枠の位置及び大きさを算出する(ステップS16)。
 交換レンズが電気的に接続されていない場合(ステップS12でNO)は、CPU41がフレーム枠をどこに表示すればよいか解らないため、ユーザ操作による調整モードとなる。CPU41は、撮像素子13が撮影した画像(撮影画像)を電子ビューファインダ52に表示させる(ステップS18)。CCD41は、ドライバ26を介してファインダーシャッター54を開け、光学ファインダ51に光学像を表示させる(ステップS20)。
 CPU41は、光学ファインダ51により光学像が視認可能なOVFモードであるか否か、すなわちファインダーシャッター54が閉じていないか否かを判断する(ステップS42)。OVFモードである場合(ステップS42でYES)は、CPU41は、電子ビューファインダ52に表示された撮影画像が最大の大きさであるか否かを判断する(ステップS50)。撮影画像が最大の大きさである場合(ステップS50でYES)には、CPU41は、光学ファインダ51のファインダ倍率が広角にできるか否かを判断する(ステップS38)。
 光学ファインダ51のファインダ倍率が広角にできる場合(ステップS38でYES)には、CPU41は、光学ファインダ51を広角側、すなわち光学ファインダ51のファインダ倍率を低くする(ステップS40)。
 光学ファインダ51のファインダ倍率が広角にできない場合(ステップS38でNO)は、例えば、図16に示すような光学像が図17に示すような撮影画像よりも広角である場合である。このような場合には、ハイブリッドファインダ50の表示は図18のような表示となる。この場合には、図19に示すように、撮影画像を最大限に広角にしたとしても、撮影画像を光学像と略同じ大きさまで大きくすることができない場合がある。したがって、CPU41は、ファインダーシャッター54を閉じ、図14に示すようにハイブリッドファインダ50を電子ビューファインダ52の画像のみが視認可能なEVFモードに変更し(ステップS44)、処理を終了する。
 OVFモードでない場合(ステップS42でNO)は、CPU41は、表示領域を狭めようとしたか、すなわち撮影画像を縮小しようとしたかを判断する(ステップS52)。撮影画像を縮小しようとしていない場合(ステップS52でNO)には、そのままEVFモードにて処理を終了する。
 撮影画像を縮小しようとした場合(ステップS52でYES)には、CPU41は、ファインダーシャッター54を開いてハイブリッドファインダ50をOVFモードに変更し、さらに撮影画像を電子ビューファインダ52に表示して光学像に重畳表示させる(ステップS48)。
 EVFの領域が最大でない場合(ステップS50でNO)、光学ファインダのファインダ倍率が変更された場合(ステップS40)、及びOVFモードに変えた場合(ステップS48)には、ユーザが、電子ビューファインダ52に表示された画像が光学ファインダ51の光学像に一致するように、操作部17の十字キーを用いて上下左右の4方向の指示及び大きさの変更(拡大、縮小)の指示を入力する。指示が入力されると、CPU41はこれを検出し、十字キーの入力に従って電子ビューファインダ52に表示した撮影画像の位置及び大きさを変更する(ステップS22)。
 CPU41は、ステップS22で位置及び大きさが変更された撮影画像の範囲をフレーム枠の位置及び大きさとする(ステップS24)。
 CPU41は、ステップS16で算出されたフレーム枠の位置及び大きさで、又はステップS24で決定されたフレーム枠の位置及び大きさで、電子ビューファインダ52にフレーム枠を表示させる(ステップS26)。
 本実施の形態によれば、交換レンズの方が光学ファインダより広角であった場合、光学ファインダでは撮影領域が見きれないという問題を、EVFモードに変更することで解消することができる。
 <第5の実施の形態>
 本発明の第1の実施の形態では、交換レンズにあったフレーム枠を光学ファインダに重ねて表示するが、交換レンズが撮像素子の大きさにあっていない場合もありうる。
 本発明の第5の実施の形態は、交換レンズが撮像素子の大きさにあっていない場合に撮像素子の使用範囲を限定して画角を調整する形態である。以下、第5の実施の形態に係るデジタルカメラ1-4について説明する。なお、第1~4の実施の形態と同一の部分については説明を省略する。
 図20は、デジタルカメラ1に交換レンズが取り付けられたときの撮影準備段階の処理の流れを示すフローチャートである。この処理は、主としてCPU41によって行われる。
 交換レンズがデジタルカメラ1のカメラ本体に取り付けられる(ステップS10)。CPU41は、撮像素子13が撮影した画像(撮影画像)を確認し、図21に示すようなケラレが発生しているか否かを判断する(ステップS54)。図21では、周囲の黒い部分がケラレている部分である。CPU41は、黒い領域の大きさや形状を検出することにより、ケラレがあるか否かを自動的に判断することができる。例えば、CPU41は、撮像素子13の出力値(例えば、積算値)に基づいて暗い部分を検出し、撮影画像を同じアスペクトで電子ズーム(一部の領域を拡大)していく際に暗い部分がなくなるか否かでケラレの有無を判断することができる。また、CPU41は、撮影画像を電子ビューファインダ52又はLCD22に表示し、ユーザが操作部17を介して入力した指示に基づいて判断しても良い。
 ケラレが発生している場合には、CPU41は、図22に示すように、撮像素子13の受光範囲内で撮像素子13と同じアスペクト比の領域を抜き出すケラレ調整を行う(ステップS56)。CPU41は、いわゆる電子ズームと同様の方法により自動的にケラレ調整を行うことができる。また、CPU41は、撮影画像を電子ビューファインダ52又はLCD22に表示し、ユーザが操作部17を介して位置、大きさを入力し、入力された位置、大きさを被写体が撮影されている範囲とすることでケラレ調整を行ってもよい。
 ケラレ調整が必要ない場合(ステップS54でNO)及びケラレ調整が終了した場合(ステップS56)には、CPU41は、フレーム枠の調整が必要か否かを判断する(ステップS58)。このステップの処理は、ユーザが操作部17を介して入力した指示に基づいて行ってもよい。また、CPU41は、まずステップS30、S32を行い、これらのステップでYESの場合には、ステップS34の処理を行った上でステップS58をYESとしてもよいし、まずステップS50、S38を行い、これらのステップでYESの場合には、ステップS40の処理を行った上でステップS58をYESとしてもよいを行ってもよい。
 フレーム枠の調整が必要な場合(ステップS58でYES)には、CPU41は、フレーム枠の調整処理であるステップS10~S24の処理(図2参照)を行う。既に説明済みであるため、ステップS10~S24の処理の詳細な説明は省略する。なお、ステップS18では、撮像素子13で取得された撮影画像のうち、ステップS56において入力された被写体が撮影されている範囲の画像を新たな撮影画像として電子ビューファインダ52に表示する。
 本実施の形態によれば、交換レンズが撮像素子の大きさに合っておらず、撮像素子上にケラレが発生したときにおいても、ケラレのない範囲を撮影領域として用いることで、撮影に適した画角で撮影を行うことができる。
 <第6の実施の形態>
 本発明の第1の実施の形態では、交換レンズにあったフレーム枠を光学ファインダに重ねて表示するが、2度目以降も同じ処理を行うのは大変である。
 本発明の第6の実施の形態は、交換レンズ毎にケラレ量、フレーム枠の大きさ・位置・ファインダ倍率等の設定を保存しておき、次回使用時には設定を読み出すだけですぐに使えるようにする形態である。以下、第6の実施の形態に係るデジタルカメラ1-5について説明する。なお、第1~5の実施の形態と同一の部分については説明を省略する。
 図23は、デジタルカメラ1に交換レンズが取り付けられたときの撮影準備段階の処理の流れを示すフローチャートである。この処理は、主としてCPU41によって行われる。
 交換レンズがデジタルカメラ1のカメラ本体に取り付けられる(ステップS10)。CPU41は、この交換レンズに関する設定がフラッシュROM21から読み出せるか否かを判断する(ステップS60)。交換レンズの名称又は番号をユーザが操作部17を介して入力すると、CPU41はこれを受け取り、フラッシュROM21に交換レンズの名称又は番号に関する設定が記憶されているかを判断することによって行われる。なお、交換レンズに関する設定は、ケラレ量(図20に示すケラレ調整処理の結果)、フレーム枠の大きさ及び位置、光学ファインダ51のファインダ倍率を含み、交換レンズの名称又は番号と関連付けて記憶されている。
 設定が読み出せる(ステップS60でYES)場合には、CPU41は、交換レンズに関する設定をフラッシュROM21から読み出し(ステップS62)、読み出された設定に基づいてフレーム枠を表示する(ステップS64)。
 設定が読み出せない(ステップS60でNO)場合は、交換レンズに関する設定がフラッシュROM21に記憶されていない場合であり、図20に示すケラレ調整処理(ステップS54~S58)、及びフレーム枠調整処理(ステップS12~S26)を行う。これらの処理は既に説明しているため、説明を省略する。
 ケラレ調整処理(ステップS54~S58)及びフレーム枠調整処理(ステップS12~S26)が終了したら、CPU41は、調整された設定を、交換レンズの名称又は番号と関連付けてフラッシュROM21に記憶する(ステップS66)。交換レンズの名称又は番号は、CPU41が所定の規則にのっとって自動的につけてもよいし、ユーザが入力しても良い。
 本実施の形態によれば、交換レンズを初めて装着した際に交換レンズに関する設定を名前をつけて保存しておくことで、次回同じ交換レンズを装着した際、設定を読み出すだけで、すぐに使える状態にすることができる。
 以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。そのような変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
 特許請求の範囲、明細書、及び図面中において示した装置、システム、プログラム、及び方法における動作、手順、ステップ、及び段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、及び図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。
 1、1-1、1-2、1-3、1-4…デジタルカメラ、12…撮影光学系、13…CCD、14…AFE、15…DSP、31…ズームレンズ、32…フォーカスレンズ、33…アイリス33、34…シャッタ、41…CPU、44…AE・AWB検出回路、45…AF検出回路、50…ハイブリッドファインダ、51…光学ファインダ、52…電子ビューファインダ

Claims (12)

  1.  交換レンズを装着させるカメラマウントと、
     前記交換レンズを通過した被写体光に応じた画像信号を生成する撮像素子と、
     被写体の光学像を観察可能な光学ファインダと、
     画像を前記光学像に重畳表示可能な電子ビューファインダと、
     前記カメラマウントに装着された前記交換レンズの情報を取得するレンズ情報取得手段と、
     前記レンズ情報取得手段において前記交換レンズの情報を取得できなかった場合には、前記画像信号に基づく撮影画像を前記電子ビューファインダに表示させる第1の表示制御手段と、
     を備えた撮影装置。
  2.  前記第1の表示制御手段により前記電子ビューファインダに表示された撮影画像の前記光学像に対する重畳位置を移動させる移動手段と、
     前記移動手段により移動された撮影画像の位置に基づいて前記撮影画像の位置を決定する位置決定手段と、
     前記位置決定手段により決定された位置に前記光学像上において撮影範囲を識別可能な撮影範囲画像を前記電子ビューファインダに表示させる表示制御手段と、
     を備えた請求項1に記載の撮影装置。
  3.  前記光学ファインダは、前記光学像の倍率を変更するファインダ倍率変更手段を備えた請求項1又は2に記載の撮影装置。
  4.  前記撮影範囲画像の位置を記憶する記憶手段を備えた請求項2に記載の撮影装置。
  5.  前記記憶手段に前記撮影範囲画像の位置が記憶されているか判断する判断手段を備え、
     前記第1の表示制御手段は、前記判断手段により前記撮影範囲画像の位置が記憶されていると判断された場合には、前記撮影画像を前記電子ビューファインダに表示させる代わりに、前記撮影範囲画像を前記記憶手段に記憶された位置で前記電子ビューファインダに表示させる請求項4に記載の撮影装置。
  6.  前記電子ビューファインダに表示された撮影画像の位置及び大きさの変更の入力を受け付ける入力手段と、
     前記入力手段により変更が入力された位置及び大きさに基づいて、被写体が撮影されている範囲を決定する撮影範囲決定手段と、
     を備えた請求項1から5のいずれかに記載の撮影装置。
  7.  前記第1の表示制御手段は、前記撮影画像のうちの前記撮影範囲決定手段により決定された範囲の画像を新たな撮影画像とする請求項6に記載の撮影装置。
  8.  前記交換レンズは、ズームレンズ及びフォーカスレンズを含み、
     前記レンズ情報取得手段は、前記カメラマウントに装着された前記交換レンズにおける前記ズームレンズ及び前記フォーカスレンズの位置情報を取得し、
     前記ズームレンズ及び前記フォーカスレンズの位置情報を取得した場合には、前記ズームレンズ及び前記フォーカスレンズの位置情報に基づいて前記撮影範囲画像の位置及び大きさを算出する算出手段とを備えた請求項2又は4に記載の撮影装置。
  9.  前記光学像を観察できないように前記光学像を遮光するファインダシャッターと、
     前記第1の表示制御手段により前記電子ビューファインダに前記撮影画像が表示された場合には、前記ファインダシャッターにより前記光学像を遮光するシャッタ制御手段と、
     を備えた請求項1から8のいずれかに記載の撮影装置。
  10.  カメラマウントを介して装着された交換レンズを通過した被写体光を撮像素子に結像させるステップと、
     前記カメラマウントに装着された前記交換レンズの情報を取得するステップと、
     前記交換レンズの情報が取得できなかった場合には、光学ファインダの光学像に重畳表示される電子ビューファインダに前記撮像素子で生成された画像信号に基づく撮影画像を表示させるステップと、
     を備えた撮影方法。
  11.  カメラマウントを介して装着された交換レンズを通過した被写体光を撮像素子に結像させるステップと、
     前記カメラマウントに装着された前記交換レンズの情報を取得するステップと、
     前記交換レンズの情報が取得できなかった場合には、光学ファインダの光学像に重畳表示される電子ビューファインダに前記撮像素子で生成された画像信号に基づく撮影画像を表示させるステップと、
     を演算装置に実行させるプログラム。
  12.  カメラマウントを介して装着された交換レンズを通過した被写体光を撮像素子に結像させるステップと、
     前記カメラマウントに装着された前記交換レンズの情報を取得するステップと、
     前記交換レンズの情報が取得できなかった場合には、光学ファインダの光学像に重畳表示される電子ビューファインダに前記撮像素子で生成された画像信号に基づく撮影画像を表示させるステップと、
     を演算装置に実行させるプログラムを記録したコンピュータ読み取り可能な非一時的記録媒体。
PCT/JP2012/074490 2011-09-30 2012-09-25 撮影装置、撮影方法及びプログラム WO2013047483A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013536287A JP5607260B2 (ja) 2011-09-30 2012-09-25 撮影装置、撮影方法及びプログラム
CN201280047980.XA CN103842903B (zh) 2011-09-30 2012-09-25 成像设备、成像方法以及程序
US14/228,652 US8848090B2 (en) 2011-09-30 2014-03-28 Imaging device, imaging method, and a non-transitory computer-readable recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011218565 2011-09-30
JP2011-218565 2011-09-30

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/228,652 Continuation US8848090B2 (en) 2011-09-30 2014-03-28 Imaging device, imaging method, and a non-transitory computer-readable recording medium

Publications (1)

Publication Number Publication Date
WO2013047483A1 true WO2013047483A1 (ja) 2013-04-04

Family

ID=47995515

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/074490 WO2013047483A1 (ja) 2011-09-30 2012-09-25 撮影装置、撮影方法及びプログラム

Country Status (4)

Country Link
US (1) US8848090B2 (ja)
JP (1) JP5607260B2 (ja)
CN (1) CN103842903B (ja)
WO (1) WO2013047483A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017192086A (ja) * 2016-04-15 2017-10-19 キヤノン株式会社 画像生成装置、画像観察装置、撮像装置および画像処理プログラム

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104205797B (zh) * 2012-03-28 2015-10-21 富士胶片株式会社 摄像装置
US9503645B2 (en) * 2012-05-24 2016-11-22 Mediatek Inc. Preview system for concurrently displaying multiple preview images generated based on input image generated by image capture apparatus and related preview method thereof
CN104508551B (zh) * 2012-07-24 2016-01-20 富士胶片株式会社 相机及其动作控制方法
WO2014017175A1 (ja) * 2012-07-24 2014-01-30 富士フイルム株式会社 カメラおよびその動作制御方法
WO2014069228A1 (ja) * 2012-11-05 2014-05-08 富士フイルム株式会社 画像処理装置、撮像装置、画像処理方法及びプログラム
CN106464755B (zh) * 2015-02-28 2019-09-03 华为技术有限公司 自动调整摄像头的方法和电子设备
KR102345652B1 (ko) * 2015-06-26 2021-12-30 삼성전자주식회사 뷰 파인더 장치 및 그 동작 방법
WO2019087928A1 (ja) * 2017-10-30 2019-05-09 富士フイルム株式会社 撮像装置、ファインダ装置、撮像装置の制御方法、ファインダ装置の制御方法、撮像装置の制御プログラム及びファインダ装置の制御プログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05100288A (ja) * 1991-10-11 1993-04-23 Minolta Camera Co Ltd 電子ビユウフアインダーを有するカメラ
JPH08321982A (ja) * 1995-05-24 1996-12-03 Canon Inc 複合カメラ
JP2005024843A (ja) * 2003-07-01 2005-01-27 Olympus Corp デジタル一眼レフカメラ
JP2008098808A (ja) * 2006-10-10 2008-04-24 Nikon Corp カメラ

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5557358A (en) 1991-10-11 1996-09-17 Minolta Camera Kabushiki Kaisha Camera having an electronic viewfinder for displaying an object image under different photographic conditions
JPH05321982A (ja) 1992-05-19 1993-12-07 Nissan Motor Co Ltd バランサシャフト付きエンジンの本体構造
JPH08294025A (ja) * 1995-04-24 1996-11-05 Olympus Optical Co Ltd カメラ
DE102004004806B4 (de) * 2004-01-30 2012-04-19 Arnold & Richter Cine Technik Gmbh & Co. Betriebs Kg Elektronische Laufbildkamera
KR101195696B1 (ko) * 2005-12-06 2012-10-29 파나소닉 주식회사 디지털 카메라
JP2008096584A (ja) 2006-10-10 2008-04-24 Nikon Corp カメラ
JP5100288B2 (ja) * 2007-10-01 2012-12-19 キヤノン株式会社 表示装置、ネットワークカメラシステム、及び表示方法
JP5350140B2 (ja) * 2009-08-26 2013-11-27 キヤノン株式会社 撮像装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05100288A (ja) * 1991-10-11 1993-04-23 Minolta Camera Co Ltd 電子ビユウフアインダーを有するカメラ
JPH08321982A (ja) * 1995-05-24 1996-12-03 Canon Inc 複合カメラ
JP2005024843A (ja) * 2003-07-01 2005-01-27 Olympus Corp デジタル一眼レフカメラ
JP2008098808A (ja) * 2006-10-10 2008-04-24 Nikon Corp カメラ

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017192086A (ja) * 2016-04-15 2017-10-19 キヤノン株式会社 画像生成装置、画像観察装置、撮像装置および画像処理プログラム

Also Published As

Publication number Publication date
CN103842903A (zh) 2014-06-04
US8848090B2 (en) 2014-09-30
US20140211069A1 (en) 2014-07-31
JP5607260B2 (ja) 2014-10-15
CN103842903B (zh) 2015-06-03
JPWO2013047483A1 (ja) 2015-03-26

Similar Documents

Publication Publication Date Title
JP5607260B2 (ja) 撮影装置、撮影方法及びプログラム
JP5779959B2 (ja) 撮像装置
US8860870B2 (en) Imaging device, imaging method and recording medium
US7668451B2 (en) System for and method of taking image
JP2013013050A (ja) 撮像装置及びこの撮像装置を用いた表示方法
JP2011045039A (ja) 複眼撮像装置
JP5667726B2 (ja) レンズ交換式カメラ及びファインダの表示方法
WO2013146019A1 (ja) 撮像装置
JP5546691B2 (ja) 撮影装置、撮影方法およびプログラム
US10298862B2 (en) Imaging apparatus and imaging method
WO2017086065A1 (ja) 撮影装置及びその制御方法
US9167158B2 (en) Imaging device, and imaging method
JP2007225897A (ja) 合焦位置決定装置及び方法
JP6706167B2 (ja) 撮像装置、画像合成方法、およびプログラム
JP5457240B2 (ja) 立体撮像装置
JP5144469B2 (ja) 撮像装置及びその制御方法
KR20130092213A (ko) 디지털 촬영 장치 및 이의 제어 방법
JP2005039401A (ja) 立体カメラ及び立体画像の撮影方法
JP5530569B2 (ja) 撮影装置及びファインダの表示方法
JP2015127721A (ja) 焦点検出装置および撮像装置
JP2014135589A (ja) 画像処理装置、その制御方法、および制御プログラム
JP2011109695A (ja) 撮影装置及びプログラム
JP2006109077A (ja) カメラ
JP2018157263A (ja) 撮像制御装置およびその制御方法
JP2007036395A (ja) デジタルカメラ及びその撮影モード設定方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12836027

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2013536287

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12836027

Country of ref document: EP

Kind code of ref document: A1