WO2014017175A1 - カメラおよびその動作制御方法 - Google Patents

カメラおよびその動作制御方法 Download PDF

Info

Publication number
WO2014017175A1
WO2014017175A1 PCT/JP2013/065370 JP2013065370W WO2014017175A1 WO 2014017175 A1 WO2014017175 A1 WO 2014017175A1 JP 2013065370 W JP2013065370 W JP 2013065370W WO 2014017175 A1 WO2014017175 A1 WO 2014017175A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
target area
optical
subject
electronic
Prior art date
Application number
PCT/JP2013/065370
Other languages
English (en)
French (fr)
Inventor
三沢 充史
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2014526805A priority Critical patent/JP5736515B2/ja
Priority to CN201380039404.5A priority patent/CN104487893B/zh
Publication of WO2014017175A1 publication Critical patent/WO2014017175A1/ja
Priority to US14/604,499 priority patent/US9264607B2/en

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/02Viewfinders
    • G03B13/06Viewfinders with lenses with or without reflectors
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/18Focusing aids
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/02Viewfinders
    • G03B13/06Viewfinders with lenses with or without reflectors
    • G03B13/08Viewfinders with lenses with or without reflectors with reflected image of frame
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/18Signals indicating condition of a camera member or suitability of light
    • G03B17/20Signals indicating condition of a camera member or suitability of light visible in viewfinder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2217/00Details of cameras or camera bodies; Accessories therefor
    • G03B2217/18Signals indicating condition of a camera member or suitability of light
    • G03B2217/185Signals indicating condition of a camera member or suitability of light providing indication that the picture may be blurred

Definitions

  • This invention relates to a camera and its operation control method.
  • Patent Document 1 Some digital cameras are equipped with a device having both optical and electronic viewfinders (Patent Document 1). A fine optical subject image can be seen with the optical viewfinder, and the same subject image as the subject image taken with the electronic viewfinder can be seen.
  • a main image of the image sensor of the main imaging unit is overlaid with a partial image cut out from the sub-image of the image sensor of the sub-imaging unit (Patent Document 2), a conventional image-matching optical range
  • Patent Document 3 a partial image cut out from the sub-image of the image sensor of the sub-imaging unit
  • Patent Document 4 a partial image cut out from the sub-image of the image sensor of the sub-imaging unit
  • the display time on the display device is delayed by the readout time of the solid-state electronic image sensor.
  • the optical subject image does not match the AF target image displayed on the display device. Despite being correct, it may be determined that the subject is not in focus.
  • the present invention reduces the delay in displaying the AF target image displayed on the display device when the double image coincidence method is applied to an optical / electronic finder having both optical and electronic finder functions.
  • the purpose is to eliminate.
  • the camera according to the present invention has a focus lens built in and a rotatable focus ring is provided around it, and a lens barrel that adjusts the position of the focus lens according to the rotation of the focus ring, an optical type Setting means for setting either the electronic view finder function or the electronic view finder function, an eyepiece formed on the front of the camera and looking through the objective window facing the subject and the optical subject image seen through the objective window
  • the electronic view finder function is set by the finder device with a window and setting means, the light entering from the objective window of the finder device is blocked, and the optical electronic combined view finder function is set by the setting means.
  • the shutter is set to pass the light incident from the objective window of the finder device.
  • the subject image formed by the lens barrel is picked up, and subject image data representing the picked-up subject image is output, and the setting means
  • the subject image formed by the lens barrel is captured, and desired AF target image data that is a part of the captured subject image is output.
  • the subject image represented by the subject image data output from the solid-state electronic imaging device is displayed on the display screen, and the setting means optically displays the subject image.
  • a that is output from the solid-state electronic imaging device in response to the setting of the combined electronic electronic view finder function Display device for displaying AF target image represented by target image data on display screen, AF target image or subject image displayed on display screen of display device provided between objective window and eyepiece window And an optical object image viewable through the objective window if the image in the AF target area is out of focus in response to the setting of the optical electronic combined viewfinder function by the deflecting device and setting means.
  • the image in the AF target area is displayed on the display screen so that the image in the AF target area is shifted. If the image in the AF target area is in focus, the optical object image that can be seen through the objective window and the AF target area are displayed.
  • Display control means for controlling the display device to display the image in the AF target area on the display screen so that the image matches It is characterized by having.
  • This invention also provides an operation control method suitable for a camera.
  • a focus lens is built in and a rotatable focus ring is provided around it, and it is formed on the lens barrel that adjusts the position of the focus lens according to the rotation of the focus ring and on the front of the camera.
  • the setting means includes an optical electronic combined view finder function and an electronic One of the functions of the viewfinder function is set, and the shutter means blocks the light incident from the object window of the viewfinder device according to the setting of the electronic viewfinder function by the setting means, and the setting means
  • the objective of the viewfinder device can be adjusted according to the setting of the electronic view / viewfinder function.
  • the solid-state electronic imaging device captures the subject image formed by the lens barrel in response to the setting of the electronic view finder function by the setting means.
  • Subject image data representing the captured subject image is output, and the subject image formed by the lens barrel is captured in accordance with the setting of the optical and electronic combined view and finder function by the setting means.
  • the desired AF target image data which is a part of the image, is output, and the display device uses the subject image data output from the solid-state electronic imaging device in response to the electronic view finder function being set by the setting means.
  • the displayed subject image is displayed on the display screen, and the optical / electronic combined viewfinder function is set by the setting means.
  • the AF target image represented by the AF target image data output from the solid-state electronic imaging device is displayed on the display screen, and the deflection device is provided between the objective window and the eyepiece window.
  • the AF target image or subject image displayed on the screen is guided to the eyepiece window, and the image in the AF target area is displayed when the display control means sets the optical electronic combined viewfinder function by the setting means. If the image is out of focus, the image in the AF target area is displayed on the display screen so that the optical subject image seen through the objective window and the image in the AF target area are shifted, and the image in the AF target area is in focus. If so, the image in the AF target area is displayed on the display screen so that the optical subject image seen through the objective window matches the image in the AF target area.
  • the display device is controlled to display.
  • the shutter means is opened, so that an optical subject image can be obtained.
  • an image in the AF target area is displayed on the display screen of the display device.
  • the user views an image in which the image in the displayed AF target area is superimposed on the optical subject image. If the image in the AF target area is out of focus, the two superimposed images are shifted, and if the image in the AF target area is in focus, the two superimposed images are not shifted.
  • a so-called image matching type finder can be realized.
  • the electronic view finder possibility is set, the shutter means is closed and the user views the subject image displayed on the display device. The user will focus while viewing the subject image.
  • the AF target image data output from the solid-state electronic imaging device is not the entire captured subject image, but a part of the AF target image data. It represents target image data. Since the subject image data representing the entire subject image is not output from the solid-state electronic imaging device, but a part of the AF target image data is output from the solid-state electronic imaging device, it can be read out relatively quickly.
  • the read AF target image data is given to the display device, and the AF target image is displayed on the display screen of the display device.
  • the AF target image is guided to the eyepiece window of the finder device by the deflecting device and superimposed on the optical subject image.
  • the optical subject image and the image in the AF target area are misaligned. If the image in the AF target area is in focus, the optical subject image and the AF target area The image in the AF target area is displayed on the display screen of the display device so that the images match with each other without deviation. It is possible to realize a so-called image double match type finder device that can focus even when the subject or the camera is moving.
  • the display control means may include rotation amount detection means for detecting the rotation amount of the focus ring. In this case, based on the rotation amount detected by the rotation amount detection means, if the image in the AF target area is out of focus, the optical subject image seen through the objective window and the image in the AF target area are at least horizontally. The image in the AF target area is displayed on the display screen so as to deviate in the direction. If the image in the AF target area is in focus, the optical subject image seen through the objective window matches the image in the AF target area. Thus, the display device will be controlled to display the image in the AF target area on the display screen.
  • the display control means for example, based on the rotation amount detected by the rotation amount detection means, if the image in the AF target area is out of focus, the optical object image that can be seen through the objective window and the AF target area
  • the image in the AF target area is displayed on the display screen so that the image in the AF is shifted on the axis connecting the optical axis of the lens barrel and the optical axis of the finder apparatus.
  • the display device may be controlled to display the image in the AF target area on the display screen so that the optical subject image seen through the objective window matches the image in the AF target area.
  • the display control means moves the image in the AF target area at least in the horizontal direction according to the rotation of the focus ring, and is visible through the objective window when the focus lens focus position matches the distance to the subject.
  • the display device may be controlled so that the image in the AF target area is displayed on the display screen so that the optical subject image matches the image in the AF target area.
  • the display control means focuses on the rotation amount detection means for detecting the rotation amount of the focus ring, and the distance of the object in front of the camera based on the rotation amount detected by the rotation amount detection means.
  • the image of the AF target area displayed on the display screen may be matched.
  • the display control means corrects the deviation between the optical object image seen through the objective window and the image in the AF target area due to the deviation between the optical axis of the solid-state electronic imaging device and the optical axis of the finder device, for example.
  • the image in the target area is displayed on the display screen.
  • the display control means uses, for example, a distance calculation means to detect a deviation between an optical subject image seen through the objective window and an image in the AF target area due to a deviation between the optical axis of the solid-state electronic imaging device and the optical axis of the finder device. A correction amount corresponding to the calculated distance may be corrected, and an image in the AF target area may be displayed on the display screen.
  • a first AF target area setting means for setting at least one of the position, size and number of AF target areas may be further provided.
  • a second AF target area setting unit that sets at least one of brightness and density of an image in the AF target area may be further provided.
  • Face detecting means for detecting a face area included in a subject image picked up by a solid-state electronic imaging device, and third AF target area setting means for setting the face area detected by the face detecting means as an AF target area Further, it may be provided.
  • FIG. 1 to FIG. 3 show an embodiment of the present invention and show the appearance of the digital camera 1.
  • 1 is a front view
  • FIG. 2 is a rear view
  • FIG. 3 is a perspective view seen from the back.
  • a lens barrel 2 protruding forward is provided at substantially the center of the front of the digital camera 1.
  • a finder device is formed, and an objective window 3 facing the subject is formed.
  • a strobe light emitting device 4 is provided on the left side of the objective window 3.
  • the finder apparatus of this embodiment can switch between the function of the combined optical and electronic view finder and the function of the electronic view finder as will be described in detail later.
  • the function of the combined optical and electronic view finder has a function of superimposing information displayed on the electronic view finder on an optical subject image obtained by the optical view finder.
  • a switching lever 19 is provided for switching between the function of the optical electronic combined view finder and the function of the electronic view finder.
  • the switching lever 19 is tilted to the left when viewed from the front, the function of the optical electronic combined view finder is set, and when the switching lever 19 is tilted to the right when viewed from the front, the finder apparatus is the electronic view finder. Function is set.
  • a shutter speed dial 6, a power lever 7, a shutter release button 8 and an exposure dial 9 are provided on the left side of the top surface of the digital camera 1 when viewed from the front.
  • the shutter speed dial 6 is a rotatable circular knob.
  • the user can set a desired shutter speed by rotating the shutter speed dial 6.
  • the power lever 7 can be moved a predetermined angle to the right and left as viewed from the front.
  • the user can turn on / off the power of the digital camera 1 by moving the power lever 7 by a predetermined angle.
  • the power lever 7 has an annular space inside, and a shutter release button 8 is provided in the space.
  • the exposure dial 9 is also a rotatable circular knob. The user can correct the exposure by rotating the exposure dial 9.
  • a display screen 12 of the liquid crystal display device is formed over almost the entire back surface of the digital camera 1.
  • An eyepiece window 11 constituting a finder device is formed on the upper left of the back of the digital camera 1.
  • a command lever 10 that can be moved left and right is provided at the upper right of the back of the digital camera 1. The user can give a command to the digital camera 1 such as aperture adjustment at 1/3 EV step during manual exposure by operating the command lever.
  • an AF (automatic focus adjustment) / AE (automatic exposure) lock button 13 Under the command lever 10, an AF (automatic focus adjustment) / AE (automatic exposure) lock button 13, a command dial 14, a menu / OK button 15, a back button 16, a RAW button 17, etc. are provided. Yes.
  • the shutter speed dial 6, the power lever 7, the shutter release button 8, and the exposure are provided on the right side (right side as viewed from the back) of the top surface of the digital camera 1.
  • a dial 9 is provided.
  • the power lever 7 is formed with the protrusion 7A protruding in the front direction. When the projection 7A is pinched and moved left and right, the power of the digital camera 1 can be turned on and off.
  • the subject By approaching the eyepiece window 11 of the finder device and looking through the eyepiece window 11, the subject can be seen through the objective window 3 and the eyepiece window 11, and the camera angle can be determined.
  • FIG. 4 is a block diagram showing the electrical configuration of the digital camera 1.
  • the overall operation of the digital camera 1 is controlled by the CPU 47.
  • the digital camera 1 includes a solid-state electronic image sensor 41.
  • a focus lens group 31 built in the lens barrel 2 is positioned in front of the solid-state electronic image sensor 34.
  • a rotatable focus ring 32 is provided around the lens barrel 2.
  • the focus ring group 31 is positioned according to the operation of the focus ring 32 by the user.
  • a video signal representing the subject image is output from the solid-state electronic image pickup device 41.
  • the video signal is input to the analog / digital conversion circuit 43 via the sample / hold circuit 42.
  • the analog / digital conversion circuit 43 converts the video signal into digital image data.
  • the converted digital image data is subjected to predetermined signal processing such as white balance adjustment and gamma correction in the signal processing circuit 44.
  • the digital image data output from the signal processing circuit 44 is given to an LCD (Liquid Crystal Display) driver 48 via a memory 46.
  • the LCD driver 48 controls the liquid crystal display device 12 (using the same reference numerals as the display screen), and the subject image captured by the solid-state electronic image sensor 41 is displayed on the display screen of the liquid crystal display device 12.
  • the image data input to the memory 46 is recorded on the memory card 50 under the control of the memory card controller 49 as described above.
  • the image data output from the signal processing circuit 44 is input to the digital / analog conversion circuit 45.
  • the image data is converted back to an analog video signal in the digital / analog conversion circuit 45 and applied to the image shift circuit 35.
  • the rotation amount of the focus ring 32 is detected by the encoder 33.
  • a signal indicating the detected rotation amount is input to the distance calculation circuit 34.
  • the image shift circuit 35 also receives a video signal representing a subject image. As will be described in detail later, processing for shifting the subject image is performed in the image shift circuit 35 in accordance with the calculated distance.
  • the video signal output from the image shift circuit 35 is given to the electronic view finder 65 of the finder device 60 by the LCD driver 36.
  • the electronic view finder 65 is a liquid crystal display device. The subject image obtained by imaging can be displayed on the display screen of the electronic viewfinder 65.
  • an eyepiece lens 66 is provided in front of the eyepiece window 11, and a prism 63 in which a half mirror 64 is formed is provided in front of the eyepiece lens 66.
  • the half mirror 64 is formed to have an incident angle of 45 degrees with respect to the optical axis C3 of the optical viewfinder 60.
  • An OVF (optical viewfinder) shutter (which may be a mechanical shutter or a liquid crystal shutter) 62 and an objective lens 61 are provided in front of the prism 63.
  • the subject image of the subject OB formed by the objective lens 61 and the eyepiece 66 can be viewed from the eyepiece window 11. Further, when a subject image obtained by imaging is displayed on the display screen of the electronic view finder 65 while the OVF shutter 62 is open, the light beam representing the subject image is reflected by the half mirror 64, and the electronic view is displayed. The user can see the subject image displayed on the display screen of the finder 65. The subject image displayed on the display screen of the electronic view finder 65 can be overlaid on the optical subject image formed by the objective lens 61 or the like.
  • the optical axis of the lens barrel 2 (the optical axis of the lens barrel 2 is the same as the optical axis of the solid-state electronic image pickup device 41) is C2
  • the optical axis of the finder device 60 is C3
  • the optical axis C2 and the optical axis Does not match C3. For this reason, a parallax with a parallax angle ⁇ is generated between the subject OB viewed from the viewfinder device 60 and the subject OB imaged using the lens barrel 2.
  • the subject image displayed on the display screen of the electronic viewfinder 65 is superimposed on the optical subject image seen from the viewfinder device 60, the same subject OB is seen,
  • the optical subject image seen from the viewfinder device 60 and the subject image displayed on the electronic viewfinder 65 are shifted due to parallax.
  • the subject image is shifted in the image shift circuit 35 so that the parallax is corrected in the image shift circuit 35 described above.
  • the focus lens group 31 is positioned by the focus ring 32 so as to focus on the subject OB, an optical subject image that can be seen from the eyepiece window 11 of the viewfinder device 60 is displayed on the electronic viewfinder 65.
  • the optical subject image seen from the eyepiece window 11 of the viewfinder device 60 does not match the subject image displayed on the electronic viewfinder 65.
  • a so-called image matching type finder device can be realized.
  • FIG. 5 shows the relationship between the lens barrel 2 and the objective window 3 when the digital camera 1 is viewed from the front.
  • the optical axis C2 of the lens barrel 2 and the optical axis C3 of the optical viewfinder 60 are separated by a distance d and have parallax. For this reason, when the subject does not exist at a position that can be regarded as infinity, a deviation occurs between the subject image viewed through the eyepiece window 3 and the subject image captured by the lens barrel 2. As described above, when the subject image picked up by the solid-state electronic image pickup device 34 is displayed on the electronic view finder 65 and superimposed on the optical subject image formed through the objective window 3, the subject is taken into account due to this parallax. Even if the focus / lens group 31 is positioned so that the subject is in focus, a part of the subject image displayed on the electronic viewfinder 65 may not match the optical subject image.
  • FIG. 6 shows a state in which the subject OB is viewed through the lens barrel 2 (imaging) and a state in which the subject OB is viewed from the eyepiece window 3 of the finder device 60.
  • the distance between the optical axis C2 of the lens barrel 2 and the optical axis C3 of the eyepiece window 3 is d.
  • D the distance from the lens barrel 2 to the subject OB.
  • the lens barrel 2 solid-state electronic image pickup device 41
  • FIG. 7 shows the structure of the finder device 60.
  • the upper diagram of FIG. 7 shows the viewfinder device 60 in a plan view as in FIG. 4, and the lower diagram of FIG. 7 shows the viewfinder device 60 in three dimensions.
  • the same reference numerals are given to the same components as those shown in FIG.
  • FIG. 8 is a plan view of the positional relationship between the digital camera 1 and the main subjects OB1, OB2, and OB3.
  • the parallax angle formed from the optical axis of the eyepiece window 3 is ⁇ 1.
  • the main subject OB2 is at a middle distance D2 that is neither far nor near from the digital camera 1
  • the parallax formed from the optical axis of the eyepiece window 3 The angle is ⁇ 2.
  • the parallax angle formed from the optical axis of the eyepiece window 3 is ⁇ 3.
  • parallax angles ⁇ 1, ⁇ 2, and ⁇ 3 are ⁇ 1 ⁇ 2 ⁇ 3.
  • the parallax angle is almost negligible when the subject is at a position far enough to be considered as infinity. In that case, there is almost no deviation between the optical subject image seen through the eyepiece window 3 and the subject image displayed on the electronic viewfinder 65. Therefore, the above-described parallax correction is not necessarily required when viewing a subject that is far from the digital camera 1.
  • FIG. 9 shows how to read out the signal charge accumulated in the photoelectric conversion element formed on the light receiving surface 41A of the solid-state electronic image sensor 41.
  • an image in the AF target area (AF target image) is displayed on the display screen of the electronic viewfinder 65 as will be described in detail later.
  • the signal charges accumulated in the photoelectric conversion elements on the entire light receiving surface are not read out as video signals, but correspond to the AF target area.
  • Signal charges accumulated in the photoelectric conversion elements included in the light receiving region 51 are read out as video signals. Since the readout range is reduced, the time required for readout of the video signal is shortened. For example, if the area 51 corresponding to the AF target area is about 1/10 of the entire light receiving surface, the readout time is about 1/10 compared with the case of reading a video signal from the photoelectric conversion elements on the entire light receiving surface.
  • the signal charges accumulated in the photoelectric conversion elements included in the region 51A that is larger than the region 51 corresponding to the AF target region and smaller than the light receiving surface are imaged. It may be read as a signal. This is because the image represented by the video signal obtained from the area 51 may be shifted, so that the image in the AF target area may not be represented.
  • CMOS Complementary Metal Metal Oxide Semiconductor
  • FIG. 10 also shows how to read out the signal charge accumulated in the photoelectric conversion element formed on the attending surface 41A of the solid-state electronic image sensor 41.
  • the OVF shutter 62 is closed as described above, and the user views the subject image displayed on the display screen of the electronic view finder 65.
  • the display screen of the electronic viewfinder 65 it is necessary to display the entire subject image picked up by the solid-state electronic image pickup device 41. For this reason, signal charges accumulated in the photoelectric conversion elements on the entire light receiving surface are read out as video signals.
  • FIG. 11 is an example of an optical subject image 70 that can be seen through the objective window 3 of the finder device 60.
  • the main subject image 72 which is an object to be focused on, is positioned approximately at the center of the subject image 70.
  • FIG. 12 is an example of an electronic view finder image 80 displayed on the display screen of the electronic view finder 65.
  • one AF target area 81 is formed substantially at the center.
  • a subject image 82 picked up by the solid-state electronic image pickup device 41 is displayed in the AF target area 81 (shown by a chain line in FIG. 10 so that it can be seen that the image is obtained by image pickup).
  • the subject image 82 displayed in the AF target area 81 is an image shifted by the image shift circuit 35.
  • a region around the AF target region 82 is a mask region 85.
  • the mask area 85 masks an image that is not displayed in the AF target area 81 from the subject image captured by the solid-state electronic image sensor 41.
  • visual field frames 83 indicating the imaging range are displayed at the four corners of the electronic view finder image 80.
  • Data indicating the mask area 85 and the field frame 83 is stored in the memory 46, and these data are read from the memory 46 by the CPU 47 and given to the LCD driver 36, whereby the mask area 85 and the field frame 83 are displayed. Is done.
  • FIG. 13 is an example of a viewfinder image that can be seen from the eyepiece window 11.
  • the OVF shutter 62 When the function of the optical electronic combined viewfinder is set, the OVF shutter 62 is opened.
  • the OVF shutter 62 is opened, an image in which the electronic viewfinder image 80 shown in FIG. 12 is superimposed on the optical subject image 70 shown in FIG.
  • the subject image 82 displayed on the electronic viewfinder 65 is subjected to parallax correction.
  • the display position of the electronic view finder 65 is shifted by the image shift circuit 35. For this reason, if the subject image 82 in the AF target area 81 is in focus, the subject image 82 superimposed on the optical subject image 72 matches, and the subject image 82 in the AF target area 81 is in focus. If they do not match, a deviation from the subject image 82 superimposed on the optical subject image 72 occurs.
  • Manual focus can be achieved by operating the focus ring 32 in accordance with the deviation between the optical subject image 72 and the captured subject image 82.
  • signal charges are read out from the solid-state electronic image sensor 41 from all the photoelectric conversion elements on the light receiving surface as video signals.
  • the signal charge is read out as a video signal from the photoelectric conversion element included in the area corresponding to the AF target area 81 (or an area larger than that area)
  • the reading time is shortened, and the electronic view finder 65
  • the delay time until it is displayed can be shortened. Even when the subject or the camera itself is moving, the AF target image can be quickly displayed on the display screen of the electronic viewfinder 65, and focusing can be performed.
  • FIG. 14 is a flowchart showing a processing procedure for focusing by manual focus.
  • the optical / electronic combined viewfinder function is set (YES in step 91)
  • An optical subject image can be viewed from the viewfinder device 60.
  • a video signal is read from the solid-state electronic image sensor 41 from an area 51 corresponding to the AF target area (or an area 51A that is slightly larger than that area) in order to realize quick reading (step 51). 93).
  • the user looks through the eyepiece window 11 of the finder device 60 and operates the focus ring 32 while viewing the optical subject image (step 94).
  • the rotation amount of the focus ring 32 is detected by the encoder 33 (step 95), and the distance from the digital camera 1 at which the focus lens group 31 is focused to the subject is calculated (step 96).
  • the relationship between the rotation amount of the focus ring 32 and the distance from the digital camera 1 to which the focus lens group 31 is focused to the subject is detected in advance in the manufacturing process of the digital camera 1 and shows the relationship between them.
  • the data is stored in a memory (not shown) in the distance detection circuit 34.
  • the distance from the digital camera 1 at which the focus lens group 31 is focused to the subject is calculated from the rotation amount of the focus lens group 31 using the data indicating the relationship.
  • the image shift amount for parallax correction is calculated according to the calculated distance (step 97). It goes without saying that the relationship between the distance from the digital camera 1 to which the focus lens group 31 is focused and the subject and the shift amount is also calculated and stored in advance in the manufacturing process of the digital camera.
  • the image in the AF target area 81 shifted by the image shift amount calculated according to the rotation amount of the focus ring 31 is displayed on the display screen of the electronic viewfinder 65 (step 98).
  • the subject image 82 in the AF target area 81 deviates from the optical subject image 72 if it is not in focus, and matches the optical subject image 72 if it is in focus.
  • the viewfinder device 60 is a so-called double image conforming type. For example, referring to FIG. 8, the focus ring 32 is focused so as to focus on the subject OB1 or the subject OB3 at the distance D1 or D3 even though the subject is the subject OB2 at the distance D2. It is assumed that it has been operated.
  • a user looking through the finder device 60 sees a subject image that is doubly shifted.
  • the focus ring 32 is operated so as to focus on the subject OB2 at the distance D2 by operating the focus ring 32, a subject image without image shift is visible to the user looking through the viewfinder device 60.
  • the user knows that the subject is in focus and turns on the shutter release (YES in step 99 in FIG. 14), and the subject is imaged.
  • Image data representing the captured subject image is recorded in the memory card 50.
  • the OVF shutter 62 is closed (step 100).
  • the optical subject image through the objective window 3 is not visible from the eyepiece window 11.
  • the subject is imaged by the solid-state electronic image sensor 41, and a video signal representing the entire subject image is read (step 101).
  • the focus of the subject image is adjusted according to the operation of the focus ring 32 by the user.
  • the entire subject image with the focus adjusted is displayed on the electronic viewfinder 65 (step 103).
  • the user adjusts the focus by operating the focus ring 32 while viewing the subject image displayed on the electronic view finder 65.
  • image data representing the subject image is recorded in the memory card 50.
  • FIG. 15 shows a modification and is an example of an AF target frame size setting image.
  • the AF target frame size setting menu can be selected.
  • an AF target frame size setting image shown in FIG. 15 is displayed on the liquid crystal display screen 12.
  • a size setting bar 105 extending in the horizontal direction is formed at the bottom of the AF target frame size setting image.
  • a slider 106 that freely moves in the horizontal direction on the size setting bar 105 is also formed.
  • the slider 106 moves left and right on the size setting bar 105 by operating a predetermined button among the buttons included in the digital camera 1.
  • the size of the AF target region 81 decreases, and as the slider 106 moves to the right side, the size of the AF target region 81 increases as shown by a chain line. In this way, the size of the AF target area 81 can be set to a desired size.
  • FIG. 16 shows another modified example and is an AF target density setting image.
  • the menu display screen is selected using the menu / OK button 15 among the buttons included in the digital camera 1, the AF target density setting menu is selected. Is possible.
  • the AF target density setting menu is selected, a setting image shown in FIG. 16 is displayed on the liquid crystal display screen 12.
  • a density setting bar 108 extending in the horizontal direction is also formed at the bottom of the AF target density setting image.
  • a slider 107 that freely moves in the horizontal direction on the density setting bar 108 is also formed.
  • the slider 107 moves left and right on the density setting bar 108 by operating a predetermined button among the buttons included in the digital camera 1.
  • the subject image 82 displayed in the AF target area 81 becomes thinner, and as the slider 107 moves to the right, the subject image 82 displayed in the AF target area 81 becomes darker. In this way, the density of the subject image displayed in the AF target area 81 can be set.
  • FIG. 17 shows another modification, and is an example of an electronic view / finder image 80A displayed on the display screen of the electronic view / finder 65. This corresponds to the electronic view finder image 80 shown in FIG.
  • one AF target area 81 is set substantially at the center. However, in the example shown in FIG. 17, in addition to the AF target area 81 being set almost at the center, the AF target area 81 is set. Four AF target areas 111 to 114 are set around 81.
  • the menu display screen is set and the AF target area setting menu is selected in the same manner as described above. Then, the number of AF targets to be set can be input, and the position for setting the AF target area can be input.
  • a touch panel or the like may be provided on the display screen 12, and the position of the AF target area may be defined on the touch panel. However, as shown in FIG. 17, it is defined in advance so that any one of the five AF target areas 81, 111 to 114 and one AF target area 81 can be set as shown in FIG. You may make it select. Needless to say, a corresponding image portion of the subject image captured by the solid-state electronic image sensor 41 is displayed in the plurality of AF target areas 81 and 111 to 114.
  • FIG. 18 shows still another modification, which is an example of a captured subject image.
  • the face image 121 is detected by imaging the subject.
  • the area of the detected face image 121 is set as the AF target area 81.
  • the face detection may be executed by the CPU 47. Focus on the face.
  • the detected area of the face image 121 is set as the AF target area 81, a video that represents the entire subject image once even when the optical electronic combined viewfinder function is set.
  • the signal is read from the solid-state electronic image sensor 41, and the area of the face image 121 is detected from the entire subject image represented by the video signal.
  • a video signal corresponding to the detected area of the face image 121 is read from the solid-state electronic image sensor 41 and displayed on the display screen of the electronic viewfinder 65 as described above. It will be.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Viewfinders (AREA)

Abstract

 二重像合致式のファインダ装置を提供した場合に,動く被写体でもピントが合うようにする。 ファインダ装置によって光学的に結像する被写体像72が得られる。撮像素子により被写体が撮像され,得られた被写体像のうち,AFターゲット領域81内の画像82を表わす映像信号が撮像素子から読み出される。映像信号によって表される画像82が電子ビュー・ファインダを構成する液晶表示装置の表示画面に表示される。光学的な被写体像72上に表示画面に表示された画像82が重ねられた画像を,ユーザはファインダ装置から見る。合焦している場合には,光学的な被写体像72と画像82とが一致する。被写体像の一部を表わす映像信号が撮像素子から読み出されるので,読出し時間が短くなる。画像82の表示が遅れないので,被写体が動いていてもピントを合わせることができる。

Description

カメラおよびその動作制御方法
 この発明は,カメラおよびその動作制御方法に関する。
 ディジタル・カメラには光学式と電子式の両方のファインダを持つ装置が搭載されているものがある(特許文献1)。光学式のファインダにより精細である光学的な被写体像を見ることができ,電子式のファインダにより撮像される被写体像と同じ被写体像を見ることができる。
 また,メイン撮像ユニットのイメージ・センサーのメイン画像に,サブ撮像ユニットのイメージ・センサーのサブ画像から切り出された部分画像が重ね合わせられるもの(特許文献2),従来の像合致式の光学式レンジファインダーの動作を二組の撮像素子像の重ね合わせで行うもの(特許文献3)などもある。さらに,視差算出に係る処理時間を考慮して視差算出に用いる画素を適切に選択するもの(特許文献4),クロップ領域に応じて撮影条件を設定可能にするもの(特許文献5)などもある。
特開2012-65294号公報 特開2011-135490号公報 特開2007-163724号公報 特開2012-18013号公報 特開2007-201779号公報
 ファインダ装置を覗きながらフォーカシングを行う場合,被写体像が非合焦の場合には被写体像がずれた二重像となり,被写体像が合焦すると被写体像のずれがなくなる二重像合致式のものは,従来から名機と呼ばれるようなカメラに搭載されている。このために上述したように光学式と電子式の両方のファインダをもつものにも二重像合致式を適用できるようにすることの要求がある。しかしながら,特許文献1から5のいずれにおいても,そのようなファインダにおいて,二重像合致式を適用することは考えられていない。二重像合致式が適用される場合には,光学的に結像して得られる被写体像と,固体電子撮像素子を用いて撮像することにより得られた被写体像のうちAFターゲット領域内の画像を表示装置に表示し,表示されたAFターゲット画像と,を重ねあわせることが考えられる。上述したような光学式と電子式の両方のファインダをもつものにおいて二重像合致式を適用した場合,固体電子撮像素子の読出し時間の分だけ表示装置に表示する時間が遅れる。被写体が移動している場合や,カメラが移動している場合には,光学的な被写体像と表示装置に表示されているAFターゲット画像とが一致しないので,違和感を生じるだけでなく,ピントが合っているにも関わらず,ピントが合っていないと判断されてしまうことがある。
 この発明は,光学式と電子式との両方のファインダ機能をもつ光学式電子式兼用のファインダにおいて二重像合致式を適用した場合に,表示装置に表示されるAFターゲット画像の表示の遅れを解消することを目的とする。
 この発明によるカメラは,フォーカス・レンズが内蔵され,かつ回転自在なフォーカス・リングが周囲に設けられており,フォーカス・リングの回転に応じてフォーカス・レンズの位置を調整するレンズ鏡筒,光学式電子式兼用ビュー・ファインダ機能と電子ビュー・ファインダ機能とのいずれかの機能を設定する設定手段,カメラの前面に形成され,被写体に向く対物窓および対物窓を通して見える光学的な被写体像を覗く接眼窓を備えたファインダ装置,設定手段によって電子ビュー・ファインダ機能が設定されたことに応じてファインダ装置の対物窓から入射する光を遮り,設定手段によって光学式電子式兼用ビュー・ファインダ機能が設定されたことに応じてファインダ装置の対物窓から入射する光を通過させるようにシャッタを開閉するシャッタ手段,設定手段によって電子ビュー・ファインダ機能が設定されたことに応じて,レンズ鏡筒により結像する被写体像を撮像し,撮像した被写体像を表わす被写体像データを出力し,設定手段によって光学式電子式兼用ビュー・ファインダ機能が設定されたことに応じて,レンズ鏡筒により結像する被写体像を撮像し,撮像した被写体像のうちの一部分である所望のAFターゲット画像データを出力する固体電子撮像装置,設定手段によって電子ビュー・ファインダ機能が設定されたことに応じて,固体電子撮像装置から出力される被写体像データによって表わされる被写体像を表示画面に表示し,設定手段によって光学式電子式兼用ビュー・ファインダ機能が設定されたことに応じて,固体電子撮像装置から出力されるAFターゲット画像データによって表されるAFターゲット画像を表示画面に表示する表示装置,対物窓と接眼窓との間に設けられ,表示装置の表示画面に表示されているAFターゲット画像または被写体像を接眼窓に導く偏向装置,ならびに設定手段によって光学式電子式兼用ビュー・ファインダ機能が設定されたことに応じて,AFターゲット領域内の画像が非合焦であれば対物窓を通して見える光学的な被写体像とAFターゲット領域内の画像とがずれるように表示画面にAFターゲット領域内の画像を表示し,AFターゲット領域内の画像が合焦であれば対物窓を通して見える光学的な被写体像とAFターゲット領域内の画像とが一致するように表示画面にAFターゲット領域内の画像を表示するように表示装置を制御する表示制御手段を備えていることを特徴とする。
 この発明は,カメラに適した動作制御方法も提供している。すなわち,フォーカス・レンズが内蔵され,かつ回転自在なフォーカス・リングが周囲に設けられており,フォーカス・リングの回転に応じてフォーカス・レンズの位置を調整するレンズ鏡筒ならびにカメラの前面に形成され,被写体に向く対物窓および対物窓を通して見える光学的な被写体像を覗く接眼窓を備えたファインダ装置を備えたカメラの動作制御方法において,設定手段が,光学式電子式兼用ビュー・ファインダ機能と電子ビュー・ファインダ機能とのいずれかの機能を設定し,シャッタ手段が,設定手段によって電子ビュー・ファインダ機能が設定されたことに応じてファインダ装置の対物窓から入射する光を遮り,設定手段によって光学式電子式兼用ビュー・ファインダ機能が設定されたことに応じてファインダ装置の対物窓から入射する光を通過させるようにシャッタを開閉し,固体電子撮像装置が,設定手段によって電子ビュー・ファインダ機能が設定されたことに応じて,レンズ鏡筒により結像する被写体像を撮像し,撮像した被写体像を表わす被写体像データを出力し,設定手段によって光学式電子式兼用ビュー・ファインダ機能が設定されたことに応じて,レンズ鏡筒により結像する被写体像を撮像し,撮像した被写体像のうちの一部分である所望のAFターゲット画像データを出力し,表示装置が,設定手段によって電子ビュー・ファインダ機能が設定されたことに応じて,固体電子撮像装置から出力される被写体像データによって表わされる被写体像を表示画面に表示し,設定手段によって光学式電子式兼用ビュー・ファインダ機能が設定されたことに応じて,固体電子撮像装置から出力されるAFターゲット画像データによって表されるAFターゲット画像を表示画面に表示し,偏向装置が,対物窓と接眼窓との間に設けられ,表示装置の表示画面に表示されているAFターゲット画像または被写体像を接眼窓に導き,表示制御手段が,設定手段によって光学式電子式兼用ビュー・ファインダ機能が設定されたことに応じて,AFターゲット領域内の画像が非合焦であれば対物窓を通して見える光学的な被写体像とAFターゲット領域内の画像とがずれるように表示画面にAFターゲット領域内の画像を表示し,AFターゲット領域内の画像が合焦であれば対物窓を通して見える光学的な被写体像とAFターゲット領域内の画像とが一致するように表示画面にAFターゲット領域内の画像を表示するように表示装置を制御するものである。
 この発明によると,光学式電子式兼用ビュー・ファインダ機能と電子ビュー・ファインダ機能とのいずれの機能を設定できる。光学式電子式兼用ビュー・ファインダ機能が設定されると,シャッタ手段が開くので,光学的な被写体像が得られる。撮像により得られた被写体像のうち,AFターゲット領域内の画像が表示装置の表示画面に表示される。ユーザは,表示されたAFターゲット領域内の画像が光学的な被写体像上に重ねられた画像を見る。AFターゲット領域内の画像が非合焦であれば,重ねられた二つの画像にずれが生じ,AFターゲット領域内の画像が合焦であれば,重ねられた二つの画像にずれが生じない。いわゆる像合致式のファインダを実現できる。電子ビュー・ファインダ可能が設定されると,シャッタ手段が閉じられ,ユーザは表示装置に表示される被写体像を見る。その被写体像を見ながら,ユーザは,ピント合わせを行うこととなる。
 とくに,この実施例においては,光学式電子式兼用ビュー・ファインダが設定されたときに,固体電子撮像装置から出力されるAFターゲット画像データは,撮像した被写体像全体ではなく,その一部分であるAFターゲット画像データを表わしている。被写体像全体を表す被写体像データを固体電子撮像装置から出力するのではなく,一部分であるAFターゲット画像データを固体電子撮像装置から出力するので,比較的早く読み出すことができる。読み出されたAFターゲット画像データは表示装置に与えられ,表示装置の表示画面にAFターゲット画像が表示される。AFターゲット画像は,偏向装置によってファインダ装置の接眼窓に導かれ,光学的な被写体像に重ねられる。AFターゲット領域内の画像が合焦していなければ光学的な被写体像とAFターゲット領域内の画像とがずれ,AFターゲット領域内の画像が合焦すれば光学的な被写体像とAFターゲット領域内の画像とがずれずに一致するように,AFターゲット領域内の画像が表示装置の表示画面に表示される。被写体やカメラが移動している場合でも,ピントを合わすことができる,いわゆる像二重合致式のファインダ装置を実現できる。
 表示制御手段は,フォーカス・リングの回転量を検出する回転量検出手段を備えてもよい。この場合,回転量検出手段によって検出された回転量にもとづいて,AFターゲット領域内の画像が非合焦であれば対物窓を通して見える光学的な被写体像とAFターゲット領域内の画像とが少なくとも横方向にずれるように表示画面にAFターゲット領域内の画像を表示し,AFターゲット領域内の画像が合焦であれば対物窓を通して見える光学的な被写体像とAFターゲット領域内の画像とが一致するように表示画面にAFターゲット領域内の画像を表示するように表示装置を制御するものとなろう。
 また,表示制御手段は,たとえば,回転量検出手段によって検出された回転量にもとづいて,AFターゲット領域内の画像が非合焦であれば対物窓を通して見える光学的な被写体像とAFターゲット領域内の画像とがレンズ鏡筒の光軸とファインダ装置の光軸とを結ぶ軸上をずれるように表示画面にAFターゲット領域内の画像を表示し,AFターゲット領域内の画像が合焦であれば対物窓を通して見える光学的な被写体像とAFターゲット領域内の画像とが一致するように表示画面にAFターゲット領域内の画像を表示するように表示装置を制御するものでもよい。
 表示制御手段は,フォーカス・リングの回転に応じて,AFターゲット領域内の画像を少なくとも横方向に移動させるとともに,フォーカス・レンズの合焦位置が被写体までの距離に一致した場合に対物窓を通して見える光学的な被写体像とAFターゲット領域内の画像とが一致するように表示画面にAFターゲット領域内の画像を表示するように表示装置を制御するものでもよい。また,表示制御手段は,フォーカス・リングの回転量を検出する回転量検出手段,および回転量検出手段によって検出された回転量にもとづいてカメラの前方のどの位の距離にある被写体について合焦するかを算出する距離算出手段を備え,距離算出手段において算出された距離にある被写体をファインダ装置の対物窓を通して見える光学的な被写体像と,その被写体を固体電子撮像装置によって撮像することにより表示装置の表示画面に表示されているAFターゲット領域の画像と,を一致させるものでもよい。
 表示制御手段は,たとえば,固体電子撮像装置の光軸とファインダ装置の光軸とのずれによる,対物窓を通して見える光学的な被写体像とAFターゲット領域内の画像とのずれを補正して,AFターゲット領域内の画像を表示画面に表示するものである。
 表示制御手段は,たとえば,固体電子撮像装置の光軸とファインダ装置の光軸とのずれによる,対物窓を通して見える光学的な被写体像とAFターゲット領域内の画像とのずれを,距離算出手段によって算出された距離に応じた補正分を補正して,AFターゲット領域内の画像を表示画面に表示するものもよい。
 AFターゲット領域の位置,大きさおよび数のうち少なくとも一つを設定する第1のAFターゲット領域設定手段をさらに備えてもよい。
 AFターゲット領域内の画像の明るさまたは濃度の少なくとも一方を設定する第2のAFターゲット領域設定手段をさらに備えてもよい。
 固体電子撮像装置によって撮像された被写体像に含まれる顔の領域を検出する顔検出手段,および顔検出手段によって検出された顔の領域をAFターゲット領域に設定する第3のAFターゲット領域設定手段をさらに備えてもよい。
ディジタル・カメラの正面図である。 ディジタル・カメラの背面図である。 ディジタル・カメラを背面から見た斜視図である。 ディジタル・カメラの電気的構成を示すブロック図である。 レンズ鏡筒の光軸とファインダ装置の光軸とのずれを示している。 レンズ鏡筒とファインダ装置との視差を示している。 ファインダ装置の平面図およびファインダ装置の斜視図である。 ディジタル・カメラから被写体までの距離と視差角度との関係を示している。 固体電子撮像素子の読出しの仕方を示している。 固体電子撮像素子の読出しの仕方を示している。 光学的な被写体像の一例である。 電子ビュー・ファインダに表示される電子ビュー・ファインダ画像の一例である。 光学的な被写体像と電子ビュー・ファインダ画像との重畳画像である。 ディジタル・カメラの処理手順を示すフローチャートである。 AFターゲット領域枠設定画像の一例である。 AFターゲット領域濃淡設定画像の一例である。 電子ビュー・ファインダ画像の一例である。 顔検出された被写体像の一例である。
 図1から図3は,この発明の実施例を示すもので,ディジタル・カメラ1の外観を示している。図1は正面図,図2は背面図,図3は背面から見た斜視図である。
 図1を参照して,ディジタル・カメラ1の正面のほぼ中心に前方に突出したレンズ鏡筒2が設けられている。ディジタル・カメラ1の右上には,ファインダ装置を構成し,被写体に向く対物窓3が形成されている。この対物窓3の左側にはストロボ発光装置4が設けられている。この実施例のファインダ装置は,詳しくは後述するように光学式電子式兼用ビュー・ファインダの機能と電子ビュー・ファインダの機能とを切り換えることができる。光学式電子式兼用ビュー・ファインダの機能は,光学ビュー・ファインダによって得られる光学的な被写体像上に電子ビュー・ファインダに表示される情報を重ねる機能をもつものである。ストロボ発光装置4の左側には,光学式電子式兼用ビュー・ファインダの機能と電子ビュー・ファインダの機能とを切り換えるための切替レバー19が設けられている。正面から見て切替レバー19が左側に倒されるとファインダ装置は光学式電子式兼用ビュー・ファインダの機能が設定され,正面から見て切替レバー19が右側に倒されるとファインダ装置は電子ビュー・ファインダの機能が設定される。
 ディジタル・カメラ1の上面において正面から見て左側には,シャッタ・スピード・ダイアル6,電源レバー7,シャッタ・レリーズ・ボタン8および露出ダイアル9が設けられている。シャッタ・スピード・ダイアル6は,回転自在な円形つまみである。ユーザは,シャッタ・スピード・ダイアル6を回転させることにより,所望のシャッタ・スピードを設定できる。電源レバー7は,正面から見て右および左に所定角度動かすことができる。ユーザは,電源レバー7を所定角度動かすことにより,ディジタル・カメラ1の電源をオン,オフできる。電源レバー7は上面から見て(図3参照),内部が空間の円環上のものであり,その空間にシャッタ・レリーズ・ボタン8が設けられている。露出ダイアル9も,回転自在な円形つまみである。ユーザは,露出ダイアル9を回転させることにより,露出を補正できる。
 図2および図3を参照して,ディジタル・カメラ1の背面のほぼ全体に渡って液晶表示装置の表示画面12が形成されている。ディジタル・カメラ1の背面の左上にはファインダ装置を構成する接眼窓11が形成されている。ディジタル・カメラ1の背面の右上には,左右に動かすことができるコマンド・レバー10が設けられている。ユーザは,コマンド・レバーを操作することにより,マニアル露出時の1/3EVステップでの絞り調整などの指令をディジタル・カメラ1に与えることができる。
 コマンド・レバー10の下には,AF(自動焦点調節)/AE(自動露出)ロック・ボタン13,コマンド・ダイアル14,メニュー/OKボタン15,バック・ボタン16,RAWボタン17などが設けられている。
 主として図3を参照して,上述したように,ディジタル・カメラ1の上面の右側(背面から見て右側)には,シャッタ・スピード・ダイアル6,電源レバー7,シャッタ・レリーズ・ボタン8および露出ダイアル9が設けられている。上述したように,電源レバー7は,正面方向に突出した突起7Aが形成されている。突起7Aがつままれて左右に動かされることによりディジタル・カメラ1の電源のオン,オフができる。
 ファインダ装置の接眼窓11に目を近づけて接眼窓11から覗くことにより,対物窓3および接眼窓11を介して被写体を見ることができ,カメラ・アングルを決定できる。
 図4は,ディジタル・カメラ1の電気的構成を示すブロック図である。
 ディジタル・カメラ1の全体の動作は,CPU47によって統括される。
 ディジタル・カメラ1には,固体電子撮像素子41が含まれている。この固体電子撮像素子34の前方には,レンズ鏡筒2に内蔵されているフォーカス・レンズ群31が位置決めされている。レンズ鏡筒2の周囲には回転自在なフォーカス・リング32が設けられている。ユーザによるフォーカス・リング32の操作に応じて,フォーカス・リング群31が位置決めされる。
 固体電子撮像素子41によって被写体が撮像されると,被写体像を表わす映像信号が固体電子撮像素子41から出力される。映像信号は,サンプル/ホールド回路42を介してアナログ/ディジタル変換回路43に入力する。アナログ/ディジタル変換回路43において映像信号がディジタル画像データに変換される。変換されたディジタル画像データは信号処理回路44において,白バランス調整,ガンマ補正などの所定の信号処理が行われる。
 信号処理回路44から出力されたディジタル画像データはメモリ46を介してLCD(Liquid Crystal Display)ドライバ48に与えられる。LCDドライバ48によって液晶表示装置12(表示画面と同じ符号を使用する)が制御され,固体電子撮像素子41によって撮像された被写体像が液晶表示装置12の表示画面に表示される。
 また,シャッタ・レリーズ・ボタン8が押されると,上述のようにメモリ46に入力した画像データはメモリ・カード・コントローラ49の制御によりメモリ・カード50に記録される。
 上述のように,信号処理回路44から出力された画像データは,ディジタル/アナログ変換回路45に入力する。画像データは,ディジタル/アナログ変換回路45においてアナログ映像信号に戻され,画像シフト回路35に与えられる。
 上述のように,レンズ鏡筒2の周囲に設けられているフォーカス・リング32が操作されると,フォーカス・リング32の回転量がエンコーダ33によって検出される。検出された回転量を示す信号は距離算出回路34に入力する。距離算出回路34によって,入力した回転量を示す信号から,ディジタル・カメラ1の前方のどの位の距離にある被写体に対して合焦するか(マニュアル・フォーカス)を示す距離(合焦距離)が算出される。算出された距離を示すデータは画像シフト回路35に入力する。
 上述したように,画像シフト回路35には,被写体像を表わす映像信号も入力している。詳しくは後述するように,算出された距離に応じて画像シフト回路35において被写体像がシフトされる処理が行われる。画像シフト回路35から出力される映像信号はLCDドライバ36によってファインダ装置60の電子ビュー・ファインダ65に与えられる。電子ビュー・ファインダ65は,液晶表示装置である。電子ビュー・ファインダ65の表示画面に撮像により得られた被写体像が表示可能となる。
 ファインダ装置60には,接眼窓11の前方に接眼レンズ66が設けられており,この接眼レンズ66の前方にはハーフミラー64が形成されているプリズム63が設けられている。ハーフミラー64は,光学ビュー・ファインダ60の光軸C3に対して45度の入射角となるように形成されている。このプリズム63の前方にOVF(光学ビュー・ファインダ)シャッタ(機械シャッタでもよいし,液晶シャッタでもよい)62および対物レンズ61が設けられている。
 OVFシャッタ62が開いていると,対物レンズ61および接眼レンズ66によって結像した被写体OBの被写体像を接眼窓11から見ることができる。また,OVFシャッタ62が開いているときに電子ビュー・ファインダ65の表示画面に撮像により得られた被写体像が表示されると,その被写体像を表わす光線束がハーフミラー64によって反射し,電子ビュー・ファインダ65の表示画面に表示されている被写体像をユーザが見ることができる。対物レンズ61等によって結像した光学的な被写体像上に電子ビュー・ファインダ65の表示画面に表示される被写体像を重ねて見ることができる。
 レンズ鏡筒2の光軸(レンズ鏡筒2の光軸と固体電子撮像素子41の光軸とは同じである)をC2,ファインダ装置60の光軸をC3とすると,光軸C2と光軸C3とは一致しない。このために,ファインダ装置60から見る被写体OBとレンズ鏡筒2を利用して撮像する被写体OBとの間には視差角度θの視差が生じる。上述したように,ファインダ装置60から見える光学的な被写体像上に電子ビュー・ファインダ65の表示画面に表示される被写体像を重ねて見た場合,同じ被写体OBを見ているにも関わらず,ファインダ装置60から見える光学的な被写体像と電子ビュー・ファインダ65に表示される被写体像とが視差によりずれることとなる。この実施例では,上述した画像シフト回路35において視差が補正されるように,上述した画像シフト回路35において被写体像がシフトされる。被写体OBにピントが合うようにフォーカス・リング32によってフォーカス・レンズ群31の位置が位置決めされた場合には,ファインダ装置60の接眼窓11から見える光学的な被写体像と電子ビュー・ファインダ65に表示される被写体像とが一致し,被写体OBのピントが合っていなければファインダ装置60の接眼窓11から見える光学的な被写体像と電子ビュー・ファインダ65に表示される被写体像とは一致しない。この実施例によるディジタル・カメラ1では,いわゆる像合致式のファインダ装置を実現できる。
 図5は,ディジタル・カメラ1を正面から見たときのレンズ鏡筒2と対物窓3との関係を示している。
 レンズ鏡筒2の光軸C2と光学ファインダ60(対物窓3)の光軸C3とは,距離dだけ離れており,視差がある。このために,被写体が無限遠と見なせる位置に存在しない場合には接眼窓3を介して見た被写体像とレンズ鏡筒2によって撮像した被写体像との間にズレが生じる。上述したように,固体電子撮像素子34によって撮像した被写体像を電子ビュー・ファインダ65に表示し,対物窓3を介して結像した光学的な被写体像に重ねると,この視差のために,被写体にピントが合うようにフォーカス・レンズ群31の位置が位置決めされていたとしても電子ビュー・ファインダ65に表示された被写体像の一部と光学的な被写体像とが一致しないことがある。
 図6は,レンズ鏡筒2を介して被写体OBを見た(撮像)場合とファインダ装置60の接眼窓3から被写体OBを見た様子を示している。
 上述したように,レンズ鏡筒2の光軸C2と接眼窓3の光軸C3との間の距離はdである。また,レンズ鏡筒2から被写体OBまでの距離をDとする。すると,レンズ鏡筒2から被写体OBまでと,接眼窓3から被写体OBまでとが,なす視差角度θは,θ=arctan(d/D)となる。すなわち,レンズ鏡筒2から被写体OBを見た場合には正面に見える被写体OBは,接眼窓3(ファインダ装置60)からはθの視差角度だけずれて見えることとなる(接眼窓3から被写体OBを見ていると考える場合も,レンズ鏡筒2(固体電子撮像素子41)からθの視差角度だけずれる)。
 図7は,ファインダ装置60の構造を示している。図7の上図は,ファインダ装置60を図4と同様に平面的に示すもので,図7の下図はファインダ装置60を立体的に示すものである。これらの図において,図4に示すものと同一物について同一符号が付されている。
 図4および図6に示したように,接眼窓3から被写体OBを見るとファインダ装置60の光軸C3からθの視差角度だけずれる(ファインダ装置60の接眼窓3から覗いてカメラ・アングルを決定する場合,通常は,ファインダ装置60の光軸C3上に被写体OBが存在すると考えられるが,そのような場合でも被写体OBはレンズ鏡筒2の光軸C2からθの視差角度だけずれる)ので,接眼窓3を介して結像される光学的な被写体像に電子ビュー・ファインダ65に表示される被写体像の一部を一致させるためには,被写体像の一部を視差角度θだけずらして表示させればよいこととなる。もちろん,接眼窓3とレンズ鏡筒2との配置位置と液晶ビュー・ファインダ60の配置位置との位置関係に応じて被写体像の一部をずらす角度の方向が決定されるのはいうまでもない。
 図8は,ディジタル・カメラ1と主要被写体OB1,OB2およびOB3との位置関係を平面的に見たものである。
 被写体OB1がディジタル・カメラ1から比較的遠い距離D1の位置にある場合には,接眼窓3から被写体OB1を見た場合,接眼窓3の光軸からのなす視差角度はθ1である。同様に主要被写体OB2がディジタル・カメラ1から遠くも近くも無い中くらいの距離D2の位置にある場合には接眼窓3から主要被写体OB2を見た場合,接眼窓3の光軸からのなす視差角度はθ2である。さらに,主要被写体OB3がディジタル・カメラ1から近い距離D3の位置にある場合,接眼窓3の光軸からのなす視差角度はθ3である。これらの視差角度θ1,θ2およびθ3は,θ1<θ2<θ3となる。被写体が無限遠と見なせるほど遠い距離の位置にある場合には視差角度はほとんど無視できる。その場合,接眼窓3を介して見える光学的な被写体像と電子ビュー・ファインダ65に表示される被写体像とのずれはほとんどない。したがって,ディジタル・カメラ1からの距離が遠い被写体を見る場合には上述した視差補正は必ずしも必要ない。
 図9は,固体電子撮像素子41の受光面41Aに形成されている光電変換素子に蓄積されている信号電荷の読出しの仕方を示している。
 光学式電子式兼用ビュー・ファインダの機能が設定された場合,詳しくは後述するように,電子ビュー・ファインダ65の表示画面には,AFターゲット領域内の画像(AFターゲット画像)が表示される。この実施例では,光学式電子式兼用ビュー・ファインダが設定された場合には,受光面全体の光電変換素子に蓄積された信号電荷が映像信号として読み出されるのではなく,AFターゲット領域に対応した受光領域51に含まれる光電変換素子に蓄積された信号電荷が映像信号として読み出される。読出し範囲が少なくなるので,映像信号の読出しに必要な時間が短くなる。たとえば,AFターゲット領域に対応する領域51が受光面全体の1/10程度であれば,受光面全体の光電変換素子から映像信号を読み出す場合に比べて1/10程度の読出し時間となる。
 上述のように画像シフト回路35における画像シフトが行われる場合には,AFターゲット領域に対応する領域51よりも大きく受光面よりも小さい領域51Aに含まれる光電変換素子に蓄積された信号電荷が映像信号として読み出されるようにしてもよい。領域51から得られる映像信号によって表される画像がシフトされることにより,AFターゲット領域内の画像を表わさなくなることがあるからである。
 図9に示すように,受光面41Aの一部の光電変換素子から信号電荷を読み出す場合には,固体電子撮像素子としてCMOS(Complementary Metal Oxide Semiconductor)を利用できる。
 図10も固体電子撮像素子41の受講面41Aに形成されている光電変換素子に蓄積されている信号電荷の読出しの仕方を示している。
 電子ビュー・ファインダの機能が設定された場合には,上述したように,OVFシャッタ62が閉じられ,ユーザは,電子ビュー・ファインダ65の表示画面に表示される被写体像を見る。電子ビュー・ファインダ65の表示画面には,固体電子撮像素子41によって撮像された被写体像の全体が表示される必要がある。このために,受光面全体の光電変換素子に蓄積されている信号電荷が映像信号として読み出されるようになる。
 図11は,ファインダ装置60の対物窓3を介して見える光学的な被写体像70の一例である。
 被写体像70のほぼ中心に合焦すべき対象である主要被写体像72が位置決めされる。
 図12は,電子ビュー・ファインダ65の表示画面に表示される電子ビュー・ファインダ画像80の一例である。
 電子ビュー・ファインダ画像80には,ほぼ中心に一つのAFターゲット領域81が形成されている。このAFターゲット領域81に固体電子撮像素子41により撮像された被写体像82が表示されている(撮像により得られた画像であることが分るように,図10では鎖線で示されている)。上述したように,AFターゲット領域81に表示されている被写体像82は画像シフト回路35によって画像シフトされたものである。AFターゲット領域82の周りの領域はマスク領域85である。マスク領域85は,固体電子撮像素子41により撮像された被写体像のうち,AFターゲット領域81に表示されていない画像をマスクするものである。また,電子ビュー・ファインダ画像80の四隅には撮像範囲を示す視野枠83が表示されている。マスク領域85および視野枠83を示すデータはメモリ46に格納されており,それらのデータがCPU47によってメモリ46から読み出され,LCDドライバ36に与えられることにより,マスク領域85および視野枠83が表示される。
 図13は,接眼窓11から見えるファインダ画像の一例である。
 光学式電子式兼用ビュー・ファインダの機能が設定されると,OVFシャッタ62が開かれる。OVFシャッタ62が開いていると,図11に示す光学的な被写体像70上に,図12に示す電子ビュー・ファインダ画像80が重ねられた画像が接眼窓11から見える。
 上述したようにレンズ鏡筒1の光軸C2とファインダ装置60の光軸C3との間には視差があるが,電子ビュー・ファインダ65に表示される被写体像82は視差補正が行われるように画像シフト回路35によって電子ビュー・ファインダ65の表示位置がシフトされる。このために,AFターゲット領域81内の被写体像82にピントが合っていれば光学的な被写体像72に重畳している被写体像82とは一致し,AFターゲット領域81内の被写体像82にピントが合っていなければ光学的な被写体像72に重畳している被写体像82とはずれが生じる。光学的な被写体像72と撮像された被写体像82とのずれに応じて,フォーカス・リング32を操作することによりマニュアル・フォーカスのピント合わせを実現できる。とくに,この実施例では,光学式電子式兼用ビュー・ファインダの機能が設定される場合には,固体電子撮像素子41からは受光面のすべての光電変換素子から信号電荷が映像信号として読み出されるのではなく,AFターゲット領域81に対応する領域(またはその領域よりも一回り大きい領域)に含まれる光電変換素子から信号電荷が映像信号として読み出されるので,読出し時間が早くなり,電子ビュー・ファインダ65に表示されるまでの遅延時間を短くできる。被写体またはカメラ自体が動いている場合であっても,AFターゲット画像を電子ビュー・ファインダ65の表示画面に迅速に表示でき,ピント合わせをできるようになる。
 図14は,マニュアル・フォーカスによるピント合わせの処理手順を示すフローチャートである。
 まず,光学式電子式兼用ビュー・ファインダ機能が設定されたかどうかが確認される(ステップ91)。
 光学式電子式兼用ビュー・ファインダ機能が設定された場合には(ステップ91でYES),図13に示したように光学的な被写体像72に電子ビュー・ファインダ65に表示されているAFターゲット領域内の画像を重ねあわせるから,OVFシャッタ62が開けられる(ステップ92)。光学的な被写体像をファインダ装置60から見ることができるようになる。固体電子撮像素子41からは図9に示すように,迅速な読出しを実現するためにAFターゲット領域に対応する領域51(またはその領域よりも一回り大きな領域51A)から映像信号が読み出される(ステップ93)。
 ユーザは,ファインダ装置60の接眼窓11を覗き,光学的な被写体像を見ながら,フォーカス・リング32を操作する(ステップ94)。フォーカス・リング32の回転量がエンコーダ33によって検出され(ステップ95),フォーカス・レンズ群31が合焦するディジタル・カメラ1から被写体までの距離が算出される(ステップ96)。フォーカス・リング32の回転量とフォーカス・レンズ群31が合焦するディジタル・カメラ1から被写体までの距離との関係は,ディジタル・カメラ1の製造工程において予め検出されており,それらの関係を示すデータは距離検出回路34内のメモリ(図示略)に格納されている。それらの関係を示すデータを利用してフォーカス・レンズ群31の回転量からフォーカス・レンズ群31が合焦するディジタル・カメラ1から被写体までの距離が算出されることとなる。
 算出された距離に応じて,視差補正のための画像シフト量が算出される(ステップ97)。フォーカス・レンズ群31が合焦するディジタル・カメラ1から被写体までの距離とシフト量との関係についても,ディジタル・カメラの製造工程において予め算出され,記憶されているのはいうまでもない。
 フォーカス・リング31の回転量に応じて算出された画像シフト量の分だけずらされたAFターゲット領域81内の画像が,て電子ビュー・ファインダ65の表示画面に表示される(ステップ98)。上述のように,AFターゲット領域81内の被写体像82は,ピントが合っていなければ光学的な被写体像72とずれ,ピントが合っていれば光学的な被写体像72と一致する。ファインダ装置60は,いわゆる二重像合致式のものとなる。たとえば,図8を参照して,被写体が距離D2の距離にある被写体OB2であったにも関わらず,距離D1または距離D3にある被写体OB1または被写体OB3に合焦するようにフォーカス・リング32が操作されたものとする。するとファインダ装置60を覗くユーザには二重にずれた被写体像が見える。フォーカス・リング32を操作することにより,距離D2にある被写体OB2に合焦するようにフォーカス・リング32が操作されると,ファインダ装置60を覗くユーザには画像ずれの無い被写体像が見える。ユーザはピントが合ったことがわかり,シャッタ・レリーズをオンすることにより(図14ステップ99でYES),被写体が撮像される。撮像された被写体像を表わす画像データがメモリ・カード50に記録される。
 光学式電子式兼用ファインダ機能ではなく,電子ビュー・ファインダ機能が設定されると(ステップ91でNO),OVFシャッタ62は閉じられる(ステップ100)。対物窓3を介した光学的な被写体像は接眼窓11からは見えなくなる。
 固体電子撮像素子41によって被写体が撮像され,被写体像全体を表す映像信号が読み出される(ステップ101)。ユーザによるフォーカス・リング32の操作に応じて,被写体像のピントが調整される。ピントが調整された被写体像全体が電子ビュー・ファインダ65に表示される(ステップ103)。ユーザは,電子ビュー・ファインダ65に表示された被写体像を見ながら,フォーカス・リング32を操作してピントを調整することとなる。シャッタ・レリーズ・ボタンが押されることにより(ステップ99でYES),被写体像を表わす画像データがメモリ・カード50に記録される。
 図15は,変形例を示すもので,AFターゲット枠サイズ設定画像の一例である。
 ディジタル・カメラ1に含まれているボタン類のうちのメニュー/OKボタン15を利用してメニュー表示画面が選択されると,AFターゲット枠サイズ設定メニューの選択が可能となる。AFターゲット枠サイズ設定メニューが選択されると,図15に示すAFターゲット枠サイズ設定画像が液晶表示画面12に表示される。
 AFターゲット枠サイズ設定画像の下部には横方向に伸びたサイズ設定バー105が形成されている。このサイズ設定バー105上を横方向に自在に動くスライダ106も形成されている。AFターゲット枠サイズ設定メニューが設定されると,ディジタル・カメラ1に含まれているボタンのうち,所定のボタンを操作することにより,サイズ設定バー105上をスライダ106が左右に動く。スライダ106が左側に動くにつれてAFターゲット領域81の大きさは小さくなり,スライダ106が右側に動くにつれてAFターゲット領域81の大きさは鎖線で示すように大きくなる。このようにAFターゲット領域81の大きさを所望の大きさに設定することもできる。
 図16は,他の変形例を示すもので,AFターゲット濃淡設定画像である。
 上述したAFターゲット枠の設定と同様に,ディジタル・カメラ1に含まれているボタン類のうちのメニュー/OKボタン15を利用してメニュー表示画面が選択されると,AFターゲット濃淡設定メニューの選択が可能となる。AFターゲット濃淡設定メニューが選択されると,図16に示す設定画像が液晶表示画面12に表示される。
 AFターゲット濃淡設定画像の下部にも横方向に伸びた濃淡設定バー108が形成されている。この濃淡設定バー108上を横方向に自在に動くスライダ107も形成されている。濃淡設定メニューが設定されると,ディジタル・カメラ1に含まれているボタンのうち,所定のボタンを操作することにより,濃淡設定バー108上をスライダ107が左右に動く。スライダ107が左側に動くにつれてAFターゲット領域81内に表示される被写体像82は薄くなり,スライダ107が右側に動くにつれてAFターゲット領域81内に表示される被写体像82は濃くなる。このように,AFターゲット領域81内に表示される被写体像の濃淡を設定することもできる。
 図17は,さらに,他の変形例を示すもので,電子ビュー・ファインダ65の表示画面に表示される電子ビュー・ファインダ画像80Aの一例である。図12に示す電子ビュー・ファインダ画像80に対応している。
 図12に示した例では,ほぼ中央に一つのAFターゲット領域81が設定されているが,図17に示す例では,ほぼ中央にAFターゲット領域81が設定されているほかに,そのAFターゲット領域81の周りに四つのAFターゲット領域111~114が設定されている。
 このように複数のAFターゲット領域81,111~114が設定されることにより,所望のターゲット枠内の被写体についてピントを合わせることができるようになる。
 複数のAFターゲット領域81,111~114が設定される場合には,上述したのと同様に,メニュー表示画面を設定し,AFターゲット領域設定メニューを選択する。すると,設定するAFターゲットの数を入力し,かつAFターゲット領域を設定する位置を入力できるようになる。必要であれば,表示画面12にタッチ・パネル等を設け,タッチ・パネル上でAFターゲット領域の位置を規定するようにしてもよい。もっとも,図17に示すように5つのAFターゲット領域81,111~114と図12に示すように1つのAFターゲット領域81とのいずれを設定できるように予め規定しておき,ユーザがいずれかを選択するようにしてもよい。これらの複数のAFターゲット領域81,111~114内に固体電子撮像素子41によって撮像された被写体像のうち対応する画像部分が表示されるのはいうまでもない。
 このように複数のターゲット領域81,111~114が設定された場合でも,光学式電子式兼用ビュー・ファインダ機能が設定された場合には,固体電子撮像素子41の受光面に形成されている光電変換素子のうち,それぞれのターゲット領域81,111~114に対応する領域に含まれている光電変換素子から信号電荷が映像信号として読み出されるのはいうまでもない。
 図18は,さらに他の変形例を示すもので,撮像された被写体像の一例である。
 被写体を撮像することにより,顔画像121が検出される。検出された顔画像121の領域がAFターゲット領域81に設定される。顔検出は,CPU47により実行されればよい。顔の部分にピントが合うようになる。
 このように,検出された顔画像121の領域がAFターゲット領域81に設定される場合には,光学式電子式兼用ビュー・ファインダ機能が設定されている場合でも,一度は被写体像全体を表す映像信号が固体電子撮像素子41から読み出され,その映像信号によって表される被写体像全体から顔画像121の領域が検出される。検出された顔画像121の領域(または,その領域の一回り大きい領域)に対応する映像信号が固体電子撮像素子41から読み出され,上述のように電子ビュー・ファインダ65の表示画面に表示されることとなろう。
2 レンズ鏡筒
3 対物窓
11 接眼窓
31 フォーカス・レンズ群
32 フォーカス・リング
34 距離検出回路
35 画像シフト回路
41 固体電子撮像素子
60 ファインダ装置
63 プリズム(偏向装置)
65 電子ビュー・ファインダ(表示装置)
81 AFターゲット領域

Claims (11)

  1.  フォーカス・レンズが内蔵され,かつ回転自在なフォーカス・リングが周囲に設けられており,フォーカス・リングの回転に応じてフォーカス・レンズの位置を調整するレンズ鏡筒,
     光学式電子式兼用ビュー・ファインダ機能と電子ビュー・ファインダ機能とのいずれかの機能を設定する設定手段,
     カメラの前面に形成され,被写体に向く対物窓および上記対物窓を通して見える光学的な被写体像を覗く接眼窓を備えたファインダ装置,
     上記設定手段によって電子ビュー・ファインダ機能が設定されたことに応じて上記ファインダ装置の上記対物窓から入射する光を遮り,上記設定手段によって上記光学式電子式兼用ビュー・ファインダ機能が設定されたことに応じて上記ファインダ装置の対物窓から入射する光を通過させるようにシャッタを開閉するシャッタ手段,
     上記設定手段によって電子ビュー・ファインダ機能が設定されたことに応じて,上記レンズ鏡筒により結像する被写体像を撮像し,撮像した被写体像を表わす被写体像データを出力し,上記設定手段によって光学式電子式兼用ビュー・ファインダ機能が設定されたことに応じて,上記レンズ鏡筒により結像する被写体像を撮像し,撮像した被写体像のうちの一部分である所望のAFターゲット画像データを出力する固体電子撮像装置,
     上記設定手段によって電子ビュー・ファインダ機能が設定されたことに応じて,上記固体電子撮像装置から出力される被写体像データによって表わされる被写体像を表示画面に表示し,上記設定手段によって光学式電子式兼用ビュー・ファインダ機能が設定されたことに応じて,上記固体電子撮像装置から出力される上記AFターゲット画像データによって表されるAFターゲット画像を表示画面に表示する表示装置,
     上記対物窓と上記接眼窓との間に設けられ,上記表示装置の表示画面に表示されているAFターゲット画像または被写体像を上記接眼窓に導く偏向装置,ならびに
     上記設定手段によって光学式電子式兼用ビュー・ファインダ機能が設定されたことに応じて,上記AFターゲット領域内の画像が非合焦であれば上記対物窓を通して見える光学的な被写体像と上記AFターゲット領域内の画像とがずれるように上記表示画面にAFターゲット領域内の画像を表示し,上記AFターゲット領域内の画像が合焦であれば上記対物窓を通して見える光学的な被写体像と上記AFターゲット領域内の画像とが一致するように上記表示画面にAFターゲット領域内の画像を表示するように上記表示装置を制御する表示制御手段,
     を備えたカメラ。
  2.  上記表示制御手段は,
     上記フォーカス・リングの回転量を検出する回転量検出手段を備え,
     上記回転量検出手段によって検出された回転量にもとづいて,上記AFターゲット領域内の画像が非合焦であれば上記対物窓を通して見える光学的な被写体像と上記AFターゲット領域内の画像とが少なくとも横方向にずれるように上記表示画面にAFターゲット領域内の画像を表示し,上記AFターゲット領域内の画像が合焦であれば上記対物窓を通して見える光学的な被写体像と上記AFターゲット領域内の画像とが一致するように上記表示画面にAFターゲット領域内の画像を表示するように上記表示装置を制御するものである,
     請求項1に記載のカメラ。
  3.  上記表示制御手段は,
     上記回転量検出手段によって検出された回転量にもとづいて,上記AFターゲット領域内の画像が非合焦であれば上記対物窓を通して見える光学的な被写体像と上記AFターゲット領域内の画像とが上記レンズ鏡筒の光軸と上記ファインダ装置の光軸とを結ぶ軸上をずれるように上記表示画面にAFターゲット領域内の画像を表示し,上記AFターゲット領域内の画像が合焦であれば上記対物窓を通して見える光学的な被写体像と上記AFターゲット領域内の画像とが一致するように上記表示画面にAFターゲット領域内の画像を表示するように上記表示装置を制御するものである,
     請求項2に記載のカメラ。
  4.  上記表示制御手段は,
     フォーカス・リングの回転に応じて,上記AFターゲット領域内の画像を少なくとも横方向に移動させるとともに,上記フォーカス・レンズの合焦位置が被写体までの距離に一致した場合に上記対物窓を通して見える光学的な被写体像と上記AFターゲット領域内の画像とが一致するように上記表示画面にAFターゲット領域内の画像を表示するように表示装置を制御するものである,
     請求項1から3のうち,いずれか一項に記載のカメラ。
  5.  上記表示制御手段は,
     上記フォーカス・リングの回転量を検出する回転量検出手段,および上記回転量検出手段によって検出された回転量にもとづいてカメラの前方のどの位の距離にある被写体について合焦するかを算出する距離算出手段を備え,
     上記距離算出手段において算出された距離にある被写体を上記ファインダ装置の上記対物窓を通して見える光学的な被写体像と,その被写体を上記固体電子撮像装置によって撮像することにより上記表示装置の上記表示画面に表示されているAFターゲット領域の画像と,を一致させるものである,
     請求項1から4のうち,いずれか一項に記載のカメラ。
  6.  上記表示制御手段は,
     固体電子撮像装置の光軸と上記ファインダ装置の光軸とのずれによる,上記対物窓を通して見える光学的な被写体像と上記AFターゲット領域内の画像とのずれを補正して,上記AFターゲット領域内の画像を上記表示画面に表示するものである,
     請求項1から5のうち,いずれか一項に記載のカメラ。
  7.  上記表示制御手段は,
     固体電子撮像装置の光軸と上記ファインダ装置の光軸とのずれによる,上記対物窓を通して見える光学的な被写体像と上記AFターゲット領域内の画像とのずれを,上記距離算出手段によって算出された距離に応じた補正分を補正して,上記AFターゲット領域内の画像を上記表示画面に表示するものである,
     請求項6に記載のカメラ。
  8.  上記AFターゲット領域の位置,大きさおよび数のうち少なくとも一つを設定する第1のAFターゲット領域設定手段,
     をさらに備えた請求項1から7のうち,いずれか一項に記載のカメラ。
  9.  上記AFターゲット領域内の画像の明るさまたは濃度の少なくとも一方を設定する第2のAFターゲット領域設定手段,
     をさらに備えた請求項1から8のうち,いずれか一項に記載のカメラ。
  10.  上記固体電子撮像装置によって撮像された被写体像に含まれる顔の領域を検出する顔検出手段,および
     上記顔検出手段によって検出された顔の領域をAFターゲット領域に設定する第3のAFターゲット領域設定手段,
     をさらに備えた請求項1から9のうち,いずれか一項に記載のカメラ。
  11.  フォーカス・レンズが内蔵され,かつ回転自在なフォーカス・リングが周囲に設けられており,フォーカス・リングの回転に応じてフォーカス・レンズの位置を調整するレンズ鏡筒ならびにカメラの前面に形成され,被写体に向く対物窓および上記対物窓を通して見える光学的な被写体像を覗く接眼窓を備えたファインダ装置を備えたカメラの動作制御方法において,
     設定手段が,光学式電子式兼用ビュー・ファインダ機能と電子ビュー・ファインダ機能とのいずれかの機能を設定し,
     シャッタ手段が,上記設定手段によって電子ビュー・ファインダ機能が設定されたことに応じて上記ファインダ装置の上記対物窓から入射する光を遮り,上記設定手段によって上記光学式電子式兼用ビュー・ファインダ機能が設定されたことに応じて上記ファインダ装置の対物窓から入射する光を通過させるようにシャッタを開閉し,
     固体電子撮像装置が,上記設定手段によって電子ビュー・ファインダ機能が設定されたことに応じて,上記レンズ鏡筒により結像する被写体像を撮像し,撮像した被写体像を表わす被写体像データを出力し,上記設定手段によって光学式電子式兼用ビュー・ファインダ機能が設定されたことに応じて,上記レンズ鏡筒により結像する被写体像を撮像し,撮像した被写体像のうちの一部分である所望のAFターゲット画像データを出力し,
     表示装置が,上記設定手段によって電子ビュー・ファインダ機能が設定されたことに応じて,上記固体電子撮像装置から出力される被写体像データによって表わされる被写体像を表示画面に表示し,上記設定手段によって光学式電子式兼用ビュー・ファインダ機能が設定されたことに応じて,上記固体電子撮像装置から出力される上記AFターゲット画像データによって表されるAFターゲット画像を表示画面に表示し,
     偏向装置が,上記対物窓と上記接眼窓との間に設けられ,上記表示装置の表示画面に表示されているAFターゲット画像または被写体像を上記接眼窓に導き,
     表示制御手段が,上記設定手段によって光学式電子式兼用ビュー・ファインダ機能が設定されたことに応じて,上記AFターゲット領域内の画像が非合焦であれば上記対物窓を通して見える光学的な被写体像と上記AFターゲット領域内の画像とがずれるように上記表示画面にAFターゲット領域内の画像を表示し,上記AFターゲット領域内の画像が合焦であれば上記対物窓を通して見える光学的な被写体像と上記AFターゲット領域内の画像とが一致するように上記表示画面にAFターゲット領域内の画像を表示するように上記表示装置を制御する,
     カメラの動作制御方法。
PCT/JP2013/065370 2012-07-24 2013-06-03 カメラおよびその動作制御方法 WO2014017175A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014526805A JP5736515B2 (ja) 2012-07-24 2013-06-03 カメラおよびその動作制御方法
CN201380039404.5A CN104487893B (zh) 2012-07-24 2013-06-03 相机及其动作控制方法
US14/604,499 US9264607B2 (en) 2012-07-24 2015-01-23 Camera and method of controlling operation of same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-163891 2012-07-24
JP2012163891 2012-07-24

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/604,499 Continuation US9264607B2 (en) 2012-07-24 2015-01-23 Camera and method of controlling operation of same

Publications (1)

Publication Number Publication Date
WO2014017175A1 true WO2014017175A1 (ja) 2014-01-30

Family

ID=49996993

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/065370 WO2014017175A1 (ja) 2012-07-24 2013-06-03 カメラおよびその動作制御方法

Country Status (4)

Country Link
US (1) US9264607B2 (ja)
JP (1) JP5736515B2 (ja)
CN (1) CN104487893B (ja)
WO (1) WO2014017175A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013145907A1 (ja) * 2012-03-28 2013-10-03 富士フイルム株式会社 撮像装置及び撮影支援方法
WO2014017174A1 (ja) * 2012-07-24 2014-01-30 富士フイルム株式会社 カメラおよびその動作制御方法
JP5723489B2 (ja) * 2012-07-24 2015-05-27 富士フイルム株式会社 カメラおよびその動作制御方法
CN104487893B (zh) * 2012-07-24 2016-01-20 富士胶片株式会社 相机及其动作控制方法
JP6214421B2 (ja) * 2014-02-18 2017-10-18 オリンパス株式会社 撮像装置、撮像方法
GB2537398A (en) * 2015-04-16 2016-10-19 Nokia Technologies Oy Apparatus and method for capturing images
WO2023029046A1 (zh) * 2021-09-06 2023-03-09 深圳市大疆创新科技有限公司 拍摄设备及其对焦方法、拍摄***、可读存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005198035A (ja) * 2004-01-07 2005-07-21 Fuji Photo Film Co Ltd デジタルカメラ
JP2007298672A (ja) * 2006-04-28 2007-11-15 Fujinon Corp レンズ装置
WO2012035877A1 (ja) * 2010-09-17 2012-03-22 富士フイルム株式会社 撮影装置
JP2012065294A (ja) * 2010-09-17 2012-03-29 Fujifilm Corp ハイブリッド型ファインダ装置

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6556791B1 (en) * 1999-12-21 2003-04-29 Eastman Kodak Company Dual channel optical imaging system
JP4452681B2 (ja) 2005-12-13 2010-04-21 学校法人西沢学園 Ccdを用いた像合致式距離計および距離計付きカメラ並びに撮影システム
JP2007201779A (ja) 2006-01-26 2007-08-09 Nikon Corp 電子カメラ
JP2011135490A (ja) * 2009-12-25 2011-07-07 Seiko Epson Corp デジタルカメラおよびその製造方法
JP5454392B2 (ja) 2010-07-06 2014-03-26 株式会社リコー 測距装置及び撮像装置
JP5635450B2 (ja) * 2010-09-17 2014-12-03 富士フイルム株式会社 撮像装置、ファインダ及びその表示方法
CN103416051B (zh) * 2011-03-04 2015-06-17 富士胶片株式会社 摄影装置以及显示控制方法
JP5607260B2 (ja) * 2011-09-30 2014-10-15 富士フイルム株式会社 撮影装置、撮影方法及びプログラム
CN104170365B (zh) * 2012-03-15 2015-09-02 富士胶片株式会社 摄像装置及电子取景器显示方法
WO2013146019A1 (ja) * 2012-03-28 2013-10-03 富士フイルム株式会社 撮像装置
WO2013183406A1 (ja) * 2012-06-07 2013-12-12 富士フイルム株式会社 撮像装置及び画像表示方法
JP5753948B2 (ja) * 2012-06-29 2015-07-22 富士フイルム株式会社 カメラおよびその動作制御方法
CN104396230B (zh) * 2012-06-29 2017-03-01 富士胶片株式会社 照相机及其动作控制方法
CN104396229B (zh) * 2012-06-29 2016-05-04 富士胶片株式会社 摄像机及其动作控制方法
WO2014013796A1 (ja) * 2012-07-20 2014-01-23 富士フイルム株式会社 カメラおよびその動作制御方法
WO2014013797A1 (ja) * 2012-07-20 2014-01-23 富士フイルム株式会社 カメラおよびその動作制御方法
WO2014017174A1 (ja) * 2012-07-24 2014-01-30 富士フイルム株式会社 カメラおよびその動作制御方法
CN104487893B (zh) * 2012-07-24 2016-01-20 富士胶片株式会社 相机及其动作控制方法
CN104782110B (zh) * 2012-09-19 2018-09-14 富士胶片株式会社 图像处理装置、摄像装置及图像处理方法
US9509913B2 (en) * 2013-06-18 2016-11-29 Olympus Corporation Image pickup apparatus, method of controlling image pickup apparatus, image pickup apparatus system, and image pickup control program stored in storage medium of image pickup apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005198035A (ja) * 2004-01-07 2005-07-21 Fuji Photo Film Co Ltd デジタルカメラ
JP2007298672A (ja) * 2006-04-28 2007-11-15 Fujinon Corp レンズ装置
WO2012035877A1 (ja) * 2010-09-17 2012-03-22 富士フイルム株式会社 撮影装置
JP2012065294A (ja) * 2010-09-17 2012-03-29 Fujifilm Corp ハイブリッド型ファインダ装置

Also Published As

Publication number Publication date
JP5736515B2 (ja) 2015-06-17
US9264607B2 (en) 2016-02-16
US20150130982A1 (en) 2015-05-14
CN104487893A (zh) 2015-04-01
JPWO2014017175A1 (ja) 2016-07-07
CN104487893B (zh) 2016-01-20

Similar Documents

Publication Publication Date Title
JP5736515B2 (ja) カメラおよびその動作制御方法
JP5736514B2 (ja) カメラおよびその動作制御方法
US9172881B2 (en) Camera and method of controlling operation of same
US9131157B2 (en) Camera and method of controlling operation of same
US9413970B2 (en) Camera and method of controlling operation of same
JP2011022501A (ja) 複眼撮像装置
US9258488B2 (en) Camera and method of controlling operation of same
US10564391B2 (en) Imaging device and control method therefor
US9143694B2 (en) Camera and method of controlling operation of same
CN110313173B (zh) 摄影装置和其控制方法及非易失性的计算机可读介质
US20160323493A1 (en) Image pickup apparatus and method for controlling the same
JP5723489B2 (ja) カメラおよびその動作制御方法
US10567662B2 (en) Imaging device and control method therefor using shift direction calculation
JP6518503B2 (ja) 撮像装置、及び撮像装置の制御方法
JP2011003985A (ja) 撮像装置
WO2013069437A1 (ja) 撮影装置及びファインダの表示方法
JP2010021610A (ja) 撮像装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13823690

Country of ref document: EP

Kind code of ref document: A1

DPE2 Request for preliminary examination filed before expiration of 19th month from priority date (pct application filed from 20040101)
ENP Entry into the national phase

Ref document number: 2014526805

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13823690

Country of ref document: EP

Kind code of ref document: A1