WO2007058099A1 - 撮像装置 - Google Patents

撮像装置 Download PDF

Info

Publication number
WO2007058099A1
WO2007058099A1 PCT/JP2006/322264 JP2006322264W WO2007058099A1 WO 2007058099 A1 WO2007058099 A1 WO 2007058099A1 JP 2006322264 W JP2006322264 W JP 2006322264W WO 2007058099 A1 WO2007058099 A1 WO 2007058099A1
Authority
WO
WIPO (PCT)
Prior art keywords
subject
luminance information
calculation unit
condition
type
Prior art date
Application number
PCT/JP2006/322264
Other languages
English (en)
French (fr)
Inventor
Akikazu Yachi
Satoko Furuki
Toru Matsuzawa
Nobuyuki Watanabe
Original Assignee
Olympus Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corporation filed Critical Olympus Corporation
Publication of WO2007058099A1 publication Critical patent/WO2007058099A1/ja

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals

Definitions

  • the present invention relates to an imaging apparatus using a focus detection apparatus using a Depth From Defocus (hereinafter abbreviated as DFD) method for detecting focus even with a plurality of image forces having different blurs.
  • DFD Depth From Defocus
  • US Pat. No. 4,965,840 discloses a focus detection method called a DFD method.
  • luminance information is acquired at two locations with different optical path lengths.
  • a blur parameter is calculated by performing arithmetic processing on a plurality of images having different blurs, and in-focus determination is performed.
  • the blur parameter is a representative value indicating the blur state of the luminance information, and indicates a value correlated with the dispersion value of the point spread function (PSF) of the optical system.
  • PSF is a function that expresses how light rays spread when an ideal point image passes through the optical system.
  • the DFD method at least two focus determination brightness information from the same subject, the same part, and the same line-of-sight direction are changed, and at least one shooting parameter that affects the blurred state of the captured image is changed.
  • the shooting parameters include focus lens position, aperture amount, focal length, and the like. In this description, the description is limited to the case where only the position of the focus lens is changed.
  • the focus lens is moved to the predetermined first position and second position. Then, the first luminance information is acquired at the first position, and the second luminance information is acquired at the second position.
  • the acquired luminance information includes low-pass filter processing for removing electrical noise, image magnification correction processing for correcting different magnifications between the first and second images, luminance distribution, and the like. Which regular processing is applied. If necessary, select the area to be focused in the acquired luminance information.
  • the selection is performed on one of the luminance information, and the corresponding area is selected on the other luminance information. Then, the difference between the first luminance information and the second luminance information is calculated from the two normal tig processing results in the region where the focus determination is to be performed. In addition, the second derivative of each of the first luminance information and the second luminance information is calculated, and the average value thereof is calculated. Then, by dividing the difference between the first luminance information and the second luminance information by the average value of the second derivative of the luminance information, the variance of the PSF corresponding to the first or second luminance information can be obtained. A correlated blur parameter is calculated.
  • the subject distance is obtained based on the relational expression between the dispersion of the PSF and the subject distance described in US Pat. No. 4,965,840.
  • the subject distance can be obtained with high accuracy when the in-focus lens position exists in the vicinity of the two lens positions when the luminance information is acquired.
  • the focus detection accuracy deteriorates as the two lens positions move away from the focusing lens.
  • the present invention has been made in view of the above points, and an object thereof is to provide an imaging apparatus capable of accurately performing focus detection.
  • One aspect of the imaging apparatus of the present invention is an imaging apparatus that captures an image of a subject and records an image of the subject.
  • Luminance information acquisition means for photographing by acquiring luminance information of light imaged by the optical system
  • a blur parameter calculation unit that calculates a blur parameter corresponding to a distance from the optical system to the subject using a plurality of pieces of luminance information with different blurs acquired by the luminance information acquisition unit;
  • An arrangement determining means for determining an arrangement of the optical system or the luminance information acquiring means based on the blur parameter calculated using the blur parameter calculating means;
  • Subject determination means for determining the type of subject
  • Condition calculating means for calculating shooting conditions when shooting by the brightness information acquiring means according to a determination result by the subject determining means;
  • FIG. 1 is a diagram showing a configuration of a compact camera as an imaging apparatus according to a first embodiment of the present invention.
  • FIG. 2 is a block diagram of the compact camera shown in FIG.
  • FIG. 3 is a flowchart for explaining the processing of the compact camera of FIG. 2.
  • FIG. 4 is a diagram showing a relationship between a blur parameter and a focus lens position.
  • FIG. 5 is a diagram showing a configuration of a single-lens reflex camera as an imaging apparatus according to a first modification of the first embodiment of the present invention.
  • FIG. 6 is a block diagram of the single-lens reflex camera of FIG.
  • FIG. 7 is a diagram showing a flowchart for explaining processing of the single-lens reflex camera of FIG. 6.
  • FIG. 8 is a block configuration diagram of a compact camera as an imaging device according to a second modification of the first embodiment of the present invention.
  • FIG. 9 is a flowchart for explaining the process of the compact camera of FIG. 8.
  • FIG. 10 is a block diagram of a compact camera as an image pickup apparatus according to the second embodiment of the present invention.
  • FIG. 11 is a diagram showing a flowchart for explaining the processing of the compact camera shown in FIG.
  • FIG. 12 is a block diagram of a compact camera as an image pickup apparatus according to a modification of the second embodiment of the present invention.
  • FIG. 13 is a diagram showing a flowchart for explaining the processing of the compact camera of FIG.
  • the imaging apparatus is a compact camera 10 as shown in FIG.
  • the compact camera 10 includes an optical system 12, an image sensor 14, a luminance signal control unit 16, a subject determination unit 18, a luminance information acquisition position calculation unit 20, a photometric sensor 22, and an exposure condition calculation unit 24. , An optical system control unit 26, and a distance estimation calculation unit 28.
  • the optical system 12 includes a plurality of lens groups and an aperture, and is a lens group (taking lens) for the purpose of taking an image. Some of these lens groups can be driven in the optical axis direction to adjust the focus. This lens group is called a focus lens.
  • the image of the subject formed by the taking lens is converted into an electric signal by the photoelectric conversion element of the imaging element 14.
  • the converted electrical signal is converted into a digital signal by the luminance signal control unit 16.
  • the digital signal converted by the luminance signal control unit 16 is called luminance information. That is, the image sensor 14 and the luminance signal control unit 16 constitute a luminance information acquisition unit 30.
  • the luminance information acquired by the luminance information acquisition unit 30 is input to the distance estimation calculation unit 28.
  • the subject determining unit 18 is a user interface for determining the type of subject, and the photographer selects the type of subject that the photographer intends to photograph through this user interface. You can select at least five different types of subjects: close-up subjects, distant subjects, people, night-view subjects, and standard subjects.
  • the setting of the shooting condition is influenced by the type of subject selected by the subject determining unit 18.
  • the luminance information acquisition position calculation unit 20 that functions as a condition calculation unit calculates an optimum focus lens position for performing focus detection according to the type of the subject selected by the subject determination unit 18.
  • the photometric sensor 22 senses incident light from the subject.
  • the condition calculation unit 24 calculates the shirt speed of the image sensor 14 from the measurement result of the photometric sensor 22.
  • the optical system control unit 26 functioning as the condition setting means is configured by an actuator and a drive circuit for driving the actuator, although not shown in particular.
  • the position of the focus lens and the diameter of the aperture in the optical system 12 are configured. To control.
  • the distance estimation calculation unit 28 estimates the subject distance by the DFD method.
  • the distance estimation calculation unit 28 includes a blur parameter calculation unit 32, a control parameter calculation unit 34, and an LUT storage unit 36.
  • the blur parameter calculation unit 32 includes a difference calculation unit 38, a secondary differential calculation unit 40, a blur parameter calculation unit 42, and a buffer 44.
  • the difference calculation unit 38 calculates a difference between images necessary for calculating the blur parameter.
  • the second derivative calculation unit 40 calculates the second derivative of the image, and calculates the average of the second derivative results obtained from a plurality of (for example, two) luminance information powers with different blurs.
  • the blur parameter calculation unit 42 calculates the blur parameter by dividing the average of the image difference calculated by the difference calculation unit 38 and the second derivative calculated by the second derivative calculation unit 40.
  • the buffer 44 holds the luminance information photographed on the first image and the result of its second derivative in order to acquire a plurality of luminance information at different times by disposing the focus lens at different positions.
  • the LUT storage unit 36 stores the relationship between the blur parameter and the focusing lens position in the form of a look-up table (LUT) as the relationship between the blur parameter and the focus position of the light of the subject. .
  • the arrangement of the optical system 12 is determined according to the focus lens position.
  • the control parameter calculation unit 34 functioning as an arrangement determining unit refers to the LUT in the LUT storage unit 36 so that the position of the focus lens corresponding to the blur parameter calculated by the blur parameter calculation unit 42 is obtained. Find the focal lens position.
  • the subject determining unit 18 determines the type of subject (step S10).
  • the type of subject that the photographer intends to shoot at least “close object”, “distant subject”, “person”, “night subject”, “standard subject”.
  • the user selects by operating the user interface (subject determining unit 18).
  • the subject determining unit 18 determines the type of the selected subject as the type of subject to be photographed.
  • the arrangement of the optical system 12 such as the focus lens position and the aperture diameter at the time of shooting in the imaging apparatus, and the shooting conditions such as shot speed are affected by the determined type of subject.
  • the luminance information acquisition position calculation unit 20 is optimal for performing focus detection based on the type of subject selected by the subject determination unit 18 according to control of a controller (not shown). Calculate the focus lens position L1 (step S1 2).
  • the luminance information acquisition position calculation unit 20 estimates that the main subject is within 60 cm of the imaging device force and Ocm force, although the distance range when shooting a close subject varies depending on the design of the optical system 12. To do.
  • the focus lens position L1 calculated by the luminance information acquisition position calculation unit 20 is a predetermined position within this range. If the subject type determined by the subject determination unit 18 is a distant or night scene subject, the main subject is estimated to be at a distance close to infinity. Therefore, the luminance information acquisition position calculation unit 20 calculates the focus lens position L1 as infinity.
  • the luminance information acquisition position calculation unit estimates that the distance of the main subject exists at a distance of about lm to 5 m.
  • the focus lens position L1 calculated by 20 is a predetermined position in this range.
  • the subject type determined by the subject determination unit 18 is a standard subject, the subject type is not a subject that matches the specific subject, so the aperture diameter, shot speed, etc.
  • the shooting conditions are set based on a predetermined function. Therefore, in this case, since the estimated position of the main subject is unknown, the luminance information acquisition position calculation unit 20 does not need to calculate the focus lens position L1 corresponding to the distance, and is set to a predetermined position. Good.
  • the optical system control unit 26 drives the focus lens and the aperture diameter of the optical system 12 according to the control of a controller (not shown) (step S14), focus detection will be performed.
  • focus detection By performing focus detection by the DFD method at such a focus lens position L1, one of the two blurred images is close to the focused image, resulting in higher accuracy in calculating the blur parameter.
  • the subject distance can be obtained with high accuracy.
  • focus detection can be performed with high accuracy according to the type of subject.
  • the focus detection method estimates the size of the blur from the luminance information, it is preferable to acquire the luminance information under an exposure condition in which the blur appears as significantly as possible. Therefore, the photometric sensor 22 measures the incident light from the subject (step S16), and from the result, the exposure condition calculation unit 24 calculates the shutter speed of the image sensor 14 according to the control of a controller (not shown) (step S16). S18). At this time, the shirt speed corresponding to the type of the selected subject may be calculated.
  • the aperture diameter is open. The aperture diameter may be set according to the selected subject.
  • the luminance information acquisition unit 30 acquires the luminance information of the first image of the subject and controls the distance estimation calculation unit according to the control of the controller (not shown).
  • the obtained first luminance information is stored in the buffer 44 in the 28 blur parameter calculation unit 32 (step S20).
  • the optical system control unit 26 drives the focus lens of the optical system 12 to a predetermined second focus lens position L2 different from the focus lens position L1 in accordance with control of a controller (not shown).
  • the luminance information acquisition unit 30 acquires the luminance information of the second image of the subject (step S22).
  • the acquired luminance information of the second sheet is supplied to the distance estimation calculation unit 28.
  • the blur parameter calculation is performed in the distance estimation calculation unit 28 under the control of a controller (not shown). That is, in the blur parameter calculation unit 32, the difference calculation unit 38 reads the first luminance information from the buffer 44, and the difference from the second luminance information supplied from the luminance information acquisition unit 30. Is calculated. In addition, the second derivative calculation unit 40 receives the second sheet supplied from the luminance information acquisition unit 30. The second derivative of the luminance information is calculated, and if it is calculated, the first luminance information is read from the buffer 44 and the second derivative is calculated.
  • the blur parameter calculation unit 42 calculates the division between the difference result calculated by the difference calculation unit 38 and the average value of the second derivative calculated by the second derivative calculation unit 40 for the extracted region. To obtain the blur parameter (step S26).
  • the blur parameter has a linear relationship with the reciprocal of the subject distance, and furthermore, there is a one-to-one correspondence between the subject distance and the focus lens position, so the blur parameter and the focus lens position As shown in Fig. 4, the one-to-one correspondence is also saved.
  • This relationship is stored as a table (LUT) in the LUT storage unit 36.
  • the distance information corresponding to the subject distance value is represented by the position of the focus lens. Therefore, the control parameter calculation unit 34 uses the blur parameter obtained by the blur parameter calculation unit 32 and the information of the V and L table (LUT) stored in the LUT storage unit 36 to use the focus lens position DFD for the subject.
  • Find LF by linear interpolation step S28. In this way, the control parameter calculation unit 34 calculates the subject distance value corresponding to the blur parameter.
  • the control parameter calculation unit 34 inputs the estimated in-focus lens position DFD-LF to the optical system control unit 26.
  • the drive circuit (not shown) of the optical system control unit 26 generates a signal for arranging the focus lens using the target lens position as a target lens position. , Not shown !, input the signal to the end-user and place the focus lens at the desired position (step S30).
  • step S32 When the focus lens is driven to the target lens position, the focus detection is completed (step S32).
  • the imaging apparatus can also be configured as a single-lens reflex camera 46 as shown in FIG.
  • the optical system 12 has a Lens 12A, reflex mirror 12B, and AF optical systems 12C and 12D for guiding light rays to AF imaging elements 14A and 14B for focus detection.
  • the taking lens 12A has a focus lens for adjusting the focus.
  • the subject image formed by the taking lens 12A is converted into a digital signal by the image sensor.
  • the image sensor includes a photographic image sensor 14C for shooting and two AF image sensors (14A, 14B), and one of the AF image elements is optically equivalent to the photographic image sensor 14C. Has been placed. In the present embodiment, it is assumed that the AF image sensor 14A is arranged.
  • the single-lens reflex camera 46 in this modification uses the AF image sensors 14A and 14B as the image sensor of the luminance information acquisition unit 30, and the distance estimation calculation unit 28 is blurred.
  • the omission of the buffer 44 from the parameter calculation unit 32 is a structural difference from the compact camera 10 in the first embodiment. That is, in this modification, the electric signal converted by the AF imaging elements 14A and 14B is converted into two pieces of luminance information by the luminance signal control unit 16, and the difference between the blur parameter calculation unit 32 of the distance estimation calculation unit 28 is calculated. It is supplied to the calculation unit 38 and the secondary differential calculation unit 40.
  • the focus detection processing of the single-lens reflex camera 46 in the present modification example configured as described above is as shown in the flowchart of FIG.
  • the description will be limited to a method for detecting focus using two pieces of brightness information of different blur acquired by two imaging elements (AF imaging elements 14A and 14B) having different arrangements.
  • the type of the subject selected by the photographer through the user interface is determined as the type of subject to be shot (step S10)
  • the luminance information acquisition position calculation unit 20 calculates the optimum focus lens position L1 for performing focus detection (step S12), and the optical system control unit 26
  • the focus lens in the taking lens 12A of system 12 is driven (step S14).
  • the incident light from the subject is measured by the photometric sensor 22 (Step S 16), and from the result, the exposure condition calculation unit 24 calculates the imaging conditions such as the shutter speed and aperture diameter of the image sensor 14 ( Step S18).
  • the luminance information acquisition unit 30 performs the two luminance information at the focus lens position L1 that is set to drive in step S14 according to the control of a controller (not shown).
  • the distance estimation calculation unit 28 calculates the focus lens position using the two pieces of luminance information acquired at the same time. That is, at the focus lens position L1, two pieces of luminance information having different blurs are simultaneously acquired from the imaging elements 14A and 14B having different positions (steps S34A and S34B).
  • the difference calculation unit 38 in the blur parameter calculation unit 32 of the distance estimation calculation unit 28 calculates the difference between the two luminance information
  • the second derivative calculation unit 40 calculates the difference between the two luminance information. Calculate the second derivative at once and find the average value.
  • step S24 a block in which the average value of the second derivative of the two images exceeds the threshold value is extracted as a region for calculating the blur parameter (step S24).
  • the blur parameter calculation unit 42 divides the difference result and the average of the second derivative for the extracted region to calculate a blur parameter (step S26).
  • the control parameter calculation unit 34, the LUT storage unit 36, and the optical system control unit 26 are used to drive the focus lens of the optical system 12 to the in-focus lens position corresponding to the blur parameter. Arrange (steps S28 to S120) and complete focus detection (step S32).
  • the imaging apparatus according to the present modification is a compact camera 10 as shown in FIG. 1.
  • the description of the same parts as in the first embodiment is omitted, and only the differences in structure will be mainly described below. .
  • the compact camera 10 according to the present modification includes a luminance information acquisition unit control unit 48 that functions as condition setting means in addition to the configuration of the first embodiment.
  • the optical system 12 is a lens group (taken lens) that is configured by a plurality of lens groups and a diaphragm and is intended to take an image.
  • a part of the lens group can be driven in the optical axis direction to adjust the focus.
  • the imaging element 14 is driven in the optical axis direction. The focus is adjusted.
  • the luminance information acquisition unit control unit 48 includes an actuator and a driving circuit for driving the actuator, and controls the position of the image sensor 14.
  • the system control unit 26 controls only the aperture diameter of the optical system 12. Further, in this modification, the LUT storage unit 36 of the distance estimation calculation unit 28 uses a look-up table (relationship between the blur parameter and the focus imaging device position as the relationship between the blur parameter and the focus position of the object power). (LUT).
  • Focus detection processing of the compact camera 10 in the modified example having the above-described configuration will be described with reference to the flowchart of FIG.
  • the description will be limited to a method of detecting focus using two pieces of brightness information obtained by changing the position of the image sensor 14 and having two different blurs.
  • the type of subject selected by the photographer using the user interface is determined as the type of subject to be photographed (step S10).
  • the luminance information acquisition position calculation unit 20 calculates the optimal image sensor position D1 for performing focus detection (step S36). Then, the luminance information acquisition unit control unit 48 drives and sets the image sensor 14 at the calculated image sensor position D1 (step S38).
  • the shutter speed and the aperture diameter are calculated by the photometric sensor 22 and the exposure condition calculation unit 24 (steps S16 and S18).
  • luminance information of the first sheet is acquired at the image sensor position D1 (step S40). Thereafter, the luminance information acquisition unit control unit 48 drives the imaging device 14 to a predetermined second imaging device position D2 different from the imaging device position D1 according to the control of the controller (not shown), and the luminance information acquisition unit In 30, the brightness information of the second image of the subject is acquired (step S42). Then, the blur parameter calculation unit 32 uses the two pieces of luminance information to calculate the blur parameter in the same manner as in the first embodiment (steps S24 and S26).
  • the LUT storage unit 36 of the distance estimation calculation unit 28 stores the correspondence relationship between the blur parameter and the in-focus image sensor position, and the control parameter calculation unit 34 is stored in the LUT storage unit 36!
  • the focus imaging device position DFD—DF with respect to the subject is calculated using the speaking table (LUT) (step S44).
  • the calculated in-focus image sensor position DFD-DF is input to the luminance information acquisition unit control unit 48.
  • the driving information is not shown in the luminance information acquisition unit control unit 48.
  • the path generates a signal for placing the image pickup device 14 with the target image pickup device position as the target image pickup device position. Not shown!
  • the signal is input to the actuator to place the image pickup device 14 at a desired position (step S46). .
  • the imaging apparatus according to the present embodiment is a compact camera 10 as shown in FIG. 1, and the description of the same parts as in the first embodiment will be omitted, and only the differences in structure will be mainly described below.
  • the power that the subject determining unit 18 determines the type of the subject according to the input of the user interface is configured to determine the type of the object using the luminance information acquired by the luminance information acquisition unit 30 configured by the imaging device 14 and the luminance signal control unit 16.
  • the subject determination unit 18 determines the color information of the input luminance information, the color information determination unit 18A for determining the color information of the luminance information, and also the distribution of the luminance information.
  • a luminance distribution discriminating unit 18B for discriminating and an edge information discriminating unit 18C for discriminating the edge information of the luminance information are also provided.
  • the focus detection process of the compact camera 10 in the present embodiment having the above-described configuration will be described with reference to the flowchart of FIG. Note that here, as described in the background art, the description will be limited to a method for detecting focus using two pieces of luminance information obtained by changing the position of the focus lens and having two different blurs.
  • the optical system control unit 26 moves the focus lens position of the optical system 12 to the lens position LO indicating the nearest point, and the luminance at the lens position L 0
  • the information acquisition unit 30 acquires the luminance information of the subject (step S48).
  • subject The determination unit 18 identifies the type of the subject from the acquired luminance information and determines the type of the subject to be photographed (step S50).
  • the subject determination unit 18 has a luminance information with low saturation based on the determination results of the color information determination unit 18A, the luminance distribution determination unit 18B, and the edge information determination unit 18C. If the gradation distribution is small !, the subject type is determined to be a distant subject.
  • the subject determination unit 18 has luminance information with high saturation and a color tone due to room light based on the determination results of the color information determination unit 18A, the luminance distribution determination unit 18B, and the edge information determination unit 18C. If the gradation variance is large, the subject type is determined to be a foreground subject.
  • the subject determination unit 18 uses the subject information when the color information indicates skin color in a specific region based on the determination results of the color information determination unit 18A, the luminance distribution determination unit 18B, and the edge information determination unit 18C. Is recognized as a person.
  • the subject determination unit 18 uses the edge information of the luminance information based on the determination results of the color information determination unit 18A, the luminance distribution determination unit 18B, and the edge information determination unit 18C. If the total edge strength is smaller than a predetermined value and the color information indicates black, the subject type is determined to be a night scene subject.
  • the information on the color as described above is obtained by using the image pickup device 14 having a bay arrangement.
  • the subject determination unit 18 determines the type of the subject using the input luminance information. Then, the luminance information acquisition position calculation unit 20 calculates the lens position L1 according to the type of the subject determined by the subject determination unit 18 (step S12).
  • the optical system control unit 26 determines a predetermined value within this range.
  • the focus lens is driven to position L1, and focus detection is performed in the same manner as in the first embodiment (steps S14 to S32).
  • the same effect as in the first embodiment can be obtained without the user selecting a shooting scene in focus detection using the DFD method.
  • the imaging apparatus according to this modification is a compact camera 10 as shown in FIG. 1, and the description of the same parts as in the second embodiment is omitted, and only the differences in structure will be mainly described below. .
  • the compact camera 10 in this modification includes a luminance information acquisition unit control unit 48 in addition to the configuration of the second embodiment.
  • the optical system 12 is a lens group (taking lens) that includes a plurality of lens groups and a diaphragm and is intended to take an image.
  • some of the lens groups are configured to be driven in the optical axis direction in order to adjust the focus.
  • the image sensor 14 is driven in the optical axis direction. By doing so, the focus is adjusted.
  • the luminance information acquisition unit control unit 48 includes an actuator and a driving circuit for driving the actuator, and controls the position of the image sensor 14.
  • the optical system control unit 26 controls only the aperture diameter of the optical system 12 in this modification. Further, in this modification, the LUT storage unit 36 of the distance estimation calculation unit 28 looks at the relationship between the blur parameter and the focus imaging element position as the relationship between the blur parameter and the focus position of the subject force light. Memorize it in the form of an uptable (LUT).
  • the focus detection process of the compact camera 10 in the modified example having the above configuration will be described with reference to the flowchart of FIG.
  • the description will be limited to a method of detecting focus using two pieces of brightness information obtained by changing the position of the image sensor 14 and having two different blurs.
  • the luminance information acquisition unit control unit 48 drives the imaging device 14 to the imaging device position DO where the focus position of the imaging device 14 indicates the nearest point in accordance with control of a controller (not shown), and the luminance information acquisition unit. 30 obtains luminance information of the subject (step S52).
  • the subject determination unit 18 determines the type of the subject from the luminance information as in the second embodiment (see FIG. Step S50).
  • the luminance information acquisition position calculation unit 20 calculates the image sensor position D1 that is focused on the distance assumed for each subject as described in the first embodiment (step S36). Then, the luminance information acquisition unit control unit 48 drives and sets the image sensor 14 at the calculated image sensor position D1 (step S38).
  • the photometer sensor 22 and the exposure condition calculation unit 24 calculate the shot speed and the aperture diameter (steps S16 and S18).
  • luminance information of the first sheet is acquired at the image sensor position D1 (step S40). Thereafter, the luminance information acquisition unit control unit 48 drives the imaging device 14 to a predetermined second imaging device position D2 different from the imaging device position D1 according to the control of the controller (not shown), and the luminance information acquisition unit In 30, the brightness information of the second image of the subject is acquired (step S42). Then, the blur parameter calculation unit 32 uses these two pieces of luminance information to calculate a blur parameter in the same manner as in the first and second embodiments (steps S 24 and S 26).
  • the LUT storage unit 36 of the distance estimation calculation unit 28 stores the correspondence relationship between the blur parameter and the focus imaging element position, and the control parameter calculation unit 34 is stored in the LUT storage unit 36!
  • the focus imaging device position DFD—DF with respect to the subject is calculated using the speaking table (LUT) (step S44).
  • the calculated in-focus image sensor position DFD-DF is input to the luminance information acquisition unit control unit 48.
  • the drive circuit of the luminance information acquisition unit control unit 48 uses the signal as a target image sensor position to signal the image sensor 14. Is generated and the signal is input to the actuator to place the image sensor 14 at a desired position (step S46).
  • the present invention has been described based on the embodiments. However, the present invention is not limited to the above-described embodiments, and various modifications and applications are possible within the scope of the gist of the present invention. is there. [0070]
  • the brightness information with different blur is obtained by changing the aperture diameter, which is obtained by driving the position of the focus lens and the image sensor to acquire different brightness information of the two blurs. Even if it is the structure to acquire, the effect similar to the said Example is acquired.
  • Each calculation unit and calculation unit may be configured by a single piece of hardware such as a DSP or a CPU.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)

Abstract

 ぼけの異なる複数の輝度情報を用いて算出した光学系(12)から被写体までの距離に対応するぼけパラメータに基づいて上記光学系の配置を決定する撮像装置において、被写体の種類を決定する被写体決定部(18)と、この被写体決定部の出力に応じて、撮影を行う際の撮影条件を算出する輝度情報取得位置計算部(20)と、を備え、ぼけパラメータ演算部(32)でぼけパラメータを算出するために用いるぼけの異なる複数の輝度情報の内の少なくとも1つの輝度情報を取得するための撮影条件を、上記輝度情報取得位置計算部(20)で算出した撮影条件に設定する。

Description

撮像装置
技術分野
[0001] 本発明は、ぼけの異なる複数の画像力も合焦検出を行う Depth From Defocus (以 下、 DFDと略記する)法を利用した合焦検出装置を用いた撮像装置に関する。 背景技術
[0002] 米国特許第 4, 965, 840号には、 DFD法と呼ばれる合焦検出法が開示されてい る。この方法では、光路長の異なる 2箇所で輝度情報を取得する。そして、ぼけの異 なる複数の画像を演算処理することにより、ぼけパラメータを算出して、合焦判定する 。ここで、ぼけパラメータとは、輝度情報のぼけ状態を示す代表値であり、光学系のポ イントスプレッドファンクション (PSF)の分散値と相関のある値を示す。また、 PSFとは 、理想的な点像が光学系を通過した場合にどのように光線が広がるかを表した関数 である。
[0003] 上記米国特許第 4, 965, 840号に記載されている DFD法の概略ステップを説明 する。なお、これら概略ステップで行われる演算処理の詳細は、上記米国特許に記 載されているので、ここでは説明を省略する。
[0004] DFD法では、同一被写体、同一部位、同一視線方向からの最低二つの合焦判定 用輝度情報を、撮像画像のぼけ状態に影響を与える撮影パラメータを最低 1つ変更 すること〖こよって、取得する。撮影パラメータとしては、フォーカスレンズ位置、絞り量 、焦点距離などがある。本説明では、フォーカスレンズの位置のみを変更する場合に 限定して説明を行う。
[0005] 本 DFD法では、例えば輝度情報取得手段である撮像部と対象物までの光路長を 変更するため、つまり、撮像部の像面上に結像される像のぼけの状態を変えるため に、フォーカスレンズを所定の第 1の位置と第 2の位置に移動する。そして、第 1の位 置において第 1の輝度情報を取得し、また、第 2の位置で第 2の輝度情報を取得する 。これら取得された輝度情報は、電気的なノイズを除去するためのローパスフィルタ 処理、第 1及び第 2の画像間で異なる倍率を補正する像倍率補正処理、輝度分布な どの正規ィヒ処理が施される。必要であれば取得した輝度情報中の合焦判定をすベ き領域を選択する。選択はどちらか一方の輝度情報に対して行い、もう一方の輝度 情報に対しては対応領域が選定される。そして、それら合焦判定をすべき領域にお ける 2つの正規ィヒ処理結果から、第 1の輝度情報と第 2の輝度情報との差分とを演算 する。また、第 1の輝度情報及び第 2の輝度情報それぞれの 2次微分を計算して、そ れらの平均値を計算する。そして、上記第 1の輝度情報と第 2の輝度情報との差分を 、上記輝度情報の 2次微分の平均値で除算することで、第 1または第 2の輝度情報に 対応した PSFの分散と相関のあるぼけパラメータが算出される。
[0006] この算出された PSFのぼけパラメータから、被写体距離は、上記米国特許第 4, 96 5, 840号に記載されている PSFの分散と被写体距離の関係式に基づいて求められ る。
発明の開示
[0007] 上記のような DFD法では、輝度情報取得時の 2つのレンズ位置の近傍に合焦レン ズ位置が存在する場合に高!、精度で被写体距離を求めることができる。その 2つのレ ンズ位置が合焦レンズ位置力 離れるにしたがって合焦検出精度が悪くなる。
[0008] 本発明は、上記の点に鑑みてなされたもので、合焦検出を精度良く行うことが可能 な撮像装置を提供することを目的とする。
[0009] 本発明の撮像装置の一態様は、被写体を撮影して当該被写体の画像を記録する 撮像装置において、
当該被写体からの光を所定の位置に結像する光学系と、
上記光学系によって結像した光の輝度情報を取得することで撮影を行う輝度情報 取得手段と、
上記輝度情報取得手段で取得したぼけの異なる複数の輝度情報を用いて、上記 光学系から上記被写体までの距離に対応するぼけパラメータを算出するぼけパラメ ータ演算手段と、
上記ぼけパラメータ演算手段を用いて算出した上記ぼけパラメータに基づいて上 記光学系又は上記輝度情報取得手段の配置を決定する配置決定手段と、
を具備し、 被写体の種類を決定する被写体決定手段と、
上記輝度情報取得手段により撮影を行う際の撮影条件を上記被写体決定手段に よる決定結果に応じて算出する条件計算手段と、
上記ぼけパラメータ演算手段によって上記ぼけパラメータを算出するために用いる 上記ぼけの異なる複数の輝度情報の内の少なくとも 1つの輝度情報を取得するため の上記撮影条件を、上記条件計算手段で算出した上記撮影条件に設定する条件設 定手段と、
を更に備えたことを特徴とする。
図面の簡単な説明
[図 1]図 1は、本発明の第 1実施例に係る撮像装置としてのコンパクトカメラの構成を 示す図である。
[図 2]図 2は、図 1のコンパクトカメラのブロック構成図である。
[図 3]図 3は、図 2のコンパクトカメラの処理を説明するためのフローチャートを示す図 である。
[図 4]図 4は、ぼけパラメータと合焦レンズ位置との関係を示す図である。
[図 5]図 5は、本発明の第 1実施例の第 1変形例に係る撮像装置としての一眼レフレツ タスカメラの構成を示す図である。
[図 6]図 6は、図 5の一眼レフレックスカメラのブロック構成図である。
[図 7]図 7は、図 6の一眼レフレックスカメラの処理を説明するためのフローチャートを 示す図である。
[図 8]図 8は、本発明の第 1実施例の第 2変形例に係る撮像装置としてのコンパクト力 メラのブロック構成図である。
[図 9]図 9は、図 8のコンパクトカメラの処理を説明するためのフローチャートを示す図 である。
[図 10]図 10は、本発明の第 2実施例に係る撮像装置としてのコンパクトカメラのブロッ ク構成図である。
[図 11]図 11は、図 10のコンパクトカメラの処理を説明するためのフローチャートを示 す図である。 [図 12]図 12は、本発明の第 2実施例の変形例に係る撮像装置としてのコンパクトカメ ラのブロック構成図である。
[図 13]図 13は、図 12のコンパクトカメラの処理を説明するためのフローチャートを示 す図である。
発明を実施するための最良の形態
[0011] 以下、本発明を実施するための最良の形態を図面を参照して説明する。
[0012] [第 1実施例]
本実施例に係る撮像装置は、図 1に示すようなコンパクトカメラ 10である。このコン パクトカメラ 10は、図 2に示すように、光学系 12、撮像素子 14、輝度信号制御部 16、 被写体決定部 18、輝度情報取得位置計算部 20、測光センサ 22、露光条件計算部 24、光学系制御部 26、及び距離推定計算部 28によって構成される。
[0013] ここで、光学系 12は複数のレンズ群と絞りとで構成され、画像を撮影することを目的 としたレンズ群(テーキングレンズ)である。そのうちの一部のレンズ群はフォーカスを 調整するために光軸方向に駆動できる構成になって 、る。このレンズ群をフォーカス レンズと呼ぶ。テーキングレンズによって結像した被写体の像は、撮像素子 14の光 電変換素子によって電気信号に変換される。変換された電気信号は輝度信号制御 部 16でデジタル信号に変換される。この輝度信号制御部 16によって変換されたデ ジタル信号を輝度情報と呼ぶ。即ち、上記撮像素子 14と輝度信号制御部 16とで、輝 度情報取得部 30を構成して 、る。この輝度情報取得部 30で取得された輝度情報は 、距離推定計算部 28に入力される。
[0014] また、被写体決定部 18は、被写体の種類を決定するためのユーザインタフェース であり、撮影者はこのユーザインタフェースを通して撮影者が撮影しょうとする被写体 の種類を選択する。被写体の種類としては、近接した被写体、遠景の被写体、人物、 夜景の被写体、標準の被写体の少なくとも 5つの被写体の種類力 選択できる。撮影 条件の設定は、被写体決定部 18で選択された被写体の種類によって影響される。 条件計算手段として機能する輝度情報取得位置計算部 20は、この被写体決定部 1 8で選択した被写体の種類に応じて、合焦検出を行なうために最適なフォーカスレン ズ位置を計算する。測光センサ 22は、被写体からの入射光を感知するもので、露光 条件計算部 24は、この測光センサ 22の計測結果から、撮像素子 14のシャツタスピー ドを計算する。さらに、条件設定手段として機能する光学系制御部 26は、特に図示 はしないがァクチユエータと該ァクチユエータを駆動するための駆動回路とによって 構成されており、光学系 12におけるフォーカスレンズの位置と絞りの径を制御する。
[0015] なお、各部の動作制御は、当該コンパクトカメラ 10を制御する不図示のコントローラ により為される。
[0016] ここで、上記距離推定計算部 28は、 DFD法により被写体距離を推定するものであ る。この距離推定計算部 28は、ぼけパラメータ演算部 32、制御パラメータ計算部 34 、及び LUT記憶部 36によって構成される。
[0017] ぼけパラメータ演算部 32は、差分演算部 38、 2次微分演算部 40、ぼけパラメータ 計算部 42、及びバッファ 44を備えている。差分演算部 38は、ぼけパラメータの算出 のために必要な画像の差分を計算する。 2次微分演算部 40は、画像の 2次微分を計 算し、ぼけの異なる複数 (例えば 2つ)の輝度情報力 得られる 2次微分の結果の平 均を計算する。ぼけパラメータ計算部 42は、差分演算部 38で計算された画像の差 分と 2次微分演算部 40で計算された 2次微分との平均を除算して、ぼけパラメータを 計算する。バッファ 44は、複数の輝度情報をフォーカスレンズを異なる位置に配置し て異なる時刻で取得するために、 1枚目に撮影した輝度情報とその 2次微分の結果 を保持しておくものである。
[0018] LUT記憶部 36は、ぼけパラメータと被写体力もの光の合焦位置との関係として、ぼ けパラメータと合焦レンズ位置との関係をルックアップテーブル (LUT)の形で記憶し ている。合焦レンズ位置に応じて、光学系 12の配置が定まる。
[0019] 配置決定手段として機能する制御パラメータ計算部 34は、上記 LUT記憶部 36の LUTを参照することにより、上記ぼけパラメータ計算部 42で計算したぼけパラメータ に対応したフォーカスレンズの位置である合焦レンズ位置を求める。
[0020] 上記のような構成の本実施例におけるコンパクトカメラ 10の合焦検出処理を、図 3 のフローチャートを参照して詳細に説明する。なおここでは、背景技術で説明したよう に、フォーカスレンズの位置を変更して取得したぼけの異なる輝度情報を使って、合 焦検出する方法に限定して説明する。 [0021] 即ち、まず、被写体決定部 18は、被写体の種類を決定する (ステップ S10)。本実 施例では、撮影者が撮影しょうとする被写体の種類 (少なくとも、「近接した被写体」、 「遠景の被写体」、「人物」、「夜景の被写体」、「標準の被写体」)を、撮影者がユーザ インタフェース (被写体決定部 18)を操作することにより選択する。被写体決定部 18 は、この選択された被写体の種類を、撮影される被写体の種類として決定する。本実 施例では、撮像装置における撮影時のフォーカスレンズ位置や絞り径等の光学系 12 の配置や、シャツタスピード等の撮影条件は、決定された被写体の種類に影響される 。被写体の種類の決定が行われると、図示しないコントローラの制御に従って輝度情 報取得位置計算部 20は、その被写体決定部 18で選択した被写体の種類に基づい て、合焦検出を行なうために最適なフォーカスレンズ位置 L1を計算する (ステップ S1 2)。
[0022] ここで、被写体決定部 18で決定した被写体の種類が近接した被写体の場合、主要 被写体が近距離にあることを示している。光学系 12の設計によって近接の被写体を 撮影する場合の距離範囲は異なるが、例えば本実施例では、輝度情報取得位置計 算部 20は、主要被写体が撮像装置力も Ocm力も 60cm以内にあると推定する。輝度 情報取得位置計算部 20が計算するフォーカスレンズ位置 L1は、この範囲内におけ る所定の位置である。また、被写体決定部 18で決定した被写体の種類が遠景や夜 景の被写体である場合、主要被写体は無限遠に近い距離にあると推定する。よって 、輝度情報取得位置計算部 20は、フォーカスレンズ位置 L1を無限遠と計算する。ま た、被写体決定部 18で決定した被写体の種類が人物(ポートレート)の場合は、主要 被写体の距離が約 lmカゝら 5mの距離に存在すると推定して、輝度情報取得位置計 算部 20が計算するフォーカスレンズ位置 L1は、この範囲の所定の位置となる。一方 、被写体決定部 18で決定した被写体の種類が標準の被写体となっている場合には 、被写体の種類は特定の被写体に合致する被写体ではないため、撮影時の絞り径 やシャツタスピード等の撮影条件の設定を予め定められた関数に基づいて設定する 。よって、この場合は主要被写体の推定位置が未知であるため、輝度情報取得位置 計算部 20は、距離に応じたフォーカスレンズ位置 L1を計算する必要はなぐ予め決 められた所定の位置とすれば良 、。 [0023] こうして輝度情報取得位置計算部 20がフォーカスレンズ位置 LIを計算したならば 、図示しないコントローラの制御に従って、光学系制御部 26は、光学系 12のフォー カスレンズや絞り径を駆動し (ステップ S14)、合焦検出を行っていくことになる。この ようなフォーカスレンズ位置 L1で DFD法による合焦検出を行うことにより、 2枚のぼけ 画像のうち 1枚は合焦した画像に近くなるため、ぼけパラメータの算出精度が高くなり 、結果的に高い精度で被写体距離が求まる。この結果、被写体の種類に応じて合焦 検出を高い精度で行うことができる。
[0024] また、本実施例においては、合焦検出法は、ぼけの大きさを輝度情報から推定する ため、できるだけぼけが顕著に表れる露光条件で輝度情報を取得することが好まし い。そのため、測光センサ 22は、被写体からの入射光を計測し (ステップ S16)、その 結果から、図示しないコントローラの制御に従って露光条件計算部 24は、撮像素子 1 4のシャツタスピードを計算する (ステップ S18)。このとき、選択した被写体の種類に 応じたシャツタスピードを計算するようにしても良い。また、絞り径は、開放の状態とす る。選択した被写体に応じた絞り径としても良い。
[0025] そして、上記ステップ S14で駆動設定されたフォーカスレンズ位置 L1で、図示しな いコントローラの制御に従って輝度情報取得部 30は、被写体の 1枚目の輝度情報を 取得し、距離推定計算部 28のぼけパラメータ演算部 32中のバッファ 44にその取得 した 1枚目の輝度情報を記憶する (ステップ S20)。
[0026] その後、不図示コントローラの制御に従って光学系制御部 26は、光学系 12のフォ 一カスレンズを、上記フォーカスレンズ位置 L1とは異なる予め決められた第 2のフォ 一カスレンズ位置 L2に駆動し、輝度情報取得部 30は、被写体の 2枚目の輝度情報 を取得する (ステップ S22)。この取得された 2枚目の輝度情報は、距離推定計算部 2 8に供給される。
[0027] 上記 2枚目の輝度情報の取得が完了すると、不図示コントローラの制御に従って、 距離推定計算部 28において、ぼけパラメータの計算が行われる。即ち、ぼけパラメ ータ演算部 32において、差分演算部 38が、上記 1枚目の輝度情報をバッファ 44か ら読み出し、上記輝度情報取得部 30から供給される 2枚目の輝度情報との差分を計 算する。また、 2次微分演算部 40が、上記輝度情報取得部 30から供給される 2枚目 の輝度情報の 2次微分を計算し、それが計算されたならば、更に、上記 1枚目の輝度 情報をバッファ 44から読み出して、その 2次微分を計算する。そして、それら計算した 1枚目と 2枚目の 2次微分の平均値を計算し、それら 2枚の画像の 2次微分の平均値 が閾値を超える値の存在するブロックを、ぼけパラメータを計算する領域として抽出 する (ステップ S24)。そして、ぼけパラメータ計算部 42は、上記抽出した領域につい て、上記差分演算部 38で演算した差分の結果と上記 2次微分演算部 40で演算した 2次微分の平均値との除算を計算して、ぼけパラメータを得る (ステップ S26)。
[0028] ぼけパラメータは、被写体距離の逆数に対して線形な関係があり、更に、被写体距 離と合焦レンズ位置の関係は 1対 1対応であるので、ぼけパラメータと合焦レンズ位 置の関係も、図 4に示すように、 1対 1対応の関係が保存される。この関係は、 LUT記 憶部 36にテーブル (LUT)として記憶されている。被写体距離の値に対応する距離 情報は、フォーカスレンズの位置で表される。よって、制御パラメータ計算部 34では、 ぼけパラメータ演算部 32で求められたぼけパラメータと LUT記憶部 36に記憶されて V、るテーブル (LUT)の情報を使用して、被写体に対する合焦レンズ位置 DFD— L Fを線形補間によって求める (ステップ S28)。このようにして、制御パラメータ計算部 34は、ぼけパラメータに対応する被写体距離の値を算出する。
[0029] 続いて、制御パラメータ計算部 34は、上記推定した合焦レンズ位置 DFD— LFを 光学系制御部 26に入力する。こうして距離推定計算部 28から合焦レンズ位置 DFD —LFが入力されると、光学系制御部 26の図示しない駆動回路は、それを目標レン ズ位置としてフォーカスレンズを配置するための信号を生成し、図示しな!、了クチユエ ータにその信号を入力してフォーカスレンズを所望の位置に配置する (ステップ S 30)
[0030] そして、その目標レンズ位置にフォーカスレンズが駆動されたならば、合焦検出が 完了する (ステップ S32)。
[0031] [第 1実施例の第 1変形例]
上記第 1実施例はコンパクトカメラの場合であるが、本実施例に係る撮像装置は、 図 5に示すような一眼レフレックスカメラ 46としても構成することができる。
[0032] 即ち、本変形例としてのこの一眼レフレックスカメラ 46の場合、光学系 12は、テーキ ングレンズ 12A、レフミラー 12B、合焦検出用の AF撮像素子 14A, 14Bに光線を導 くための AF光学系 12C, 12Dによって構成される。また、テーキングレンズ 12Aには フォーカスを調整するためのフォーカスレンズがある。テーキングレンズ 12Aによって 結像した被写体の像は、撮像素子でデジタル信号に変換される。撮像素子は、撮影 を目的とした撮影用撮像素子 14Cと 2つの AF撮像素子(14A, 14B)があり、 AF撮 像素子のうち一つは撮影用撮像素子 14Cと光学的に同等の位置に配置されている 。本実施例では AF撮像素子 14Aがその配置であるとする。
[0033] 本変形例における一眼レフレックスカメラ 46は、図 6に示すように、輝度情報取得部 30の撮像素子として上記 AF撮像素子 14A, 14Bを使用することと、距離推定計算 部 28のぼけパラメータ演算部 32からバッファ 44を省略したことが、上記第 1実施例に おけるコンパクトカメラ 10との構成上の違いである。即ち、本変形例では、 AF撮像素 子 14 A, 14Bにより変換された電気信号は輝度信号制御部 16で 2つの輝度情報に 変換されて、距離推定計算部 28のぼけパラメータ演算部 32の差分演算部 38と 2次 微分演算部 40とに供給されるようになって 、る。
[0034] 上記のような構成の本変形例における一眼レフレックスカメラ 46の合焦検出処理は 、図 7のフローチャートに示すようになる。なおここでは、配置の異なる 2つの撮像素 子 (AF撮像素子 14A, 14B)によって取得した 2枚のぼけの異なる輝度情報を使つ て、合焦検出する方法に限定して説明する。
[0035] 即ち、上記第 1実施例で説明したように、撮影者がユーザインタフェース (被写体決 定部 18)によって選択した被写体の種類を、撮影する被写体の種類として決定し (ス テツプ S10)、そのユーザ指定の被写体の種類に基づいて、輝度情報取得位置計算 部 20が合焦検出を行うための最適なフォーカスレンズ位置 L1を計算して (ステップ S 12)、光学系制御部 26は、光学系 12のテーキングレンズ 12Aにおけるフォーカスレ ンズを駆動する (ステップ S14)。また、測光センサ 22により、被写体からの入射光を 計測し (ステップ S 16)、その結果から、露光条件計算部 24にて、撮像素子 14のシャ ッタスピードや絞り径等の撮影条件を計算する (ステップ S18)。
[0036] そして、本変形例では、上記ステップ S 14で駆動設定されたフォーカスレンズ位置 L1で、図示しないコントローラの制御に従って輝度情報取得部 30は、 2つの輝度情 報を同時に取得し、それら同時に取得された 2つの輝度情報を用いて、距離推定計 算部 28において合焦レンズ位置を算出することになる。即ち、上記フォーカスレンズ 位置 L1で、位置の異なる撮像素子 14A, 14Bから同時にぼけの異なる 2つの輝度 情報の取得を行う(ステップ S34A,ステップ S34B)。次に、距離推定計算部 28のぼ けパラメータ演算部 32における差分演算部 38は、それら 2つの輝度情報の差分を計 算し、また、 2次微分演算部 40は、それら 2つの輝度情報の 2次微分を一度に計算し てその平均値を求める。そして、それら 2枚の画像の 2次微分の平均値が閾値を超え る値の存在するブロックを、ぼけパラメータを計算する領域として抽出する (ステップ S 24)。その後、ぼけパラメータ計算部 42は、抽出した領域について、差分の結果と 2 次微分の平均を除算し、ぼけパラメータを算出する (ステップ S26)。その後、第 1実 施例と同様にして、制御パラメータ計算部 34、 LUT記憶部 36、光学系制御部 26を 用いて、ぼけパラメータに対応する合焦レンズ位置に光学系 12のフォーカスレンズを 駆動配置して (ステップ S28〜S120)、合焦検出を完了する (ステップ S32)。
[0037] このような構成を有することにより、 DFD法を使用した合焦検出において一眼レフ レックスカメラ 46でも、第 1実施例と同様の効果を得ることができる。
[0038] [第 1実施例の第 2変形例]
次に、本発明の第 1実施例の第 2変形例を説明する。本変形例に係る撮像装置は 、図 1に示すようなコンパクトカメラ 10であり、第 1実施例と同様の部分についてはそ の説明を省略し、主として構造の異なる点についてのみ、以下に説明する。
[0039] 本変形例におけるコンパクトカメラ 10では、図 8に示すように、上記第 1実施例の構 成に加えて、条件設定手段として機能する輝度情報取得部制御部 48を備えて 、る。 即ち、本変形例におけるコンパクトカメラ 10では、光学系 12は、複数のレンズ群と絞 りとで構成され、画像を撮影することを目的としたレンズ群 (テーキングレンズ)である 。上記第 1実施例では、そのうちの一部のレンズ群はフォーカスを調整するために光 軸方向に駆動できる構成となっていた力 本変形例では、撮像素子 14を光軸方向に 駆動することにより、フォーカスを調整する構成となっている。輝度情報取得部制御 部 48は、特に図示はしないが、ァクチユエータと該ァクチユエータを駆動するための 駆動回路によって構成されており、撮像素子 14の位置を制御する。そのため、光学 系制御部 26は、本変形例では、光学系 12の絞り径のみを制御する。更に、本変形 例では、距離推定計算部 28の LUT記憶部 36は、ぼけパラメータと被写体力もの光 の合焦位置との関係として、ぼけパラメータと合焦撮像素子位置との関係をルックァ ップテーブル (LUT)の形で記憶して 、る。
[0040] 上記のような構成の変形例におけるコンパクトカメラ 10の合焦検出処理を、図 9のフ ローチャートを参照して説明する。なおここでは、撮像素子 14の位置を変更して取得 した 2枚のぼけの異なる輝度情報を使って、合焦検出する方法に限定して説明する。
[0041] 即ち、まず、上記第 1実施例で説明したように、撮影者がユーザインタフェース (被 写体決定部 18)によって選択した被写体の種類を撮影する被写体の種類として決定 する (ステップ S10)。そのユーザ指定の被写体の種類に基づいて、輝度情報取得位 置計算部 20が、合焦検出を行なうために最適な撮像素子位置 D1を計算する (ステ ップ S36)。そして、輝度情報取得部制御部 48は、その計算された撮像素子位置 D1 に撮像素子 14を駆動設定する (ステップ S38)。
[0042] また、上記第 1実施例と同様に、測光センサ 22及び露光条件計算部 24によりシャ ッタスピードや絞り径を計算する(ステップ S16, S18)。
[0043] そして、合焦検出を行なう際には、まず、上記撮像素子位置 D1で 1枚目の輝度情 報を取得する (ステップ S40)。その後、不図示コントローラの制御に従って輝度情報 取得部制御部 48は、撮像素子 14を、上記撮像素子位置 D1とは異なる予め決めら れた第 2の撮像素子位置 D2に駆動し、輝度情報取得部 30は、被写体の 2枚目の輝 度情報を取得する (ステップ S42)。そして、ぼけパラメータ演算部 32にて、これら 2つ の輝度情報を使用して、上記第 1実施例と同様にしてぼけパラメータを計算する (ス テツプ S24, S26)。
[0044] 距離推定計算部 28の LUT記憶部 36は、ぼけパラメータと合焦撮像素子位置の対 応関係を記憶しており、制御パラメータ計算部 34は、この LUT記憶部 36に記憶され て!ヽるテーブル (LUT)を使用して、被写体に対する合焦撮像素子位置 DFD— DF を計算する (ステップ S44)。続いて、その計算した合焦撮像素子位置 DFD— DFを 輝度情報取得部制御部 48に入力する。こうして距離推定計算部 28から合焦撮像素 子位置 DFD— DFが入力されると、輝度情報取得部制御部 48の図示しな 、駆動回 路は、それを目標撮像素子位置として撮像素子 14を配置するための信号を生成し、 図示しな!、ァクチユエータにその信号を入力して撮像素子 14を所望の位置に配置 する(ステップ S46)。
[0045] そして、その目標撮像素子位置に撮像素子 14が駆動されたならば、合焦検出が完 了する(ステップ S32)。
[0046] このような構成とすることにより、 DFD法を使用した合焦検出において、撮像素子 1 4の配置を変更することでぼけの異なる複数の輝度情報を取得して、上記第 1実施例 と同様の効果を得ることができる。
[0047] [第 2実施例]
次に、本発明の第 2実施例を説明する。本実施例に係る撮像装置は、図 1に示すよ うなコンパクトカメラ 10であり、第 1実施例と同様の部分についてはその説明を省略し 、主として構造の異なる点についてのみ、以下に説明する。
[0048] 即ち、上記第 1実施例におけるコンパクトカメラ 10では、被写体決定部 18がユーザ インタフェースの入力に従って被写体の種類を決定していた力 本実施例におけるコ ンパクトカメラ 10では、図 10に示すように、被写体決定部 18は、撮像素子 14と輝度 信号制御部 16で構成した輝度情報取得部 30で取得した輝度情報を使用して被写 体の種類を決定するように構成されている。ここで、被写体決定部 18は、入力された 輝度情報の色情報がどのようなものとなっているかを判別する色情報判別部 18A、 同じく輝度情報の分布がどのようなものとなっているかを判別する輝度分布判別部 1 8B、及び同じく輝度情報のエッジ情報がどのようなものとなっているかを判別するェ ッジ情報判別部 18Cを有している。
[0049] 上記のような構成の本実施例におけるコンパクトカメラ 10の合焦検出処理を、図 11 のフローチャートを参照して説明する。なおここでは、背景技術で説明したように、フ オーカスレンズの位置を変更して取得した 2枚のぼけの異なる輝度情報を使って、合 焦検出する方法に限定して説明する。
[0050] 即ち、まず、図示しないコントローラの制御に従って光学系制御部 26は、光学系 12 のフォーカスレンズ位置を、最近点、を示すレンズ位置 LOに馬区動し、そのレンズ位置 L 0で輝度情報取得部 30は、被写体の輝度情報を取得する (ステップ S48)。被写体 決定部 18は、その取得した輝度情報から、被写体の種類を識別し、撮影する被写体 の種類を決定する (ステップ S 50)。
[0051] ここで、この被写体決定部 18における被写体の認識手法について説明する。
[0052] 被写体が遠景である場合は、輝度情報の色情報の内、彩度が低くなり、また色調が 太陽光や雲を通った自然光により形成される。さらに、輝度分布においては、階調の 分散が小さぐ似たような明るさの像となる。そのため、本実施例では、被写体決定部 18は、色情報判別部 18A,輝度分布判別部 18B,及びエッジ情報判別部 18Cの判 別結果に基づいて、輝度情報が低彩度で、自然光による色調を持ち、階調の分散が 小さ!、場合には、被写体の種類は遠景の被写体であると決定する。
[0053] 逆に、被写体が近景の場合は、彩度が低くなり、階調の分散が大きい。また、色調 が白熱球や蛍光灯などの室内光で形成されていた場合は、近景撮影と認識できる。 そのため、本実施例では、被写体決定部 18は、色情報判別部 18A,輝度分布判別 部 18B,及びエッジ情報判別部 18Cの判別結果に基づいて、輝度情報が高彩度で 、室内光による色調を持ち、階調の分散が大きな場合は、被写体の種類は近景の被 写体であると決定する。
[0054] また、被写体決定部 18は、色情報判別部 18A,輝度分布判別部 18B,及びエッジ 情報判別部 18Cの判別結果に基づいて、特定の領域で色情報が肌色を示す場合 は、被写体が人物であると認識する。
[0055] また、被写体決定部 18は、色情報判別部 18A,輝度分布判別部 18B,及びエッジ 情報判別部 18Cの判別結果に基づいて、輝度情報のエッジ情報を使用して像面全 体のエッジ強度の合計値が所定の値より小さぐかつ色情報が黒を示す場合は、被 写体の種類は夜景の被写体であると決定する。
[0056] なお、本実施例では、べィャ配列の撮像素子 14を使用することで、上述のような色 に関する情報を得ている。
[0057] 上記のようにして被写体決定部 18は、入力された輝度情報を使用して、被写体の 種類を決定する。そして、輝度情報取得位置計算部 20は、上記被写体決定部 18が 決定した被写体の種類に応じてレンズ位置 L1を計算する (ステップ S12)。
[0058] その後、合焦検出を行なう際に、光学系制御部 26によりこの範囲内における所定 の位置 L 1にフォーカスレンズを駆動し、上記第 1実施例と同様にして合焦検出を行う (ステップ S14〜S32)。
[0059] このような構成とすることにより、 DFD法を使用した合焦検出においてユーザが撮 影シーンを選択することなぐ上記第 1実施例と同様の効果を得ることができる。
[0060] [第 2実施例の変形例]
次に、本発明の第 2実施例の変形例を説明する。本変形例に係る撮像装置は、図 1に示すようなコンパクトカメラ 10であり、第 2実施例と同様の部分についてはその説 明を省略し、主として構造の異なる点についてのみ、以下に説明する。
[0061] 本変形例におけるコンパクトカメラ 10では、図 12に示すように、上記第 2実施例の 構成に加えて、輝度情報取得部制御部 48を備えている。即ち、本変形例におけるコ ンパクトカメラ 10では、光学系 12は、複数のレンズ群と絞りとで構成され、画像を撮 影することを目的としたレンズ群 (テーキングレンズ)である。上記第 2実施例では、そ のうちの一部のレンズ群はフォーカスを調整するために光軸方向に駆動できる構成と なっていたが、本変形例では、撮像素子 14を光軸方向に駆動することにより、フォー カスを調整する構成となっている。輝度情報取得部制御部 48は、ァクチユエ一タと該 ァクチユエータを駆動するための駆動回路によって構成されており、撮像素子 14の 位置を制御する。また、光学系制御部 26は、本変形例では、光学系 12の絞り径のみ を制御する。更に、本変形例では、距離推定計算部 28の LUT記憶部 36は、ぼけパ ラメータと被写体力 の光の合焦位置との関係として、ぼけパラメータと合焦撮像素 子位置との関係をルックアップテーブル (LUT)の形で記憶して ヽる。
[0062] 上記のような構成の変形例におけるコンパクトカメラ 10の合焦検出処理を、図 13の フローチャートを参照して説明する。なおここでは、撮像素子 14の位置を変更して取 得した 2枚のぼけの異なる輝度情報を使って、合焦検出する方法に限定して説明す る。
[0063] 即ち、まず、図示しないコントローラの制御に従って輝度情報取得部制御部 48は、 撮像素子 14のフォーカス位置が最近点を示す撮像素子位置 DOに撮像素子 14を駆 動し、輝度情報取得部 30は、被写体の輝度情報を取得する (ステップ S52)。被写体 決定部 18は、上記第 2実施例と同様に、輝度情報から被写体の種類を決定する (ス テツプ S50)。次に、輝度情報取得位置計算部 20は、上記第 1実施例で説明したよう な被写体ごとに想定した距離に合焦する撮像素子位置 D1を計算する (ステップ S36 )。そして、輝度情報取得部制御部 48は、その計算された撮像素子位置 D1に撮像 素子 14を駆動設定する (ステップ S38)。
[0064] また、上記第 1及び第 2実施例と同様に、測光センサ 22及び露光条件計算部 24に よりシャツタスピードや絞り径を計算する(ステップ S16, S18)。
[0065] そして、合焦検出を行なう際には、まず、上記撮像素子位置 D1で 1枚目の輝度情 報を取得する (ステップ S40)。その後、不図示コントローラの制御に従って輝度情報 取得部制御部 48は、撮像素子 14を、上記撮像素子位置 D1とは異なる予め決めら れた第 2の撮像素子位置 D2に駆動し、輝度情報取得部 30は、被写体の 2枚目の輝 度情報を取得する (ステップ S42)。そして、ぼけパラメータ演算部 32は、これら 2つの 輝度情報を使用して、上記第 1及び第 2実施例と同様にしてぼけパラメータを計算す る(ステップ S 24, S26)。
[0066] 距離推定計算部 28の LUT記憶部 36は、ぼけパラメータと合焦撮像素子位置の対 応関係を記憶しており、制御パラメータ計算部 34は、この LUT記憶部 36に記憶され て!ヽるテーブル (LUT)を使用して、被写体に対する合焦撮像素子位置 DFD— DF を計算する (ステップ S44)。続いて、その計算した合焦撮像素子位置 DFD— DFを 輝度情報取得部制御部 48に入力する。こうして距離推定計算部 28から合焦撮像素 子位置 DFD— DFが入力されると、輝度情報取得部制御部 48の駆動回路は、それ を目標撮像素子位置として撮像素子 14を配置するための信号を生成し、ァクチユエ ータにその信号を入力して撮像素子 14を所望の位置に配置する (ステップ S46)。
[0067] そして、その目標撮像素子位置に撮像素子 14が駆動されたならば、合焦検出が完 了する(ステップ S32)。
[0068] このような構成とすることにより、 DFD法を使用した合焦検出において、上記第 2実 施例と同様の効果を得ることができる。
[0069] 以上実施例に基づいて本発明を説明したが、本発明は上述した実施例に限定され るものではなぐ本発明の要旨の範囲内で種々の変形や応用が可能なことは勿論で ある。 [0070] 例えば、上記実施例では、フォーカスレンズの位置や撮像素子を駆動して 2つのぼ けの異なる輝度情報を取得するものとした力 絞り径を変更することで、ぼけの異なる 輝度情報を取得する構成であっても、上記実施例と同様の効果が得られる。
[0071] また、各演算部や計算部を、 DSPや CPU等の一つのハードウェアによって構成し ても構わない。

Claims

請求の範囲
[1] 被写体を撮影して当該被写体の画像を記録する撮像装置にお!ヽて、
当該被写体からの光を所定の位置に結像する光学系(12)と、
上記光学系によって結像した光の輝度情報を取得することで撮影を行う輝度情報 取得手段(30)と、
上記輝度情報取得手段で取得したぼけの異なる複数の輝度情報を用いて、上記 光学系から上記被写体までの距離に対応するぼけパラメータを算出するぼけパラメ ータ演算手段 (32)と、
上記ぼけパラメータ演算手段を用いて算出した上記ぼけパラメータに基づいて上 記光学系又は上記輝度情報取得手段の配置を決定する配置決定手段 (34)と、 を具備し、
被写体の種類を決定する被写体決定手段(18)と、
上記輝度情報取得手段により撮影を行う際の撮影条件を上記被写体決定手段に よる決定結果に応じて算出する条件計算手段 (20)と、
上記ぼけパラメータ演算手段によって上記ぼけパラメータを算出するために用いる 上記ぼけの異なる複数の輝度情報の内の少なくとも 1つの輝度情報を取得するため の上記撮影条件を、上記条件計算手段で算出した上記撮影条件に設定する条件設 定手段(26 ;48)と、
を更に備えたことを特徴とする撮像装置。
[2] 上記撮影条件は、上記光学系の配置又は上記輝度情報取得手段の配置であるこ とを特徴とする請求項 1に記載の撮像装置。
[3] 上記被写体決定手段は、撮影者が撮影しょうとする上記被写体の種類の選択操作 によって被写体の種類を決定することを特徴とする請求項 1又は 2に記載の撮像装 置。
[4] 上記被写体決定手段は、上記輝度情報に基づ!ヽて上記被写体の種類を識別する ことによって被写体の種類を決定することを特徴とする請求項 1又は 2に記載の撮像 装置。
[5] 上記被写体の種類には近接した被写体を含み、 上記条件計算手段は、上記被写体決定手段によって上記被写体の種類として近 接した被写体が決定された際に、近接した被写体に応じた撮影条件を算出すること を特徴とする請求項 1乃至 4の何れかに記載の撮像装置。
[6] 上記被写体の種類には遠景の被写体を含み、
上記条件計算手段は、上記被写体決定手段によって上記被写体の種類として遠 景の被写体が決定された際に、遠景の被写体に応じた撮影条件を算出することを特 徴とする請求項 1乃至 4の何れかに記載の撮像装置。
[7] 上記被写体の種類には人物を含み、
上記条件計算手段は、上記被写体決定手段によって上記被写体の種類として人 物が決定された際に、人物に応じた撮影条件を算出することを特徴とする請求項 1乃 至 4の何れかに記載の撮像装置。
[8] 上記被写体の種類には夜景の被写体を含み、
上記条件計算手段は、上記被写体決定手段によって上記被写体の種類として夜 景の被写体が決定された際に、夜景の被写体に応じた撮影条件を算出することを特 徴とする請求項 1乃至 4の何れかに記載の撮像装置。
[9] 上記被写体の種類には特定の被写体に分類しな 、被写体を含み、
上記条件計算手段は、上記被写体決定手段によって上記被写体の種類として特 定の被写体に分類しな 、被写体が決定された際に、特定の被写体に分類しな 、被 写体に応じた撮影条件を算出することを特徴とする請求項 1乃至 4の何れかに記載 の撮像装置。
[10] 上記被写体決定手段は、輝度情報の色情報を用いて被写体の種類を決定するこ とを特徴とする請求項 4に記載の撮像装置。
[11] 上記被写体決定手段は、輝度情報のエッジ情報を用いて被写体の種類を決定す ることを特徴とする請求項 4に記載の撮像装置。
[12] 上記被写体決定手段は、輝度情報の輝度分布を用いて被写体の種類を決定する ことを特徴とする請求項 4に記載の撮像装置。
PCT/JP2006/322264 2005-11-15 2006-11-08 撮像装置 WO2007058099A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005330461A JP2007139894A (ja) 2005-11-15 2005-11-15 撮像装置
JP2005-330461 2005-11-15

Publications (1)

Publication Number Publication Date
WO2007058099A1 true WO2007058099A1 (ja) 2007-05-24

Family

ID=38048486

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/322264 WO2007058099A1 (ja) 2005-11-15 2006-11-08 撮像装置

Country Status (2)

Country Link
JP (1) JP2007139894A (ja)
WO (1) WO2007058099A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9131142B2 (en) 2009-07-17 2015-09-08 Nikon Corporation Focusing device and camera
WO2011007869A1 (ja) * 2009-07-17 2011-01-20 株式会社ニコン 焦点調節装置およびカメラ
JP5771914B2 (ja) * 2009-07-17 2015-09-02 株式会社ニコン 焦点調節装置、およびカメラ
JP5771913B2 (ja) * 2009-07-17 2015-09-02 株式会社ニコン 焦点調節装置、およびカメラ
JP5757099B2 (ja) 2010-02-15 2015-07-29 株式会社ニコン 焦点調節装置、及び焦点調節プログラム
US8705801B2 (en) 2010-06-17 2014-04-22 Panasonic Corporation Distance estimation device, distance estimation method, integrated circuit, and computer program
JP6040422B2 (ja) * 2013-03-26 2016-12-07 パナソニックIpマネジメント株式会社 撮像装置
JP2015036632A (ja) * 2013-08-12 2015-02-23 キヤノン株式会社 距離計測装置、撮像装置、距離計測方法
JP6300670B2 (ja) * 2014-07-09 2018-03-28 キヤノン株式会社 焦点調節装置、焦点調節方法およびプログラム、並びに撮像装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001100087A (ja) * 1999-09-29 2001-04-13 Olympus Optical Co Ltd 多点測距装置
JP2003185911A (ja) * 2001-12-18 2003-07-03 Minolta Co Ltd 光学系制御装置
JP2004069953A (ja) * 2002-08-06 2004-03-04 Olympus Corp カメラ
JP2004109150A (ja) * 2002-09-13 2004-04-08 Canon Inc 合焦制御装置、撮像装置、プログラム、及び記憶媒体
JP2005284133A (ja) * 2004-03-30 2005-10-13 Olympus Corp 合焦情報取得用検出装置及びそれを用いた撮像装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3604750B2 (ja) * 1994-12-09 2004-12-22 キヤノン株式会社 自動合焦装置
JP4024404B2 (ja) * 1998-11-13 2007-12-19 オリンパス株式会社 カメラ

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001100087A (ja) * 1999-09-29 2001-04-13 Olympus Optical Co Ltd 多点測距装置
JP2003185911A (ja) * 2001-12-18 2003-07-03 Minolta Co Ltd 光学系制御装置
JP2004069953A (ja) * 2002-08-06 2004-03-04 Olympus Corp カメラ
JP2004109150A (ja) * 2002-09-13 2004-04-08 Canon Inc 合焦制御装置、撮像装置、プログラム、及び記憶媒体
JP2005284133A (ja) * 2004-03-30 2005-10-13 Olympus Corp 合焦情報取得用検出装置及びそれを用いた撮像装置

Also Published As

Publication number Publication date
JP2007139894A (ja) 2007-06-07

Similar Documents

Publication Publication Date Title
JP4588583B2 (ja) 撮影装置およびフォーカス制御方法
WO2007058099A1 (ja) 撮像装置
WO2007058100A1 (ja) 合焦検出装置
JP6151867B2 (ja) 撮影装置、撮影装置本体、及びレンズ鏡筒
JP5092565B2 (ja) 撮像装置、画像処理装置およびプログラム
JP2012242676A (ja) 撮像装置及び制御方法
US8861950B2 (en) Imaging apparatus and control method thereof
JP2008170507A (ja) 撮像装置、焦点自動調節方法
JP2004361611A (ja) 固体撮像素子及び撮影装置
JP6336337B2 (ja) 撮像装置及びその制御方法、プログラム、記憶媒体
WO2016132566A1 (ja) 自動焦点調節装置及び自動焦点調節制御装置
US10212344B2 (en) Image capturing device and control method capable of adjusting exposure timing based on detected light quantity change characteristic
JP2006217413A (ja) 電子カメラ
JP2009088800A (ja) カラー撮像装置
JP4170194B2 (ja) 撮影装置
JP2012155149A (ja) 撮像装置及びその制御方法
JP6014974B2 (ja) 焦点調節装置およびカメラ
JP6429724B2 (ja) 撮像装置およびその制御方法
US10943328B2 (en) Image capturing apparatus, method for controlling same, and storage medium
JP5439971B2 (ja) 測光装置および撮像装置
JP5364983B2 (ja) 測光装置
JPH11331676A (ja) 自動焦点制御装置
JP6005955B2 (ja) 測光装置及び撮像装置
JP2002323649A (ja) 撮像装置
JP6660036B2 (ja) 焦点検出装置及び撮像装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 06823168

Country of ref document: EP

Kind code of ref document: A1