WO2011007869A1 - 焦点調節装置およびカメラ - Google Patents

焦点調節装置およびカメラ Download PDF

Info

Publication number
WO2011007869A1
WO2011007869A1 PCT/JP2010/062069 JP2010062069W WO2011007869A1 WO 2011007869 A1 WO2011007869 A1 WO 2011007869A1 JP 2010062069 W JP2010062069 W JP 2010062069W WO 2011007869 A1 WO2011007869 A1 WO 2011007869A1
Authority
WO
WIPO (PCT)
Prior art keywords
lens
focus adjustment
edge
color component
focusing
Prior art date
Application number
PCT/JP2010/062069
Other languages
English (en)
French (fr)
Inventor
壮一 上田
克征 鈴木
Original Assignee
株式会社ニコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ニコン filed Critical 株式会社ニコン
Priority to US13/384,497 priority Critical patent/US9131142B2/en
Priority claimed from JP2010161510A external-priority patent/JP5771913B2/ja
Priority claimed from JP2010161511A external-priority patent/JP5771914B2/ja
Publication of WO2011007869A1 publication Critical patent/WO2011007869A1/ja
Priority to US14/815,399 priority patent/US9749518B2/en
Priority to US15/665,822 priority patent/US10237470B2/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/75Circuitry for compensating brightness variation in the scene by influencing optical camera components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/61Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4"
    • H04N25/611Correction of chromatic aberration

Definitions

  • the present invention relates to a focus adjustment device and a camera.
  • the conventional autofocus device cannot detect in which direction of the optical axis the lens position is deviated from the in-focus position.
  • the focus adjustment device includes an optical system including a focusing lens, and an image sensor that captures an image of a subject formed by the optical system and outputs an image signal including a plurality of color components.
  • An edge detection unit that detects an edge for each color component of a plurality of color components included in the image signal, and a differential value calculation unit that calculates a differential value of the edge strength of the edge for each color component detected by the edge detection unit
  • a determination unit that determines a moving direction in which the focusing lens is moved for focus adjustment of the optical system based on the differential value calculated by the differential value calculation unit.
  • a filter that is inserted on the optical axis between the optical system and the image sensor and adjusts the amount of light incident from the optical system, and a filter It is preferable to further include an insertion / removal unit that inserts on the optical axis and removes from the optical axis, and the determination unit determines the moving direction when the filter is inserted by the insertion / removal unit.
  • the focus adjustment apparatus according to the first or second aspect further includes a drive unit that drives the focusing lens in the moving direction determined by the determination unit.
  • the differential value calculation unit has the edge intensity detected by the edge detection unit irrelevant to the signal value of each color component.
  • the differential value is calculated after normalizing the edge strength.
  • the contrast of the image signal is highest while moving the focusing lens in the optical axis direction of the focusing lens.
  • a focus adjustment unit that adjusts the focus by moving the focusing lens to the specified lens position, and the determination unit performs the focus adjustment by the focus adjustment unit. It is preferable to determine the moving direction later.
  • the positional information of each lens position in the optical axis direction of the focusing lens and each lens of the focusing lens A storage unit that stores correspondence information regarding a correspondence relationship between the edge strength at each position and the differential value information for each color component, and the determination unit includes differential value information for each color component at the current lens position of the focusing lens, It is preferable to determine the moving direction based on the correspondence information.
  • the plurality of color components are at least three components, and the differential value information for each color component includes the differential value of each color component and the three component values.
  • the focusing lens is preferably positioned at a focus position where an image of the subject is formed.
  • each lens position of the focusing lens is determined based on the in-focus position.
  • the driving amount when the focusing lens is driven to the in-focus position in the movement direction by the driving unit is the correspondence information. It is preferable to be determined based on this.
  • a camera includes the focus adjustment apparatus according to any one of the first to ninth aspects.
  • the present invention it is possible to detect in which direction of the optical axis the lens position is deviated from the in-focus position.
  • FIG. 1 is a block diagram illustrating a configuration of the camera 100 according to the first embodiment.
  • the camera 100 includes an operation member 101, a lens 102, an image sensor 103, a control device 104, a memory card slot 105, and a monitor 106.
  • the operation member 101 includes various input members operated by the user, such as a power button, a release button, a zoom button, a cross key, an enter button, a play button, and a delete button.
  • the lens 102 is composed of a plurality of optical lenses, but is representatively represented by one lens in FIG. Further, the lenses constituting the lens 102 include an AF lens for AF (Auto Focus) described later.
  • the image sensor 103 is an image sensor such as a CCD or a CMOS, for example, and captures a subject image formed by the lens 102. Then, an image signal obtained by imaging is output to the control device 104.
  • the AF lens is driven by the control device 104 via the AF motor 150 in accordance with AF described later. However, when the camera 100 does not have an AF function, the AF lens is driven by the control device 104 via the AF motor 150 in accordance with a user's manual operation input.
  • the control device 104 generates main image data in a predetermined image format, for example, JPEG format, based on the image signal input from the image sensor 103. Further, the control device 104 generates display image data, for example, thumbnail image data, based on the generated main image data. The control device 104 generates an image file that includes the generated main image data and thumbnail image data, and further includes header information, and outputs the image file to the memory card slot 105.
  • a predetermined image format for example, JPEG format
  • the memory card slot 105 is a slot for inserting a memory card as a storage medium, and writes the image file output from the control device 104 to the memory card, that is, stores it in the memory card.
  • the memory card slot 105 reads an image file stored in the memory card based on an instruction from the control device 104.
  • the monitor 106 is a liquid crystal monitor (rear monitor) mounted on the back of the camera 100, and the monitor 106 includes an image of an image file stored in a memory card, a setting menu for setting the camera 100, and the like. Is displayed.
  • the control device 104 outputs the display image data of the image signal acquired in time series from the image sensor 103 to the monitor 106. As a result, a through image is displayed on the monitor 106.
  • the control device 104 includes a CPU, a memory, and other peripheral circuits, and controls the camera 100.
  • the memory constituting the control device 104 includes SDRAM and flash memory.
  • the SDRAM is a volatile memory, and is used as a work memory for the CPU to develop a program when the program is executed or as a buffer memory for temporarily recording data.
  • AF lens position adjustment data representing the relationship between the amount of change of the physical quantity with respect to the amount of change of the AF lens position and the amount of change of the physical quantity in the vicinity of the AF lens position where the light of two color components is focused. Recorded temporarily.
  • the flash memory is a non-volatile memory, and is read at the time of program execution such as data of a program executed by the control device 104 and in-focus positions of RGB color components for each focal length corresponding to the zoom position of the lens 102. Various parameters are recorded.
  • the control device 104 when input of live view image data from the image sensor 103 is started, the control device 104 performs AF (Auto Focus) processing and continuously performs focus adjustment during live view display. Specifically, the control device 104 moves the AF lens included in the lens 102 in the optical axis direction so that the contrast of the output value of the image signal input from the image sensor 103 is the highest by a known contrast method. Adjust the focus. That is, the control device 104 always performs AF control during live view display.
  • AF Auto Focus
  • the contrast of the AF lens is increased when a decrease in contrast is detected in the focus detection area in each frame forming the live view, that is, the AF evaluation area.
  • the focus was adjusted by moving it in the direction of movement.
  • the contrast can be increased by moving the AF lens in the direction of the closest position to the subject, that is, the direction of the closest side, or the direction of the infinity position farthest from the subject, that is, the direction of the infinity side. This is not known unless the AF lens is actually moved in one direction to detect the contrast.
  • the current AF lens position is moved from the in-focus position to the optical axis without moving the AF lens during constant AF control during live view display. It is determined which direction of the direction is shifted. Based on the determination result, the AF lens is moved in the in-focus position direction.
  • each color is caused by the difference in axial chromatic aberration for each of the RGB color components included in the subject light.
  • the focus position on the optical axis of the component light is different.
  • the focus position of the G component that is, the focus position may be the position 2a
  • the focus position of the R component and the B component that is, the focus position may be the position 2b.
  • the current AF lens position is light from the in-focus position that brings about the in-focus state. A determination is made as to whether the axial direction is closer to the infinity side or the infinity side direction, and the continuous AF control during live view display is realized.
  • FIG. 3 is a flowchart showing a flow of constant AF control during live view display in the present embodiment.
  • the processing illustrated in FIG. 3 is executed by the control device 104 as a program that is activated when input of through image data from the image sensor 103 is started.
  • step S10 the control device 104 controls the lens 102 so that the contrast of the image in the AF evaluation area set in the frame of the through image based on the input through image data is the highest by a known contrast method. Focus adjustment is performed by moving the included AF lens in the optical axis direction. Accordingly, it is possible to focus on the subject by performing focus adjustment by contrast AF at the start of through image data input. Thereafter, the process proceeds to step S20, and it is determined whether or not the contrast AF in step S10 is completed. If a negative determination is made in step S20, the process returns to step S10 and is repeated. On the other hand, if a positive determination is made in step S20, the process proceeds to step S30.
  • step S30 the control device 104 detects a position where the pixel output abruptly changes for each color component RGB, that is, an edge, for the image in the AF evaluation area. Then, the control device 104 normalizes the amplitude of the edge, that is, the range of values that can be taken by the pixel output of the pixel included in the edge, so that the edge intensity of the detected edge takes a value between 0 and 1.
  • the edge strength is the normalized pixel output of the pixels included in the edge.
  • the edge strength can be calculated regardless of the output values of the color components of R, G, and B.
  • the control device 104 targets the region 4a surrounded by the dotted line in the image, in an arbitrary x direction, that is, in the horizontal direction, in the y direction of the edge intensity for each output of each RGB color component, that is, in the horizontal direction.
  • An average value of n lines in the vertical direction (0 ⁇ n ⁇ y, for example, 3 lines, 5 lines, 7 lines, etc.) is calculated.
  • the average value r_ave (x) of the R component edge intensity for n lines in the y direction at the pixel position x in the x direction calculated by the equation (1) is obtained at all the pixel positions x in the x direction in the region 4a.
  • the average value r_ave of the R component edge intensity at the pixel position x in the x direction is used.
  • (X) is normalized to R (x) by the following equation (4).
  • the average value g_ave (x) of the G component edge intensity for n lines in the y direction at the pixel position x in the x direction calculated by the expression (2) is obtained at all the pixel positions x in the x direction in the region 4a. .
  • the average value g_ave of the G component edge strength at the pixel position x in the x direction is used.
  • (X) is normalized to G (x) by the following equation (5).
  • an average value b_ave (x) of B component edge intensities for n lines in the y direction at the pixel position x in the x direction calculated by Expression (3) is obtained at all the pixel positions x in the x direction in the region 4a. .
  • the average value b_ave of the B component edge strength at the pixel position x in the x direction is used.
  • (X) is normalized to B (x) by the following equation (6).
  • the edge strength after normalization when the edge strength of each color component of R, G, B is normalized As shown in FIG. Further, the normalized edge strengths when the edge strengths of the R, G, and B color components are normalized for a frame when the number of pulses of the AF motor 150 that drives the AF lens is 178 pulses are targeted. As shown in FIG. 5 and 6, the horizontal axis is the pixel position x in the x direction, and the vertical axis is the normalized edge strength.
  • the differential characteristics of the edge strength of each color component that is, the slope of the edge is shown in FIG.
  • the edge intensity graph B (x) of the B color component is out of the point 5a and the edges of the R and G color components.
  • FIG. 8 shows the differential characteristics of the edge intensity of each color component, that is, the slope of the edge when the number of pulses of the AF motor 150 shown in FIG. 6 is 178 pulses.
  • the differential characteristic shown in FIG. 8 calculated for the focused image and the differential characteristic shown in FIG. 7 calculated for the out-of-focus image are compared, the focused image has the differential characteristic, that is, the slope of the edge. Will grow.
  • step S40 it is determined in step S40 whether or not the inclination of the edge is equal to or higher than a predetermined level, for example, 0.4 or higher, thereby determining whether or not the state in which the current frame is captured is close to the in-focus state.
  • a predetermined level for example, 0.4 or higher
  • 7b both show an edge inclination of 0.4 or more, so that it can be determined that the state in which the current frame is imaged is close to the in-focus state.
  • step S40 When a negative determination is made in step S40, that is, when it is determined that the subject is out of focus, for example, the subject may have moved greatly from the subject position when the focus adjustment is performed in step S10. It is difficult to focus only by finely adjusting the AF lens position. Therefore, the process returns to step S10 and the contrast AF process is performed again.
  • step S40 If an affirmative determination is made in step S40, that is, if it is determined that the state is close to the in-focus state, for example, the subject has not moved at all from the subject position when the focus adjustment is performed in step S10. In other words, it is possible that the AF lens position is finely adjusted so that the AF lens position is finely adjusted. Therefore, it progresses to step S50.
  • step S50 the control device 104 determines whether or not the inclination of the edge for at least two color components among the color components R, G, and B has been detected in step S40.
  • the inclination of the edge for at least two color components cannot be detected, such as when the color components R and B are uniform and no edge is formed, the AF lens movement direction described below can be determined. Absent. Therefore, if a negative determination is made in step S50, the process returns to step S10 and the contrast AF process is performed again. On the other hand, if a positive determination is made in step S50, the process proceeds to step S60.
  • step S60 the control device 104 determines whether or not the slopes of the edges of any two of the R, G, and B color components match at a predetermined level. Specifically, as described above, because the focal position on the optical axis of each color component differs due to the difference in axial chromatic aberration for each RGB color component, the differential characteristics calculated by equations (7) to (9) The AF lens position at which the values R ′ ′ (x), G ′ ′ (x), and B ′ ′ (x) have peaks, that is, the AF lens position at which the edge inclination peaks for each color component is different.
  • G ′ ′ (q) and B ′ ′ (q) are illustrated.
  • each of the differential characteristic values R ′ ′ (q), G ′ ′ (q), and B ′ ′ (q) is an AF lens position at which the edge inclination reaches a peak, that is, the number of pulses of the AF motor 150. Is different.
  • the differential characteristic value of any two color components that is, the slope of the edge is the maximum value 1 If they match at a predetermined level in the vicinity of, the focus lens is determined to be in focus and the AF lens position is not changed.
  • the differential characteristic values R ′ ′ (q), G ′ ′ (q), and B ′ ′ (q) the inclination of the edge of any two color components is equal to or higher than a predetermined level in the vicinity of 1. If they do not coincide with each other, it is determined that the lens is out of focus, and the AF lens position is changed. For example, in FIG.
  • the differential characteristic values B ′ ′ (q) and G ′ ′ (q) corresponding to the inclinations of the two color components match at a point 9a close to 1, and in this case, the in-focus state is obtained. Therefore, the AF lens position is not changed.
  • the ratios of the slopes of edges of the color components R ′ ′ (q) / G ′ ′ (q), B ′ ′ (q) / G ′ ′ (q), and R ′ ′ (q) / B ′ (q) may be calculated, and a determination method using two of these three ratios may be used. If the two ratios are in the vicinity of a predetermined value, for example, near 1, or if the difference between the two ratios in the vicinity of 1 is within a predetermined range, it is determined that the lens is in focus, and the AF lens position Do not change. If the two ratios do not match in the vicinity of the predetermined value, it is determined that the lens is out of focus, and the AF lens position is changed.
  • the two ratios B ′ ′ (q) / G ′ ′ (q) and R ′ ′ (q) / B ′ ′ (q) coincide with each other at the point 10a in the vicinity of 1, and in this case, focusing is performed.
  • the AF lens position is not changed because it is determined that it is in the state.
  • which of the two color components has an edge slope ratio to be used for determination is selected based on a focal length-dependent characteristic according to the spectral frequency of the lens 102. For example, in FIG.
  • step S60 If an affirmative determination is made in step S60, the process returns to step S30 and the process is repeated. On the other hand, if a negative determination is made in step S60, the process proceeds to step S70.
  • step S70 the control device 104 determines the movement direction of the AF lens, that is, the AF direction. In the present embodiment, the amount of change in the number of pulses of the AF motor 150 in the vicinity of the number of pulses of the AF motor 150 corresponding to the point 9a shown in FIG. 9 or the point 10a shown in FIG. 10, for example, the number of pulses 178.
  • AF lens position adjustment data is temporarily recorded in the SDRAM.
  • the amount of change of '(q), B' '(q) / G' '(q), R' '(q) / B' '(q) is temporarily recorded in the SDRAM.
  • the ratio R ′ (q) / G ′ (q), B ′ (q) / G ′ (q), R ′ (q) / B ′ of the inclination of each color component to the amount of change in the number of pulses of the AF motor 150 Since the correspondence of the amount of change in (q) changes according to the subject distance or the characteristics of the lens 102, AF lens position adjustment data representing such correspondence is recorded for each combination of the subject distance and the characteristics of the lens 102.
  • control device 104 refers to the AF lens position adjustment data temporarily recorded in the SDRAM, so that the inclination ratios R ′ (q) / G ′ (q), B ′ (q) / The AF direction is determined from G ′ (q) and R ′ (q) / B ′ (q).
  • R ′ (q) / B ′ 0.95
  • R ′ (q) / B ′ which is the ratio of the gradient of the image edge color component at the time of focusing corresponding to the point 10a in FIG.
  • the current pulse number 169 of the AF motor 150 corresponding to the points 10b and 10c is included in a range smaller than the pulse number 178 of the AF motor 150 at the time of focusing corresponding to the point 10a. . Therefore, it is determined that the current focus state is the front pin, and the AF direction is determined to be the closest side.
  • the front pin is a state where the imaging surface is located at a position 2f as shown in FIG.
  • B ′ (q) / G ′ (q) 1.05
  • R ′ (q) / B ′ which is the ratio of the gradient of the image edge color component at the time of focusing corresponding to the point 10a in FIG.
  • the current pulse number 196 of the AF motor 150 corresponding to the points 10d and 10e is included in a range larger than the pulse number 178 of the AF motor 150 at the time of focusing corresponding to the point 10a. . Accordingly, it is determined that the current focus state is the rear focus, and the AF direction is determined to be the infinity side.
  • the rear pin is a state where the imaging surface is located at a position 2r as shown in FIG. Thereafter, the process proceeds to step S80.
  • the driving amount of the AF lens corresponding to the number of pulses 9 of the AF motor 150 is set in the AF motor 150.
  • the control device 104 performs focus adjustment by driving the AF lens by the drive amount set in step S80 in the AF direction determined in step S70 via the AF motor 150, and in step S30.
  • the control device 104 notifies the user of the camera 100 of the moving direction and the moving amount of the focusing lens via the monitor 106.
  • the control device 104 detects an edge for each color component, and calculates a differential value of the edge intensity for each color component. Then, the control device 104 determines the movement direction (drive direction) of the AF lens based on the calculated differential value of the edge intensity for each color component. As a result, it is not necessary to perform contrast AF control each time in continuous AF control during live view display, and the processing speed can be improved.
  • the control device 104 drives the AF lens in the AF direction determined in (1) described above via an AF motor. Accordingly, it is possible to automatically adjust the focus during the live view display.
  • the control device 104 calculates the differential value after normalizing the detected edge intensity for each color component to take a value between 0 and 1. Thereby, the contrast change of the image can be emphasized.
  • the control device 104 performs the processing after step S30 after performing focus adjustment using the contrast method in step S10 shown in FIG. Thereby, once the focus adjustment is performed by the contrast method, the AF process can be speeded up in consideration that the in-focus state can be continued without greatly changing the AF lens position.
  • the control device 104 calculates the slope of each color component, that is, the ratio of the differential values, toward the point where the two ratios of the calculated ratios match or the difference between the two ratios falls within a predetermined value.
  • the moving direction is determined as the moving direction of the AF lens. Thereby, the moving direction of the AF lens can be determined at high speed and with high accuracy.
  • FIG. 11 is a block diagram illustrating a configuration of the camera 1000 according to the second embodiment. Similar to the camera 100 in the first embodiment shown in FIG. 1, the camera 1000 includes an operation member 101, a lens 102, an image sensor 103, a control device 104, a memory card slot 105, a monitor 106, and the like. have. Description of these will be omitted. The camera 1000 further includes an ND filter 1021 and a filter insertion / removal device 160.
  • the ND filter 1021 is a density filter for adjusting the amount of light incident through the lens 102.
  • the control device 104 enters the image sensor 103 by inserting or removing the ND filter 1021 on the optical axis between the lens 102 and the image sensor 103 via the filter insertion / removal device 160. Adjust the light intensity.
  • the in-focus position is shifted due to the refractive index of the ND filter 1021.
  • the in-focus position 2d of the subject light 120c coincides with the imaging surface 2c of the imaging element 103, whereas ND on the optical axis.
  • the focus position 2e of the subject light 120d is displaced from the imaging surface 2c.
  • the camera manufacturer has designed the optical system including the lens 102 and the ND filter 1021 in advance, for example, a lens barrel in consideration of the shift of the in-focus position due to the insertion of the ND filter 1021.
  • distortion may occur in the entire lens barrel depending on the surrounding environment such as humidity and temperature at the shooting location, and when the ND filter 1021 is inserted on the optical axis in such a situation.
  • the shift of the in-focus position accompanying the insertion of the ND filter 1021 is different from the shift assumed at the time of design.
  • the ND filter 1021 is inserted during the constant AF control, if the focus position shift caused by the insertion of the ND filter 1021 is different from the shift assumed at the time of design, the frame contrast decreases. It is necessary to adjust the focus by moving the AF lens in the in-focus direction. At this time, when focus adjustment is performed by the conventional contrast method, the moving direction of the AF lens for focusing is determined each time by moving the AF lens to one of them and detecting the change in contrast. There is a problem that AF processing takes time.
  • the current AF lens position is moved to the in-focus position without moving the AF lens. It is determined in which direction of the optical axis the direction is shifted. Based on the determination result, the AF lens is moved in the in-focus position direction.
  • an ND filter is inserted on the optical axis between the lens 102 and the image sensor 103 located on the imaging surface 2c after focus adjustment based on the conventional contrast method. If so, the moving direction for moving the AF lens to the in-focus position is determined. As shown in FIG. 2, the AF lens position adjustment data temporarily recorded in the SDRAM included in the control device 104 to take into account that the focal position on the optical axis for each light of each color component varies depending on the axial chromatic aberration. Referring to FIG. 5, it is determined whether the current AF lens position is deviated from the in-focus position that brings the in-focus state in the direction of the near side or the infinity side in the optical axis direction.
  • the AF lens position adjustment data temporarily recorded in the SDRAM is different from the AF lens position adjustment data in the first embodiment. Therefore, when the camera in the first embodiment is also the camera in the second embodiment, separate AF lens position adjustment data according to each embodiment is temporarily recorded in the SDRAM, and the ND filter 1021 is inserted. Any AF lens position adjustment data is used depending on whether or not it has been done. In this way, the AF lens movement direction determination process in step S70 and the drive amount setting process in step S80 in FIGS. 13 and 3 can be shared.
  • FIG. 13 is a flowchart showing a flow of constant AF control during live view display in the present embodiment.
  • the process shown in FIG. 13 is executed by the control device 104 as a program that starts when input of live view image data from the image sensor 103 is started.
  • the flowchart shown in FIG. 13 is identical to the flowchart shown in FIG. 3 except that the determination process performed in step S21 is added, so only step S21 and the processes before and after that will be described.
  • step S20 If affirmative determination is made in step S20, the process proceeds to step S21.
  • step S21 the control device 104 determines whether or not the ND filter 1021 is inserted on the optical axis. If a negative determination is made in step S21, the process returns to step S10 and is repeated. On the other hand, when an affirmative determination is made in step S21, as described above, it is determined that there is a possibility that the focus adjustment needs to be performed again by inserting the ND filter 1021, and the process proceeds to step S30.
  • step S60 If an affirmative determination is made in step S60, the process returns to step S21 to repeat the process.
  • step S90 the control device 104 adjusts the focus by driving the AF motor 150 in the AF direction determined in step S70 by the driving amount set in step S80, and then returns to step S21.
  • the control device 104 detects an edge for each color component and calculates a differential value of the edge intensity for each color component.
  • the control device 104 determines the movement direction of the AF lens, that is, the driving direction, based on the calculated differential value of the edge intensity for each color component.
  • the control device 104 determines whether or not the inclination of the edge is greater than or equal to a predetermined level, for example, greater than or equal to 0.4 in step S40, thereby capturing the current frame.
  • a predetermined level for example, greater than or equal to 0.4 in step S40.
  • the threshold for example, 0.4
  • the threshold is set to the threshold. It is necessary to change for each zoom factor. For example, in the case of a telephoto lens, the inclination of the edge may be always less than 0.4. In this case, the threshold corresponding to the zoom magnification may be calculated in advance and temporarily recorded in the SDRAM.
  • the present invention can also be applied to other devices having a focus adjustment function, such as a video camera, a camera system including a camera body and an interchangeable lens, or a personal computer to which an external camera is connected.
  • the present invention is not limited to the configurations in the above-described embodiments as long as the characteristic functions of the present invention are not impaired. Moreover, it is good also as a structure which combined the above-mentioned embodiment and a some modification.
  • Japanese patent application 2009 No. 168991 (filed July 17, 2009) Japanese Patent Application No. 2009 168992 (filed on July 17, 2009) Japanese Patent Application No. 2009-240206 (filed Oct. 19, 2009) Japanese patent application No. 240207 in 2009 (filed on Oct. 19, 2009)

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

 焦点調節装置は、フォーカシング用レンズを含む光学系と、光学系によって形成される被写体の像を撮像し、複数の色成分を含む画像信号を出力する撮像素子と、画像信号に含まれる複数の色成分の各色成分ごとのエッジを検出するエッジ検出部と、エッジ検出部によって検出された各色成分ごとのエッジのエッジ強度の微分値を算出する微分値算出部と、微分値算出部によって算出された微分値に基づいて、光学系の焦点調節のためにフォーカシング用レンズを移動させる移動方向を判定する判定部とを備える。

Description

焦点調節装置およびカメラ
 本発明は、焦点調節装置およびカメラに関する。
 光の色収差を利用してレンズの焦点位置ズレを検出し、検出結果に基づいて焦点調整を行って各色光のぼけを修正するオートフォーカス装置が知られている(特許文献1参照)。
日本国特開平6-138362号公報
 しかしながら、従来のオートフォーカス装置では、レンズの位置が合焦位置に対して光軸方向のどちらの方向にずれているかを検出することができなかった。
 本発明の第1の態様によると、焦点調節装置は、フォーカシング用レンズを含む光学系と、光学系によって形成される被写体の像を撮像し、複数の色成分を含む画像信号を出力する撮像素子と、画像信号に含まれる複数の色成分の各色成分ごとのエッジを検出するエッジ検出部と、エッジ検出部によって検出された各色成分ごとのエッジのエッジ強度の微分値を算出する微分値算出部と、微分値算出部によって算出された微分値に基づいて、光学系の焦点調節のためにフォーカシング用レンズを移動させる移動方向を判定する判定部とを備える。
 本発明の第2の態様によると、第1の態様の焦点調節装置において、光学系と撮像素子との間の光軸上に挿入され、光学系から入射される光量を調節するフィルタと、フィルタを光軸上に挿入し、光軸上から抜く挿脱部とをさらに備え、判定部は、挿脱部によってフィルタが挿入されたとき、移動方向を判定するのが好ましい。
 本発明の第3の態様によると、第1または第2の態様の焦点調節装置において、判定部によって判定された移動方向にフォーカシング用レンズを駆動する駆動部をさらに備えるのが好ましい。
 本発明の第4の態様によると、第1から第3の態様のいずれかの態様の焦点調節装置において、微分値算出部は、エッジ検出部で検出したエッジ強度が各色成分の信号値に無関係となるように、エッジ強度を正規化してから微分値を算出するのが好ましい。
 本発明の第5の態様によると、第1から第4の態様のいずれかの態様の焦点調節装置において、フォーカシング用レンズをフォーカシング用レンズの光軸方向に移動させながら画像信号のコントラストが最も高くなる光軸方向のレンズ位置を特定し、特定されたレンズ位置へフォーカシング用レンズを移動することによって焦点調節を行う焦点調節部をさらに備え、判定部は、焦点調節部によって焦点調節が行われた後に、移動方向を判定するのが好ましい。
 本発明の第6の態様によると、第1から第5の態様のいずれかの態様の焦点調節装置において、フォーカシング用レンズの光軸方向の各レンズ位置の位置情報と、フォーカシング用レンズの各レンズ位置におけるエッジ強度の各色成分ごとの微分値情報 との対応関係に関する対応関係情報を記憶する記憶部をさらに備え、判定部は、フォーカシング用レンズの現在のレンズ位置における各色成分ごとの微分値情報と対応関係情報とに基づいて、移動方向を判定するのが好ましい。
 本発明の第7の態様によると、第6の態様の焦点調節装置において、複数の色成分は少なくとも3成分であり、各色成分ごとの微分値情報は、各色成分の微分値と、3成分のうちの他の色成分の微分値との少なくとも2つの比であって、少なくとも2つの比が一致するとき、フォーカシング用レンズは、被写体の像を結像する合焦位置に位置するのが好ましい。
 本発明の第8の態様によると、第7の態様の焦点調節装置において、フォーカシング用レンズの各レンズ位置は、合焦位置を基準として定められるのが好ましい。
 本発明の第9の態様によると、第7または第8の態様の焦点調節装置において、駆動部によって移動方向に合焦位置までフォーカシング用レンズが駆動される際の駆動量は、対応関係情報に基づいて定められるのが好ましい。
 本発明の第10の態様によると、カメラは、第1から第9の態様のいずれかの態様の焦点調節装置を備える。
 本発明によれば、レンズの位置が合焦位置に対して光軸方向のどちらの方向にずれているかを検出することができる。
第1の実施の形態におけるカメラ100の構成を示すブロック図である。 軸上色収差によって各色成分の光ごとの光軸上の合焦位置が異なることを模式的に示した図である。 第1の実施の形態におけるスルー画表示中の常時AF制御の流れを示すフローチャート図である。 被写体サンプルの具体例を示す図である。 非合焦時におけるR、G、Bそれぞれの色成分のエッジ強度を正規化した場合の具体例を示す図である。 合焦時におけるR、G、Bそれぞれの色成分のエッジ強度を正規化した場合の具体例を示す図である。 非合焦時における各色成分のエッジ強度の微分特性の具体例を示す図である。 合焦時における各色成分のエッジ強度の微分特性の具体例を示す図である。 AFレンズ位置が変化した場合の微分特性値の変化を表した図である。 各色成分のエッジの傾きの比の変化を表した図である。 第2の実施の形態におけるカメラ100の構成を示すブロック図である。 NDフィルタが挿入された場合の合焦位置の変化を模式的に示した図である。 第2の実施の形態におけるスルー画表示中の常時AF制御の流れを示すフローチャート図である。
---第1の実施の形態---
 図1は、第1の実施の形態におけるカメラ100の構成を示すブロック図である。カメラ100は、操作部材101と、レンズ102と、撮像素子103と、制御装置104と、メモリカードスロット105と、モニタ106とを有している。操作部材101は、使用者によって操作される種々の入力部材、例えば電源ボタン、レリーズボタン、ズームボタン、十字キー、決定ボタン、再生ボタン、削除ボタンなどを含んでいる。
 レンズ102は、複数の光学レンズから構成されるが、図1では代表して1枚のレンズで表している。また、レンズ102を構成するレンズには、後述するAF(Auto Focus)のためのAFレンズが含まれる。撮像素子103は、例えばCCDやCMOSなどのイメージセンサーであり、レンズ102により結像した被写体像を撮像する。そして、撮像によって得られた画像信号を制御装置104へ出力する。AFレンズは、後述するAFにしたがい、制御装置104によってAFモータ150を介して駆動される。ただし、カメラ100がAF機能を有していない場合、AFレンズは、使用者の手動操作入力にしたがい、制御装置104によってAFモータ150を介して駆動される。
 制御装置104は、撮像素子103から入力された画像信号に基づいて所定の画像形式、例えばJPEG形式の本画像データを生成する。また、制御装置104は、生成した本画像データに基づいて、表示用画像データ、例えばサムネイル画像データを生成する。制御装置104は、生成した本画像データとサムネイル画像データとを含み、さらにヘッダ情報を付加した画像ファイルを生成してメモリカードスロット105へ出力する。
 メモリカードスロット105は、記憶媒体としてのメモリカードを挿入するためのスロットであり、制御装置104から出力された画像ファイルをメモリカードに書き込む、すなわちメモリカードに記憶させる。また、メモリカードスロット105は、制御装置104からの指示に基づいて、メモリカードに記憶されている画像ファイルを読み込む。
 モニタ106は、カメラ100の背面に搭載された液晶モニタ(背面モニタ)であり、当該モニタ106には、メモリカードに記憶されている画像ファイルの画像、カメラ100を設定するための設定メニューなどが表示される。また、制御装置104は、使用者によってカメラ100の動作モードが撮影モードに設定されると、撮像素子103から時系列で取得した画像信号の表示用画像データをモニタ106に出力する。これによってモニタ106にはスルー画が表示される。
 制御装置104は、CPU、メモリ、およびその他の周辺回路により構成され、カメラ100を制御する。なお、制御装置104を構成するメモリには、SDRAM、フラッシュメモリが含まれる。SDRAMは、揮発性のメモリであって、CPUがプログラム実行時にプログラムを展開するためのワークメモリとして使用されたり、データを一時的に記録するためのバッファメモリとして使用される。後述するように、SDRAMには、2つの色成分の光について合焦するAFレンズ位置の近傍において、AFレンズ位置の変化量に対する各色成分に関する物理量の変化量の関係を表すAFレンズ位置調節データが一時的に記録される。また、フラッシュメモリは、不揮発性のメモリであって、制御装置104が実行するプログラムのデータ、レンズ102のズーム位置に対応する焦点距離ごとのRGB各色成分の合焦位置などのプログラム実行時に読み込まれる種々のパラメータなどが記録されている。
 本実施の形態では、制御装置104は、撮像素子103からスルー画データの入力が開始されると、AF(Autoフォーカス)処理を実行して、スルー画表示中に継続して焦点調節を行う。具体的には、制御装置104は、公知のコントラスト方式により、撮像素子103から入力される画像信号の出力値のコントラストが最も高くなるように、レンズ102に含まれるAFレンズを光軸方向に移動させて焦点調節を行う。すなわち、制御装置104は、スルー画表示中の常時AF制御を行う。
 この場合、一般的なスルー画表示中の常時AF制御においては、スルー画を形成する各フレーム中の焦点検出領域、すなわちAF評価エリアのコントラスト低下が検出されたときに、AFレンズをコントラストが上昇する方向へ移動させることによって焦点調節を行っていた。この際にはいわゆる山登り制御によりコントラストが最大となるAFレンズの位置を検出する必要がある。しかし、AFレンズを、被写体に最も近い至近位置の方向、すなわち至近側、または被写体から最も遠い無限遠位置の方向、すなわち無限遠側のいずれの方向に移動させればコントラストを上昇させることができるかは、実際にAFレンズをいずれか一方向に移動させてコントラストを検出してみないとわからなかった。
 このため、従来のスルー画表示中の常時AF制御では、例えば合焦後の被写体の移動によってコントラストが低下した場合には、AFレンズをどちらか一方向に移動させてコントラストを検出することにより、合焦させるためのAFレンズの移動方向をその都度判定する必要があり、AF処理に時間を要するという問題があった。そこで、本実施の形態では、このような問題点を解決するために、スルー画表示中の常時AF制御中は、AFレンズを移動させることなく、現在のAFレンズ位置が合焦位置から光軸方向のどちらの方向にずれているかを判定する。判定結果に基づいてAFレンズを合焦位置方向へ移動させる。
 具体的には、撮像素子103から入力されるフレームがRGB表色系で表される画像である場合には、被写体光に含まれるRGBの各色成分の光ごとの軸上色収差の違いにより、各色成分の光の光軸上の合焦位置は異なる。例えば、図2に示すように、G成分の合焦位置、すなわちピント位置は位置2aであるのに対して、R成分およびB成分の合焦位置、すなわちピント位置は位置2bとなる場合がある。本実施の形態では、このような各色成分の光ごとの光軸上の合焦位置が軸上色収差によって異なることを加味して、現在のAFレンズ位置が合焦状態をもたらす合焦位置から光軸方向の至近側方向または無限遠側方向のどちらの方向にずれているかを判定し、スルー画表示中の常時AF制御を実現する。
 図3は、本実施の形態におけるスルー画表示中の常時AF制御の流れを示すフローチャートである。図3に示す処理は、撮像素子103からスルー画データの入力が開始されると起動するプログラムとして、制御装置104によって実行される。
 ステップS10において、制御装置104は、公知のコントラスト方式により、入力されたスルー画データに基づくスルー画のフレーム内に設定されたAF評価エリア内の画像のコントラストが最も高くなるように、レンズ102に含まれるAFレンズを光軸方向に移動させて焦点調節を行う。これにより、スルー画データの入力開始時にコントラストAFによる焦点調節を行って被写体に合焦させることができる。その後、ステップS20へ進み、ステップS10におけるコントラストAFが終了したか否かを判断する。ステップS20で否定判断した場合には、ステップS10へ戻って処理を繰り返す。これに対して、ステップS20で肯定判断した場合には、ステップS30へ進む。
 ステップS30では、制御装置104は、AF評価エリア内の画像を対象として、各色成分RGB別に画素出力が急激に変化する位置、すなわちエッジを検出する。そして、制御装置104は、検出したエッジのエッジ強度が0以上1以下の値をとるようにエッジの振幅、すなわちエッジに含まれる画素の画素出力がとりうる値の範囲を正規化する。換言すると、エッジ強度は、エッジに含まれる画素の正規化された画素出力である。R、G、Bそれぞれのエッジの振幅を正規化すると、R、G、Bそれぞれの色成分の出力値に無関係にエッジ強度を算出できる。ここで、図4に示す被写体サンプルを対象としてRGB別に検出したエッジの振幅を正規化する場合の例について説明する。この場合には、制御装置104は、画像内の点線で囲まれた領域4aを対象として、任意のx方向、すなわち水平方向にて、RGBの各色成分の出力ごとにエッジ強度のy方向、すなわち垂直方向nライン分(0<n≦y、例えば、3ライン分、5ライン分、7ライン分等)の平均値を算出する。
 例えば、AFレンズを駆動するAFモータ150のパルス数がある任意の値であるときに被写体サンプルを撮影して取得したサンプル画像を各フレームとするスルー画表示が行われているとする。そのサンプル画像中の画素位置(x,y)におけるR、G、Bのそれぞれの色成分のエッジ強度r(x,y),g(x,y),b(x,y)を用いて、x方向の画素位置xにおけるy方向nライン分のR、G、Bのそれぞれの色成分のエッジ強度の平均値r_ave(x),g_ave(x),b_ave(x)は、次式(1)~式(3)により算出される。1ラインのみのエッジ強度を用いた算出ではノイズ等が影響することが考えられるため、nライン分のエッジ強度を用いて算出する。
Figure JPOXMLDOC01-appb-M000001
 
 
Figure JPOXMLDOC01-appb-M000003
 
 式(1)により算出したx方向の画素位置xにおけるy方向nライン分のR成分のエッジ強度の平均値r_ave(x)を、領域4a内におけるx方向のすべての画素位置xにおいて求める。こうして求められたR成分のエッジ強度の平均値r_ave(x)の最小値r_avemin(x)、最大値r_avemax(x)を用いて、x方向の画素位置xにおけるR成分のエッジ強度の平均値r_ave(x)は、次式(4)によってR(x)に正規化される。
Figure JPOXMLDOC01-appb-M000004
 
 また、式(2)により算出したx方向の画素位置xにおけるy方向nライン分のG成分のエッジ強度の平均値g_ave(x)を、領域4a内におけるx方向のすべての画素位置xにおいて求める。こうして求められたG成分のエッジ強度の平均値g_ave(x)の最小値g_avemin(x)、最大値g_avemax(x)を用いて、x方向の画素位置xにおけるG成分のエッジ強度の平均値g_ave(x)は、次式(5)によってG(x)に正規化される。
Figure JPOXMLDOC01-appb-M000005
 
 また、式(3)により算出したx方向の画素位置xにおけるy方向nライン分のB成分のエッジ強度の平均値b_ave(x)を、領域4a内におけるx方向のすべての画素位置xにおいて求める。こうして求められたB成分のエッジ強度の平均値b_ave(x)の最小値b_avemin(x)、最大値b_avemax(x)を用いて、x方向の画素位置xにおけるB成分のエッジ強度の平均値b_ave(x)は、次式(6)によってB(x)に正規化される。
Figure JPOXMLDOC01-appb-M000006
 
 例えば、AFレンズを駆動するAFモータ150のパルス数が139パルスであるときのフレームを対象として、R、G、Bそれぞれの色成分のエッジ強度を正規化した場合の正規化後のエッジ強度を図5に示す。また、AFレンズを駆動するAFモータ150のパルス数が178パルスであるときのフレームを対象として、R、G、Bそれぞれの色成分のエッジ強度を正規化した場合の正規化後のエッジ強度を図6に示す。なお、図5および6において、横軸はx方向の画素位置xであり、縦軸は正規化後のエッジ強度である。
 図5では、画素位置xが大きくなるにつれて、x=q[画素]近傍で各色成分のエッジ強度が緩やかに上昇していることから、AFモータ150のパルス数が139パルスであるときのフレームはぼけた画像であることを示している。すなわち、この例において、AFモータ150のパルス数が139パルスであるときは、AFレンズ位置が合焦位置に位置していないことを表している。これに対して、図6では、画素位置xが大きくなるにつれて、x=q[画素]のわずか手前で各色成分のエッジ強度が急激に上昇していることから、AFモータ150のパルス数が178パルスであるときのフレームは合焦した画像であることを示している。すなわち、この例において、AFモータ150のパルス数が178パルスであるときは、AFレンズ位置が合焦位置に位置していることを表している。
 その後、ステップS40へ進み、制御装置104は、ステップS30で正規化した各色成分のエッジの傾きを算出し、その傾きが所定レベル以上であるか否かを判断する。具体的には、制御装置104は、エッジデータのウィンドウ幅p(例えばp=3)における微分特性を次式(7)~(9)を用いて算出することにより、エッジの傾きを算出する。すなわち、各色成分のエッジの傾きは、画素位置xにおける各色成分のエッジ強度と、画素位置xの近傍の画素位置x+pにおける各色成分のエッジ強度との差分として表される。
Figure JPOXMLDOC01-appb-M000007
 
Figure JPOXMLDOC01-appb-M000008
 
Figure JPOXMLDOC01-appb-M000009
 
 例えば、図5に示したAFモータ150のパルス数が139パルスであるときの各色成分のエッジ強度の微分特性、すなわちエッジの傾きは図7のように示される。図5において、RおよびGの色成分のエッジ強度グラフR(x)およびG(x)は、画素位置x=qに対しては点5a、画素位置x=q+pに対しては点5bにおいて、いずれも略一致している。そのため図7においては、x=qにおけるRおよびGの色成分のエッジ強度の微分特性グラフR´(x)およびG´(x)のピーク値が点7aで略一致している。画素位置x=qとx=q+pとにおいては、特に画素位置x=qにおいて、Bの色成分のエッジ強度グラフB(x)は、点5aを外れていて、RおよびGの色成分のエッジ強度グラフR(x)およびG(x)とは完全には一致していない。したがって、図7においては、画素位置x=qにおけるBの色成分のエッジ強度の微分特性グラフB´(x)のピーク値を示す点7bは、RおよびGの色成分のエッジ強度の微分特性グラフR´(x)およびG´(x)のピーク値を示す点7aとは異なる微分特性値を示している。図6に示したAFモータ150のパルス数が178パルスであるときの各色成分のエッジ強度の微分特性、すなわちエッジの傾きは図8のように示される。図6において、R、GおよびBの色成分のエッジ強度グラフR(x)、G(x)およびB(x)は、画素位置x=qに対しては点6a、画素位置x=q+pに対しては点6bにおいて、略一致している。そのため図8においては、画素位置x=qにおけるR、GおよびBの色成分のエッジ強度の微分特性グラフR´(x)、G´(x)およびB´(x)のピーク値が点8aで略一致している。合焦した画像について算出された図8に示す微分特性と、非合焦の画像について算出された図7に示す微分特性とを比較すると、合焦した画像の方が微分特性、すなわちエッジの傾きは大きくなる。
 そこで、ステップS40でエッジの傾きが所定レベル以上、例えば0.4以上であるか否かを判断することにより、現在のフレームが撮像された状態が合焦状態に近い状態にあるか否かを判定することができる。例えば図7において、画素位置x=qにおけるR、GおよびBの色成分のエッジ強度の微分特性グラフR´(x)、G´(x)およびB´(x)のピーク値を示す点7aおよび7bは、ともに0.4以上のエッジの傾きを示すので、現在のフレームが撮像された状態が合焦状態に近い状態にあると判定できる。ステップS40で否定判断した場合、すなわち非合焦状態にあると判断した場合には、例えばステップS10において焦点調節を行ったときの被写***置から被写体が大きく移動していることが考えられることから、AFレンズ位置を微調整しただけでは合焦させることが困難である。そのため、ステップS10へ戻って再度コントラストAF処理を行う。これに対して、ステップS40で肯定判断した場合、すなわち合焦状態に近い状態にあると判断した場合には、例えばステップS10において焦点調節を行ったときの被写***置から被写体が全く移動していないか、またはあまり大きくは移動していないことが考えられることから、AFレンズ位置を微調整することによって合焦させることが可能である。そのため、ステップS50へ進む。
 ステップS50では、制御装置104は、色成分R、G、Bのうち、少なくとも2つの色成分についてのエッジの傾きがステップS40で検出されたか否かを判断する。色成分RおよびBが一様でエッジを形成していないような場合等、少なくとも2つの色成分についてのエッジの傾きが検出できない場合には、以下に説明するAFレンズの移動方向の判定が行えない。このため、ステップS50で否定判断した場合には、ステップS10へ戻って、再度コントラストAF処理を行う。これに対して、ステップS50で肯定判断した場合には、ステップS60へ進む。
 ステップS60では、制御装置104は、R、G、Bの各色成分のうち、いずれか2つの色成分のエッジの傾きが所定レベルで一致するか否かを判断する。具体的には、上述したように、RGBの各色成分ごとの軸上色収差の違いにより、各色成分の光軸上の合焦位置は異なるため、式(7)~(9)により算出した微分特性値R ´(x)、G ´(x)、B ´(x)がピークとなるAFレンズ位置、すなわち色成分ごとにエッジの傾きがピークとなるAFレンズ位置が異なる。
 例えば、図9は、図8において画素位置xがx=qであってAFレンズ位置が変化した場合、すなわちAFモータ150のパルス数が178前後で変化した場合の微分特性値R ´(q)、G ´(q)、B ´(q)の変化を図示したものである。この図9に示すように、微分特性値R ´(q)、G ´(q)、B ´(q)のそれぞれは、エッジの傾きがピークとなるAFレンズ位置、すなわちAFモータ150のパルス数が異なっている。
 本実施の形態では、微分特性値R ´(q)、G ´(q)、B ´(q)のうち、いずれか2つの色成分の微分特性値、すなわちエッジの傾きが最大値である1の近傍の所定レベル以上で一致する場合には、合焦状態にあると判断して、AFレンズ位置を変更しないようにする。これに対して、微分特性値R ´(q)、G ´(q)、B ´(q)のうち、いずれか2つの色成分のエッジの傾きが最大値である1の近傍の所定レベル以上で一致しない場合には、非合焦状態にあると判断して、AFレンズ位置を変更する。例えば、図9では、2つの色成分の傾きに対応する微分特性値B ´(q)とG ´(q)とが1に近い点9aで一致するため、この場合には合焦状態にあると判断して、AFレンズ位置を変更しない。なお、この点9aにおける各色成分のエッジの傾きの値は、図8に示す画素位置x=qにおける各色成分の微分特性のピーク値、すなわち点8aにおけるエッジの傾きと等しい。
 なお、図9に示す判定手法に加えて、各色成分のエッジの傾きの比R ´(q)/G ´(q)、B ´(q)/G ´(q)、およびR ´(q)/B ´(q)を算出し、これら3つの比のうち2つの比を用いた判定手法を用いてもよい。2つの比が所定値の付近、例えば1付近で一致する場合、または1付近での2つの比の差が所定範囲内となる場合には、合焦状態にあると判断して、AFレンズ位置を変更しないようにする。2つの比が所定値の付近で一致しない場合には、非合焦状態にあると判断して、AFレンズ位置を変更する。
 例えば、図10では、2つの比B ´(q)/G ´(q)とR ´(q)/B ´(q)とが1付近で点10aにおいて一致するため、この場合には合焦状態にあると判断して、AFレンズ位置を変更しない。なお、この場合にどの2つの色成分のエッジの傾きの比を判断に用いるかは、レンズ102における分光周波数に応じた焦点距離依存の特性に基づいて選択される。例えば、図10では、比R ´(q)/G ´(q)はどのパルス数においても1に近い値をとることから、R成分およびG成分の焦点位置はほぼ一致していると考えられる。そのため、比R ´(q)/G ´(q)以外の2つの比を用いることとする。
 ステップS60で肯定判断した場合には、ステップS30へ戻って処理を繰り返す。これに対して、ステップS60で否定判断した場合には、ステップS70へ進む。ステップS70では、制御装置104は、AFレンズの移動方向、すなわちAF方向の判定を行う。本実施の形態では、図9に示した点9a、または図10に示した点10aに対応するAFモータ150のパルス数、例えばパルス数178、の近傍において、AFモータ150のパルス数の変化量に対する各色成分の傾きの比R´(q)/G´(q)、B´(q)/G´(q)、R´(q)/B´(q)の変化量の対応関係を表すAFレンズ位置調節データをSDRAMに一時記録しておく。例えば、図10における合焦点10aを基準として、合焦点10aからからAFモータ150のパルス数が1パルスずつ増加したとき、および減少したときの、各色成分の傾きの比R ´(q)/G ´(q)、B ´(q)/G ´(q)、R ´(q)/B ´(q)の変化量をSDRAMに一時記録しておく。また、AFモータ150のパルス数の変化量に対する各色成分の傾きの比R´(q)/G´(q)、B´(q)/G´(q)、R´(q)/B´(q)の変化量の対応関係は、被写体距離、またはレンズ102の特性に応じて変化するので、こうした対応関係を表すAFレンズ位置調節データは被写体距離およびレンズ102の特性の組合せ毎に記録される。そして、制御装置104は、SDRAMに一時記録したAFレンズ位置調節データを参照することによって、画像エッジにおける各色成分の傾きの比R´(q)/G´(q)、B´(q)/G´(q)、R´(q)/B´(q)からAF方向を判定する。
 具体的には、現在の画像エッジ色成分の傾きの比が、図10における点10bに該当するR´(q)/B´(q)=1.05、および図10における点10cに該当するB´(q)/G´(q)=0.95である場合は、図10における点10aに該当する合焦時の画像エッジ色成分の傾きの比であるR´(q)/B´(q)=B´(q)/G´(q)=1.00と比較する。現在の画像エッジ色成分の傾きの比R´(q)/B´(q)=1.05が合焦時の画像エッジ色成分の傾きの比R´(q)/B´(q)=1.00よりも大きい。現在の画像エッジ色成分の傾きの比B´(q)/G´(q)=0.95が合焦時の画像エッジ色成分の比B´(q)/G´(q)=1.00よりも小さい。このとき、図10の例では、点10bおよび10cに該当する現在のAFモータ150のパルス数169が、点10aに該当する合焦時のAFモータ150のパルス数178よりも小さい範囲に含まれる。したがって、現在のピント状態は前ピンであると判定して、AF方向を至近側と判定する。前ピンとは、図2に示すように、撮像面が位置2fに位置している状態である。これに対して、現在の画像エッジ色成分の傾きの比が、図10における点10dに該当するR´(q)/B´(q)=0.95、および図10における点10eに該当するB´(q)/G´(q)=1.05である場合は、図10における点10aに該当する合焦時の画像エッジ色成分の傾きの比であるR´(q)/B´(q)=B´(q)/G´(q)=1.00と比較する。現在の画像エッジ色成分の傾きの比R´(q)/B´(q)=0.95が合焦時の画像エッジ色成分の傾きの比R´(q)/B´(q)=1.00よりも小さい。現在の画像エッジ色成分の傾きの比B´(q)/G´(q)=1.05が合焦時の画像エッジ色成分の傾きの比B´(q)/G´(q)=1.00よりも大きい。このとき、図10の例では、点10dおよび10eに該当する現在のAFモータ150のパルス数196が、点10aに該当する合焦時のAFモータ150のパルス数178よりも大きい範囲に含まれる。したがって、現在のピント状態は後ピンであると判定して、AF方向を無限遠側と判定する。後ピンとは、図2に示すように、撮像面が位置2rに位置している状態である。その後、ステップS80へ進む。
 ステップS80では、制御装置104は、SDRAMに一時記録されているAFモータ150のパルス数の変化量に対する画像エッジ色成分の傾きの比R´(q)/G´(q)、B´(q)/G´(q)、R´(q)/B´(q)の変化量の対応関係に基づいて、現在の画像エッジ色成分の傾きの比が1.00になるまでのAFモータ150の駆動量を設定する。図10に示したグラフの例では、現在の画像エッジ色成分の傾きの比R´(q)/B´(q)=1.05かつB´(q)/G´(q)=0.95であるとき、AFモータ150のパルス数9に対応するAFレンズの駆動量がAFモータ150に設定される。同様に、現在の画像エッジ色成分の傾きの比R´(q)/B´(q)=0.95かつB´(q)/G´(q)=1.05であるとき、AFモータ150のパルス数18に対応するAFレンズの駆動量がAFモータ150に設定される。その後、ステップS90へ進み、制御装置104は、AFモータ150を介して、ステップS70で判定したAF方向に、ステップS80で設定した駆動量だけAFレンズを駆動して焦点調節を行って、ステップS30へ戻る。なお、カメラ100がAF機能を有していない場合は、制御装置104は、モニタ106を介して、フォーカシング用レンズの移動方向および移動量をカメラ100の使用者へ通知する。
 以上説明した本発明の第1の実施の形態によれば、以下のような作用効果を得ることができる。
(1)制御装置104は、各色成分ごとにエッジを検出し、各色成分ごとのエッジ強度の微分値を算出するようにした。そして、制御装置104は、算出した各色成分ごとのエッジ強度の微分値に基づいて、AFレンズの移動方向(駆動方向)を判定するようにした。これによって、スルー画表示中の常時AF制御において、その都度コントラスト方式のAF制御を行う必要がなくなり、処理速度を向上させることができる。
(2)制御装置104は、AFモータを介し、上述した(1)で判定したAF方向にAFレンズを駆動するようにした。これによって、スルー画表示中に自動で焦点調節を行うことができる。
(3)制御装置104は、検出した各色成分ごとのエッジ強度が0以上1以下の値をとるように正規化してから微分値を算出するようにした。これによって、画像のコントラスト変化を強調することができる。
(4)制御装置104は、図3に示したステップS10でコントラスト方式を用いて焦点調節を行った後に、ステップS30以降の処理を実行するようにした。これによって、一旦、コントラスト方式により焦点調節を行った後は、大きくAFレンズ位置を変化させなくても合焦状態を継続できることを加味して、AF処理を高速化することができる。
(5)制御装置104は、各色成分の傾きすなわち微分値の比を算出し、算出した比のうちの2つの比が一致する点、または2つの比の差が所定値以内となる点に向けた移動方向をAFレンズの移動方向として判定するようにした。これによって、AFレンズの移動方向を高速かつ高精度に判定することができる。
---第2の実施の形態---
 図11は、第2の実施の形態におけるカメラ1000の構成を示すブロック図である。カメラ1000は、図1に示した第1の実施の形態におけるカメラ100と同様に、操作部材101と、レンズ102と、撮像素子103と、制御装置104と、メモリカードスロット105と、モニタ106とを有している。これらについての説明は省略する。カメラ1000は、NDフィルタ1021とフィルタ挿脱装置160とをさらに有している。
 NDフィルタ1021は、レンズ102を介して入射する光量を調節するための濃度フィルタである。制御装置104は、フィルタ挿脱装置160を介してNDフィルタ1021をレンズ102と撮像素子103との間の光軸上に挿入したり、光軸上から抜いたりすることによって、撮像素子103へ入射する光量を調節する。
 制御装置104がモニタ106にスルー画を表示中に、光軸上にNDフィルタ1021が挿入されると、NDフィルタ1021の屈折率によって合焦位置がずれる。例えば、図12に示すように、NDフィルタ1021を挿入する前には、被写体光120cの合焦位置2dは撮像素子103の撮像面2cと一致していたのに対して、光軸上にNDフィルタ1021が挿入された場合には、被写体光120dの合焦位置2eは撮像面2cからずれてしまう。
 このため、カメラメーカでは、あらかじめNDフィルタ1021挿入による合焦位置のずれを考慮してレンズ102やNDフィルタ1021を含んだ光学系、例えばレンズ鏡筒の設計を行っている。しかしながら、撮影場所の湿度や温度等の周辺環境によって、レンズ鏡筒全体に歪みが発生する場合があり、このような歪みが発生している状況で光軸上にNDフィルタ1021が挿入されると、NDフィルタ1021の挿入に伴う合焦位置のずれが、設計時に想定したずれとは異なる可能性がある。
 したがって、常時AF制御中にNDフィルタ1021が挿入されたときに、NDフィルタ1021の挿入に伴う合焦位置のずれが設計時の想定したずれとは異なる場合には、フレームのコントラストが低下するため、AFレンズを合焦方向に移動させて焦点調節を行う必要がある。このときに従来のコントラスト方式によって焦点調節を行う場合には、AFレンズをどちらか一方に移動させてコントラストの変化を検出することにより、合焦させるためのAFレンズの移動方向をその都度判定する必要があり、AF処理に時間を要するという問題があった。
 そこで、本実施の形態では、このような問題点を解決するために、NDフィルタ1021が光軸上に挿入された場合でも、AFレンズを移動させることなく、現在のAFレンズ位置が合焦位置から光軸方向のどちらの方向にずれているかを判定する。判定結果に基づいてAFレンズを合焦位置方向へ移動させる。
 本実施の形態では、第1の実施の形態と同様に、従来のコントラスト方式に基づく焦点調節後、レンズ102と撮像面2cに位置する撮像素子103との間の光軸上にNDフィルタが挿入された場合に、AFレンズを合焦位置へ移動するための移動方向を判定する。図2に示したように、各色成分の光ごとの光軸上の合焦位置が軸上色収差によって異なることを加味するため、制御装置104に含まれるSDRAMに一時記録されたAFレンズ位置調節データを参照して、現在のAFレンズ位置が合焦状態をもたらす合焦位置から光軸方向の至近側または無限遠側のどちらの方向にずれているかを判定する。本実施の形態において、SDRAMに一時記録されたAFレンズ位置調節データは、第1の実施の形態におけるAFレンズ位置調節データと異なる。したがって、第1の実施の形態におけるカメラが第2の実施の形態におけるカメラでもある場合は、各実施の形態に応じた別々のAFレンズ位置調節データがSDRAMに一時記録され、NDフィルタ1021が挿入されたか否かに応じていずれかのAFレンズ位置調節データが用いられる。こうすることで、図13および図3におけるステップS70のAFレンズの移動方向判定処理およびステップS80の駆動量設定処理を共通化することができる。
 図13は、本実施の形態におけるスルー画表示中の常時AF制御の流れを示すフローチャートである。図13に示す処理は、撮像素子103からスルー画データの入力が開始されると起動するプログラムとして、制御装置104によって実行される。図13に示すフローチャートは、図3に示したフローチャートと比べると、ステップS21において行われる判断処理が加えられている点以外は一致するので、ステップS21およびその前後の処理についてのみ説明する。
 ステップS20で肯定判断した場合には、ステップS21へ進む。
 ステップS21では、制御装置104は、光軸上にNDフィルタ1021が挿入されたか否かを判断する。ステップS21で否定判断した場合には、ステップS10へ戻って処理を繰り返す。これに対して、ステップS21で肯定判断した場合には、上述したように、NDフィルタ1021の挿入によって改めて焦点調節を行う必要がある可能性があると判断して、ステップS30へ進む。
 ステップS60で肯定判断した場合には、ステップS21へ戻って処理を繰り返す。
 ステップS90において、制御装置104は、AFモータ150をステップS70で判定したAF方向に、ステップS80で設定した駆動量だけ駆動させて焦点調節を行って、ステップS21へ戻る。
 以上説明した本発明の第2の実施の形態によれば、第1の実施の形態と同様の作用効果を得ることができる。また、制御装置104は、光軸上にNDフィルタ1021が挿入された場合には、各色成分ごとにエッジを検出し、各色成分ごとのエッジ強度の微分値を算出するようにした。そして、制御装置104は、算出した各色成分ごとのエッジ強度の微分値に基づいて、AFレンズの移動方向、すなわち駆動方向を判定するようにした。これによって、NDフィルタ1021の屈折率によって合焦位置がずれた場合でも、その都度実際にAFレンズをいずれか一方向に移動させてコントラスト検出を行うことなく、合焦位置に向けたAFレンズの移動方向を判定することができるため、処理速度を向上させることができるという作用効果を得ることができる。
―変形例―
 なお、上述した実施の形態のカメラは、以下のように変形することもできる。
(1)上述した実施の形態では、制御装置104は、ステップS40でエッジの傾きが所定レベル以上、例えば0.4以上であるか否かを判断することにより、現在のフレームが撮像された状態が合焦状態に近い状態にあるか否かを判定する例について説明した。しかしながら、ステップS40での判断に用いる閾値(例えば0.4)は、レンズ102のズーム倍率によって変化するため、レンズ102がズーム倍率の変更が可能なズームレンズである場合には、上記閾値をそのズーム倍率ごとに変更する必要がある。例えば望遠レンズの場合はエッジの傾きが常に0.4を下回ることも考えられるため、上記閾値を0.4よりも小さくする必要がある。この場合のズーム倍率に応じた閾値は、あらかじめ算出されてSDRAMに一時記録しておけばよい。
(2)上述した実施の形態では、図10の例において、2つの比が所定値の付近、例えば1付近で一致する場合、または1付近での2つの比の差が所定範囲内となる場合には、合焦状態にあると判断する例について説明した。しかしながら、各色成分のエッジの傾きの比が1となる場合のAFモータ150のパルス数と、合焦位置におけるAFモータ150のパルス数とがずれる可能性があるため、判定に用いる閾値を1とせずにオフセットをとるようにしてもよい。
(3)上述した第1の実施の形態では、カメラ100の制御装置104が図3に示した処理を実行する例について説明した。上述した第2の実施の形態では、カメラ1000の制御装置104が図13に示した処理を実行する例について説明した。しかしながら、焦点調節機能を有する他の機器、例えばビデオカメラ、カメラ本体と交換レンズとからなるカメラシステム、または外部カメラが接続されたパソコン等にも本発明は適用可能である。
 なお、本発明の特徴的な機能を損なわない限り、本発明は、上述した実施の形態における構成に何ら限定されない。また、上述の実施の形態と複数の変形例を組み合わせた構成としてもよい。
 次の優先権基礎出願の開示内容は引用文としてここに組み込まれる。
 日本国特許出願2009年第168991号(2009年7月17日出願)
 日本国特許出願2009年第168992号(2009年7月17日出願)
 日本国特許出願2009年第240206号(2009年10月19日出願)
 日本国特許出願2009年第240207号(2009年10月19日出願)
 

Claims (10)

  1.  フォーカシング用レンズを含む光学系と、
     前記光学系によって形成される被写体の像を撮像し、複数の色成分を含む画像信号を出力する撮像素子と、
     前記画像信号に含まれる前記複数の色成分の各色成分ごとのエッジを検出するエッジ検出部と、
     前記エッジ検出部によって検出された前記各色成分ごとのエッジのエッジ強度の微分値を算出する微分値算出部と、
     前記微分値算出部によって算出された前記微分値に基づいて、前記光学系の焦点調節のために前記フォーカシング用レンズを移動させる移動方向を判定する判定部とを備える焦点調節装置。
  2.  請求項1に記載の焦点調節装置において、
     前記光学系と前記撮像素子との間の光軸上に挿入され、前記光学系から入射される光量を調節するフィルタと、
     前記フィルタを前記光軸上に挿入し、前記光軸上から抜く挿脱部とをさらに備え、
     前記判定部は、前記挿脱部によって前記フィルタが挿入されたとき、前記移動方向を判定する焦点調節装置。
  3.  請求項1または2に記載の焦点調節装置において、
     前記判定部によって判定された前記移動方向に前記フォーカシング用レンズを駆動する駆動部をさらに備える焦点調節装置。
  4.  請求項1~3のいずれか一項に記載の焦点調節装置において、
     前記微分値算出部は、前記エッジ検出部で検出した前記エッジ強度が各色成分の信号値に無関係となるように、前記エッジ強度を正規化してから微分値を算出する焦点調節装置。
  5.  請求項1~4のいずれか一項に記載の焦点調節装置において、
     前記フォーカシング用レンズを前記フォーカシング用レンズの光軸方向に移動させながら前記画像信号のコントラストが最も高くなる前記光軸方向のレンズ位置を特定し、前記特定されたレンズ位置へ前記フォーカシング用レンズを移動することによって前記焦点調節を行う焦点調節部をさらに備え、
     前記判定部は、前記焦点調節部によって前記焦点調節が行われた後に、前記移動方向を判定する焦点調節装置。
  6.  請求項1~5のいずれか一項に記載の焦点調節装置において、
     前記フォーカシング用レンズの光軸方向の各レンズ位置の位置情報と、前記フォーカシング用レンズの前記各レンズ位置における前記エッジ強度の各色成分ごとの微分値情報との対応関係に関する対応関係情報を記憶する記憶部をさらに備え、
     前記判定部は、前記フォーカシング用レンズの現在のレンズ位置における前記各色成分ごとの微分値情報と前記対応関係情報とに基づいて、前記移動方向を判定する焦点調節装置。
  7.  請求項6に記載の焦点調節装置において、
     前記複数の色成分は少なくとも3成分であり、
     前記各色成分ごとの微分値情報は、前記各色成分の前記微分値と、前記3成分のうちの他の色成分の前記微分値との少なくとも2つの比であって、
     前記少なくとも2つの比が一致するとき、前記フォーカシング用レンズは、前記被写体の像を結像する合焦位置に位置する焦点調節装置。
  8.  請求項7に記載の焦点調節装置において、
     前記フォーカシング用レンズの前記各レンズ位置は、前記合焦位置を基準として定められる焦点調節装置。
  9.  請求項7または8に記載の焦点調節装置において、
     前記駆動部によって前記移動方向に前記合焦位置まで前記フォーカシング用レンズが駆動される際の駆動量は、前記対応関係情報に基づいて定められる焦点調節装置。
  10.  請求項1~9のいずれか1項に記載の焦点調節装置を備えるカメラ。
PCT/JP2010/062069 2009-07-17 2010-07-16 焦点調節装置およびカメラ WO2011007869A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US13/384,497 US9131142B2 (en) 2009-07-17 2010-07-16 Focusing device and camera
US14/815,399 US9749518B2 (en) 2009-07-17 2015-07-31 Focusing device and camera
US15/665,822 US10237470B2 (en) 2009-07-17 2017-08-01 Focusing device and camera

Applications Claiming Priority (12)

Application Number Priority Date Filing Date Title
JP2009168991 2009-07-17
JP2009-168992 2009-07-17
JP2009168992 2009-07-17
JP2009-168991 2009-07-17
JP2009-240206 2009-10-19
JP2009240206 2009-10-19
JP2009240207 2009-10-19
JP2009-240207 2009-10-19
JP2010161510A JP5771913B2 (ja) 2009-07-17 2010-07-16 焦点調節装置、およびカメラ
JP2010-161511 2010-07-16
JP2010161511A JP5771914B2 (ja) 2009-07-17 2010-07-16 焦点調節装置、およびカメラ
JP2010-161510 2010-07-16

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US13/384,497 A-371-Of-International US9131142B2 (en) 2009-07-17 2010-07-16 Focusing device and camera
US14/815,399 Continuation US9749518B2 (en) 2009-07-17 2015-07-31 Focusing device and camera

Publications (1)

Publication Number Publication Date
WO2011007869A1 true WO2011007869A1 (ja) 2011-01-20

Family

ID=43449479

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/062069 WO2011007869A1 (ja) 2009-07-17 2010-07-16 焦点調節装置およびカメラ

Country Status (1)

Country Link
WO (1) WO2011007869A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3105918B1 (en) * 2014-02-10 2020-03-25 Raytheon Company Robust autofocus algorithm for multi-spectral imaging systems

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01246516A (ja) * 1988-03-29 1989-10-02 Sony Corp 焦点位置検出装置
JP2002214513A (ja) * 2001-01-16 2002-07-31 Minolta Co Ltd 光学系制御装置、光学系制御方法および記録媒体
JP2004347665A (ja) * 2003-05-20 2004-12-09 Canon Inc 自動合焦装置
JP2005086787A (ja) * 2003-09-11 2005-03-31 Mitsubishi Electric Engineering Co Ltd 撮像装置
JP2007139894A (ja) * 2005-11-15 2007-06-07 Olympus Corp 撮像装置
JP2009092909A (ja) * 2007-10-09 2009-04-30 Panasonic Corp 撮像装置、フォーカス制御方法、プログラムおよび集積回路
JP2009103800A (ja) * 2007-10-22 2009-05-14 Sony Corp オートフォーカス装置および方法、並びにプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01246516A (ja) * 1988-03-29 1989-10-02 Sony Corp 焦点位置検出装置
JP2002214513A (ja) * 2001-01-16 2002-07-31 Minolta Co Ltd 光学系制御装置、光学系制御方法および記録媒体
JP2004347665A (ja) * 2003-05-20 2004-12-09 Canon Inc 自動合焦装置
JP2005086787A (ja) * 2003-09-11 2005-03-31 Mitsubishi Electric Engineering Co Ltd 撮像装置
JP2007139894A (ja) * 2005-11-15 2007-06-07 Olympus Corp 撮像装置
JP2009092909A (ja) * 2007-10-09 2009-04-30 Panasonic Corp 撮像装置、フォーカス制御方法、プログラムおよび集積回路
JP2009103800A (ja) * 2007-10-22 2009-05-14 Sony Corp オートフォーカス装置および方法、並びにプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3105918B1 (en) * 2014-02-10 2020-03-25 Raytheon Company Robust autofocus algorithm for multi-spectral imaging systems

Similar Documents

Publication Publication Date Title
US10237470B2 (en) Focusing device and camera
JP5771913B2 (ja) 焦点調節装置、およびカメラ
JP5052127B2 (ja) 撮像装置及び撮像方法
JP5380784B2 (ja) オートフォーカス装置、撮像装置及びオートフォーカス方法
JP2007108412A (ja) オートフォーカス装置及びそのプログラム
JP3679693B2 (ja) オートフォーカスカメラ
JP6070778B2 (ja) 焦点調節装置、およびカメラ
JP2007086596A (ja) カメラ
JP4543602B2 (ja) カメラ
CN101493567A (zh) 摄像装置、及摄像装置控制方法、以及计算机程序
JP6769434B2 (ja) 表示制御装置、表示制御方法および表示制御プログラム
JP4645413B2 (ja) 撮像装置
JP6432038B2 (ja) 撮像装置
KR101336242B1 (ko) 촬상장치 및 촬상방법
JP2007133301A (ja) オートフォーカスカメラ
JP5124929B2 (ja) 焦点調節装置およびデジタルカメラ
WO2011007869A1 (ja) 焦点調節装置およびカメラ
JP6200240B2 (ja) 撮像装置及びその制御方法、プログラム、記憶媒体
JP5088380B2 (ja) 撮像装置
JP2006243609A (ja) オートフォーカス装置
JP6191131B2 (ja) 撮像装置
KR20100061299A (ko) 촬상 장치 및 촬상 방법
JP5245644B2 (ja) 露出演算装置
JP4663431B2 (ja) 撮像装置及び撮像画像の表示方法
JP2020187376A (ja) 撮像装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10799927

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 13384497

Country of ref document: US

122 Ep: pct application non-entry in european phase

Ref document number: 10799927

Country of ref document: EP

Kind code of ref document: A1