WO2018181163A1 - 画像処理装置、画像処理方法、およびプログラム - Google Patents

画像処理装置、画像処理方法、およびプログラム Download PDF

Info

Publication number
WO2018181163A1
WO2018181163A1 PCT/JP2018/012108 JP2018012108W WO2018181163A1 WO 2018181163 A1 WO2018181163 A1 WO 2018181163A1 JP 2018012108 W JP2018012108 W JP 2018012108W WO 2018181163 A1 WO2018181163 A1 WO 2018181163A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixel
image
phase difference
unit
difference detection
Prior art date
Application number
PCT/JP2018/012108
Other languages
English (en)
French (fr)
Inventor
田中 康一
田中 誠二
小林 誠
智行 河合
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2019509791A priority Critical patent/JP6622945B2/ja
Priority to CN201880020590.0A priority patent/CN110463184B/zh
Publication of WO2018181163A1 publication Critical patent/WO2018181163A1/ja
Priority to US16/563,451 priority patent/US10939058B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/53Control of the integration time
    • H04N25/531Control of the integration time by controlling rolling shutters in CMOS SSIS
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/34Systems for automatic generation of focusing signals using different areas in a pupil plane
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/76Circuitry for compensating brightness variation in the scene by influencing the image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • H04N25/58Control of the dynamic range involving two or more exposures
    • H04N25/581Control of the dynamic range involving two or more exposures acquired simultaneously
    • H04N25/585Control of the dynamic range involving two or more exposures acquired simultaneously with pixels having different sensitivities within the sensor, e.g. fast or slow pixels or pixels having different sizes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/67Noise processing, e.g. detecting, correcting, reducing or removing noise applied to fixed-pattern noise, e.g. non-uniformity of response
    • H04N25/671Noise processing, e.g. detecting, correcting, reducing or removing noise applied to fixed-pattern noise, e.g. non-uniformity of response for non-uniformity detection or correction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/67Noise processing, e.g. detecting, correcting, reducing or removing noise applied to fixed-pattern noise, e.g. non-uniformity of response
    • H04N25/671Noise processing, e.g. detecting, correcting, reducing or removing noise applied to fixed-pattern noise, e.g. non-uniformity of response for non-uniformity detection or correction
    • H04N25/672Noise processing, e.g. detecting, correcting, reducing or removing noise applied to fixed-pattern noise, e.g. non-uniformity of response for non-uniformity detection or correction between adjacent sensors or output registers for reading a single image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • H04N25/704Pixels specially adapted for focusing, e.g. phase difference pixel sets

Definitions

  • the present invention relates to an image processing apparatus, an image processing method, and a program, and more particularly to a technique for interpolating pixel values output from phase difference detection pixels.
  • An imaging apparatus that performs focusing by an image plane phase difference AF (Auto Focus) technique is known.
  • An imaging apparatus that performs focusing using the surface phase difference AF technique includes an imaging element in which phase difference detection pixels are discretely arranged together with normal pixels.
  • the area of the light shielding film opening is smaller than that of a normal pixel in the phase difference detection pixel, when generating an image based on the output value of the phase difference detection pixel, the pixel of the phase difference detection pixel It is necessary to correct the value before use. Therefore, a technique relating to correction of the pixel value of the phase difference detection pixel has been proposed.
  • Patent Document 1 when there is a correction gain value corresponding to a lens ID (identification) included in lens information acquired from a lens device in an imaging device in which the lens device is detachable, all the phase difference detections are used. A method for correcting the pixel output signal by the gain correction processing is selected, and if there is no correction gain value corresponding to the lens ID, a method for correcting the output signals of all the phase difference detection pixels by the interpolation correction processing is selected. It is described that it is done.
  • the interpolation correction processing replaces the output signal (pixel value) of the correction target pixel with a signal generated using the output signal of the imaging pixel that detects the same color as the correction target pixel around the correction target pixel. To correct.
  • Patent Document 2 in an imaging device having a phase difference detection pixel and a normal pixel, the pixel data of the phase difference detection pixel whose gain is adjusted according to the mixing ratio of the pixel data of the phase difference detection pixel is disclosed. A technique for performing correction processing by changing a weighting coefficient is described.
  • Average value interpolation is a method of performing interpolation using a weighted average value of pixel values of a plurality of normal pixels around a phase difference detection pixel to be interpolated.
  • it is necessary to arrange the phase difference detection pixels at a high density.
  • the density of the phase difference detection pixels is increased, normal pixels used for calculating the weighted average value Therefore, the accuracy of average value interpolation is reduced.
  • phase difference detection is possible even for image data from an image sensor in which pixels for phase difference detection are arranged at high density by performing gain interpolation. Interpolation of the pixel value of the working pixel can be realized.
  • Patent Documents 1 and 2 do not mention gain interpolation of pixel values of phase difference detection pixels when generating a display image that requires real-time characteristics.
  • the present invention has been made in view of such circumstances, and an object of the present invention is to provide a pixel of a phase difference detection pixel using a gain value even when generating a display image that requires real-time characteristics.
  • An image processing apparatus, an image processing method, and a program capable of interpolating a gain of a value are provided.
  • an image processing apparatus includes an imaging element in which a plurality of phase difference detection pixels and a plurality of normal pixels are arranged two-dimensionally, and a moving image is being captured.
  • a gain value calculation unit that calculates a gain value to be used for gain interpolation of a pixel value of a phase difference detection pixel of a current frame image based on a past frame image in time series order acquired by a unit, and a gain value
  • a first gain interpolation unit that interpolates the pixel value of the phase difference detection pixel of the current frame image, and the pixel value of the phase difference detection pixel of the current frame image interpolated by the first gain interpolation unit and the normal pixel Based on pixel value
  • a display image generating unit that generates
  • the gain value used for gain interpolation of the pixel value of the phase difference detection pixel of the current frame image is calculated based on the past frame image in time series order, and the calculated gain value is used.
  • the pixel value of the phase difference detection pixel of the current frame image is interpolated.
  • the pixel value of the phase difference detection pixel can be gain-interpolated, so that a display image with good image quality can be generated.
  • the image processing device uses a peripheral pixel value and a peripheral pixel value calculation unit that calculates a peripheral pixel value based on a pixel value of a normal pixel in a peripheral region of the phase difference detection pixel of the current frame image.
  • a peripheral pixel interpolation unit that interpolates the pixel values of the phase difference detection pixels of the current frame image.
  • the peripheral pixel value is calculated based on the pixel value of the normal pixel in the peripheral area of the phase difference detection pixel of the current frame image, and the calculated peripheral pixel value is used to calculate the current frame image.
  • the pixel value of the phase difference detection pixel is interpolated.
  • the image processing apparatus includes an interpolation control unit that controls operations of the first gain interpolation unit and the surrounding pixel interpolation unit, and the interpolation control unit is configured to calculate the gain value when the gain value calculation unit calculates the gain value.
  • the interpolation control unit is configured to calculate the gain value when the gain value calculation unit calculates the gain value.
  • the first gain interpolation unit when the gain value calculation unit calculates the gain value, the first gain interpolation unit performs interpolation.
  • the surrounding pixel interpolation unit performs interpolation. Interpolate. Accordingly, in this aspect, when gain interpolation cannot be performed, peripheral pixel interpolation is performed, so that a display image with good image quality can be stably generated.
  • the display image generation unit does not generate a display image of the current frame image when the gain value calculation unit does not calculate the gain value.
  • the display image of the current frame image in which the gain value is not calculated and the gain interpolation is not performed is not generated.
  • the display image of the current frame image that is not subjected to gain interpolation is not generated in this aspect, and the display image is configured by the frame image that has been subjected to gain interpolation. Can be stably generated.
  • the image processing apparatus calculates an estimated gain value based on a parameter acquisition unit that acquires a gain value estimation parameter that is information for estimating a gain value, and the gain value estimation parameter acquired by the parameter acquisition unit
  • the second gain interpolation unit performs interpolation.
  • the gain value estimation parameter that is information for estimating the gain value is acquired, the estimated gain value is calculated based on the acquired gain value estimation parameter, and the estimated gain value is used to The pixel value of the phase difference detection pixel of the frame image is interpolated.
  • gain interpolation is performed using the estimated gain value. Therefore, the number of frame images to which gain interpolation is performed increases, so that the image quality becomes stable and the display is not uncomfortable. An image can be generated.
  • the display image generation unit does not generate a display image of the current frame image when the parameter acquisition unit has not acquired the gain value estimation parameter.
  • the display image of the current frame image is not generated. Therefore, since the frame image in which the gain value estimation parameter cannot be acquired and the gain correction is not performed is not displayed in this aspect, the image quality of the display image is stable, and the display image without any sense of incongruity can be provided.
  • the gain value estimation parameter acquired by the parameter acquisition unit includes information related to a shape of a lens pupil through which a light beam received by the image sensor passes, and information related to incident light angle characteristics between the phase difference detection pixel and the normal pixel. Including at least one.
  • the gain value estimation parameter acquired by the parameter acquisition unit relates to the information regarding the shape of the lens pupil through which the light beam received by the image sensor passes, and the incident light angle characteristic between the phase difference detection pixel and the normal pixel. At least one of the information is included.
  • this aspect can estimate a gain value correctly and can provide a higher quality image.
  • the image processing apparatus includes an imaging condition acquisition unit that acquires information regarding imaging conditions regarding the current frame image and the past frame image, and the interpolation control unit includes information on imaging conditions in the current frame image and the past frame image. If the change amount is equal to or greater than the threshold value, the neighboring pixel interpolation unit is caused to perform interpolation.
  • this aspect information regarding the imaging condition is acquired for the current frame and the past frame, and when the amount of change in the information regarding the acquired imaging condition is equal to or greater than the threshold, interpolation is performed by the peripheral pixel interpolation unit.
  • this mode has a large difference between the imaging conditions of the past frame and the imaging conditions of the current frame, and if the gain value calculated based on the past frame is applied to the interpolation of the current frame, the image quality is reduced. Can be prevented.
  • the gain value calculation unit calculates the gain value by calculating a signal ratio between the phase difference detection pixels and the normal pixels of the plurality of past frame images.
  • the gain value is calculated based on the signal ratio between the phase difference detection pixels and the normal pixels of a plurality of past frame images, the display quality is more continuous and stable and there is no sense of incongruity. An image can be generated.
  • the image sensor is a rolling shutter system or a global shutter system.
  • the image sensor is a rolling shutter system or a global shutter system
  • appropriate interpolation can be performed on the pixel values of the phase difference detection pixels output from the image sensors of various systems. .
  • the image processing apparatus includes a display unit that displays the display image generated by the display image generation unit.
  • the user since the display image generated by the display image generation unit is displayed on the display unit, the user is provided with an image in which the pixels of the phase difference detection pixels having real-time properties are appropriately interpolated. be able to.
  • an image processing method in which a plurality of phase differences are detected from an image sensor during imaging of a moving image by an image sensor in which a plurality of phase difference detection pixels and a plurality of normal pixels are two-dimensionally arranged.
  • a frame image having a pixel value of a detection pixel and pixel values of a plurality of normal pixels the step of sequentially acquiring each frame image in time series order of a moving image, and based on the acquired past frame image in time series order
  • the gain value is used to interpolate the pixel value of the phase difference detection pixel of the current frame image, and the surrounding pixel value is used to calculate the current frame image.
  • the gain value is calculated, the first gain interpolating unit is interpolated and the gain value is If it is not calculated, a step of interpolating the surrounding pixel interpolation unit is included.
  • a program for causing a computer to execute an image processing process is to capture an image while capturing a moving image by an image sensor in which a plurality of phase difference detection pixels and a plurality of normal pixels are two-dimensionally arranged.
  • the method comprising, executing the image processing step on a computer that contains a.
  • a gain value used for gain interpolation of a pixel value of a phase difference detection pixel of a current frame image is calculated based on a past frame image in time series order, and the calculated gain value is used. Since the pixel value of the phase difference detection pixel of the current frame image is interpolated, the pixel value of the phase difference detection pixel can be gain-interpolated even when generating a display image that requires real-time properties, A display image with good image quality can be generated.
  • FIG. 1 is a perspective view illustrating an example of an imaging apparatus.
  • FIG. 2 is a rear view of the image pickup apparatus shown in FIG.
  • FIG. 3 is a block diagram illustrating an example of an internal configuration of the imaging apparatus illustrated in FIG.
  • FIG. 4 is a diagram showing a color filter array of the image sensor.
  • FIG. 5 is a plan view schematically showing a pair of first phase difference detection pixels ZA and second phase difference detection pixels ZB.
  • FIG. 6 is an enlarged view of a main part showing the configuration of the first phase difference detection pixel ZA and the second phase difference detection pixel ZB.
  • FIG. 7 is a block diagram illustrating a functional configuration example of the image processing apparatus.
  • FIG. 8 is a diagram showing each frame in time series order.
  • FIG. 9 is a block diagram illustrating a functional configuration example of the image processing apparatus.
  • FIG. 10 is a sequence diagram of image display from exposure.
  • FIG. 11 is a diagram illustrating a display operation flow of the image processing apparatus.
  • FIG. 12 is a sequence diagram of image display from exposure.
  • FIG. 13 is a diagram illustrating a display operation flow of the image processing apparatus.
  • FIG. 14 is a block diagram illustrating a functional configuration example of the image processing apparatus.
  • FIG. 15 is a diagram illustrating a display operation flow of the image processing apparatus.
  • FIG. 16 is a diagram illustrating a display operation flow of the image processing apparatus.
  • FIG. 17 is a block diagram illustrating a functional configuration example of the image processing apparatus.
  • FIG. 18 is a diagram illustrating a display operation flow of the image processing apparatus.
  • FIG. 19 is a sequence diagram of image display from exposure.
  • FIG. 20 is a diagram illustrating an appearance of a smartphone that is an embodiment of an imaging apparatus.
  • the imaging device 10 is a digital camera that receives light passing through a lens with an imaging device, converts the light into a digital signal, and records it on a recording medium as image data of a still image or a moving image.
  • the imaging device 10 has a photographing lens 12, a strobe 1 and the like on the front, and a shutter button 2, a power source and / or mode switch 3, a mode dial 4 and the like on the top. Yes.
  • a liquid crystal monitor (LCD: Liquid Crystal Display) 30, a zoom button 5, a cross button 6, a MENU and / or OK button 7, a playback button 8, a BACK button 9, and the like are provided on the back of the camera. It is arranged.
  • LCD Liquid Crystal Display
  • the photographing lens 12 is constituted by a retractable zoom lens, and is extended from the camera body by setting the operation mode of the camera to the photographing mode by the power source and / or the mode switch 3.
  • the strobe 1 irradiates a main subject with strobe light.
  • the shutter button 2 is composed of a so-called “half-pressed” and “full-pressed” two-stroke switch, and functions as an imaging preparation instructing unit and an image recording instructing unit.
  • the imaging apparatus 10 When the still image shooting mode is selected as the shooting mode and the shutter button 2 is “half-pressed”, the imaging apparatus 10 performs a shooting preparation operation for performing AF and / or AE (Auto-Exposure) control. When “fully pressed”, a still image is captured and recorded.
  • AF and / or AE Auto-Exposure
  • the imaging apparatus 10 starts recording the moving image, and when the shutter button 2 is “fully pressed” again, the recording is performed. Stops and enters standby mode.
  • the power supply and / or mode switch 3 has both a function as a power switch for turning on or off the power supply of the image pickup apparatus 10 and a function as a mode switch for setting the mode of the image pickup apparatus 10. It is slidably disposed between the “reproduction position” and the “photographing position”. The image pickup apparatus 10 is turned on by sliding the power supply and / or the mode switch 3 to the “reproduction position” or the “photographing position”, and turned off by adjusting the “OFF position”. Become. Then, the power and / or mode switch 3 is slid and set to “playback position” to set “playback mode”, and to “shooting position” to set to “shooting mode”.
  • the mode dial 4 functions as a mode switching unit for setting the shooting mode of the imaging device 10, and the shooting mode of the imaging device 10 is set to various modes depending on the setting position of the mode dial 4. For example, there are “still image shooting mode” in which still image shooting is performed, “moving image shooting mode” in which moving image shooting is performed, and the like.
  • the liquid crystal monitor 30 displays a live view image, a preview image, a postview image in the shooting mode, a still image or a moving image in the playback mode, and displays a menu screen. It functions as a part.
  • the zoom button 5 functions as zoom instruction means for instructing zooming, and includes a tele button 5T for instructing zooming to the telephoto side and a wide button 5W for instructing zooming to the wide angle side.
  • the focal length of the photographic lens 12 is changed by operating the tele button 5T and the wide button 5W in the photographing mode. Further, when the tele button 5T and the wide button 5W are operated in the reproduction mode, the image being reproduced is enlarged or reduced.
  • the cross button 6 is an operation unit for inputting instructions in four directions, up, down, left, and right, and is a button (cursor moving operation means) for selecting an item from a menu screen or instructing selection of various setting items from each menu.
  • the left and right keys function as frame advance (forward and reverse) buttons in the playback mode.
  • the MENU / OK button 7 is an operation having both a function as a menu button for instructing to display a menu on the screen of the liquid crystal monitor 30 and a function as an OK button for instructing confirmation and execution of selection contents. Button.
  • the playback button 8 is a button for switching to a playback mode in which a captured still image or moving image is displayed on the liquid crystal monitor 30.
  • the BACK button 9 functions as a button for instructing to cancel the input operation or return to the previous operation state.
  • buttons and switches are not provided with specific members, but a touch panel is provided and the functions of the buttons and switches are realized by operating the touch panel. Also good.
  • FIG. 3 is a block diagram showing an embodiment of the internal configuration of the imaging apparatus 10.
  • the imaging device 10 records a captured image on a memory card 54, and the operation of the entire device is centrally controlled by a central processing unit (CPU: Central Processing Unit) 40.
  • CPU Central Processing Unit
  • the imaging device 10 has operations such as a shutter button 2, a power and / or mode switch 3, a mode dial 4, a tele button 5T, a wide button 5W, a cross button 6, a MENU / OK button 7, a playback button 8, a BACK button 9, and the like.
  • a portion 38 is provided.
  • a signal from the operation unit 38 is input to the CPU 40, and the CPU 40 controls each circuit of the image pickup apparatus 10 based on the input signal. For example, drive control of the image pickup device 16, lens drive control, aperture drive control, and shooting operation control. Image processing control, image data recording and / or reproduction control, and display control of the liquid crystal monitor 30 are performed.
  • the luminous flux that has passed through the photographing lens 12, the diaphragm 14, the mechanical shutter (mechanical shutter) 15 and the like forms an image on the image sensor 16 that is a CMOS (Complementary Metal-Oxide Semiconductor) type color image sensor.
  • the image sensor 16 is not limited to the CMOS type, but may be an XY address type or a CCD (Charge-Coupled Device) type color image sensor.
  • the image sensor 16 has a large number of light receiving elements (photodiodes) arranged in a two-dimensional array, and a subject image formed on the light receiving surface of each photodiode is an amount of signal voltage (or charge) corresponding to the amount of incident light. Is converted into a digital signal via an A / D (Analog / Digital) converter in the image sensor 16 and output.
  • a / D Analog / Digital
  • the image sensor 16 has a color filter with a first periodic color array exemplified below on a plurality of pixels composed of photoelectric conversion elements (photodiodes) arrayed two-dimensionally in the horizontal and vertical directions. It is arranged.
  • the imaging element 16 includes a plurality of phase difference detection pixels and a plurality of normal pixels for imaging (pixels other than the phase difference detection pixels).
  • the phase difference detection pixel has a pupil division opening, and the first phase difference detection pixel ZA and the second phase difference detection are different in position of the opening in the horizontal direction.
  • the pair of first phase difference detection pixels ZA and second phase difference detection pixels ZB are arranged adjacent to each other with their openings facing each other. The details of the structure of the first phase difference detection pixel ZA and the second phase difference detection pixel ZB will be described later.
  • FIG. 4 is a diagram showing the arrangement of the color filter array and phase difference detection pixels of the image sensor 16.
  • the plurality of normal pixels of the image sensor 16 include a first filter corresponding to the first color (green) and a plurality corresponding to each of two or more colors (red and blue) other than green. Any one of the second filters is arranged in the first periodic color arrangement.
  • the first periodic color array of the color filters of the image sensor 16 of the first embodiment is a general Bayer array.
  • the first filter is a G filter that transmits light in the green wavelength band
  • the plurality of second filters are an R filter that transmits light in the red wavelength band and light in the blue wavelength band. B filter to transmit.
  • a normal pixel row in which only normal pixels are arranged in the horizontal direction (row direction) includes a pixel having an R filter (R pixel) and a pixel having a G filter (G pixel).
  • R pixel an R filter
  • G pixel a pixel having a G filter
  • the RG rows and GB rows are alternately arranged in the vertical direction (column direction).
  • a G filter is disposed in each of the first phase difference detection pixel ZA and the second phase difference detection pixel ZB in this example.
  • the first phase difference detection pixel ZA and the second phase difference detection pixel ZB can be incident, for example, with a light having a wavelength range wider than the transmission wavelength range of the G filter without disposing the G filter. You may do it.
  • phase difference detection pixel rows in which the first phase difference detection pixels ZA and the second phase difference detection pixels ZB and the normal pixels of the image sensor 16 are periodically arranged in the row direction are arranged in a plurality of rows of GB. Only normal pixel rows are arranged in at least two rows adjacent to the phase difference detection pixel row.
  • phase difference detection pixel row of this example is periodically arranged with a pair of first phase difference detection pixel ZA and second phase difference detection pixel ZB and one normal pixel as one cycle. Has been. Therefore, in the pixel row for phase difference detection, the G pixel and the B pixel are alternately arranged every two pixels (a pair of first phase difference detection pixel ZA and second phase difference detection pixel ZB) in the row direction. Has been placed.
  • the pixel row for phase difference detection of this example is provided in the GB row of the Bayer array, the present invention is not limited thereto, and may be provided in the RG row.
  • the image size of one frame image (frame image) constituting a moving image may be smaller than that of a full pixel still image. That is, in the moving image shooting mode, the image pickup device 16 is thinned and thereby enables low power and high speed processing. Also, when performing live view display, the image size may be reduced. Note that the image data corresponding to the frame image in this description includes the pixel value of the phase difference detection pixel.
  • FIG. 5 is a plan view schematically showing a pair of first phase difference detection pixels ZA and second phase difference detection pixels ZB.
  • the first phase difference detection pixel ZA has an opening in the right half of the pixel
  • the second phase difference detection pixel ZB has an opening in the left half of the pixel. Yes. That is, the pair of first phase difference detection pixels ZA and the second phase difference detection pixels ZB have openings facing each other.
  • FIG. 6 is an enlarged view of a main part showing the configuration of the first phase difference detection pixel ZA and the second phase difference detection pixel ZB.
  • a light shielding member 16A is disposed on the front side (microlens L side) of the photodiode PD of the first phase difference detection pixel ZA, while the second phase difference detection pixel ZB.
  • a light blocking member 16B is disposed on the front side of the photodiode PD.
  • the microlens L and the light shielding members 16A and 16B have a pupil division function, and in FIG. 6, the light shielding member 16A shields the left half of the light receiving surface of the photodiode PD. Therefore, only the light beam that passes through the left side of the optical axis among the light beams that pass through the exit pupil of the photographing lens 12 is received by the first phase difference detection pixel ZA.
  • a G filter is disposed below the microlens L as the color filter CF.
  • the light shielding member 16B shields the right half of the light receiving surface of the photodiode PD of the second phase difference detection pixel ZB. Therefore, only the light beam that passes through the right side of the optical axis among the light beams that pass through the exit pupil of the photographing lens 12 is received by the second phase difference detection pixel ZB. As described above, the light beam passing through the exit pupil is divided into left and right by the microlens L having the pupil division function and the light shielding members 16A and 16B, and the first phase difference detection pixel ZA and the second phase difference detection pixel, respectively. Incident on the pixel ZB.
  • the image signal (image data) read from the image sensor 16 at the time of shooting a moving image or a still image is temporarily stored in a memory (SDRAM (Synchronous Dynamic Random Access Memory)) 48 via the image input controller 22. Or stored in the AF processing unit 42, the AE detection unit 44, or the like.
  • SDRAM Serial Dynamic Random Access Memory
  • the CPU 40 performs overall control of each unit of the imaging apparatus 10 based on an operation on the operation unit 38, but always performs AF operation and AE operation during live view image shooting (display) and moving image shooting (recording). Do.
  • the AF processing unit 42 that functions as a phase difference detection unit is a part that performs phase difference AF processing, and includes a first phase difference detection pixel ZA and a second phase difference detection pixel that are acquired via the image input controller 22. A phase difference is detected using each output signal of the pixel ZB.
  • the CPU 40 When the phase difference data indicating the phase difference is input from the AF processing unit 42, the CPU 40 functions as a focus adjustment unit that performs phase difference AF based on the phase difference data. That is, the CPU 40 calculates a deviation amount (defocus amount) between the focus position of the photographing lens 12 and the imaging surface of the image sensor 16 based on the phase difference data, and the lens so that the calculated defocus amount becomes zero.
  • the focus lens in the photographic lens 12 is moved via the drive unit 36.
  • the calculation of the defocus amount may be performed by the AF processing unit 42.
  • the AE detection unit 44 integrates image data acquired through the image input controller 22 (for example, pixel values of G pixels of the entire screen), or image data having different weights in the central portion and the peripheral portion of the screen. (The pixel value of the G pixel) is integrated, and the integrated value is output to the CPU 40. The CPU 40 calculates the brightness of the subject (imaging Ev value (exposure value)) from the integrated value input from the AE detection unit 44.
  • the shooting mode is the still image shooting mode
  • the CPU 40 performs the above-described AF control again, and if the shutter button 2 is fully pressed,
  • the brightness of the subject (shooting Ev value) is calculated, and based on the calculated shooting Ev value, the F value of the aperture 14 and the exposure time (shutter speed) by the mechanical shutter 15 are determined according to the program diagram, and still image shooting ( (Exposure control).
  • the shooting mode is the moving image shooting mode
  • the CPU 40 starts shooting and recording (recording) of the moving image.
  • the mechanical shutter 15 is opened, and image data is continuously read from the image sensor 16 (for example, frame rates of 30 frames / second and 60 frames / second), and phase difference AF is continuously performed.
  • the brightness of the subject is calculated, and the shutter drive unit 33 controls the shutter speed (charge accumulation time by the rolling shutter) and / or the aperture 14 by the aperture drive unit 34.
  • the CPU 40 moves the zoom lens forward and backward in the optical axis direction via the lens driving unit 36 in accordance with the zoom command from the zoom button 5 to change the focal length.
  • the ROM 47 is a ROM (Read Only Memory) that stores various parameters and tables used for camera control programs, defect information of the image sensor 16, image processing, etc., or EEPROM (Electrically Erasable Programmable Read-Only Memory). It is.
  • the image processing unit 24 reads out unprocessed image data (RAW data) acquired through the image input controller 22 when a moving image or a still image is captured and temporarily stored in the memory 48.
  • the image processing unit 24 performs offset processing, pixel interpolation processing (interpolation processing of phase difference detection pixels, scratched pixels, etc.), white balance correction, gain control processing including sensitivity correction, gamma correction processing on the read RAW data, Synchronization processing (also referred to as “demosaic processing”), luminance and color difference signal generation processing, contour enhancement processing, color correction, and the like are performed.
  • VRAM Video RAM Random Access memory
  • the VRAM 50 includes an A area and a B area for recording image data each representing an image for one frame.
  • image data representing an image for one frame is rewritten alternately in the A area and the B area.
  • the written image data is read from the area other than the area where the image data is rewritten.
  • the image data read from the VRAM 50 is encoded by the video encoder 28 and output to the liquid crystal monitor 30 provided on the back of the camera.
  • the image data processed by the image processing unit 24 and processed as a still image or moving image for recording (luminance data (Y) and color difference data (Cb), (Cr)) is stored in the memory 48 again.
  • luminance data (Y) and color difference data (Cb), (Cr) is stored in the memory 48 again.
  • the compression / decompression processing unit 26 performs compression processing on the luminance data (Y) and the color difference data (Cb), (Cr) processed by the image processing unit 24 and stored in the memory 48 when recording a still image or a moving image. Apply. In the case of a still image, the image is compressed in, for example, JPEG (Joint Photographic coding Experts Group) format.
  • JPEG Joint Photographic coding Experts Group
  • the compression / decompression processing unit 26 performs decompression processing on the compressed image data obtained from the memory card 54 via the media controller 52 in the playback mode.
  • the media controller 52 performs recording and reading of compressed image data with respect to the memory card 54.
  • the CPU 40 functioning as an autofocus control unit outputs a read command for reading out image data of a phase difference detection pixel row in at least the AF area of the image sensor 16 to the sensor drive unit 32, and the image sensor. 16 corresponding image data is read out.
  • the CPU 40 When capturing and displaying a moving image (including a live view image), the CPU 40 acquires a thinning rate for thinning out and reading out image data from the image sensor 16.
  • This thinning rate may be a fixed value set in advance, or may be selected by the user from a plurality of thinning rates. For example, an optimum thinning rate can be set in conjunction with the selection of the image size of the moving image or the selection of the frame rate. It should be noted that the phase difference detection pixel rows are included in the rows to be thinned and read out.
  • the CPU 40 outputs a read command indicating a thinning pattern (extraction pattern) corresponding to the thinning rate to the sensor driving unit 32, and reads out the image data from the image sensor 16.
  • the AF processing unit 42 outputs data of phase difference detection pixels (first phase difference detection pixel ZA and second phase difference detection pixel ZB) in the AF area from the read phase difference detection pixel row. And the phase difference between the output data of the first phase difference detection pixel ZA and the output data of the second phase difference detection pixel ZB is detected. For example, the output data of the first phase difference detection pixel ZA of the pair of first phase difference detection pixels ZA and the output data of the second phase difference detection pixel ZB of the second phase difference detection pixel ZB Output data of the first phase difference detection pixel ZA and the second position when the correlation between the first and second phase difference detection pixels is maximized (when the integrated value of the absolute differences of the pixel values of the pair of phase difference detection pixels is minimized). The phase difference is obtained from the shift amount in the left-right direction with respect to the output data of the phase difference detection pixel ZB.
  • phase difference calculation method is not limited to the above-described method, and various methods can be applied.
  • the CPU 40 calculates a deviation amount (defocus amount) between the focus position by the photographing lens 12 (imaging optical system) and the imaging surface of the imaging element 16 based on the phase difference data detected by the AF processing unit 42. To do.
  • the calculation of the defocus amount may be performed by the AF processing unit 42.
  • the CPU 40 moves the focus lens in the photographing lens 12 through the lens driving unit 36 so that the defocus amount becomes zero based on the calculated defocus amount, thereby performing phase difference AF.
  • the pair of first phase difference detection pixels ZA and the second phase difference detection pixels ZB are disposed adjacent to each other with their openings facing each other.
  • the interval between the pixel ZA and the second phase difference detection pixel ZB is minimum.
  • phase difference detection pixels having the phase difference detection pixels are included in the row that is thinned out and read from the image sensor 16 when the moving image is generated. Lines can be included, and phase difference AF can be appropriately performed even during moving image shooting.
  • FIG. 7 is a block diagram illustrating a functional configuration example of the image processing apparatus 60 of the present embodiment. Note that the image processing device 60 is provided in the imaging device 10.
  • the image processing apparatus 60 of this embodiment includes a sensor 61, an interface 63, a memory 48, a gain value calculation unit 67, a phase difference pixel interpolation unit 69, a display image generation unit 73, and a display unit 75.
  • the sensor 61 is realized by the image sensor 16, and the image sensor 16 has a plurality of phase difference detection pixels and a plurality of normal pixels arranged two-dimensionally as described above.
  • the interface 63 functions as an image acquisition unit and is realized by the image input controller 22.
  • the interface 63 is a frame image having pixel values of a plurality of phase difference detection pixels and pixel values of a plurality of normal pixels from the image sensor 16 during moving image capturing, and sequentially processes each frame image in time series order of the moving image. get.
  • the interface 63 can place (store) the pixel data output from the sensor 61 in the memory 48, and can also pass the pixel data to a subsequent circuit without the memory 48. Also, pixel data placed in the memory 48 can be read and sent to a subsequent circuit.
  • FIG. 8 is a diagram conceptually showing each frame of the moving image input to the interface 63 in time series order.
  • the frame image input to the interface 63 continues in sequence with the first frame 201, the second frame 202, and the third frame 203.
  • the second frame 202 becomes the current frame and the first frame 201 becomes the past frame.
  • the third frame 203 becomes the current frame and the second frame 202 becomes the past frame.
  • the first frame 201 becomes the current frame, but since the first frame 201 becomes the first frame, there is no past frame. It will be.
  • the memory 48 is composed of SDRAM as described above.
  • the gain value calculation unit 67 calculates a gain value used for gain interpolation of the pixel value of the phase difference detection pixel of the current frame image based on the past frame image in time series order acquired by the image acquisition unit.
  • the gain value changes according to the image height (position in the screen). Therefore, for example, the gain value calculation unit 67 divides the frame image plane into K ⁇ L areas and calculates the gain value in each area. For convenience, a plurality of gain values for one frame is referred to as a gain value set.
  • the gain value calculating unit 67 calculates the gain value only in the immediately preceding frame (past frame)
  • the gain value set calculated in the immediately preceding frame (past frame) by the gain value calculating unit 67 is used as it is in the current frame. Used for.
  • the gain value calculation unit 67 may calculate the signal value between the phase difference detection pixels and the normal pixels in a plurality of past frame images, and may calculate the gain value.
  • the gain value calculation unit 67 averages the N sets of gain values calculated for each of the past N frames for each area and uses them for the current frame.
  • the frame number is k (current frame is 0, 1, 2, 3,... As going back), the coordinates of the area for calculating the gain value are (x, y), and the (x , Y) is defined as G (k, x, y). Since the gain values in the same area are averaged over the past N frames, the gain value set G ′ (x, y) applied to the current frame is calculated as follows.
  • a weight w (k) for each frame is prepared.
  • w (k) is 0 for frames not used for averaging and 1 for frames used for averaging. For example, if the aperture F1 at the current frame exposure differs from the aperture F2 at the kth past frame exposure by a predetermined amount or more, the kth w (k) is set to zero.
  • the gain value calculation unit 67 calculates the gain value by analyzing the RAW data. Specifically, the RAW data is divided into K ⁇ L areas, and in each area, an average value Gave of G pixels and an average value Pave of phase difference detection pixels are calculated, and a gain value is calculated as Gave / Pave. At this time, when the area is blacked out, Gave and Pave become extremely small values, and the gain value cannot be calculated with high accuracy. Also, the gain value cannot be calculated accurately even when the area is saturated. Therefore, it is preferable not to use the gain value in such an area for the averaging shown in the above (Expression 1) and (Expression 2).
  • the phase difference pixel interpolation unit 69 is realized by the image processing unit 24 and includes a first gain interpolation unit 71.
  • the first gain interpolation unit 71 uses the gain value calculated by the gain value calculation unit 67 to interpolate the pixel value of the phase difference detection pixel of the current frame image. That is, the first gain interpolation unit 71 multiplies the pixel value of the phase difference detection pixel by the gain value calculated by the gain value calculation unit 67 so as to compensate for the sensitivity decrease of the phase difference detection pixel. Interpolation is performed to match the normal pixel and signal level.
  • the display image generation unit 73 is realized by the image processing unit 24, and based on the pixel value of the phase difference detection pixel and the pixel value of the normal pixel of the current frame image interpolated by the first gain interpolation unit 71. A frame image display image is generated. That is, the display image generation unit 73 generates a display image for the current frame in which the pixel values of the phase difference detection pixels are interpolated.
  • the display unit 75 displays the display image generated by the display image generation unit 73.
  • the display unit 75 displays a display image on the liquid crystal monitor 30.
  • the display unit 75 displays a live view image, a preview image, or a postview image on the liquid crystal monitor 30.
  • peripheral pixel interpolation is performed on the pixel value of the phase difference detection pixel based on the peripheral pixel value together with gain interpolation.
  • FIG. 9 is a block diagram illustrating a functional configuration example of the image processing apparatus 60 of the present embodiment.
  • the part already demonstrated in FIG. 7 attaches
  • the peripheral pixel value calculation unit 77 is realized by the CPU 40 and calculates the peripheral pixel value based on the pixel value of the normal pixel in the peripheral region of the phase difference detection pixel of the current frame image. For example, the peripheral pixel value calculation unit 77 calculates the peripheral pixel value by performing a weighted average of the pixel values of the peripheral pixels of the target pixel (phase difference detection pixel) to be interpolated.
  • the peripheral pixels are appropriately determined according to the accuracy of interpolation and imaging conditions.
  • the peripheral pixels are normal pixels in the range of 3 ⁇ 3, 5 ⁇ 5, and 7 ⁇ 7 with the pixel of interest at the center. .
  • the peripheral pixel value calculation unit 77 can calculate the peripheral pixel value by a known method other than the weighted average.
  • the phase difference pixel interpolation unit 69 includes a first gain interpolation unit 71, an interpolation control unit 79, and a surrounding pixel interpolation unit 81.
  • the peripheral pixel interpolation unit 81 uses the peripheral pixel value to interpolate the pixel value of the phase difference detection pixel in the current frame image. That is, the peripheral pixel interpolation unit 81 sets the peripheral pixel value obtained by weighted averaging the pixel values of the normal pixels around the target pixel (phase difference detection pixel) as the pixel value of the target pixel. Interpolate pixel values.
  • the interpolation control unit 79 controls the operations of the first gain interpolation unit 71 and the surrounding pixel interpolation unit 81. For example, the interpolation control unit 79 causes the first gain interpolation unit 71 to perform interpolation when the gain value calculation unit 67 calculates a gain value, and when the gain value calculation unit 67 does not calculate a gain value, The pixel interpolation unit 81 performs interpolation.
  • Display example 1 Next, a display example of the display image on the liquid crystal monitor 30 in the second embodiment will be described.
  • the pixel value of the phase difference detection pixel used in the first frame is interpolated only by peripheral pixel interpolation.
  • FIG. 10 is a sequence diagram in which the gain value calculation timing is added to the sequence diagram of the live view image display from the exposure to the image sensor 16.
  • FIG. 10 shows (A) VD synchronization signal, (B) exposure and readout, (C) live view image generation processing, (D) gain value calculation, and (E) display sequence on the liquid crystal monitor 30, respectively. Has been.
  • the imaging device 16 of the rolling shutter system After the exposure, in accordance with a VD (Vertical Driving) synchronization signal (FIG. 10A), pixel data including the pixel value of each line is sequentially transferred to an ASIC (Application specific integrated circuit) (FIG. 10B). "Read").
  • the ASIC includes an interface 63, a gain value calculation unit 67, a peripheral pixel value calculation unit 77, a phase difference pixel interpolation unit 69 (an interpolation control unit 79, a first gain interpolation unit 71, and a peripheral pixel interpolation unit 81), a display.
  • the image generating unit 73 has a function.
  • the ASIC processes the pixel data received from the sensor 61 and generates a live view image.
  • the ASIC processing includes interpolation of pixel values of phase difference detection pixels performed by the phase difference pixel interpolation unit 69 and other processing performed by the display image generation unit 73 (FIG. 10C).
  • the other processing refers to general signal processing used for live view image generation, such as demosaicing, noise reduction, and edge enhancement.
  • the ASIC interpolation control unit 79 causes the peripheral pixel interpolation unit 81 to interpolate the pixel values of the phase difference detection pixels.
  • a gain value is calculated based on the read pixel value (FIG. 10D). Since the calculated gain value is not in time for the display of the current frame image on the liquid crystal monitor 30, it is used for interpolation processing of the next frame image.
  • the phase pixel density is high, the accuracy of peripheral pixel interpolation is reduced, and therefore it is preferable to actively perform interpolation using gain interpolation.
  • the phase difference detection pixels with respect to the current frame image after calculating the gain value.
  • the time required for gain value calculation becomes a problem. That is, when gain value is calculated and gain interpolation is performed, it is difficult to ensure real-time performance of live view display. Therefore, in the present invention, when the live view display is started and the display image of the first frame is generated, if there is no appropriate gain value, the pixel value of the phase difference detection pixel only by the peripheral pixel interpolation. Is interpolated to generate a display image.
  • the present invention In addition to the live view display that is displayed when the power is turned on, the present invention outputs a line that includes pixels for phase difference detection during live view display immediately after switching from the playback mode to the shooting mode.
  • the present invention can also be applied to a live view display after switching from the drive mode not to the drive mode to the drive mode in which the line is an output target.
  • FIG. 11 is a diagram illustrating a display operation flow of the live view image of the image processing apparatus 60.
  • a live view display start instruction is output (step S101). For example, at the same time when the power switch and / or the mode switch 3 of the imaging device 10 is turned on, a live view display start instruction is output from the CPU 40.
  • live view display is started after the camera is activated or after taking a still image, photometry is performed to determine the exposure amount of the live view display (initial photometry) (step S102).
  • the photometry result at the time of still image shooting immediately before starting the live view display can be used as an alternative to the first photometry.
  • exposure parameters aperture, ISO sensitivity, shutter speed, sensor frame rate during live view
  • exposure is performed with a VD synchronization signal (for each frame).
  • pixel data is read out (step S104). Note that photometry is performed by a photometric sensor provided in the imaging apparatus 10, exposure parameters are set by the CPU 40, and reading is performed by the interface 63.
  • Photometry is performed using the acquired pixel data (step S105), and the exposure parameters for the next frame are determined by the CPU 40 (step S106). Furthermore, the gain value for gain interpolation is calculated by the gain value calculation unit 67 using the pixel data (step S107).
  • step S108 whether or not the current frame is the first frame is determined by the interpolation control unit 79 (step S108). If the current frame is the first frame, that is, the gain value calculation unit 67 calculates the gain value. If not, peripheral pixel interpolation is performed by the peripheral pixel interpolation unit 81 by the interpolation control unit 79, and the phase difference detection pixels are interpolated only by the peripheral pixel interpolation (step S109).
  • the interpolation control unit 79 sets the phase difference detection pixel in the peripheral pixel interpolation unit 81 or gain interpolation. Interpolation is performed (step S110).
  • the phase difference detection pixels are interpolated in consideration of the imaging state and the state of the frame image, and the interpolation control unit 79 causes only the first gain interpolation unit 71 to perform interpolation,
  • the gain interpolation unit 71 and the peripheral pixel interpolation unit 81 may perform interpolation.
  • the interpolation control unit 79 controls the operations of the first gain interpolation unit 71 and the peripheral pixel interpolation 81 according to the frequency component of the frame image and / or according to the degree of focusing.
  • a live view image is generated by the display image generation unit 73 (step S111), and a display image on the liquid crystal monitor 30 or EVF (Electric viewfinder) is displayed (step S112).
  • the CPU 40 determines whether or not to continue the live view display (step S113).
  • the exposure parameter is set by the calculated exposure parameter.
  • the process ends.
  • the hardware structure of a processing unit (processing unit) that executes various processes is the following various processors.
  • the circuit configuration can be changed after manufacturing a CPU (Central Processing Unit) or FPGA (Field Programmable Gate Array) that is a general-purpose processor that functions as various processing units by executing software (programs).
  • a CPU Central Processing Unit
  • FPGA Field Programmable Gate Array
  • dedicated logic circuits such as programmable logic devices (Programmable Logic Devices: PLDs) and ASICs (Application Specific Specific Integrated Circuits) that have specially designed circuit configurations to execute specific processing. It is.
  • One processing unit may be configured by one of these various processors, or may be configured by two or more processors of the same type or different types (for example, a plurality of FPGAs or a combination of CPU and FPGA). May be. Further, the plurality of processing units may be configured by one processor. As an example of configuring a plurality of processing units with one processor, first, as represented by a computer such as a client or server, one processor is configured with a combination of one or more CPUs and software. There is a form in which the processor functions as a plurality of processing units.
  • SoC system-on-chip
  • a form of using a processor that realizes the functions of the entire system including a plurality of processing units with a single IC (integrated circuit) chip. is there.
  • various processing units are configured using one or more of the various processors as a hardware structure.
  • circuitry circuitry in which circuit elements such as semiconductor elements are combined.
  • Display example 2 Next, a display example of a live view image on the liquid crystal monitor 30 in the first embodiment and the second embodiment will be described. In the display example 2, since the gain value is not calculated for the first frame image and gain interpolation cannot be performed, the first frame image is not displayed.
  • FIG. 12 is a sequence diagram in which the gain value calculation timing is added to the sequence diagram of the live view image display from the exposure to the image sensor 16 as in FIG.
  • the sequence diagram of FIG. 11 is different from the sequence diagram of FIG. 9 in that the first frame is not displayed on the liquid crystal monitor 30.
  • the pixel data received from the sensor 61 is processed, and the gain value calculation unit 67 calculates the gain value (FIG. 10D).
  • the interpolation by the peripheral pixel interpolation unit 81 and the display image generation unit 73 do not generate the display image of the first frame.
  • the interpolation is performed based on the gain value calculated by the gain value calculation unit 87, and the live view image corresponding to the liquid crystal monitor 30 is displayed.
  • FIG. 13 is a diagram showing a display operation flow of the image processing apparatus 60.
  • a live view display start instruction is output by the CPU 40 (step S201). Thereafter, initial photometry is performed (step S202), and exposure parameters are set (step S203). Photometry is performed by a photometric sensor provided in the imaging apparatus 10, and exposure parameters are set by the CPU 40.
  • step S204 exposure is performed based on the set exposure parameters, and pixel values are read from the exposed pixels by the interface 63 (step S204), photometry is performed by the photometric sensor (step S205), and for the next frame.
  • the exposure parameter is determined by the CPU 40 (step S206), and the signal ratio between the phase difference detection pixel for the next frame and the normal pixel is calculated by the gain value calculation unit 87 (step S207).
  • the interpolation control unit 79 determines whether or not the current frame is the first frame (step S208). If the current frame is not the first frame, that is, the gain value calculation unit 67 calculates the gain value. If so, the interpolation control unit 79 interpolates the phase difference detection pixels by the peripheral pixel interpolation unit 81 or the gain interpolation (step S209).
  • a live view image is generated by the display image generation unit 73 (step S210), and a display image on the liquid crystal monitor 30 or the EVF is displayed (step S211).
  • the display image generation unit 73 when the current frame is the first frame by the interpolation control unit 79, that is, when the gain value calculation unit 67 has not calculated the gain value, the display image generation unit 73 generates the display image. Is not done. That is, the first frame is not displayed on the liquid crystal monitor 30.
  • the CPU 40 determines whether or not to continue the live view display (step S212).
  • the exposure parameter is set by the calculated exposure parameter.
  • the process ends.
  • FIG. 14 is a block diagram illustrating a functional configuration example of the image processing apparatus 60 of the present embodiment.
  • the part already demonstrated in FIG. 7 attaches
  • the image processing apparatus 60 includes a sensor 61, an interface 63, a memory 48, a gain value calculation unit 67, a phase difference pixel interpolation unit 69, a display image generation unit 73, a display unit 75, a surrounding pixel value calculation unit 77, A parameter acquisition unit 85 and an estimated gain value calculation unit 87 are provided.
  • the parameter acquisition unit 85 acquires a gain value estimation parameter that is realized by the CPU 40 and is information for estimating the gain value. For example, when the imaging apparatus 10 is an interchangeable lens camera, the parameter acquisition unit 85 performs communication between the lens side and the body side, and gain value parameters for estimating lens characteristics and gain values from the lens side. To get.
  • the gain value estimation parameter acquired by the parameter acquisition unit 85 is at least the information related to the shape of the lens pupil through which the light beam received by the image sensor 16 passes and the information related to the incident light angle characteristic between the phase difference detection pixel and the normal pixel. Including one.
  • the gain value is greatly affected by the lens pupil shape, and the lens pupil shape changes depending on the F value, the focus lens position, and the like.
  • an F value indicating the state of the diaphragm 14 or a focus lens position can be mentioned.
  • the estimated gain value calculation unit 87 calculates an estimated gain value based on the gain value estimation parameter acquired by the parameter acquisition unit 85. For example, the estimated gain value calculation unit 87 calculates the estimated gain value based on the incident light beam angle characteristics of the lens pupil shape, the phase difference detection pixel, and the normal pixel.
  • the second gain interpolation unit 83 interpolates the pixel value of the phase difference detection pixel of the current frame image using the estimated gain value. That is, the interpolation control unit 79 causes the second gain interpolation unit 83 to perform interpolation when the estimated gain value calculation unit 87 calculates the estimated gain value. Thereby, even when the gain value calculation unit 67 does not calculate the gain value as in the first frame, the pixel value of the phase difference detection pixel is gain-interpolated based on the estimated gain value.
  • Display example 3 Next, a display example of a live view image on the liquid crystal monitor 30 in the third embodiment will be described.
  • display example 3 as in display example 1, the pixel values of the phase difference detection pixels used in the first frame are interpolated only by peripheral pixel interpolation.
  • FIG. 15 is a flowchart showing the display operation of the display example 3 of the image processing apparatus 60 according to the third embodiment.
  • an instruction to start live view display is output by the CPU 40 (step S301). Thereafter, initial photometry is performed (step S302), and exposure parameters are set (step S303). Photometry is performed by a photometric sensor provided in the imaging apparatus 10, and exposure parameters are set by the CPU 40.
  • step S304 exposure is performed based on the set exposure parameters, and pixel values are read from the exposed pixels by the interface 63 (step S304), photometry is performed (step S305), and exposure parameters for the next frame are detected. Is determined by the CPU 40 (step S306), and the gain value calculation unit 87 calculates the gain value of the phase difference detection pixel for the next frame and the normal pixel (step S307).
  • step S308 it is determined by the interpolation control unit 79 whether or not the current frame is the first frame. If the current frame is not the first frame, that is, the gain value calculation unit 67 calculates the gain value. If YES in step S309, the parameter acquisition unit 85 determines whether lens communication is possible.
  • the interpolation control unit 79 causes the peripheral pixel interpolation unit 81 to interpolate the pixel value of the phase difference detection pixel (step S310), and the display image generation unit 73 generates a display image. (Step S311).
  • the estimated gain value calculation unit A gain value is calculated based on the gain value estimation parameter acquired in 87 (step S315).
  • the interpolation control unit 79 causes the second gain interpolation unit 83 or the surrounding pixel interpolation unit 81 to correct the pixel value of the phase detection pixel (step S316), and causes the display image generation unit 73 to generate a display image. (Step S311).
  • the generated display image is displayed on the liquid crystal monitor 30 or the EVF by the display unit 75 (step S312).
  • the CPU 40 determines whether or not to continue the live view display (step S313).
  • the exposure parameter is set by the calculated exposure parameter.
  • the process ends.
  • Display example 4 Next, a display example of a live view image on the liquid crystal monitor 30 according to the third embodiment will be described. In display example 4, since the gain value is not calculated for the lens first frame image and gain interpolation cannot be performed, the first frame image is not displayed.
  • the parameters necessary for estimating the gain value are displayed on the lens side. If it is not stored, the estimated gain value calculation unit 87 cannot calculate the estimated gain value. In such a case, the first frame image is not displayed. That is, the display image generation unit 73 generates a display image of only the current frame image when the parameter acquisition unit 85 has not acquired the gain value estimation parameter.
  • FIG. 16 is a flowchart showing the display operation of the display example 4 of the image processing apparatus 60 of the third embodiment.
  • an instruction to start live view display is output by the CPU 40 (step S401). Thereafter, initial photometry is performed (step S402), and exposure parameters are set (step S403). Photometry is performed by a photometric sensor provided in the imaging apparatus 10, and exposure parameters are set by the CPU 40.
  • step S404 exposure is performed based on the set exposure parameters, pixel values are read from the exposed pixels by the interface 63 (step S404), photometry is performed (step S405), and exposure parameters for the next frame are detected. Is determined by the CPU 40 (step S406), and the gain values of the phase difference detection pixels for the next frame and the normal pixels are calculated by the gain value calculation unit 87 (step S407).
  • the interpolation control unit 79 determines whether or not the current frame is the first frame (step S408). If the current frame is not the first frame, that is, the gain value calculation unit 67 calculates the gain value. If YES, the parameter acquisition unit 85 determines whether lens communication is possible (step S409).
  • the display image corresponding to the first frame is not generated.
  • the estimated gain value calculation unit A gain value is calculated based on the gain value estimation parameter acquired in 87 (step S411).
  • the interpolation control unit 79 causes the second gain interpolation unit 83 or the peripheral pixel interpolation unit 81 to interpolate the pixel value of the phase detection pixel (step S412), and causes the display image generation unit 73 to generate a display image. (Step S413).
  • the generated display image is displayed on the liquid crystal monitor 30 or the EVF by the display unit 75 (step S414).
  • the CPU 40 determines whether or not to continue the live view display (step S415).
  • the exposure parameter is set by the calculated exposure parameter.
  • the process ends.
  • FIG. 17 is a block diagram illustrating a functional configuration example of the image processing apparatus 60 according to the present embodiment.
  • the part already demonstrated in FIG. 7 attaches
  • the image processing apparatus 60 includes a sensor 61, an interface 63, a memory 48, a gain value calculation unit 67, a phase difference pixel interpolation unit 69, a display image generation unit 73, a display unit 75, a surrounding pixel value calculation unit 77,
  • the parameter acquisition unit 85, the estimated gain value calculation unit 87, and the imaging condition acquisition unit 89 are configured.
  • the imaging condition acquisition unit 89 is realized by the CPU 40, and acquires information regarding imaging conditions regarding the current frame image and the past frame image. For example, the imaging condition acquisition unit 89 acquires information related to the diaphragm 14 of the optical system through which the light beam received by the imaging element 16 has passed.
  • the interpolation control unit 79 causes the peripheral pixel interpolation unit 81 to perform interpolation when the amount of change in the information regarding the imaging condition is equal to or greater than the threshold in the current frame image and the past frame image.
  • the interpolation control unit 79 performs control as follows. When the F value changes greatly between the past frame image and the current frame image for exposure tracking, gain interpolation using the gain value of the past frame should not be performed. In such a case, it is desirable to perform phase difference pixel interpolation only by surrounding pixel interpolation. Therefore, the interpolation control unit 79, for example, has a predetermined threshold th that is calculated based on the pupil diameter r1 at the past frame exposure and the pupil diameter r2 at the current frame exposure. In this case, it is determined that the change in the pupil shape is large, and the peripheral pixel interpolation unit 81 performs interpolation.
  • FIG. 18 is a flowchart illustrating the display operation of the display example 5 of the image processing apparatus 60 according to the fourth embodiment.
  • an instruction to start live view display is output by the CPU 40 (step S501). Thereafter, initial photometry is performed (step S502), and exposure parameters are set (step S503). Photometry is performed by a photometric sensor provided in the imaging apparatus 10, and exposure parameters are set by the CPU 40.
  • step S504 exposure is performed based on the set exposure parameters, and pixel values are read from the exposed pixels by the interface 63 (step S504), photometry is performed (step S505), and exposure parameters for the next frame are obtained. Is determined by the CPU 40 (step S506), and the gain value calculation unit 87 calculates the gain value of the phase difference detection pixel for the next frame and the normal pixel (step S507).
  • step S508 it is determined by the interpolation control unit 79 whether or not the current frame is the first frame. If the current frame is not the first frame, that is, the gain value calculation unit 67 calculates the gain value. If there is, information regarding the imaging conditions of the current frame image and the past frame image is acquired by the imaging condition acquisition unit 89, and it is determined by the interpolation control unit 79 whether or not the conversion amount is larger than the threshold (step S516). When the amount of change is equal to or greater than the threshold value, the gain value calculated based on the past frame image cannot be used for gain interpolation of the current frame, so the parameter acquisition unit 85 determines whether lens communication is possible. (Step S509). On the other hand, when the amount of change is less than or equal to the threshold value, the gain value calculated based on the past frame image can be used for gain interpolation of the current frame, and therefore interpolation is performed using the calculated gain value.
  • the interpolation control unit 79 causes the peripheral pixel interpolation unit 81 to interpolate the pixel value of the phase difference detection pixel (step S510), and the display image generation unit 73 generates a display image. (Step S511).
  • the generated display image is displayed on the liquid crystal monitor 30 or the EVF by the display unit 75 (step S512).
  • the CPU 40 determines whether or not to continue the live view display (step S513).
  • the exposure parameter is set by the calculated exposure parameter.
  • the process ends.
  • the estimated gain value calculation unit A gain value is calculated based on the gain value estimation parameter acquired in 87 (step S515).
  • the interpolation control unit 79 causes the second gain interpolation unit 83 or the peripheral pixel interpolation unit 81 to interpolate the pixel value of the phase detection pixel (step S517), and causes the display image generation unit 73 to generate a display image. (Step S511).
  • FIG. 19 is a sequence diagram in which the timing of gain value calculation is added to the sequence diagram of image display from exposure to the image sensor 16, as in FIG. 9.
  • the sequence diagram of FIG. 19 is different from the sequence diagram of FIG. 9 in that pixel values are read out by the global shutter method.
  • the pixel values of the phase difference detection pixels are sequentially interpolated from the pixel values of the line for which reading has been completed and other processing is performed, and the first frame image is detected by the peripheral pixel interpolation unit 81, for example. Interpolation of pixel values of the pixels for use is performed (FIG. 19D). Further, the gain value is calculated by the gain value calculation unit 67, but the calculated gain value is used in the next frame image (FIG. 19E).
  • the pixel data read timing and the next exposure timing overlap. That is, exposure and reading are performed in parallel.
  • all pixels have an accumulation unit (not shown) for accumulating signals accumulated in the photodiodes, in addition to the photodiodes in which charges are accumulated during exposure.
  • the signals stored in all the photodiodes are transferred to the storage unit.
  • the signals in the storage unit are sequentially read and transferred to the ASIC. Therefore, when the signal is transferred to the storage unit, the photodiode is in an empty state, so that the next exposure can be started.
  • FIG. 20 is a diagram illustrating an appearance of a smartphone that is an embodiment of the imaging apparatus 10.
  • a smartphone 100 illustrated in FIG. 20 includes a flat housing 102, and a display panel 121 as a display unit and an operation panel 122 as an input unit are integrally formed on one surface of the housing 102.
  • a display input unit 120 is provided.
  • the housing 102 includes a speaker 131, a microphone 132, an operation unit 140, and a camera unit 141 (imaging unit). Note that the configuration of the housing 102 is not limited to this, and for example, a configuration in which a display unit and an input unit are provided independently, or a configuration having a folding structure and a slide mechanism can be employed.
  • FIG. 21 is a block diagram showing an internal configuration of the smartphone 100 shown in FIG.
  • the main components of the smartphone 100 include a wireless communication unit 110, a display input unit 120, a call unit 130, an operation unit 140, a camera unit 141, a storage unit 150, and an external input / output.
  • Unit 160 output unit
  • GPS global positioning system
  • receiving unit 170 GPS (global positioning system) receiving unit 170
  • motion sensor unit 180 motion sensor unit 180
  • power supply unit 190 power supply unit 190
  • main control unit 101 main control unit 101.
  • a wireless communication function for performing mobile wireless communication via a base station device and a mobile communication network is provided.
  • the wireless communication unit 110 performs wireless communication with a base station device connected to the mobile communication network in accordance with an instruction from the main control unit 101.
  • the wireless communication is used to transmit and receive various file data such as audio data and image data, e-mail data, and receive web data and streaming data.
  • the display input unit 120 is a so-called touch panel including an operation panel 122 disposed on the screen of the display panel 121, and displays images (still images and moving images), character information, and the like under the control of the main control unit 101. Then, information is visually transmitted to the user, and a user operation on the displayed information is detected.
  • the operation panel 122 is also referred to as a touch panel for convenience.
  • the display panel 121 uses an LCD (Liquid Crystal Display) or an OELD (Organic Electro-Luminescence Display) as a display device.
  • the operation panel 122 is a device that is provided in a state where an image displayed on the display surface of the display panel 121 is visible and detects one or more coordinates operated by a user's finger or stylus. When the device is operated by the user's finger or stylus, the operation panel 122 outputs a detection signal generated due to the operation to the main control unit 101. Next, the main control unit 101 detects an operation position (coordinates) on the display panel 121 based on the received detection signal.
  • the display panel 121 and the operation panel 122 of the smartphone 100 illustrated as an example constitute the display input unit 120 so that the operation panel 122 completely covers the display panel 121.
  • the operation panel 122 may have a function of detecting a user operation even in an area outside the display panel 121.
  • the operation panel 122 has a detection area (hereinafter referred to as “display area”) that overlaps the display panel 121 and a detection area (hereinafter referred to as “non-display area”) that does not overlap the other display panel 121. Display area ”).
  • the operation panel 122 may be provided with two sensitive areas of an outer edge part and the other inner part. Further, the width of the outer edge portion is appropriately designed according to the size of the housing 102 and the like. Furthermore, examples of the position detection method employed in the operation panel 122 include a matrix switch method, a resistance film method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, and a capacitance method. It may be adopted.
  • the call unit 130 includes a speaker 131 and a microphone 132, converts user's voice input through the microphone 132 into voice data that can be processed by the main control unit 101, and outputs the voice data to the main control unit 101. 110 or the audio data received by the external input / output unit 160 is decoded and output from the speaker 131.
  • the speaker 131 and the microphone 132 can be mounted on the same surface as the surface on which the display input unit 120 is provided.
  • the operation unit 140 is a hardware key using a key switch or the like, and receives an instruction from the user.
  • the operation unit 140 is mounted on the side surface of the housing 102 of the smartphone 100 and is switched on when pressed with a finger or the like, and is switched off by a restoring force such as a spring when the finger is released. It is a push button type switch that is in a state.
  • the storage unit 150 includes control programs and control data of the main control unit 101, address data that associates names and telephone numbers of communication partners, transmitted and received e-mail data, web data downloaded by web browsing, and downloaded content Data and the like are stored, and streaming data and the like are temporarily stored.
  • the storage unit 150 includes an internal storage unit 151 built in the smartphone and an external storage unit 152 having a removable external memory slot.
  • Each of the internal storage unit 151 and the external storage unit 152 constituting the storage unit 150 is a flash memory type, a hard disk type, a multimedia card micro type, a card type memory, a RAM (Random Access Memory), a ROM, or the like. This is realized using a storage medium.
  • the external input / output unit 160 serves as an interface with all external devices connected to the smartphone 100, and includes communication (for example, USB (Universal Serial Bus), IEEE 1394) or a network (for example, a wireless LAN (Local Area). Network), Bluetooth (registered trademark), RFID (Radio Frequency Identification), Infrared Data Association (IrDA), UWB (Ultra Wideband) (registered trademark), ZigBee (registered trademark), etc. Connect directly or indirectly to other external devices.
  • communication for example, USB (Universal Serial Bus), IEEE 1394) or a network (for example, a wireless LAN (Local Area). Network), Bluetooth (registered trademark), RFID (Radio Frequency Identification), Infrared Data Association (IrDA), UWB (Ultra Wideband) (registered trademark), ZigBee (registered trademark), etc.
  • IrDA Infrared Data Association
  • UWB Ultra Wideband
  • ZigBee registered trademark
  • an external device connected to the smartphone 100 for example, a wired / wireless headset, a wired / wireless external charger, a wired / wireless data port, a memory card connected via a card socket, a SIM (Subscriber) Identity Module Card) / UIM User Identity Module Card, external audio video equipment connected via audio video I / O (Input / Output) terminal, external audio video equipment wired / wirelessly connected, smartphone, personal There are computers, PDAs (Personal Digital Assistants), and earphones.
  • the external input / output unit 160 is configured to transmit data received from such an external device to each component inside the smartphone 100, or to transmit data inside the smartphone 100 to the external device. May be.
  • the GPS receiving unit 170 receives GPS signals transmitted from the GPS satellites ST1 and ST2 to STn in accordance with instructions from the main control unit 101, executes positioning calculation processing based on the plurality of received GPS signals, and Position information (GPS information) specified by latitude, longitude and altitude is acquired.
  • Position information GPS information
  • the GPS receiving unit 170 can acquire position information from the wireless communication unit 110 and / or the external input / output unit 160 (for example, a wireless LAN), the GPS receiving unit 170 can also detect the position using the position information.
  • the motion sensor unit 180 includes, for example, a three-axis acceleration sensor and detects the physical movement of the smartphone 100 in accordance with an instruction from the main control unit 101. By detecting the physical movement of the smartphone 100, the moving direction and acceleration of the smartphone 100 are detected. The detection result is output to the main control unit 101.
  • the power supply unit 190 supplies power stored in a battery (not shown) to each unit of the smartphone 100 in accordance with an instruction from the main control unit 101.
  • the main control unit 101 includes a microprocessor, operates according to a control program and control data stored in the storage unit 150, and controls each unit of the smartphone 100 in an integrated manner. Further, the main control unit 101 includes a mobile communication control function for controlling each unit of the communication system and an application processing function in order to perform voice communication and data communication through the wireless communication unit 110.
  • the application processing function is realized by the main control unit 101 operating according to application software stored in the storage unit 150.
  • Application processing functions include, for example, an infrared communication function for performing data communication with the opposite device by controlling the external input / output unit 160, an e-mail function for transmitting and receiving e-mails, and a web browsing function for browsing web pages.
  • an image processing function according to the present invention.
  • the main control unit 101 also has an image processing function such as displaying video on the display input unit 120 based on image data (still image or moving image data) such as received data or downloaded streaming data.
  • the image processing function includes image processing performed by the image processing unit 24 shown in FIG.
  • the main control unit 101 executes display control for the display panel 121 and operation detection control for detecting a user operation through the operation unit 140 or the operation panel 122.
  • the main control unit 101 By executing the display control, the main control unit 101 displays an icon for starting application software, a software key such as a scroll bar, or a window for creating an e-mail.
  • a software key such as a scroll bar, or a window for creating an e-mail.
  • the scroll bar refers to a software key for accepting an instruction to move the display portion of a large image that does not fit in the display area of the display panel 121.
  • the main control unit 101 detects a user operation through the operation unit 140, or accepts an operation on the icon or an input of a character string in the input field of the window through the operation panel 122. Or a display image scroll request through a scroll bar.
  • the main control unit 101 causes the operation position with respect to the operation panel 122 to correspond to an overlapping portion (display area) overlapping the display panel 121 or to be an outer edge portion not overlapping the other display panel 121.
  • a touch panel control function is provided for determining whether it corresponds to (non-display area) and controlling the sensitive area of the operation panel 122 and the display position of the software key.
  • the main control unit 101 can also detect a gesture operation on the operation panel 122 and execute a preset function according to the detected gesture operation.
  • Gesture operation is not a conventional simple touch operation, but an operation of drawing a trajectory with at least one position from a plurality of positions by drawing a trajectory with a finger or the like, or specifying a plurality of positions simultaneously. means.
  • the camera unit 141 converts image data obtained by imaging into compressed image data such as JPEG (Joint Photographic Experts Group), and records the image data in the storage unit 150.
  • the data can be output through the external input / output unit 160 or the wireless communication unit 110.
  • the camera unit 141 is mounted on the same surface as the display input unit 120.
  • the mounting position of the camera unit 141 is not limited to this, and the housing 102 in which the display input unit 120 is provided.
  • the camera unit 141 may be mounted not on the front surface of the housing 102 but on the back surface of the housing 102, or a plurality of camera units 141 may be mounted on the housing 102. Note that when a plurality of camera units 141 are mounted, the camera unit 141 used for imaging may be switched and imaging may be performed by a single camera unit 141, or a plurality of camera units 141 may be used simultaneously. Imaging may be performed.
  • the camera unit 141 can be used for various functions of the smartphone 100.
  • an image acquired by the camera unit 141 may be displayed on the display panel 121, or an image captured and acquired by the camera unit 141 may be used as one of the operation input methods of the operation panel 122.
  • the GPS receiving unit 170 detects the position, the position may be detected by referring to an image from the camera unit 141.
  • the image from the camera unit 141 is referred to, and the optical axis direction of the camera unit 141 of the smartphone 100 is determined without using the triaxial acceleration sensor or in combination with the triaxial acceleration sensor. It is also possible to determine the current usage environment.
  • the image from the camera unit 141 can also be used in the application software.
  • the position information acquired by the GPS receiving unit 170, the voice information acquired by the microphone 132 (the text information may be converted into voice information by the main control unit or the like), and the motion sensor unit 180 Data obtained by adding the acquired posture information and the like to still image or moving image data can be recorded in the storage unit 150 or output through the external input / output unit 160 or the wireless communication unit 110. .

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Studio Devices (AREA)
  • Automatic Focus Adjustment (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

本発明は、リアルタイム性が求められる表示用画像の生成を行う場合であっても、ゲイン値を使用して位相差検出用画素の画素値のゲインを補間することができる画像処理装置、画像処理方法、およびプログラムを提供することを目的とする。画像処理装置(60)は、動画の時系列順の各フレーム画像を順次取得して、取得した時系列順の過去フレーム画像に基づいて、現在フレーム画像の位相差検出用画素の画素値のゲイン補間に使用するゲイン値を算出する。そして画像処理装置(60)は、ゲイン値を使用して、現在フレーム画像の位相差検出用画素の画素値を補間する。

Description

画像処理装置、画像処理方法、およびプログラム
 本発明は、画像処理装置、画像処理方法、およびプログラムに関し、特に位相差検出用画素から出力された画素値の補間を行う技術に関する。
 従来より、像面位相差AF(Auto focus)技術により合焦を行う撮像装置が知られている。面位相差AF技術により合焦を行う撮像装置には、通常画素と共に位相差検出用画素が離散的に配列された撮像素子が備えられている。
 位相差検出用画素は、遮光膜開口の面積が通常の画素よりも小さくなっているため、位相差検出用画素の出力値に基づいて画像を生成する場合には、位相差検出用画素の画素値を補正して使用する必要がある。そこで、位相差検出用画素の画素値の補正に関する技術が提案されている。
 例えば特許文献1には、レンズ装置が着脱可能な撮像装置において、レンズ装置から取得するレンズ情報に含まれるレンズID(identification)に対応する補正ゲイン値がある場合には、全ての位相差検出用画素の出力信号をゲイン補正処理により補正する方法が選択され、レンズIDに対応する補正ゲイン値がない場合には、全ての位相差検出用画素の出力信号を補間補正処理により補正する方法が選択されることが記載されている。ここで補間補正処理とは、補正対象画素の出力信号(画素値)を、補正対象画素の周囲にある補正対象画素と同一色を検出する撮像用画素の出力信号を用いて生成した信号に置き換えて補正することである。
 また例えば特許文献2には、位相差検出用画素と通常画素とを有する撮像素子において、位相差検出用画素の画素データの混入率に応じて、ゲイン調整された位相差検出画素の画素データの重み付け係数を変化させて補正処理を行う技術が記載されている。
特開2016-76998号公報 特開2014-180000号公報
 ここで、位相差検出用画素の画素値を補間する代表的な方法として、平均値補間(周辺画素補間)およびゲイン補間がある。
 平均値補間は、補間を行う位相差検出用画素の周辺にある複数の通常画素の画素値の加重平均値を使用して補間を行う方法である。位相差検出の精度向上のためには、位相差検出用画素を高密度に配置する必要があるが、一方で位相差検出用画素の密度を増やしてしまうと加重平均値の算出で用いる通常画素の数が減ってしまうため、平均値補間の精度が低下してしまう。
 ゲイン補間は、位相差検出用画素の画素値にゲイン値をかけて周囲の通常画素の画素値と信号レベルを合わせる補間方法である。位相差検出用画素の画素値は像高、F値、デフォーカス量等に依存して変動するため、予め高精度にゲイン値を算出しておくことは困難であり、実際に補正をかけるRAWデータを解析し、位相差検出用画素と通常画素の信号比(=ゲイン値)を算出する必要がある。しかし、被写体を撮像した後に直ぐに撮像画像を表示する必要がある(リアルタイム性が求められる)動画等のライブビューの表示用画像の生成においては、ゲイン値を算出する時間的な余裕がない。
 リアルタイム性が求められる表示用画像を生成する場合においても、ゲイン補間が行えることにより、位相差検出用画素が高密度に配置された撮像素子からの画像データに対しても精度の高い位相差検出用画素の画素値の補間を実現することができる。
 特許文献1および2には、リアルタイム性が求められる表示用画像を生成する場合における、位相差検出用画素の画素値のゲイン補間については言及されていない。
 本発明はこのような事情に鑑みてなされたもので、その目的は、リアルタイム性が求められる表示用画像の生成を行う場合であっても、ゲイン値を使用して位相差検出用画素の画素値のゲインを補間することができる画像処理装置、画像処理方法、およびプログラムを提供することである。
 上記目的を達成するために、本発明の一の態様である画像処理装置は、二次元的に複数の位相差検出用画素と複数の通常画素とが配置された撮像素子と、動画の撮像中に撮像素子から複数の位相差検出用画素の画素値および複数の通常画素の画素値を有するフレーム画像であって、動画の時系列順の各フレーム画像を順次取得する画像取得部と、画像取得部により取得した時系列順の過去フレーム画像に基づいて、現在フレーム画像の位相差検出用画素の画素値のゲイン補間に使用するゲイン値を算出するゲイン値算出部と、ゲイン値を使用して、現在フレーム画像の位相差検出用画素の画素値を補間する第1のゲイン補間部と、第1のゲイン補間部で補間された現在フレーム画像の位相差検出用画素の画素値および通常画素の画素値に基づいて、現在フレーム画像の表示用画像を生成する表示用画像生成部と、を備える。
 本態様によれば、時系列順の過去フレーム画像に基づいて、現在フレーム画像の位相差検出用画素の画素値のゲイン補間に使用するゲイン値が算出され、その算出されたゲイン値を使用して、現在フレーム画像の位相差検出用画素の画素値が補間される。これにより本態様は、リアルタイム性が求められる表示用画像を生成する場合においても位相差検出用画素の画素値をゲイン補間することができるので、良好な画質の表示用画像を生成することができる。
 好ましくは、画像処理装置は、現在フレーム画像の位相差検出用画素の周辺領域にある通常画素の画素値に基づいて周辺画素値を算出する周辺画素値算出部と、周辺画素値を使用して、現在フレーム画像の位相差検出用画素の画素値の補間をする周辺画素補間部と、を備える。
 本態様によれば、現在フレーム画像の位相差検出用画素の周辺領域にある通常画素の画素値に基づいて周辺画素値が算出され、算出された周辺画素値を使用して、現在フレーム画像の位相差検出用画素の画素値が補間される。これにより本態様は、現在フレームの位相差検出用画素の画素値に対して、ゲイン補間だけでなく周辺画素補間も行うことができるので、良好な画質の表示用画像を生成することができる。
 好ましくは、画像処理装置は、第1のゲイン補間部と周辺画素補間部との動作を制御する補間制御部と、を備え、補間制御部は、ゲイン値算出部がゲイン値を算出した場合には第1のゲイン補間部に補間をさせ、ゲイン値算出部がゲイン値を算出していない場合には周辺画素補間部に補間をさせる。
 本態様によれば、ゲイン値算出部がゲイン値を算出した場合には第1のゲイン補間部に補間をさせ、ゲイン値算出部がゲイン値を算出していない場合には周辺画素補間部に補間をさせる。これにより本態様は、ゲイン補間ができない場合には、周辺画素補間が行われるので、良好な画質の表示用画像を安定的に生成することができる。
 好ましくは、表示用画像生成部は、ゲイン値算出部がゲイン値を算出しない場合には、現在フレーム画像の表示用画像を生成しない。
 本態様によれば、ゲイン値が算出されずゲイン補間がされない現在フレーム画像の表示用画像は生成されない。これにより本態様は、ゲイン補間が行われない現在フレーム画像の表示用画像が生成されず、ゲイン補間がされたフレーム画像で表示用画像が構成されることになるので、違和感のない良質な画像を安定的に生成することができる。
 好ましくは、画像処理装置は、ゲイン値を推定するための情報であるゲイン値推定パラメータを取得するパラメータ取得部と、パラメータ取得部で取得されたゲイン値推定パラメータに基づいて、推定ゲイン値を算出する推定ゲイン値算出部と、推定ゲイン値を使用して、現在フレーム画像の位相差検出用画素の画素値を補間する第2のゲイン補間部と、を備え、補間制御部は、推定ゲイン値算出部が推定ゲイン値を算出した場合には、第2のゲイン補間部に補間をさせる。
 本態様によれば、ゲイン値を推定するための情報であるゲイン値推定パラメータが取得され、取得されたゲイン値推定パラメータに基づいて推定ゲイン値が算出され、推定ゲイン値を使用して、現在フレーム画像の位相差検出用画素の画素値が補間される。これにより本態様は、ゲイン値が算出されない場合であっても推定された推定ゲイン値によりゲイン補間が行われるので、ゲイン補間をされるフレーム画像が増えることにより安定的な画質となり違和感のない表示用画像を生成することができる。
 好ましくは、表示用画像生成部は、パラメータ取得部がゲイン値推定パラメータを取得していない場合には、現在フレーム画像の表示用画像は生成しない。
 本態様によれば、ゲイン値推定パラメータが取得されていない場合には、現在フレーム画像の表示用画像が生成されない。これにより本態様は、ゲイン値推定パラメータが取得できずにゲイン補正が行われないフレーム画像は表示されないので、表示用画像の画質が安定的となり違和感のない表示用画像を提供することができる。
 好ましくは、パラメータ取得部が取得するゲイン値推定パラメータは、撮像素子が受光する光束が通過するレンズ瞳の形状に関する情報、および位相差検出用画素と通常画素との入射光線角度特性に関する情報のうち少なくとも一方を含む。
 本態様によれば、パラメータ取得部が取得するゲイン値推定パラメータは、撮像素子が受光する光束が通過するレンズ瞳の形状に関する情報、および位相差検出用画素と通常画素との入射光線角度特性に関する情報のうち少なくとも一方を含む。これにより本態様は、ゲイン値を正確に推定することができ、より良質な画像を提供することができる。
 好ましくは、画像処理装置は、現在フレーム画像および過去フレーム画像に関して、撮像条件に関する情報を取得する撮像条件取得部を備え、補間制御部は、現在フレーム画像および過去フレーム画像において、撮像条件に関する情報の変化量が閾値以上である場合には、周辺画素補間部に補間をさせる。
 本態様によれば、現在フレームおよび過去フレームに関して、撮像条件に関する情報が取得され、取得された撮像条件に関する情報の変化量が閾値以上である場合には、周辺画素補間部により補間が行われる。これにより本態様は、過去フレームの撮像条件と現在フレームの撮像条件との違いが大きく、過去フレームに基づいて算出されたゲイン値を現在フレームの補間に適用してしまうと画質をかえって低下させてしまうことを防ぐことができる。
 好ましくは、ゲイン値算出部は、複数の過去フレーム画像の位相差検出用画素と通常画素との信号比を算出することによりゲイン値を算出する。
 本態様によれば、複数の過去フレーム画像の位相差検出用画素と通常画素との信号比に基づいてゲイン値が算出されるので、より連続性がある安定的な画質の違和感のない表示用画像を生成することができる。
 好ましくは、撮像素子は、ローリングシャッタ方式またはグローバルシャッタ方式である。
 本態様によれば、撮像素子はローリングシャッタ方式またはグローバルシャッタ方式であるので、様々な方式の撮像素子から出力される位相差検出用画素の画素値に対して、適切な補間を行うことができる。
 好ましくは、画像処理装置は、表示用画像生成部で生成された表示用画像を表示する表示部を備える。
 本態様によれば、表示部に表示用画像生成部で生成された表示用画像が表示されるので、ユーザにリアルタイム性がある位相差検出用画素の画素が適切に補間された画像を提供することができる。
 本発明の他の態様である画像処理方法は、二次元的に複数の位相差検出用画素と複数の通常画素とが配置された撮像素子により、動画の撮像中に撮像素子から複数の位相差検出用画素の画素値および複数の通常画素の画素値を有するフレーム画像であって、動画の時系列順の各フレーム画像を順次取得するステップと、取得した時系列順の過去フレーム画像に基づいて、現在フレーム画像の位相差検出用画素の画素値のゲイン補間に使用するゲイン値を算出するステップと、ゲイン値を使用して、現在フレーム画像の位相差検出用画素の画素値を補間するステップと、補間された現在フレーム画像の位相差検出用画素の画素値および通常画素の画素値に基づいて、現在フレーム画像の表示用画像を生成するステップと、を含む。
 好ましくは、画像処理方法は、現在フレーム画像の位相差検出用画素の周辺領域にある通常画素の画素値に基づいて周辺画素値を算出するステップと、周辺画素値を使用して、現在フレーム画像の位相差検出用画素の画素値の補間をするステップと、を含む。
 好ましくは、画像処理方法は、ゲイン値を使用して、現在フレーム画像の位相差検出用画素の画素値を補間する第1のゲイン補間部と、周辺画素値を使用して、現在フレーム画像の位相差検出用画素の画素値の補間をする周辺画素補間部との動作を制御するステップであって、ゲイン値が算出された場合には第1のゲイン補間部に補間をさせ、ゲイン値が算出されてない場合には周辺画素補間部に補間をさせるステップを含む。
 本発明の他の態様である画像処理工程をコンピュータに実行させるプログラムは、二次元的に複数の位相差検出用画素と複数の通常画素とが配置された撮像素子により、動画の撮像中に撮像素子から位相差検出用画素の画素値および複数の通常画素の画素値を有するフレーム画像であって、動画の時系列順の各フレーム画像を順次取得するステップと、取得した時系列順の過去フレーム画像に基づいて、現在フレーム画像の複数の位相差検出用画素の画素値のゲイン補間に使用するゲイン値を算出するステップと、ゲイン値を使用して、現在フレーム画像の位相差検出用画素の画素値を補間するステップと、補間された現在フレーム画像の位相差検出用画素の画素値および通常画素の画素値に基づいて、現在フレーム画像の表示用画像を生成するステップと、を含む画像処理工程をコンピュータに実行させる。
 本発明によれば、時系列順の過去フレーム画像に基づいて、現在フレーム画像の位相差検出用画素の画素値のゲイン補間に使用するゲイン値が算出され、その算出されたゲイン値を使用して、現在フレーム画像の位相差検出用画素の画素値が補間されるので、リアルタイム性が求められる表示用画像を生成する場合においても位相差検出用画素の画素値をゲイン補間することができ、良好な画質の表示用画像を生成することができる。
図1は撮像装置の一例を示す斜視図である。 図2は図1に示した撮像装置の背面図である。 図3は図1に示した撮像装置の内部構成の一例を示すブロック図である。 図4は撮像素子のカラーフィルタ配列を示す図である。 図5は一対の第1の位相差検出用画素ZA及び第2の位相差検出用画素ZBを模式的に示した平面図である。 図6は第1の位相差検出用画素ZA及び第2の位相差検出用画素ZBの構成を示す要部拡大図である。 図7は、画像処理装置の機能構成例を示すブロック図である。 図8は、時系列順の各フレームを示す図である。 図9は、画像処理装置の機能構成例を示すブロック図である。 図10は、露光から画像の表示のシーケンス図である。 図11は、画像処理装置の表示動作フローを示した図である。 図12は、露光から画像の表示のシーケンス図である。 図13は、画像処理装置の表示動作フローを示した図である。 図14は、画像処理装置の機能構成例を示すブロック図である。 図15は、画像処理装置の表示動作フローを示した図である。 図16は、画像処理装置の表示動作フローを示した図である。 図17は、画像処理装置の機能構成例を示すブロック図である。 図18は、画像処理装置の表示動作フローを示す図である。 図19は、露光から画像の表示のシーケンス図である。 図20は、撮像装置の一実施形態であるスマートフォンの外観を示す図である。 図21は、図20に示したスマートフォンの内部構成を示すブロック図である。
 以下、添付図面にしたがって本発明にかかる画像処理装置、画像処理方法、およびプログラムの好ましい実施の形態について説明する。
 図1および図2は、それぞれ撮像装置の一例(デジタルカメラ)を示す斜視図および背面図である。この撮像装置10は、レンズを通った光を撮像素子で受け、デジタル信号に変換して静止画または動画の画像データとして記録メディアに記録するデジタルカメラである。
 図1に示すように撮像装置10は、その正面に撮影レンズ12、ストロボ1等が配設され、上面にはシャッタボタン2、電源および/またはモードスイッチ3、モードダイヤル4等が配設されている。一方、図2に示すように、カメラ背面には、液晶モニタ(LCD:Liquid Crystal Display)30、ズームボタン5、十字ボタン6、MENUおよび/またはOKボタン7、再生ボタン8、BACKボタン9等が配設されている。
 撮影レンズ12は、沈胴式のズームレンズで構成されており、電源および/またはモードスイッチ3によってカメラの作動モードを撮影モードに設定することにより、カメラ本体から繰り出される。ストロボ1は、主要被写体にストロボ光を照射するものである。
 シャッタボタン2は、いわゆる「半押し」と「全押し」とからなる2段ストローク式のスイッチで構成され、撮影準備指示部として機能するとともに、画像の記録指示部として機能する。
 撮像装置10は、撮影モードとして静止画撮影モードが選択され、シャッタボタン2が「半押し」されると、AFおよび/またはAE(Auto Exposure)制御を行う撮影準備動作を行い、シャッタボタン2が「全押し」されると、静止画の撮像および記録を行う。
 また、撮像装置10は、撮影モードとして動画撮影モードが選択され、シャッタボタン2が「全押し」されると、動画の録画を開始し、シャッタボタン2が再度「全押し」されると、録画を停止して待機状態になる。
 電源および/またはモードスイッチ3は、撮像装置10の電源をONまたはOFFする電源スイッチとしての機能と、撮像装置10のモードを設定するモードスイッチとしての機能とを併せ持っており、「OFF位置」と「再生位置」と「撮影位置」との間をスライド自在に配設されている。撮像装置10は、電源および/またはモードスイッチ3をスライドさせて、「再生位置」または「撮影位置」に合わせることにより、電源がONになり、「OFF位置」に合わせることにより、電源がOFFになる。そして、電源および/またはモードスイッチ3をスライドさせて、「再生位置」に合わせることにより、「再生モード」に設定され、「撮影位置」に合わせることにより、「撮影モード」に設定される。
 モードダイヤル4は、撮像装置10の撮影モードを設定するモード切替部として機能し、このモードダイヤル4の設定位置により、撮像装置10の撮影モードが様々なモードに設定される。例えば、静止画撮影を行う「静止画撮影モード」、動画撮影を行う「動画撮影モード」等である。
 液晶モニタ30は、撮影モード時のライブビュー画像、プレビュー画像、ポストビュー画像の表示、再生モード時の静止画または動画の表示を行うとともに、メニュー画面の表示等を行うことでグラフィカルユーザーインターフェイスの一部として機能する。
 ズームボタン5は、ズームを指示するズーム指示手段として機能し、望遠側へのズームを指示するテレボタン5Tと、広角側へのズームを指示するワイドボタン5Wとからなる。撮像装置10は、撮影モード時に、このテレボタン5Tとワイドボタン5Wとが操作されることにより、撮影レンズ12の焦点距離が変化する。また、再生モード時に、このテレボタン5Tとワイドボタン5Wとが操作されることにより、再生中の画像が拡大、縮小する。
 十字ボタン6は、上下左右の4方向の指示を入力する操作部であり、メニュー画面から項目を選択したり、各メニューから各種設定項目の選択を指示したりするボタン(カーソル移動操作手段)として機能する。左および右キーは再生モード時のコマ送り(順方向および逆方向送り)ボタンとして機能する。
 MENU/OKボタン7は、液晶モニタ30の画面上にメニューを表示させる指令を行うためのメニューボタンとしての機能と、選択内容の確定および実行などを指令するOKボタンとしての機能とを兼備した操作ボタンである。
 再生ボタン8は、撮影記録した静止画または動画を液晶モニタ30に表示させる再生モードに切り替えるためのボタンである。
 BACKボタン9は、入力操作のキャンセルや一つ前の操作状態に戻すことを指示するボタンとして機能する。
 なお、本実施形態にかかる撮像装置10において、ボタンおよびスイッチ類に対して固有の部材を設けるのではなく、タッチパネルを設けこれを操作することでそれらボタンおよびスイッチ類の機能を実現するようにしてもよい。
 図3は撮像装置10の内部構成の実施形態を示すブロック図である。この撮像装置10は、撮像した画像をメモリカード54に記録するもので、装置全体の動作は、中央処理装置(CPU:Central Processing Unit)40によって統括制御される。
 撮像装置10には、シャッタボタン2、電源および/またはモードスイッチ3、モードダイヤル4、テレボタン5T、ワイドボタン5W、十字ボタン6、MENU/OKボタン7、再生ボタン8、BACKボタン9等の操作部38が設けられている。この操作部38からの信号はCPU40に入力され、CPU40は入力信号に基づいて撮像装置10の各回路を制御し、例えば、撮像素子16の駆動制御、レンズ駆動制御、絞り駆動制御、撮影動作制御、画像処理制御、画像データの記録および/または再生制御、および液晶モニタ30の表示制御などを行う。
 電源および/またはモードスイッチ3により撮像装置10の電源がONされると、図示しない電源部から各ブロックへ給電され、撮像装置10の駆動が開始される。
 撮影レンズ12、絞り14、メカシャッタ(機械的シャッタ)15等を通過した光束は、CMOS(Complementary Metal-Oxide Semiconductor)型のカラーイメージセンサである撮像素子16に結像される。なお、撮像素子16は、CMOS型に限らず、XYアドレス型、またはCCD(Charge Coupled Device)型のカラーイメージセンサでもよい。
 撮像素子16は、多数の受光素子(フォトダイオード)が2次元配列されており、各フォトダイオードの受光面に結像された被写体像は、その入射光量に応じた量の信号電圧(または電荷)に変換され、撮像素子16内のA/D(Analog/Digital)変換器を介してデジタル信号に変換されて出力される。
 撮像素子16は、水平方向および垂直方向に二次元的に配列された光電変換素子(フォトダイオード)で構成される複数の画素上に、以下に例示する第1の周期的色配列でカラーフィルタが配設されている。また、撮像素子16は、複数の位相差検出用画素と撮像用の複数の通常画素(位相差検出用画素以外の画素)が配置されている。
 位相差検出用画素は、図5に示すように瞳分割用の開口部を有し、水平方向に対する開口部の位置が互いに異なる第1の位相差検出用画素ZAと第2の位相差検出用画素ZBとからなり、一対の第1の位相差検出用画素ZAと第2の位相差検出用画素ZBとは互いに開口部が向き合って隣接配置されている。なお、第1の位相差検出用画素ZAおよび第2の位相差検出用画素ZBの構造の詳細については後述する。
 図4は、撮像素子16のカラーフィルタ配列および位相差検出用画素の配置を示す図である。
 図4に示すように撮像素子16の複数の通常画素には、第1の色(緑色)に対応する第1のフィルタ、緑色以外の2色以上の各色(赤色および青色)にそれぞれ対応する複数の第2のフィルタのうちのいずれかのカラーフィルタが、第1の周期的色配列で配置されている。第1の実施形態の撮像素子16のカラーフィルタの第1の周期的色配列は、一般的なベイヤ配列である。なお、第1のフィルタは、緑色の波長帯域の光を透過させるGフィルタであり、複数の第2のフィルタは、赤色の波長帯域の光を透過させるRフィルタと、青色の波長帯域の光を透過させるBフィルタである。
 ベイヤ配列を有する撮像素子16において、通常画素のみが水平方向(行方向)に配置された通常画素行は、Rフィルタを有する画素(R画素)とGフィルタを有する画素(G画素)とが行方向に交互に配置されたRG行と、G画素とBフィルタを有する画素(B画素)とが行方向に交互に配置されたGB行とがある。また、RG行とGB行とは、垂直方向(列方向)に交互に配置されている。
 また、本例の第1の位相差検出用画素ZAおよび第2の位相差検出用画素ZBには、それぞれGフィルタが配置されている。なお、第1の位相差検出用画素ZAおよび第2の位相差検出用画素ZBには、例えば、Gフィルタを配置せずに、Gフィルタの透過波長域よりも広い波長域の光が入射できるようにしてもよい。
 撮像素子16の第1の位相差検出用画素ZAおよび第2の位相差検出用画素ZBと通常画素とが周期的に行方向に配置された位相差検出用画素行は、複数行置きのGB行に設けられており、位相差検出用画素行に隣接する少なくとも2行には通常画素行のみが配置される。
 また、本例の位相差検出用画素行は、一対の第1の位相差検出用画素ZAおよび第2の位相差検出用画素ZBと1つの通常画素の3画素を1周期として周期的に配列されている。したがって、位相差検出用画素行には、G画素とB画素とが行方向に2画素(一対の第1の位相差検出用画素ZAおよび第2の位相差検出用画素ZB)置きに交互に配置されている。
 なお、本例の位相差検出用画素行は、ベイヤ配列のGB行に設けられているが、これに限らず、RG行に設けるようにしてもよい。
 動画を構成する1フレームの画像(フレーム画像)は、フル画素の静止画に比べて画像サイズを小さくしてもよい。すなわち動画撮影モードでは、撮像素子16は間引き駆動され、これにより低電力および高速処理を可能にする。また、ライブビュー表示を行う場合にも、画像サイズを小さくしてもよい。なお本説明のフレーム画像に対応する画像データは、位相差検出用画素の画素値を含んでいる。
 図5は、一対の第1の位相差検出用画素ZAおよび第2の位相差検出用画素ZBを模式的に示した平面図である。
 図5に示すように第1の位相差検出用画素ZAは、画素の右半分に開口部を有し、第2の位相差検出用画素ZBは、画素の左半分に開口部を有している。即ち、一対の第1の位相差検出用画素ZAと第2の位相差検出用画素ZBとは、互いに開口部が向き合っている。
 通常画素と位相差検出用画素とで画素特性が異なることから、良質な画質を得るためには、位相差検出用画素を適切に補正した上で、表示用画像を生成する必要がある。
 図6は第1の位相差検出用画素ZAおよび第2の位相差検出用画素ZBの構成を示す要部拡大図である。
 図6に示すように第1の位相差検出用画素ZAのフォトダイオードPDの前面側(マイクロレンズL側)には、遮光部材16Aが配設され、一方、第2の位相差検出用画素ZBのフォトダイオードPDの前面側には、遮光部材16Bが配設される。マイクロレンズLおよび遮光部材16A、16Bは瞳分割機能を有し、図6上で、遮光部材16Aは、フォトダイオードPDの受光面の左半分を遮光する。そのため、第1の位相差検出用画素ZAには、撮影レンズ12の射出瞳を通過する光束のうちの光軸の左側を通過する光束のみが受光される。また、本例では、カラーフィルタCFとして、GフィルタがマイクロレンズLの下方に配置されている。
 遮光部材16Bは、第2の位相差検出用画素ZBのフォトダイオードPDの受光面の右半分を遮光する。そのため、第2の位相差検出用画素ZBには、撮影レンズ12の射出瞳を通過する光束のうちの光軸の右側を通過する光束のみが受光される。このように、瞳分割機能を有するマイクロレンズLおよび遮光部材16A、16Bにより、射出瞳を通過する光束が左右に分割され、それぞれ第1の位相差検出用画素ZAおよび第2の位相差検出用画素ZBに入射する。
 図3に戻って、動画または静止画の撮影時に撮像素子16から読み出された画像信号(画像データ)は、画像入力コントローラ22を介してメモリ(SDRAM(Synchronous Dynamic Random Access Memory))48に一時的に記憶され、あるいはAF処理部42、AE検出部44等に取り込まれる。
 CPU40は、操作部38での操作に基づいて撮像装置10の各部を統括制御するが、ライブビュー画像の撮影(表示)、および動画の撮影(記録)中には、常時AF動作およびAE動作を行う。
 位相差検出部として機能するAF処理部42は、位相差AF処理を行う部分であり、画像入力コントローラ22を介して取得される第1の位相差検出用画素ZA、第2の位相差検出用画素ZBの各出力信号を使用して位相差を検出する。
 CPU40は、AF処理部42から位相差を示す位相差データが入力されると、位相差データに基づいて位相差AFを行う焦点調節部として機能する。即ち、CPU40は、位相差データに基づいて撮影レンズ12によるピント位置と撮像素子16の結像面とのずれ量(デフォーカス量)を算出し、算出したデフォーカス量がゼロになるようにレンズ駆動部36を介して撮影レンズ12内のフォーカスレンズを移動させる。なお、デフォーカス量の算出は、AF処理部42で行ってもよい。
 AE検出部44は、画像入力コントローラ22を介して取得される画像データ(例えば、画面全体のG画素の画素値)を積算し、または画面中央部と周辺部とで異なる重みづけをした画像データ(G画素の画素値)を積算し、その積算値をCPU40に出力する。CPU40は、AE検出部44から入力される積算値より被写体の明るさ(撮影Ev値(exposure value))を算出する。撮影モードが静止画撮影モードの場合には、シャッタボタン2の第1段階の押下(半押し)があると、CPU40は、前述のAF制御を再度行い、シャッタボタン2の全押しがあると、被写体の明るさ(撮影Ev値)を算出し、算出した撮影Ev値に基づいて絞り14のF値およびメカシャッタ15による露光時間(シャッタ速度)をプログラム線図にしたがって決定し、静止画の撮影(露出制御)を行う。
 一方、撮影モードが動画撮影モードの場合には、シャッタボタン2の全押しがあると、CPU40は、動画の撮影および記録(録画)を開始させる。なお、動画撮影時には、メカシャッタ15を開放し、撮像素子16から画像データを連続的に読み出し(例えば、フレームレートとして30フレーム/秒、60フレーム/秒)、連続的に位相差AFを行うとともに、被写体の明るさを算出し、シャッタ駆動部33によりシャッタ速度(ローリングシャッタによる電荷蓄積時間)および/または絞り駆動部34による絞り14を制御する。
 CPU40は、ズームボタン5からのズーム指令に応じてレンズ駆動部36を介してズームレンズを光軸方向に進退動作させ、焦点距離を変更させる。
 また、ROM47は、カメラ制御プログラム、撮像素子16の欠陥情報、画像処理等に使用する各種のパラメータやテーブルが記憶されているROM(Read Only Memory)、またはEEPROM(Electrically Erasable Programmable Read-Only Memory)である。
 画像処理部24は、動画または静止画の撮影時に画像入力コントローラ22を介して取得され、メモリ48に一時的に記憶された未処理の画像データ(RAWデータ)を読み出す。画像処理部24は、読み出したRAWデータに対してオフセット処理、画素補間処理(位相差検出用画素、傷画素等の補間処理)、ホワイトバランス補正、感度補正を含むゲインコントロール処理、ガンマ補正処理、同時化処理(「デモザイク処理」ともいう)、輝度および色差信号生成処理、輪郭強調処理、および色補正等を行う。
 画像処理部24により処理された画像データであって、ライブビュー画像として処理された画像データは、VRAM(Video RAM Random access memory)50に入力される。
 VRAM50には、それぞれが1コマ分の画像を表す画像データを記録するA領域とB領域とが含まれている。VRAM50において1コマ分の画像を表す画像データがA領域とB領域とで交互に書き換えられる。VRAM50のA領域およびB領域のうち、画像データが書き換えられている方の領域以外の領域から、書き込まれている画像データが読み出される。
 VRAM50から読み出された画像データは、ビデオエンコーダ28においてエンコーディングされ、カメラ背面に設けられている液晶モニタ30に出力される。
 画像処理部24により処理された画像データであって、記録用の静止画または動画として処理された画像データ(輝度データ(Y)および色差データ(Cb),(Cr))は、再びメモリ48に記憶される。
 圧縮伸張処理部26は、静止画または動画の記録時に、画像処理部24により処理され、メモリ48に格納された輝度データ(Y)および色差データ(Cb),(Cr)に対して圧縮処理を施す。静止画の場合には、例えばJPEG(Joint Photographic coding Experts Group)形式で圧縮し、動画の場合には、例えばH.264形式で圧縮する。圧縮伸張処理部26により圧縮された圧縮画像データは、メディアコントローラ52を介してメモリカード54に記録される。
 また、圧縮伸張処理部26は、再生モード時にメディアコントローラ52を介してメモリカード54から得た圧縮画像データに対して伸張処理を施す。メディアコントローラ52は、メモリカード54に対する圧縮画像データの記録および読み出しなどを行う。
 オートフォーカス制御部として機能するCPU40は、位相差AFを行う場合、撮像素子16の少なくともAF領域内の位相差検出用画素行の画像データを読み出す読出し指令をセンサ駆動部32に出力し、撮像素子16から対応する画像データを読み出す。
 動画(ライブビュー画像を含む)の撮影および表示時には、CPU40は、撮像素子16から画像データを間引き読み出しするための間引き率を取得する。この間引き率は、予め設定された固定値でもよいし、複数の間引き率からユーザにより選択できるようにしてもよい。例えば、動画の画像サイズの選択、あるいはフレームレートの選択に連動して最適な間引き率を設定することができる。なお、間引き読み出しする行には、位相差検出用画素行が含まれるようにする。
 CPU40は、間引き率に応じた間引きパターン(抽出パターン)を示す読出し指令をセンサ駆動部32に出力し、撮像素子16から画像データを間引き読み出しする。
 AF処理部42は、読み出された位相差検出用画素行からAF領域内の位相差検出用画素(第1の位相差検出用画素ZAおよび第2の位相差検出用画素ZB)の出力データを抽出し、第1の位相差検出用画素ZAの出力データと第2の位相差検出用画素ZBの出力データとの位相差を検出する。例えば、一対の第1の位相差検出用画素ZAの第1の位相差検出用画素ZAの出力データと第2の位相差検出用画素ZBの第2の位相差検出用画素ZBの出力データとの相関が最大になるとき(一対の位相差検出用画素の各画素値の差分絶対値の積算値が最小になるとき)の第1の位相差検出用画素ZAの出力データと第2の位相差検出用画素ZBの出力データとの間の左右方向のシフト量から位相差を求める。
 そして、求めたシフト量を、一対の第1の位相差検出用画素ZAと第2の位相差検出用画素ZBとの水平方向の位置ずれ分だけ補正した値を位相差データとして算出することができる。なお、位相差の算出方法は、上述の方法に限らず、種々の方法を適用することができる。
 続いて、CPU40は、AF処理部42により検出された位相差データに基づいて撮影レンズ12(撮像光学系)によるピント位置と撮像素子16の結像面とのずれ量(デフォーカス量)を算出する。なお、デフォーカス量の算出は、AF処理部42で行ってもよい。
 CPU40は、算出したデフォーカス量に基づいてデフォーカス量がゼロになるようにレンズ駆動部36を介して撮影レンズ12内のフォーカスレンズを移動させ、これにより位相差AFを行う。
 撮像素子16は、一対の第1の位相差検出用画素ZAと第2の位相差検出用画素ZBとは互いに開口部が向き合って隣接配置されているため、一対の第1の位相差検出用画素ZAと第2の位相差検出用画素ZBとの間隔は最小となっている。これにより、位相差の空間サンプリング周波数を最大にすることができ、空間周波数の高い被写体に対する位相差AFを、一対の第1の位相差検出用画素と第2の位相差検出用画素とが通常画素を挟んで離れて配置されているものに比べて高精度に行うことができる。
 なお、動画生成時に撮像素子16から間引き読み出しされる行には、位相差検出用画素(第1の位相差検出用画素ZAおよび第2の位相差検出用画素ZB)を有する位相差検出用画素行を含めることができ、動画の撮影中においても適切に位相差AFを行うことができる。
 <第1の実施形態>
 本発明の第1の実施形態に関して説明する。図7は、本実施形態の画像処理装置60の機能構成例を示すブロック図である。なお、画像処理装置60は、撮像装置10に設けられている。
 本実施形態の画像処理装置60は、センサ61、インターフェイス63、メモリ48、ゲイン値算出部67、位相差画素補間部69、表示用画像生成部73、および表示部75を備えている。
 センサ61は撮像素子16で実現され、撮像素子16は上述したように二次元的に複数の位相差検出用画素と複数の通常画素とが配置されている。
 インターフェイス63は、画像取得部として機能し、画像入力コントローラ22で実現される。インターフェイス63は、動画の撮像中に撮像素子16から複数の位相差検出用画素の画素値および複数の通常画素の画素値を有するフレーム画像であって、動画の時系列順の各フレーム画像を順次取得する。インターフェイス63は、センサ61から出力された画素データをメモリ48に置く(記憶させる)ことができ、また、メモリ48を介在することなく後段の回路に画素データを受け渡すこともできる。また、メモリ48に置いた画素データを読み込み、後段の回路に送ることもできる。ライブビュー画像を生成する場合、リアルタイム性を確保するために、インターフェイス63はセンサ61から出力された画素データをメモリ48を介在することなく後段処理に受け渡すことが望ましい。したがって、ライブビュー画像を生成する場合には、メモリ48に画素データを置いてゲイン値を算出し、ゲイン補間を行う時間的な余裕がない。
 図8は、インターフェイス63に入力される動画の時系列順の各フレームを概念的に示した図である。インターフェイス63に入力されたフレーム画像は、第1フレーム201、第2フレーム202、および第3フレーム203と順次連続して続く。例えば、第2フレーム202の位相差検出用画素の画素値を補間する場合には、第2フレーム202が現在フレームとなり、第1フレーム201が過去フレームとなる。また、第3フレーム203の位相差検出用画素の画素値を補間する場合には、第3フレーム203が現在フレームとなり、第2フレーム202が過去フレームとなる。一方、第1フレーム201の位相差検出用画素の画素値を補間する場合には、第1フレーム201が現在フレームとなるが、第1フレーム201が最初のフレームとなるために過去フレームは存在しないことになる。
 図7に戻って、メモリ48は、上述したようにSDRAMで構成されている。
 ゲイン値算出部67は、画像取得部により取得した時系列順の過去フレーム画像に基づいて、現在フレーム画像の位相差検出用画素の画素値のゲイン補間に使用するゲイン値を算出する。
 ゲイン値は像高(画面内の位置)に応じて変化する。そこで、ゲイン値算出部67は、例えば、フレーム画像面をK×Lエリアに分割し、各エリアでゲイン値を算出する。なお、便宜上、1つのフレームに対する複数のゲイン値をゲイン値セットと呼ぶ。
 ゲイン値算出部67が、直前のフレーム(過去フレーム)のみでゲイン値を算出する場合には、ゲイン値算出部67が、直前のフレーム(過去フレーム)で算出したゲイン値セットをそのまま現在のフレームに用いる。
 またゲイン値算出部67は、複数の過去フレーム画像の位相差検出用画素と通常画素との信号比を算出し、ゲイン値を算出してもよい。
 この場合、ゲイン値算出部67は、過去Nフレームそれぞれで算出したNセットのゲイン値を、エリア毎に平均化して現在のフレームに用いる。
 具体的には、フレーム番号をk(現在フレームが0、過去に遡るにしたがって1、2、3、…)、ゲイン値を算出するエリアの座標を(x,y)とし、kフレームの(x,y)のゲイン値をG(k,x,y)と定義する。過去Nフレームに亘って同一エリアのゲイン値を平均化するので、現フレームに適用するゲイン値セットG’(x,y)は次のように算出される。
Figure JPOXMLDOC01-appb-M000001
 より好ましい態様としては、フレーム別の重みw(k)を用意しておき
Figure JPOXMLDOC01-appb-M000002
とする。w(k)は、平均化に用いないフレームで0、平均化に用いるフレームで1とする。例えば、現在のフレーム露光時の絞りF1と、k番目の過去フレーム露光時の絞りF2が所定以上異なっている場合には、k番目のw(k)を0とする。なお、現在フレームの撮像条件と過去フレームの撮像条件との変化量によって、ゲイン値の算出を変える態様は、図16において詳細に説明する。
 ゲイン値算出部67は、RAWデータを解析することでゲイン値を算出する。具体的には、RAWデータをK×Lエリアに分割し、各エリアにおいて、G画素の平均値Gaveと位相差検出用画素の平均値Paveを算出し、ゲイン値はGave/Paveとして算出する。このとき、エリア内が黒つぶれしている場合、GaveやPaveが極端に小さな値になりゲイン値を精度よく算出することができない。また、エリア内が飽和している場合にもゲイン値を精度よく算出できない。そこで、そのようなエリアのゲイン値は、上述した(式1)および(式2)で示した平均化に用いないほうが好ましい。
 したがって、(式2)における重みw(k)をエリア毎に設ける。つまり、重みをw(k,x,y)と表現し、k番目のフレームにおいて、(x,y)のエリアのゲイン値の精度が低いと考えられる場合においてw(k,x,y)=0とする。より具体的には、ゲイン値算出を行うエリア内のG画素のうち、そのレベルが閾値TH1以上閾値TH2以下の画素の数が閾値TH3より小さい場合はゲイン値の精度が低いと考え、w(k,x,y)の値を調整する。
 位相差画素補間部69は、画像処理部24により実現され、第1のゲイン補間部71を備える。第1のゲイン補間部71は、ゲイン値算出部67で算出されたゲイン値を使用して、現在フレーム画像の位相差検出用画素の画素値を補間する。すなわち、第1のゲイン補間部71は、位相差検出用画素の感度低下分を補填するように位相差検出用画素の画素値にゲイン値算出部67で算出されたゲイン値を掛けることで、通常画素と信号レベルを合わせる補間を行う。
 表示用画像生成部73は、画像処理部24により実現され、第1のゲイン補間部71で補間された現在フレーム画像の位相差検出用画素の画素値および通常画素の画素値に基づいて、現在フレーム画像の表示用画像を生成する。すなわち、表示用画像生成部73は、位相差検出用画素の画素値が補間された現在フレームの表示用画像を生成する。
 表示部75は、表示用画像生成部73で生成された表示用画像を表示する。表示部75は、液晶モニタ30に表示用画像を表示させる。例えば表示部75は、液晶モニタ30にライブビュー画像、プレビュー画像、またはポストビュー画像を表示する。
 <第2の実施形態>
 次に、本発明の第2の実施形態に関して説明する。本実施形態では、位相差検出用画素の画素値に対して、ゲイン補間ともに周辺画素値に基づいて行われる周辺画素補間が行われる。
 図9は、本実施形態の画像処理装置60の機能構成例を示すブロック図である。なお、図7で既に説明を行った箇所は、同じ符号を付し説明を省略する。
 周辺画素値算出部77は、CPU40で実現され、現在フレーム画像の位相差検出用画素の周辺領域にある通常画素の画素値に基づいて周辺画素値を算出する。例えば、周辺画素値算出部77は、補間を行う注目画素(位相差検出用画素)の周辺画素の画素値を加重平均することにより、周辺画素値を算出する。ここで周辺画素とは、補間の精度や撮像条件に応じて適宜決定されるものであるが、例えば注目画素を中心にして3×3、5×5、7×7の範囲の通常画素である。なお、周辺画素値算出部77は、加重平均以外の公知の方法により、周辺画素値を算出することができる。
 位相差画素補間部69は、第1のゲイン補間部71、補間制御部79、および周辺画素補間部81を備える。
 周辺画素補間部81は、周辺画素値を使用して、現在フレーム画像の位相差検出用画素の画素値を補間する。すなわち周辺画素補間部81は、注目画素(位相差検出用画素)の周辺の通常画素の画素値を加重平均されて求められた周辺画素値を注目画素の画素値とすることにより、注目画素の画素値を補間する。
 補間制御部79は、第1のゲイン補間部71と周辺画素補間部81との動作を制御する。例えば補間制御部79は、ゲイン値算出部67がゲイン値を算出した場合には第1のゲイン補間部71に補間をさせ、ゲイン値算出部67がゲイン値を算出していない場合には周辺画素補間部81に補間をさせる。
 (表示例1)
 次に、第2の実施形態における液晶モニタ30への表示用画像の表示例に関して説明する。表示例1では、第1フレームに使用される位相差検出用画素の画素値を周辺画素補間のみで補間する場合である。
 図10は、撮像素子16への露光からライブビュー画像の表示のシーケンス図にゲイン値算出のタイミングを追記したシーケンス図である。
 図10には、(A)VD同期信号、(B)露光および読み出し、(C)ライブビュー画像生成処理、(D)ゲイン値算出、および(E)液晶モニタ30への表示のシーケンスがそれぞれ記載されている。
 図10に示す場合は、ローリングシャッタ方式の撮像素子16に対して露光が行われる。露光後、VD(Vertical Driving)同期信号に合わせて(図10(A))、各ラインの画素値を含む画素データは順次ASIC(Application specific integrated circuit)へと転送される(図10(B)の「読み出し」)。ここでASICは、インターフェイス63、ゲイン値算出部67、周辺画素値算出部77、位相差画素補間部69(補間制御部79、第1のゲイン補間部71、および周辺画素補間部81)、表示用画像生成部73の機能を有する。
 ASICは、センサ61から受けた画素データを処理し、ライブビュー画像を生成する。ASICの処理には、位相差画素補間部69が行う位相差検出用画素の画素値の補間と、表示用画像生成部73により行われるその他処理がある(図10(C))。ここでその他処理とは、デモザイクやノイズ低減、および輪郭強調などライブビュー画像生成に用いる一般的な信号処理のことを示す。ここで、ASICの補間制御部79は、現在処理を行っているフレームが第1フレームである場合には、周辺画素補間部81に位相差検出用画素の画素値の補間を行わせる。
 次にASICにより、センサからの読み出しが全て終了した後に、読み出した画素値に基づいてゲイン値が算出される(図10(D))。この算出されたゲイン値は、現在フレーム画像の液晶モニタ30の表示に間に合わないので、次フレーム画像の補間処理に使用される。
 ここで、位相画素密度が高い場合は周辺画素補間の精度が低下するため、積極的にゲイン補間を用いて補間を行うことが好ましい。一方、ゲイン補間を行うためには、位相差検出用画素と通常画素との信号比(=ゲイン補間に用いるゲイン値)を算出しておく必要がある。信号比算出はライブビュー処理と比較して多くのラインデータを用いる必要があるため、一旦メモリ48に画素データを展開した上で信号比を算出しなければならず、タイミング的に、算出した信号比を現在のフレームに適用することは困難である。
 すなわち、表示用画像の画質を良くするという観点からは、ゲイン値を算出した後に現在フレーム画像に対する位相差検出用画素の補間を行うことが好ましい。しかし、ライブビュー表示に要求されるリアルタイム性を確保するためには、ゲイン値算出にかかる時間が問題となってしまう。すなわち、ゲイン値を算出してゲイン補間を行うとライブビュー表示のリアルタイム性を確保することが困難となる。したがって、本発明では、ライブビュー表示を開始して第1フレームの表示画像を生成する際には、適切なゲイン値が存在しない場合には、周辺画素補間のみで位相差検出用画素の画素値を補間し表示画像を生成する。
 なお、本発明は電源がONになった場合に表示されるライブビュー表示以外にも、再生モードから撮影モードに切り替えた直後のライブビュー表示時や、位相差検出用画素を含むラインを出力対象としない駆動モードから、当該ラインを出力対象とする駆動モードに切り替えた後のライブビュー表示にも適用することが可能である。
 図11は、画像処理装置60のライブビュー画像の表示動作フローを示した図である。
 先ず、ライブビュー表示開始指示が出力される(ステップS101)。例えば、撮像装置10の電源スイッチおよび/またはモードスイッチ3がONにされたと同時に、ライブビュー表示開始指示がCPU40より出力される。カメラ起動後や静止画撮影を行った後などにライブビュー表示を開始するとき、ライブビュー表示の露光量を決定するために測光が行われる(初回測光)(ステップS102)。ただし、例えば、ライブビュー表示を開始する直前の静止画撮影時の測光結果を、初回測光の代替とすることも可能である。
 その後、初回測光の結果を受け、ライブビュー表示の露光パラメータ(絞り、ISO感度、シャッタ速度、ライブビュー時のセンサフレームレート)を設定し(ステップS103)、VD同期信号で(フレーム毎に)露光および画素データの読み出しが行われる(ステップS104)。なお、測光は撮像装置10の内部に備えられる測光センサにより行われ、露光パラメータの設定はCPU40、読み出しはインターフェイス63により行われる。
 取得された画素データを用いて測光を行い(ステップS105)、次フレーム用の露光パラメータがCPU40により決定される(ステップS106)。さらに、画素データを用いて、ゲイン値算出部67によりゲイン補間用のゲイン値を算出する(ステップS107)。
 その後、補間制御部79により現在のフレームが第1フレームであるか否かが判定され(ステップS108)、現在のフレームが第1フレームである場合、すなわちゲイン値算出部67がゲイン値を算出していない場合には、補間制御部79により周辺画素補間部81により周辺画素補間が行われ、周辺画素補間のみで位相差検出用画素を補間する(ステップS109)。
 一方、現在のフレームが第1フレームでない場合、すなわちゲイン値算出部67がゲイン値を算出している場合には、補間制御部79により周辺画素補間部81またはゲイン補間で位相差検出用画素が補間する(ステップS110)。なお、この場合の位相差検出用画素の補間は撮像状況、フレーム画像の状態が考慮されて行われ、補間制御部79が、第1のゲイン補間部71のみ補間を行わせたり、第1のゲイン補間部71および周辺画素補間部81に補間を行わせたりする。例えば補間制御部79は、フレーム画像の周波数成分に応じて、および/または合焦の程度に応じて、第1のゲイン補間部71と周辺画素補間81との動作を制御する。
 その後、表示用画像生成部73により、ライブビュー画像の生成が行われ(ステップS111)、液晶モニタ30またはEVF(Electric viewfinder)への表示用画像が表示される(ステップS112)。その後、例えばCPU40によりライブビュー表示を継続するか否かの判定が行われ(ステップS113)、ライブビュー表示を継続する場合には、算出された露光パラメータにより露光パラメータが設定される。一方、ライブビュー表示を継続しない場合には終了する。
 上記実施形態において、各種の処理を実行する処理部(processing unit)のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。
 1つの処理部は、これら各種のプロセッサのうちの1つで構成されていてもよいし、同種または異種の2つ以上のプロセッサ(例えば、複数のFPGA、あるいはCPUとFPGAの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントやサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組合せで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。
 さらに、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)である。
 上述の各構成および機能は、任意のハードウェア、ソフトウェア、或いは両者の組み合わせによって適宜実現可能である。例えば、上述の処理ステップ(処理手順)をコンピュータに実行させるプログラム、そのようなプログラムを記録したコンピュータ読み取り可能な記録媒体(非一時的記録媒体)、或いはそのようなプログラムをインストール可能なコンピュータに対しても本発明を適用することが可能である。
 (表示例2)
 次に、第1の実施形態および第2の実施形態における液晶モニタ30へのライブビュー画像の表示例に関して説明する。表示例2では、第1フレーム画像はゲイン値が算出されずゲイン補間ができないので、第1フレーム画像を表示させない。
 図12は、図9と同様に、撮像素子16への露光からライブビュー画像の表示のシーケンス図にゲイン値算出のタイミングを追記したシーケンス図である。図11のシーケンス図は、図9のシーケンス図と比較すると、第1フレームが液晶モニタ30に表示されてない点で異なる。
 第1フレーム画像に関して、センサ61から受けた画素データを処理し、ゲイン値算出部67によりゲイン値が算出される(図10(D))。しかしながら、第1フレーム画像は表示を行わないため、周辺画素補間部81による補間および表示用画像生成部73により第1フレームの表示用画像の生成は行われない。
 第2フレーム画像以降では、図10で説明したように、ゲイン値算出部87で算出されたゲイン値に基づいて補間が行われ、液晶モニタ30に対応するライブビュー画像の表示が行われる。
 図13は、画像処理装置60の表示動作フローを示した図である。
 先ず、ライブビュー表示開始指示がCPU40により、出力される(ステップS201)。その後、初回測光が行われ(ステップS202)、露光パラメータが設定される(ステップS203)。測光は撮像装置10の内部に備えられる測光センサにより行われ、露光パラメータの設定はCPU40により行われる。
 そして、設定された露光パラメータに基づいて露光が行われ、露光された画素より画素値の読み出しがインターフェイス63により行われ(ステップS204)、測光が測光センサにより行われ(ステップS205)、次フレーム用の露光パラメータがCPU40により決定され(ステップS206)、次フレーム用の位相差検出用画素と通常画素の信号比がゲイン値算出部87により算出される(ステップS207)。
 その後、補間制御部79により現在のフレームが第1フレームであるか否かが判定され(ステップS208)、現在のフレームが第1フレームでない場合、すなわちゲイン値算出部67がゲイン値を算出している場合には、補間制御部79により周辺画素補間部81またはゲイン補間で位相差検出用画素が補間する(ステップS209)。
 その後、表示用画像生成部73により、ライブビュー画像の生成が行われ(ステップS210)、液晶モニタ30またはEVFへの表示用画像が表示される(ステップS211)。
 一方で、補間制御部79により、現在のフレームが第1フレームである場合、すなわちゲイン値算出部67がゲイン値を算出していない場合には、表示用画像生成部73により表示用画像の生成が行われない。すなわち、第1フレームは液晶モニタ30に表示されない。
 その後、例えばCPU40によりライブビュー表示を継続するか否かの判定が行われ(ステップS212)、ライブビュー表示を継続する場合には、算出された露光パラメータにより露光パラメータが設定される。一方、ライブビュー表示を継続しない場合には終了する。
 <第3の実施形態>
 次に、本発明の第3の実施形態に関して説明する。本実施形態では、位相差検出用画素の画素値に対して、推定されたゲイン値に基づいて補間が行われる。
 図14は、本実施形態の画像処理装置60の機能構成例を示すブロック図である。なお、図7で既に説明を行った箇所は、同じ符号を付し説明を省略する。
 本実施形態の画像処理装置60は、センサ61、インターフェイス63、メモリ48、ゲイン値算出部67、位相差画素補間部69、表示用画像生成部73、表示部75、周辺画素値算出部77、パラメータ取得部85、および推定ゲイン値算出部87を備えている。
 パラメータ取得部85は、CPU40で実現され、ゲイン値を推定するための情報であるゲイン値推定パラメータを取得する。例えばパラメータ取得部85は、撮像装置10がレンズ交換式のカメラである場合に、レンズ側とボディ側とで通信が行われ、レンズ側からレンズの特性およびゲイン値を推定するためのゲイン値パラメータを取得する。
 パラメータ取得部85が取得するゲイン値推定パラメータは、撮像素子16が受光する光束が通過するレンズ瞳の形状に関する情報、および位相差検出用画素と通常画素との入射光線角度特性に関する情報のうち少なくとも一方を含む。ゲイン値はレンズ瞳形状の影響を大きく受け、レンズ瞳形状は、F値およびフォーカスレンズ位置等によって変化する。レンズ瞳の形状に関する情報として、例えば絞り14の状態を示すF値またはフォーカスレンズ位置があげられる。
 推定ゲイン値算出部87は、パラメータ取得部85で取得されたゲイン値推定パラメータに基づいて、推定ゲイン値を算出する。例えば推定ゲイン値算出部87は、レンズ瞳形状と位相差検出用画素と通常画素との入射光線角度特性に基づいて、推定ゲイン値を算出する。
 第2のゲイン補間部83は、推定ゲイン値を使用して、現在フレーム画像の位相差検出用画素の画素値を補間する。すなわち、補間制御部79は、推定ゲイン値算出部87が推定ゲイン値を算出した場合には、第2のゲイン補間部83に補間をさせる。これにより、第1フレームのようにゲイン値算出部67がゲイン値を算出していない場合であっても、推定ゲイン値に基づいて、位相差検出用画素の画素値がゲイン補間される。
 (表示例3)
 次に第3の実施形態における液晶モニタ30へのライブビュー画像の表示例に関して説明する。表示例3は、表示例1と同様に、第1フレームに使用される位相差検出用画素の画素値を周辺画素補間のみで補間する場合である。
 図15は、第3の実施形態の画像処理装置60の表示例3の表示動作を示すフロー図である。
 先ず、ライブビュー表示の開始指示がCPU40により出力される(ステップS301)。その後、初回測光が行われ(ステップS302)、露光パラメータが設定される(ステップS303)。測光は撮像装置10の内部に備えられる測光センサにより行われ、露光パラメータの設定はCPU40で行われる。
 そして、設定された露光パラメータに基づいて露光が行われ、露光された画素より画素値の読み出しがインターフェイス63により行われ(ステップS304)、測光が行われ(ステップS305)、次フレーム用の露光パラメータがCPU40により決定され(ステップS306)、次フレーム用の位相差検出用画素と通常画素のゲイン値がゲイン値算出部87により算出される(ステップS307)。
 その後、補間制御部79により現在のフレームが第1フレームであるか否かが判定され(ステップS308)、現在のフレームが第1フレームでない場合、すなわちゲイン値算出部67がゲイン値を算出している場合には、パラメータ取得部85によりレンズ通信が可能であるか否かが判定される(ステップS309)。
 レンズ通信が可能でない場合には、補間制御部79は周辺画素補間部81に位相差検出用画素の画素値を補間させて(ステップS310)、表示用画像生成部73は表示用画像を生成する(ステップS311)。
 一方、パラメータ取得部85によりレンズ通信が可能であると判定(ステップS309)され、パラメータ取得部85によりゲイン値推定パラメータが取得可能と判定(ステップS314)された場合には、推定ゲイン値算出部87により取得されたゲイン値推定パラメータに基づいてゲイン値が算出される(ステップS315)。その後、補間制御部79は第2のゲイン補間部83または周辺画素補間部81により、位相検出用画素の画素値を補正させ(ステップS316)、表示用画像生成部73に表示用画像を生成させる(ステップS311)。
 その後、表示部75により、生成された表示用画像を液晶モニタ30またはEVFへ表示される(ステップS312)。
 その後、例えばCPU40によりライブビュー表示を継続するか否かの判定が行われ(ステップS313)、ライブビュー表示を継続する場合には、算出された露光パラメータにより露光パラメータが設定される。一方、ライブビュー表示を継続しない場合には終了する。
 (表示例4)
 次に、第3の実施形態における液晶モニタ30へのライブビュー画像の表示例に関して説明する。表示例4では、レンズ第1フレーム画像はゲイン値が算出されずゲイン補間ができないので、第1フレーム画像を表示させない。
 サードパーティ製のレンズが装着された場合や何かしらの不具合によりカメラボディとレンズと間の通信が不可能な場合や、通信はできても、ゲイン値を推定するために必要なパラメータがレンズ側に格納されていない場合は、推定ゲイン値算出部87は、推定ゲイン値を算出することができない。このような場合には、第1フレーム画像の表示を行わない。すなわち表示用画像生成部73は、パラメータ取得部85がゲイン値推定パラメータを取得していない場合には、現在フレーム画像のみの表示用画像を生成する。
 図16は、第3の実施形態の画像処理装置60の表示例4の表示動作を示すフロー図である。
 先ず、ライブビュー表示の開始指示がCPU40により出力される(ステップS401)。その後、初回測光が行われ(ステップS402)、露光パラメータが設定される(ステップS403)。測光は撮像装置10の内部に備えられる測光センサにより行われ、露光パラメータの設定はCPU40で行われる。
 そして、設定された露光パラメータに基づいて露光が行われ、露光された画素より画素値の読み出しがインターフェイス63により行われ(ステップS404)、測光が行われ(ステップS405)、次フレーム用の露光パラメータがCPU40により決定され(ステップS406)、次フレーム用の位相差検出用画素と通常画素のゲイン値がゲイン値算出部87により算出される(ステップS407)。
 その後、補間制御部79により現在のフレームが第1フレームであるか否かが判定され(ステップS408)、現在のフレームが第1フレームでない場合、すなわちゲイン値算出部67がゲイン値を算出している場合には、パラメータ取得部85によりレンズ通信が可能であるか否かが判定される(ステップS409)。
 レンズ通信が可能でない場合には、第1フレームに対応するは表示用画像を生成しない。
 一方、パラメータ取得部85によりレンズ通信が可能であると判定(ステップS409)され、パラメータ取得部85によりゲイン値推定パラメータが取得可能と判定(ステップS410)された場合には、推定ゲイン値算出部87により取得されたゲイン値推定パラメータに基づいてゲイン値が算出される(ステップS411)。その後、補間制御部79は第2のゲイン補間部83または周辺画素補間部81により、位相検出用画素の画素値を補間させ(ステップS412)、表示用画像生成部73に表示用画像を生成させる(ステップS413)。
 その後、表示部75により、生成された表示用画像を液晶モニタ30またはEVFへ表示される(ステップS414)。
 その後、例えばCPU40によりライブビュー表示を継続するか否かの判定が行われ(ステップS415)、ライブビュー表示を継続する場合には、算出された露光パラメータにより露光パラメータが設定される。一方、ライブビュー表示を継続しない場合には終了する。
 <第4の実施形態>
 次に、本発明の第4の実施形態に関して説明する。本実施形態では、フレーム間の撮像条件の変化量に応じて、位相差検出用画素の画素値に対して補間がされる。
 図17は、本実施形態の画像処理装置60の機能構成例を示すブロック図である。なお、図7で既に説明を行った箇所は、同じ符号を付し説明を省略する。
 本実施形態の画像処理装置60は、センサ61、インターフェイス63、メモリ48、ゲイン値算出部67、位相差画素補間部69、表示用画像生成部73、表示部75、周辺画素値算出部77、パラメータ取得部85、推定ゲイン値算出部87、および撮像条件取得部89で構成されている。
 撮像条件取得部89は、CPU40で実現され、現在フレーム画像および過去フレーム画像に関して、撮像条件に関する情報を取得する。例えば撮像条件取得部89は、撮像素子16が受光する光束が通過した光学系の絞り14に関する情報を取得する。
 補間制御部79は、現在フレーム画像および過去フレーム画像において、撮像条件に関する情報の変化量が閾値以上である場合には、周辺画素補間部81に補間をさせる。例えば補間制御部79は、次のように制御を行う。露出追従のために、過去フレーム画像と現在フレーム画像との間でF値が大きく変化した場合には、過去フレームのゲイン値を用いたゲイン補間を行うべきではない。このような場合には、周辺画素補間のみで位相差画素補間を行うことが望ましい。よって、補間制御部79は、例えば過去フレーム露光時の瞳径r1、現在フレーム露光時の瞳径r2、で算出される変化量が予め決められた閾値thが以下(式3)の条件を満たす場合、瞳形状の変化が大きいと判定し周辺画素補間部81に補間を行わせる。
Figure JPOXMLDOC01-appb-M000003
 (表示例5)
 図18は、第4の実施形態の画像処理装置60の表示例5の表示動作を示すフロー図である。
 先ず、ライブビュー表示の開始指示がCPU40により出力される(ステップS501)。その後、初回測光が行われ(ステップS502)、露光パラメータが設定される(ステップS503)。測光は撮像装置10の内部に備えられる測光センサにより行われ、露光パラメータの設定はCPU40で行われる。
 そして、設定された露光パラメータに基づいて露光が行われ、露光された画素より画素値の読み出しがインターフェイス63により行われ(ステップS504)、測光が行われ(ステップS505)、次フレーム用の露光パラメータがCPU40により決定され(ステップS506)、次フレーム用の位相差検出用画素と通常画素のゲイン値がゲイン値算出部87により算出される(ステップS507)。
 その後、補間制御部79により現在のフレームが第1フレームであるか否かが判定され(ステップS508)、現在のフレームが第1フレームでない場合、すなわちゲイン値算出部67がゲイン値を算出している場合には、撮像条件取得部89により現在フレーム画像および過去フレーム画像の撮像条件に関する情報が取得され、補間制御部79により変換量が閾値より大きいか否かが判定される(ステップS516)。変化量が閾値以上である場合には、過去フレーム画像に基づいて算出されたゲイン値を現在フレームのゲイン補間には使用できないため、パラメータ取得部85によりレンズ通信が可能であるか否かが判定される(ステップS509)。一方、変化量が閾値以下である場合には、過去フレーム画像に基づいて算出されたゲイン値を現在フレームのゲイン補間には使用できるため、算出されたゲイン値を使用して補間が行われる。
 レンズ通信が可能でない場合には、補間制御部79は周辺画素補間部81に位相差検出用画素の画素値を補間させて(ステップS510)、表示用画像生成部73は表示用画像を生成する(ステップS511)。
 その後、表示部75により、生成された表示用画像を液晶モニタ30またはEVFへ表示される(ステップS512)。
 その後、例えばCPU40によりライブビュー表示を継続するか否かの判定が行われ(ステップS513)、ライブビュー表示を継続する場合には、算出された露光パラメータにより露光パラメータが設定される。一方、ライブビュー表示を継続しない場合には終了する。
 一方、パラメータ取得部85によりレンズ通信が可能であると判定(ステップS509)され、パラメータ取得部85によりゲイン値推定パラメータが取得可能と判定(ステップS514)された場合には、推定ゲイン値算出部87により取得されたゲイン値推定パラメータに基づいてゲイン値が算出される(ステップS515)。その後、補間制御部79は第2のゲイン補間部83または周辺画素補間部81により、位相検出用画素の画素値を補間させ(ステップS517)、表示用画像生成部73に表示用画像を生成させる(ステップS511)。
 <その他の例>
 次に本発明のその他の例に関して説明する。上述の説明ではローリングシャッタ方式の例に関して説明してきたが、本例ではグローバルシャッタ方式の例に関して説明する。
 図19は、図9と同様に、撮像素子16への露光から画像の表示のシーケンス図にゲイン値算出のタイミングを追記したシーケンス図である。図19のシーケンス図は、図9のシーケンス図と比較すると、グローバルシャッタ方式により画素値が読み出される点で異なる。
 グローバルシャッタ方式のセンサ61では、ローリングシャッタ方式のセンサ61と異なり全ライン(全画素)の露光が同時に開始され同時に完了する(図19(B))。ただし、露光完了後、蓄積された信号の読み出しおよびASICへの転送は、1番目のラインから順次転送となり、読み出し(図19(C))、転送およびそれ以降の処理シーケンスは、ローリングシャッタ方式の場合(図10)と同様となる。
 すなわち、読み出しが終了したラインの画素値から順次位相差検出用画素の画素値の補間およびその他の処理が行われ、また、1枚目のフレーム画像は、例えば周辺画素補間部81により位相差検出用画素の画素値の補間が行われる(図19(D))。また、ゲイン値算出部67により、ゲイン値の算出が行われるが算出されたゲイン値は、次のフレーム画像において使用される(図19(E))。
 なお、図19では画素データの読出しのタイミングと次の露光のタイミングとが重なっている。つまり、露光と読出しは並列に行われている。グローバルシャッタ方式のセンサ61の場合、露光中に電荷が貯まるフォトダイオードとは別に、フォトダイオードに貯まった信号を蓄積しておく蓄積部(不図示)が全画素に備わっている。露光完了後、全てのフォトダイオードに貯まった信号は蓄積部に移される。蓄積部の信号が順次読出され、ASICへと転送される。したがって、蓄積部に信号が移されれば、フォトダイオードは信号が空の状態となるため、次の露光を開始することが可能である。
 <スマートフォンの例>
 図20は、撮像装置10の一実施形態であるスマートフォンの外観を示す図である。
 図20に示すスマートフォン100は、平板状の筐体102を有し、筐体102の一方の面に表示部としての表示パネル121と、入力部としての操作パネル122とが一体となって形成される表示入力部120が設けられる。また、その筐体102は、スピーカ131と、マイクロホン132と、操作部140と、カメラ部141(撮像部)とを備える。なお、筐体102の構成はこれに限定されず、例えば、表示部と入力部とが独立して設けられる構成を採用したり、折り畳み構造やスライド機構を有する構成を採用することもできる。
 図21は、図20に示したスマートフォン100の内部構成を示すブロック図である。図21に示すように、スマートフォン100の主たる構成要素として、無線通信部110と、表示入力部120と、通話部130と、操作部140と、カメラ部141と、記憶部150と、外部入出力部160(出力部)と、GPS(global positioning system)受信部170と、モーションセンサ部180と、電源部190と、主制御部101とを備える。また、スマートフォン100の主たる機能として、基地局装置と移動通信網とを介した移動無線通信を行う無線通信機能を備える。
 無線通信部110は、主制御部101の指示にしたがって、移動通信網に接続された基地局装置との間で無線通信を行う。その無線通信が使用されて、音声データおよび画像データ等の各種ファイルデータや電子メールデータなどの送受信、およびウェブデータやストリーミングデータなどの受信が行われる。
 表示入力部120は、表示パネル121の画面上に配設された操作パネル122を備えたいわゆるタッチパネルであり、主制御部101の制御により、画像(静止画像および動画像)や文字情報などを表示して視覚的にユーザに情報を伝達し、また表示した情報に対するユーザ操作を検出する。なお、操作パネル122を便宜上、タッチパネルとも称す。
 表示パネル121は、LCD(Liquid Crystal Display)またはOELD(Organic Electro-Luminescence Display)などを表示デバイスとして用いる。操作パネル122は、表示パネル121の表示面上に表示される画像が視認可能な状態で設けられ、ユーザの指や尖筆によって操作される1または複数の座標を検出するデバイスである。そのデバイスがユーザの指や尖筆によって操作されると、操作パネル122は、操作に起因して発生する検出信号を主制御部101に出力する。次いで、主制御部101は、受信した検出信号に基づいて、表示パネル121上の操作位置(座標)を検出する。
 図20に例示されるスマートフォン100の表示パネル121と操作パネル122とは一体となって表示入力部120を構成し、操作パネル122が表示パネル121を完全に覆うような配置となっている。その配置を採用した場合、操作パネル122は、表示パネル121外の領域についても、ユーザ操作を検出する機能を備えてもよい。換言すると、操作パネル122は、表示パネル121に重なる重畳部分についての検出領域(以下、「表示領域」という)と、それ以外の表示パネル121に重ならない外縁部分についての検出領域(以下、「非表示領域」という)とを備えていてもよい。
 なお、表示領域の大きさと表示パネル121の大きさとを完全に一致させてもよいが、両者を必ずしも一致させる必要はない。また、操作パネル122が、外縁部分およびそれ以外の内側部分の2つの感応領域を備えていてもよい。さらに、その外縁部分の幅は、筐体102の大きさなどに応じて適宜設計されるものである。さらにまた、操作パネル122で採用される位置検出方式としては、マトリクススイッチ方式、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式、および静電容量方式などが挙げられ、いずれの方式が採用されてもよい。
 通話部130は、スピーカ131およびマイクロホン132を備え、マイクロホン132を通じて入力されたユーザの音声を主制御部101にて処理可能な音声データに変換して主制御部101に出力したり、無線通信部110或いは外部入出力部160により受信された音声データを復号してスピーカ131から出力したりする。また、図20に示すように、例えば、スピーカ131およびマイクロホン132を表示入力部120が設けられた面と同じ面に搭載することができる。
 操作部140は、キースイッチなどを用いたハードウェアキーであって、ユーザからの指示を受け付ける。例えば、図20に示すように、操作部140は、スマートフォン100の筐体102の側面に搭載され、指などで押下されるとスイッチオン状態となり、指を離すとバネなどの復元力によってスイッチオフ状態となる押しボタン式のスイッチである。
 記憶部150は、主制御部101の制御プログラムや制御データ、通信相手の名称や電話番号などを対応づけたアドレスデータ、送受信した電子メールのデータ、ウェブブラウジングによりダウンロードしたウェブデータ、およびダウンロードしたコンテンツデータ等を記憶し、またストリーミングデータなどを一時的に記憶する。
 また、記憶部150は、スマートフォン内蔵の内部記憶部151と着脱自在な外部メモリスロットを有する外部記憶部152とにより構成される。なお、記憶部150を構成する内部記憶部151および外部記憶部152のそれぞれは、フラッシュメモリタイプ、ハードディスクタイプ、マルチメディアカードマイクロタイプ、カードタイプのメモリ、RAM(Random Access Memory)、或いはROMなどの格納媒体を用いて実現される。
 外部入出力部160は、スマートフォン100に連結される全ての外部機器とのインターフェイスの役割を果たし、通信等(例えば、USB(Universal Serial Bus)、IEEE1394など)またはネットワーク(例えば、無線LAN(Local Area Network)、ブルートゥース(Bluetooth)(登録商標)、RFID(Radio Frequency Identification)、赤外線通信(Infrared Data Association:IrDA)、UWB(Ultra Wideband)(登録商標)、ジグビー(ZigBee)(登録商標)など)により他の外部機器に直接的または間接的に接続する。
 スマートフォン100に連結される外部機器としては、例えば、有線/無線ヘッドセット、有線/無線外部充電器、有線/無線データポート、カードソケットを介して接続されるメモリカード(Memory card)やSIM(Subscriber Identity Module Card)/UIM(User Identity Module Card)カード、オーディオビデオI/O(Input/Output)端子を介して接続される外部オーディオビデオ機器、有線/無線接続される外部オーディオビデオ機器、スマートフォン、パーソナルコンピュータ、PDA(Personal Digital Assistant)、およびイヤホンなどがある。外部入出力部160は、このような外部機器から伝送を受けたデータをスマートフォン100の内部の各構成要素に伝達したり、スマートフォン100の内部のデータが外部機器に伝送されたりするように構成されてもよい。
 GPS受信部170は、主制御部101の指示にしたがって、GPS衛星ST1、ST2~STnから送信されるGPS信号を受信し、受信した複数のGPS信号に基づく測位演算処理を実行し、スマートフォン100の緯度、経度および高度によって特定される位置情報(GPS情報)を取得する。GPS受信部170は、無線通信部110および/または外部入出力部160(例えば、無線LAN)から位置情報を取得できる場合には、その位置情報を用いて位置を検出することもできる。
 モーションセンサ部180は、例えば、3軸の加速度センサなどを備え、主制御部101の指示にしたがって、スマートフォン100の物理的な動きを検出する。スマートフォン100の物理的な動きを検出することにより、スマートフォン100の動く方向や加速度が検出される。その検出の結果は、主制御部101に出力される。
 電源部190は、主制御部101の指示にしたがって、スマートフォン100の各部に、バッテリ(図示しない)に蓄えられる電力を供給する。
 主制御部101は、マイクロプロセッサを備え、記憶部150が記憶する制御プログラムや制御データにしたがって動作し、スマートフォン100の各部を統括して制御する。また、主制御部101は、無線通信部110を通じて音声通信およびデータ通信を行うために、通信系の各部を制御する移動通信制御機能と、アプリケーション処理機能とを備える。
 アプリケーション処理機能は、記憶部150が記憶するアプリケーションソフトウェアにしたがって主制御部101が動作することにより実現される。アプリケーション処理機能としては、例えば、外部入出力部160を制御することで対向機器とデータ通信を行う赤外線通信機能や、電子メールの送受信を行う電子メール機能、およびウェブページを閲覧するウェブブラウジング機能の他、本発明にかかる画像処理機能などがある。
 また、主制御部101は、受信データやダウンロードしたストリーミングデータなどの画像データ(静止画像や動画像のデータ)に基づいて、映像を表示入力部120に表示する等の画像処理機能を備える。また、画像処理機能には、図3に示した画像処理部24により行われる画像処理を含む。
 さらに、主制御部101は、表示パネル121に対する表示制御と、操作部140や操作パネル122を通じたユーザ操作を検出する操作検出制御とを実行する。
 表示制御の実行により、主制御部101は、アプリケーションソフトウェアを起動するためのアイコンや、スクロールバーなどのソフトウェアキーを表示したり、或いは電子メールを作成するためのウィンドウを表示する。なお、スクロールバーとは、表示パネル121の表示領域に収まりきれない大きな画像などについて、画像の表示部分を移動する指示を受け付けるためのソフトウェアキーのことをいう。
 また、操作検出制御の実行により、主制御部101は、操作部140を通じたユーザ操作を検出したり、操作パネル122を通じて、上記アイコンに対する操作や、上記ウィンドウの入力欄に対する文字列の入力を受け付けたり、或いはスクロールバーを通じた表示画像のスクロール要求を受け付ける。
 さらに、操作検出制御の実行により主制御部101は、操作パネル122に対する操作位置が、表示パネル121に重なる重畳部分(表示領域)に該当するか、或いはそれ以外の表示パネル121に重ならない外縁部分(非表示領域)に該当するかを判定し、操作パネル122の感応領域やソフトウェアキーの表示位置を制御するタッチパネル制御機能を備える。
 また、主制御部101は、操作パネル122に対するジェスチャ操作を検出し、検出したジェスチャ操作に応じて、予め設定された機能を実行することもできる。ジェスチャ操作とは、従来の単純なタッチ操作ではなく、指などによって軌跡を描いたり、複数の位置を同時に指定したり、或いはこれらを組み合わせて、複数の位置から少なくとも1つについて軌跡を描く操作を意味する。
 カメラ部141は、主制御部101の制御により、撮像によって得た画像データを例えばJPEG(Joint Photographic Experts Group)などの圧縮した画像データに変換し、その画像データを記憶部150に記録したり、外部入出力部160や無線通信部110を通じて出力したりすることができる。図20に示すようにスマートフォン100において、カメラ部141は表示入力部120と同じ面に搭載されているが、カメラ部141の搭載位置はこれに限らず、表示入力部120が設けられる筐体102の表面ではなく筐体102の背面にカメラ部141が搭載されてもよいし、或いは複数のカメラ部141が筐体102に搭載されてもよい。なお、複数のカメラ部141が搭載されている場合には、撮像に供するカメラ部141を切り替えて単独のカメラ部141によって撮像が行われてもよいし、或いは複数のカメラ部141を同時に使用して撮像が行われてもよい。
 また、カメラ部141はスマートフォン100の各種機能に利用することができる。例えば、カメラ部141で取得した画像が表示パネル121に表示されてもよいし、操作パネル122の操作入力手法の一つとして、カメラ部141で撮像取得される画像が利用されてもよい。また、GPS受信部170が位置を検出する際に、カメラ部141からの画像が参照されて位置が検出されてもよい。さらには、カメラ部141からの画像が参照されて、3軸の加速度センサを用いずに、或いは、3軸の加速度センサと併用して、スマートフォン100のカメラ部141の光軸方向を判断することや、現在の使用環境を判断することもできる。勿論、カメラ部141からの画像をアプリケーションソフトウェア内で利用することもできる。
 その他、GPS受信部170により取得された位置情報、マイクロホン132により取得された音声情報(主制御部等により、音声テキスト変換を行ってテキスト情報となっていてもよい)、およびモーションセンサ部180により取得された姿勢情報等などを静止画または動画の画像データに付加して得られるデータを、記憶部150に記録したり、外部入出力部160や無線通信部110を通じて出力したりすることもできる。
 以上で本発明の例に関して説明してきたが、本発明は上述した実施の形態に限定されず、本発明の精神を逸脱しない範囲で種々の変形が可能であることは言うまでもない。
 1    ストロボ
 2    シャッタボタン
 3    電源および/またはモードスイッチ
 4    モードダイヤル
 5    ズームボタン
 6    十字ボタン
 7    MENU/OKボタン
 8    再生ボタン
 9    BACKボタン
 10   撮像装置
 12   撮影レンズ
 14   絞り
 15   メカシャッタ
 16   撮像素子
 16A  遮光部材
 16B  遮光部材
 22   画像入力コントローラ
 24   画像処理部
 26   圧縮伸張処理部
 28   ビデオエンコーダ
 30   液晶モニタ
 32   センサ駆動部
 33   シャッタ駆動部
 34   絞り駆動部
 36   レンズ駆動部
 38   操作部
 40   CPU
 42   AF処理部
 44   AE検出部
 47   ROM
 48   メモリ
 50   VRAM
 52   メディアコントローラ
 54   メモリカード
 60   画像処理装置
 61   センサ
 63   インターフェイス
 67   ゲイン値算出部
 69   位相差画素補間部
 71   第1のゲイン補間部
 73   表示用画像生成部
 75   表示部
 77   周辺画素値算出部
 79   補間制御部
 81   周辺画素補間部
 83   第2のゲイン補間部
 85   パラメータ取得部
 87   推定ゲイン値算出部
 89   撮像条件取得部
 100  スマートフォン
 101  主制御部
 102  筐体
 110  無線通信部
 120  表示入力部
 121  表示パネル
 122  操作パネル
 130  通話部
 131  スピーカ
 132  マイクロホン
 140  操作部
 141  カメラ部
 150  記憶部
 151  内部記憶部
 152  外部記憶部
 160  外部入出力部
 170  受信部
 170  GPS受信部
 180  モーションセンサ部
 190  電源部
 S101-S113 表示例1を示す画像処理工程
 S201-S212 表示例2を示す画像処理工程
 S301-S316 表示例3を示す画像処理工程
 S401-S415 表示例4を示す画像処理工程
 S501-S517 表示例5を示す画像処理工程

Claims (16)

  1.  二次元的に複数の位相差検出用画素と複数の通常画素とが配置された撮像素子と、
     動画の撮像中に前記撮像素子から前記複数の位相差検出用画素の画素値および前記複数の通常画素の画素値を有するフレーム画像であって、前記動画の時系列順の各フレーム画像を順次取得する画像取得部と、
     前記画像取得部により取得した前記時系列順の過去フレーム画像に基づいて、現在フレーム画像の前記位相差検出用画素の画素値のゲイン補間に使用するゲイン値を算出するゲイン値算出部と、
     前記ゲイン値を使用して、前記現在フレーム画像の前記位相差検出用画素の画素値を補間する第1のゲイン補間部と、
     前記第1のゲイン補間部で補間された前記現在フレーム画像の前記位相差検出用画素の画素値および前記通常画素の画素値に基づいて、前記現在フレーム画像の表示用画像を生成する表示用画像生成部と、
     を備える画像処理装置。
  2.  前記現在フレーム画像の前記位相差検出用画素の周辺領域にある前記通常画素の画素値に基づいて周辺画素値を算出する周辺画素値算出部と、
     前記周辺画素値を使用して、前記現在フレーム画像の前記位相差検出用画素の画素値の補間をする周辺画素補間部と、を備える請求項1に記載の画像処理装置。
  3.  前記第1のゲイン補間部と前記周辺画素補間部との動作を制御する補間制御部と、を備え、
     前記補間制御部は、前記ゲイン値算出部が前記ゲイン値を算出した場合には前記第1のゲイン補間部に補間をさせ、前記ゲイン値算出部が前記ゲイン値を算出していない場合には前記周辺画素補間部に補間をさせる請求項2に記載の画像処理装置。
  4.  前記表示用画像生成部は、前記ゲイン値算出部が前記ゲイン値を算出しない場合には、前記現在フレーム画像の前記表示用画像を生成しない請求項3に記載の画像処理装置。
  5.  前記ゲイン値を推定するための情報であるゲイン値推定パラメータを取得するパラメータ取得部と、
     前記パラメータ取得部で取得された前記ゲイン値推定パラメータに基づいて、推定ゲイン値を算出する推定ゲイン値算出部と、
     前記推定ゲイン値を使用して、前記現在フレーム画像の前記位相差検出用画素の画素値を補間する第2のゲイン補間部と、を備え、
     前記補間制御部は、前記推定ゲイン値算出部が前記推定ゲイン値を算出した場合には、前記第2のゲイン補間部に補間をさせる請求項3または4に記載の画像処理装置。
  6.  前記表示用画像生成部は、前記パラメータ取得部が前記ゲイン値推定パラメータを取得していない場合には、前記現在フレーム画像の前記表示用画像は生成しない請求項5に記載の画像処理装置。
  7.  前記パラメータ取得部が取得する前記ゲイン値推定パラメータは、前記撮像素子が受光する光束が通過するレンズ瞳の形状に関する情報、および前記位相差検出用画素と前記通常画素との入射光線角度特性に関する情報のうち少なくとも一方を含む請求項5または6に記載の画像処理装置。
  8.  前記現在フレーム画像および前記過去フレーム画像に関して、撮像条件に関する情報を取得する撮像条件取得部を備え、
     前記補間制御部は、前記現在フレーム画像および前記過去フレーム画像において、前記撮像条件に関する情報の変化量が閾値以上である場合には、前記周辺画素補間部に補間をさせる請求項3から7のいずれか1項に記載の画像処理装置。
  9.  前記ゲイン値算出部は、複数の前記過去フレーム画像の前記位相差検出用画素と前記通常画素との信号比を算出することにより前記ゲイン値を算出する請求項1から8のいずれか1項に記載の画像処理装置。
  10.  前記撮像素子は、ローリングシャッタ方式またはグローバルシャッタ方式である請求項1から9のいずれか1項に記載の画像処理装置。
  11.  前記表示用画像生成部で生成された前記表示用画像を表示する表示部を備える請求項1から10のいずれか1項に記載の画像処理装置。
  12.  二次元的に複数の位相差検出用画素と複数の通常画素とが配置された撮像素子により、動画の撮像中に前記撮像素子から前記複数の位相差検出用画素の画素値および前記複数の通常画素の画素値を有するフレーム画像であって、前記動画の時系列順の各フレーム画像を順次取得するステップと、
     取得した前記時系列順の過去フレーム画像に基づいて、現在フレーム画像の前記位相差検出用画素の画素値のゲイン補間に使用するゲイン値を算出するステップと、
     前記ゲイン値を使用して、前記現在フレーム画像の前記位相差検出用画素の画素値を補間するステップと、
     補間された前記現在フレーム画像の前記位相差検出用画素の画素値および前記通常画素の画素値に基づいて、前記現在フレーム画像の表示用画像を生成するステップと、
     を含む画像処理方法。
  13.  前記現在フレーム画像の前記位相差検出用画素の周辺領域にある前記通常画素の画素値に基づいて周辺画素値を算出するステップと、
     前記周辺画素値を使用して、前記現在フレーム画像の前記位相差検出用画素の画素値の補間をするステップと、を含む請求項12に記載の画像処理方法。
  14.  ゲイン値を使用して、前記現在フレーム画像の前記位相差検出用画素の画素値を補間する第1のゲイン補間部と、周辺画素値を使用して、前記現在フレーム画像の前記位相差検出用画素の画素値の補間をする周辺画素補間部との動作を制御するステップであって、前記ゲイン値が算出された場合には前記第1のゲイン補間部に補間をさせ、前記ゲイン値が算出されてない場合には前記周辺画素補間部に補間をさせるステップを含む請求項13に記載の画像処理方法。
  15.  二次元的に複数の位相差検出用画素と複数の通常画素とが配置された撮像素子により、動画の撮像中に前記撮像素子から前記位相差検出用画素の画素値および前記複数の通常画素の画素値を有するフレーム画像であって、前記動画の時系列順の各フレーム画像を順次取得するステップと、
     取得した前記時系列順の過去フレーム画像に基づいて、現在フレーム画像の前記複数の位相差検出用画素の画素値のゲイン補間に使用するゲイン値を算出するステップと、
     前記ゲイン値を使用して、前記現在フレーム画像の前記位相差検出用画素の画素値を補間するステップと、
     補間された前記現在フレーム画像の前記位相差検出用画素の画素値および前記通常画素の画素値に基づいて、前記現在フレーム画像の表示用画像を生成するステップと、
     を含む画像処理工程をコンピュータに実行させるプログラム。
  16.  請求項15に記載のプログラムを記録したコンピュータ読み取り可能な非一時的有形媒体。
PCT/JP2018/012108 2017-03-30 2018-03-26 画像処理装置、画像処理方法、およびプログラム WO2018181163A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019509791A JP6622945B2 (ja) 2017-03-30 2018-03-26 画像処理装置、画像処理方法、およびプログラム
CN201880020590.0A CN110463184B (zh) 2017-03-30 2018-03-26 图像处理装置、图像处理方法及非易失性有形介质
US16/563,451 US10939058B2 (en) 2017-03-30 2019-09-06 Image processing apparatus, image processing method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017068558 2017-03-30
JP2017-068558 2017-03-30

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/563,451 Continuation US10939058B2 (en) 2017-03-30 2019-09-06 Image processing apparatus, image processing method, and program

Publications (1)

Publication Number Publication Date
WO2018181163A1 true WO2018181163A1 (ja) 2018-10-04

Family

ID=63675807

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/012108 WO2018181163A1 (ja) 2017-03-30 2018-03-26 画像処理装置、画像処理方法、およびプログラム

Country Status (4)

Country Link
US (1) US10939058B2 (ja)
JP (1) JP6622945B2 (ja)
CN (1) CN110463184B (ja)
WO (1) WO2018181163A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110447223B (zh) * 2017-03-16 2021-07-27 富士胶片株式会社 摄像装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012004729A (ja) * 2010-06-15 2012-01-05 Fujifilm Corp 撮像装置及び画像処理方法
JP2014026062A (ja) * 2012-07-26 2014-02-06 Sony Corp 撮像装置および撮像方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006148213A (ja) * 2004-11-16 2006-06-08 Matsushita Electric Ind Co Ltd 映像処理装置
KR100744913B1 (ko) * 2006-05-16 2007-08-01 삼성전기주식회사 휴대 단말기 및 그 간섭 위상잡음 제거방법
JP5225151B2 (ja) * 2008-03-11 2013-07-03 キヤノン株式会社 撮像装置及び画像処理方法
JP5616442B2 (ja) * 2010-06-09 2014-10-29 富士フイルム株式会社 撮像装置及び画像処理方法
KR20130088756A (ko) * 2010-06-21 2013-08-08 파나소닉 주식회사 복호 장치, 부호화 장치 및 이러한 방법
JP5888940B2 (ja) * 2011-11-11 2016-03-22 オリンパス株式会社 撮像装置、撮像装置の制御方法、およびプログラム
CN104041009B (zh) * 2011-12-28 2016-02-03 富士胶片株式会社 摄像元件及摄像装置
CN104813648B (zh) * 2012-12-11 2018-06-05 富士胶片株式会社 图像处理装置、摄像装置、及图像处理方法
JP5866478B2 (ja) 2013-03-13 2016-02-17 富士フイルム株式会社 撮像装置、信号処理方法、信号処理プログラム
JP2014179939A (ja) * 2013-03-15 2014-09-25 Sony Corp 信号処理装置および信号処理方法
JP5792349B2 (ja) 2014-04-17 2015-10-07 オリンパス株式会社 撮像装置及び撮像装置の制御方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012004729A (ja) * 2010-06-15 2012-01-05 Fujifilm Corp 撮像装置及び画像処理方法
JP2014026062A (ja) * 2012-07-26 2014-02-06 Sony Corp 撮像装置および撮像方法

Also Published As

Publication number Publication date
US10939058B2 (en) 2021-03-02
CN110463184A (zh) 2019-11-15
JP6622945B2 (ja) 2019-12-18
US20200007799A1 (en) 2020-01-02
CN110463184B (zh) 2021-03-12
JPWO2018181163A1 (ja) 2019-12-19

Similar Documents

Publication Publication Date Title
US9473725B2 (en) Image-processing and encoded aperture pattern setting device and method, and image pickup device comprising same
US9179059B2 (en) Image capture device and image display method
JP5697801B2 (ja) 撮像装置及び自動焦点調節方法
US9743031B2 (en) Imaging device and imaging method
JP6989630B2 (ja) 撮像装置
US9609224B2 (en) Imaging device and image display method
US11290635B2 (en) Imaging apparatus and image processing method
JP6998454B2 (ja) 撮像装置、撮像方法、プログラム及び記録媒体
JP6622945B2 (ja) 画像処理装置、画像処理方法、およびプログラム
WO2018088119A1 (ja) 撮像装置、撮像方法、及び、撮像プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18774970

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019509791

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18774970

Country of ref document: EP

Kind code of ref document: A1