WO2014027511A1 - 画像処理装置、および画像処理方法、並びにプログラム - Google Patents

画像処理装置、および画像処理方法、並びにプログラム Download PDF

Info

Publication number
WO2014027511A1
WO2014027511A1 PCT/JP2013/067455 JP2013067455W WO2014027511A1 WO 2014027511 A1 WO2014027511 A1 WO 2014027511A1 JP 2013067455 W JP2013067455 W JP 2013067455W WO 2014027511 A1 WO2014027511 A1 WO 2014027511A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixel
unit
image
exposure
long
Prior art date
Application number
PCT/JP2013/067455
Other languages
English (en)
French (fr)
Inventor
裕考 篠崎
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Publication of WO2014027511A1 publication Critical patent/WO2014027511A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/21Indexing scheme for image data processing or generation, in general involving computational photography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20208High dynamic range [HDR] image processing

Definitions

  • the present disclosure relates to an image processing apparatus, an image processing method, and a program. More specifically, the present invention relates to an image processing apparatus, an image processing method, and a program that generate a high dynamic range image by combining pixels set at different exposure times.
  • Solid-state imaging devices such as CCD image sensors and CMOS (Complementary Metal Oxide Semiconductor) image sensors used in video cameras and digital still cameras accumulate charges according to the amount of incident light and output electrical signals corresponding to the accumulated charges. Photoelectric conversion is performed to generate an image composed of pixel values corresponding to the accumulated charge amount.
  • CCD image sensors and CMOS Complementary Metal Oxide Semiconductor
  • an imaging device that generates a high dynamic range (HDR) image in which highly accurate pixel values are set from a low luminance region to a high luminance region.
  • HDR high dynamic range
  • a high dynamic range (HDR) image is, for example, a combination of a plurality of short exposure images and long exposure images, or long exposure pixels set in one captured image and short exposure pixels. Generated by pixel synthesis.
  • FIG. 1 is a diagram showing a high dynamic range (HDR) image generation processing configuration by combining a plurality of short exposure images and long exposure images.
  • the long exposure image 11 and the short exposure image 12 are continuously photographed by setting two different exposure times.
  • the synthesizing unit 20 the pixel values of the corresponding pixels of these two images are blended to determine the pixel value of the high dynamic range (HDR) image 21 as the output image.
  • the pixel value D (HDR) of the high dynamic range (HDR) image 21 is When the pixel values of the corresponding pixels of the long exposure image 11 and the short exposure image 12 are D (L) and D (S), respectively, they are calculated by the following equations.
  • D (HDR) (1 ⁇ ) ⁇ D (L) + ⁇ ⁇ D (S) ⁇ (GAIN)
  • D (L) is the pixel value of the long exposure image
  • D (S) is the pixel value of the short-time exposure image
  • GAIN is the exposure time ratio (exposure ratio) between the long exposure image and the short exposure image
  • is the blend ratio
  • the pixel value calculation process according to the above formula is called an ⁇ blend process.
  • the pixel value of the long-exposure image is not used in the above-described ⁇ blend process, or the pixel of the long-exposure image
  • the pixel value D (HDR) of the high dynamic range (HDR) image 21 that is the output image is calculated by reducing the blend ratio of the values.
  • the pixel value of the short-time exposure image is not used or the blend ratio of the pixel value of the long-time exposure image is increased in the ⁇ blending process.
  • HDR high dynamic range
  • FIG. 2 is a diagram illustrating a configuration for generating a high dynamic range (HDR) image by combining a long-time exposure pixel set in one captured image and a short-time exposure pixel.
  • HDR high dynamic range
  • long exposure pixels and short exposure pixels are set in predetermined pixel area units.
  • the example shown in FIG. 2 is an example in which long exposure pixels and short exposure pixels are alternately set in units of two rows in an image sensor having a Bayer array. It should be noted that the long-exposure pixel and the short-exposure pixel can be set in various other settings such as every other row.
  • the synthesizer 40 calculates the pixel value of the output image by blending the pixel values of the long-time exposure pixels and the short-time exposure pixels in the vicinity area included in the captured image 30 to generate a high dynamic range (HDR) image 41.
  • HDR high dynamic range
  • one R pixel value of the high dynamic range (HDR) image 41 is determined using the two R pixels shown in the drawing, that is, the long exposure pixel R31 and the short exposure pixel R32.
  • the calculation process of the pixel value D (HDR) of the high dynamic range (HDR) image 41 using the single photographed image 30 is basically the same as the blend process described above with reference to FIG. Executed. That is, The pixel value D (HDR) of the high dynamic range (HDR) image 41 is as follows when the pixel values of the long exposure pixel and the short exposure pixel to be blended are D (L) and D (S), respectively. Calculated by the formula.
  • D (HDR) (1 ⁇ ) ⁇ D (L) + ⁇ ⁇ D (S) ⁇ (GAIN)
  • D (L) is the pixel value of the long exposure pixel
  • D (S) is the pixel value of the short-time exposure pixel
  • GAIN is the exposure time ratio (exposure ratio) between the long exposure pixel and the short exposure pixel
  • is the blend ratio
  • Patent Document 1 Japanese Patent Application Laid-Open No. 2011-244309
  • Patent Document 1 describe a process of setting pixels with different exposure times in one image and synthesizing these pixels to generate a high dynamic range image
  • Document 2 Japanese Patent Laid-Open No. 2012-80297 and the like.
  • HDR high dynamic range
  • Jaggy is a phenomenon in which a boundary such as an edge is output in a stepped jagged pattern. Originally, even a smooth edge boundary is output as a step-like unnatural edge boundary. In many cases, “jaggy” is aliasing that occurs because the number of samplings is insufficient with respect to the band of the input signal, and is likely to appear in, for example, a subject boundary or a textured area with a pattern in an image.
  • the present disclosure has been made in view of, for example, such a situation, and an image processing apparatus that performs high-quality image generation in a configuration that generates a high dynamic range image using a single captured image, and image processing It is an object to provide a method and a program.
  • the first aspect of the present disclosure is: A signal processing unit that generates an output image by executing pixel value synthesis processing of pixels included in an input image including the long-time exposure pixel and the short-time exposure pixel;
  • the signal processing unit An edge detection unit that performs edge detection on each component pixel of the input image and outputs edge information corresponding to each pixel;
  • a centroid correction unit that executes centroid correction processing of the long-time exposure pixel and the short-time exposure pixel to be combined, and outputs the centroid correction unit output long-time exposure pixel and centroid correction unit output short-time exposure pixel;
  • the image processing apparatus includes a pixel synthesizing unit that performs a synthesizing process between the centroid correction unit output long-time exposure pixel and the centroid correction unit output short-time exposure pixel generated by the centroid correction unit.
  • the centroid correction unit performs a process of matching the pixel positions of the long-time exposure pixel and the short-time exposure pixel that are to be combined as the centroid correction process.
  • the pixel value of the long-time exposure pixel output from the centroid correction unit is calculated by weighted addition using pixel values of a plurality of long-exposure pixels of the same color at different pixel positions, and a plurality of identical pixels at different pixel positions are calculated.
  • Processing for calculating the pixel value of the short-time exposure pixel output by the centroid correction unit is performed by weighted addition using the pixel value of the short-time exposure pixel of color.
  • the centroid correction unit includes a saturation determination unit that determines whether or not a pixel applied to the centroid correction process is saturated, and the centroid correction process includes When the applied pixel is saturated, the pixel value of the input image is set as the pixel value of the centroid correction unit output long exposure pixel and the centroid correction unit output short exposure pixel, and the pixel applied to the centroid correction process is If not saturated, the pixel value calculated by weighted addition using the pixel values of a plurality of long-time exposure pixels of the same color at different pixel positions is used as the pixel value of the centroid correction unit output long-time exposure pixel and is different A pixel value calculated by weighted addition using pixel values of a plurality of short-time exposure pixels of the same color at pixel positions is selectively output as a pixel value of the centroid correction unit output short-time exposure pixel.
  • the centroid correction unit includes a saturation determination unit that determines whether or not a pixel applied to the centroid correction process is saturated, and the centroid correction process includes When the applied pixel is saturated, the pixel value of the centroid correction unit output long-time exposure pixel is set as the pixel value of the long-time exposure pixel of the input image, and the pixel value of the centroid correction unit output short-time exposure pixel is The pixel value calculated by the smoothing process based on the plurality of pixel values of the short-time exposure pixels of the input image is set.
  • the center-of-gravity correction unit applies the smoothing process to a smoothing filter in which a coefficient corresponding to an edge direction input from the edge detection unit is set. Execute.
  • the pixel synthesis unit is a flat as a synthesis unit that performs a synthesis process of the centroid correction unit output long-time exposure pixel and the centroid correction unit output short-time exposure pixel.
  • a flat part synthesis unit that executes synthesis processing adapted to the sub-region, an edge synthesis unit that performs synthesis processing adapted to the edge region, a saturation unit synthesis unit that performs synthesis processing adapted to the saturation region, A selection unit configured to select a synthesis result of each of the synthesis units and generate a synthesis result image, and the selection unit determines whether the edge information and a pixel applied to the centroid correction processing are saturated pixels; When the saturation flag is input and the pixel applied to the centroid correction process is a saturated pixel, the combination result of the saturation unit synthesizer is selected, and the pixel applied to the centroid correction process is not a saturated pixel but an edge In the area If you can select the combined result of the edge portion combining unit, the pixel applied to the center of gravity correction process is not saturated pixel, if not an edge region, selects the combined result of the flat portion synthesis unit.
  • the flat portion synthesis unit includes the centroid correction unit according to a blend rate ( ⁇ ) that changes according to a pixel value of the centroid correction unit output long-time exposure pixel.
  • the pixel value of the output long time exposure pixel and the centroid correction unit output short time exposure pixel are blended to calculate a pixel value as a synthesis result, and the edge synthesis unit calculates the pixel value of the centroid correction unit output long time exposure pixel.
  • the saturation value is calculated by blending pixel values of the centroid correction unit output long-time exposure pixel and the centroid correction unit output short-time exposure pixel according to a fixed blend rate ( ⁇ ) independent of
  • the synthesis unit calculates the pixel value of the centroid correction unit output short-time exposure pixel as a pixel value of the synthesis result.
  • the pixel composition unit further includes a moving subject unit composition unit that performs composition processing adapted to the moving subject region, and the selection unit includes the center-of-gravity correction.
  • the composition result of the moving subject composition unit is displayed. select.
  • the input image is a Bayer array image composed of RGB pixels
  • the edge detection unit performs an edge detection process using only G pixels.
  • the second aspect of the present disclosure is: A signal processing unit that generates an output image by executing pixel value synthesis processing of pixels included in an input image including the long-time exposure pixel and the short-time exposure pixel;
  • the signal processing unit An edge detection unit that performs edge detection on each component pixel of the input image and outputs edge information corresponding to each pixel;
  • An array conversion centroid correction unit that generates a specific color high-frequency signal and an all-color low-frequency signal of the input image;
  • a pixel synthesizer that inputs the specific color high-frequency signal and the all-color low-frequency signal, and generates a specific color high-frequency high-dynamic range (HDR) signal and an all-color low-frequency high dynamic range (HDR) signal; Correlation processing for generating the high dynamic range (HDR) image having the same number of pixels as the input image by inputting the specific color high frequency range high dynamic range (HDR) signal and the all color low frequency range high dynamic range (HDR) signal.
  • An image processing apparatus having
  • the input image is a Bayer array image configured by RGB pixels
  • the array conversion centroid correction unit includes a G color high-frequency signal of the input image and RGB Each color low-frequency signal is generated, and the pixel synthesizing unit inputs the G color high-frequency signal and the RGB low-frequency signal, the G color high-frequency high dynamic range (HDR) signal, and the RGB low-frequency color high-frequency signal.
  • HDR high-frequency high dynamic range
  • a dynamic range (HDR) signal is generated, and the correlation processing unit inputs the G color high frequency high dynamic range (HDR) signal and the RGB color low frequency high dynamic range (HDR) signal, and inputs the input A high dynamic range (HDR) image including a Bayer array having the same number of pixels as the image is generated.
  • HDR high dynamic range
  • the third aspect of the present disclosure is: An image processing method executed in an image processing apparatus,
  • the signal processing unit executes a signal processing step of generating an output image by performing pixel value synthesis processing of pixels included in the input image including the long exposure pixels and the short exposure pixels,
  • Edge detection processing for executing edge detection for each component pixel of the input image and outputting edge information corresponding to each pixel
  • the center-of-gravity correction processing for executing the center-of-gravity correction processing of the long-time exposure pixel and the short-time exposure pixel to be combined, and outputting the center-of-gravity correction unit output long-time exposure pixel and the center-of-gravity correction unit output short-time exposure pixel;
  • the centroid correction unit output long exposure pixel and the centroid correction unit output short exposure pixel generated by the centroid correction unit are combined.
  • the fourth aspect of the present disclosure is: A program for executing image processing in an image processing apparatus; Causing the signal processing unit to execute a signal processing step of generating an output image by performing pixel value synthesis processing of pixels included in the input image including the long exposure pixels and the short exposure pixels; In the signal processing step, Edge detection processing for executing edge detection for each component pixel of the input image and outputting edge information corresponding to each pixel; The center-of-gravity correction processing for executing the center-of-gravity correction processing of the long-time exposure pixel and the short-time exposure pixel to be combined, and outputting the center-of-gravity correction unit output long-time exposure pixel and the center-of-gravity correction unit output short-time exposure pixel; A program for executing a synthesis process of the center-of-gravity correction unit output long-time exposure pixel and the center-of-gravity correction unit output short-time exposure pixel generated by the barycentric correction unit.
  • the program of the present disclosure is a program that can be provided by, for example, a storage medium or a communication medium provided in a computer-readable format to an information processing apparatus or a computer system that can execute various program codes.
  • a program in a computer-readable format, processing corresponding to the program is realized on the information processing apparatus or the computer system.
  • system is a logical set configuration of a plurality of devices, and is not limited to one in which the devices of each configuration are in the same casing.
  • an apparatus and a method for generating a high-quality, high dynamic range image by pixel synthesis of an image including long-time exposure pixels and short-time exposure pixels are realized.
  • an edge detection unit that performs edge detection for each component pixel of the input image including the long exposure pixel and the short exposure pixel, and a centroid correction process of the long exposure pixel and the short exposure pixel to be combined
  • a pixel composition unit that performs composition processing of the generated pixels of the center of gravity correction unit.
  • the pixel compositing unit is a flat part compositing result obtained by applying a blend ratio ( ⁇ ) corresponding to the pixel value of the long-time exposure pixel, an edge part compositing result applying a fixed blend ratio, and a saturated part compositing adapted to the saturated part region. From the result, an optimum synthesis result corresponding to the situation of each pixel is selected, and a high dynamic range (HDR) image is generated and output based on the selected synthesis result.
  • HDR high dynamic range
  • Example of overall configuration of image processing apparatus 2.
  • Configuration and processing of pixel composition unit Example 2: Example in which the configuration of the gravity center correction unit is changed.
  • Example 3 Example in which the configuration of the pixel synthesis unit is changed.
  • Example 4 Example of change in pixel arrangement of image sensor and long / short exposure pixel setting
  • Example 5 Example of generating an HDR image without reducing the number of pixels 6-1.
  • Configuration and processing of correlation processing unit Example 6: Configuration example of imaging apparatus having gradation conversion unit and camera signal processing unit Summary of composition of this disclosure
  • FIG. 3 illustrates a configuration example of the imaging apparatus 100 that is a configuration example of the image processing apparatus of the present disclosure.
  • the light incident through the optical lens 101 is incident on an image sensor 102 constituted by an imaging unit, for example, a CMOS image sensor, and outputs image data by photoelectric conversion.
  • the output image data is input to the signal processing unit 103.
  • the signal processing unit 103 performs pixel synthesis processing described below, and further performs signal processing in a general camera such as white balance (WB) adjustment and gamma correction to generate the output image 120.
  • the output image 120 is stored in a storage unit (not shown). Or it outputs to a display part.
  • the control unit 105 outputs a control signal to each unit according to a program stored in a memory (not shown), for example, and controls various processes.
  • FIG. 4 is a diagram illustrating a configuration of the signal processing unit 103 according to an embodiment of the present disclosure.
  • the signal processing unit 103 includes an HDR image generation unit 131, a subsequent signal processing unit 132, and an output unit 133.
  • the HDR image generation unit 131 executes a synthesis process of pixel signals input from the image sensor 102.
  • the post-stage signal processing unit 132 executes signal processing in a general camera such as white balance (WB) adjustment and gamma correction.
  • the output unit 133 outputs the processed image that has been subjected to the signal processing as an output image 120.
  • the image sensor 102 accumulates electric charges based on subject light in each of a large number of pixels and outputs image data.
  • the image sensor 102 has a configuration including a high-sensitivity pixel that performs long-time exposure and a low-sensitivity pixel that performs short-time exposure.
  • High-sensitivity pixels that are exposed for a long time are called “long exposure pixels”.
  • Low-sensitivity pixels that perform short-time exposure are called “short-exposure pixels” Will be described.
  • the HDR image generation unit 131 executes a synthesis (blending) process of the pixel value of the long exposure pixel and the pixel value of the short exposure pixel. For example, a process of combining (blending) the pixel value of the long exposure pixel and the pixel value of the short exposure pixel in the vicinity of the vertical direction of the image sensor is performed, and after this combining, the combined pixels in the horizontal direction are recombined. . Such a pixel value synthesis process is executed to generate a high dynamic range (HDR) image with a reduced number of pixels. There is also a method of generating a high dynamic range (HDR) image without reducing the number of pixels. The generation configuration of these high dynamic range (HDR) images will be described in detail later.
  • HDR high dynamic range
  • the image sensor 102 is a CMOS (Complementary Metal Oxide Semiconductor) image sensor having an RGB array as shown in FIG. 5, that is, a Bayer array will be described.
  • CMOS Complementary Metal Oxide Semiconductor
  • the image sensor 102 is configured to have pixels with different exposure times for every two rows, that is, short exposure pixels and long exposure pixels. This exposure time control for each pixel is executed under the control of the control unit 105.
  • the gray area shown in FIG. 6 is a short exposure pixel area with a short exposure time, and the white area is a long exposure pixel area with a long exposure time.
  • Each rectangular area represents one pixel.
  • an exposure process that changes the exposure time for each pixel is referred to as an SVE (Spatially Variable Exposure Exposure) method
  • an image obtained by this SVE method is referred to as an SVE image, an SVE array image, or an SVE signal.
  • an image with a wide dynamic range can be obtained by synthesizing the pixel signals of the long exposure pixel and the short exposure pixel of the SVE image taken by changing the exposure time for each pixel.
  • An image generated by this combining process is called a high dynamic range (HDR) image.
  • FIG. 7 is a block diagram illustrating a detailed configuration of the HDR image generation unit 131.
  • the HDR image generation unit 131 inputs an output image of the image sensor 102, that is, an input image (SVE array image) 141 in which long exposure pixels and short exposure pixels are alternately set in units of two rows.
  • the HDR image generation unit 131 generates a high dynamic range (HDR) image 142 by combining the long exposure pixels and the short exposure pixel pixels that form the input image (SVE array image) 141 and outputs the high dynamic range (HDR) image 142.
  • HDR high dynamic range
  • N ⁇ M pixel input image (SVE array image) 141 is input, and a P ⁇ Q pixel HDR image 142 is generated and output.
  • P ⁇ N, Q ⁇ M It is.
  • the HDR image generation unit 131 includes an edge detection unit 151, a centroid correction unit 152, and a pixel synthesis unit 153.
  • the edge detection unit 151 analyzes the presence / absence of an edge and the edge direction in each pixel region of the input SVE array, and generates and outputs edge information including the analysis information.
  • the centroid correction unit 152 uses the edge information detected by the edge detection unit 151 to correct the centroid position of the long exposure pixel and the short exposure pixel to be combined.
  • the pixel synthesis unit 153 uses the centroid correction pixel value that is the output of the centroid correction unit 152 to synthesize the long exposure pixel and the short exposure pixel using the edge component information.
  • the detailed configuration and processing of each component of the HDR image generation unit 131 will be sequentially described.
  • FIG. 8 is a block diagram showing a detailed configuration of the edge detection unit 151.
  • the edge detection unit 151 uses the input image (SVE array image) 141 shown in FIG. 7, which is an output image from the image sensor 102, and 9 ⁇ 9 pixels in the vicinity of the pixel of interest with the pixel of interest as the edge detection target being substantially the central pixel.
  • Edge information corresponding to the target pixel is generated using an image signal composed only of G pixels in the region, that is, the edge detection image 141G shown in FIG. 8, and the centroid correction unit 152 and the pixel synthesis unit 153 shown in FIG. Output to.
  • Each pixel of the HDR image 142 finally generated by the HDR image generation unit 131 shown in FIG. 7 is a plurality of pixels including at least one long exposure pixel and short exposure pixel in the input image (SVE array image) 141. Generated by pixel value synthesis. Therefore, the HDR image generation unit 131 may be set to perform processing by sequentially selecting only the long exposure pixels in the input image (SVE array image) as processing target pixels (target pixels). The short exposure pixel is automatically selected as a pixel to be applied to synthesis with the long exposure pixel selected as the processing target pixel (target pixel).
  • the short exposure pixel to be combined with the long exposure pixel selected as the processing target pixel (target pixel) is, for example, a short exposure pixel of the same color in the vicinity of the selected long exposure pixel in the vertical direction.
  • a combination of the long exposure pixel and the short exposure pixel to be combined is set in advance, and the HDR image generation unit 131 performs pixel combination based on the setting information.
  • the edge information generated by the edge detection unit 151 shown in FIG. 8 is the following signals as shown in FIG. (A) Long exposure edge flag (LEedge_flg) 171, (B) Long exposure edge direction flag (LDir_flg) 172, (C) Short exposure edge flag (SEedge_flg) 173, (D) Short exposure edge direction flag (SDir_flg) 174,
  • the edge detection unit 151 generates edge information composed of (a) to (d) and outputs the edge information to the centroid correction unit 152 and the pixel synthesis unit 153.
  • the edge detection unit 151 includes a difference calculation unit (vertical) 161, a difference calculation unit (horizontal) 162, a difference calculation unit (upper right) 163, and a difference calculation unit (upper left) 164. Further, a long exposure edge detection unit 165, a long exposure edge direction determination unit 166, a short exposure edge detection unit 167, and a short exposure edge direction determination unit 168 are provided.
  • the difference calculation unit (vertical) 161 applies the G pixel included in the edge detection image 141G shown in FIG. 8, that is, the 9 ⁇ 9 pixel region in the vicinity of the target pixel, and the following two pieces of vertical pixel value difference information Is calculated.
  • SDiff_v average value of pixel value differences between two short-time exposure G pixels adjacent in the vertical direction;
  • the difference calculation unit (horizontal) 162 applies the G pixel included in the edge detection image 141G shown in FIG. 8, that is, the 9 ⁇ 9 pixel region in the vicinity of the target pixel, and the following two pieces of horizontal pixel value difference information Is calculated.
  • the difference calculation unit (upper right) 163 applies the edge detection image 141G illustrated in FIG. 8, that is, the G pixel included in the 9 ⁇ 9 pixel region in the vicinity of the target pixel, and the following two pieces of pixel value difference information in the upper right direction: Is calculated.
  • An average value (SDiff_a) of pixel value differences between two short-time exposure G pixels adjacent in the upper right direction are calculated.
  • the difference calculation unit (upper left) 164 applies the G pixel included in the edge detection image 141G shown in FIG. 8, that is, the 9 ⁇ 9 pixel region in the vicinity of the target pixel, and the following two upper left pixel value difference information Is calculated.
  • FIG. 9 is a diagram showing a specific example of the vertical, horizontal, upper right, and upper left difference calculation processes relating to the long exposure pixels executed in the difference calculation units 161 to 164.
  • (Ld) Long exposure upper left direction In each of these processes, a combination (pixel pair) of pixels for which a difference is calculated is indicated by an arrow.
  • the pixel value differences of a plurality of pixel pairs are calculated, and the average value is calculated to calculate the following values.
  • Long exposure pixel vertical direction pixel value difference average value (LDiff_v)
  • Long exposure pixel horizontal direction pixel value difference average value (LDiff_h)
  • Long exposure pixel upper right direction pixel value difference average value (LDiff_a)
  • Long exposure pixel upper left direction pixel value difference average value (LDiff_d)
  • the calculation formula of these values is as shown in the following (Formula 1).
  • N, M. O and P are the calculated numbers of differences.
  • FIG. 10 is a diagram illustrating a specific example of the vertical, horizontal, upper right, and upper left difference calculation processes relating to the short exposure pixels executed by the difference calculation units 161 to 164.
  • Sv Short exposure vertical direction
  • Sh horizontal direction of short exposure
  • Sa Short exposure upper right direction
  • Sd Short exposure upper left direction
  • a combination (pixel pair) of pixels for which a difference is calculated is indicated by an arrow.
  • the pixel value differences of a plurality of pixel pairs are calculated, and the average value is calculated to calculate the following values.
  • Short exposure pixel vertical direction pixel value difference average value SDiff_v
  • Short exposure pixel horizontal direction pixel value difference average value SDiff_h
  • Short exposure pixel upper right direction pixel value difference average value SDiff_a
  • Short exposure pixel upper left direction pixel value difference average value S Diff_d
  • the calculation formulas for these values are as shown in (Formula 2) below.
  • a pixel value difference average value in four directions is calculated by applying the pixels. This calculated value is output to the long exposure edge detection unit 165, the long exposure edge direction determination unit 166, the short exposure edge detection unit 167, and the short exposure edge direction determination unit 168.
  • the long exposure edge detection unit 165 and the long exposure edge direction determination unit 166 input the pixel value difference average value in the four directions of the long exposure G pixel, and use the pixel value difference average value in each direction of the long exposure pixel, The presence / absence of an edge determined from the long exposure pixel and the edge direction are determined. Further, the short exposure edge detection unit 167 and the short exposure edge direction determination unit 168 receive the pixel value difference average values in the four directions of the short exposure G pixels and use the pixel value difference average values in the respective directions of the short exposure pixels. Thus, the presence / absence of the edge and the edge direction determined from the short exposure pixel are determined.
  • the long exposure edge detection unit 165 calculates a long exposure edge determination flag (LEedge_flg) 171 indicating the presence / absence of an edge determined from the long exposure pixel according to the following (Equation 3).
  • TH is a predetermined threshold value.
  • the long exposure edge direction determination unit 166 calculates a long exposure edge direction flag (LDir_flg) 172 indicating the direction of the edge determined from the long exposure pixel according to the following (Equation 4).
  • min ⁇ a, b, c, d ⁇ is a function for selecting the minimum value from a, b, c, d.
  • the long exposure edge direction flag (LDir_flg) 172 indicates the following edge direction according to each value 0 to 3 defined by the above (Expression 4).
  • LDir_flg 0: the edge direction is the vertical direction
  • LDir_flg 1: the edge direction is the horizontal direction
  • LDir_flg 2: the edge direction is the upper left direction
  • LDir_flg 3: The edge direction is the upper right direction
  • the short exposure edge detection unit 167 calculates a short exposure edge determination flag (SEdge_flg) 173 indicating the presence / absence of an edge determined from the short exposure pixel according to the following (formula 5).
  • SEdge_flg short exposure edge determination flag
  • TH is a predetermined threshold value.
  • the short exposure edge direction determination unit 168 calculates a long exposure edge direction flag (SDir_flg) 174 indicating the direction of the edge determined from the short exposure pixel according to the following (formula 6).
  • min ⁇ a, b, c, d ⁇ is a function for selecting the minimum value from a, b, c, d.
  • the short exposure edge direction flag (SDir_flg) 174 indicates the following edge direction according to each value 0 to 3 defined by the above (Expression 6).
  • SDir_flg 0: the edge direction is the vertical direction
  • SDir_flg 1: Edge direction is horizontal
  • SDir_flg 2: the edge direction is the upper left direction
  • SDir_flg 3: The edge direction is the upper right direction
  • the edge detection unit 151 is.
  • the following information corresponding to the target pixel is generated as edge information and output to the centroid correction unit 152 and the pixel synthesis unit 153.
  • a long exposure edge flag (LEEdge_flg) 171 indicating whether or not the target pixel determined based on the long exposure pixel is an edge region.
  • Long exposure edge direction flag (LDir_flg) 172 indicating the edge direction of the target pixel determined based on the long exposure pixel
  • a short exposure edge direction flag (SDir_flg) 174 indicating the edge direction of the target pixel determined based on the short exposure pixel.
  • FIG. 11 is a block diagram illustrating a detailed configuration of the gravity center correction unit 152.
  • the HDR image generation unit 131 illustrated in FIG. 7 combines the long exposure pixels and the short exposure pixels included in the input image (SVE array image) 141 illustrated in FIG. 7 which is an output image from the image sensor 102, and is an output image.
  • One output pixel value of the HDR image 142 is calculated.
  • the HDR image 142 that is the output image after the synthesis process is set to halve the number of pixels in the horizontal and vertical directions of the input image (SVE array image) 141 that is the input image before the synthesis process.
  • the long exposure pixel and the short exposure pixel to be combined are at different pixel positions, and photographic pixel values at different subject positions are combined.
  • processing for example, jaggies in which boundaries such as edges are set in a staircase shape or aliasing such as false colors may occur.
  • aliasing such as false colors
  • it is effective to perform adjustment so that the pixel positions of the long exposure pixel and the short exposure pixel to be combined are the same pixel position. This process is called center of gravity correction.
  • the vertical centroid correction unit 181 of the centroid correction unit 152 illustrated in FIG. 11 has each pixel position when the pixel positions are the same for the long exposure pixels and the short exposure pixels included in the input image (SVE array image) 141. Pixel values are calculated and output to the correction result selection unit 183 as “long exposure pixel with center of gravity correction (L_w)” and “short exposure pixel with center of gravity correction (S_w)”.
  • the vertical centroid correction unit 181 of the centroid correction unit 152 executes processing for matching the pixel positions of the long-time exposure pixel and the short-time exposure pixel that are to be combined in this way.
  • the pixel value of the long-time exposure pixel output by the centroid correction unit is calculated by weighted addition using the pixel values of the plurality of long-time exposure pixels of the same color at different pixel positions.
  • a process of calculating the pixel value of the centroid correction unit output short-time exposure pixel is performed by weighted addition using the pixel values of a plurality of short-time exposure pixels of the same color at different pixel positions.
  • FIG. 13 shows the following processing examples.
  • the processing example illustrated in FIG. 13 illustrates a processing example when the target pixel to be processed is the long exposure pixel in the fifth, sixth, ninth, and tenth rows in the input image (SVE array image).
  • each pixel of the HDR image 142 finally generated by the HDR image generation unit 131 illustrated in FIG. 7 is at least one long exposure pixel and short exposure pixel in the input image (SVE array image) 141. Is generated by combining pixel values of a plurality of pixels. Accordingly, the HDR image generation unit 131 may be configured to sequentially select only the long exposure pixels in the input image (SVE array image) as the processing target pixel (target pixel). This is because the short exposure pixel is automatically selected as a pixel to be applied to synthesis with the long exposure pixel selected as the processing target pixel (target pixel).
  • FIG. 13 illustrates the centroid correction process when the long exposure pixels in the fifth, sixth, ninth, and tenth rows in the input image (SVE array image) are selected as the processing target pixel (target pixel).
  • SVE array image the processing target pixel
  • L_w Long exposure pixel with center of gravity correction
  • S_w Short exposure pixel with center of gravity correction
  • the following process is executed. If any of the GRGR pixels in the fifth row in the input image (SVE array image) is the target pixel, the pixel value of the long exposure pixel (GRGR) at the pixel position in the first row of the input image (SVE array image) And the pixel value of the long-exposure pixel (GRGR) in the fifth row and the pixel value of the long-exposure pixel (GRGR) in the ninth row are added and averaged at 1: 6: 1, thereby obtaining FIG. ) The pixel value of each pixel (GRGR) in the uppermost stage (corresponding to the fifth row) of the long-time exposure gravity center corrected image is calculated. In FIG. 13 (a2), the pixel value of the center-of-gravity correction pixel corresponds to the pixel value corresponding to which pixel position (the x-th row) in the input image. It shows.
  • the pixel value and the pixel value of the long exposure pixel (BGBG) in the tenth row are added and averaged at 3: 1, so that (a2) each second pixel (corresponding to the seventh row) of the long-time exposure centroid-corrected image
  • the pixel value of (BGBG) is calculated.
  • the fifth row in the input image (SVE array image) is the same as the processing in the fifth row.
  • the pixel value of the long exposure pixel (GRGR) at the pixel position, the pixel value of the long exposure pixel (GRGR) in the ninth row, and the pixel value of the long exposure pixel (GRGR) in the thirteenth row are 1: 6.
  • the pixels in the 10th row of the input image (SVE array image) are the same as in the process in the 6th row.
  • the pixel value of the long exposure pixel (BGBG) at the position and the pixel value of the long exposure pixel (BGBG) in the 14th row are added and averaged at a ratio of 3: 1.
  • the pixel value of each pixel (BGBG) in the (11th row) is calculated.
  • the pixel position of the gravity center corrected image is the position of the ninth row in the input image.
  • the processing target pixel (target pixel) is the BGBG pixel in the 10th row of the input image
  • the pixel position of the gravity center corrected image is the 11th row position in the input image.
  • the center-of-gravity correction pixels are calculated as pixel values corresponding to pixels arranged at equal intervals in the vertical direction in the input image.
  • the following processing is executed.
  • the pixel value of the pixel value of the short exposure pixel (GRGR) in the seventh row are added and averaged by 1: 1, whereby the uppermost stage (corresponding to the fifth row) of FIG. ) For each pixel (GRGR).
  • the pixel value and the pixel value of the short exposure pixel (BGBG) in the eighth row are added and averaged by 1: 3, whereby (b2) each second pixel (corresponding to the seventh row) of the short-time exposure centroid-corrected image
  • the pixel value of (BGBG) is calculated.
  • the seventh row in the input image (SVE array image) is the same as the processing in the fifth row.
  • the pixel value of the short-exposure pixel (GRGR) at the pixel position and the pixel value of the short-exposure pixel (GRGR) in the eleventh row are added and averaged 1: 1, thereby FIG.
  • a pixel value of each third pixel (corresponding to the ninth row) of the image (GRGR) is calculated.
  • the pixels in the 8th row of the input image (SVE array image) are the same as in the process in the 6th row.
  • the pixel value of the short-exposure pixel (BGBG) at the position and the pixel value of the short-exposure pixel (BGBG) in the twelfth row are added and averaged by 1: 3.
  • the pixel value of each pixel (BGBG) in the (11th row) is calculated.
  • the short-time exposure centroid correction image When the pixel to be processed (target pixel) is a long exposure pixel in the fifth, sixth, ninth, and tenth rows of the input image (SVE array image), the pixel value of the center-of-gravity correction pixel is x line)).
  • the processing target pixel (target pixel) is the GRGR pixel in the fifth row of the input image
  • the pixel position of the gravity center corrected image is the position of the fifth row in the input image.
  • the pixel to be processed (target pixel) is the BGBG pixel in the sixth row of the input image
  • the pixel position of the center-of-gravity correction image is the position of the seventh row in the input image.
  • the pixel position of the gravity center corrected image is the position of the ninth row in the input image.
  • the processing target pixel (target pixel) is the BGBG pixel in the 10th row of the input image
  • the pixel position of the gravity center corrected image is the 11th row position in the input image.
  • the center-of-gravity correction pixels are calculated as pixel values corresponding to pixels arranged at equal intervals in the vertical direction in the input image.
  • the pixel values of the pixels of each center-of-gravity correction image are the fifth, seventh, ninth, This corresponds to the pixel value at the position corresponding to the eleventh row.
  • FIGS. 14A to 14D show processing examples of the vertical centroid correction unit 181 when the processing target pixel (target pixel) is a long exposure pixel corresponding to each of the fifth, sixth, ninth, and tenth rows of the input image.
  • FIG. The specific processing of the pixel value calculation processing of the center-of-gravity correction pixels of the long exposure pixel and the short exposure pixel is shown.
  • (1) Processing when the long-time exposure pixel in the fifth row of the input image is the processing target pixel (target pixel) is as follows.
  • (1L) The pixel value of the long-time exposure centroid correction pixel is the ratio of the pixel values of the long exposure pixels in the first row, the fifth row, and the ninth row of the input image (SVE array image) at a ratio of 1: 6: 1.
  • (1S) The pixel value of the short-time exposure centroid correction pixel is calculated by adding the pixel values of the short-exposure pixels in the third row and the seventh row of the input image (SVE array image) at a ratio of 1: 1.
  • (2) Processing when the long-time exposure pixel in the sixth row of the input image is the processing target pixel (target pixel) is as follows.
  • (2L) The pixel value of the long-time exposure centroid correction pixel is calculated by adding the pixel values of the long exposure pixels in the sixth and tenth rows of the input image (SVE array image) at a ratio of 3: 1.
  • (2S) The pixel value of the short-time exposure centroid correction pixel is calculated by adding the pixel values of the short-exposure pixels in the fourth and eighth rows of the input image (SVE array image) at a ratio of 1: 3.
  • Processing when the long-time exposure pixel in the ninth row of the input image is set as a processing target pixel (target pixel) is as follows.
  • the pixel value of the long-time exposure centroid correction pixel is the ratio of the pixel values of the long exposure pixels in the fifth row, the ninth row, and the thirteenth row of the input image (SVE array image) at a ratio of 1: 6: 1.
  • (3S) The pixel value of the short-time exposure centroid correction pixel is calculated by adding the pixel values of the short-exposure pixels in the seventh row and the eleventh row of the input image (SVE array image) at a ratio of 1: 1.
  • Processing when the long-time exposure pixel in the tenth row of the input image is the processing target pixel (target pixel) is as follows.
  • (4L) The pixel value of the long-time exposure centroid correction pixel is calculated by adding the pixel values of the long exposure pixels in the 10th and 14th rows of the input image (SVE array image) at a ratio of 3: 1.
  • (4S) The pixel value of the short-time exposure centroid correction pixel is calculated by adding the pixel values of the short-exposure pixels in the eighth and twelfth rows of the input image (SVE array image) at a ratio of 1: 3.
  • each pixel value when it is assumed that the long exposure pixel and the short exposure pixel are set at the same pixel position of the input image is calculated as the long exposure centroid correction pixel and the short exposure centroid correction pixel.
  • the vertical centroid correction unit 181 of the centroid correction unit 152 illustrated in FIG. 11 executes the processing described with reference to FIGS. 13 and 14 to generate the following data as illustrated in FIG. Long exposure pixel with center of gravity correction (L_w), Short exposure pixel with center of gravity correction (S_w), The vertical centroid correction unit 181 calculates each piece of pixel value information and outputs it to the correction result selection unit 183. Each of these pixel values is generated as centroid correction pixel value data corresponding to one long exposure pixel selected as one processing target pixel (target pixel), and is output to the correction result selection unit 183.
  • the correction result selection unit 183 further inputs the following pixel information included in the input image (SVE array image) 141.
  • Short exposure pixel without center of gravity correction (S_n) are pixel information of the input image (SVE array image) 141 itself.
  • the correction result selection unit 183 further receives a saturation flag (Sat_flg) 185 generated by the saturation determination unit 182.
  • the saturation determination unit 182 determines whether or not the pixel value of the long exposure pixel included in the input image (SVE array image) 141 is saturated, and indicates whether or not each long exposure pixel is saturated.
  • (Sat_flg) 185 is set and output.
  • the saturation flag (Sat_flg) 185 generated by the saturation determination unit 182 is output to the correction result selection unit 183 of the centroid correction unit 152, and is also output to the pixel synthesis unit 153 of the HDR image generation unit 131 shown in FIG. .
  • the correction result selection unit 183 inputs the following data. (1) Long exposure pixel without center of gravity correction (L_n) (2) Short exposure pixel without center of gravity correction (S_n) (3) Long exposure pixel with center of gravity correction (L_w), (4) Short exposure pixel with center of gravity correction (S_w), (5) Saturation flag (Sat_flg) 185
  • a saturation flag (Sat_flg) 185 is the saturation determination information of the long exposure pixel generated by the saturation determination unit 182.
  • the correction result selection unit 183 includes a pixel whose saturation flag (Sat_flg) 185 is 1, that is, a saturated pixel, in the long exposure pixel applied to the generation of the “long exposure pixel with centroid correction (L_w)” in the vertical centroid correction unit 181. It is determined whether or not.
  • the “long exposure pixel with centroid correction (L_w)” generated for the processing target pixel (target pixel) with the vertical centroid correction unit 181 is generated by the process of applying the long exposure pixel including the saturated pixel in the input image.
  • the “long exposure pixel with center of gravity correction (L_w)” and “short exposure pixel with center of gravity correction (S_w)” generated for this processing target pixel (target pixel) are output pixels of the center of gravity correction unit 152. Do not select.
  • the pixel information of the processing target pixel (target pixel) itself that is, the “long exposure pixel without center of gravity correction (L_n)” in the input image, and the processing target pixel (target pixel) when generating the HDR image are combined.
  • the short exposure pixel “short exposure pixel without center of gravity correction (S_n)” is selected as the output of the center of gravity correction unit 152.
  • the “short exposure pixel without center of gravity correction (S_n)” is a short exposure pixel of the same color in the vicinity in the vertical direction with respect to the “long exposure pixel without center of gravity correction (L_n)” in the input image.
  • center of gravity correction unit 152 shown in FIG. (1) Center of gravity correction unit output length exposure pixel (Lo), (2) Center of gravity correction unit output short exposure pixel (So), Is selected and output as follows.
  • Such selection output is executed for each processing target pixel (target pixel).
  • the processing target pixel (target pixel) is the long exposure pixel R shown in the fifth row of FIG. 14A
  • the vertical center-of-gravity correction unit 181 applies a long exposure pixel R in the first row, a long exposure pixel R in the fifth row, and a long exposure pixel R in the ninth row to obtain a distribution ratio of 1: 6: 1.
  • the weighted average is performed to calculate “long exposure pixel with center of gravity correction (L_w)”.
  • the vertical centroid correction unit 181 applies a weighted average at a 1: 1 distribution ratio by applying the short exposure pixels R in the third row and the short exposure pixels R in the seventh row, and “short exposure with centroid correction” is performed. Pixel (S_w) "is calculated.
  • the correction result selection unit 183 calculates the “long exposure pixel with center of gravity correction (L_w)” and “short exposure pixel with center of gravity correction (S_w)” calculated by the vertical center of gravity correction unit 181. Are not selected as output pixels.
  • the pixel information of the processing target pixel (target pixel) itself that is, the “long exposure pixel without center of gravity correction (L_n)” in the input image, and the processing target pixel (target pixel) and the synthesis target when generating the HDR image.
  • the short exposure pixel “Short exposure pixel without center of gravity correction (S_n)” is selected and used as the output of the center of gravity correction unit 152.
  • the correction result selection unit 183 calculates the “long exposure pixel with center of gravity correction (L_w)” and “short exposure pixel with center of gravity correction (S_w)” calculated by the vertical center of gravity correction unit 181. Output.
  • the center-of-gravity correction unit 152 also outputs a saturation flag (Sat_flg) 185 generated by the saturation determination unit 182 shown in FIG. 11 to the pixel composition unit 153 of the HDR image generation unit 131 shown in FIG.
  • the saturation flag (Sat_flg) 185 is information indicating whether or not the long exposure pixel in the input image (SVE array image) is saturated.
  • FIG. 15 is a block diagram illustrating a detailed configuration of the pixel synthesis unit 153.
  • the pixel synthesis unit 153 includes a flat part synthesis unit 211, an edge part synthesis unit 212, a saturation unit synthesis unit 213, and a long / short synthesis result selection & final synthesis result generation unit 214.
  • Each of the flat part synthesizing unit 211, the edge part synthesizing unit 212, and the saturation unit synthesizing unit 213 is an output signal generated by the centroid correcting unit 152 described above with reference to FIG. (1) Center of gravity correction unit output length exposure signal (Lo), (2) Center of gravity correction unit output short exposure signal (So), These signals are combined in different manners, and the generated combined signal is output to the long / short combining result selection & final combining result generating unit 214.
  • the flat part synthesizing unit 211 generates a flat part synthesis result (Syn_f), which is a synthesized signal for the flat part, and outputs the result to the long / short synthesis result selection & final synthesis result generation unit 214.
  • the edge part synthesis unit 212 generates an edge part synthesis result (Syn_e) that is a synthesized signal for the edge part, and outputs the result to the long / short synthesis result selection & final synthesis result generation unit 214.
  • the saturation unit synthesis unit 213 generates a saturation unit synthesis result (Syn_s) that is a synthesized signal for the saturation unit, and outputs the result to the long / short synthesis result selection & final synthesis result generation unit 214.
  • the long / short synthesis result selection & final synthesis result generation unit 214 inputs the synthesis result of the long / short exposure pixels from these three synthesis units. Further, from the edge detection unit 151 described with reference to FIG. Long exposure edge flag (LEedge_flg) 171, Short exposure edge flag (SEdge_flg) 173, The edge information is input. Furthermore, from the center of gravity correction unit 152 described with reference to FIG. Saturation flag (Sat_flg) 185, Enter this saturation information.
  • the long / short synthesis result selection & final synthesis result generation unit 214 (A) Long exposure edge flag (LEedge_flg) 171, (B) a short exposure edge flag (SEdge_flg) 173; (C) Saturation flag (Sat_flg) 185, With reference to these pieces of information, a combination result of one of the following long and short exposure pixels is selected.
  • the flat part synthesizing unit 211 receives the output signal generated by the centroid correcting unit 152 described with reference to FIG. 11 and generates a synthetic signal corresponding to the flat part according to these signals. That is, (1) Center of gravity correction unit output length exposure signal (Lo), (2) Center of gravity correction unit output short exposure signal (So), A flat portion synthesis result (Syn_f) is generated for each of these signals to generate a flat portion synthesis result (Syn_f), which is output to the long / short synthesis result selection & final synthesis result generation unit 214.
  • the flat part synthesizing unit 211 receives an input signal, that is, (1) Center of gravity correction unit output length exposure signal (Lo), (2) Center of gravity correction unit output short exposure signal (So), By applying a blend ratio according to the signal level of each of these signals, a flat portion as a composite result is obtained by blending (combining) the pixel values of these two pixels, specifically, the two pixel values after adjusting the exposure ratio.
  • a synthesis result (Syn_f) is generated.
  • the center of gravity correction unit output length exposure signal (Lo) which is the pixel value of the long exposure pixel
  • the center of gravity correction unit output short exposure signal (So), which is the pixel value of the short exposure pixel, If any of these pixel values are small,
  • the amount of noise included in the short exposure pixel is higher than the signal value. That is, there is a high possibility that the pixel value of the short exposure pixel is a signal with a poor SN ratio.
  • the center of gravity correction unit output length exposure signal (Lo) which is the pixel value of the long exposure pixel
  • the center of gravity correction unit output short exposure signal (So) which is the pixel value of the short exposure pixel
  • the long exposure pixel is likely to be a saturated value or a pixel value close to the saturated value, and is more likely not to reflect an accurate pixel value. Therefore, in such a case, a synthesis process (blend process) in which the blend ratio of the center-of-gravity correction unit output short exposure signal (So), which is the pixel value of the short exposure pixel, is increased to execute the flat part synthesis result (Syn_f).
  • a value corresponding to the contribution ratio of the centroid correction unit output short exposure signal (So) to the flat portion synthesis result (Syn_f) that is a pixel value generated as a result of the synthesis processing executed in the flat portion synthesis unit 211 is a blend rate ( ⁇ ).
  • a value corresponding to the contribution ratio of the gravity center correction unit output length exposure signal (Lo) is set to (1- ⁇ ).
  • FIG. 16 is a diagram showing an example of setting the blend rate ⁇ .
  • the horizontal axis represents the pixel value of the center-of-gravity correction unit output length exposure signal (Lo), which is the pixel value of the long exposure pixel, and the vertical axis represents the blend ratio ( ⁇ ), that is, the contribution of the short exposure signal (So) in the combined pixel value. Rate.
  • the blend rate ⁇ is set to a small value.
  • the reflection degree of the pixel value of the long-time exposure pixel increases as understood from (Equation 8). That is, for example, when the pixel value of the short-time exposure pixel is small and the noise contained in the short-time exposure pixel is estimated to be large, the pixel value of the long-time exposure pixel is largely reflected.
  • the edge portion synthesis unit 212 receives the output signal generated by the centroid correction unit 152 described with reference to FIG. 11 and generates a synthesized signal corresponding to the edge portion according to these signals. That is, (1) Center of gravity correction unit output length exposure signal (Lo), (2) Center of gravity correction unit output short exposure signal (So), An edge portion synthesis process (Syn_e) is generated on each of these signals to generate an edge portion synthesis result (Syn_e), which is output to the long / short synthesis result selection & final synthesis result generation unit 214.
  • Center of gravity correction unit output length exposure signal Lo
  • So Center of gravity correction unit output short exposure signal
  • An edge portion synthesis process (Syn_e) is generated on each of these signals to generate an edge portion synthesis result (Syn_e), which is output to the long / short synthesis result selection & final synthesis result generation unit 214.
  • the edge synthesis unit 212 receives an input signal, that is, (1) Center of gravity correction unit output length exposure signal (Lo), (2) Center of gravity correction unit output short exposure signal (So), Regardless of the signal level of each of these signals, blend (synthesize) by applying a blend ratio ( ⁇ ) in which the pixel values of these two pixels, specifically, the two pixel values after adjusting the exposure ratio are fixed. To generate an edge synthesis result (Syn_e) as a synthesis result.
  • an input signal that is, (1) Center of gravity correction unit output length exposure signal (Lo), (2) Center of gravity correction unit output short exposure signal (So), Regardless of the signal level of each of these signals, blend (synthesize) by applying a blend ratio ( ⁇ ) in which the pixel values of these two pixels, specifically, the two pixel values after adjusting the exposure ratio are fixed.
  • a value corresponding to the contribution ratio of the centroid correction unit output short exposure signal (So) to the edge portion synthesis result (Syn_e) which is a pixel value generated as a result of the synthesis processing executed in the edge portion synthesis unit 212 is a blend rate ( ⁇ ).
  • a value corresponding to the contribution ratio of the center-of-gravity correction unit output length exposure signal (Lo) is set to (1- ⁇ ).
  • E is the exposure ratio between short exposure pixels and long exposure pixels
  • is a value in the range of 0 to 1
  • the saturation unit synthesis unit 213 receives the output signal generated by the centroid correction unit 152 described with reference to FIG. 11 and generates a synthesis signal corresponding to the saturation unit according to these signals. That is, (1) Center of gravity correction unit output length exposure signal (Lo), (2) Center of gravity correction unit output short exposure signal (So), A saturation part synthesis process is executed on each of these signals to generate a saturation part synthesis result (Syn_s) and output it to the long / short synthesis result selection & final synthesis result generation unit 214.
  • Li Center of gravity correction unit output length exposure signal
  • So Center of gravity correction unit output short exposure signal
  • the saturation unit synthesis unit 213 receives an input signal, that is, (1) Center of gravity correction unit output length exposure signal (Lo), (2) Center of gravity correction unit output short exposure signal (So), Of these signals, the center of gravity correction unit output short exposure signal (So) is selected, and the selected center of gravity correction unit output short exposure signal (So) is used as the saturated portion synthesis result (Syn_s) to select the long / short synthesis result and generate the final synthesis result.
  • an input signal that is, (1) Center of gravity correction unit output length exposure signal (Lo), (2) Center of gravity correction unit output short exposure signal (So), Of these signals, the center of gravity correction unit output short exposure signal (So) is selected, and the selected center of gravity correction unit output short exposure signal (So) is used as the saturated portion synthesis result (Syn_s) to select the long / short synthesis result and generate the final synthesis result.
  • the synthesized pixel value (Syn_s) that is the saturation portion synthesis result (Syn_s) is calculated by the following (Equation 10).
  • Syn_s So ⁇ E (Equation 10)
  • E is the exposure ratio between short exposure pixels and long exposure pixels, It is.
  • the long / short synthesis result selection & final synthesis result generation unit 214 inputs the synthesis results from the three synthesis units 211 to 213 described above. Further, from the edge detection unit 151 described with reference to FIG. Long exposure edge flag (LEedge_flg) 171, Short exposure edge flag (SEdge_flg) 173, The edge information is input. Furthermore, from the center of gravity correction unit 152 described with reference to FIG. Saturation flag (Sat_flg) 185, Enter this saturation information.
  • the long / short synthesis result selection & final synthesis result generation unit 214 (A) Long exposure edge flag (LEedge_flg) 171, (B) a short exposure edge flag (SEdge_flg) 173; (C) Saturation flag (Sat_flg) 185, With reference to these pieces of information, one of the following synthesis results is selected.
  • step S101 the synthesis result of each of the synthesis units 211 to 213 and each flag information are input. That is, the following data is input.
  • Flat part synthesis result (Syn_f) which is a synthesized signal for the flat part
  • Edge portion synthesis result (Syn_e) which is a synthesized signal for the edge portion
  • Saturated portion synthesis result (Syn_s) which is a synthesized signal for the saturated portion
  • C Saturation flag (Sat_flg) 185,
  • step S102 the saturation flag (Sat_flg) 185 input from the centroid correction unit 152 described with reference to FIG. 11 is referred to, and the centroid correction unit output length exposure pixel which is the target pixel (target pixel) of the synthesis process It is determined whether or not the generation source pixel is a saturated pixel. If it is a saturated pixel, that is, if the determination in step S102 is True, the process proceeds to step S104.
  • step S104 the saturation portion combination result (Syn_s), which is the combined signal for the saturated portion generated by the saturation portion combining portion 213, is selected and used as the combination result of the long and short exposure pixels.
  • the combination result of the long and short exposure pixels is a result of combining the pixels in the vertical direction, that is, intermediate data of the combining process. Further, in step S107, the intermediate data is used to combine the pixels in the horizontal direction. Execute and generate and output the final synthesis result (Syn).
  • step S102 determines whether the pixel from which the center-of-gravity correction unit output length exposure pixel that is the target pixel (target pixel) of the synthesis process is generated is not a saturated pixel, that is, if the determination in step S102 is false.
  • the process proceeds to step S103.
  • step S103 the long exposure edge flag (LEEdge_flg) 171 and the short exposure edge flag (SEedge_flg) 173 input from the edge detection unit 151 described with reference to FIG. It is determined whether the pixel from which the center-of-gravity correction unit output pixel is generated is in the flat region or the edge region.
  • Short exposure edge flag (SEdge_flg) 173 If any of these flags is a value (1) indicating an edge region, it is determined that the flag is an edge region, and the process proceeds to step S105.
  • step S105 the edge portion combination result (Syn_e), which is the combined signal for the edge portion generated by the edge portion combining portion 212, is selected and used as the combination result of the long and short exposure pixels.
  • the combination result of the long and short exposure pixels is a result of combining the pixels in the vertical direction, that is, intermediate data of the combining process.
  • step S107 the intermediate data is used to combine the pixels in the horizontal direction. Execute and generate and output the final synthesis result (Syn).
  • step S106 the flat portion combining result (Syn_f), which is the combined signal for the flat portion generated by the flat portion combining portion 211, is selected and used as the combining result of the long and short exposure pixels.
  • the combination result of the long and short exposure pixels is a result of combining the pixels in the vertical direction, that is, intermediate data of the combining process.
  • step S107 the intermediate data is used to combine the pixels in the horizontal direction. Execute and generate and output the final synthesis result (Syn).
  • step S107 horizontal pixel synthesis is further performed using the vertical pixel synthesis result generated by any one of steps S104 to S106, and a final synthesis result (Syn) is generated and output.
  • step S101 to S106 in the flow of FIG. 17 the intermediate combined data is generated by combining the long and short exposure pixels in the vertical direction, and the final combined result (Syn) by the horizontal pixel combining of the constituent pixels of the intermediate combined data executed in step S107. The generation process will be described.
  • FIG. 18 shows the following three data.
  • Input image (SVE) image (2) Long / short exposure pixel composition result (intermediate composition data) (3) Final synthesis result (Syn)
  • the input image (SVE) image is image data of the image sensor, and shows an image that is captured when the exposure time is changed for each row in the Bayer array.
  • a white part is a long-time exposure pixel, and a gray part indicates a short-time exposure pixel.
  • the long / short exposure pixel combination result is intermediate combination data generated by the processing of steps S101 to S106 in the flowchart shown in FIG.
  • This (2) long / short exposure pixel synthesis result is determined based on whether the target pixel to be processed is a flat region, an edge region, or a saturated region. From the selected pixels.
  • the synthesis result is the output of the center of gravity correction unit described with reference to FIG. (1) Center of gravity correction unit output length exposure signal (Lo), (2) Center of gravity correction unit output short exposure signal (So), The result of combining these signals is a combination of a plurality of vertical pixels. That is, it is intermediate composite data.
  • step S107 of the flow shown in FIG. 17 the same color pixels in the horizontal direction of the intermediate combined data are added and averaged to generate and output a final combined result (Syn).
  • a high dynamic range (HDR) image in which the number of pixels is halved in both the horizontal direction and the vertical direction is generated and output with respect to the input image (SVE image).
  • Example 2 Example in which the configuration of the gravity center correction unit is changed
  • the second embodiment differs from the first embodiment described above in the configuration and processing of the centroid correction unit.
  • Other configurations and processes are the same as those in the first embodiment.
  • the overall configuration of the image processing apparatus is the imaging apparatus 100 described with reference to FIG. 3, and the configuration of the signal processing unit 103 is the HDR image generation unit 131, the subsequent signal processing unit, as described with reference to FIG. 132 and an output unit 133.
  • the HDR image generation unit 131 includes an edge detection unit 151, a centroid correction unit 152, and a pixel synthesis unit 153.
  • FIG. 19 shows the configuration of the centroid correction unit 152 of the HDR image generation unit 131 in the image processing apparatus of the second embodiment.
  • the correction result selection unit 183 is based on the saturation flag (Sat_flg) input from the saturation determination unit 182, and the processing target pixel (target pixel) It is determined whether or not the long exposure pixel is saturated, and if it is saturated, the constituent pixel value of the input image (SVE image) 141 is selected and output as it is.
  • the center-of-gravity correction unit 152 illustrated in FIG. 11 does not include any saturated pixel in the long exposure pixel applied to the generation of the “long exposure pixel with center of gravity correction (L_w)” in the vertical center-of-gravity correction unit 181.
  • These pixel values are output to the pixel composition unit 153 of the HDR image generation unit 131 shown in FIG.
  • the center-of-gravity correction unit 152 of the second embodiment is different in processing when one or more saturated pixels are included in the long exposure pixel applied to the generation of “long exposure pixel with center of gravity correction (L_w)” in the vertical center-of-gravity correction unit 181.
  • the short exposure pixel is illustrated in FIG. 19.
  • the smoothed short exposure pixel (S_d) generated by the saturated portion short exposure pixel correction unit 301 is selected and output as the gravity center correction unit output short exposure pixel (So).
  • the saturated portion short exposure pixel correction unit 301 generates a smoothed short exposure pixel (S_d) by a short exposure pixel smoothing process according to the edge direction of the target pixel.
  • the saturated short exposure pixel correction unit 301 executes a pixel value correction process to which a smoothing filter corresponding to the edge direction is applied, and corrects the pixel value as a result of the smoothing process as a smoothed short exposure pixel (S_d).
  • the result is output to the result selection unit 183.
  • the saturated portion short exposure pixel correction unit 301 receives the short exposure edge direction flag (SDir_flg) 174 generated by the edge detection unit 151 described with reference to FIG.
  • the short exposure edge direction flag (SDir_flg) 174 is information indicating the edge direction of the target pixel determined based on the short exposure pixel.
  • the saturated portion short exposure pixel correction unit 301 is applied from a plurality of smoothing filters stored in advance in the memory according to the edge direction determined based on the short exposure edge direction flag (SDir_flg) 174 input from the edge detection unit 151. Select the smoothing filter to be used.
  • the saturated portion short exposure pixel correction unit 301 executes a pixel value correction process that applies the selected smoothing filter to smooth the short exposure pixels that are to be combined with the target pixel along the edge direction, and performs smoothing.
  • the pixel value as the processing result is output to the correction result selection unit 183 as a smoothed short exposure pixel (S_d).
  • FIG. 20 shows an input image to which the smoothing filter is applied and an example of coefficient setting of the smoothing filter according to the four edge directions. That is, the following data are shown.
  • SVE image Input image
  • 2a Coefficient setting example of applied filter when edge direction is vertical
  • 2b Coefficient setting example of applied filter when edge direction is horizontal
  • 2c Coefficient setting of applied filter when edge direction is upper left direction
  • Example 2d Application filter coefficient setting example when the edge direction is the upper right direction
  • the example shown in FIG. 20 is an example in which a 9 ⁇ 9 pixel area in which a target pixel as a processing target pixel is a central pixel (a central G pixel in the example shown in FIG. 20A) is a smoothing filter application area. It is. Further, the short exposure G pixel on the vertical line including the target pixel G is set as a correction target pixel for performing pixel value correction.
  • the smoothing filter applied to the smoothing process is, for example, a filter in which a coefficient corresponding to the edge direction is set for each short-exposure G pixel as shown in FIGS. 20 (2a) to (2d).
  • the pixel value of the short exposure pixel to be corrected is changed to a smoothed pixel value so as to change smoothly in the edge direction.
  • the example of the filter coefficient shown in FIG. 20 is an example, and other coefficients can be set. Any smoothing filter may be used as long as the pixel value is changed smoothly along the edge direction.
  • the saturated portion short exposure pixel correction unit 301 selects a correction result using, for example, the pixel value of the short exposure pixel corrected by the smoothing process using the smoothing filter having the coefficient illustrated in FIG. 20 as the smoothed short exposure pixel (S_d). To the unit 183.
  • the correction result selection unit 183 inputs the following data. (1) Long exposure pixel without center of gravity correction (L_n) (2) Smoothed short exposure pixel (S_d) (3) Long exposure pixel with center of gravity correction (L_w), (4) Short exposure pixel with center of gravity correction (S_w), (5) Saturation flag (Sat_flg) 185
  • the long exposure pixel (L_n) without centroid correction is pixel information included in the input image (SVE array image) 141.
  • the smoothed short exposure pixel (S_d) is short exposure pixel information having a pixel value smoothed in the edge direction generated by the saturated portion short exposure pixel correction unit 301.
  • Long exposure pixel with center-of-gravity correction (L_w), (4) Short exposure pixel with center-of-gravity correction (S_w), these data are obtained according to the processing described with reference to FIGS.
  • a saturation flag (Sat_flg) 185 is the saturation determination information of the long exposure pixel generated by the saturation determination unit 182.
  • the correction result selection unit 183 includes a pixel whose saturation flag (Sat_flg) 185 is 1, that is, a saturated pixel, in the long exposure pixel applied to the generation of the “long exposure pixel with centroid correction (L_w)” in the vertical centroid correction unit 181. It is determined whether or not.
  • the “long exposure pixel with centroid correction (L_w)” generated for the processing target pixel (target pixel) with the vertical centroid correction unit 181 is generated by the process of applying the long exposure pixel including the saturated pixel in the input image.
  • the “long exposure pixel with center of gravity correction (L_w)” and “short exposure pixel with center of gravity correction (S_w)” generated for this processing target pixel (target pixel) are output pixels of the center of gravity correction unit 152. Do not select.
  • the pixel information of the processing target pixel (target pixel) itself that is, “long exposure pixel without center of gravity correction (L_n)” in the input image, and the edge direction generated by the saturated portion short exposure pixel correction unit 301 are smoothed.
  • the “smoothed short exposure pixel (S_d)” having the pixel value thus selected is selected as the output of the centroid correction unit 152.
  • Center of gravity correction unit 152 shown in FIG. (1) Center of gravity correction unit output length exposure pixel (Lo), (2) Center of gravity correction unit output short exposure pixel (So), Is selected and output as follows.
  • Example 3 Example in which the configuration of the pixel synthesis unit is changed
  • the third embodiment differs from the first embodiment described above in the configuration and processing of the pixel synthesis unit 153.
  • Other configurations and processes are the same as those in the first embodiment.
  • the overall configuration of the image processing apparatus is the imaging apparatus 100 described with reference to FIG. 3, and the configuration of the signal processing unit 103 is the HDR image generation unit 131, the subsequent signal processing unit, as described with reference to FIG. 132 and an output unit 133.
  • the HDR image generation unit 131 includes an edge detection unit 151, a centroid correction unit 152, and a pixel synthesis unit 153.
  • FIG. 21 shows the configuration of the pixel composition unit 153 of the HDR image generation unit 131 in the image processing apparatus of the third embodiment.
  • the moving subject composition unit 321 in the pixel composition unit 153 shown in FIG. 21 executes long / short exposure pixel composition processing different from those of the other composition units 211 to 213.
  • the moving subject combining unit 321 executes combining processing of the centroid correction unit output length exposure signal (Lo) and the centroid correction unit output short exposure signal (So) by combining processing adapted to the moving subject region, and the moving subject unit length is short.
  • a synthesis result (Syn_m) is generated and output to the long / short synthesis result selection & final synthesis result generation unit 214.
  • the moving subject combining unit 321 selects, for example, only one of (1) the center of gravity correction unit output length exposure signal (Lo) or the center of gravity correction unit output short exposure signal (So). Then, the process of setting the selection signal as the moving subject part length / short synthesis result (Syn_m) is performed.
  • the pixel composition unit 153 of the third embodiment is similar to the pixel composition unit 153 of the first embodiment, and the edge detection unit 151 described with reference to FIG. Long exposure edge flag (LEedge_flg) 171, Short exposure edge flag (SEdge_flg) 173, The edge information is input. Furthermore, from the center of gravity correction unit 152 described with reference to FIG. Saturation flag (Sat_flg) 185, Enter this saturation information. Furthermore, in this embodiment, in addition to these information, A moving subject detection flag (Move_flg) 322 is input.
  • the moving subject detection flag (Move_flg) 322 is input from, for example, a moving subject region detection unit provided in the imaging apparatus.
  • the moving subject area detection unit discriminates the moving subject area in the image by, for example, image analysis, for example, block matching processing of continuously shot images. Further, a moving subject detection flag (Move_flg) 322 corresponding to a pixel indicating whether each pixel is a moving subject region is generated and output to the pixel composition unit 153.
  • the long / short synthesis result selection & final synthesis result generation unit 214 outputs pixel information from the outside, that is, Long exposure edge flag (LEedge_flg) 171, Short exposure edge flag (SEdge_flg) 173, Saturation flag (Sat_flg) 185, A moving subject detection flag (Move_flg) 322, Based on these flags, the state of the processing target pixel (target pixel) is determined.
  • the long / short synthesis result selection & final synthesis result generation unit 214 further, based on the determination result, (1) Flat part synthesis result (Syn_f) which is a synthesized signal for the flat part, (2) Edge portion synthesis result (Syn_e) which is a synthesized signal for the edge portion, (3) Saturated portion synthesis result (Syn_s) which is a synthesized signal for the saturated portion, (4) Moving subject portion synthesis result (Syn_m), which is a synthesized signal for the moving subject region,
  • the long / short synthesis result selection & final synthesis result generation unit 214 selects one of these four signals in units of processing target pixels (target pixels). Further, based on the combination result of the selected long and short exposure pixels, horizontal pixel combination is performed to generate a final combination result, which is output as a combination result (Syn).
  • step S21 the synthesis results of the synthesis units 211 to 213 and 321 and the flag information are input. That is, the following data is input.
  • Flat part synthesis result (Syn_f) which is a synthesized signal for the flat part
  • Edge portion synthesis result (Syn_e) which is a synthesized signal for the edge portion
  • Saturated portion synthesis result (Syn_s) which is a synthesized signal for the saturated portion
  • (4) Moving subject portion synthesis result (Syn_m) which is a synthesized signal for the moving subject region
  • step S202 with reference to the saturation flag (Sat_flg) 185 input from the centroid correction unit 152 described with reference to FIG. 11, generation of a centroid correction unit output pixel that is a target pixel (target pixel) of the synthesis process It is determined whether or not a saturated pixel is included in the original pixel. If a saturated pixel is included, that is, if the determination in step S102 is True, the process proceeds to step S205. In step S205, the saturated portion synthesis result (Syn_s), which is the synthesized signal for the saturated portion generated by the saturated portion synthesizing unit 213, is selected and used as the combined result of the long and short exposure pixels.
  • Syn_s saturated portion synthesis result
  • the combination result of the long and short exposure pixels is a result of combining the pixels in the vertical direction, that is, intermediate data of the combining process. Further, in step S09, the intermediate data is used to combine the pixels in the horizontal direction. Execute and generate and output the final synthesis result (Syn).
  • step S202 when it is determined in step S202 that a saturated pixel is not included in the generation source pixel of the center-of-gravity correction unit output pixel that is the target pixel (target pixel) of the synthesis process, that is, when the determination in step S202 is false. Advances to step S203.
  • step S203 with reference to the moving subject flag (Move_flg) 322 input from the outside, whether or not the pixel that is the generation source of the center-of-gravity correction unit output pixel that is the target pixel (target pixel) of the synthesis process is in the moving subject region. Determine.
  • step S203 If it is determined in step S203 that the pixel from which the center-of-gravity correction unit output pixel is generated is a moving subject region, the process proceeds to step S206.
  • a moving subject portion synthesis result (Syn_m) which is a synthesized signal for the moving subject area generated by the moving subject portion synthesis unit 321 is selected, and this is used as a synthesis result of the long and short exposure pixels.
  • the combination result of the long and short exposure pixels is a result of combining the pixels in the vertical direction, that is, intermediate data of the combining process. Further, in step S209, the intermediate pixels are used to combine the pixels in the horizontal direction. Execute and generate and output the final synthesis result (Syn).
  • step S203 if it is determined in step S203 that the pixel from which the center-of-gravity correction unit output pixel is generated is not a moving subject area, the process proceeds to step S204.
  • step S204 the long exposure edge flag (LEEdge_flg) 171 and the short exposure edge flag (SEedge_flg) 173 input from the edge detection unit 151 described with reference to FIG. It is determined whether the pixel is an edge region pixel.
  • one of the pixels applied to generate the synthesis target pixel is Long exposure edge flag (LEedge_flg) 171, Short exposure edge flag (SEdge_flg) 173, If any of these flags is a value (1) indicating an edge region, it is determined that the flag is an edge region, and the process proceeds to step S207.
  • Ledge_flg Long exposure edge flag
  • SEdge_flg Short exposure edge flag
  • step S207 the edge portion combination result (Syn_e), which is the combined signal for the edge portion generated by the edge portion combining portion 212, is selected and used as the combination result of the long and short exposure pixels.
  • the combination result of the long and short exposure pixels is a result of combining the pixels in the vertical direction, that is, intermediate data of the combining process. Further, in step S209, the intermediate pixels are used to combine the pixels in the horizontal direction. Execute and generate and output the final synthesis result (Syn).
  • step S208 the flat portion combining result (Syn_f), which is the combined signal for the flat portion generated by the flat portion combining portion 211, is selected and used as the combining result of the long and short exposure pixels.
  • the combination result of the long and short exposure pixels is a result of combining the pixels in the vertical direction, that is, intermediate data of the combining process.
  • step S209 the intermediate pixels are used to combine the pixels in the horizontal direction. Execute and generate and output the final synthesis result (Syn).
  • step S209 the pixel synthesis result in the horizontal direction is generated using the vertical pixel synthesis result generated by any one of steps S205 to S208, and the final synthesis result (Syn) is generated and output.
  • the pixel synthesis in the horizontal direction is the process described above with reference to FIG.
  • a moving subject region is extracted, and a combination process of long and short exposure pixels optimum for the moving subject region is executed.
  • Example 4 Example of changing pixel arrangement of image sensor and long / short exposure pixel setting]
  • the long exposure pixels and the short exposure pixels are alternately set in units of two rows. The processing example for the image photographed in FIG.
  • the high dynamic range (HDR) image generation processing in the above-described embodiment is not limited to the pixel arrangement and the long / short exposure pixel setting described above, but can be applied to other arrangements and configurations.
  • RGBW type pixel array having white (W) pixels that receive light of substantially all visible wavelength light
  • the vertical centroid correction unit 181 in the centroid correction unit 152 of the HDR image generation unit 131 described in the first embodiment is set as an oblique addition centroid correction unit, and is changed to a configuration that executes centroid correction in an oblique direction. Perform processing.
  • the setting of the long and short exposure pixels is not a setting in units of two rows, and a configuration in which the long and short exposure pixels are alternately set in an oblique direction as shown in FIG.
  • FIG. 24 shows the following setting examples. (3) An example in which long and short exposure pixels are alternately arranged along a diagonal line in the Bayer array, (4) An example in which long and short exposure pixels are alternately arranged along a diagonal line in the RGBW arrangement, Examples of these are shown.
  • Example 5 Example of generating HDR image without reducing the number of pixels
  • the HDR image generation unit 131 is configured such that the number of pixels of the output HDR image 142 is reduced to, for example, 1/4 with respect to the number of pixels of the input image (SVE image). This is because one pixel of the HDR image is generated by a synthesis process of a plurality of pixels of the input image.
  • Example 5 described below is an example in which an HDR image generation unit generates an HDR image having the same number of pixels as the input image without reducing the number of pixels.
  • the fifth embodiment differs from the first embodiment described above in the configuration and processing of the HDR image generation unit 131.
  • Other configurations and processes are the same as those in the first embodiment.
  • the overall configuration of the image processing apparatus is the imaging apparatus 100 described with reference to FIG. 3, and the configuration of the signal processing unit 103 is the HDR image generation unit 131, the post-stage signal processing, as described with reference to FIG. Part 132 and output part 133.
  • the HDR image generation unit 131 includes an edge detection unit 151, an array conversion centroid correction unit 351, a pixel synthesis unit 352, and a correlation processing unit 353 as illustrated in FIG.
  • an HDR image 360 having the same number of pixels as the input image (SVE image) 350 from the image sensor 102 is generated and output.
  • the input image (SVE image) 350 is an SVE image in which long and short exposure pixels are arranged in an oblique direction in the Bayer arrangement described with reference to FIG.
  • the edge detection unit 151 performs the same process as the edge detection unit 151 in the first embodiment described above with reference to FIG. That is, as illustrated in FIG. 8, the edge detection unit 151 includes a difference calculation unit (vertical) 161, a difference calculation unit (horizontal) 162, a difference calculation unit (upper right) 163, and a difference calculation unit (upper left) 164. Further, a long exposure edge detection unit 165, a long exposure edge direction determination unit 166, a short exposure edge detection unit 167, and a short exposure edge direction determination unit 168 are provided.
  • the difference calculation unit (vertical) 161 applies the G pixel included in the edge detection image 141G shown in FIG. 8, that is, the 9 ⁇ 9 pixel region in the vicinity of the target pixel, Average value (LDiff_v) of pixel value difference between two long-exposure G pixels that are close in the vertical direction, An average value (SDiff_v) of pixel value differences between two short-time exposure G pixels adjacent in the vertical direction; These are calculated.
  • the difference calculation unit (horizontal) 162 applies the G pixel included in the edge detection image 141G shown in FIG. 8, that is, the 9 ⁇ 9 pixel region in the vicinity of the target pixel, Average value (LDiff_h) of pixel value difference between two long-exposure G pixels adjacent in the horizontal direction, An average value (SDiff_h) of pixel value differences between two short-time exposure G pixels adjacent in the horizontal direction; These are calculated.
  • the difference calculation unit (upper right) 163 applies the edge detection image 141G shown in FIG. 8, that is, the G pixel included in the 9 ⁇ 9 pixel region in the vicinity of the target pixel, Average value (LDiff_a) of pixel value difference between two long-exposure G pixels adjacent in the upper right direction, An average value (SDiff_a) of pixel value differences between two short-time exposure G pixels adjacent in the upper right direction; These are calculated.
  • the difference calculation unit (upper left) 164 applies the G pixel included in the edge detection image 141G shown in FIG. 8, that is, the 9 ⁇ 9 pixel region in the vicinity of the target pixel, Average value (LDiff_d) of pixel value difference between two long-exposure G pixels adjacent in the upper left direction, Average value (SDiff_d) of pixel value difference between two short-exposure G pixels adjacent in the upper left direction, These are calculated.
  • FIG. 26 is a diagram illustrating a specific example of vertical, horizontal, upper right, and upper left difference calculation processes regarding long exposure pixels executed in the difference calculation units 161 to 164.
  • a combination (pixel pair) of pixels for which a difference is calculated is indicated by an arrow.
  • FIG. 26 is a diagram illustrating specific examples of vertical, horizontal, upper right, and upper left difference calculation processes related to long exposure pixels executed by the difference calculation units 161 to 164 as in FIG. 9 described in the first embodiment.
  • the example shown in FIG. 9 is a processing example for an SVE image in which long exposure pixels and short exposure pixels are alternately arranged in units of two rows in the horizontal direction.
  • the example shown in FIG. 26 is an example of processing for an SVE image in which long and short exposure pixels are arranged in an oblique direction in the Bayer arrangement described in FIG.
  • the edge detection unit 151 calculates pixel value differences of a plurality of pixel pairs, calculates the average value, and calculates the following values.
  • Long exposure pixel vertical direction pixel value difference average value (LDiff_v) (2) Long exposure pixel horizontal direction pixel value difference average value (LDiff_h), (3) Long exposure pixel upper right direction pixel value difference average value (LDiff_a), (4) Long exposure pixel upper left direction pixel value difference average value (LDiff_d),
  • the calculation formulas for these values are as shown in (Formula 11) below.
  • N, M. O and P are the calculated numbers of differences.
  • FIG. 27 is a diagram illustrating a specific example of vertical, horizontal, upper right, and upper left difference calculation processes relating to short exposure pixels executed in the difference calculation units 161 to 164.
  • Sv Short exposure vertical direction
  • Sh horizontal direction of short exposure
  • Sa Short exposure upper right direction
  • Sd Short exposure upper left direction
  • a combination (pixel pair) of pixels for which a difference is calculated is indicated by an arrow.
  • the pixel value differences of a plurality of pixel pairs are calculated, and the average value is calculated to calculate the following values.
  • Short exposure pixel vertical direction pixel value difference average value SDiff_v
  • Short exposure pixel horizontal direction pixel value difference average value SDiff_h
  • Short exposure pixel upper right direction pixel value difference average value SDiff_a
  • Short exposure pixel upper left direction pixel value difference average value S Diff_d
  • the calculation formula of these values is as shown in the following (Formula 12).
  • a pixel value difference average value in four directions is calculated by applying the pixels. This calculated value is output to the long exposure edge detection unit 165, the long exposure edge direction determination unit 166, the short exposure edge detection unit 167, and the short exposure edge direction determination unit 168.
  • the long exposure edge detection unit 165 and the long exposure edge direction determination unit 166 input the pixel value difference average value in the four directions of the long exposure G pixel, and use the pixel value difference average value in each direction of the long exposure pixel, The presence / absence of an edge determined from the long exposure pixel and the edge direction are determined. Further, the short exposure edge detection unit 167 and the short exposure edge direction determination unit 168 receive the pixel value difference average values in the four directions of the short exposure G pixels and use the pixel value difference average values in the respective directions of the short exposure pixels. Thus, the presence / absence of the edge and the edge direction determined from the short exposure pixel are determined.
  • the following information corresponding to the target pixel is generated as edge information and output to the array conversion centroid correction unit 351 and the pixel composition unit 352.
  • a long exposure edge flag (LEEdge_flg) 171 indicating whether or not the target pixel determined based on the long exposure pixel is an edge region.
  • Long exposure edge direction flag (LDir_flg) 172 indicating the edge direction of the target pixel determined based on the long exposure pixel
  • a short exposure edge flag (SEedge_flg) 173 indicating whether or not the target pixel determined based on the short exposure pixel is an edge region.
  • a short exposure edge direction flag (SDir_flg) 174 indicating the edge direction of the target pixel determined based on the short exposure pixel.
  • FIG. 28 is a diagram illustrating the configuration and processing of the array conversion centroid correction unit 352.
  • the array conversion center-of-gravity correction unit 352 includes a center-of-gravity correction high-frequency signal generation unit 361 and a low-frequency signal generation unit 362.
  • the center-of-gravity correction high-frequency signal generation unit 361 inputs an input image (SVE image) 350 in which long and short exposure pixels are alternately arranged in an oblique direction that is an output of the image sensor 102, and corrects the center of gravity of G pixels in the input image 350. To generate a G signal high frequency component.
  • the low-frequency signal generation unit 362 calculates an average value of each RGB pixel of the 9 ⁇ 9 pixel input image 350.
  • the center-of-gravity correction high-frequency signal generation unit 361 performs processing for estimating and setting G pixels in all pixels of the 9 ⁇ 9 pixel input image 350.
  • As the G pixel value two G pixel values of a long exposure G pixel value and a short exposure G pixel value are estimated for each pixel.
  • the edge direction information input from the edge detection unit 151 is used, and a G pixel value is estimated at each target pixel position using a filter corresponding to the edge direction in which the weight of the G pixel along the edge direction is set large. And set.
  • the center-of-gravity correction high-frequency signal generation unit 361 extracts long exposure G pixels and short exposure G pixels from an input image 350 of 9 ⁇ 9 pixels, as shown in FIG. The following data shown in FIG. 29 is extracted. (2) Long exposure G pixel data (3) Short exposure G pixel data
  • FIGS. 29 (2) and 29 (3) show an example of G pixel value estimation processing by applying a filter according to each estimated position and edge direction.
  • FIG. 30 shows an example of filter coefficients used in the following cases. (1) Edge direction is vertical, (2) The edge direction is horizontal, It is a setting example of the filter coefficient in these cases.
  • a, b, c, and d are patterns of positions where G pixel values are estimated. The filter to be applied is changed according to each estimated position.
  • FIG. 31 shows an example of filter coefficients used in the following cases. (3) The edge direction is the upper left direction, (4) The edge direction is the upper right direction, It is a setting example of the filter coefficient in these cases.
  • a, b, c, and d are patterns of positions where G pixel values are estimated. The filter to be applied is changed according to each estimated position.
  • the center-of-gravity correction high-frequency signal generation unit 361 outputs the two G pixel estimated values to the pixel synthesis unit 352.
  • the low-frequency signal generation unit 362 calculates the average value of the long exposure RGB pixels and the average value of the short exposure RGB pixels in the input image (SVE image) 350 including the 9 ⁇ 9 pixel region.
  • the low-frequency signal generation unit 362 outputs the calculated average value of the exposure RGB pixels and the average value of the short exposure RGB pixels to the pixel synthesis unit 352.
  • the pixel synthesis unit 352 includes a center-of-gravity correction high-frequency signal synthesis unit 371 and a low-frequency signal synthesis unit 372.
  • the center-of-gravity correction high-frequency signal synthesis unit 371 and the low-frequency signal synthesis unit 372 both have the configuration shown in FIG. 15 previously named in the first embodiment, and correspond to the flat portion, the edge portion, and the saturation portion.
  • a process of generating a synthesized signal and selectively outputting one of the synthesized signals according to the pixel region of the processing target pixel (target pixel) is executed.
  • the center-of-gravity correction high-frequency signal synthesis unit 371 and the low-frequency signal synthesis unit 372 execute processing with the following signals as synthesis processing targets.
  • the center-of-gravity correction high-frequency signal combining unit 371 executes a combination process of the long exposure G pixel signal and the short exposure G pixel signal generated by the center-of-gravity correction high-frequency signal generation unit 361 of the array conversion center-of-gravity correction unit 351.
  • the low-frequency signal synthesis unit 372 executes synthesis processing of the long exposure RGB average value signal and the short exposure RGB average value signal generated by the low-frequency signal generation unit 362 of the array conversion centroid correction unit 351.
  • the center-of-gravity correction high-frequency signal combining unit 371 executes a combination process of the long exposure G pixel signal and the short exposure G pixel signal generated by the center-of-gravity correction high-frequency signal generation unit 361 of the array conversion center-of-gravity correction unit 351 to perform high-frequency HDR.
  • a signal (G) is generated and output to the correlation processing unit 353.
  • the low-frequency signal synthesis unit 372 performs a synthesis process on the long-exposure RGB average value signal and the short-exposure RGB average value signal generated by the low-frequency signal generation unit 362 of the array conversion centroid correction unit 351, and performs a low-frequency HDR signal. (MR, mG, mB) is generated and output to the correlation processing unit 353.
  • the correlation processing unit 353 includes an output color selection unit 381 and a correlation calculation unit 382.
  • the output color selection unit 381 generates a low-frequency HDR signal (mR, mG) that is a synthesis result of the long exposure RGB average value signal and the short exposure RGB average value signal that are generated by the low-frequency signal synthesis unit 372 of the pixel synthesis unit 352. , MB) and sequentially select the low-frequency HDR signal corresponding to the output color according to the pixel position of the HDR image 360 to be output from the low-frequency HDR signals (mR, mG, mB) of these three colors.
  • FIG. 33 shows this output as mC.
  • mC is either mR, mB, or mG.
  • the correlation calculation unit 382 (1) mC from the output color selection unit 381; (2) a low-frequency HDR signal (mG) that is a generated signal of the low-frequency signal synthesis unit 372 of the pixel synthesis unit 352, (3) A high-frequency HDR signal (G) that is a generated signal of the center-of-gravity correction high-frequency signal combining unit 371 of the pixel combining unit 352, Each of these signals is input.
  • mG low-frequency HDR signal
  • G high-frequency HDR signal
  • the correlation calculation unit 382 calculates and outputs each composite pixel value of the HDR image 360 to be output by executing calculation processing using these input signals.
  • the calculation of the output pixel value executed by the correlation calculation unit 382 is executed by the following calculation.
  • mC mR, That is, the calculation of the output pixel value (R_out) when the output color is an R pixel is executed according to (Equation 13) shown below.
  • R_out mR / mG ⁇ G (Formula 13)
  • the RGB signal including the high frequency component is generated by the above calculation.
  • the color signal to be output it is possible to generate and output an HDR image 360 having the same pixel arrangement as that of the input image, for example, a Bayer arrangement.
  • FIG. 34 is a diagram illustrating an example of an imaging apparatus 500 having a configuration different from that of the imaging apparatus illustrated in FIG. 3 that executes the processing of the present disclosure.
  • FIG. 34 A configuration and processing of the imaging apparatus 500 illustrated in FIG. 34 will be described.
  • Light incident through the optical lens 501 is incident on an image sensor 502 constituted by an imaging unit, for example, a CMOS image sensor, and outputs image data by photoelectric conversion.
  • the output image data is, for example, the SVE image 521 composed of the long exposure pixels and the short exposure pixels described above with reference to FIGS. Or it is the SVE image 521 demonstrated with reference to FIG. 23, FIG.
  • the SVE image 521 is input to the high dynamic range (HDR) image generation unit 503.
  • the high dynamic range (HDR) image generation unit 503 generates and outputs an HDR image 522 according to the processing described in the above embodiments.
  • the high dynamic range (HDR) image generation unit 503 has, for example, the configuration described above with reference to FIG.
  • the HDR image 504 generated by the high dynamic range (HDR) image generation unit 503 is input to the gradation conversion unit 504.
  • the gradation conversion unit 504 converts the bit information constituting the pixel value of each pixel of the HDR image 522 into the number of bits that can be processed by a normal camera signal processing unit. For example, when the bit value indicating the pixel value of the HDR image 522 is 10 bits, gradation conversion is performed to convert the bit value to 8 bits, an NDR (Normal Dynamic Range) image 523 is generated, and output to the camera signal processing unit 505. .
  • NDR Normal Dynamic Range
  • the camera signal processing unit 505 performs signal processing in a general camera such as white balance (WB) adjustment and gamma correction, and generates an output image 530, for example.
  • the output image 530 is stored in a storage unit (not shown). Or it outputs to a display part.
  • the control unit 510 outputs a control signal to each unit according to a program stored in a memory (not shown), for example, and controls various processes.
  • the technology disclosed in this specification can take the following configurations. (1) having a signal processing unit that executes pixel value synthesis processing of pixels included in an input image including long exposure pixels and short exposure pixels to generate an output image;
  • the signal processing unit An edge detection unit that performs edge detection on each component pixel of the input image and outputs edge information corresponding to each pixel;
  • a centroid correction unit that executes centroid correction processing of the long-time exposure pixel and the short-time exposure pixel to be combined, and outputs the centroid correction unit output long-time exposure pixel and centroid correction unit output short-time exposure pixel;
  • An image processing apparatus comprising: a pixel synthesis unit that performs a synthesis process of the center-of-gravity correction unit output long-time exposure pixels generated by the barycentric correction unit and the center-of-gravity correction unit output short-time exposure pixels.
  • the center-of-gravity correction unit is configured to execute processing for matching the pixel positions of the long-time exposure pixel and the short-time exposure pixel that are to be combined as the center-of-gravity correction processing. Calculates the pixel value of the long-time exposure pixel output from the centroid correction unit by weighted addition using the pixel value of the long-time exposure pixel of the color, and applies the pixel value of multiple short-time exposure pixels of the same color at different pixel positions.
  • the image processing apparatus according to (1), wherein a process of calculating a pixel value of the short-time exposure pixel output from the centroid correction unit is performed by performing the weighted addition.
  • the center-of-gravity correction unit includes a saturation determination unit that determines whether or not the pixel applied to the center-of-gravity correction process is saturated, and when the pixel applied to the center-of-gravity correction process is saturated, If the pixel value of the input image is the pixel value of the centroid correction unit output long exposure pixel and the centroid correction unit output short exposure pixel, and the pixel applied to the centroid correction process is not saturated, A pixel value calculated by weighted addition using pixel values of a plurality of long-time exposure pixels of the same color is used as the pixel value of the center-of-gravity correction unit output long-time exposure pixel, and a plurality of short-time exposures of the same color at different pixel positions are performed.
  • the image processing apparatus according to (2) wherein a pixel value calculated by weighted addition using a pixel value of the pixel is selectively output as a pixel value of the centroid correction unit output short-time exposure pixel.
  • the centroid correction unit includes a saturation determination unit that determines whether or not the pixel applied to the centroid correction process is saturated, and when the pixel applied to the centroid correction process is saturated,
  • the pixel value of the center-of-gravity correction unit output long-time exposure pixel is set as the pixel value of the long-time exposure pixel of the input image
  • the pixel value of the center-of-gravity correction unit output short-time exposure pixel is set to a plurality of short-time exposure pixels of the input image.
  • the image processing apparatus according to (2) or (3) wherein the image value is set as a pixel value calculated by a smoothing process based on a pixel value.
  • the pixel synthesizing unit is a synthesis unit that performs synthesis processing of the centroid correction unit output long-time exposure pixel and the centroid correction unit output short-time exposure pixel.
  • a synthesis unit, an edge synthesis unit that executes synthesis processing adapted to the edge region, a saturation synthesis unit that executes synthesis processing adapted to the saturation region, and a synthesis result of each synthesis unit A selection unit configured to generate a synthesis result image, and the selection unit receives the edge information and a saturation flag indicating whether a pixel applied to the centroid correction process is a saturated pixel, and the centroid correction process
  • the combination result of the saturation unit combining unit is selected, and when the pixel applied to the centroid correction process is not a saturated pixel but an edge region, the edge unit combining unit Select the synthesis result of And, the center of gravity correction processing pixel is not saturated pixel applied to, if not an edge region, wherein selecting the combined result of the flat portion combining
  • the flat portion synthesis unit outputs the centroid correction unit output long-time exposure pixel and the centroid correction unit output according to a blend ratio ( ⁇ ) that changes according to a pixel value of the centroid correction unit output long-time exposure pixel.
  • the pixel value of the short-time exposure pixel is blended to calculate a pixel value as a synthesis result, and the edge synthesis unit responds to a fixed blend rate ( ⁇ ) that does not depend on the pixel value of the long-time exposure pixel output from the centroid correction unit.
  • centroid correction unit output long-time exposure pixel and the centroid correction unit output short-time exposure pixel are blended to calculate a pixel value as a synthesis result, and the saturation unit synthesis unit outputs the centroid correction unit output short-time
  • the image processing apparatus according to (6) wherein a pixel value of an exposure pixel is calculated as a pixel value as a synthesis result.
  • the pixel synthesizing unit further includes a moving subject unit synthesizing unit that executes a synthesizing process adapted to the moving subject region, and the selection unit is such that the pixel applied to the centroid correction processing is the moving subject region.
  • the moving subject detection flag indicating whether or not the pixel applied to the center-of-gravity correction processing is a moving subject region
  • the synthesis result of the moving subject synthesis unit is selected in (6) or (7).
  • the image processing apparatus described. (9)
  • the input image is a Bayer array image composed of RGB pixels, and the edge detection unit executes edge detection processing using only G pixels. Image processing apparatus.
  • (10) having a signal processing unit that generates an output image by executing pixel value synthesis processing of pixels included in an input image including long-time exposure pixels and short-time exposure pixels;
  • the signal processing unit An edge detection unit that performs edge detection on each component pixel of the input image and outputs edge information corresponding to each pixel;
  • An array conversion centroid correction unit that generates a specific color high-frequency signal and an all-color low-frequency signal of the input image;
  • a pixel synthesizer that inputs the specific color high-frequency signal and the all-color low-frequency signal, and generates a specific color high-frequency high-dynamic range (HDR) signal and an all-color low-frequency high dynamic range (HDR) signal; Correlation processing for generating the high dynamic range (HDR) image having the same number of pixels as the input image by inputting the specific color high frequency range high dynamic range (HDR) signal and the all color low frequency range high dynamic range (HDR) signal.
  • An image processing apparatus having a unit.
  • the input image is a Bayer array image composed of RGB pixels
  • the array conversion center-of-gravity correction unit generates a G-color high-frequency signal and RGB low-frequency signals of the input image
  • the pixel composition unit inputs the G-color high-frequency signal and RGB low-frequency signals.
  • a G color high frequency range high dynamic range (HDR) signal and RGB color low frequency range high dynamic range (HDR) signal, and the correlation processing unit, the G color high frequency range high dynamic range (HDR) signal The image processing apparatus according to (10), wherein the RGB low color high dynamic range (HDR) signal is input to generate a high dynamic range (HDR) image having a Bayer array having the same number of pixels as the input image.
  • a method of processing executed in the above-described apparatus and system, a program for executing the processing, and a recording medium recording the program are also included in the configuration of the present disclosure.
  • the series of processes described in the specification can be executed by hardware, software, or a combined configuration of both.
  • the program recording the processing sequence is installed in a memory in a computer incorporated in dedicated hardware and executed, or the program is executed on a general-purpose computer capable of executing various processing. It can be installed and run.
  • the program can be recorded in advance on a recording medium.
  • the program can be received via a network such as a LAN (Local Area Network) or the Internet and installed on a recording medium such as a built-in hard disk.
  • the various processes described in the specification are not only executed in time series according to the description, but may be executed in parallel or individually according to the processing capability of the apparatus that executes the processes or as necessary.
  • the system is a logical set configuration of a plurality of devices, and the devices of each configuration are not limited to being in the same casing.
  • an apparatus and a method for generating a high-quality, high dynamic range image by pixel synthesis of an image including a long-time exposure pixel and a short-time exposure pixel are realized. Is done. Specifically, an edge detection unit that performs edge detection for each component pixel of the input image including the long exposure pixel and the short exposure pixel, and a centroid correction process of the long exposure pixel and the short exposure pixel to be combined And a pixel composition unit that performs composition processing of the generated pixels of the center of gravity correction unit.
  • the pixel compositing unit is a flat part compositing result obtained by applying a blend ratio ( ⁇ ) corresponding to the pixel value of the long-time exposure pixel, an edge part compositing result applying a fixed blend ratio, and a saturated part compositing adapted to the saturated part region. From the result, an optimum synthesis result corresponding to the situation of each pixel is selected, and a high dynamic range (HDR) image is generated and output based on the selected synthesis result.
  • HDR high dynamic range

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

長時間露光画素と短時間露光画素からなる画像の画素合成により高ダイナミックレンジ画像を生成する装置、方法を提供する。長時間露光画素と短時間露光画素を含む入力画像の各構成画素に対するエッジ検出を実行するエッジ検出部と、合成対象となる長時間露光画素と短時間露光画素の重心補正処理を実行する重心補正部と、重心補正部の生成画素の合成処理を実行する画素合成部を有する。画素合成部は、長時間露光画素の画素値に応じたブレンド率(α)を適用した平坦部合成結果と、固定ブレンド率を適用したエッジ部合成結果と、飽和部領域に適応した飽和部合成結果から、各画素の状況に応じた最適な合成結果を選択し、選択された合成結果に基づいて高ダイナミックレンジ(HDR)画像を生成して出力する。

Description

画像処理装置、および画像処理方法、並びにプログラム
 本開示は、画像処理装置、および画像処理方法、並びにプログラムに関する。さらに詳細には、異なる露光時間に設定した画素の合成処理によって高ダイナミックレンジ画像を生成する画像処理装置、および画像処理方法、並びにプログラムに関する。
 ビデオカメラやデジタルスチルカメラなどに用いられるCCDイメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサのような固体撮像デバイスは入射光量に応じた電荷を蓄積し、蓄積した電荷に対応する電気信号を出力する光電変換を行い、蓄積電荷量に応じた画素値からなる画像を生成する。
 昨今、低輝度領域から高輝度領域まで高精度な画素値を設定した高ダイナミックレンジ(HDR:High Dynamic Range)画像を生成する撮像装置(カメラ)が提案されている。
 高ダイナミックレンジ(HDR)画像は、例えば、短時間露光画像と長時間露光画像の複数の画像の合成、または、1枚の撮影画像中に設定された長時間露光画素と、短時間露光画素の画素合成によって生成される。
 図1は、短時間露光画像と長時間露光画像の複数の画像の合成による高ダイナミックレンジ(HDR)画像の生成処理構成を示す図である。
 2つの異なる露光時間に設定して長時間露光画像11と短時間露光画像12を連続撮影する。合成部20において、これらの2つの画像の対応画素の画素値をブレンドして出力画像としての高ダイナミックレンジ(HDR)画像21の画素値を決定する。
 例えば、高ダイナミックレンジ(HDR)画像21の画素値D(HDR)は、
 長時間露光画像11と短時間露光画像12の対応画素の画素値をそれぞれD(L)、D(S)としたとき、以下の式によって算出される。
 D(HDR)=(1-α)×D(L)+α×D(S)×(GAIN)
 ただし、
 D(L)は、長時間露光画像の画素値、
 D(S)は、短時間露光画像の画素値、
 GAINは、長時間露光画像と短時間露光画像との露光時間比(露光比)、
 αは、ブレンド比率、
 である。
 上記式に従った画素値算出処理はαブレンド処理と呼ばれる。
 例えば高輝度画素領域等、長時間露光画像の画素値が飽和しているような画素領域では、上記のαブレンド処理において、長時間露光画像の画素値を利用しない、あるいは長時間露光画像の画素値のブレンド比率を低下させて、出力画像である高ダイナミックレンジ(HDR)画像21の画素値D(HDR)を算出する。
 また、低輝度領域においては、上記のαブレンド処理において、短時間露光画像の画素値を利用しない、あるいは長時間露光画像の画素値のブレンド比率を増加させる。
 このような処理を実行して、合成画像を生成することで、低輝度領域へ高輝度領域までより精度の高い画素値を設定した高ダイナミックレンジ(HDR)画像を生成することが可能となる。
 図2は、1枚の撮影画像中に設定された長時間露光画素と、短時間露光画素の画素合成による高ダイナミックレンジ(HDR)画像の生成処理構成を示す図である。
 撮影画像30には長時間露光画素と短時間露光画素が所定の画素領域単位で設定される。
 図2に示す例は、ベイヤ(Bayer)配列を持つ撮像素子において、2行単位で長時間露光画素と短時間露光画素を交互に設定した例である。なお、長時間露光画素と短時間露光画素の設定構成は、1行おきなど、その他の様々な設定が可能である。
 合成部40は、撮影画像30に含まれる近傍領域の長時間露光画素と短時間露光画素の画素値をブレンドして出力画像の画素値を算出して、高ダイナミックレンジ(HDR)画像41を生成する。
 例えば、図に示す2つのR画素、すなわち長時間露光画素R31と、短時間露光画素R32を利用して高ダイナミックレンジ(HDR)画像41の1つのR画素値を決定する。
 この1枚の撮影画像30を利用した高ダイナミックレンジ(HDR)画像41の画素値D(HDR)の算出処理も、先に図1を参照して説明したブレンド処理と基本的に同様の処理として実行される。すなわち、
 高ダイナミックレンジ(HDR)画像41の画素値D(HDR)は、ブレンド対象となる長時間露光画素と短時間露光画素の画素値をそれぞれD(L)、D(S)としたとき、以下の式によって算出される。
 D(HDR)=(1-α)×D(L)+α×D(S)×(GAIN)
 ただし、
 D(L)は、長時間露光画素の画素値、
 D(S)は、短時間露光画素の画素値、
 GAINは、長時間露光画素と短時間露光画素との露光時間比(露光比)、
 αは、ブレンド比率、
 である。
 なお、1枚の画像に、異なる露光時間の画素を設定し、これらの画素を合成して高ダイナミックレンジ画像を生成する処理については、例えば特許文献1(特開2011-244309号公報)、特許文献2(特開2012-80297号公報)等に記載されている。
 しかし、このように、1枚の撮影画像に基づく高ダイナミックレンジ(HDR)画像の生成を行なう場合、1枚の画像中の異なる画素位置にある長時間露光画素と短時間露光画素の合成処理が必要となる。
 1枚の画像中の長時間露光画素と短時間露光画素は、厳密には異なる位置の被写体の撮影画素であり、この異なる被写***置を撮影した画素値を合成して1つの出力画像の画素値を算出しなければならない。
 このような処理により高ダイナミックレンジ画像を生成すると、輝度変化の大きいエッジ領域などにジャギーが発生しやすくなる。ジャギーは、例えばエッジ等の境界が階段状のギザギザ模様に出力されてしまう現象である。
 本来なら、なめらかなエッジ境界であっても、階段状の不自然なエッジ境界として出力されてしまう。多くの場合、「ジャギー」は入力信号の帯域に対してサンプリング数が足りないため発生するエイリアシングであり、画像内の例えば被写体境界や模様のあるテクスチャ領域等に現れやすい。
特開2011-244309号公報 特開2012-80297号公報
 本開示は、例えばこのような状況に鑑みてなされたものであり、一枚の撮影画像を利用して高ダイナミックレンジ画像を生成する構成において高品質な画像生成を行なう画像処理装置、および画像処理方法、並びにプログラムを提供することを目的とする。
 本開示の第1の側面は、
 長時間露光画素と短時間露光画素を含む入力画像に含まれる画素の画素値合成処理を実行して出力画像を生成する信号処理部を有し、
 前記信号処理部は、
 前記入力画像の各構成画素に対するエッジ検出を実行して、各画素対応のエッジ情報を出力するエッジ検出部と、
 合成処理対象となる長時間露光画素と短時間露光画素の重心補正処理を実行して、重心補正部出力長時間露光画素と重心補正部出力短時間露光画素を出力する重心補正部と、
 前記重心補正部の生成した重心補正部出力長時間露光画素と重心補正部出力短時間露光画素との合成処理を実行する画素合成部を有する画像処理装置にある。
 さらに、本開示の画像処理装置の一実施態様において、前記重心補正部は、前記重心補正処理として、合成処理対象となる長時間露光画素と短時間露光画素の画素位置を一致させる処理を実行する構成であり、異なる画素位置の複数の同一色の長時間露光画素の画素値を適用した重み付け加算により、前記重心補正部出力長時間露光画素の画素値を算出し、異なる画素位置の複数の同一色の短時間露光画素の画素値を適用した重み付け加算により、前記重心補正部出力短時間露光画素の画素値を算出する処理を実行する。
 さらに、本開示の画像処理装置の一実施態様において、前記重心補正部は、前記重心補正処理に適用した画素が飽和しているか否かを判定する飽和判定部を有し、前記重心補正処理に適用した画素が飽和している場合は、前記入力画像の画素値を前記重心補正部出力長時間露光画素と重心補正部出力短時間露光画素の画素値とし、前記重心補正処理に適用した画素が飽和していない場合は、異なる画素位置の複数の同一色の長時間露光画素の画素値を適用した重み付け加算により算出した画素値を、前記重心補正部出力長時間露光画素の画素値とし、異なる画素位置の複数の同一色の短時間露光画素の画素値を適用した重み付け加算により算出した画素値を、前記重心補正部出力短時間露光画素の画素値として選択出力する。
 さらに、本開示の画像処理装置の一実施態様において、前記重心補正部は、前記重心補正処理に適用した画素が飽和しているか否かを判定する飽和判定部を有し、前記重心補正処理に適用した画素が飽和している場合は、前記重心補正部出力長時間露光画素の画素値を、入力画像の長時間露光画素の画素値とし、前記重心補正部出力短時間露光画素の画素値を、入力画像の短時間露光画素の複数の画素値に基づく平滑化処理によって算出した画素値として設定する。
 さらに、本開示の画像処理装置の一実施態様において、前記重心補正部は、前記平滑化処理を、前記エッジ検出部から入力するエッジ方向に応じた係数の設定された平滑化フィルタを適用して実行する。
 さらに、本開示の画像処理装置の一実施態様において、前記画素合成部は、前記重心補正部出力長時間露光画素と重心補正部出力短時間露光画素との合成処理を実行する合成部として、平坦部領域に適応した合成処理を実行する平坦部合成部と、エッジ部領域に適応した合成処理を実行するエッジ部合成部と、飽和部領域に適応した合成処理を実行する飽和部合成部と、前記各合成部の合成結果を選択して合成結果画像を生成する選択部を有し、前記選択部は、前記エッジ情報、および前記重心補正処理に適用した画素が飽和画素であるか否かを示す飽和フラグを入力し、前記重心補正処理に適用した画素が飽和画素である場合は、前記飽和部合成部の合成結果を選択し、前記重心補正処理に適用した画素が飽和画素でなく、エッジ領域である場合は、前記エッジ部合成部の合成結果を選択し、前記重心補正処理に適用した画素が飽和画素でなく、エッジ領域でない場合は、前記平坦部合成部の合成結果を選択する。
 さらに、本開示の画像処理装置の一実施態様において、前記平坦部合成部は、前記重心補正部出力長時間露光画素の画素値に応じて変化するブレンド率(α)に応じて前記重心補正部出力長時間露光画素と前記重心補正部出力短時間露光画素の画素値をブレンドして合成結果の画素値を算出し、前記エッジ部合成部は、前記重心補正部出力長時間露光画素の画素値に依存しない固定ブレンド率(β)に応じて前記重心補正部出力長時間露光画素と前記重心補正部出力短時間露光画素の画素値をブレンドして合成結果の画素値を算出し、前記飽和部合成部は、前記重心補正部出力短時間露光画素の画素値を合成結果の画素値として算出する。
 さらに、本開示の画像処理装置の一実施態様において、前記画素合成部は、さらに、動被写体領域に適応した合成処理を実行する動被写体部合成部を有し、前記選択部は、前記重心補正処理に適用した画素が動被写体領域であるか否かを示す動被写体検出フラグを入力し、前記重心補正処理に適用した画素が動被写体領域である場合は、前記動被写体合成部の合成結果を選択する。
 さらに、本開示の画像処理装置の一実施態様において、前記入力画像は、RGB画素によって構成されるベイヤ配列画像であり、前記エッジ検出部は、G画素のみを用いたエッジ検出処理を実行する。
 さらに、本開示の第2の側面は、
 長時間露光画素と短時間露光画素を含む入力画像に含まれる画素の画素値合成処理を実行して出力画像を生成する信号処理部を有し、
 前記信号処理部は、
 前記入力画像の各構成画素に対するエッジ検出を実行して、各画素対応のエッジ情報を出力するエッジ検出部と、
 前記入力画像の特定色高域信号と全色低域信号を生成する配列変換重心補正部と、
 前記特定色高域信号と全色低域信号を入力して、特定色高域高ダイナミックレンジ(HDR)信号と、全色低域高ダイナミックレンジ(HDR)信号を生成する画素合成部と、
 前記特定色高域高ダイナミックレンジ(HDR)信号と、全色低域高ダイナミックレンジ(HDR)信号を入力して、前記入力画像と同画素数の高ダイナミックレンジ(HDR)画像を生成する相関処理部を有する画像処理装置にある。
 さらに、本開示の画像処理装置の一実施態様において、前記入力画像は、RGB画素によって構成されるベイヤ配列画像であり、前記配列変換重心補正部は、前記入力画像のG色高域信号とRGB各色低域信号を生成し、前記画素合成部は、前記G色高域信号と前記RGB各色低域信号を入力して、G色高域高ダイナミックレンジ(HDR)信号と、RGB各色低域高ダイナミックレンジ(HDR)信号を生成し、前記前記相関処理部は、前記G色高域高ダイナミックレンジ(HDR)信号と、前記RGB各色低域高ダイナミックレンジ(HDR)信号を入力して、前記入力画像と同画素数のベイヤ配列からなる高ダイナミックレンジ(HDR)画像を生成する。
 さらに、本開示の第3の側面は、
 画像処理装置において実行する画像処理方法であり、
 信号処理部が、長時間露光画素と短時間露光画素を含む入力画像に含まれる画素の画素値合成処理を実行して出力画像を生成する信号処理ステップを実行し、
 前記信号処理ステップにおいて、
 前記入力画像の各構成画素に対するエッジ検出を実行して、各画素対応のエッジ情報を出力するエッジ検出処理と、
 合成処理対象となる長時間露光画素と短時間露光画素の重心補正処理を実行して、重心補正部出力長時間露光画素と重心補正部出力短時間露光画素を出力する重心補正処理と、
 前記重心補正部の生成した重心補正部出力長時間露光画素と重心補正部出力短時間露光画素との合成処理を実行する画像処理方法にある。
 さらに、本開示の第4の側面は、
 画像処理装置において画像処理を実行させるプログラムであり、
 信号処理部に、長時間露光画素と短時間露光画素を含む入力画像に含まれる画素の画素値合成処理を実行して出力画像を生成する信号処理ステップを実行させ、
 前記信号処理ステップにおいて、
 前記入力画像の各構成画素に対するエッジ検出を実行して、各画素対応のエッジ情報を出力するエッジ検出処理と、
 合成処理対象となる長時間露光画素と短時間露光画素の重心補正処理を実行して、重心補正部出力長時間露光画素と重心補正部出力短時間露光画素を出力する重心補正処理と、
 前記重心補正部の生成した重心補正部出力長時間露光画素と重心補正部出力短時間露光画素との合成処理を実行させるプログラムにある。
 なお、本開示のプログラムは、例えば、様々なプログラム・コードを実行可能な情報処理装置やコンピュータ・システムに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体によって提供可能なプログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、情報処理装置やコンピュータ・システム上でプログラムに応じた処理が実現される。
 本開示のさらに他の目的、特徴や利点は、後述する本開示の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
 本開示の一実施例の構成によれば、長時間露光画素と短時間露光画素からなる画像の画素合成による高品質な高ダイナミックレンジ画像を生成する装置、方法が実現される。
 具体的には、長時間露光画素と短時間露光画素を含む入力画像の各構成画素に対するエッジ検出を実行するエッジ検出部と、合成対象となる長時間露光画素と短時間露光画素の重心補正処理を実行する重心補正部と、重心補正部の生成画素の合成処理を実行する画素合成部を有する。画素合成部は、長時間露光画素の画素値に応じたブレンド率(α)を適用した平坦部合成結果と、固定ブレンド率を適用したエッジ部合成結果と、飽和部領域に適応した飽和部合成結果から、各画素の状況に応じた最適な合成結果を選択し、選択された合成結果に基づいて高ダイナミックレンジ(HDR)画像を生成して出力する。
 上記手法の適用により、各構成画素の状況に応じた画素対応の最適な合成結果が得られ、高品質な高ダイナミックレンジ画像を生成することが可能となる。
複数画像に基づく高ダイナミックレンジ画像生成処理について説明する図である。 単一画像に基づく高ダイナミックレンジ画像生成処理について説明する図である。 本開示の画像処理装置の一構成例について説明する図である。 本開示の画像処理装置の信号処理部の一構成例について説明する図である。 撮像素子の画素配列構成例について説明する図である。 撮像素子の露光制御構成について説明する図である。 本開示の画像処理装置のHDR画像生成部の一構成例について説明する図である。 本開示の画像処理装置のHDR画像生成部のエッジ検出部の一構成例について説明する図である。 エッジ検出部の実行する処理の一例について説明する図である。 エッジ検出部の実行する処理の一例について説明する図である。 本開示の画像処理装置のHDR画像生成部の重心補正部の一構成例について説明する図である。 重心補正部の実行する処理の一例について説明する図である。 重心補正部の実行する処理の一例について説明する図である。 重心補正部の実行する処理の一例について説明する図である。 本開示の画像処理装置のHDR画像生成部の画素合成部の一構成例について説明する図である。 画素合成部の実行する処理の一例について説明する図である。 画素合成部の実行する処理のシーケンスについて説明するフローチャートを示す図である。 画素合成部の実行する処理の一例について説明する図である。 本開示の画像処理装置のHDR画像生成部の重心補正部の一構成例について説明する図である。 重心補正部において実行する一処理例について説明する図である。 本開示の画像処理装置のHDR画像生成部の画素合成部の一構成例について説明する図である。 画素合成部の実行する処理のシーケンスについて説明するフローチャートを示す図である。 撮像素子の画素配列構成例について説明する図である。 撮像素子の露光制御構成について説明する図である。 本開示の画像処理装置のHDR画像生成部の一構成例について説明する図である。 エッジ検出部の実行する処理の一例について説明する図である。 エッジ検出部の実行する処理の一例について説明する図である。 本開示の画像処理装置のHDR画像生成部の配列変換重心補正部の一構成例について説明する図である。 配列変換重心補正部の実行する処理の一処理例について説明する図である。 配列変換重心補正部の実行する処理の一処理例について説明する図である。 配列変換重心補正部の実行する処理の一処理例について説明する図である。 本開示の画像処理装置のHDR画像生成部の画素合成部の一構成例について説明する図である。 本開示の画像処理装置のHDR画像生成部の相関処理部の一構成例について説明する図である。 本開示の画像処理装置の一構成例について説明する図である。
 以下、図面を参照しながら本開示の画像処理装置、および画像処理方法、並びにプログ
ラムの詳細について説明する。なお、説明は以下の項目に従って行う。
  1.画像処理装置の全体構成例について
  2.HDR画像生成部の構成と処理について
  2-1.エッジ検出部の構成と処理について
  2-2.重心補正部の構成と処理について
  2-3.画素合成部の構成と処理について
  3.実施例2:重心補正部の構成を変更した実施例
  4.実施例3:画素合成部の構成を変更した実施例
  5.実施例4:撮像素子の画素配列と長短露光画素設定の変更例
  6.実施例5:画素数を削減することのないHDR画像を生成する実施例について
  6-1.エッジ検出部の構成と処理について
  6-2.配列変換重心補正部の構成と処理について
  6-3.画素合成部の構成と処理について
  6-4.相関処理部の構成と処理について
  7.実施例6:階調変換部、カメラ信号処理部を有する撮像装置の構成例について
  8.本開示の構成のまとめ
  [1.画像処理装置の全体構成例について]
 まず、本開示の第1実施例の画像処理装置の全体構成例について説明する。
 図3に、本開示の画像処理装置の一構成例である撮像装置100の構成例を示す。
 光学レンズ101を介して入射される光は撮像部、例えばCMOSイメージセンサなどによって構成される撮像素子102に入射し、光電変換による画像データを出力する。出力画像データは信号処理部103に入力される。信号処理部103は、例えば、以下に説明する画素合成処理を実行し、さらに、ホワイトバランス(WB)調整、ガンマ補正等、一般的なカメラにおける信号処理を実行して出力画像120を生成する。出力画像120は図示しない記憶部に格納される。あるいは表示部に出力される。
 制御部105は、例えば図示しないメモリに格納されたプログラムに従って各部に制御信号を出力し、各種の処理の制御を行う。
 次に、信号処理部103の構成例について図4を参照して説明する。
 図4は、本開示の一実施例の信号処理部103の構成を示す図である。
 信号処理部103は、図4に示すようにHDR画像生成部131、後段信号処理部132、出力部133を有する。
 HDR画像生成部131は、撮像素子102から入力する画素信号の合成処理を実行する。
 後段信号処理部132は、ホワイトバランス(WB)調整、ガンマ補正等、一般的なカメラにおける信号処理を実行する。
 出力部133は、これらの信号処理のなされた処理画像を出力画像120として出力する。
 撮像素子102は、多数の画素各々に被写体光に基づく電荷を蓄積し画像データを出力する。なお、撮像素子102は、長時間露光を行う高感度画素と、短時間露光を行う低感度画素を有する構成となっている。
 なお、以下の説明では、
 長時間露光を行う高感度画素を「長露光画素」、
 短時間露光を行う低感度画素を「短露光画素」、
 として説明する。
 HDR画像生成部131は、長露光画素の画素値と、短露光画素の画素値の合成(ブレンド)処理を実行する。例えば、撮像素子の垂直方向近傍にある長露光画素の画素値と、短露光画素の画素値の合成(ブレンド)処理を実行し、さらに、この合成後に、水平方向の合成画素同士を再合成する。このような画素値合成処理を実行して画素数を削減した高ダイナミックレンジ(HDR)画像を生成する。
 なお、画素数を削減せずに高ダイナミックレンジ(HDR)画像を生成する手法もある。これらの高ダイナミックレンジ(HDR)画像の生成構成については、後段で詳細に説明する。
 以下では、一例として、撮像素子102が図5に示すようなRGB配列、すなわちベイヤ(Bayer)配列を持つCMOS(Complementary Metal Oxide Semiconductor)イメージセンサである場合の処理例について説明する。
 撮像素子102は、図6に示すように2行毎に異なる露光時間の画素、すなわち短露光画素と長露光画素を有する構成である。
 この画素単位の露光時間制御は制御部105の制御によって実行される。
 図6に示すグレー領域が露光時間の短い短露光画素領域であり、白領域が露光時間の長い長露光画素領域である。各矩形領域が1つの画素を示す。
 以下の実施例では、図6に示すように2行単位で短露光画素と長露光画素を設定して撮影された画像に対する処理例を説明する。
 なお、このように画素ごとに露光時間を変える露光処理をSVE(Spatially Varying Exposure)方式と呼び、このSVE方式によって得られた画像をSVE画像、SVE配列画像、あるいはSVE信号と呼ぶ。
 このように画素ごとに露光時間を変えて撮影したSVE画像の長露光画素と短露光画素の各画素信号を合成することで、ダイナミックレンジの広い画像を得ることができる。この合成処理によって生成する画像を高ダイナミックレンジ(HDR:High Dynamic Range)画像と呼ぶ。
  [2.HDR画像生成部の構成と処理について]
 次に、本開示の第1実施例の画像処理装置におけるHDR画像生成部131の構成と処理について説明する。
 図7は、HDR画像生成部131の詳細構成を示すブロック図である。
 HDR画像生成部131は、撮像素子102の出力画像、すなわち、2行単位で長露光画素と短露光画素が交互に設定された入力画像(SVE配列画像)141を入力する。
 HDR画像生成部131は、この入力画像(SVE配列画像)141を構成する長露光画素と短露光画素画素を合成して高ダイナミックレンジ(HDR)画像142を生成して出力する。
 例えば、N×M画素の入力画像(SVE配列画像)141を入力して、P×Q画素のHDR画像142を生成して出力する。
 ただし、
 P≦N,
 Q≦M
 である。
 図7に示すように、HDR画像生成部131は、エッジ検出部151、重心補正部152、画素合成部153を有する。
 エッジ検出部151は、入力されたSVE配列の各画素領域におけるエッジの有無やエッジ方向を解析し、これらの解析情報からなるエッジ情報を生成して出力する。
 重心補正部152は、エッジ検出部151の検出したエッジ情報を利用して、合成対象となる長露光画素と短露光画素の重心位置を補正する。
 画素合成部153は、重心補正部152の出力である重心補正画素値を利用して、エッジ成分情報を利用して、長露光画素と短露光画素の合成を行う。
 以下、HDR画像生成部131の各構成部の詳細構成と処理について、順次説明する。
  (2-1.エッジ検出部の構成と処理について)
 まず、図8以下を参照してエッジ検出部151の構成と処理について説明する。
 図8はエッジ検出部151の詳細構成を示すブロック図である。
 エッジ検出部151は、撮像素子102からの出力画像である図7に示す入力画像(SVE配列画像)141から、エッジ検出対象とする注目画素をほぼ中心画素とした注目画素の近傍9×9画素領域のG画素のみからなる画像信号、すなわち、図8に示すエッジ検出用画像141Gを利用して、注目画素対応のエッジ情報を生成して、図7に示す重心補正部152と画素合成部153に出力する。
 なお、図7に示すHDR画像生成部131が最終的に生成するHDR画像142の各画素は、入力画像(SVE配列画像)141中の少なくとも1つの長露光画素と短露光画素を含む複数画素の画素値合成によって生成される。
 従って、HDR画像生成部131は、入力画像(SVE配列画像)中の長露光画素のみを順次、処理対象画素(注目画素)として選択して処理を行なう設定としてよい。短露光画素は、処理対象画素(注目画素)として選択された長露光画素との合成に適用する画素として自動的に選択される。
 なお、処理対象画素(注目画素)として選択された長露光画素との合成対象となる短露光画素は、例えば選択された長露光画素の垂直方向の近傍にある同一色の短露光画素である。この合成対象とする長露光画素と短露光画素の組み合わせは予め設定されており、HDR画像生成部131は、この設定情報に基づいて画素合成を行なう。
 図8に示すエッジ検出部151が生成するエッジ情報は、図8に示すように以下の各信号である。
 (a)長露光エッジフラグ(LEdge_flg)171、
 (b)長露光エッジ方向フラグ(LDir_flg)172、
 (c)短露光エッジフラグ(SEdge_flg)173、
 (d)短露光エッジ方向フラグ(SDir_flg)174、
 エッジ検出部151は、これら(a)~(d)からなるエッジ情報を生成して重心補正部152と画素合成部153に出力する。
 図8に示すように、エッジ検出部151は、差分算出部(垂直)161、差分算出部(水平)162、差分算出部(右上)163、差分算出部(左上)164を有する。
 さらに、長露光エッジ検出部165、長露光エッジ方向判定部166、短露光エッジ検出部167、短露光エッジ方向判定部168を有する。
 差分算出部(垂直)161は、図8に示すエッジ検出用画像141G、すなわち注目画素の近傍9×9画素領域に含まれるG画素を適用して、以下の2つの垂直方向の画素値差分情報を算出する。
 垂直方向に近接する2つの長時間露光G画素同士の画素値差分の平均値(LDiff_v)、
 垂直方向に近接する2つの短時間露光G画素同士の画素値差分の平均値(SDiff_v)、
 これらを算出する。
 差分算出部(水平)162は、図8に示すエッジ検出用画像141G、すなわち注目画素の近傍9×9画素領域に含まれるG画素を適用して、以下の2つの水平方向の画素値差分情報を算出する。
 水平方向に近接する2つの長時間露光G画素同士の画素値差分の平均値(LDiff_h)、
 水平方向に近接する2つの短時間露光G画素同士の画素値差分の平均値(SDiff_h)、
 これらを算出する。
 差分算出部(右上)163は、図8に示すエッジ検出用画像141G、すなわち注目画素の近傍9×9画素領域に含まれるG画素を適用して、以下の2つの右上方向の画素値差分情報を算出する。
 右上方向に近接する2つの長時間露光G画素同士の画素値差分の平均値(LDiff_a)、
 右上方向に近接する2つの短時間露光G画素同士の画素値差分の平均値(SDiff_a)、
 これらを算出する。
 差分算出部(左上)164は、図8に示すエッジ検出用画像141G、すなわち注目画素の近傍9×9画素領域に含まれるG画素を適用して、以下の2つの左上方向の画素値差分情報を算出する。
 左上方向に近接する2つの長時間露光G画素同士の画素値差分の平均値(LDiff_d)、
 左上方向に近接する2つの短時間露光G画素同士の画素値差分の平均値(SDiff_d)、
 これらを算出する。
 図9は、差分算出部161~164において実行する長露光画素に関する垂直、水平、右上、左上の各差分算出処理の具体例を示す図である。
 (Lv)長露光垂直方向、
 (Lh)長露光水平方向、
 (La)長露光右上方向、
 (Ld)長露光左上方向、
 これらの各処理において差分を算出する画素の組み合わせ(画素ペア)を矢印で示している。
 複数の画素ペアの画素値差分を算出し、さらにこの平均値を算出して、以下の各値を算出する。
 (1)長露光画素垂直方向画素値差分平均値(LDiff_v)、
 (2)長露光画素水平方向画素値差分平均値(LDiff_h)、
 (3)長露光画素右上方向画素値差分平均値(LDiff_a)、
 (4)長露光画素左上方向画素値差分平均値(LDiff_d)、
 これらの各値の算出式は、以下の(式1)に示す通りである。
Figure JPOXMLDOC01-appb-M000001
   ・・・・・(式1)
 なお、上記式において、N,M.O,Pは算出した差分の数である。
 図10は、差分算出部161~164において実行する短露光画素に関する垂直、水平、右上、左上の各差分算出処理の具体例を示す図である。
 (Sv)短露光垂直方向、
 (Sh)短露光水平方向、
 (Sa)短露光右上方向、
 (Sd)短露光左上方向、
 これらの各処理において差分を算出する画素の組み合わせ(画素ペア)を矢印で示している。
 複数の画素ペアの画素値差分を算出し、さらにこの平均値を算出して、以下の各値を算出する。
 (1)短露光画素垂直方向画素値差分平均値(SDiff_v)、
 (2)短露光画素水平方向画素値差分平均値(SDiff_h)、
 (3)短露光画素右上方向画素値差分平均値(SDiff_a)、
 (4)短露光画素左上方向画素値差分平均値(S)Diff_d)、
 これらの各値の算出式は、以下の(式2)に示す通りである。
Figure JPOXMLDOC01-appb-M000002
   ・・・・・(式2)
 なお、上記式において、Q,R.S,Tは算出した差分の数である。
 図8に示す差分算出部(垂直)161、差分算出部(水平)162、差分算出部(右上)163、差分算出部(左上)164は、このように長時間露光G画素および短時間露光G画素を適用して4方向の画素値差分平均値を算出する。この算出値は、長露光エッジ検出部165、長露光エッジ方向判定部166、短露光エッジ検出部167、短露光エッジ方向判定部168に出力される。
 長露光エッジ検出部165、長露光エッジ方向判定部166は、長時間露光G画素の4方向の画素値差分平均値を入力し、長露光画素の各方向の画素値差分平均値を用いて、長露光画素から判断されるエッジの有無、およびエッジ方向を判定する。
 また、短露光エッジ検出部167、短露光エッジ方向判定部168は、短時間露光G画素の4方向の画素値差分平均値を入力し、短露光画素の各方向の画素値差分平均値を用いて、短露光画素から判断されるエッジの有無、およびエッジ方向を判定する。
 長露光エッジ検出部165は、以下に示す(式3)に従って、長露光画素から判断されるエッジの有無を示す長露光エッジ判定フラグ(LEdge_flg)171を算出する。
Figure JPOXMLDOC01-appb-M000003
   ・・・・・(式3)
 上記(式3)において、
 THは予め定めた閾値である。
長露光エッジ判定フラグ(LEdge_flg)171は、
 LEdge_flg=1の場合、注目画素がエッジ領域であることを示し、
 LEdge_flg=0の場合、注目画素がエッジ領域でない、すなわち平坦領域であることを示す。
 長露光エッジ方向判定部166は、以下に示す(式4)に従って、長露光画素から判断されるエッジの方向を示す長露光エッジ方向フラグ(LDir_flg)172を算出する。
Figure JPOXMLDOC01-appb-M000004
   ・・・・・(式4)
 上記(式4)において、
 min{a,b,c,d}は、a,b,c,dから最小値を選択する関数である。
 長露光エッジ方向フラグ(LDir_flg)172は、上記(式4)によって定義される各値0~3に応じて以下のエッジ方向であることをほ示す。
 LDir_flg=0:エッジ方向が垂直方向、
 LDir_flg=1:エッジ方向が水平方向、
 LDir_flg=2:エッジ方向が左上方向、
 LDir_flg=3:エッジ方向が右上方向、
 また、短露光エッジ検出部167は、以下に示す(式5)に従って、短露光画素から判断されるエッジの有無を示す短露光エッジ判定フラグ(SEdge_flg)173を算出する。
Figure JPOXMLDOC01-appb-M000005
   ・・・・・(式5)
 上記(式5)において、
 THは予め定めた閾値である。
 短露光エッジ判定フラグ(SEdge_flg)173は、
 SEdge_flg=1の場合、注目画素がエッジ領域であることを示し、
 SEdge_flg=0の場合、注目画素がエッジ領域でない、すなわち平坦領域であることを示す。
 短露光エッジ方向判定部168は、以下に示す(式6)に従って、短露光画素から判断されるエッジの方向を示す長露光エッジ方向フラグ(SDir_flg)174を算出する。
Figure JPOXMLDOC01-appb-M000006
   ・・・・・(式6)
 上記(式6)において、
 min{a,b,c,d}は、a,b,c,dから最小値を選択する関数である。
 短露光エッジ方向フラグ(SDir_flg)174は、上記(式6)によって定義される各値0~3に応じて以下のエッジ方向であることを示す。
 SDir_flg=0:エッジ方向が垂直方向、
 SDir_flg=1:エッジ方向が水平方向、
 SDir_flg=2:エッジ方向が左上方向、
 SDir_flg=3:エッジ方向が右上方向、
 このように、エッジ検出部151は。注目画素対応の以下の各情報をエッジ情報として生成して、重心補正部152と画素合成部153に出力する。
 (1)長露光画素に基づいて判定した注目画素がエッジ領域であるか否かを示す長露光エッジフラグ(LEdge_flg)171
 (2)長露光画素に基づいて判定した注目画素におけるエッジ方向を示す長露光エッジ方向フラグ(LDir_flg)172
 (3)短露光画素に基づいて判定した注目画素がエッジ領域であるか否かを示す短露光エッジフラグ(SEdge_flg)173
 (4)短露光画素に基づいて判定した注目画素におけるエッジ方向を示す短露光エッジ方向フラグ(SDir_flg)174
  (2-2.重心補正部の構成と処理について)
 次に、図11以下を参照して重心補正部152の構成と処理について説明する。
 図11は重心補正部152の詳細構成を示すブロック図である。
 図7に示すHDR画像生成部131は、撮像素子102からの出力画像である図7に示す入力画像(SVE配列画像)141に含まれる長露光画素と短露光画素を合成して出力画像であるHDR画像142の1つの出力画素値を算出する。
 例えば合成処理後の出力画像であるHDR画像142は、合成処理前の入力画像である入力画像(SVE配列画像)141を水平垂直方向とも画素数を1/2とした設定となる。
 図12に示すように、合成対象となる長露光画素と短露光画素は、異なる画素位置にあり、異なる被写***置の撮影画素値を合成することになる。
 このような処理を行なうと、例えばエッジ等の境界が階段状に設定されるジャギーや、偽色等のエイリアシングが発生する場合がある。
 このようなジャギー、エイリアシングの発生を抑制するためには、合成対象となる長露光画素と短露光画素の画素位置を同じ画素位置とする調整を行なうことが有効となる。この処理を重心補正と呼ぶ。
 図11に示す重心補正部152の垂直重心補正部181は、入力画像(SVE配列画像)141に含まれる長露光画素と短露光画素に対して、各画素位置を同じ画素位置とした場合の各画素値を算出し、これらを「重心補正あり長露光画素(L_w)」と「重心補正あり短露光画素(S_w)」として補正結果選択部183に出力する。
 重心補正部152の垂直重心補正部181は、このように合成処理対象となる長時間露光画素と短時間露光画素の画素位置を一致させる処理を実行する。具体的には、
 異なる画素位置の複数の同一色の長時間露光画素の画素値を適用した重み付け加算により、重心補正部出力長時間露光画素の画素値を算出する。
 また、異なる画素位置の複数の同一色の短時間露光画素の画素値を適用した重み付け加算により、重心補正部出力短時間露光画素の画素値を算出する処理を実行する。
 例えば図13に示すような処理を行なう。
 図13には、以下の各処理例を示している。
 (a)長露光画素の重心補正処理、
 (b)短露光画素の重心補正処理、
 図13に示す処理例は、処理対象とする注目画素を入力画像(SVE配列画像)における第5,6,9,10行目の長露光画素とした場合の処理例を説明している。
 なお、前述したように、図7に示すHDR画像生成部131が最終的に生成するHDR画像142の各画素は、入力画像(SVE配列画像)141中の少なくとも1つの長露光画素と短露光画素を含む複数画素の画素値合成によって生成される。
 従って、HDR画像生成部131は、処理対象画素(注目画素)として入力画像(SVE配列画像)中の長露光画素のみを順次選択する設定としてよい。短露光画素は、処理対象画素(注目画素)として選択された長露光画素との合成に適用する画素として自動的に選択されるからである。
 図13に示す例は、入力画像(SVE配列画像)における第5,6,9,10行目の長露光画素を処理対象画素(注目画素)として選択した場合の重心補正処理を示している。具体的には、
 (a)重心補正あり長露光画素(L_w)、
 (b)重心補正あり短露光画素(S_w)、
 これらの各露光画素の重心補正処理例を示している。
 例えば、図13(a)に示す長露光画素の重心補正処理においては、以下の処理を実行する。
 入力画像(SVE配列画像)における第5行目のGRGR画素のいずれかが注目画素である場合、入力画像(SVE配列画像)の第1行目の画素位置の長露光画素(GRGR)の画素値と、第5行目の長露光画素(GRGR)の画素値と、第9行目の長露光画素(GRGR)の画素値とを1:6:1で加算平均することで、図13(a2)長時間露光重心補正画像の最上段(5行目相当)の各画素(GRGR)の画素値を算出する。
 図13(a2)長時間露光重心補正画像の右端に示す(x行目相当)は、重心補正画素の画素値が、入力画像においてどの画素位置(x行目)に対応する画素値に相当するかを示している。
 また、入力画像(SVE配列画像)における第6行目のBGBG画素のいずれかが注目画素である場合、入力画像(SVE配列画像)の第6行目の画素位置の長露光画素(BGBG)の画素値と、第10行目の長露光画素(BGBG)の画素値を3:1で加算平均することで、(a2)長時間露光重心補正画像の二番目(7行目相当)の各画素(BGBG)の画素値を算出する。
 以下同様に、入力画像(SVE配列画像)における第9行目のGRGR画素のいずれかが注目画素である場合、第5行目の処理と同様、入力画像(SVE配列画像)の第5行目の画素位置の長露光画素(GRGR)の画素値と、第9行目の長露光画素(GRGR)の画素値と、第13行目の長露光画素(GRGR)の画素値とを1:6:1で加算平均することで、図13(a2)長時間露光重心補正画像の三番目(9行目相当)の各画素(GRGR)の画素値を算出する。
 また、入力画像(SVE配列画像)における第10行目のBGBG画素のいずれかが注目画素である場合、第6行目の処理と同様、入力画像(SVE配列画像)の第10行目の画素位置の長露光画素(BGBG)の画素値と、第14行目の長露光画素(BGBG)の画素値を3:1で加算平均することで、(a2)長時間露光重心補正画像の四番目(11行目相当)の各画素(BGBG)の画素値を算出する。
 図13(a2)長時間露光重心補正画像には、
 処理対象画素(注目画素)が、入力画像(SVE配列画像)の第5,6,9,10行目の長露光画素である場合の重心補正画素の画素値が、入力画像においてどの画素位置(x行目)に対応するかを示している。
 処理対象画素(注目画素)が、入力画像の第5行目のGRGR画素の場合、重心補正画像の画素位置は、入力画像における第5行の位置となる。
 処理対象画素(注目画素)が、入力画像の第6行目のBGBG画素の場合、重心補正画像の画素位置は、入力画像における第7行の位置となる。
 処理対象画素(注目画素)が、入力画像の第9行目のGRGR画素の場合、重心補正画像の画素位置は、入力画像における第9行の位置となる。
 処理対象画素(注目画素)が、入力画像の第10行目のBGBG画素の場合、重心補正画像の画素位置は、入力画像における第11行の位置となる。
 このように、重心補正画素は、入力画像において垂直方向に均等間隔に配置した画素に対応する画素値として算出される。
 一方、図13(b)短露光画素の重心補正処理においては、以下の処理を実行する。
 入力画像(SVE配列画像)における第5行目のGRGR画素のいずれかが注目画素である場合、入力画像(SVE配列画像)の第3行目の画素位置の短露光画素(GRGR)の画素値と、第7行目の短露光画素(GRGR)の画素値の画素値とを1:1で加算平均することで、図13(b2)短時間露光重心補正画像の最上段(5行目相当)の各画素(GRGR)の画素値を算出する。
 また、入力画像(SVE配列画像)における第6行目のBGBG画素のいずれかが注目画素である場合、入力画像(SVE配列画像)の第4行目の画素位置の短露光画素(BGBG)の画素値と、第8行目の短露光画素(BGBG)の画素値を1:3で加算平均することで、(b2)短時間露光重心補正画像の二番目(7行目相当)の各画素(BGBG)の画素値を算出する。
 以下同様に、入力画像(SVE配列画像)における第9行目のGRGR画素のいずれかが注目画素である場合、第5行目の処理と同様、入力画像(SVE配列画像)の第7行目の画素位置の短露光画素(GRGR)の画素値と、第11行目の短露光画素(GRGR)の画素値を1:1で加算平均することで、図13(b2)短時間露光重心補正画像の三番目(9行目相当)の各画素(GRGR)の画素値を算出する。
 また、入力画像(SVE配列画像)における第10行目のBGBG画素のいずれかが注目画素である場合、第6行目の処理と同様、入力画像(SVE配列画像)の第8行目の画素位置の短露光画素(BGBG)の画素値と、第12行目の短露光画素(BGBG)の画素値を1:3で加算平均することで、(b2)短時間露光重心補正画像の四番目(11行目相当)の各画素(BGBG)の画素値を算出する。
 図13(b2)短時間露光重心補正画像には、
 処理対象画素(注目画素)が、入力画像(SVE配列画像)の第5,6,9,10行目の長露光画素である場合の重心補正画素の画素値が、入力画像においてどの画素位置(x行目)に対応するかを示している。
 処理対象画素(注目画素)が、入力画像の第5行目のGRGR画素の場合、重心補正画像の画素位置は、入力画像における第5行の位置となる。
 処理対象画素(注目画素)が、入力画像の第6行目のBGBG画素の場合、重心補正画像の画素位置は、入力画像における第7行の位置となる。
 処理対象画素(注目画素)が、入力画像の第9行目のGRGR画素の場合、重心補正画像の画素位置は、入力画像における第9行の位置となる。
 処理対象画素(注目画素)が、入力画像の第10行目のBGBG画素の場合、重心補正画像の画素位置は、入力画像における第11行の位置となる。
 このように、重心補正画素は、入力画像において垂直方向に均等間隔に配置した画素に対応する画素値として算出される。
 図13(a2),(b2)に示す長露光および短露光の各重心補正画像から理解されるように、各重心補正画像の各画素の画素値は、入力画像における第5,7,9,11行目に相当する位置の画素値に相当するものとなる。
 このように図13(a2)に示す長時間露光重心補正画像と、図13(b2)に示す短時間露光重心補正画像の同一行、例えば第5行目は、それぞれ同じ被写体画像位置の画素値に対応し、これらを合成することで、同じ被写***置の短露光画素と長露光画素同士の合成処理と同等の処理が行われることになる。
 この合成結果が、図13(c)に示す合成結果となる。
 図14(a)~(d)は、処理対象画素(注目画素)を、入力画像の第5,6,9,10各行に対応する長露光画素とした場合の垂直重心補正部181の処理例を示した図である。それぞれ長時間露光画素と短露光画素の重心補正画素の画素値算出処理の具体的処理を示している。
 (1)入力画像の第5行の長時間露光画素を処理対象画素(注目画素)とした場合の処理は以下の通りである。
 (1L)長時間露光重心補正画素の画素値は、入力画像(SVE配列画像)の第1行、第5行、第9目行の各長露光画素の画素値を1:6:1の比率で加算して算出する。
 (1S)短時間露光重心補正画素の画素値は、入力画像(SVE配列画像)の第3行、第7行の各短露光画素の画素値を1:1の比率で加算して算出する。
 (2)入力画像の第6行の長時間露光画素を処理対象画素(注目画素)とした場合の処理は以下の通りである。
 (2L)長時間露光重心補正画素の画素値は、入力画像(SVE配列画像)の第6行、第10行の各長露光画素の画素値を3:1の比率で加算して算出する。
 (2S)短時間露光重心補正画素の画素値は、入力画像(SVE配列画像)の第4行、第8行の各短露光画素の画素値を1:3の比率で加算して算出する。
 (3)入力画像の第9行の長時間露光画素を処理対象画素(注目画素)とした場合の処理は以下の通りである。
 (3L)長時間露光重心補正画素の画素値は、入力画像(SVE配列画像)の第5行、第9行、第13目行の各長露光画素の画素値を1:6:1の比率で加算して算出する。
 (3S)短時間露光重心補正画素の画素値は、入力画像(SVE配列画像)の第7行、第11行の各短露光画素の画素値を1:1の比率で加算して算出する。
 (4)入力画像の第10行の長時間露光画素を処理対象画素(注目画素)とした場合の処理は以下の通りである。
 (4L)長時間露光重心補正画素の画素値は、入力画像(SVE配列画像)の第10行、第14行の各長露光画素の画素値を3:1の比率で加算して算出する。
 (4S)短時間露光重心補正画素の画素値は、入力画像(SVE配列画像)の第8行、第12行の各短露光画素の画素値を1:3の比率で加算して算出する。
 このようにして、入力画像の同じ画素位置に長露光画素と短露光画素を設定したと仮定した場合の各画素値を、長時間露光重心補正画素、短時間露光重心補正画素として算出する。
 図11に示す重心補正部152の垂直重心補正部181は、図13、図14を参照して説明した処理を実行して、図11に示すように、以下のデータを生成する。
 重心補正あり長露光画素(L_w)、
 重心補正あり短露光画素(S_w)、
 垂直重心補正部181は、これらの各画素値情報を算出して補正結果選択部183に出力する。
 これらの各画素値は、1つの処理対象画素(注目画素)として選択された1つの長露光画素に対応する重心補正画素値データとして生成され補正結果選択部183に出力される。
 補正結果選択部183は、さらに、入力画像(SVE配列画像)141に含まれる以下の各画素情報を入力する。
 重心補正なし長露光画素(L_n)
 重心補正なし短露光画素(S_n)
 これらは、入力画像(SVE配列画像)141自身の画素情報である。
 補正結果選択部183は、さらに、飽和判定部182の生成する飽和フラグ(Sat_flg)185を入力する。
 飽和判定部182は、入力画像(SVE配列画像)141に含まれる長露光画素の画素値が飽和しているか否かを判定し、各長露光画素単位で飽和しているか否かを示す飽和フラグ(Sat_flg)185を設定して出力する。
 例えば長露光画素の画素値が最大値であれば、飽和していると判断し、その長露光画素に対応する飽和フラグ(Sat_flg)185の値を1、すなわち、
 Sat_flg=1
 として出力する。
 長露光画素の画素値が飽和していない場合は、その長露光画素に対応する飽和フラグ(Sat_flg)185の値を0、すなわち、
 Sat_flg=0
 として出力する。
 飽和判定部182の生成する飽和フラグ(Sat_flg)185は、重心補正部152の補正結果選択部183に出力され、さらに、図7に示すHDR画像生成部131の画素合成部153にも出力される。
 図11に示す重心補正部152の補正結果選択部183の処理について説明する。
 補正結果選択部183は、以下の各データを入力する。
 (1)重心補正なし長露光画素(L_n)
 (2)重心補正なし短露光画素(S_n)
 (3)重心補正あり長露光画素(L_w)、
 (4)重心補正あり短露光画素(S_w)、
 (5)飽和フラグ(Sat_flg)185
 (1)重心補正なし長露光画素(L_n)と、(2)重心補正なし短露光画素(S_n)、これらのデータは、入力画像(SVE配列画像)141に含まれる各画素情報である。
 (3)重心補正あり長露光画素(L_w)、(4)重心補正あり短露光画素(S_w)、これらのデータは、図13、図14を参照して説明した処理に従って、垂直重心補正部181の生成したデータである。
 (5)飽和フラグ(Sat_flg)185は、飽和判定部182の生成した長露光画素の飽和判定情報である。
 補正結果選択部183は、垂直重心補正部181における「重心補正あり長露光画素(L_w)」の生成に適用した長露光画素に、飽和フラグ(Sat_flg)185が1の画素、すなわち飽和画素が含まれるか否かを判定する。
 垂直重心補正部181がある処理対象画素(注目画素)に対して生成した「重心補正あり長露光画素(L_w)」が、入力画像中の飽和画素を含む長露光画素を適用した処理によって生成されている場合、この処理対象画素(注目画素)に対して生成した「重心補正あり長露光画素(L_w)」と、「重心補正あり短露光画素(S_w)」は重心補正部152の出力画素として選択しない。
 この場合は、処理対象画素(注目画素)自身の画素情報、すなわち入力画像中の「重心補正なし長露光画素(L_n)」と、HDR画像生成に際してこの処理対象画素(注目画素)と合成される短露光画素である「重心補正なし短露光画素(S_n)」を選択して、重心補正部152の出力とする。
 「重心補正なし短露光画素(S_n)」は、入力画像中の「重心補正なし長露光画素(L_n)」に対して垂直方向近傍にある同一色の短露光画素である。
 一方、垂直重心補正部181が生成した「重心補正あり長露光画素(L_w)」の生成に適用した長露光画素に飽和画素が含まれない場合は、垂直重心補正部181が生成した「重心補正あり長露光画素(L_w)」と、「重心補正あり短露光画素(S_w)」を、重心補正部152の出力画素とする。
 すなわち、図11に示す重心補正部152の出力である、
 (1)重心補正部出力長露光画素(Lo)、
 (2)重心補正部出力短露光画素(So)、
 は以下のように選択出力される。
 垂直重心補正部181における「重心補正あり長露光画素(L_w)」生成に適用した長露光画素に1つも飽和画素が含まれない場合、
 (1)重心補正部出力長露光画素(Lo)=重心補正あり長露光画素(L_w)、
 (2)重心補正部出力短露光画素(So)=重心補正あり短露光画素(S_w)、
 垂直重心補正部181における「重心補正あり長露光画素(L_w)」生成に適用した長露光画素に1つ以上の飽和画素が含まれる場合、
 (1)重心補正部出力長露光画素(Lo)=重心補正なし長露光画素(L_n)、
 (2)重心補正部出力短露光画素(So)=重心補正なし短露光画素(S_n)、
 このような設定となる。
 このような選択出力は、各処理対象画素(注目画素)単位で実行される。
 例えば、処理対象画素(注目画素)が、図14(a)の第5行に示す長露光画素Rである場合、以下の処理を行なう。
 この場合、垂直重心補正部181は、第1行の長露光画素Rと、第5行の長露光画素Rと、第9行の長露光画素Rを適用して1:6:1の配分比率で加重平均を行い、「重心補正あり長露光画素(L_w)」を算出する。
 同様に、垂直重心補正部181は、第3行の短露光画素Rと、第7行の短露光画素Rを適用して1:1の配分比率で加重平均を行い、「重心補正あり短露光画素(S_w)」を算出する。
 ここで、「重心補正あり長露光画素(L_w)」の生成に適用した第1行の長露光画素Rと、第5行の長露光画素Rと、第9行の長露光画素Rの少なくとも1つの画素が飽和画素である場合、補正結果選択部183は、垂直重心補正部181の算出した「重心補正あり長露光画素(L_w)」と「重心補正あり短露光画素(S_w)」これらの画素は出力画素として選択しない。
 この場合、処理対象画素(注目画素)自身の画素情報、すなわち入力画像中の「重心補正なし長露光画素(L_n)」と、HDR画像の生成に際してこの処理対象画素(注目画素)と合成対象となる短露光画素である「重心補正なし短露光画素(S_n)」を選択して、重心補正部152の出力とする。
 一方、「重心補正あり長露光画素(L_w)」の生成に適用した第1行の長露光画素Rと、第5行の長露光画素Rと、第9行の長露光画素Rに1つも飽和画素が含まれない場合、補正結果選択部183は、垂直重心補正部181の算出した「重心補正あり長露光画素(L_w)」と「重心補正あり短露光画素(S_w)」これらの画素情報を出力する。
 このように、重心補正部152は、垂直重心補正部181における「重心補正あり長露光画素(L_w)」生成に適用した長露光画素に1つも飽和画素が含まれない場合、
 (1)重心補正部出力長露光画素(Lo)=重心補正あり長露光画素(L_w)、
 (2)重心補正部出力短露光画素(So)=重心補正あり短露光画素(S_w)、
 これらの各画素値を図7に示すHDR画像生成部131の画素合成部153に出力する。
 また、垂直重心補正部181における「重心補正あり長露光画素(L_w)」生成に適用した長露光画素に1つ以上の飽和画素が含まれる場合、
 (1)重心補正部出力長露光画素(Lo)=重心補正なし長露光画素(L_n)、
 (2)重心補正部出力短露光画素(So)=重心補正なし短露光画素(S_n)、
 このような設定となる。
 これらの各画素値を図7に示すHDR画像生成部131の画素合成部153に出力する。
 さらに、重心補正部152は、図11に示す飽和判定部182の生成した飽和フラグ(Sat_flg)185も図7に示すHDR画像生成部131の画素合成部153に出力する。
 飽和フラグ(Sat_flg)185は入力画像(SVE配列画像)中の長露光画素が飽和しているか否かを示す情報である。
  (2-3.画素合成部の構成と処理について)
 次に、図15以下を参照して、図7に示すHDR画像生成部131の画素合成部153の構成と処理について説明する。
 図15は画素合成部153の詳細構成を示すブロック図である。
 図15に示すように、画素合成部153は、平坦部合成部211、エッジ部合成部212、飽和部合成部213、長短合成結果選択&最終合成結果生成部214を有する。
 平坦部合成部211、エッジ部合成部212、飽和部合成部213の各々は、先に図11を参照して説明した重心補正部152の生成した出力信号である、
 (1)重心補正部出力長露光信号(Lo)、
 (2)重心補正部出力短露光信号(So)、
 これらの各信号をそれぞれ異なる態様で合成し、生成した合成信号を長短合成結果選択&最終合成結果生成部214に出力する。
 平坦部合成部211は、平坦部用の合成信号である平坦部合成結果(Syn_f)を生成して長短合成結果選択&最終合成結果生成部214に出力する。
 エッジ部合成部212は、エッジ部用の合成信号であるエッジ部合成結果(Syn_e)を生成して長短合成結果選択&最終合成結果生成部214に出力する。
 飽和部合成部213は、飽和部用の合成信号である飽和部合成結果(Syn_s)を生成して長短合成結果選択&最終合成結果生成部214に出力する。
 長短合成結果選択&最終合成結果生成部214は、これらの3つの合成部からの長短露光画素の合成結果を入力する。
 さらに、図8を参照して説明したエッジ検出部151から、
 長露光エッジフラグ(LEdge_flg)171、
 短露光エッジフラグ(SEdge_flg)173、
 これらのエッジ情報を入力する。
 さらに、図11を参照して説明した重心補正部152から、
 飽和フラグ(Sat_flg)185、
 この飽和情報を入力する。
 長短合成結果選択&最終合成結果生成部214は、
 (a)長露光エッジフラグ(LEdge_flg)171、
 (b)短露光エッジフラグ(SEdge_flg)173、
 (c)飽和フラグ(Sat_flg)185、
 これらの各情報を参照して、以下のいずれかの長短露光画素の合成結果を選択する。
 すなわち、
 (1)平坦部用の合成信号である平坦部合成結果(Syn_f)、
 (2)エッジ部用の合成信号であるエッジ部合成結果(Syn_e)、
 (3)飽和部用の合成信号である飽和部合成結果(Syn_s)、
 長短合成結果選択&最終合成結果生成部214は、処理対象画素(注目画素)単位で、これらの3信号の中からいずれかを選択する。
 さらに、選択した長短露光画素の合成結果に基づいて、水平方向の画素合成を実行して最終合成結果を生成し、合成結果(Syn)として出力する。
 各構成部の処理について説明する。
 平坦部合成部211は、図11を参照して説明した重心補正部152の生成した出力信号を入力して、これらの信号に応じた平坦部対応の合成信号を生成する。すなわち、
 (1)重心補正部出力長露光信号(Lo)、
 (2)重心補正部出力短露光信号(So)、
 これらの各信号に対して平坦部用の合成処理を実行して平坦部合成結果(Syn_f)を生成して長短合成結果選択&最終合成結果生成部214に出力する。
 平坦部合成部211は、入力信号、すなわち、
 (1)重心補正部出力長露光信号(Lo)、
 (2)重心補正部出力短露光信号(So)、
 これらの各信号の信号レベルに応じたブレンド比率を適用して、これら2つの画素の画素値、具体的には露光比調整後の2つの画素値のブレンド(合成)により合成結果としての平坦部合成結果(Syn_f)を生成する。
 撮像素子102において撮影された入力画像(SVE配列画像)141の構成画素である短露光画素と長露光画素の露光時間の比率を1:Eとしたとき、
 合成対象となる長露光画素と短露光画素の各画素値、すなわち、
 (1)重心補正部出力長露光信号(Lo)、
 (2)重心補正部出力短露光信号(So)、
 これらの各画素値は、以下の関係式(式7)の関係にある。
  Lo≒So×E・・・(式7)
 平坦部、すなわち、一定領域において画素値の変動が少ない画素領域では、
 画素値が小さい場合、すなわち、
 長露光画素の画素値である重心補正部出力長露光信号(Lo)、
 短露光画素の画素値である重心補正部出力短露光信号(So)、
 これらのいずれの画素値も小さい場合、
 短露光画素に含まれるノイズ量が信号値に比べて高くなる。すなわち短露光画素の画素値は、SN比が悪い信号である可能性が高い。
 従って、このような場合は、長露光画素の画素値である重心補正部出力長露光信号(Lo)のブレンド比率を高くした合成処理(ブレンド処理)を実行して平坦部合成結果(Syn_f)を生成する。
 一方、画素値が大きい場合、すなわち、
 長露光画素の画素値である重心補正部出力長露光信号(Lo)、
 短露光画素の画素値である重心補正部出力短露光信号(So)、
 これらのいずれの画素値も大きい場合、
 長露光画素は飽和値または飽和値に近い画素値である可能性が高く正確な画素値を反映していない可能性が高くなる。
 従って、このような場合は、短露光画素の画素値である重心補正部出力短露光信号(So)のブレンド比率を高くした合成処理(ブレンド処理)を実行して平坦部合成結果(Syn_f)を生成する。
 平坦部合成部211において実行する合成処理結果として生成する画素値である平坦部合成結果(Syn_f)に対する、重心補正部出力短露光信号(So)の寄与率に相当する値をブレンド率(α)とする。
 また、重心補正部出力長露光信号(Lo)の寄与率に相当する値を(1-α)とする。
 この設定とした場合、平坦部合成部211における合成処理によって算出する平坦部合成結果である合成画素値(Syn_f)は、以下の(式8)によって算出される。
 Syn_f=(1-α)×Lo+α×So×E ・・・(式8)
 上記(式8)において、
 Eは、短露光画素と長露光画素の露光比、
 αは0から1までの値を取るブレンド率である。
 αはLoとSo×Eの値に応じて変化する。
 図16はブレンド率αの設定例を示す図である。
 横軸が、長露光画素の画素値である重心補正部出力長露光信号(Lo)の画素値、縦軸が、ブレンド率(α)、すなわち、合成画素値における短露光信号(So)の寄与率である。
 図16および(式8)から理解されるように、長露光画素である重心補正部出力長露光信号(Lo)の画素値が大きい場合は、ブレンド率αが大きく設定される。ブレンド比率αが大きく設定されると、(式8)に従った合成画素値(Syn_h)の算出において、短時間露光画素の画素値の反映度が高くなる。
 すなわち、例えば長時間露光画素の画素値が飽和画素値に近いような場合は、短時間露光画素の画素値が大きく反映される。
 一方、重心補正部出力長露光信号(Lo)の画素値が小さい場合は、ブレンド率αが小さい値に設定される。ブレンド率αが小さく設定されると、(式8)から理解されるように、長時間露光画素の画素値の反映度が高くなる。
 すなわち、例えば短時間露光画素の画素値が小さく、短時間露光画素に含まれるノイズが大きいと推定される場合は、長時間露光画素の画素値が大きく反映される。
 このような画素合成を実行することで、低輝度~高輝度まで、ノイズの少ない精度の高い画素値設定が可能となる。
 次に、エッジ部合成部212の処理について説明する。
 エッジ部合成部212は、図11を参照して説明した重心補正部152の生成した出力信号を入力して、これらの信号に応じたエッジ部対応の合成信号を生成する。すなわち、
 (1)重心補正部出力長露光信号(Lo)、
 (2)重心補正部出力短露光信号(So)、
 これらの各信号に対してエッジ部用の合成処理を実行してエッジ部合成結果(Syn_e)を生成して長短合成結果選択&最終合成結果生成部214に出力する。
 エッジ部合成部212は、入力信号、すなわち、
 (1)重心補正部出力長露光信号(Lo)、
 (2)重心補正部出力短露光信号(So)、
 これらの各信号の信号レベルに関係なく、これら2つの画素の画素値、具体的には露光比調整後の2つの画素値を固定したブレンド率(β)を適用してブレンド(合成)することで合成結果としてのエッジ部合成結果(Syn_e)を生成する。
 エッジ部合成部212において実行する合成処理結果として生成する画素値であるエッジ部合成結果(Syn_e)に対する、重心補正部出力短露光信号(So)の寄与率に相当する値をブレンド率(β)とする。
 また、重心補正部出力長露光信号(Lo)の寄与率に相当する値を(1-β)とする。
 この設定とした場合、エッジ部合成部212における合成処理によって算出するエッジ部合成結果である合成画素値(Syn_e)は、以下の(式9)によって算出される。
 Syn_e=(1-β)×Lo+β×So×E ・・・(式9)
 上記(式9)において、
 Eは、短露光画素と長露光画素の露光比、
 βは、0~1の範囲の値であり、予め設定された固定値とする。例えば、
 β=0.5
 とする。
 次に、飽和部合成部213の処理について説明する。
 飽和部合成部213は、図11を参照して説明した重心補正部152の生成した出力信号を入力して、これらの信号に応じた飽和部対応の合成信号を生成する。すなわち、
 (1)重心補正部出力長露光信号(Lo)、
 (2)重心補正部出力短露光信号(So)、
 これらの各信号に対して飽和部用の合成処理を実行して飽和部合成結果(Syn_s)を生成して長短合成結果選択&最終合成結果生成部214に出力する。
 飽和部合成部213は、入力信号、すなわち、
 (1)重心補正部出力長露光信号(Lo)、
 (2)重心補正部出力短露光信号(So)、
 これらの各信号中、重心補正部出力短露光信号(So)を選択し、選択した重心補正部出力短露光信号(So)を飽和部合成結果(Syn_s)として長短合成結果選択&最終合成結果生成部214に出力する。
 すなわち、飽和部合成結果(Syn_s)である合成画素値(Syn_s)は、以下の(式10)によって算出される。
 Syn_s=So×E・・・(式10)
 なお、上記(式10)において、
 Eは、短露光画素と長露光画素の露光比、
 である。
 長短合成結果選択&最終合成結果生成部214は、上述した3つの合成部211~213からの合成結果を入力する。
 さらに、図8を参照して説明したエッジ検出部151から、
 長露光エッジフラグ(LEdge_flg)171、
 短露光エッジフラグ(SEdge_flg)173、
 これらのエッジ情報を入力する。
 さらに、図11を参照して説明した重心補正部152から、
 飽和フラグ(Sat_flg)185、
 この飽和情報を入力する。
 長短合成結果選択&最終合成結果生成部214は、
 (a)長露光エッジフラグ(LEdge_flg)171、
 (b)短露光エッジフラグ(SEdge_flg)173、
 (c)飽和フラグ(Sat_flg)185、
 これらの各情報を参照して、以下のいずれかの合成結果を選択する。
 すなわち、
 (1)平坦部用の合成信号である平坦部合成結果(Syn_f)、
 (2)エッジ部用の合成信号であるエッジ部合成結果(Syn_e)、
 (3)飽和部用の合成信号である飽和部合成結果(Syn_s)、
 長短合成結果選択&最終合成結果生成部214は、処理対象画素(注目画素)単位で、これらの3信号の中からいずれかを選択する。
 さらに、選択した長短露光画素の合成結果に基づいて、さらに、水平方向の画素合成を実行して最終合成結果を生成し、合成結果(Syn)として出力する。
 長短合成結果選択&最終合成結果生成部214の実行する合成結果(Syn)の生成処理について、図17に示すフローチャートを参照して説明する。
 まず、ステップS101において、各合成部211~213の合成結果と、各フラグ情報を入力する。すなわち、以下の各データを入力する。
 (1)平坦部用の合成信号である平坦部合成結果(Syn_f)、
 (2)エッジ部用の合成信号であるエッジ部合成結果(Syn_e)、
 (3)飽和部用の合成信号である飽和部合成結果(Syn_s)、
 (a)長露光エッジフラグ(LEdge_flg)171、
 (b)短露光エッジフラグ(SEdge_flg)173、
 (c)飽和フラグ(Sat_flg)185、
 次に、ステップS102において、図11を参照して説明した重心補正部152から入力する飽和フラグ(Sat_flg)185を参照し、合成処理の対象画素(注目画素)である重心補正部出力長露光画素の生成元の画素が飽和画素であるか否かを判定する。
 飽和画素である場合、すなわち、ステップS102の判定がTrueである場合は、ステップS104に進む。
 ステップS104では、飽和部合成部213の生成した飽和部用の合成信号である飽和部合成結果(Syn_s)を選択して、これを長短露光画素の合成結果とする。この長短露光画素の合成結果は、垂直方向の画素の合成を行なった結果、すなわち合成処理の中間データであり、さらに、ステップS107において、この中間データを利用して水平方向の画素同士の合成を実行して最終合成結果(Syn)を生成して出力する。
 一方、ステップS102において、合成処理の対象画素(注目画素)である重心補正部出力長露光画素の生成元の画素が飽和画素でないと判定した場合、すなわち、ステップS102の判定がfalseである場合は、ステップS103に進む。
 ステップS103では、図8を参照して説明したエッジ検出部151から入力する長露光エッジフラグ(LEdge_flg)171と、短露光エッジフラグ(SEdge_flg)173を参照し、合成処理の対象画素(注目画素)である重心補正部出力画素の生成元の画素が平坦部領域にあるかエッジ領域にあるかを判定する。
 具体的には、
 長露光エッジフラグ(LEdge_flg)171、
 短露光エッジフラグ(SEdge_flg)173、
 これらのフラグのいずれもが、エッジ領域であることを示す値(1)である場合には、エッジ領域であると判定し、ステップS105に進む。
 一方、
 長露光エッジフラグ(LEdge_flg)171、
 短露光エッジフラグ(SEdge_flg)173、
 これらのフラグのいずれかが、エッジ領域でないことを示す値(0)である場合には、平坦領域であると判定し、ステップS106に進む。
 ステップS103において、合成処理の対象画素(注目画素)である重心補正部出力画素の生成元の画素がエッジ領域にあると判定した場合は、ステップS105に進む。
 ステップS105では、エッジ部合成部212の生成したエッジ部用の合成信号であるエッジ部合成結果(Syn_e)を選択して、これを長短露光画素の合成結果とする。この長短露光画素の合成結果は、垂直方向の画素の合成を行なった結果、すなわち合成処理の中間データであり、さらに、ステップS107において、この中間データを利用して水平方向の画素同士の合成を実行して最終合成結果(Syn)を生成して出力する。
 一方、ステップS103において、合成処理の対象画素(注目画素)である重心補正部出力画素の生成元の画素が平坦領域にあると判定した場合は、ステップS106に進む。
 ステップS106では、平坦部合成部211の生成した平坦部用の合成信号である平坦部合成結果(Syn_f)を選択して、これを長短露光画素の合成結果とする。この長短露光画素の合成結果は、垂直方向の画素の合成を行なった結果、すなわち合成処理の中間データであり、さらに、ステップS107において、この中間データを利用して水平方向の画素同士の合成を実行して最終合成結果(Syn)を生成して出力する。
 ステップS107では、ステップS104~S106のいずれかの処理によって生成した垂直方向の画素合成結果を利用してさらに水平方向の画素合成を実行して最終的な合成結果(Syn)を生成して出力する。
 図17のフローにおけるステップS101~S106の垂直方向の長短露光画素の合成による中間合成データの生成と、ステップS107において実行する中間合成データの構成画素の水平方向の画素合成による最終合成結果(Syn)の生成処理について説明する。
 図18には、以下の3つのデータを示している。
 (1)入力画像(SVE)画像
 (2)長短露光画素合成結果(中間合成データ)
 (3)最終合成結果(Syn)
 (1)入力画像(SVE)画像は撮像素子の撮像データであり、ベイヤ配列において行毎に露光時間を変更した場合に撮影される画像を示している。
 白い部分が長時間露光画素であり、グレー部分が短時間露光画素を示している。
 (2)長短露光画素合成結果(中間合成データ)は、図17に示すフローチャートのステップS101~S106の処理によって生成される中間合成データである。
 この(2)長短露光画素合成結果(中間合成データ)は、処理対象となる注目画素が平坦領域であるか、エッジ領域であるか、飽和領域であるかに応じてステップS104~S106の合成結果から選択された画素から構成される。
 しかし、この合成結果は、図11を参照して説明した重心補正部の出力、すなわち、
 (1)重心補正部出力長露光信号(Lo)、
 (2)重心補正部出力短露光信号(So)、
 これらの信号の合成結果であり、垂直方向の複数画素を合成したものとなる。すなわち中間合成データである。
 図17に示すフローのステップS107では、この中間合成データの水平方向の同一色画素を加算平均して、最終的な合成結果(Syn)を生成して出力する。
 このステップS107の処理によって、入力画像(SVE画像)に対して、水平方向、垂直方向とも画素数が1/2となった高ダイナミックレンジ(HDR)画像が生成され出力される。
  [3.実施例2:重心補正部の構成を変更した実施例]
 次に、本開示の画像処理装置の第2実施例として、重心補正部の構成を変更した実施例について説明する。
 第2実施例において、前述した第1実施例と異なる点は重心補正部の構成と処理である。その他の構成と処理は、第1実施例と同様である。例えば画像処理装置の全体構成は図3を参照して説明した撮像装置100であり、信号処理部103の構成は、図4を参照して説明したとおり、HDR画像生成部131、後段信号処理部132、出力部133を有する。HDR画像生成部131は、図7に示すように、エッジ検出部151、重心補正部152、画素合成部153を有する。
 第2実施例の画像処理装置におけるHDR画像生成部131の重心補正部152の構成を図19に示す。
 前述した実施例1では、先に図11を参照して説明したように、補正結果選択部183は、飽和判定部182から入力する飽和フラグ(Sat_flg)に基づいて、処理対象画素(注目画素)となる長露光画素が飽和しているか否かを判定し、飽和している場合は、入力画像(SVE画像)141の構成画素値をそのまま選択して出力していた。
 すなわち、実施例1の図11に示す重心補正部152は、垂直重心補正部181における「重心補正あり長露光画素(L_w)」生成に適用した長露光画素に1つも飽和画素が含まれない場合、
 (1)重心補正部出力長露光画素(Lo)=重心補正あり長露光画素(L_w)、
 (2)重心補正部出力短露光画素(So)=重心補正あり短露光画素(S_w)、
 これらの各画素値を図7に示すHDR画像生成部131の画素合成部153に出力する。
 また、垂直重心補正部181における「重心補正あり長露光画素(L_w)」生成に適用した長露光画素に1つ以上の飽和画素が含まれる場合、
 (1)重心補正部出力長露光画素(Lo)=重心補正なし長露光画素(L_n)、
 (2)重心補正部出力短露光画素(So)=重心補正なし短露光画素(S_n)、
 これらの各画素値を図7に示すHDR画像生成部131の画素合成部153に出力する。
 このような処理を行なっていた。
 本実施例2の重心補正部152は、垂直重心補正部181における「重心補正あり長露光画素(L_w)」生成に適用した長露光画素に1つ以上の飽和画素が含まれる場合の処理が異なる。
 本実施例では、垂直重心補正部181における「重心補正あり長露光画素(L_w)」生成に適用した長露光画素に1つ以上の飽和画素が含まれる場合、短露光画素について、図19に示す飽和部短露光画素補正部301が生成した平滑化短露光画素(S_d)を選択して、重心補正部出力短露光画素(So)として出力する。
 飽和部短露光画素補正部301は、平滑化短露光画素(S_d)を、注目画素のエッジ方向に応じた短露光画素の平滑化処理によって生成する。
 すなわち、本実施例2の図19に示す重心補正部152は、垂直重心補正部181が「重心補正あり長露光画素(L_w)」の生成に適用した長露光画素に1つも飽和画素が含まれない場合、
 (1)重心補正部出力長露光画素(Lo)=重心補正あり長露光画素(L_w)、
 (2)重心補正部出力短露光画素(So)=重心補正あり短露光画素(S_w)、
 これらの各画素値を図7に示すHDR画像生成部131の画素合成部153に出力する。
 これらの処理は実施例1と同様の処理である。
 しかし、垂直重心補正部181が「重心補正あり長露光画素(L_w)」の生成に適用した長露光画素に1つ以上の飽和画素が含まれる場合、
 (1)重心補正部出力長露光画素(Lo)=重心補正なし長露光画素(L_n)、
 (2)重心補正部出力短露光画素(So)=平滑化短露光画素(S_d)、
 これらの各画素値を図7に示すHDR画像生成部131の画素合成部153に出力する。
 飽和部短露光画素補正部301は、エッジ方向に応じた平滑化フィルタを適用した画素値補正処理を実行し、この平滑化処理結果としての画素値を平滑化短露光画素(S_d)として、補正結果選択部183に出力する。
 飽和部短露光画素補正部301は、図8を参照して説明したエッジ検出部151の生成する短露光エッジ方向フラグ(SDir_flg)174を入力する。
 この短露光エッジ方向フラグ(SDir_flg)174は、先に説明したように、短露光画素に基づいて判定した注目画素におけるエッジ方向を示す情報である。
 飽和部短露光画素補正部301は、エッジ検出部151から入力する短露光エッジ方向フラグ(SDir_flg)174に基づいて判定されるエッジ方向に応じて、予めメモリに保持した複数の平滑化フィルタから適用する平滑化フィルタを選択する。
 飽和部短露光画素補正部301は、選択した平滑化フィルタを適用して注目画素との合成対象となる短露光画素をエッジ方向に沿って平滑化する画素値補正処理を実行して、平滑化処理結果としての画素値を平滑化短露光画素(S_d)として、補正結果選択部183に出力する。
 飽和部短露光画素補正部301の利用するエッジ方向に応じた平滑化フィルタの構成例を図20に示す。
 図20には、平滑化フィルタを適用する入力画像と、4つのエッジ方向に応じた平滑化フィルタの係数設定例を示している。すなわち、以下の各データを示している。
 (1)入力画像(SVE画像)
 (2a)エッジ方向が垂直方向の場合の適用フィルタの係数設定例
 (2b)エッジ方向が水平方向の場合の適用フィルタの係数設定例
 (2c)エッジ方向が左上方向の場合の適用フィルタの係数設定例
 (2d)エッジ方向が右上方向の場合の適用フィルタの係数設定例
 この図20に示す例は、処理対象画素である注目画素を中心画素(図20(1)に示す例では中央のG画素)とする9×9画素の領域を平滑化フィルタ適用領域とした例である。また、注目画素Gを含む垂直ライン上の短露光G画素を、画素値補正を行なう補正対象画素としている。
 平滑化処理に適用する平滑化フィルタは、例えば図20(2a)~(2d)に示すように、エッジ方向に応じた係数を各短露光G画素に設定したフィルタとする。
 これらのフィルタを適用することで、補正対象となる短露光画素の画素値はエッジ方向になめらかに変化するように平滑化された画素値に変更される。
 なお、図20に示すフィルタ係数の例は一例であり、この他の係数の設定も可能である。エッジ方向に沿って画素値をなめらかに変化するように変更する平滑化フィルタであればよい。
 飽和部短露光画素補正部301は、例えば図20に示す係数を持つ平滑化フィルタを適用した平滑化処理によって補正した短露光画素の画素値を平滑化短露光画素(S_d)として、補正結果選択部183に出力する。
 図19に示すように、補正結果選択部183は、以下の各データを入力する。
 (1)重心補正なし長露光画素(L_n)
 (2)平滑化短露光画素(S_d)
 (3)重心補正あり長露光画素(L_w)、
 (4)重心補正あり短露光画素(S_w)、
 (5)飽和フラグ(Sat_flg)185
 (1)重心補正なし長露光画素(L_n)は、入力画像(SVE配列画像)141に含まれる画素情報である。
 (2)平滑化短露光画素(S_d)は、飽和部短露光画素補正部301の生成したエッジ方向に平滑化された画素値を持つ短露光画素情報である。
 (3)重心補正あり長露光画素(L_w)、(4)重心補正あり短露光画素(S_w)、これらのデータは、図13、図14を参照して説明した処理に従って、垂直重心補正部181の生成したデータである。
 (5)飽和フラグ(Sat_flg)185は、飽和判定部182の生成した長露光画素の飽和判定情報である。
 補正結果選択部183は、垂直重心補正部181における「重心補正あり長露光画素(L_w)」の生成に適用した長露光画素に、飽和フラグ(Sat_flg)185が1の画素、すなわち飽和画素が含まれるか否かを判定する。
 垂直重心補正部181がある処理対象画素(注目画素)に対して生成した「重心補正あり長露光画素(L_w)」が、入力画像中の飽和画素を含む長露光画素を適用した処理によって生成されている場合、この処理対象画素(注目画素)に対して生成した「重心補正あり長露光画素(L_w)」と、「重心補正あり短露光画素(S_w)」は重心補正部152の出力画素として選択しない。
 この場合は、処理対象画素(注目画素)自身の画素情報、すなわち入力画像中の「重心補正なし長露光画素(L_n)」と、飽和部短露光画素補正部301の生成したエッジ方向に平滑化された画素値を持つ「平滑化短露光画素(S_d)」を選択して、重心補正部152の出力とする。
 一方、垂直重心補正部181が生成した「重心補正あり長露光画素(L_w)」の生成に適用した長露光画素に飽和画素が含まれない場合は、垂直重心補正部181が生成した「重心補正あり長露光画素(L_w)」と、「重心補正あり短露光画素(S_w)」を、重心補正部152の出力画素とする。
 すなわち、図19に示す重心補正部152の出力である、
 (1)重心補正部出力長露光画素(Lo)、
 (2)重心補正部出力短露光画素(So)、
 は以下のように選択出力される。
 垂直重心補正部181における「重心補正あり長露光画素(L_w)」生成に適用した長露光画素に1つも飽和画素が含まれない場合、
 (1)重心補正部出力長露光画素(Lo)=重心補正あり長露光画素(L_w)、
 (2)重心補正部出力短露光画素(So)=重心補正あり短露光画素(S_w)、
 垂直重心補正部181における「重心補正あり長露光画素(L_w)」生成に適用した長露光画素に1つ以上の飽和画素が含まれる場合、
 (1)重心補正部出力長露光画素(Lo)=重心補正なし長露光画素(L_n)、
 (2)重心補正部出力短露光画素(So)=平滑化短露光画素(S_d)、
 このような設定となる。
 このような選択出力は、各処理対象画素(注目画素)単位で実行される。
  [4.実施例3:画素合成部の構成を変更した実施例]
 次に、本開示の画像処理装置の第3実施例として、画素合成部の構成を変更した実施例について説明する。
 第3実施例において、前述した第1実施例と異なる点は画素合成部153の構成と処理である。その他の構成と処理は、第1実施例と同様である。例えば画像処理装置の全体構成は図3を参照して説明した撮像装置100であり、信号処理部103の構成は、図4を参照して説明したとおり、HDR画像生成部131、後段信号処理部132、出力部133を有する。HDR画像生成部131は、図7に示すように、エッジ検出部151、重心補正部152、画素合成部153を有する。
 実施例1において説明したように、撮像素子102において撮影された入力画像(SVE配列画像)141の構成画素である短露光画素と長露光画素の露光時間の比率を1:Eとしたとき、
 合成対象となる長露光画素と短露光画素の各画素値、すなわち、
 (1)重心補正部出力長露光信号(Lo)、
 (2)重心補正部出力短露光信号(So)、
 これらの各画素値は、先に説明した以下の関係式(式7)の関係にある。
  Lo≒So×E・・・(式7)
 しかし、この(式7)は、
 (1)重心補正部出力長露光信号(Lo)、
 (2)重心補正部出力短露光信号(So)、
 これらがほぼ同じ被写***置を撮影していることが条件となる。
 しかし、撮像装置によって、撮影された画像中には動く被写体(動被写体)が含まれる可能性がある。
 動被写体領域では、近接する長露光画素と短露光画素であっても、異なる被写***置を撮影することになり、上記の関係式(式7)が成立しなくなる。
 以下に説明する実施例3は、このような動被写体領域について考慮した合成処理を実行する。
 第3実施例の画像処理装置におけるHDR画像生成部131の画素合成部153の構成を図21に示す。
 本実施例では、図21に示す画素合成部153内の動被写体合成部321において、他の合成部211~213と異なる長短露光画素合成処理を実行する。
 動被写体合成部321は、動被写体領域に適応した合成処理によって、重心補正部出力長露光信号(Lo)と、重心補正部出力短露光信号(So)の合成処理を実行し、動被写体部長短合成結果(Syn_m)を生成して長短合成結果選択&最終合成結果生成部214に出力する。
 動被写体合成部321は、具体的には、例えば、(1)重心補正部出力長露光信号(Lo)、または、重心補正部出力短露光信号(So)のいずれか一方のみの信号を選択して、選択信号を動被写体部長短合成結果(Syn_m)とする処理を行なう。
 なお、図21に示すように、本実施例3の画素合成部153は、先の実施例1の画素合成部153と同様、図8を参照して説明したエッジ検出部151から、
 長露光エッジフラグ(LEdge_flg)171、
 短露光エッジフラグ(SEdge_flg)173、
 これらのエッジ情報を入力する。
 さらに、図11を参照して説明した重心補正部152から、
 飽和フラグ(Sat_flg)185、
 この飽和情報を入力する。
 さらに、本実施例では、これらの情報に加えて、
 動被写体検出フラグ(Move_flg)322を入力する。
 なお、動被写体検出フラグ(Move_flg)322は、例えば、撮像装置に備えられた動被写体領域検出部から入力する。動被写体領域検出部は、例えば画像解析、例えば連続撮影画像のブロックマッチング処理などによって画像中の動被写体領域を判別する。さらに、各画素が動被写体領域であるか否かを示す画素対応の動被写体検出フラグ(Move_flg)322を生成して画素合成部153に出力する。
 長短合成結果選択&最終合成結果生成部214は、これらの外部からの画素情報、すなわち、
 長露光エッジフラグ(LEdge_flg)171、
 短露光エッジフラグ(SEdge_flg)173、
 飽和フラグ(Sat_flg)185、
 動被写体検出フラグ(Move_flg)322、
 これらのフラグに基づいて、処理対象画素(注目画素)の状態を判別する。
 長短合成結果選択&最終合成結果生成部214は、さらに、判別結果に基づいて、
 (1)平坦部用の合成信号である平坦部合成結果(Syn_f)、
 (2)エッジ部用の合成信号であるエッジ部合成結果(Syn_e)、
 (3)飽和部用の合成信号である飽和部合成結果(Syn_s)、
 (4)動被写体領域用の合成信号である動被写体部合成結果(Syn_m)、
 長短合成結果選択&最終合成結果生成部214は、処理対象画素(注目画素)単位で、これらの4信号の中からいずれかを選択する。
 さらに、選択した長短露光画素の合成結果に基づいて、水平方向の画素合成を実行して最終合成結果を生成し、合成結果(Syn)として出力する。
 長短合成結果選択&最終合成結果生成部214の実行する合成結果(Syn)の生成処理について、図22に示すフローチャートを参照して説明する。
 まず、ステップS21において、各合成部211~213,321の合成結果と、各フラグ情報を入力する。すなわち、以下の各データを入力する。
 (1)平坦部用の合成信号である平坦部合成結果(Syn_f)、
 (2)エッジ部用の合成信号であるエッジ部合成結果(Syn_e)、
 (3)飽和部用の合成信号である飽和部合成結果(Syn_s)、
 (4)動被写体領域用の合成信号である動被写体部合成結果(Syn_m)、
 (a)長露光エッジフラグ(LEdge_flg)171、
 (b)短露光エッジフラグ(SEdge_flg)173、
 (c)飽和フラグ(Sat_flg)185、
 (d)動被写体検出フラグ(Move_flg)322、
 次に、ステップS202において、図11を参照して説明した重心補正部152から入力する飽和フラグ(Sat_flg)185を参照し、合成処理の対象画素(注目画素)である重心補正部出力画素の生成元の画素に飽和画素が含まれるか否かを判定する。
 飽和画素が含まれる場合、すなわち、ステップS102の判定がTrueである場合は、ステップS205に進む。
 ステップS205では、飽和部合成部213の生成した飽和部用の合成信号である飽和部合成結果(Syn_s)を選択して、これを長短露光画素の合成結果とする。この長短露光画素の合成結果は、垂直方向の画素の合成を行なった結果、すなわち合成処理の中間データであり、さらに、ステップS09において、この中間データを利用して水平方向の画素同士の合成を実行して最終合成結果(Syn)を生成して出力する。
 一方、ステップS202において、合成処理の対象画素(注目画素)である重心補正部出力画素の生成元の画素に飽和画素が含まれないと判定した場合、すなわち、ステップS202の判定がfalseである場合は、ステップS203に進む。
 ステップS203では、外部から入力する動被写体フラグ(Move_flg)322を参照して、合成処理の対象画素(注目画素)である重心補正部出力画素の生成元の画素が動被写体領域にあるか否かを判定する。
 ステップS203において、重心補正部出力画素の生成元の画素が動被写体領域であると判定した場合は、ステップS206に進む。
 ステップS206では、動被写体部合成部321の生成した動被写体領域用の合成信号である動被写体部合成結果(Syn_m)を選択して、これを長短露光画素の合成結果とする。この長短露光画素の合成結果は、垂直方向の画素の合成を行なった結果、すなわち合成処理の中間データであり、さらに、ステップS209において、この中間データを利用して水平方向の画素同士の合成を実行して最終合成結果(Syn)を生成して出力する。
 一方、ステップS203において、重心補正部出力画素の生成元の画素が動被写体領域でないと判定した場合は、ステップS204進む。
 ステップS204では、図8を参照して説明したエッジ検出部151から入力する長露光エッジフラグ(LEdge_flg)171と、短露光エッジフラグ(SEdge_flg)173を参照し、重心補正部出力画素の生成元の画素がエッジ領域画素であるかを判定する。
 具体的には、合成処理対象画素の生成にの適用した画素のいずれかが、
 長露光エッジフラグ(LEdge_flg)171、
 短露光エッジフラグ(SEdge_flg)173、
 これらのフラグのいずれもが、エッジ領域であることを示す値(1)である場合には、エッジ領域であると判定し、ステップS207に進む。
 一方、
 長露光エッジフラグ(LEdge_flg)171、
 短露光エッジフラグ(SEdge_flg)173、
 これらのフラグのいずれかが、エッジ領域でないことを示す値(0)である場合には、平坦領域であると判定し、ステップS208に進む。
 ステップS204において、エッジ領域にあると判定した場合は、ステップS207に進む。
 ステップS207では、エッジ部合成部212の生成したエッジ部用の合成信号であるエッジ部合成結果(Syn_e)を選択して、これを長短露光画素の合成結果とする。この長短露光画素の合成結果は、垂直方向の画素の合成を行なった結果、すなわち合成処理の中間データであり、さらに、ステップS209において、この中間データを利用して水平方向の画素同士の合成を実行して最終合成結果(Syn)を生成して出力する。
 一方、ステップS204において、重心補正部出力画素の生成元の画素が平坦領域にあると判定した場合は、ステップS208に進む。
 ステップS208では、平坦部合成部211の生成した平坦部用の合成信号である平坦部合成結果(Syn_f)を選択して、これを長短露光画素の合成結果とする。この長短露光画素の合成結果は、垂直方向の画素の合成を行なった結果、すなわち合成処理の中間データであり、さらに、ステップS209において、この中間データを利用して水平方向の画素同士の合成を実行して最終合成結果(Syn)を生成して出力する。
 ステップS209では、ステップS205~S208のいずれかの処理によって生成した垂直方向の画素合成結果を利用してさらに水平方向の画素合成を実行して最終的な合成結果(Syn)を生成して出力する。
 水平方向の画素合成は、先に図18を参照して説明した処理である。
 このように、本実施例3では、撮影画像に動被写体が含まれる場合に、動被写体領域を抽出し、動被写体領域に最適な長短露光画素の合成処理を実行する。
  [5.実施例4:撮像素子の画素配列と長短露光画素設定の変更例]
 上述した実施例では、先に図5、図6を参照して説明したように、ベイヤ(Bayer)配列を持つ撮像素子において、2行単位で長露光画素と短露光画素を交互に設定した構成で撮影した画像に対する処理例を説明した。
 しかし、上述の実施例における高ダイナミックレンジ(HDR)画像生成処理は、上述した画素配列や長短露光画素設定に限らず、その他の配列および設定とした構成に対しても適用可能である。
 画素配列としては、例えば、図23に示すように、
 (1)ほぼ全可視光の波長光の光を受光するホワイト(W)画素を有するRGBW型の画素配列、
 (2)ベイヤ型のRGB各画素を4画素単位で設定した配列、
 これらの配列を適用してもよい。
 なお、図23(1)に示すW画素を有する構成に対して本開示の処理を適用する場合、画素密度が高いW画素を適用したエッジ検出を実行することが好ましい。
 また、図23(2)に示すベイヤ型のRGB各画素を4画素単位で設定した配列に対して本開示の処理を適用する場合、以下の処理を行なうことが好ましい。
 図23(2)に示す画素配列では、同色4画素内において対角上に存在する同じ露光時間の画素と加算平均をとることで、短露光画素と長露光画素の重心位置を揃えることが可能である。従って、実施例1において説明したHDR画像生成部131の重心補正部152内の垂直重心補正部181を、斜め加算重心補正部として設定し、斜め方向での重心補正を実行する構成に変更して処理を行なう。
 また、長短露光画素の設定についても2行単位の設定ではなく、図24に示すように、斜め方向に長短露光画素を交互に設定した構成としてもよい。図24には、以下の設定例を示している。
 (3)ベイヤ配列において斜め方向のラインに沿って長短露光画素を交互配列した例、
 (4)RGBW配列において斜め方向のラインに沿って長短露光画素を交互配列した例、
 これらの例を示している。
  [6.実施例5:画素数を削減することのないHDR画像を生成する実施例について]
 次に、画素数を削減することのないHDR画像を生成する実施例について説明する。
 先に説明した実施例1では、HDR画像生成部131は、入力画像(SVE画像)の画素数に対して出力HDR画像142の画素数が例えば1/4に減少する構成である。これは、入力画像の複数画素の合成処理によってHDR画像の1画素を生成する構成であるためである。
 以下に説明する実施例5は、HDR画像生成部において、画素数の削減を行なうことなく、入力画像と同じ画素数のHDR画像を生成する実施例である。
 第5実施例において、前述した第1実施例と異なる点はHDR画像生成部131の構成と処理である。その他の構成と処理は、第1実施例と同様である。例えば画像処理装置の全体構成は図3を参照して説明した撮像装置100であり、信号処理部103の構成は、図4を参照して説明したように、HDR画像生成部131、後段信号処理部132、出力部133を有する。
 本実施例において、HDR画像生成部131は、図25に示すように、エッジ検出部151、配列変換重心補正部351、画素合成部352、相関処理部353を有する。
 本実施例は、撮像素子102からの入力画像(SVE画像)350と同じ画素数のHDR画像360を生成して出力する。
 なお、本実施例では、入力画像(SVE画像)350を、図24(3)において説明したベイヤ配列において斜め方向に長短露光画素を配列したSVE画像とした例について説明する。
 以下、図25に示すHDR画像生成部131の各構成要素の処理について説明する。
  (6-1.エッジ検出部の構成と処理について)
 エッジ検出部151は、先に図8を参照して説明した実施例1におけるエッジ検出部151と同様の処理を実行する。
 すなわち、図8に示すように、エッジ検出部151は、差分算出部(垂直)161、差分算出部(水平)162、差分算出部(右上)163、差分算出部(左上)164を有する。
 さらに、長露光エッジ検出部165、長露光エッジ方向判定部166、短露光エッジ検出部167、短露光エッジ方向判定部168を有する。
 差分算出部(垂直)161は、図8に示すエッジ検出用画像141G、すなわち注目画素の近傍9×9画素領域に含まれるG画素を適用して、
 垂直方向に近接する2つの長時間露光G画素同士の画素値差分の平均値(LDiff_v)、
 垂直方向に近接する2つの短時間露光G画素同士の画素値差分の平均値(SDiff_v)、
 これらを算出する。
 差分算出部(水平)162は、図8に示すエッジ検出用画像141G、すなわち注目画素の近傍9×9画素領域に含まれるG画素を適用して、
 水平方向に近接する2つの長時間露光G画素同士の画素値差分の平均値(LDiff_h)、
 水平方向に近接する2つの短時間露光G画素同士の画素値差分の平均値(SDiff_h)、
 これらを算出する。
 差分算出部(右上)163は、図8に示すエッジ検出用画像141G、すなわち注目画素の近傍9×9画素領域に含まれるG画素を適用して、
 右上方向に近接する2つの長時間露光G画素同士の画素値差分の平均値(LDiff_a)、
 右上方向に近接する2つの短時間露光G画素同士の画素値差分の平均値(SDiff_a)、
 これらを算出する。
 差分算出部(左上)164は、図8に示すエッジ検出用画像141G、すなわち注目画素の近傍9×9画素領域に含まれるG画素を適用して、
 左上方向に近接する2つの長時間露光G画素同士の画素値差分の平均値(LDiff_d)、
 左上方向に近接する2つの短時間露光G画素同士の画素値差分の平均値(SDiff_d)、
 これらを算出する。
 図26は、差分算出部161~164において実行する長露光画素に関する垂直、水平、右上、左上の各差分算出処理の具体例を示す図である。
 (Lv)長露光垂直方向、
 (Lh)長露光水平方向、
 (La)長露光右上方向、
 (Ld)長露光左上方向、
 これらの各処理において差分を算出する画素の組み合わせ(画素ペア)を矢印で示している。
 図26は、先に実施例1において説明した図9と同様、差分算出部161~164において実行する長露光画素に関する垂直、水平、右上、左上の各差分算出処理の具体例を示す図である。
 ただし、図9に示す例は、水平方向の2行単位で長露光画素と短露光画素を交互に配列したSVE画像に対する処理例である。
 図26に示す例は、図24(3)において説明したベイヤ配列において斜め方向に長短露光画素を配列したSVE画像に対する処理例である。
 エッジ検出部151は、複数の画素ペアの画素値差分を算出し、さらにこの平均値を算出して、以下の各値を算出する。
 (1)長露光画素垂直方向画素値差分平均値(LDiff_v)、
 (2)長露光画素水平方向画素値差分平均値(LDiff_h)、
 (3)長露光画素右上方向画素値差分平均値(LDiff_a)、
 (4)長露光画素左上方向画素値差分平均値(LDiff_d)、
 これらの各値の算出式は、以下の(式11)に示す通りである。
Figure JPOXMLDOC01-appb-M000007
   ・・・・・(式11)
 なお、上記式において、N,M.O,Pは算出した差分の数である。
 図27は、差分算出部161~164において実行する短露光画素に関する垂直、水平、右上、左上の各差分算出処理の具体例を示す図である。
 (Sv)短露光垂直方向、
 (Sh)短露光水平方向、
 (Sa)短露光右上方向、
 (Sd)短露光左上方向、
 これらの各処理において差分を算出する画素の組み合わせ(画素ペア)を矢印で示している。
 複数の画素ペアの画素値差分を算出し、さらにこの平均値を算出して、以下の各値を算出する。
 (1)短露光画素垂直方向画素値差分平均値(SDiff_v)、
 (2)短露光画素水平方向画素値差分平均値(SDiff_h)、
 (3)短露光画素右上方向画素値差分平均値(SDiff_a)、
 (4)短露光画素左上方向画素値差分平均値(S)Diff_d)、
 これらの各値の算出式は、以下の(式12)に示す通りである。
Figure JPOXMLDOC01-appb-M000008
   ・・・・・(式12)
 なお、上記式において、Q,R.S,Tは算出した差分の数である。
 図8に示す差分算出部(垂直)161、差分算出部(水平)162、差分算出部(右上)163、差分算出部(左上)164は、このように長時間露光G画素および短時間露光G画素を適用して4方向の画素値差分平均値を算出する。この算出値は、長露光エッジ検出部165、長露光エッジ方向判定部166、短露光エッジ検出部167、短露光エッジ方向判定部168に出力される。
 長露光エッジ検出部165、長露光エッジ方向判定部166は、長時間露光G画素の4方向の画素値差分平均値を入力し、長露光画素の各方向の画素値差分平均値を用いて、長露光画素から判断されるエッジの有無、およびエッジ方向を判定する。
 また、短露光エッジ検出部167、短露光エッジ方向判定部168は、短時間露光G画素の4方向の画素値差分平均値を入力し、短露光画素の各方向の画素値差分平均値を用いて、短露光画素から判断されるエッジの有無、およびエッジ方向を判定する。
 これらの処理は、先に実施例1において説明した処理と同様の処理である。
先に説明した(式3)~(式6)に従って、注目画素対応の以下の各情報をエッジ情報として生成して、配列変換重心補正部351と画素合成部352に出力する。
 (1)長露光画素に基づいて判定した注目画素がエッジ領域であるか否かを示す長露光エッジフラグ(LEdge_flg)171
 (2)長露光画素に基づいて判定した注目画素におけるエッジ方向を示す長露光エッジ方向フラグ(LDir_flg)172
 (3)短露光画素に基づいて判定した注目画素がエッジ領域であるか否かを示す短露光エッジフラグ(SEdge_flg)173
 (4)短露光画素に基づいて判定した注目画素におけるエッジ方向を示す短露光エッジ方向フラグ(SDir_flg)174
  (6-2.配列変換重心補正部の構成と処理について)
 次に、配列変換重心補正部351の構成と処理について説明する。
 図28は配列変換重心補正部352の構成と処理を説明する図である。
 図28に示すように、配列変換重心補正部352は、重心補正高域信号生成部361と、低域信号生成部362を有する。
 重心補正高域信号生成部361は、撮像素子102の出力である斜め方向に長短露光画素を交互配列した入力画像(SVE画像)350を入力し、この入力画像350内のG画素を重心補正してG信号高域成分を生成する。
 また、低域信号生成部362は、9×9画素の入力画像350のRGB各画素の平均値を算出する。
 重心補正高域信号生成部361は、9×9画素の入力画像350の全画素にG画素を推定して設定する処理を行なう。G画素値は、各画素ごとに長露光のG画素値と短露光のG画素値の2つのG画素値を推定する。
 この処理に際して、エッジ検出部151から入力するエッジ方向情報を用い、エッジ方向に沿ったG画素の重みを大きく設定したエッジ方向対応のフィルタを利用して、各注目画素位置にG画素値を推定して設定する。
 この重心補正高域信号生成部361の実行する処理について、図29~図31を参照して説明する。
 重心補正高域信号生成部361は、まず、図29に示すように、9×9画素の入力画像350から長露光G画素と短露光G画素をそれぞれ抽出する。
 図29に示す以下のデータを抽出する。
 (2)長露光G画素データ
 (3)短露光G画素データ
 さらに、これらの図29(2),(3)の各々のG画素データを利用して、G画素の未設定位置のG画素値を推定する。
 図30、図31に、各推定位置、およびエッジ方向に応じたフィルタ適用によるG画素値推定処理例を示す。
 図30には、以下の場合に使用するフィルタ係数例を示している。
 (1)エッジ方向が垂直方向、
 (2)エッジ方向が水平方向、
 これらの場合のフィルタ係数の設定例である。
 図に示すa,b,c,dはG画素値を推定する位置のパターンである。
 各推定位置に応じて適用するフィルタを変更する。
 図31には、以下の場合に使用するフィルタ係数例を示している。
 (3)エッジ方向が左上方向、
 (4)エッジ方向が右上方向、
 これらの場合のフィルタ係数の設定例である。
 図に示すa,b,c,dはG画素値を推定する位置のパターンである。
 各推定位置に応じて適用するフィルタを変更する。
 図30、図31は、長露光G画素データに対する処理例であるが、短露光G画素データについても同様に処理を行なう。
 この処理によって、すべての画素位置の長露光G画素値と短露光G画素値を推定する。
 重心補正高域信号生成部361は、この2つのG画素推定値を画素合成部352に出力する。
 一方、低域信号生成部362は、9×9画素領域からなる入力画像(SVE画像)350内の長露光RGB画素の平均値、短露光RGB画素の平均値をそれぞれ算出する。
 低域信号生成部362は、算出した露光RGB画素の平均値、短露光RGB画素の平均値を画素合成部352に出力する。
  (6-3.画素合成部の構成と処理について)
 次に、図25に示すHDR画像生成部131の画素合成部352の構成と処理について説明する。
 図32を参照して、画素合成部352の構成と処理について説明する。
 図32に示すように、画素合成部352は、重心補正高域信号合成部371と、低域信号合成部372を有する。
 重心補正高域信号合成部371と、低域信号合成部372は、いずれも、先に実施例1においてせ辣名した図15の構成を有し、平坦部、エッジ部、飽和部に応じた合成信号を生成して、処理対象画素(注目画素)の画素領域に応じていずれかの合成信号を選択出力する処理を実行する。
 ただし、本実施例において、重心補正高域信号合成部371と、低域信号合成部372は、それぞれ以下の各信号を合成処理対象として処理を実行する。
 重心補正高域信号合成部371は、配列変換重心補正部351の重心補正高域信号生成部361の生成した長露光G画素信号と短露光G画素信号との合成処理を実行する。
 低域信号合成部372は、配列変換重心補正部351の低域信号生成部362の生成した長露光RGB平均値信号と短露光RGB平均値信号との合成処理を実行する。
 この合成処理の結果として、図32に示すように、以下の信号を生成して相関処理部353に出力する。
 重心補正高域信号合成部371は、配列変換重心補正部351の重心補正高域信号生成部361の生成した長露光G画素信号と短露光G画素信号との合成処理を実行して高域HDR信号(G)を生成して、相関処理部353に出力する。
 低域信号合成部372は、配列変換重心補正部351の低域信号生成部362の生成した長露光RGB平均値信号と短露光RGB平均値信号との合成処理を実行して、低域HDR信号(mR,mG,mB)を生成して、相関処理部353に出力する。
  (6-4.相関処理部の構成と処理について)
 次に、図25に示すHDR画像生成部131の相関処理部353の構成と処理について説明する。
 図33を参照して、相関処理部353の構成と処理について説明する。
 図33に示すように、相関処理部353は、出力色選択部381と、相関演算部382を有する。
 出力色選択部381は、画素合成部352の低域信号合成部372の生成信号である長露光RGB平均値信号と短露光RGB平均値信号との合成結果である低域HDR信号(mR,mG,mB)を入力し、これらの3つの色の低域HDR信号(mR,mG,mB)から、出力するHDR画像360の画素位置に応じた出力色に対応する低域HDR信号を、順次選択して相関演算部382に出力する。図33にはこの出力をmCとして示している。mCはmR、またはmB、またはmGのいずれかである。
 相関演算部382は、
 (1)出力色選択部381からmC、
 (2)画素合成部352の低域信号合成部372の生成信号である低域HDR信号(mG)、
 (3)画素合成部352の重心補正高域信号合成部371の生成信号である高域HDR信号(G)、
 これらの各信号を入力する。
 相関演算部382は、これらの入力信号を用いた演算処理を実行して出力するHDR画像360の各合成画素値を算出して出力する。
 相関演算部382の実行する出力画素値の算出は、以下の演算によって実行される。
 mC=mR、
 すなわち出力色がR画素である場合の出力画素値(R_out)の算出は、以下に示す(式13)に従って実行する。
 R_out=mR/mG×G ・・・(式13)
 mC=mG、
 すなわち出力色がG画素である場合の出力画素値(G_out)の算出は、以下に示す(式14)に従って実行する。
 G_out=mG/mG×G ・・・(式14)
 mC=mB、
 すなわち出力色がB画素である場合の出力画素値(B_out)の算出は、以下に示す(式15)に従って実行する。
 B_out=mB/mG×G ・・・(式15)
 上記の演算により、高周波成分を含んだRGB信号が生成される。出力する色信号を適切に選択する事で、入力画像と同様の画素配列、例えばベイヤ(Bayer)配列を持つHDR画像360を生成して出力することが可能となる。
  [7.実施例6:階調変換部、カメラ信号処理部を有する撮像装置の構成例について]
 上述した実施例はいずれも、例えば先に図3等を参照して説明した撮像装置100において実行可能である。
 しかし、本開示の処理は、図3に示す撮像装置の他、様々な装置において実行可能である。撮像装置に限らず、撮像装置の撮影画像を入力して画像処理を実行するPC等の情報処理装置において実行することも可能である。

 また、撮像装置の構成も図3に示す構成に限らず、様々な構成を持つ撮像装置において本開示の処理が実行できる。
 図34は、本開示の処理を実行する図3に示す撮像装置とは異なる構成を持つ撮像装置500の一例を示す図である。
 図34に示す撮像装置500の構成と処理について説明する。
 光学レンズ501を介して入射される光は撮像部、例えばCMOSイメージセンサなどによって構成される撮像素子502に入射し、光電変換による画像データを出力する。出力画像データは、例えば、先に、図5、図6を参照して説明した長露光画素と短露光画素からなるSVE画像521である。あるいは、図23、図24を参照して説明したSVE画像521である。
 SVE画像521は、高ダイナミックレンジ(HDR)画像生成部503に入力される。
 高ダイナミックレンジ(HDR)画像生成部503は、上述の各実施例において説明した処理に従ってHDR画像522を生成して出力する。
 高ダイナミックレンジ(HDR)画像生成部503は、例えば先に図7を参照して説明した構成を持つ。
 高ダイナミックレンジ(HDR)画像生成部503の生成したHDR画像504は、階調変換部504に入力される。
 諧調変換部504は、HDR画像522の各画素の画素値を構成するビット情報を通常のカメラ信号処理部で処理可能なビット数に変換する。例えばHDR画像522の画素値を示すビット値が10ビットである場合、これを8ビットに変換する諧調変換を実行しNDR(Normal Dyamic Range)画像523を生成してカメラ信号処理部505に出力する。
 カメラ信号処理部505は、例えば、ホワイトバランス(WB)調整、ガンマ補正等、一般的なカメラにおける信号処理を実行して出力画像530を生成する。出力画像530は図示しない記憶部に格納される。あるいは表示部に出力される。
 制御部510は、例えば図示しないメモリに格納されたプログラムに従って各部に制御信号を出力し、各種の処理の制御を行う。
  [8.本開示の構成のまとめ]
 以上、特定の実施例を参照しながら、本開示の実施例について詳解してきた。しかしながら、本開示の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本開示の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
 なお、本明細書において開示した技術は、以下のような構成をとることができる。
 (1) 長時間露光画素と短時間露光画素を含む入力画像に含まれる画素の画素値合成処理を実行して出力画像を生成する信号処理部を有し、
 前記信号処理部は、
 前記入力画像の各構成画素に対するエッジ検出を実行して、各画素対応のエッジ情報を出力するエッジ検出部と、
 合成処理対象となる長時間露光画素と短時間露光画素の重心補正処理を実行して、重心補正部出力長時間露光画素と重心補正部出力短時間露光画素を出力する重心補正部と、
 前記重心補正部の生成した重心補正部出力長時間露光画素と重心補正部出力短時間露光画素との合成処理を実行する画素合成部を有する画像処理装置。
 (2)前記重心補正部は、前記重心補正処理として、合成処理対象となる長時間露光画素と短時間露光画素の画素位置を一致させる処理を実行する構成であり、異なる画素位置の複数の同一色の長時間露光画素の画素値を適用した重み付け加算により、前記重心補正部出力長時間露光画素の画素値を算出し、異なる画素位置の複数の同一色の短時間露光画素の画素値を適用した重み付け加算により、前記重心補正部出力短時間露光画素の画素値を算出する処理を実行する前記(1)に記載の画像処理装置。
 (3)前記重心補正部は、前記重心補正処理に適用した画素が飽和しているか否かを判定する飽和判定部を有し、前記重心補正処理に適用した画素が飽和している場合は、前記入力画像の画素値を前記重心補正部出力長時間露光画素と重心補正部出力短時間露光画素の画素値とし、前記重心補正処理に適用した画素が飽和していない場合は、異なる画素位置の複数の同一色の長時間露光画素の画素値を適用した重み付け加算により算出した画素値を、前記重心補正部出力長時間露光画素の画素値とし、異なる画素位置の複数の同一色の短時間露光画素の画素値を適用した重み付け加算により算出した画素値を、前記重心補正部出力短時間露光画素の画素値として選択出力する前記(2)に記載の画像処理装置。
 (4)前記重心補正部は、前記重心補正処理に適用した画素が飽和しているか否かを判定する飽和判定部を有し、前記重心補正処理に適用した画素が飽和している場合は、前記重心補正部出力長時間露光画素の画素値を、入力画像の長時間露光画素の画素値とし、前記重心補正部出力短時間露光画素の画素値を、入力画像の短時間露光画素の複数の画素値に基づく平滑化処理によって算出した画素値として設定する前記(2)または(3)に記載の画像処理装置。
 (5)前記重心補正部は、前記平滑化処理を、前記エッジ検出部から入力するエッジ方向に応じた係数の設定された平滑化フィルタを適用して実行する前記(4)に記載の画像処理装置。
 (6)前記画素合成部は、前記重心補正部出力長時間露光画素と重心補正部出力短時間露光画素との合成処理を実行する合成部として、平坦部領域に適応した合成処理を実行する平坦部合成部と、エッジ部領域に適応した合成処理を実行するエッジ部合成部と、飽和部領域に適応した合成処理を実行する飽和部合成部と、前記各合成部の合成結果を選択して合成結果画像を生成する選択部を有し、前記選択部は、前記エッジ情報、および前記重心補正処理に適用した画素が飽和画素であるか否かを示す飽和フラグを入力し、前記重心補正処理に適用した画素が飽和画素である場合は、前記飽和部合成部の合成結果を選択し、前記重心補正処理に適用した画素が飽和画素でなく、エッジ領域である場合は、前記エッジ部合成部の合成結果を選択し、前記重心補正処理に適用した画素が飽和画素でなく、エッジ領域でない場合は、前記平坦部合成部の合成結果を選択する前記(1)~(5)いずれかに記載の画像処理装置。
 (7)前記平坦部合成部は、前記重心補正部出力長時間露光画素の画素値に応じて変化するブレンド率(α)に応じて前記重心補正部出力長時間露光画素と前記重心補正部出力短時間露光画素の画素値をブレンドして合成結果の画素値を算出し、前記エッジ部合成部は、前記重心補正部出力長時間露光画素の画素値に依存しない固定ブレンド率(β)に応じて前記重心補正部出力長時間露光画素と前記重心補正部出力短時間露光画素の画素値をブレンドして合成結果の画素値を算出し、前記飽和部合成部は、前記重心補正部出力短時間露光画素の画素値を合成結果の画素値として算出する前記(6)に記載の画像処理装置。
 (8)前記画素合成部は、さらに、動被写体領域に適応した合成処理を実行する動被写体部合成部を有し、前記選択部は、前記重心補正処理に適用した画素が動被写体領域であるか否かを示す動被写体検出フラグを入力し、前記重心補正処理に適用した画素が動被写体領域である場合は、前記動被写体合成部の合成結果を選択する前記(6)または(7)に記載の画像処理装置。
 (9)前記入力画像は、RGB画素によって構成されるベイヤ配列画像であり、前記エッジ検出部は、G画素のみを用いたエッジ検出処理を実行する前記(1)~(8)いずれかに記載の画像処理装置。
 (10) 長時間露光画素と短時間露光画素を含む入力画像に含まれる画素の画素値合成処理を実行して出力画像を生成する信号処理部を有し、
 前記信号処理部は、
 前記入力画像の各構成画素に対するエッジ検出を実行して、各画素対応のエッジ情報を出力するエッジ検出部と、
 前記入力画像の特定色高域信号と全色低域信号を生成する配列変換重心補正部と、
 前記特定色高域信号と全色低域信号を入力して、特定色高域高ダイナミックレンジ(HDR)信号と、全色低域高ダイナミックレンジ(HDR)信号を生成する画素合成部と、
 前記特定色高域高ダイナミックレンジ(HDR)信号と、全色低域高ダイナミックレンジ(HDR)信号を入力して、前記入力画像と同画素数の高ダイナミックレンジ(HDR)画像を生成する相関処理部を有する画像処理装置。
 (11)前記入力画像は、RGB画素によって構成されるベイヤ配列画像であり、
 前記配列変換重心補正部は、前記入力画像のG色高域信号とRGB各色低域信号を生成し、前記画素合成部は、前記G色高域信号と前記RGB各色低域信号を入力して、G色高域高ダイナミックレンジ(HDR)信号と、RGB各色低域高ダイナミックレンジ(HDR)信号を生成し、前記前記相関処理部は、前記G色高域高ダイナミックレンジ(HDR)信号と、前記RGB各色低域高ダイナミックレンジ(HDR)信号を入力して、前記入力画像と同画素数のベイヤ配列からなる高ダイナミックレンジ(HDR)画像を生成する前記(10)に記載の画像処理装置。
 さらに、上記した装置およびシステムにおいて実行する処理の方法や、処理を実行させるプログラムおよびプログラムを記録した記録媒体も本開示の構成に含まれる。
 また、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。例えば、プログラムは記録媒体に予め記録しておくことができる。記録媒体からコンピュータにインストールする他、LAN(Local Area Network)、インターネットといったネットワークを介してプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
 なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
 以上、説明したように、本開示の一実施例の構成によれば、長時間露光画素と短時間露光画素からなる画像の画素合成による高品質な高ダイナミックレンジ画像を生成する装置、方法が実現される。
 具体的には、長時間露光画素と短時間露光画素を含む入力画像の各構成画素に対するエッジ検出を実行するエッジ検出部と、合成対象となる長時間露光画素と短時間露光画素の重心補正処理を実行する重心補正部と、重心補正部の生成画素の合成処理を実行する画素合成部を有する。画素合成部は、長時間露光画素の画素値に応じたブレンド率(α)を適用した平坦部合成結果と、固定ブレンド率を適用したエッジ部合成結果と、飽和部領域に適応した飽和部合成結果から、各画素の状況に応じた最適な合成結果を選択し、選択された合成結果に基づいて高ダイナミックレンジ(HDR)画像を生成して出力する。
 上記手法の適用により、各構成画素の状況に応じた画素対応の最適な合成結果が得られ、高品質な高ダイナミックレンジ画像を生成することが可能となる。
 100 撮像装置
 101 光学レンズ
 102 撮像素子
 103 信号処理部
 105 制御部
 120 出力画像
 131 HDR画素生成部
 132 後段信号処理部
 133 出力部
 141 入力画像(SVE画像)
 142 高ダイナミックレンジ(HDR)画像
 151 エッジ検出部
 152 重心補正部
 153 画素合成部
 161~164 差分算出部
 165 長露光エッジ検出部
 166 長露光方向判定部
 167 短露光エッジ検出部
 168 短露光方向判定部
 181 垂直重心補正部
 182 飽和判定部
 183 補正結果選択部
 211 平坦部合成部
 212 エッジ部合成部
 213 飽和部合成部
 214 長短合成結果選択&最終合成結果生成部
 301 飽和部短露光画素補正部
 321 動被写体部合成部
 351 配列変換重心補正部
 352 画素合成部
 353 相関処理部
 361 重心補正高域信号生成部
 362 低域信号生成部
 371 重心補正高域信号合成部
 372 低域信号合成部
 381 出力色選択部
 382 相関演算部
 500 撮像装置
 501 光学レンズ
 502 撮像素子
 503 高ダイナミックレンジ(HDR)画像生成部
 504 諧調変換部
 505 カメラ信号処理部
 510 制御部

Claims (13)

  1.  長時間露光画素と短時間露光画素を含む入力画像に含まれる画素の画素値合成処理を実行して出力画像を生成する信号処理部を有し、
     前記信号処理部は、
     前記入力画像の各構成画素に対するエッジ検出を実行して、各画素対応のエッジ情報を出力するエッジ検出部と、
     合成処理対象となる長時間露光画素と短時間露光画素の重心補正処理を実行して、重心補正部出力長時間露光画素と重心補正部出力短時間露光画素を出力する重心補正部と、
     前記重心補正部の生成した重心補正部出力長時間露光画素と重心補正部出力短時間露光画素との合成処理を実行する画素合成部を有する画像処理装置。
  2.  前記重心補正部は、
     前記重心補正処理として、合成処理対象となる長時間露光画素と短時間露光画素の画素位置を一致させる処理を実行する構成であり、
     異なる画素位置の複数の同一色の長時間露光画素の画素値を適用した重み付け加算により、前記重心補正部出力長時間露光画素の画素値を算出し、
     異なる画素位置の複数の同一色の短時間露光画素の画素値を適用した重み付け加算により、前記重心補正部出力短時間露光画素の画素値を算出する処理を実行する請求項1に記載の画像処理装置。
  3.  前記重心補正部は、
     前記重心補正処理に適用した画素が飽和しているか否かを判定する飽和判定部を有し、
     前記重心補正処理に適用した画素が飽和している場合は、前記入力画像の画素値を前記重心補正部出力長時間露光画素と重心補正部出力短時間露光画素の画素値とし、
     前記重心補正処理に適用した画素が飽和していない場合は、
     異なる画素位置の複数の同一色の長時間露光画素の画素値を適用した重み付け加算により算出した画素値を、前記重心補正部出力長時間露光画素の画素値とし、
     異なる画素位置の複数の同一色の短時間露光画素の画素値を適用した重み付け加算により算出した画素値を、前記重心補正部出力短時間露光画素の画素値として選択出力する請求項2に記載の画像処理装置。
  4.  前記重心補正部は、
     前記重心補正処理に適用した画素が飽和しているか否かを判定する飽和判定部を有し、
     前記重心補正処理に適用した画素が飽和している場合は、
     前記重心補正部出力長時間露光画素の画素値を、入力画像の長時間露光画素の画素値とし、
     前記重心補正部出力短時間露光画素の画素値を、入力画像の短時間露光画素の複数の画素値に基づく平滑化処理によって算出した画素値として設定する請求項2に記載の画像処理装置。
  5.  前記重心補正部は、
     前記平滑化処理を、前記エッジ検出部から入力するエッジ方向に応じた係数の設定された平滑化フィルタを適用して実行する請求項4に記載の画像処理装置。
  6.  前記画素合成部は、
     前記重心補正部出力長時間露光画素と重心補正部出力短時間露光画素との合成処理を実行する合成部として、
     平坦部領域に適応した合成処理を実行する平坦部合成部と、
     エッジ部領域に適応した合成処理を実行するエッジ部合成部と、
     飽和部領域に適応した合成処理を実行する飽和部合成部と、
     前記各合成部の合成結果を選択して合成結果画像を生成する選択部を有し、
     前記選択部は、前記エッジ情報、および前記重心補正処理に適用した画素が飽和画素であるか否かを示す飽和フラグを入力し、
     前記重心補正処理に適用した画素が飽和画素である場合は、前記飽和部合成部の合成結果を選択し、
     前記重心補正処理に適用した画素が飽和画素でなく、エッジ領域である場合は、前記エッジ部合成部の合成結果を選択し、
     前記重心補正処理に適用した画素が飽和画素でなく、エッジ領域でない場合は、前記平坦部合成部の合成結果を選択する請求項1に記載の画像処理装置。
  7.  前記平坦部合成部は、前記重心補正部出力長時間露光画素の画素値に応じて変化するブレンド率(α)に応じて前記重心補正部出力長時間露光画素と前記重心補正部出力短時間露光画素の画素値をブレンドして合成結果の画素値を算出し、
     前記エッジ部合成部は、前記重心補正部出力長時間露光画素の画素値に依存しない固定ブレンド率(β)に応じて前記重心補正部出力長時間露光画素と前記重心補正部出力短時間露光画素の画素値をブレンドして合成結果の画素値を算出し、
     前記飽和部合成部は、前記重心補正部出力短時間露光画素の画素値を合成結果の画素値として算出する請求項6に記載の画像処理装置。
  8.  前記画素合成部は、さらに、
     動被写体領域に適応した合成処理を実行する動被写体部合成部を有し、
     前記選択部は、前記重心補正処理に適用した画素が動被写体領域であるか否かを示す動被写体検出フラグを入力し、
     前記重心補正処理に適用した画素が動被写体領域である場合は、前記動被写体合成部の合成結果を選択する請求項6に記載の画像処理装置。
  9.  前記入力画像は、RGB画素によって構成されるベイヤ配列画像であり、
     前記エッジ検出部は、G画素のみを用いたエッジ検出処理を実行する請求項1に記載の画像処理装置。
  10.  長時間露光画素と短時間露光画素を含む入力画像に含まれる画素の画素値合成処理を実行して出力画像を生成する信号処理部を有し、
     前記信号処理部は、
     前記入力画像の各構成画素に対するエッジ検出を実行して、各画素対応のエッジ情報を出力するエッジ検出部と、
     前記入力画像の特定色高域信号と全色低域信号を生成する配列変換重心補正部と、
     前記特定色高域信号と全色低域信号を入力して、特定色高域高ダイナミックレンジ(HDR)信号と、全色低域高ダイナミックレンジ(HDR)信号を生成する画素合成部と、
     前記特定色高域高ダイナミックレンジ(HDR)信号と、全色低域高ダイナミックレンジ(HDR)信号を入力して、前記入力画像と同画素数の高ダイナミックレンジ(HDR)画像を生成する相関処理部を有する画像処理装置。
  11.  前記入力画像は、RGB画素によって構成されるベイヤ配列画像であり、
     前記配列変換重心補正部は、前記入力画像のG色高域信号とRGB各色低域信号を生成し、
     前記画素合成部は、前記G色高域信号と前記RGB各色低域信号を入力して、G色高域高ダイナミックレンジ(HDR)信号と、RGB各色低域高ダイナミックレンジ(HDR)信号を生成し、
     前記前記相関処理部は、前記G色高域高ダイナミックレンジ(HDR)信号と、前記RGB各色低域高ダイナミックレンジ(HDR)信号を入力して、前記入力画像と同画素数のベイヤ配列からなる高ダイナミックレンジ(HDR)画像を生成する請求項10に記載の画像処理装置。
  12.  画像処理装置において実行する画像処理方法であり、
     信号処理部が、長時間露光画素と短時間露光画素を含む入力画像に含まれる画素の画素値合成処理を実行して出力画像を生成する信号処理ステップを実行し、
     前記信号処理ステップにおいて、
     前記入力画像の各構成画素に対するエッジ検出を実行して、各画素対応のエッジ情報を出力するエッジ検出処理と、
     合成処理対象となる長時間露光画素と短時間露光画素の重心補正処理を実行して、重心補正部出力長時間露光画素と重心補正部出力短時間露光画素を出力する重心補正処理と、
     前記重心補正部の生成した重心補正部出力長時間露光画素と重心補正部出力短時間露光画素との合成処理を実行する画像処理方法。
  13.  画像処理装置において画像処理を実行させるプログラムであり、
     信号処理部に、長時間露光画素と短時間露光画素を含む入力画像に含まれる画素の画素値合成処理を実行して出力画像を生成する信号処理ステップを実行させ、
     前記信号処理ステップにおいて、
     前記入力画像の各構成画素に対するエッジ検出を実行して、各画素対応のエッジ情報を出力するエッジ検出処理と、
     合成処理対象となる長時間露光画素と短時間露光画素の重心補正処理を実行して、重心補正部出力長時間露光画素と重心補正部出力短時間露光画素を出力する重心補正処理と、
     前記重心補正部の生成した重心補正部出力長時間露光画素と重心補正部出力短時間露光画素との合成処理を実行させるプログラム。
PCT/JP2013/067455 2012-08-16 2013-06-26 画像処理装置、および画像処理方法、並びにプログラム WO2014027511A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-180530 2012-08-16
JP2012180530A JP2014039170A (ja) 2012-08-16 2012-08-16 画像処理装置、および画像処理方法、並びにプログラム

Publications (1)

Publication Number Publication Date
WO2014027511A1 true WO2014027511A1 (ja) 2014-02-20

Family

ID=50286981

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/067455 WO2014027511A1 (ja) 2012-08-16 2013-06-26 画像処理装置、および画像処理方法、並びにプログラム

Country Status (2)

Country Link
JP (1) JP2014039170A (ja)
WO (1) WO2014027511A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019530360A (ja) * 2016-09-30 2019-10-17 ハドリー インコーポレイテッド Ispバイアス補償ノイズ低減システムおよび方法
US10652476B2 (en) 2016-07-13 2020-05-12 Sony Corporation Solid-state image pickup element, image pickup apparatus, and control method of solid-state image pickup element
CN115410370A (zh) * 2022-08-31 2022-11-29 南京慧尔视智能科技有限公司 一种异常停车检测方法、装置、电子设备及存储介质

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016201733A (ja) * 2015-04-13 2016-12-01 ソニー株式会社 撮像装置、撮像方法、並びにプログラム
JP6589478B2 (ja) * 2015-09-11 2019-10-16 セイコーエプソン株式会社 測定装置、電子機器、及び測定方法
US10523874B2 (en) 2016-02-16 2019-12-31 Sony Corporation Image processing apparatus, image processing method, and program
JP6855251B2 (ja) * 2016-02-22 2021-04-07 キヤノン株式会社 撮像装置及び再生装置
US10257485B2 (en) * 2016-06-08 2019-04-09 Google Llc Generating a composite image from a physical item
CN109429021B (zh) * 2017-09-01 2022-10-28 半导体元件工业有限责任公司 用于生成高动态范围图像的高动态范围成像设备和方法
EP3993390A4 (en) * 2019-06-28 2022-08-31 Sony Semiconductor Solutions Corporation TRANSMITTER, RECEIVER AND COMMUNICATION SYSTEM
JP2022163882A (ja) * 2021-04-15 2022-10-27 ソニーセミコンダクタソリューションズ株式会社 信号処理装置および方法、並びにプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001238126A (ja) * 2000-02-22 2001-08-31 Minolta Co Ltd 撮像装置及び画像処理方法
JP2008236739A (ja) * 2007-02-20 2008-10-02 Kyocera Corp 撮像装置および撮像方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001238126A (ja) * 2000-02-22 2001-08-31 Minolta Co Ltd 撮像装置及び画像処理方法
JP2008236739A (ja) * 2007-02-20 2008-10-02 Kyocera Corp 撮像装置および撮像方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10652476B2 (en) 2016-07-13 2020-05-12 Sony Corporation Solid-state image pickup element, image pickup apparatus, and control method of solid-state image pickup element
JP2019530360A (ja) * 2016-09-30 2019-10-17 ハドリー インコーポレイテッド Ispバイアス補償ノイズ低減システムおよび方法
CN115410370A (zh) * 2022-08-31 2022-11-29 南京慧尔视智能科技有限公司 一种异常停车检测方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
JP2014039170A (ja) 2014-02-27

Similar Documents

Publication Publication Date Title
WO2014027511A1 (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP5935876B2 (ja) 画像処理装置、撮像素子、および画像処理方法、並びにプログラム
US9560290B2 (en) Image processing including image correction
US8547451B2 (en) Apparatus and method for obtaining high dynamic range image
US9288399B2 (en) Image processing apparatus, image processing method, and program
JP5367640B2 (ja) 撮像装置および撮像方法
JP6446790B2 (ja) 画像処理装置、撮像装置、画像補正方法およびプログラム
JP5016715B2 (ja) 画像のダイナミック・レンジを改善するためのマルチ露光パターン
JP6434963B2 (ja) 画像処理装置、画像処理方法、電子機器、並びにプログラム
JP5589446B2 (ja) 画像処理装置、撮像装置、および画像処理方法、並びにプログラム
WO2017098897A1 (ja) 撮像装置、撮像制御方法、および、プログラム
CN110365961B (zh) 图像去马赛克装置及方法
JP6312487B2 (ja) 画像処理装置及びその制御方法、並びに、プログラム
WO2014020970A1 (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP2005102116A (ja) 画像処理方法、および画像処理装置、並びにコンピュータ・プログラム
US10412356B2 (en) Image processing apparatus and image processing method
TW200849978A (en) Video input processor, imaging signal-processing circuit, and method of reducing noises in imaging signals
US20180146144A1 (en) Image processing device, image processing method, program, and imaging device
WO2018230119A1 (ja) 撮像装置と撮像素子および画像処理方法
US20160196640A1 (en) Image processing apparatus, imaging apparatus, and image processing method
US20180288336A1 (en) Image processing apparatus
JP2013029995A (ja) 撮像システム
JP6227935B2 (ja) 画像処理装置および画像処理方法
JP5814610B2 (ja) 画像処理装置及びその制御方法、並びにプログラム
WO2016167140A1 (ja) 撮像装置、撮像方法、並びにプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13879466

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13879466

Country of ref document: EP

Kind code of ref document: A1