WO2023136134A1 - 信号処理装置および信号処理方法、並びにプログラム - Google Patents

信号処理装置および信号処理方法、並びにプログラム Download PDF

Info

Publication number
WO2023136134A1
WO2023136134A1 PCT/JP2022/048173 JP2022048173W WO2023136134A1 WO 2023136134 A1 WO2023136134 A1 WO 2023136134A1 JP 2022048173 W JP2022048173 W JP 2022048173W WO 2023136134 A1 WO2023136134 A1 WO 2023136134A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixel
value
raw signal
signal
saturation determination
Prior art date
Application number
PCT/JP2022/048173
Other languages
English (en)
French (fr)
Inventor
大輝 山崎
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Publication of WO2023136134A1 publication Critical patent/WO2023136134A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B7/00Control of exposure by setting shutters, diaphragms or filters, separately or conjointly
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • H04N25/58Control of the dynamic range involving two or more exposures
    • H04N25/581Control of the dynamic range involving two or more exposures acquired simultaneously
    • H04N25/585Control of the dynamic range involving two or more exposures acquired simultaneously with pixels having different sensitivities within the sensor, e.g. fast or slow pixels or pixels having different sizes

Definitions

  • the present disclosure relates to a signal processing device, a signal processing method, and a program, and more particularly to a signal processing device, a signal processing method, and a program that can further improve image quality.
  • the dynamic range of images can be expanded by performing HDR (High Dynamic Range) synthesis.
  • Patent Document 1 the potential of a charge-voltage converter to which charges are transferred from a first photoelectric conversion unit with high sensitivity and a charge accumulation unit that accumulates charges generated by a second photoelectric conversion unit with low sensitivity is disclosed.
  • a solid-state imaging device is disclosed that can expand the dynamic range by combining the .
  • the present disclosure has been made in view of such circumstances, and aims to further improve image quality.
  • a signal processing device compares a reference signal based on a large pixel RAW signal of a pixel of interest with a threshold, and determines whether the pixel value of the pixel of interest is smaller than the pixel value of the large pixel RAW signal of the pixel of interest.
  • a calculation unit that calculates a blend ratio used in a blending process for blending the pixel values of the pixel RAW signal, and compares the pixel value of the large pixel RAW signal of the target pixel with a saturation determination threshold to determine the large pixel value of the target pixel.
  • a saturation determination unit for outputting a saturation determination value indicating whether or not the RAW signal is saturated, and selecting whether to output the blend ratio as it is or replace the blend ratio with 1 according to the saturation determination value. and a first selection unit for selecting.
  • a signal processing method or program compares a reference signal based on a large pixel RAW signal of a target pixel with a threshold, calculating a blending rate used in a blending process for blending the pixel values of the small pixel RAW signals of the target pixel; outputting a saturation determination value indicating whether or not the pixel RAW signal is saturated, and selecting whether to output the blend ratio as it is or replace the blend ratio with 1 according to the saturation determination value.
  • a reference signal based on the large pixel RAW signal of the target pixel is compared with a threshold, and the pixel value of the small pixel RAW signal of the target pixel is compared with the pixel value of the large pixel RAW signal of the target pixel.
  • a blend ratio used in blending processing for blending values is calculated, and the pixel value of the large pixel RAW signal of the target pixel is compared with a saturation determination threshold to determine whether the large pixel RAW signal of the target pixel is saturated.
  • the saturation determination value shown is output, and it is selected whether to output the blend ratio as it is or to replace the blend ratio with 1 according to the saturation determination value.
  • FIG. 10 is a diagram for explaining a scheme for changing luminance; It is a figure explaining a maximum value replacement method.
  • FIG. 3 is a block diagram showing a configuration example of a blend ratio calculation unit; It is a figure explaining the effect of this technique.
  • 9 is a flowchart for explaining blend ratio calculation processing; 1 is a block diagram showing a configuration example of an image processing system; FIG. It is a block diagram which shows the structural example of an imaging device.
  • FIG. 10 is a diagram showing an example of use using an image sensor;
  • FIG. 1 is a block diagram showing a configuration example of an embodiment of an image processing unit to which the present technology is applied.
  • the signal processing section 11 is configured with a blend ratio calculating section 21 and an ⁇ blend processing section 22 .
  • the signal processing unit 11 is used by being incorporated in a sensor module 61 as shown in FIG. , and a small pixel with a small area photodiode and low sensitivity. Then, the signal processing unit 11 outputs a large pixel RAW signal, which is a pixel signal corresponding to the amount of light received by the large pixel, and a small pixel RAW signal, which is a pixel signal corresponding to the amount of light received by the small pixel. is entered.
  • the large pixel RAW signal input to the signal processing unit 11 is supplied to the blend ratio calculation unit 21 and the ⁇ blend processing unit 22, and the small pixel RAW signal input to the signal processing unit 11 is supplied to the ⁇ blend processing unit 22. be done. Then, the signal processing unit 11 outputs an HDR-RAW signal, which is a pixel signal with an expanded dynamic range.
  • the blend rate calculation unit 21 calculates a blend rate ⁇ , which is a value representing the degree of saturation of large pixels with an index of 0 to 1.0, and supplies it to the ⁇ blend processing unit 22 .
  • a blend rate ⁇ which is a value representing the degree of saturation of large pixels with an index of 0 to 1.0
  • the blend ratio calculation unit 21 calculates the reference signal BASE based on the large pixel RAW signal of the pixel of interest and a predetermined Compare the lower and upper thresholds. For example, the blend ratio calculator 21 calculates 0 as the blend ratio ⁇ when the reference signal BASE is equal to or less than the lower limit threshold. Further, when the reference signal BASE is between the lower limit threshold and the upper limit threshold, the blend rate calculation unit 21 sets a value that increases from 0 to 1.0 as the reference signal BASE increases as the blend rate ⁇ . calculate. Further, the blend ratio calculator 21 calculates 1.0 as the blend ratio ⁇ when the reference signal BASE is equal to or higher than the upper limit threshold.
  • the blend ratio calculation unit 21 calculates the pixel value of the large pixel RAW signal in the pixel of interest, the luminance value calculated from the pixel values of a plurality of pixels centering on the pixel of interest, and the The blend ratio ⁇ can be calculated using any one of the maximum pixel values among the pixel values of a plurality of pixels.
  • the method of calculating the blend ratio ⁇ using the pixel value of the large pixel RAW signal of the pixel of interest as the reference signal BASE is referred to as the pixel value replacement method.
  • a method of calculating the blend ratio ⁇ by using the luminance value calculated from the pixel values of a plurality of pixels centering on the pixel of interest as the reference signal BASE is called a luminance changing method.
  • a method of calculating the blend ratio ⁇ using the maximum value, which is the maximum pixel value among the pixel values of a plurality of pixels centering on the pixel of interest, as the reference signal BASE is called a maximum value replacement method.
  • FIG. 2 is a diagram explaining the pixel value replacement method.
  • FIG. 2A shows the relationship between the brightness of the light received by the pixel and the SN ratio in the pixel value replacement method.
  • the pixel value of the large pixel RAW signal of the target pixel is compared with the threshold for each of the red, green, and blue pixels in the Bayer array shown in FIG. be done. Then, based on the comparison result, the pixel value of the large pixel RAW signal and the pixel value of the small pixel RAW signal are switched.
  • the pixel value Gr/Gb-1 of the large green pixel RAW signal and the pixel value Gr/Gb-2 of the small green pixel RAW signal are switched.
  • the brightness at which the pixel value R-1 of the large pixel RAW signal and the pixel value R-2 of the small pixel RAW signal of red are changed, and the pixel value B-1 of the large pixel RAW signal of blue and the pixel value B-1 of the blue pixel RAW signal.
  • the brightness at which the pixel value B-2 of the small pixel RAW signal is changed is greatly different. Therefore, in the brightness range sandwiched by the alternate long and short dash lines in A of FIG.
  • the large pixel RAW signal with a good SN ratio is used until just before the large pixel RAW signal is saturated (immediately before the upper threshold value shown in C in FIG. 2). (hereinafter referred to as a connecting SN ratio) is an advantage over the luminance changing method and the maximum value changing method.
  • the pixel value replacement method is characterized by a good SN ratio at the transition, the possibility of guaranteeing saturation, and the tendency for coloring to occur at the transition.
  • Fig. 3 is a diagram for explaining the luminance changing method.
  • FIG. 3A shows the relationship between the brightness of light received by a pixel and the SN ratio in the luminance changing method.
  • Luminance is calculated and the luminance value is compared with a threshold. Then, based on the comparison result, the pixel value of the large pixel RAW signal and the pixel value of the small pixel RAW signal are switched.
  • the sensitivity difference for each pixel color is smoothed by the filter coefficient, resulting in the difference between the pixel value Gr/Gb-1 of the large green pixel RAW signal and the small green pixel RAW signal.
  • the pixel value B-1 of the large blue pixel RAW signal and the brightness at which the pixel value B-2 of the small blue pixel RAW signal are changed approximately match each other. Therefore, the range of brightness sandwiched between dashed lines in FIG. 3A is narrowed, and false colors are less likely to occur, which is an advantage over the pixel value replacement method (see A in FIG. 2).
  • the color balance differs depending on the color temperature and the color of the subject, so it becomes impossible to guarantee the minimum value of the SN ratio indicated by the dashed line in A of FIG.
  • the saturation of the large pixel RAW signal is reduced by the filtering process. Therefore, it is necessary to set the upper limit threshold shown in FIG.
  • the SN ratio deteriorates due to brightness in the vicinity.
  • the luminance switching method has the characteristics that the SN ratio of the transition is slightly poor, saturation cannot be guaranteed, and coloring is difficult to occur in the transition.
  • FIG. 4 is a diagram explaining the maximum value replacement method.
  • FIG. 4A shows the relationship between the brightness of the light received by the pixel and the SN ratio in the maximum value switching method.
  • the maximum value of the pixel values of the 3 ⁇ 3 tap large pixel RAW signal around the pixel of interest as shown in FIG. A threshold is compared. Then, based on the comparison result, the pixel value of the large pixel RAW signal and the pixel value of the small pixel RAW signal are switched.
  • the pixel value Gr/Gb-1 of the large green pixel RAW signal and the pixel value Gr/Gb-2 of the small green pixel RAW signal are switched.
  • the brightness at which the pixel value R-1 of the large pixel RAW signal and the pixel value R-2 of the small pixel RAW signal of red are changed, and the pixel value B-1 of the large pixel RAW signal of blue and the pixel value B-1 of the blue pixel RAW signal.
  • the brightness at which the pixel value B-2 of the small pixel RAW signal and the pixel value B-2 are changed substantially match each other. Therefore, the range of brightness sandwiched between dashed lines in FIG. 4A is narrowed, and false colors are less likely to occur, which is an advantage over the pixel value replacement method (see A in FIG. 2).
  • the maximum value switching method has the characteristic that the SN ratio of the connection is poor, the saturation can be guaranteed, and the coloration of the connection is likely to occur.
  • the pixel value changing method, the luminance changing method, and the maximum value changing method each have their own characteristics. and ensuring that pixel values are not saturated.
  • the blend ratio calculation unit 21 has a function of determining whether or not the large pixel that is the pixel of interest is saturated. For example, when the blend ratio calculation unit 21 determines that the large pixel serving as the pixel of interest is not saturated, any one of the pixel value replacement method, the luminance replacement method, and the maximum value replacement method is used.
  • the calculated blend ratio ⁇ can be used as it is.
  • the blend rate calculation unit 21 can use 1 as the blend rate ⁇ when determining that the large pixel serving as the pixel of interest is saturated. As a result, it is possible to both suppress coloring due to the occurrence of false colors and ensure that pixel values are not saturated, thereby improving the image quality of images based on HDR-RAW signals. .
  • FIG. 5 is a block diagram showing a configuration example of the blend ratio calculator 21. As shown in FIG.
  • the blend ratio calculator 21 includes a first tap generator 31, a luminance generator 32, a maximum value selector 33, a saturation determiner 34, a first selector 35, a calculator 36, a second selector 37, a second tap generator 38, a low-pass filter processor 39, and a third selector 40.
  • the first tap generation unit 31 generates 3 ⁇ 3 tap large pixels centered on the pixel of interest, which is the target pixel for calculating the blend ratio ⁇ , from the large pixel RAW signal sequentially supplied to the blend ratio calculation unit 21 .
  • a pixel value of the RAW signal is generated and supplied to the luminance generation section 32 and the maximum value selection section 33 .
  • the luminance generator 32 calculates the luminance value Y of the target pixel by multiplying the pixel value of the large pixel RAW signal of 3 ⁇ 3 taps by the filter coefficient (see B in FIG. 3 described above). It is supplied to the selector 35.
  • the maximum value selection unit 33 selects the maximum value MAX among the pixel values of the 3 ⁇ 3 tap large pixel RAW signal and supplies it to the first selector 35 .
  • the saturation determination unit 34 compares the pixel value of the large pixel RAW signal of the pixel of interest with the saturation determination threshold SATU_TH, and outputs a 1-bit saturation determination value SATU based on the comparison result. For example, when the pixel value of the large pixel RAW signal of the target pixel exceeds the saturation determination threshold SATU_TH, the saturation determination unit 34 outputs 1 indicating that the large pixel is saturated as the saturation determination value SATU. On the other hand, when the pixel value of the large pixel RAW signal of the target pixel does not exceed the saturation determination threshold SATU_TH, the saturation determination unit 34 outputs 0 indicating that the large pixel is not saturated as the saturation determination value SATU.
  • the saturation determination value SATU output from the saturation determination unit 34 is supplied to the second selector 37 and also output to the outside of the blend ratio calculation unit 21 (a subsequent processing block (not shown)).
  • the first selector 35 selects one of the pixel value of the large pixel RAW signal of the pixel of interest, the luminance value Y generated by the luminance generator 32, and the maximum value MAX selected by the maximum value selector 33. , one of them is selected as the reference signal BASE and supplied to the calculator 36 .
  • the calculator 36 calculates the blend ratio ⁇ according to the reference signal BASE supplied from the first selector 35 and supplies it to the second selector 37 . That is, the calculator 36 calculates 0 as the blend rate ⁇ when the reference signal BASE is equal to or less than the lower limit threshold. Further, when the reference signal BASE is between the lower limit threshold and the upper limit threshold, the calculation unit 36 calculates a value that increases from 0 to 1.0 as the reference signal BASE increases as the blend ratio ⁇ . . Further, the calculation unit 36 calculates 1.0 as the blend rate ⁇ when the reference signal BASE is equal to or higher than the upper limit threshold.
  • the second selector 37 selects the blend ratio ⁇ based on the saturation determination value SATU supplied from the saturation determination section 34 and supplies it to the second tap generation section 38 . For example, when the saturation determination value SATU is not 1, that is, when the saturation determination value SATU is 0, the second selector 37 outputs the blend ratio ⁇ supplied from the calculator 36 as it is. On the other hand, when the saturation determination value SATU is 1, the second selector 37 outputs 1 as the blend ratio ⁇ . That is, when the saturation determination value SATU is 1, it is determined that the large pixels are saturated, so the blend ratio ⁇ is forcibly replaced with 1.
  • the second tap generation unit 38 generates a 3 ⁇ 3 tap blend ratio ⁇ centered on the pixel of interest from the blend ratio ⁇ sequentially supplied from the second selector 37, and the low-pass filter processing unit 39 and the third is supplied to the selector 40 of
  • the low-pass filter processing unit 39 applies a low-pass filter (simple averaging) to the 3 ⁇ 3 tap blend ratio ⁇ supplied from the second tap generation unit 38, and obtains the blend ratio of the pixel of interest subjected to the low-pass filter. is supplied to the third selector 40 .
  • a low-pass filter simple averaging
  • the third selector 40 outputs the blend ratio ⁇ as it is when the blend ratio ⁇ of the target pixel to which the low-pass filter is not applied is 1 according to the blend ratio ⁇ of the target pixel to which the low-pass filter is not applied. .
  • the third selector 40 outputs the low-pass filtered blend rate ⁇ when the blend rate ⁇ of the target pixel not subjected to the low-pass filter is not 1. That is, when the blend ratio ⁇ becomes 1 or less by applying a low-pass filter to the portion where the blend ratio ⁇ is 1, it is assumed that saturation cannot be guaranteed. 1. Prevent low-pass filtering from being applied to a certain portion.
  • a in FIG. 6 represents the original subject.
  • White areas are bright areas where small pixel RAW signals are used, and black areas are dark areas where large pixel RAW signals are used.
  • the boundary between the white area and the black area has a large contrast difference, and the blending process is performed at this boundary.
  • B in FIG. 6 represents an image that has undergone blend processing using the blend rate ⁇ obtained by the conventional technology.
  • the boundary between the white area and the black area tends to be jerky and color artifacts may occur, or the saturation of pixels that should not be output may be output. As a result, reliability may be lost.
  • the pixel value changing method, the luminance changing method, and the maximum value changing method can both suppress coloring due to the occurrence of false colors and ensure that pixel values are not saturated. I didn't.
  • C in FIG. 6 represents an image that has undergone blend processing using the blend rate ⁇ obtained by this technology.
  • the present technique compared to the conventional technique, rattling and color artifacts at the boundary between the white area and the black area are suppressed, and the appearance of the subject is closer to that of the original subject. Moreover, since it is guaranteed that the saturation of the large pixel RAW signal is not output, the reliability of the data is high.
  • the present technology is based on a luminance changing method in which the luminance value Y generated from the pixel values of a plurality of pixels (for example, 3 ⁇ 3 taps) centering on the target pixel is used as the reference signal BASE, and saturation determination is performed. By performing the saturation determination of the pixel value of the large-pixel RAW signal by the unit 34, it is possible to suppress coloring due to the occurrence of false color and to ensure that the pixel value is not saturated.
  • FIG. 7 is a flowchart for explaining blend ratio calculation processing performed in the blend ratio calculation unit 21. As shown in FIG.
  • step S ⁇ b>11 the calculator 36 calculates the blend ratio ⁇ according to the reference signal BASE supplied from the first selector 35 and supplies it to the second selector 37 .
  • the reference signal BASE any one of the pixel value of the large pixel RAW signal of the target pixel, the luminance value Y generated by the luminance generation unit 32, and the maximum value MAX selected by the maximum value selection unit 33 is selected.
  • the luminance value Y it is possible to suppress coloring due to the occurrence of false colors.
  • step S12 the saturation determination unit 34 compares the pixel value of the large pixel RAW signal of the pixel of interest with the saturation determination threshold SATU_TH, and obtains the saturation determination value SATU from the comparison result.
  • the saturation determination unit 34 then supplies the saturation determination value SATU to the second selector 37 and outputs the saturation determination value SATU to the outside of the blend ratio calculation unit 21 .
  • step S13 the second selector 37 determines whether or not the saturation determination value SATU supplied from the saturation determination unit 34 in step S12 is 1.
  • step S13 if it is determined in step S13 that the saturation determination value SATU is 1, the process proceeds to step S15, the second selector 37 outputs 1 as the blend ratio ⁇ , and the second tap generator 38 supply to
  • step S16 the second tap generator 38 generates a blend rate ⁇ of 3 ⁇ 3 taps centered on the pixel of interest, and the low-pass filter processor 39 and the 3 selector 40.
  • step S17 the low-pass filter processing unit 39 applies a low-pass filter to the 3 ⁇ 3 tap blend ratio ⁇ supplied from the second tap generation unit 38, and the low-pass filtered target pixel blend ratio ⁇ is supplied to the third selector 40 .
  • step S18 the third selector 40 determines whether or not the blend ratio ⁇ of the target pixel to which the low-pass filter is not applied, supplied from the second tap generation unit 38 in step S16, is 1.
  • step S18 If it is determined in step S18 that the blend ratio ⁇ of the pixel of interest to which the low-pass filter has not been applied is 1, the process proceeds to step S19, and the third selector 40 selects the pixel of interest to which the low-pass filter has not been applied. output the blend ratio ⁇ as it is.
  • step S18 if it is determined in step S18 that the blend ratio ⁇ of the target pixel to which the low-pass filter has not been applied is not 1, the process proceeds to step S20, and the third selector 40 causes the low-pass filter processing unit 39 outputs the blend ratio ⁇ of the pixel of interest to which the low-pass filter supplied from is applied.
  • step S19 or S20 After the processing of step S19 or S20, the processing ends.
  • the blending rate calculation unit 21 can calculate the blending rate ⁇ , which has the characteristics that the connecting SN ratio is slightly good, the saturation can be guaranteed, and the connecting coloring is less likely to occur.
  • FIG. 8 is a block diagram showing a configuration example of an image processing system including the signal processing section 11. As shown in FIG.
  • the image processing system 51 is configured with a sensor module 61, a viewing device 62, and a sensing device 63.
  • the sensor module 61 is configured with an image sensor 71 and a signal processing section 11 .
  • the image sensor 71 has a sub-pixel structure including large pixels with high sensitivity and small pixels with low sensitivity. It is supplied to the processing section 11 .
  • the signal processing unit 11 outputs the image data of the HDR-RAW signal obtained by the blend processing performed by the ⁇ blend processing unit 22 according to the blend ratio ⁇ calculated by the blend ratio calculation unit 21 .
  • the signal processing unit 11 also outputs the saturation determination value SATU obtained by the saturation determining unit 34 as a saturation flag.
  • the viewing device 62 is configured with a processing unit 81 and a user interface 82 .
  • the processing unit 81 has an imaging signal processor 83 and an imaging DNN (Deep Neural Network) 84
  • the user interface 82 has a display 85 .
  • the image data output from the signal processing unit 11 is supplied to the viewing device 62, the image data is subjected to signal processing for imaging in the signal processing unit 83 for imaging, and the image data is imaged in the DNN 84 for imaging.
  • Deep learning for An image based on the image data subjected to signal processing for imaging is displayed on the display 85, and the recognition result of the image data recognized by deep learning for imaging is also displayed on the display 85.
  • the sensing device 63 is configured with a processing unit 91 and ADAS (Advanced Driver-Assistance Systems) 92 .
  • the processing unit 91 has a recognition signal processor 93 and a recognition DNN 94 .
  • the image data and the saturation flag output from the signal processing unit 11 are supplied to the sensing device 63, and the recognition signal processing unit 93 performs signal processing for recognition on the image data with reference to the saturation flag.
  • the DNN 94 for recognition performs deep learning for recognition on the image data with reference to the saturation flag. Then, the image data subjected to signal processing for recognition and the recognition result recognized by deep learning for recognition of the image data are supplied to the ADAS 92, and the ADAS 92 controls the vehicle.
  • the sensing device 63 performs signal processing for recognition of image data with reference to the saturation flag and deep learning for recognition of image data with reference to the saturation flag, thereby preventing misrecognition. can be avoided.
  • the signal processing unit 11 determines whether or not the large pixel RAW signal is saturated, and supplies the saturation flag to the sensing device 63 together with the image data. can do.
  • the saturation flag information indicates the timing at which the pixel value of the large pixel RAW signal and the pixel value of the small pixel RAW signal are switched. Therefore, in the sensing device 63, according to the saturation flag, signal processing for recognition suitable for large pixel RAW signals and deep learning algorithm for recognition, signal processing for recognition suitable for small pixel RAW signals and deep layer learning for recognition are performed. You can switch between learning algorithms.
  • signal processing for recognition suitable for large-pixel RAW signals and deep learning algorithms for recognition perform processing specialized for dark areas (e.g., noise removal by strongly applying noise reduction before recognition). be able to.
  • signal processing for recognition suitable for small-pixel RAW signals and deep learning algorithms for recognition can perform processing specialized for bright portions (for example, removal of flare around the sun).
  • the image processing system 51 can perform signal processing for recognition and deep learning for recognition that are optimal for each brightness, thereby improving the recognition rate and avoiding misrecognition. be able to.
  • coefficients other than averaging may be used as the coefficients used when the low-pass filter processing unit 39 applies a low-pass filter to the blend ratio ⁇ of 3 ⁇ 3 taps.
  • the low-pass filter processing unit 39 may hold a plurality of coefficients and select a coefficient as necessary.
  • the sensor module 61 including the signal processing unit 11 as described above can be used in various applications such as an imaging system such as a digital still camera or a digital video camera, a mobile phone with an imaging function, or other equipment with an imaging function. It can be applied to electronic equipment.
  • FIG. 9 is a block diagram showing a configuration example of an imaging device mounted on an electronic device.
  • the imaging device 101 is configured with an optical system 102, an imaging element 103, a signal processing circuit 104, a monitor 105, and a memory 106, and is capable of capturing still images and moving images.
  • the optical system 102 is configured with one or more lenses, guides image light (incident light) from a subject to the imaging element 103, and forms an image on the light receiving surface (sensor section) of the imaging element 103.
  • the imaging element 103 As the imaging element 103, the sensor module 61 described above is applied. Electrons are accumulated in the imaging element 103 for a certain period of time according to the image formed on the light receiving surface via the optical system 102 . A signal corresponding to the electrons accumulated in the image sensor 103 is supplied to the signal processing circuit 104 .
  • the signal processing circuit 104 performs various signal processing on the pixel signals output from the image sensor 103 .
  • An image (image data) obtained by the signal processing performed by the signal processing circuit 104 is supplied to the monitor 105 for display or supplied to the memory 106 for storage (recording).
  • the sensor module 61 including the signal processing unit 11 described above By applying the sensor module 61 including the signal processing unit 11 described above to the imaging device 101 configured in this way, for example, it is possible to capture a higher quality image.
  • FIG. 10 is a diagram showing a usage example using the image sensor (imaging element) described above.
  • the image sensor described above can be used in various cases for sensing light such as visible light, infrared light, ultraviolet light, and X-rays, for example, as follows.
  • ⁇ Devices that capture images for viewing purposes, such as digital cameras and mobile devices with camera functions.
  • Devices used for transportation such as in-vehicle sensors that capture images behind, around, and inside the vehicle, surveillance cameras that monitor running vehicles and roads, and ranging sensors that measure the distance between vehicles.
  • Devices used in home appliances such as TVs, refrigerators, air conditioners, etc., to take pictures and operate devices according to gestures ⁇ Endoscopes, devices that perform angiography by receiving infrared light, etc.
  • Equipment used for medical and healthcare purposes such as surveillance cameras for crime prevention and cameras for personal authentication
  • microscopes used for beauty such as microscopes used for beauty
  • Sports such as action cameras and wearable cameras for use in sports ⁇ Cameras, etc. for monitoring the condition of fields and crops , agricultural equipment
  • a calculation unit that calculates the blend ratio used in a saturation determination unit that compares a pixel value of the large pixel RAW signal of the target pixel with a saturation determination threshold value and outputs a saturation determination value indicating whether or not the large pixel RAW signal of the target pixel is saturated;
  • a signal processing device comprising: a first selection unit that selects whether to output the blend rate as it is or replace the blend rate with 1 and output the blend rate according to the saturation determination value.
  • a tap generation unit that generates the blend rate of taps in a predetermined range centering on the pixel of interest from the blend rate output from the first selection unit;
  • the signal processing device according to (1) or (2) above, further comprising: a low-pass filtering unit that applies a low-pass filter to the blend ratio of the tap.
  • a low-pass filtering unit that applies a low-pass filter to the blend ratio of the tap.
  • a signal processor as described.
  • (6) A blending process of comparing a reference signal based on the large pixel RAW signal of the target pixel with a threshold, and blending the pixel value of the small pixel RAW signal of the target pixel with the pixel value of the large pixel RAW signal of the target pixel.
  • Blend ratio calculation unit 22 ⁇ blend processing unit 31
  • First tap generation unit 32 Luminance generation unit 33
  • Maximum value selection unit 34 Saturation judgment unit 35
  • First selector 36 Calculation unit , 37 second selector, 38 second tap generator, 39 low-pass filter processor, 40 third selector, 51 image processing system, 61 sensor module, 62 viewing device, 63 sensing device, 71 image sensor, 81 Processing unit, 82 User interface, 83 Imaging signal processing unit, 84 Imaging DNN, 85 Display, 91 Processing unit, 92 ADAS, 93 Recognition signal processing unit, 94 Recognition DNN

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Image Processing (AREA)

Abstract

本開示は、より画質の向上を図ることができるようにする信号処理装置および信号処理方法、並びにプログラムに関する。 算出部は、注目画素の大画素RAW信号に基づいた基準信号と閾値との比較を行い、注目画素の大画素RAW信号の画素値に対して注目画素の小画素RAW信号の画素値をブレンドするブレンド処理で用いられるブレンド率を算出する。飽和判定部は、注目画素の大画素RAW信号の画素値と飽和判定閾値との比較を行い、注目画素の大画素RAW信号が飽和しているか否かを示す飽和判定値を出力する。選択部は、飽和判定値に従って、ブレンド率をそのまま出力するか、ブレンド率を1に置き換えて出力するかを選択する。本技術は、例えば、ダイナミックレンジの広い画像を出力するセンサモジュールに適用できる。

Description

信号処理装置および信号処理方法、並びにプログラム
 本開示は、信号処理装置および信号処理方法、並びにプログラムに関し、特に、より画質の向上を図ることができるようにした信号処理装置および信号処理方法、並びにプログラムに関する。
 従来、HDR(High Dynamic Range)合成を行うことによって、画像のダイナミックレンジを拡大することができる。
 例えば、特許文献1には、感度が高い第1の光電変換部から電荷が転送される電荷電圧変換部と感度が低い第2の光電変換部が生成した電荷を蓄積する電荷蓄積部とのポテンシャルを結合することで、ダイナミックレンジを拡大することができる固体撮像装置が開示されている。
国際公開第2016/147885号
 しかしながら、従来のHDR合成では、偽色の発生による色付きを抑制することと、画素値が飽和されないように保証することとを両立することができなかったため、画質が低下することがあった。
 本開示は、このような状況に鑑みてなされたものであり、より画質の向上を図ることができるようにするものである。
 本開示の一側面の信号処理装置は、注目画素の大画素RAW信号に基づいた基準信号と閾値との比較を行い、前記注目画素の大画素RAW信号の画素値に対して前記注目画素の小画素RAW信号の画素値をブレンドするブレンド処理で用いられるブレンド率を算出する算出部と、前記注目画素の大画素RAW信号の画素値と飽和判定閾値との比較を行い、前記注目画素の大画素RAW信号が飽和しているか否かを示す飽和判定値を出力する飽和判定部と、前記飽和判定値に従って、前記ブレンド率をそのまま出力するか、前記ブレンド率を1に置き換えて出力するかを選択する第1の選択部とを備える。
 本開示の一側面の信号処理方法またはプログラムは、注目画素の大画素RAW信号に基づいた基準信号と閾値との比較を行い、前記注目画素の大画素RAW信号の画素値に対して前記注目画素の小画素RAW信号の画素値をブレンドするブレンド処理で用いられるブレンド率を算出することと、前記注目画素の大画素RAW信号の画素値と飽和判定閾値との比較を行い、前記注目画素の大画素RAW信号が飽和しているか否かを示す飽和判定値を出力することと、前記飽和判定値に従って、前記ブレンド率をそのまま出力するか、前記ブレンド率を1に置き換えて出力するかを選択することとを含む。
 本開示の一側面においては、注目画素の大画素RAW信号に基づいた基準信号と閾値との比較を行い、注目画素の大画素RAW信号の画素値に対して注目画素の小画素RAW信号の画素値をブレンドするブレンド処理で用いられるブレンド率が算出され、注目画素の大画素RAW信号の画素値と飽和判定閾値との比較を行い、注目画素の大画素RAW信号が飽和しているか否かを示す飽和判定値が出力され、飽和判定値に従って、ブレンド率をそのまま出力するか、ブレンド率を1に置き換えて出力するかが選択される。
本技術を適用した画像処理部の一実施の形態の構成例を示すブロック図である。 画素値乗り替え方式について説明する図である。 輝度乗り替えに方式ついて説明する図である。 最大値乗り替え方式について説明する図である。 ブレンド率算出部の構成例を示すブロック図である。 本技術の効果について説明する図である。 ブレンド率算出処理を説明するフローチャートである。 画像処理システムの構成例を示すブロック図である。 撮像装置の構成例を示すブロック図である。 イメージセンサを使用する使用例を示す図である。
 以下、本技術を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。
 <画像処理部の構成例>
 図1は、本技術を適用した画像処理部の一実施の形態の構成例を示すブロック図である。
 図1に示すように、信号処理部11は、ブレンド率算出部21およびαブレンド処理部22を備えて構成される。
 例えば、信号処理部11は、後述の図8に示すようなセンサモジュール61に組み込まれて用いられ、センサモジュール61が備えるイメージセンサ71は、大面積のフォトダイオードを有して感度の高い大画素、および、小面積のフォトダイオードを有して感度の低い小画素を備えて構成される。そして、信号処理部11には、大画素が受光した光の光量に応じた画素信号である大画素RAW信号、および、小画素が受光した光の光量に応じた画素信号である小画素RAW信号が入力される。
 信号処理部11に入力された大画素RAW信号は、ブレンド率算出部21およびαブレンド処理部22に供給され、信号処理部11に入力された小画素RAW信号は、αブレンド処理部22に供給される。そして、信号処理部11は、ダイナミックレンジが拡大された画素信号であるHDR-RAW信号を出力する。
 ブレンド率算出部21は、大画素が飽和している程度を0~1.0の指標で表した値であるブレンド率αを算出し、αブレンド処理部22に供給する。なお、ブレンド率算出部21の詳細な構成については、図5を参照して後述する。
 αブレンド処理部22は、ブレンド率算出部21から供給されたブレンド率αに従って、大画素RAW信号に対して小画素RAW信号をブレンドするブレンド処理(HDR-RAW信号=大画素RAW信号×(1.0-α)+小画素RAW信号×α)を行うことによってHDR-RAW信号を生成する。
 ここで、ブレンド率算出部21は、ブレンド率αを算出する対象となる画素である注目画素のブレンド率αを算出する際に、注目画素の大画素RAW信号に基づいた基準信号BASEと所定の下限閾値および上限閾値とを比較する。例えば、ブレンド率算出部21は、基準信号BASEが下限閾値以下である場合には、ブレンド率αとして0を算出する。また、ブレンド率算出部21は、基準信号BASEが下限閾値から上限閾値までの間にある場合には、基準信号BASEが増加するのに従って0から1.0までの増加する値をブレンド率αとして算出する。また、ブレンド率算出部21は、基準信号BASEが上限閾値以上である場合には、ブレンド率αとして1.0を算出する。
 そして、ブレンド率算出部21は、基準信号BASEとして、注目画素における大画素RAW信号の画素値、注目画素を中心とした複数の画素の画素値から算出される輝度値、および、注目画素を中心とした複数の画素の画素値のうちの最大の画素値である最大値のうちのいずれかを用いて、ブレンド率αを算出することができる。以下では、注目画素における大画素RAW信号の画素値を基準信号BASEに用いてブレンド率αを算出する方式を画素値乗り替え方式と称する。また、注目画素を中心とした複数の画素の画素値から算出される輝度値を基準信号BASEに用いてブレンド率αを算出する方式を輝度乗り替え方式と称する。また、注目画素を中心とした複数の画素の画素値のうちの最大の画素値である最大値を基準信号BASEに用いてブレンド率αを算出する方式を最大値乗り替え方式と称する。
 図2乃至図4を参照して、画素値乗り替え方式、輝度乗り替え方式、および最大値乗り替え方式について説明する。
 図2は、画素値乗り替え方式について説明する図である。
 図2のAには、画素値乗り替え方式において、画素が受光する光の明るさとSN比との関係が示されている。
 画素値乗り替え方式では、例えば、図2のBに示すようなベイヤ配列の赤色の画素、緑色の画素、および青色の画素ごとに、注目画素の大画素RAW信号の画素値と閾値とが比較される。そして、その比較結果に基づいて、大画素RAW信号の画素値と小画素RAW信号の画素値との乗り替えが行われる。
 従って、画素値乗り替え方式では、図2のAにおいて破線で示すSN比の最低値が低くならないように担保される点(以下、飽和保証とも称する)が、輝度乗り替え方式(図3のA参照)および最大値乗り替え方式(図4のA参照)よりも利点となる。
 一方、画素値乗り替え方式では、緑色の大画素RAW信号の画素値Gr/Gb-1と緑色の小画素RAW信号の画素値Gr/Gb-2との乗り替えが行われる明るさ、赤色の大画素RAW信号の画素値R-1と赤色の小画素RAW信号の画素値R-2との乗り替えが行われる明るさ、および、青色の大画素RAW信号の画素値B-1と青色の小画素RAW信号の画素値B-2との乗り替えが行われる明るさが、それぞれ大きく異なることになる。従って、図2のAにおいて一点鎖線で挟まれる明るさの範囲では、緑色の小画素の画素値Gr/Gb-2、赤色の大画素の画素値R-1、および青色の大画素の画素値B-1の組み合わせ、または、緑色の小画素の画素値Gr/Gb-2、赤色の小画素の画素値R-2、および青色の大画素の画素値B-1の組み合わせが用いられる状況が発生してしまう。このため、それぞれの色における大画素RAW信号と小画素RAW信号とのSN比の違いやリニアリティのズレなどによって、この明るさの範囲において、最終的に偽色として画に現れる可能(以下、繋ぎ色付きとも称する)がある。
 また、画素値乗り替え方式では、画素値で判定を行うため、大画素RAW信号が飽和する直前(図2のCに示す上限閾値の直前)まで、SN比の良好な大画素RAW信号を使用することができる点(以下、繋ぎSN比と称する)が、輝度乗り替え方式および最大値乗り替え方式よりも利点となる。
 このように、画素値乗り替え方式は、繋ぎSN比が良好で、飽和保証が可能で、繋ぎ色付きが出やすいという特徴がある。
 図3は、輝度乗り替え方式について説明する図である。
 図3のAには、輝度乗り替え方式において、画素が受光する光の明るさとSN比との関係が示されている。
 輝度乗り替え方式では、例えば、図3のBに示すようなローパスフィルタ特性のフィルタ係数を用いて、注目画素を中心とした周辺の3×3タップの大画素RAW信号の画素値から注目画素の輝度が算出され、その輝度値と閾値とが比較される。そして、その比較結果に基づいて、大画素RAW信号の画素値と小画素RAW信号の画素値との乗り替えが行われる。
 従って、輝度乗り替え方式では、画素の色ごとの感度差がフィルタ係数によって平滑化されることになる結果、緑色の大画素RAW信号の画素値Gr/Gb-1と緑色の小画素RAW信号の画素値Gr/Gb-2との乗り替えが行われる明るさ、赤色の大画素RAW信号の画素値R-1と赤色の小画素RAW信号の画素値R-2との乗り替えが行われる明るさ、および、青色の大画素RAW信号の画素値B-1と青色の小画素RAW信号の画素値B-2との乗り替えが行われる明るさが、略一致することになる。従って、図3のAにおいて一点鎖線で挟まれる明るさの範囲が狭くなり、偽色が発生し難くなる点が、画素値乗り替え方式(図2のA参照)よりも利点となる。
 一方、輝度乗り替え方式では、色温度や被写体の色によって色バランスが異なるので、図3のAにおいて破線で示すSN比の最低値を担保することができなくなってしまう。
 また、輝度乗り替え方式では、フィルタ処理によって大画素RAW信号の飽和が低下するため、画素値乗り替え方式よりも、図3のCに示す上限閾値を低い値に設定する必要があり、乗り替え付近の明るさでSN比が悪化することになる。
 このように、輝度乗り替え方式は、繋ぎSN比がやや悪く、飽和保証が不可能で、繋ぎ色付きが出にくいという特徴がある。
 図4は、最大値乗り替え方式について説明する図である。
 図4のAには、最大値乗り替え方式において、画素が受光する光の明るさとSN比との関係が示されている。
 最大値乗り替え方式では、例えば、図4のBに示すような注目画素を中心とした周辺の3×3タップの大画素RAW信号の画素値のうちの最大値が選択され、その最大値と閾値とが比較される。そして、その比較結果に基づいて、大画素RAW信号の画素値と小画素RAW信号の画素値との乗り替えが行われる。
 従って、最大値乗り替え方式では、緑色の大画素RAW信号の画素値Gr/Gb-1と緑色の小画素RAW信号の画素値Gr/Gb-2との乗り替えが行われる明るさ、赤色の大画素RAW信号の画素値R-1と赤色の小画素RAW信号の画素値R-2との乗り替えが行われる明るさ、および、青色の大画素RAW信号の画素値B-1と青色の小画素RAW信号の画素値B-2との乗り替えが行われる明るさが、略一致することになる。従って、図4のAにおいて一点鎖線で挟まれる明るさの範囲が狭くなり、偽色が発生し難くなる点が、画素値乗り替え方式(図2のA参照)よりも利点となる。
 一方、最大値乗り替え方式では、最も感度の高い色の大画素RAW信号が飽和した段階で全ての色の大画素RAW信号の乗り替えが発生するため、図4のAにおいて破線で示すSN比の最低値が、画素値乗り替え方式(図2のA参照)および輝度乗り替え方式(図3のA参照)よりも低くなってしまう。
 また、最大値乗り替え方式では、大画素RAW信号の最大値で判定を行うため、大画素RAW信号の飽和が確実に出力されないようにすることができる点が、画素値乗り替え方式および輝度乗り替え方式よりも利点となる。
 このように、最大値乗り替え方式は、繋ぎSN比が悪く、飽和保証が可能で、繋ぎ色付きがやや出やすいという特徴がある。
 図2乃至図4を参照して説明したように、画素値乗り替え方式、輝度乗り替え方式、および最大値乗り替え方式は、それぞれの特徴があるが、偽色の発生による色付きを抑制することと、画素値が飽和されないように保証することとを両立することができなかった。
 そこで、ブレンド率算出部21は、注目画素となっている大画素が飽和しているか否かを判定する機能を備える。例えば、ブレンド率算出部21は、注目画素となっている大画素が飽和していないと判定した場合には、画素値乗り替え方式、輝度乗り替え方式、および最大値乗り替え方式のいずれかで求められたブレンド率αをそのまま用いることができる。例えば、信号処理部11では、繋ぎ色付きが出にくい輝度乗り替え方式で求められたブレンド率αをベースとすることが好適である。一方、ブレンド率算出部21は、注目画素となっている大画素が飽和していると判定した場合には、ブレンド率αとして1を用いることができる。これにより、偽色の発生による色付きを抑制することと、画素値が飽和されないように保証することとを両立することが可能となり、HDR-RAW信号に基づく画像の画質の向上を図ることができる。
 <ブレンド率算出部の構成例>
 図5は、ブレンド率算出部21の構成例を示すブロック図である。
 図5に示すように、ブレンド率算出部21は、第1のタップ生成部31、輝度生成部32、最大値選択部33、飽和判定部34、第1のセレクタ35、算出部36、第2のセレクタ37、第2のタップ生成部38、ローパスフィルタ処理部39、および第3のセレクタ40を備えて構成される。
 第1のタップ生成部31は、ブレンド率算出部21に順次供給される大画素RAW信号から、ブレンド率αを算出する対象となる画素である注目画素を中心とした3×3タップの大画素RAW信号の画素値を生成し、輝度生成部32および最大値選択部33に供給する。
 輝度生成部32は、3×3タップの大画素RAW信号の画素値に対してフィルタ係数(上述の図3のB参照)を掛け合わせることによって注目画素の輝度値Yを算出し、第1のセレクタ35に供給する。
 最大値選択部33は、3×3タップの大画素RAW信号の画素値のうちの最大値MAXを選択し、第1のセレクタ35に供給する。
 飽和判定部34は、注目画素の大画素RAW信号の画素値と飽和判定閾値SATU_THとの比較を行い、その比較結果に基づいて、1ビットの飽和判定値SATUを出力する。例えば、飽和判定部34は、注目画素の大画素RAW信号の画素値が飽和判定閾値SATU_THを超えている場合、飽和判定値SATUとして、大画素が飽和していることを示す1を出力する。一方、飽和判定部34は、注目画素の大画素RAW信号の画素値が飽和判定閾値SATU_THを超えていない場合、飽和判定値SATUとして、大画素が飽和していないことを示す0を出力する。飽和判定部34から出力される飽和判定値SATUは、第2のセレクタ37に供給されるとともに、ブレンド率算出部21の外部(図示しない後段の処理ブロック)に出力される。
 第1のセレクタ35は、注目画素の大画素RAW信号の画素値、輝度生成部32により生成された輝度値Y、および、最大値選択部33により選択された最大値MAXのうち、レジスタの設定に従って、いずれか1つを基準信号BASEとして選択し、算出部36に供給する。
 算出部36は、第1のセレクタ35から供給される基準信号BASEに従って、ブレンド率αを算出し、第2のセレクタ37に供給する。即ち、算出部36は、基準信号BASEが下限閾値以下である場合には、ブレンド率αとして0を算出する。また、算出部36は、基準信号BASEが下限閾値から上限閾値までの間にある場合には、基準信号BASEが増加するのに従って0から1.0までの増加する値をブレンド率αとして算出する。また、算出部36は、基準信号BASEが上限閾値以上である場合には、ブレンド率αとして1.0を算出する。
 第2のセレクタ37は、飽和判定部34から供給される飽和判定値SATUに基づいて、ブレンド率αを選択し、第2のタップ生成部38に供給する。例えば、第2のセレクタ37は、飽和判定値SATUが1でない場合、即ち、飽和判定値SATUが0である場合、算出部36から供給されるブレンド率αをそのまま出力する。一方、第2のセレクタ37は、飽和判定値SATUが1である場合、ブレンド率αとして1を出力する。即ち、飽和判定値SATUが1である場合には大画素が飽和していると判定されていることより、ブレンド率αが強制的に1に置き換えられることになる。
 第2のタップ生成部38は、第2のセレクタ37から順次供給されるブレンド率αから、注目画素を中心とした3×3タップのブレンド率αを生成し、ローパスフィルタ処理部39および第3のセレクタ40に供給する。
 ローパスフィルタ処理部39は、第2のタップ生成部38から供給される3×3タップのブレンド率αに対してローパスフィルタ(単純加算平均)を施し、ローパスフィルタが施された注目画素のブレンド率αを第3のセレクタ40に供給する。このように、ローパスフィルタを施すことによって、ブレンド率αが空間方向に急峻に変化する場合でも、合成後に色付きとなって見えてしまうことを抑制することができる。
 第3のセレクタ40は、ローパスフィルタが施されていない注目画素のブレンド率αに従って、ローパスフィルタが施されていない注目画素のブレンド率αが1である場合には、ブレンド率αをそのまま出力する。一方、第3のセレクタ40は、ローパスフィルタが施されていない注目画素のブレンド率αが1でない場合には、ローパスフィルタが施されたブレンド率αを出力する。即ち、ブレンド率αが1ある部分に対してローパスフィルタが施されることによって、ブレンド率αが1以下となった場合には、飽和保証ができなくなることが想定されるため、ブレンド率αが1ある部分に対してローパスフィルタが施されないようにする。
 図6を参照して、ブレンド率算出部21により算出されるブレンド率αを用いることによる効果について説明する。
 図6のAは、本来の被写体を表している。白色の領域は、明るいので小画素RAW信号が用いられる領域であり、黒色の領域は、暗いので大画素RAW信号が用いられる領域である。そして、白色の領域と黒色の領域との境界は、明暗差が大きく、この境界においてブレンド処理が行われることになる。
 図6のBは、従来技術で求められたブレンド率αを用いてブレンド処理が行われた画像を表している。図示するように、従来技術では、白色の領域と黒色の領域との境界においてガタつきやすく色アーチファクトが発生したり、本来出力されないはずの画素の飽和が出力されたりする可能性があるため、データとして信頼性が失われる恐れがある。つまり、画素値乗り替え方式、輝度乗り替え方式、および最大値乗り替え方式は、偽色の発生による色付きを抑制することと、画素値が飽和されないように保証することとを両立することができなかった。
 図6のCは、本技術で求められたブレンド率αを用いてブレンド処理が行われた画像を表している。図示するように、本技術では、従来技術と比較して、白色の領域と黒色の領域との境界におけるガタつきや色アーチファクトが抑制され、より本来の被写体に近い見た目となる。また、大画素RAW信号の飽和が出力されないことが保証されるため、データとしての信頼性が高い。つまり、本技術では、注目画素を中心とした複数(例えば、3×3タップ)の画素の画素値から生成される輝度値Yが基準信号BASEとして用いられる輝度乗り替え方式をベースとし、飽和判定部34によって大画素RAW信号の画素値の飽和判定を行うことで、偽色の発生による色付きを抑制することと、画素値が飽和されないように保証することとを両立することができる。
 <ブレンド率算出処理の処理例>
 図7は、ブレンド率算出部21において行われるブレンド率算出処理について説明するフローチャートである。
 ステップS11において、算出部36は、第1のセレクタ35から供給される基準信号BASEに従って、ブレンド率αを算出し、第2のセレクタ37に供給する。ここで、基準信号BASEとして、注目画素の大画素RAW信号の画素値、輝度生成部32により生成された輝度値Y、および、最大値選択部33により選択された最大値MAXのいずれかを選択することができるが、基本的に、輝度値Yを選択することで、偽色の発生による色付きの抑制を図ることができる。
 ステップS12において、飽和判定部34は、注目画素の大画素RAW信号の画素値と飽和判定閾値SATU_THとの比較を行い、その比較結果から飽和判定値SATUを求める。そして、飽和判定部34は、第2のセレクタ37に飽和判定値SATUを供給するとともに、ブレンド率算出部21の外部に飽和判定値SATUを出力する。
 ステップS13において、第2のセレクタ37は、ステップS12で飽和判定部34から供給された飽和判定値SATUが1であるか否かを判定する。
 ステップS13において、飽和判定値SATUが1でないと判定された場合(即ち、SATU=0)、処理はステップS14に進み、第2のセレクタ37は、ステップS11で算出部36から供給されたブレンド率αをそのまま出力し、第2のタップ生成部38に供給する。
 一方、ステップS13において、飽和判定値SATUが1であると判定された場合、処理はステップS15に進み、第2のセレクタ37は、ブレンド率αとして1を出力し、第2のタップ生成部38に供給する。
 ステップS14またはステップS15の処理後、処理はステップS16に進み、第2のタップ生成部38は、注目画素を中心とした3×3タップのブレンド率αを生成し、ローパスフィルタ処理部39および第3のセレクタ40に供給する。
 ステップS17において、ローパスフィルタ処理部39は、第2のタップ生成部38から供給される3×3タップのブレンド率αに対してローパスフィルタを施し、ローパスフィルタが施された注目画素のブレンド率αを第3のセレクタ40に供給する。
 ステップS18において、第3のセレクタ40は、ステップS16で第2のタップ生成部38から供給されたローパスフィルタが施されていない注目画素のブレンド率αが1であるか否かを判定する。
 ステップS18において、ローパスフィルタが施されていない注目画素のブレンド率αが1であると判定された場合、処理はステップS19に進み、第3のセレクタ40は、ローパスフィルタが施されていない注目画素のブレンド率αをそのまま出力する。
 一方、ステップS18において、ローパスフィルタが施されていない注目画素のブレンド率αが1でないと判定された場合、処理はステップS20に進み、第3のセレクタ40は、ステップS17でローパスフィルタ処理部39から供給されたローパスフィルタが施された注目画素のブレンド率αを出力する。
 ステップS19またはS20の処理後、処理は終了される。
 以上のように、ブレンド率算出部21は、繋ぎSN比がやや良好で、飽和保証が可能で、繋ぎ色付きが出にくいという特徴のブレンド率αを算出することができる。
 <画像処理システムの構成例>
 図8は、信号処理部11を備えた画像処理システムの構成例を示すブロック図である。
 図8に示すように、画像処理システム51は、センサモジュール61、ビューイングデバイス62、およびセンシングデバイス63を備えて構成される。
 センサモジュール61は、イメージセンサ71および信号処理部11を有して構成される。イメージセンサ71は、感度の高い大画素および感度の低い小画素を備えるサブピクセル構造であり、大画素から出力される大画素RAW信号、および、小画素から出力される小画素RAW信号を、信号処理部11に供給する。
 信号処理部11は、ブレンド率算出部21において算出されたブレンド率αに従ってαブレンド処理部22で行われるブレンド処理で求められるHDR-RAW信号の画像データを出力する。また、信号処理部11は、飽和判定部34により求められる飽和判定値SATUを、飽和フラグとして出力する。
 ビューイングデバイス62は、プロセッシングユニット81およびユーザインタフェース82を有して構成される。プロセッシングユニット81は、撮像用信号処理部83および撮像用DNN(Deep Neural Network)84を有しており、ユーザインタフェース82は、ディスプレイ85を有している。ビューイングデバイス62には、信号処理部11から出力される画像データが供給され、撮像用信号処理部83において画像データに対する撮像用の信号処理が施されるとともに、撮像用DNN84において画像データに対する撮像用の深層学習が行われる。そして、撮像用の信号処理が施された画像データに基づく画像がディスプレイ85に表示されるとともに、画像データに対する撮像用の深層学習によって認識された認識結果がディスプレイ85に表示される。
 センシングデバイス63は、プロセッシングユニット91およびADAS(Advanced Driver-Assistance Systems)92を有して構成される。プロセッシングユニット91は、認識用信号処理部93および認識用DNN94を有している。センシングデバイス63には、信号処理部11から出力される画像データおよび飽和フラグが供給され、認識用信号処理部93において飽和フラグを参照して画像データに対する認識用の信号処理が施されるとともに、認識用DNN94において飽和フラグを参照して画像データに対する認識用の深層学習が行われる。そして、認識用の信号処理が施された画像データと、画像データに対する認識用の深層学習によって認識された認識結果とがADAS92に供給され、ADAS92による車両制御が行われる。
 このように、センシングデバイス63は、飽和フラグを参照した画像データに対する認識用の信号処理、および、飽和フラグを参照した画像データに対する認識用の深層学習を行うことで、誤認識が発生することを回避することができる。
 例えば、突発的に強い光がセンサモジュール61に入射した場合、信号処理部11は、大画素RAW信号が飽和しているか否かの判定を行って、画像データとともに飽和フラグをセンシングデバイス63に供給することができる。上述したように、飽和フラグの情報(飽和判定値SATU)は、大画素RAW信号の画素値と小画素RAW信号の画素値との乗り替えが行われるタイミングを示している。従って、センシングデバイス63において、飽和フラグに従って、大画素RAW信号に適した認識用の信号処理および認識用の深層学習のアルゴリズムと、小画素RAW信号に適した認識用の信号処理および認識用の深層学習のアルゴリズムとを切り替えることができる。
 例えば、大画素RAW信号に適した認識用の信号処理および認識用の深層学習のアルゴリズムでは、暗い部分に特化した処理(例えば、認識前にノイズリダクションを強くかけることによるノイズの除去)を行うことができる。また、小画素RAW信号に適した認識用の信号処理および認識用の深層学習のアルゴリズムでは、明るい部分に特化した処理(例えば、太陽の周りなどのフレアの除去)を行うことができる。
 このように、画像処理システム51は、それぞれの明るさに最適な認識用の信号処理および認識用の深層学習が可能となる結果、認識率を向上させることができ、誤認識の発生を回避することができる。
 なお、本発明は、例えば、サブピクセル構造以外のHDR合成にも適用することができる。また、ローパスフィルタ処理部39が3×3タップのブレンド率αに対してローパスフィルタを施す際に用いる係数について、加算平均以外の係数を用いてもよい。または、ローパスフィルタ処理部39が、複数の係数を保持しており、必要に応じて係数を選択できるようにしてもよい。
 <電子機器の構成例>
 上述したような信号処理部11を備えるセンサモジュール61は、例えば、デジタルスチルカメラやデジタルビデオカメラなどの撮像システム、撮像機能を備えた携帯電話機、または、撮像機能を備えた他の機器といった各種の電子機器に適用することができる。
 図9は、電子機器に搭載される撮像装置の構成例を示すブロック図である。
 図9に示すように、撮像装置101は、光学系102、撮像素子103、信号処理回路104、モニタ105、およびメモリ106を備えて構成され、静止画像および動画像を撮像可能である。
 光学系102は、1枚または複数枚のレンズを有して構成され、被写体からの像光(入射光)を撮像素子103に導き、撮像素子103の受光面(センサ部)に結像させる。
 撮像素子103としては、上述したセンサモジュール61が適用される。撮像素子103には、光学系102を介して受光面に結像される像に応じて、一定期間、電子が蓄積される。そして、撮像素子103に蓄積された電子に応じた信号が信号処理回路104に供給される。
 信号処理回路104は、撮像素子103から出力された画素信号に対して各種の信号処理を施す。信号処理回路104が信号処理を施すことにより得られた画像(画像データ)は、モニタ105に供給されて表示されたり、メモリ106に供給されて記憶(記録)されたりする。
 このように構成されている撮像装置101では、上述した信号処理部11を備えるセンサモジュール61を適用することで、例えば、より高画質な画像を撮像することができる。
 <イメージセンサの使用例>
 図10は、上述のイメージセンサ(撮像素子)を使用する使用例を示す図である。
 上述したイメージセンサは、例えば、以下のように、可視光や、赤外光、紫外光、X線等の光をセンシングする様々なケースに使用することができる。
 ・ディジタルカメラや、カメラ機能付きの携帯機器等の、鑑賞の用に供される画像を撮影する装置
 ・自動停止等の安全運転や、運転者の状態の認識等のために、自動車の前方や後方、周囲、車内等を撮影する車載用センサ、走行車両や道路を監視する監視カメラ、車両間等の測距を行う測距センサ等の、交通の用に供される装置
 ・ユーザのジェスチャを撮影して、そのジェスチャに従った機器操作を行うために、TVや、冷蔵庫、エアーコンディショナ等の家電に供される装置
 ・内視鏡や、赤外光の受光による血管撮影を行う装置等の、医療やヘルスケアの用に供される装置
 ・防犯用途の監視カメラや、人物認証用途のカメラ等の、セキュリティの用に供される装置
 ・肌を撮影する肌測定器や、頭皮を撮影するマイクロスコープ等の、美容の用に供される装置
 ・スポーツ用途等向けのアクションカメラやウェアラブルカメラ等の、スポーツの用に供される装置
 ・畑や作物の状態を監視するためのカメラ等の、農業の用に供される装置
 <構成の組み合わせ例>
 なお、本技術は以下のような構成も取ることができる。
(1)
 注目画素の大画素RAW信号に基づいた基準信号と閾値との比較を行い、前記注目画素の大画素RAW信号の画素値に対して前記注目画素の小画素RAW信号の画素値をブレンドするブレンド処理で用いられるブレンド率を算出する算出部と、
 前記注目画素の大画素RAW信号の画素値と飽和判定閾値との比較を行い、前記注目画素の大画素RAW信号が飽和しているか否かを示す飽和判定値を出力する飽和判定部と、
 前記飽和判定値に従って、前記ブレンド率をそのまま出力するか、前記ブレンド率を1に置き換えて出力するかを選択する第1の選択部と
 を備える信号処理装置。
(2)
 前記基準信号として、前記注目画素を中心とした複数の画素の画素値から算出される輝度値が用いられる
 上記(1)に記載の信号処理装置。
(3)
 前記第1の選択部から出力される前記ブレンド率から、前記注目画素を中心とした所定範囲のタップの前記ブレンド率を生成するタップ生成部と、
 前記タップの前記ブレンド率に対してローパスフィルタを施すローパスフィルタ処理部と
 をさらに備える上記(1)または(2)に記載の信号処理装置。
(4)
 前記ローパスフィルタが施される前の前記注目画素の前記ブレンド率が1である場合には、そのブレンド率をそのまま出力し、前記ローパスフィルタが施される前の前記注目画素の前記ブレンド率が1でない場合には、前記ローパスフィルタが施された前記注目画素の前記ブレンド率を出力する第2の選択部
 をさらに備える上記(3)に記載の信号処理装置。
(5)
 前記ブレンド処理が施されたダイナミックレンジの広い画像を用いた認識処理を行うセンシングデバイスで参照される飽和フラグとして、前記飽和判定値が出力される
 上記(1)から(4)までのいずれかに記載の信号処理装置。
(6)
 注目画素の大画素RAW信号に基づいた基準信号と閾値との比較を行い、前記注目画素の大画素RAW信号の画素値に対して前記注目画素の小画素RAW信号の画素値をブレンドするブレンド処理で用いられるブレンド率を算出することと、
 前記注目画素の大画素RAW信号の画素値と飽和判定閾値との比較を行い、前記注目画素の大画素RAW信号が飽和しているか否かを示す飽和判定値を出力することと、
 前記飽和判定値に従って、前記ブレンド率をそのまま出力するか、前記ブレンド率を1に置き換えて出力するかを選択することと
 を含む信号処理方法。
(7)
 信号処理装置のコンピュータに、
 注目画素の大画素RAW信号に基づいた基準信号と閾値との比較を行い、前記注目画素の大画素RAW信号の画素値に対して前記注目画素の小画素RAW信号の画素値をブレンドするブレンド処理で用いられるブレンド率を算出することと、
 前記注目画素の大画素RAW信号の画素値と飽和判定閾値との比較を行い、前記注目画素の大画素RAW信号が飽和しているか否かを示す飽和判定値を出力することと、
 前記飽和判定値に従って、前記ブレンド率をそのまま出力するか、前記ブレンド率を1に置き換えて出力するかを選択することと
 を含む信号処理を実行させるためのプログラム。
 なお、本実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。また、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
 11 信号処理部, 21 ブレンド率算出部, 22 αブレンド処理部, 31 第1のタップ生成部, 32 輝度生成部, 33 最大値選択部, 34 飽和判定部, 35 第1のセレクタ, 36 算出部, 37 第2のセレクタ, 38 第2のタップ生成部, 39 ローパスフィルタ処理部, 40 第3のセレクタ, 51 画像処理システム, 61 センサモジュール, 62 ビューイングデバイス, 63 センシングデバイス, 71 イメージセンサ, 81 プロセッシングユニット, 82 ユーザインタフェース, 83 撮像用信号処理部, 84 撮像用DNN, 85 ディスプレイ, 91 プロセッシングユニット, 92 ADAS, 93 認識用信号処理部, 94 認識用DNN

Claims (7)

  1.  注目画素の大画素RAW信号に基づいた基準信号と閾値との比較を行い、前記注目画素の大画素RAW信号の画素値に対して前記注目画素の小画素RAW信号の画素値をブレンドするブレンド処理で用いられるブレンド率を算出する算出部と、
     前記注目画素の大画素RAW信号の画素値と飽和判定閾値との比較を行い、前記注目画素の大画素RAW信号が飽和しているか否かを示す飽和判定値を出力する飽和判定部と、
     前記飽和判定値に従って、前記ブレンド率をそのまま出力するか、前記ブレンド率を1に置き換えて出力するかを選択する第1の選択部と
     を備える信号処理装置。
  2.  前記基準信号として、前記注目画素を中心とした複数の画素の画素値から生成される輝度値が用いられる
     請求項1に記載の信号処理装置。
  3.  前記第1の選択部から出力される前記ブレンド率から、前記注目画素を中心とした所定範囲のタップの前記ブレンド率を生成するタップ生成部と、
     前記タップの前記ブレンド率に対してローパスフィルタを施すローパスフィルタ処理部と
     をさらに備える請求項1に記載の信号処理装置。
  4.  前記ローパスフィルタが施される前の前記注目画素の前記ブレンド率が1である場合には、そのブレンド率をそのまま出力し、前記ローパスフィルタが施される前の前記注目画素の前記ブレンド率が1でない場合には、前記ローパスフィルタが施された前記注目画素の前記ブレンド率を出力する第2の選択部
     をさらに備える請求項3に記載の信号処理装置。
  5.  前記ブレンド処理が施されたダイナミックレンジの広い画像を用いた認識処理を行うセンシングデバイスで参照される飽和フラグとして、前記飽和判定値が出力される
     請求項1に記載の信号処理装置。
  6.  注目画素の大画素RAW信号に基づいた基準信号と閾値との比較を行い、前記注目画素の大画素RAW信号の画素値に対して前記注目画素の小画素RAW信号の画素値をブレンドするブレンド処理で用いられるブレンド率を算出することと、
     前記注目画素の大画素RAW信号の画素値と飽和判定閾値との比較を行い、前記注目画素の大画素RAW信号が飽和しているか否かを示す飽和判定値を出力することと、
     前記飽和判定値に従って、前記ブレンド率をそのまま出力するか、前記ブレンド率を1に置き換えて出力するかを選択することと
     を含む信号処理方法。
  7.  信号処理装置のコンピュータに、
     注目画素の大画素RAW信号に基づいた基準信号と閾値との比較を行い、前記注目画素の大画素RAW信号の画素値に対して前記注目画素の小画素RAW信号の画素値をブレンドするブレンド処理で用いられるブレンド率を算出することと、
     前記注目画素の大画素RAW信号の画素値と飽和判定閾値との比較を行い、前記注目画素の大画素RAW信号が飽和しているか否かを示す飽和判定値を出力することと、
     前記飽和判定値に従って、前記ブレンド率をそのまま出力するか、前記ブレンド率を1に置き換えて出力するかを選択することと
     を含む信号処理を実行させるためのプログラム。
PCT/JP2022/048173 2022-01-12 2022-12-27 信号処理装置および信号処理方法、並びにプログラム WO2023136134A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022-002749 2022-01-12
JP2022002749 2022-01-12

Publications (1)

Publication Number Publication Date
WO2023136134A1 true WO2023136134A1 (ja) 2023-07-20

Family

ID=87279037

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/048173 WO2023136134A1 (ja) 2022-01-12 2022-12-27 信号処理装置および信号処理方法、並びにプログラム

Country Status (1)

Country Link
WO (1) WO2023136134A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007325145A (ja) * 2006-06-05 2007-12-13 Fujifilm Corp 画像処理装置および方法並びにプログラム
JP2017224971A (ja) * 2016-06-15 2017-12-21 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
JP2018166242A (ja) * 2017-03-28 2018-10-25 ソニーセミコンダクタソリューションズ株式会社 画像処理装置、画像処理方法、および電子機器

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007325145A (ja) * 2006-06-05 2007-12-13 Fujifilm Corp 画像処理装置および方法並びにプログラム
JP2017224971A (ja) * 2016-06-15 2017-12-21 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
JP2018166242A (ja) * 2017-03-28 2018-10-25 ソニーセミコンダクタソリューションズ株式会社 画像処理装置、画像処理方法、および電子機器

Similar Documents

Publication Publication Date Title
US10200664B2 (en) Image processing apparatus, image device, image processing method, and program for reducing noise or false colors in an image
US8436910B2 (en) Image processing apparatus and image processing method
US8363131B2 (en) Apparatus and method for local contrast enhanced tone mapping
KR100843084B1 (ko) 노이즈 저감 방법 및 장치
CN108712608B (zh) 终端设备拍摄方法和装置
JP7077395B2 (ja) 多重化高ダイナミックレンジ画像
US8681242B2 (en) Image signal processing system
WO2011151867A1 (ja) 撮像装置、撮像方法およびプログラム
US20110080494A1 (en) Imaging apparatus detecting foreign object adhering to lens
CN107395991B (zh) 图像合成方法、装置、计算机可读存储介质和计算机设备
US11671715B2 (en) High dynamic range technique selection for image processing
US8988562B2 (en) Image processing apparatus and image processing method
US8189066B2 (en) Image processing apparatus, image processing method, and computer-readable medium
JP2010136224A (ja) 撮像装置及び撮像方法
JP2017092898A (ja) 撮像装置、撮像方法、およびプログラム
JP2022179514A (ja) 制御装置、撮像装置、制御方法およびプログラム
EP1557790A2 (en) Noise reduction in low-illuminance image
WO2018180843A1 (ja) 表示装置
WO2019155757A1 (ja) 画像処理装置、画像処理方法及び画像処理システム
JP2008017079A (ja) ビデオカメラ
US20080012964A1 (en) Image processing apparatus, image restoration method and program
WO2023136134A1 (ja) 信号処理装置および信号処理方法、並びにプログラム
US20180176445A1 (en) Imaging device and imaging method
US20100303355A1 (en) Image processing apparatus, image processing method, and image processing program
JP2010098553A (ja) 階調補正装置、階調補正方法、プログラム、撮像装置および画像処理装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22920650

Country of ref document: EP

Kind code of ref document: A1