WO2023144894A1 - 画像処理装置および画像処理方法 - Google Patents

画像処理装置および画像処理方法 Download PDF

Info

Publication number
WO2023144894A1
WO2023144894A1 PCT/JP2022/002723 JP2022002723W WO2023144894A1 WO 2023144894 A1 WO2023144894 A1 WO 2023144894A1 JP 2022002723 W JP2022002723 W JP 2022002723W WO 2023144894 A1 WO2023144894 A1 WO 2023144894A1
Authority
WO
WIPO (PCT)
Prior art keywords
correction
image data
white balance
degree
light source
Prior art date
Application number
PCT/JP2022/002723
Other languages
English (en)
French (fr)
Inventor
創一 萩原
有司 梅津
順三 櫻井
Original Assignee
株式会社ソシオネクスト
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ソシオネクスト filed Critical 株式会社ソシオネクスト
Priority to PCT/JP2022/002723 priority Critical patent/WO2023144894A1/ja
Publication of WO2023144894A1 publication Critical patent/WO2023144894A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/73Colour balance circuits, e.g. white balance circuits or colour temperature control

Definitions

  • the present invention relates to an image processing device and an image processing method.
  • an image processing device there is a method of estimating the light source and correcting the color of the image using a color profile created for each type of light source during white balance processing for an image shot under a light source that has a strong color cast. known (see, for example, Patent Document 1).
  • Patent Document 1 There is a known technique for suppressing the saturation of image data based on the color temperature specified from the subject image when the subject image includes a specific light-emitting body during white balance processing for an image captured under illumination ( For example, see Patent Document 2).
  • the color reproducibility of the self-luminous subject can be improved by performing auto white balance processing on the photographed image. may decrease.
  • the present invention has been made in view of the above points, and even when the self-luminous subject is included in the subject area illuminated by the illumination of the main light source, the deterioration of the color reproducibility of the self-luminous subject due to auto white balance processing is achieved.
  • the purpose is to suppress
  • an image processing apparatus includes: an image data acquisition unit that acquires first image data; and a white balance value calculator that calculates a white balance value used in auto white balance processing according to the first image data.
  • a first white balance correction unit that performs auto white balance processing on the first image data according to the white balance value to generate first post-correction image data; an area detection unit that calculates a first luminance, which is luminance obtained by adding a color difference component amount to the luminance, and detects a first area including pixels having the first luminance greater than a first threshold; and the first post-correction image data.
  • a correction degree calculation unit that calculates a correction degree of color information of pixels included in at least the first region according to the first luminance; and a color information correction unit that corrects the color information of the pixel according to the degree of correction.
  • the disclosed technology even when the self-luminous subject is included in the subject area illuminated by the main light source, it is possible to suppress deterioration in the color reproducibility of the self-luminous subject due to auto white balance processing.
  • FIG. 1 is an image diagram showing an example of an image processing system including an image processing device according to a first embodiment
  • FIG. FIG. 2 is a block diagram showing the outline of the configuration of various devices mounted on the moving body of FIG. 1;
  • 3 is a block diagram showing an example of the configuration of the image processing apparatus of FIG. 2;
  • FIG. 3 is a functional block diagram showing an example of the functional configuration of the image processing apparatus of FIG. 2;
  • FIG. 3 is a flow chart showing an example of the operation of the image processing apparatus of FIG. 2;
  • FIG. FIG. 5 is an explanatory diagram showing an example of processing by the point light source region detection unit in FIG. 4;
  • 5 is an explanatory diagram showing an example of processing by a correction degree calculation unit and processing by a point light source region correction unit in FIG. 4;
  • FIG. 5 is a functional block diagram showing an example of the functional configuration of an image processing apparatus according to a second embodiment
  • FIG. FIG. 9 is a flow diagram showing an example of the operation of the image processing apparatus of FIG. 8
  • FIG. 11 is a functional block diagram showing an example of the functional configuration of an image processing apparatus according to a third embodiment
  • FIG. FIG. 14 is a flow chart showing an example of the operation of the image processing apparatus of the fourth embodiment
  • FIG. 12 is an explanatory diagram showing an example of processing in step S65 of FIG. 11
  • FIG. 12 is an explanatory diagram showing an example of image correction according to the processing flow of FIG. 11
  • FIG. 12 is an explanatory diagram showing another example of the process of step S65 of FIG. 11
  • FIG. 12 is a functional block diagram showing an example of the functional configuration of an image processing apparatus according to a fifth embodiment
  • FIG. FIG. 16 is an explanatory diagram showing an example of point light source detection processing by the point light source region detection unit in FIG. 15
  • 16 is a flowchart showing an example of the operation of the image processing apparatus of FIG. 15
  • FIG. FIG. 18 is a flowchart showing the continuation of the operation of FIG. 17
  • FIG. 21 is an explanatory diagram showing an example of correction degree calculation processing by the image processing apparatus according to the sixth embodiment
  • FIG. 21 is an explanatory diagram showing an example of correction degree calculation processing by the image processing apparatus of the seventh embodiment
  • FIG. 21 is a functional block diagram showing an example of the functional configuration of an image processing apparatus according to an eighth embodiment
  • FIG. FIG. 22 is an explanatory diagram showing an example of processing by the point light source region detection unit in FIG. 21;
  • image data may be simply referred to as an image.
  • a pixel value or pixel data may be simply referred to as a pixel.
  • the embodiment described below has a remarkable effect in a situation where the subject is illuminated by streetlights at night or in a tunnel. A predetermined effect can be obtained even in bad weather conditions such as
  • FIG. 1 shows an example of an image processing system including an image processing device according to the first embodiment.
  • the image processing system 100 shown in FIG. 1 is mounted on a moving body 500 such as an automobile, for example.
  • Imaging devices 507A, 507B, 507C, 507D, and 507E such as cameras are installed in front, rear, left and right sides of the moving body 500 and in front of the inside of the vehicle of the moving body 500 .
  • the imaging devices 507A, 507B, 507C, 507D, and 507E are also referred to as an imaging device 507 when they are described without distinction.
  • the number and installation positions of the imaging devices 507 installed on the moving body 500 are not limited to those shown in FIG.
  • one imaging device 507 may be installed only in front of the moving body 500, or two imaging devices 507 may be installed in front and behind.
  • the imaging device 507 may be installed on the ceiling of the moving object 500 .
  • the mobile object 500 on which the image processing system 100 is mounted is not limited to an automobile, and may be, for example, a carrier robot or drone operating in a factory.
  • the image processing system 100 may be a system that processes an image acquired from an imaging device other than the imaging device installed on the moving object 500, such as a surveillance camera, a digital still camera, or a digital camcorder.
  • the image processing system 100 has an image processing device 200 , an information processing device 300 and a display device 400 .
  • the image processing system 100 is superimposed on the image diagram of the moving body 500 viewed from above.
  • the image processing device 200 and the information processing device 300 are mounted on a control board or the like mounted on the moving body 500
  • the display device 400 is installed at a position visible to a person inside the moving body 500 .
  • the image processing device 200 may be mounted on a control board or the like as part of the information processing device 300 .
  • Each imaging device 507 is connected to the image processing device 200 via a signal line or wirelessly.
  • FIG. 2 shows an outline of the configuration of various devices mounted on the moving body 500 of FIG.
  • a mobile object 500 has an image processing device 200, an information processing device 300, a display device 400, at least one ECU (Electronic Control Unit) 501, and a wireless communication device 502, which are interconnected via an internal network.
  • the moving body 500 has a sensor 503 , a driving device 504 , a lamp device 505 , a navigation device 506 and an imaging device 507 .
  • the internal network is an in-vehicle network such as CAN (Controller Area Network) or Ethernet (registered trademark).
  • the image processing device 200 corrects the image data (frame data) acquired by the imaging device 507 and generates post-correction image data. For example, the image processing device 200 displays the generated post-correction image data on the display device 400 . Note that the image processing apparatus 200 may record the generated post-correction image data in an external or internal recording device.
  • the information processing device 300 includes a computer such as a processor that performs recognition processing and the like based on image data received via the image processing device 200 .
  • the information processing device 300 mounted on the moving body 500 detects other moving bodies, traffic lights, signs, road white lines, people, etc. by performing recognition processing of image data, and based on the detection result, The situation around the moving body 500 is determined.
  • the information processing device 300 controls the entire moving body 500 by controlling the ECU 501 .
  • the information processing device 300 may include an automatic operation control device that controls the movement, stop, right turn, left turn, etc. of the mobile object 500 .
  • the information processing device 300 may have a function of recognizing an object outside the moving object 500 based on the image generated by the image processing device 200, and have a function of tracking the recognized object.
  • the display device 400 displays the image generated by the image processing device 200, the corrected image, and the like.
  • the display device 400 is, for example, a side mirror monitor, a rearview mirror monitor, or a display of a navigation device installed on the moving object 500 .
  • the display device 400 may be a display provided on a dashboard or the like, or a head-up display that projects an image onto a projection plate, a windshield, or the like.
  • the display device 400 may display an image of the moving body 500 in the backward direction in real time when the moving body 500 moves backward. Further, display device 400 may display images output from navigation device 506 .
  • the ECU 501 is provided corresponding to each mechanical section such as an engine or a transmission. Each ECU 501 controls a corresponding mechanism based on instructions from the information processing device 300 .
  • a wireless communication device 502 communicates with a device external to the mobile object 500 .
  • a sensor 503 is a sensor that detects various types of information. Sensors 503 may include, for example, a position sensor that obtains current position information of mobile object 500 . Sensor 503 may also include a speed sensor that detects the speed of moving body 500 .
  • the drive device 504 is various devices for moving the moving body 500 .
  • the drive system 504 may include, for example, an engine, a steering system, a braking system (brakes), and the like.
  • the lamp device 505 is various lamps mounted on the moving body 500 .
  • the lamp device 505 may include, for example, headlights (headlamps, headlights), turn indicator lamps, backlights, brake lamps, and the like.
  • the navigation device 506 is a device that guides the route to the destination by voice and display.
  • FIG. 3 shows an example of the configuration of the image processing device 200 of FIG. Note that the information processing apparatus 300 in FIG. 2 also has the same configuration as in FIG.
  • the image processing apparatus 200 has a CPU 20, an interface device 21, a drive device 22, an auxiliary storage device 23 and a memory device 24 interconnected by a bus BUS.
  • the interface device 21 is used to connect to a network (not shown).
  • the auxiliary storage device 23 is, for example, a HDD (Hard Disk Drive) or SSD (Solid State Drive), and holds image processing programs, image data, various parameters used for image processing, and the like.
  • the memory device 24 is, for example, a DRAM (Dynamic Random Access Memory) or the like, and holds image processing programs and the like transferred from the auxiliary storage device 23 .
  • the drive device 22 has an interface for connecting the recording medium 30, and transfers the image processing program stored in the recording medium 30 to the auxiliary storage device 23 based on instructions from the CPU 20, for example.
  • the drive device 22 may transfer image data and the like stored in the auxiliary storage device 23 to the recording medium 30 .
  • FIG. 4 shows an example of the functional configuration of the image processing device 200 of FIG.
  • Each functional unit of the image processing device 200 shown in FIG. hardware may be realized by cooperating software and hardware.
  • the image processing device 200 has an image data acquisition section 210 , a WB (white balance) value calculation section 220 , a WB (white balance) correction section 230 , and an image correction section 240 .
  • the image correction section 240 has a point light source area detection section 250 , a correction degree calculation section 260 and a point light source area correction section 270 .
  • white balance is also referred to as WB
  • AWB auto white balance
  • the image data acquisition unit 210 performs image data acquisition processing for acquiring image data (for example, frame data) representing an image captured by, for example, the imaging device 507E or the imaging device 507A among the plurality of imaging devices 507 shown in FIG. to implement.
  • image data acquired by the image data acquisition unit 210 is an example of first image data.
  • the image data acquisition unit 210 may acquire image data representing images captured by the imaging devices 507 other than the imaging devices 507E and 507A, and image data representing images captured by all the imaging devices 507 may be acquired. may be obtained.
  • the WB value calculation unit 220 Based on the image data acquired by the image data acquisition unit 210, the WB value calculation unit 220 performs detection to determine the main light source illuminating the subject, and calculates the WB value corresponding to the determined light source. Perform balance value calculation processing. That is, the WB value calculator 220 calculates a white balance value used for auto white balance processing.
  • the WB correction unit 230 performs auto white balance processing for each pixel of the image data according to the WB value calculated by the WB value calculation unit 220, and performs first white balance correction processing for generating first corrected image data. do.
  • each pixel that performs auto white balance processing includes one red pixel, one blue pixel, and two green pixels arranged in a Bayer array.
  • the WB corrector 230 is an example of a first white balance corrector.
  • the point light source region detection unit 250 performs region detection processing for detecting a point light source region (pixel region) included in the first post-correction image data.
  • the point light source area detection section 250 is an example of an area detection section, and the point light source area is an example of a first area.
  • the point light source includes a self-luminous subject such as a vehicle headlight or traffic light.
  • the point light source area may include not only the area of the self-luminous subject, but also the area where halation is generated by the self-luminous subject and the area of the subject that reflects the light emitted from the self-luminous subject.
  • the point light source area detection unit 250 outputs point light source area information indicating the detected point light source area to the correction degree calculation unit 260 . An example of point light source detection processing by the point light source region detection unit 250 will be described with reference to FIG.
  • the point light source area detection unit 250 detects, for each pixel of the first corrected image data, a luminance A, which will be described later, which is luminance including a color difference component amount, and a threshold value of the luminance A used for detecting the point light source area. You may output to the correction degree calculation part 260 as light source region information. Further, the point light source area detection section 250 may output the luminance A of each pixel of the first post-correction image data to the correction degree calculation section 260 as the point light source area information. In this case, the correction degree calculation unit 260 performs the process of detecting a pixel region having a luminance A equal to or higher than a predetermined threshold as a point light source region. included. The point light source area detection unit 250 functions as a luminance calculation unit that calculates the luminance A. FIG.
  • the correction degree calculation unit 260 performs correction degree calculation processing for calculating the correction degree ⁇ used for correcting the color information of the pixels in the point light source region according to the point light source region information. Note that the correction degree calculation unit 260 may calculate the correction degree ⁇ for each pixel of the first post-correction image data including not only the point light source region but also the point light source region. An example of calculation of the degree of correction ⁇ by the degree-of-correction calculator 260 will be described with reference to FIG.
  • the point light source area correction unit 270 performs color information correction processing for correcting the color information of each pixel of the point light source area included in the first corrected image data using the correction degree ⁇ calculated by the correction degree calculation unit 260. implement.
  • the point light source area corrector 270 is an example of a color information corrector. A method of further correcting the first post-correction image data that has undergone auto white balance correction using the degree of correction ⁇ will be described with reference to FIG.
  • the point light source area correction unit 270 outputs corrected image data obtained by correcting the color information of the pixels of the point light source area included in the first corrected image data to at least one of the display device 400 and the information processing device 300 .
  • FIG. 5 shows an example of the operation of the image processing device 200 of FIG. 5 shows an example of an image processing method by the image processing device 200, and shows an example of an image processing program executed by the image processing device 200.
  • FIG. 5 shows an example of the operation of the image processing device 200 of FIG. 5 shows an example of an image processing method by the image processing device 200, and shows an example of an image processing program executed by the image processing device 200.
  • step S ⁇ b>10 the image processing device 200 acquires image data captured by each imaging device 507 by using the image data acquisition unit 210 , for example.
  • step S20 the image processing apparatus 200, for example, uses the WB value calculator 220 to perform detection processing for auto white balance processing based on the acquired image data, and calculates the WB value.
  • step S30 the image processing apparatus 200 performs white balance processing on the image data according to the WB value by using the WB correction unit 230, for example, to generate first post-correction image data.
  • the image processing apparatus 200 performs correction processing of the first post-correction image data by the image correction unit 240, for example.
  • the image processing apparatus 200 detects a point light source area included in the first post-correction image data by using the point light source area detection unit 250, for example.
  • a point light source region may be indicated by a luminance A and a threshold.
  • step S50 the image processing apparatus 200 causes the correction degree calculation unit 260, for example, to calculate the color information of at least the pixels of the point light source region in the first post-correction image data according to the luminance A of the point light source region. Calculate the degree of correction ⁇ used for correction.
  • step S60 the image processing apparatus 200 causes the point light source region correction unit 270, for example, the correction degree calculation unit 260 to calculate the color information of at least the pixels of the point light source region in the first post-correction image data. Correct using the degree of correction ⁇ . Then, the point light source area correction unit 270 generates post-correction image data, and ends the processing shown in FIG.
  • FIG. 6 shows an example of processing by the point light source area detection unit 250 in FIG.
  • the point light source region detection unit 250 calculates the distance ⁇ C from the origin of the color of each pixel of the first post-correction image data subjected to white balance processing in the color difference space CbCr.
  • the distance ⁇ C indicates, for example, the color density of the pixel.
  • the point light source region detection unit 250 calculates the brightness A by adding the brightness Y of the pixel and the calculated distance ⁇ C using Equation (1).
  • Luminance A Y+k ⁇ C (1)
  • the luminance A is the sum of the luminance Y, which is the luminance information of the pixel expressed in the YCbCr color space, and the value obtained by multiplying the distance ⁇ C, which is an index of the color depth (vividness) of the pixel, by a coefficient k, It is an example of the first luminance.
  • the coefficient k is used to adjust the weighting of the distance ⁇ C and is a value greater than "0".
  • the coefficient k is set in advance when the image processing device 200 is designed or when its performance is evaluated.
  • the luminance A of a self-luminous subject having a large luminance Y and a relatively large distance ⁇ C is large.
  • the luminance Y of a main light source such as a street lamp that irradiates illumination light onto a subject photographed by the imaging device 507 is large.
  • the brightness A of the main light source is sufficiently smaller than the brightness A of the self-luminous subject.
  • a black pixel has a small luminance Y and a small distance ⁇ C, so the luminance A of the black pixel is sufficiently smaller than the luminance A of the self-luminous subject. Also, the luminance A of a pixel having a large distance ⁇ C (a dark color) but a small luminance Y is sufficiently smaller than the luminance A of the self-luminous subject.
  • the point light source area detection unit 250 determines that pixels whose brightness A is equal to or less than a predetermined threshold VT0 are not point light source areas, and determines pixels whose brightness A is greater than the threshold VT0 to be a point light source area.
  • the threshold VT0 is set to a value greater than the brightness A of the main light source such as a streetlight after auto white balance processing.
  • the graph in FIG. 7 shows an example of processing by the correction degree calculation unit 260 and processing by the point light source area correction unit 270 in FIG.
  • the correction degree calculator 260 sets the correction degree ⁇ to “0” for pixels whose luminance A is less than the threshold VT0, and sets the correction degree ⁇ to “1” for pixels whose luminance A is greater than the threshold VT1.
  • the point light source area correction unit 270 sets the degree of correction ⁇ for pixels whose luminance A is equal to or higher than the threshold VT0 and equal to or lower than the threshold VT1 according to Equation (2) to be larger as the luminance A increases.
  • the threshold VT0 is an example of a first threshold
  • the threshold VT1 is an example of a second threshold.
  • Degree of correction ⁇ (luminance A-VT0)/(VT1-VT0) (2)
  • the degree of correction ⁇ indicates the application rate of correction of the first post-correction image data whose color information is corrected by the point light source area correction unit 270 .
  • the correction degree calculation unit 260 calculates the application rate of the correction of the color information of the first post-correction image data according to the luminance A.
  • a pixel with a correction degree ⁇ of "0" is not corrected as a point light source area for the first post-correction image data.
  • Pixels with a degree of correction ⁇ of "1" are corrected 100% as point light source regions with respect to the image data after the first correction.
  • pixels with a correction degree ⁇ of “0.3” are subjected to 30% correction as a point light source region with respect to the first corrected image data
  • pixels with a correction degree ⁇ of “0.7” are subjected to the first correction.
  • 70% of the corrected image data is corrected as a point light source region.
  • FIG. 7(a) shows an example of a captured image captured by the imaging device 507E.
  • FIG. 7B shows an example of an image based on the first post-correction image data on which auto white balance processing has been performed by the WB correction section 230 .
  • FIG. 7C shows an example of an image based on post-correction image data corrected by the point light source area correction unit 270 .
  • the subject area is illuminated by the main light source such as sodium lamp, and the image of the road and the subject on the road is colored by the illumination of the main light source.
  • the main light source such as sodium lamp
  • the image of the road and the subject on the road is colored by the illumination of the main light source.
  • Images of self-luminous subjects such as vehicle headlights and traffic light lights and point light source areas including their surroundings are not affected by illumination from the main light source, so they have colors similar to those under daylight light sources. (color reproducibility).
  • the image in the area excluding the point light source area has a color similar to that under the daylight light source. (has color reproducibility).
  • the image in the point light source area will have a color different from that under the daylight light source due to auto white balance processing (decrease in color reproducibility).
  • the point light source region detection unit 250 calculates the luminance A of each pixel from the first post-correction image data corresponding to the image shown in FIG. 7B, and detects a point light source region.
  • the image in the area ( ⁇ 0) excluding the point light source area reflects the result of the auto white balance processing as it is, and has a color similar to that under the daylight light source.
  • the point light source area correction unit 270 can correct the color information of each pixel after the auto white balance processing of the point light source area including the self-luminous subject excluding the main light source. As a result, it is possible to prevent the color reproducibility of the point light source region from deteriorating due to the auto white balance processing. In addition, since the main light source such as a street lamp is not included in the correction target of the color information by the point light source area correction unit 270, it is possible to prevent the color of the main light source corrected by the auto white balance processing from becoming unnatural. be able to.
  • the color of a self-luminous subject whose color reproducibility is reduced by auto white balance processing can be corrected to the color under a daylight light source. Therefore, both the image of the road and the subject on the road with the color of the illumination by the main light source, and the image of the point light source area including the self-luminous subject and its surroundings, will be the same as the color under the daylight light source. color can be corrected. As a result, even when a self-luminous subject is included in an image subjected to auto white balance processing under illumination from a main light source, an image reproduced in correct colors can be generated.
  • the colors of the pixels whose color reproducibility has deteriorated due to the auto white balance processing are corrected under the daylight light source. can be corrected to a color similar to that of .
  • the luminance A of the main light source can be made smaller than the threshold VT0.
  • the point light source region detection unit 250 sets the brightness A as the sum of the brightness Y of the pixel represented in the YCbCr color space and the distance ⁇ C (color difference component amount) from the origin in the color difference space CbCr.
  • the correction degree calculation unit 260 calculates the correction degree ⁇ used for correcting the color information of the pixels in the point light source region, so that the color of the pixels in the image at the boundary between the point light source region and the non-point light source region is sharply changed. can be suppressed from changing to As a result, it is possible to reduce the unnatural image of the boundary portion.
  • FIG. 8 shows an example of the functional configuration of an image processing apparatus according to the second embodiment. Elements similar to those in FIG. 4 are denoted by the same reference numerals, and detailed description thereof is omitted.
  • An image processing device 200A shown in FIG. 8 is similar to the image processing device 200 shown in FIGS.
  • Each functional unit of the image processing device 200A shown in FIG. 8 may be implemented by software such as an image processing program executed by the image processing device 200A, or may be implemented by hardware. It may be realized by working
  • the image processing device 200A has an image correction section 240A instead of the image correction section 240 in FIG.
  • the image correction section 240A has a point light source area correction section 270A instead of the point light source area correction section 270 of FIG.
  • Other configurations of the image processing device 200A are the same as those of the image processing device 200 in FIG.
  • the point light source region correction section 270A has an inverse WB conversion section 271, a WB correction section 272 and a blend processing section 273.
  • the point light source region corrector 270A is an example of a color information corrector.
  • the inverse WB conversion unit 271 uses the WB value calculated by the WB value calculation unit 220 to convert the first post-correction image data generated by the WB correction unit 230 into the original image data before white balance processing.
  • the WB correction unit 272 performs white balance processing on each pixel of the original image data using, for example, the WB value of the standard light source D65 (daylight light source), and generates second post-correction image data.
  • the WB corrector 272 is an example of a second white balance corrector.
  • the WB value of the standard light source D65 is a preset fixed WB value.
  • the blend processing unit 273 uses Equation (3) to combine the pixel values of the first corrected image data (a) and the second corrected image data ( The pixel values of b) are blended pixel by pixel to generate post-correction image data. a ⁇ (1 ⁇ )+b ⁇ (3)
  • pixels with a degree of correction ⁇ of "0" (pixels in which the luminance A in FIG. 7 is smaller than the threshold value VT0) become pixels of the first post-correction image data (a).
  • Pixels with a degree of correction ⁇ of “1” (pixels whose luminance A in FIG. 7 is greater than the threshold value VT1) are pixels of the second post-correction image data (b).
  • the pixel value of the first corrected image data (a) and the second corrected image data (a) are calculated according to the correction degree ⁇ for the pixels with the correction degree ⁇ of "0" or more and “1" or less (threshold value VT0 or more and the threshold value VT1 or less).
  • the pixel values of the post image data (b) are blended.
  • a pixel with a degree of correction ⁇ of "0.3" is a blend of 70% of the pixel value of the first corrected image data (a) and 30% of the pixel value of the second corrected image data (b). be done.
  • 30% of the pixel value of the first post-correction image data (a) and 70% of the pixel value of the second post-correction image data (b) are blended for pixels with a degree of correction ⁇ of “0.7”. .
  • FIG. 9 is a flowchart showing an example of the operation of the image processing device 200A of FIG. That is, FIG. 9 shows an example of an image processing method by the image processing device 200A, and shows an example of an image processing program executed by the image processing device 200A. Elements similar to those in FIG. 5 are given the same step numbers, and detailed descriptions thereof are omitted.
  • steps S10, S20, S30, and S50 are the same as the processes of steps S10, S20, S30, and S50 in FIG. 5, respectively.
  • steps S41 and S42 are performed instead of step S40 of FIG. 5
  • steps S61, S62 and S63 are performed instead of step S60.
  • the processing of steps S61 and S62 may be performed in parallel with the processing of steps S41, S42 and S50.
  • step S41 the image processing device 200A, for example, uses the point light source region detection unit 250 to calculate the luminance A for each pixel using the above-described formula (1).
  • step S42 the image processing device 200A determines whether the brightness A is greater than the threshold VT0 for each pixel.
  • the image processing apparatus 200A performs the process of step S50 for pixels whose luminance A is greater than the threshold VT0, and terminates the process shown in FIG. 9 for pixels whose luminance A is equal to or less than the threshold VT0.
  • step S50 the image processing device 200A, for example, uses the correction degree calculator 260 to calculate the degree of correction ⁇ according to the luminance A of the pixel selected in step S42.
  • step S61 the image processing device 200A converts the image data after the first correction into the original image data before the white balance processing by using the inverse WB conversion unit 271, for example.
  • step S62 the image processing apparatus 200A, for example, uses the WB correction unit 272 to perform white balance processing on each pixel of the original image data using the WB value of the standard light source D65, and performs the second correction. Generate post-image data.
  • step S63 for example, the blend processing unit 273 of the image processing device 200A converts the pixel value of the first corrected image data and the pixel value of the second corrected image data to each pixel according to the degree of correction ⁇ . to generate the corrected image data. Then, the image processing device 200A ends the processing shown in FIG.
  • FIG. 10 shows an example of the functional configuration of an image processing apparatus according to the third embodiment. Elements similar to those in FIGS. 4 and 8 are denoted by the same reference numerals, and detailed description thereof is omitted.
  • An image processing device 200B shown in FIG. 10 is similar to the image processing device 200 shown in FIGS.
  • Each functional unit of the image processing device 200B shown in FIG. 10 may be implemented by software such as an image processing program executed by the image processing device 200B, or may be implemented by hardware. It may be realized by working
  • the image processing device 200B has a point light source area correction section 270B instead of the point light source area correction section 270A in FIG.
  • the point light source region correction unit 270B has the same configuration and functions as the point light source region correction unit 270A in FIG. 8 except that the inverse WB conversion unit 271 is removed from the point light source region correction unit 270A in FIG.
  • the point light source area corrector 270B is an example of a color information corrector.
  • Other configurations of the image processing device 200B are the same as those of the image processing device 200 in FIG.
  • the WB correction unit 272 uses the WB value of the standard light source D65 to perform white balance processing on each pixel of the image data acquired by the image data acquisition unit 210 from the imaging device 507, and performs the second correction. Generate post-image data.
  • Other functions and operations of the image processing device 200B are the same as those of the image processing device 200A in FIG.
  • the image data acquired by the image data acquisition unit 210 is used to perform white balance processing with the standard light source D65, thereby omitting the inverse WB conversion unit 271 in FIG.
  • the processing load of the image processing device 200B can be reduced from that of the image processing device 200A, and the processing performance of the image processing device 200B can be improved by performing other processes with the reduced processing load. can be done.
  • the point light source area correction unit 270B is configured by hardware, the circuit scale of the circuit of the inverse WB conversion unit 271 can be reduced.
  • the luminance of a self-luminous subject is higher than that of other subjects, so white balance processing based on the WB value of D65 makes the color too dark, resulting in an image of the self-luminous subject after correction. It may become unnatural. In such a case, the characteristic of the WB value of D65 may be slightly shifted to suppress the tint.
  • FIG. 11 shows an example of the operation of the image processing apparatus of the fourth embodiment.
  • An image processing device 200C (not shown) that executes the flow in FIG. 11 has the same configuration as the image processing device 200 in FIG.
  • the image processing device 200C is similar to the image processing device 200 shown in FIGS.
  • FIG. 11 shows an example of an image processing method by the image processing device 200C, and shows an example of an image processing program executed by the image processing device 200C. Elements similar to those in FIGS. 5 and 9 are given the same step numbers, and detailed descriptions thereof are omitted.
  • steps S10, S20, S30, and S50 are the same as the processes of steps S10, S20, S30, and S50 in FIG. 5, respectively.
  • steps S41 and S42 are the same as the processes of steps S41 and S42 in FIG. 9, respectively.
  • step S65 is performed instead of step S60 of FIG.
  • step S65 the image processing device 200C, for example, uses a point light source region correction unit similar to the point light source region correction unit 270 in FIG. Calculate the value C'.
  • a point light source region correction unit (not shown) included in the image processing device 200C is referred to as a point light source region correction unit 270C.
  • the point light source region corrector 270C is an example of a color information corrector.
  • C' C ⁇ M( ⁇ ) (4)
  • symbol C indicates the pixel value of the first corrected image data
  • symbol M( ⁇ ) indicates a function that converts the color of the pixel using the degree of correction ⁇ as a variable.
  • the degree of correction ⁇ is the same as the degree of correction ⁇ described with reference to FIG.
  • the function M( ⁇ ) is explained in FIG.
  • Symbol C' indicates the pixel value of the post-correction image data.
  • the point light source area correction unit 270C corrects the color information of the pixels of the point light source area included in the first post-correction image data, and outputs it to at least one of the display device 400 and the information processing device 300 as post-correction image data. do.
  • FIG. 12 shows an example of processing in step S65 of FIG.
  • the point light source region correction unit 270C of the image processing device 200C converts the first corrected image data expressed in the YCbCr color space, for example, into image data in the RGB color space using the conversion matrix MR .
  • the point light source region correction unit 270C converts the image data in the RGB color space converted using the conversion matrix M R into an image in the RGB color space using the conversion matrix M C including the degree of correction ⁇ as a variable. Convert to data.
  • Variables Wr and Wb in the transformation matrix MC are obtained by performing auto white balance detection on the range of pixels in the point light source region and calculating.
  • the variables Wr and Wb are obtained by Equations (5) and (6), respectively, based on the ratio of the R (red) component, G (green) component, and B (blue) component of neighboring pixels in the point light source region. be done.
  • Wr (Average of G (green) components of neighboring pixels of pixels where ⁇ is “1”)/(Average of R (red) components of neighboring pixels of pixels where ⁇ is “1”) (5)
  • Wb (Average of G (green) components of neighboring pixels of pixels where ⁇ is “1”)/(Average of B (blue) components of neighboring pixels of pixels where ⁇ is “1”) (6)
  • the point light source area correction unit 270C converts the image data in the RGB color space converted using the conversion matrix MC into image data M( ⁇ ) in the YCbCr space using the conversion matrix MY .
  • the function M( ⁇ ) for converting the pixel values of the first corrected image data to the pixel values of the post-correction image data is expressed by Equation (7).
  • M( ⁇ ) MYMC ( ⁇ ) MR (7)
  • the degree of correction ⁇ is "1.0"
  • the color of each pixel of the first corrected image data (indicated by the distance ⁇ C) is expressed by the function M( ⁇ ) is converted to an achromatic color which is the origin of the color difference space CbCr.
  • the closer the correction degree ⁇ is to "1.0” the closer the color of the pixel is to an achromatic color.
  • the color of the self-luminous subject is Can be converted to achromatic color. As a result, it is possible to prevent the color reproducibility of the point light source region from deteriorating due to the auto white balance processing.
  • the point light source region correction unit 270C sets pixels with a correction degree ⁇ of "1.0" (that is, 100%) to an achromatic color.
  • the point light source region correction unit 270C may set pixels with a degree of correction ⁇ of “1.0” to a color close to achromatic, for example.
  • the point light source region correction unit 270C may set pixels with a correction degree ⁇ of “0.9” or more to an achromatic color, for example.
  • FIG. 13 shows an example of image correction according to the processing flow of FIG. Detailed descriptions of elements and processes similar to those in FIG. 7 are omitted.
  • FIG. 13A shows an example of a captured image captured by the imaging device 507E.
  • FIG. 13B shows an example of an image based on first post-correction image data on which auto white balance processing has been performed by a WB correction unit (not shown) of the image processing apparatus 200C.
  • the WB correction section of the image processing device 200C has the same function as the WB correction section 230 in FIG.
  • FIG. 13(c) shows an example of an image based on post-correction image data corrected by the point light source area correction unit 270C of the image processing device 200C.
  • FIG. 14 shows another example of the process of step S65 of FIG.
  • the color correction conversion may be performed in a color space such as the HSV color space, in which colors are easier to correct than the RGB color space.
  • FIG. 15 shows an example of the functional configuration of an image processing apparatus according to the fifth embodiment. Elements similar to those in FIG. 8 are denoted by the same reference numerals, and detailed description thereof is omitted.
  • An image processing device 200D shown in FIG. 15 is similar to the image processing device 200 shown in FIGS.
  • Each functional unit of the image processing device 200D shown in FIG. 15 may be implemented by software such as an image processing program executed by the image processing device 200D, or may be implemented by hardware. It may be realized by working
  • the image processing device 200D has an image correction section 240D instead of the image correction section 240A in FIG.
  • the image correction unit 240D has a point light source area detection unit 250D and a correction degree calculation unit 260D instead of the point light source area detection unit 250 and the correction degree calculation unit 260 of FIG. It has an image selection section 290D.
  • Other configurations of the image processing device 200D are the same as those of the image processing device 200A in FIG. Note that the image processing device 200D may have the point light source area detection section 250B of FIG. 10 instead of the point light source area correction section 270A.
  • the point light source region detection unit 250D detects, in the first corrected image data, a high-luminance point light source region such as a preset traffic light, and a super-high-luminance point light source region such as a vehicle headlight. and a function of detecting a light source area. For example, the point light source region detection unit 250D calculates a luminance A (first luminance), which is luminance obtained by adding color difference component amounts to the luminance, for each of a plurality of types of light sources, and the luminance A (first luminance) is the first threshold value. A first region containing larger pixels is detected.
  • the point light source area detection section 250D is an example of an area detection section. An example of point light source area detection processing by the point light source area detection unit 250D will be described with reference to FIG.
  • the correction degree calculation unit 260D calculates a first correction degree ⁇ 1 used for correcting the color information of pixels in a preset high-luminance point light source area (for example, lights of traffic lights, etc.). Further, the correction degree calculator 260D calculates a second correction degree ⁇ 2 used for correcting the color information of pixels other than the preset high-luminance point light source region.
  • High-brightness pixels such as preset traffic lights are examples of specific pixels that contain specific color information. Pixels other than the specific pixels are examples of normal pixels.
  • the point light source area correction unit 270A uses the first correction degree ⁇ 1 instead of the correction degree ⁇ in FIG.
  • the pixel values are blended pixel by pixel to generate provisional first post-correction image data.
  • the point light source area correction unit 280D uses the method shown in FIG. 12 to correct the pixel values of the first post-correction image data in accordance with the second degree of correction ⁇ 2 to generate provisional second post-correction image data. do.
  • the point light source area correction section 270A is an example of a first color information correction section
  • the point light source area correction section 280D is an example of a second color information correction section.
  • the image selection unit 290D selects, for each pixel, the provisional first post-correction image data generated by the point light source region correction unit 270A or the provisional second post-correction data generated by the point light source region correction unit 280D. Output as image data. For example, the image selection unit 290D selects provisional first post-correction image data for pixels to be corrected by the first degree of correction ⁇ 1, and provisional second post-correction image data for pixels to be corrected by the second degree of correction ⁇ 2. to select.
  • FIG. 16 shows an example of point light source detection processing by the point light source area detection unit 250D of FIG.
  • the image processing device 200D in FIG. 15 selects light sources (self-luminous subjects) to be corrected for further correcting the color information of pixels that have undergone auto white balance correction processing, such as blue lights, red lights, and yellow lights of traffic lights, and lights of vehicles. At least one with headlights set. Then, the image processing device 200D changes the white balance processing for each of the light source assumed to be white and the light source assumed to be colored.
  • the point light source region detection unit 250D limits the range of the argument ⁇ , the distance r (color intensity) from the center, and the luminance range in the polar coordinates (r, ⁇ ) of the color difference space CbCr, and determines the limited range. regarded as a light source.
  • the point light source region detection unit 250D determines that a region where the distance r is greater than the threshold th(Y) is a high saturation region, and that pixels included in the high saturation region are specific pixels and are suitable for white balance processing (D65WB) using the standard light source D65. do.
  • the point light source area detection unit 250D treats an area where the distance r is equal to or less than the threshold th(Y) as a low saturation area, and treats the pixels included in the low saturation area as normal pixels to apply auto white balance (AWB) processing. judge.
  • the threshold th(Y) is a first threshold that changes according to luminance, and decreases as the luminance increases.
  • the threshold th(Y) is an example of a first threshold.
  • the point light source region detection unit 250D detects pixels included in a color region that is within a range of a predetermined argument ⁇ and whose distance r is greater than or equal to a predetermined value. , for example, as a red light on a traffic light.
  • the correction processing of the color information of the pixels including the red light of the traffic light and the pixels other than the red light is as follows. "if ( ⁇ > ⁇ RedMin && ⁇ RedMax) ⁇ if (r>c*th(Y)) ⁇ Apply D65WB or apply WB to a specific color of a traffic light ⁇ else ⁇ apply AWB ⁇ ⁇ else ⁇ if (r>th (Y)) ⁇ D65WB applied ⁇ else ⁇ apply AWB ⁇ ⁇ ”
  • the range from ⁇ RedMin to ⁇ RedMax indicates the red range of the red light.
  • Variable c is a value less than 1.0.
  • FIG. 17 and 18 show an example of the operation of the image processing device 200D of FIG. 15.
  • FIG. 17 and 18 show an example of an image processing method by the image processing device 200D, and show an example of an image processing program executed by the image processing device 200.
  • FIG. Elements similar to those in FIG. 5 are given the same step numbers, and detailed descriptions thereof are omitted.
  • steps S10, S20, S30, S41, S42, S62, and S63 are the same as the processes of steps S10, S20, S30, S41, S42, S62, and S63 in FIG. 9, respectively.
  • the processing of step S65 is the same as the processing of step S65 in FIG.
  • step S42 if the luminance A is greater than the threshold value VT0, the image processing device 200D determines that it is a point light source area, and executes step S43 in FIG.
  • the image processing device 200D determines that the area is the main light source area illuminated by streetlights, and performs step S70.
  • step S70 the image processing device 200D performs auto white balance processing on the main light source region, which is the entire image data acquired by the image data acquisition section 210, and ends the processing shown in FIGS.
  • step S43 of FIG. 18 the image processing device 200D, for example, uses the point light source region detection unit 250D to obtain the polar coordinates (r, ⁇ ) of each pixel of the first post-correction image data in the color difference space CbCr.
  • step S44 the image processing device 200D determines, for each pixel, whether or not the distance r is greater than the threshold th(Y) using the point light source area detection unit 250D, for example. Pixels for which the distance r is greater than the threshold th(Y) are adapted to the white balance processing (D65WB) by the standard light source D65 as specific pixels, so the processing of step S51 is performed (first condition). A pixel whose distance r is equal to or less than the threshold th(Y) is treated as a normal pixel and adapted to auto white balance (AWB), so the process of step S52 is performed (second condition).
  • D65WB white balance processing
  • step S51 the image processing device 200D, for example, uses the correction degree calculation unit 260D to calculate the first correction degree ⁇ 1 for each pixel suitable for D65WB processing, and the process proceeds to step S62.
  • step S52 the image processing device 200D, for example, uses the correction degree calculation unit 260D to calculate the second correction degree ⁇ 2 for each pixel suitable for AWB processing, and the process proceeds to step S64.
  • steps S62 and S63 the image processing device 200D executes the same processes as steps S62 and S63 in FIG. 9 by, for example, the point light source area correction unit 270A, and ends the processes shown in FIGS.
  • step S64 the image processing device 200D, for example, performs detection processing for performing auto white balance processing by the point light source area correction unit 280D, and calculates the WB value (weighted by the second degree of correction ⁇ 2).
  • step S65 the image processing device 200D performs the same processing as step S65 in FIG. is calculated, and the processing shown in FIGS. 17 and 18 is terminated.
  • each of the plurality of types of point light sources can be detected with high accuracy.
  • the color of pixels in the point light source region corresponding to each point light source can be accurately reproduced on the image.
  • the image processing device 200D also detects self-luminous subjects other than traffic lights and headlights as point light source areas in the same manner as in FIG. 16, thereby correcting the color information of pixels in the detected point light source areas. can do. As a result, it is possible to prevent the color reproducibility of the point light source regions corresponding to each of the plurality of types of point light sources from deteriorating due to the auto white balance processing.
  • FIG. 19 shows an example of correction degree calculation processing by the image processing apparatus of the sixth embodiment.
  • An image processing device 200E (not shown) that performs the processing in FIG. 19 has the same configuration as the image processing device 200A in FIG.
  • the image processing device 200E has the image data acquisition unit 210, the WB value calculation unit 220, the WB correction unit 230, the point light source region detection unit 250, and the point light source region correction unit 270A shown in FIG.
  • the function of the correction degree calculator (not shown) of the image processing device 200E is different from the function of the correction degree calculator 260 in FIG.
  • the correction degree calculation unit of the image processing device 200E is hereinafter referred to as a correction degree calculation unit 260E.
  • the image processing device 200E is similar to the image processing device 200 shown in FIGS. 1 to 3, and is installed in the image processing system 100 together with the information processing device 300 and the display device 400.
  • FIG. 1 The image processing device 200E is similar to the image processing device 200 shown in FIGS. 1 to 3, and is installed in the image processing system 100 together with the information processing device 300 and the display device 400.
  • the correction degree calculator 260E of this embodiment sets the correction degree ⁇ to "1" for pixels within the distance D0 from the light source. Further, the correction degree calculation unit 260E sets the correction degree ⁇ of a pixel whose distance from the light source is greater than or equal to D0 and less than or equal to D1 so as to approach "0" as the distance increases. Further, the correction degree calculation unit 260E sets the correction degree ⁇ of the pixels farther than D1 from the light source to "0".
  • a pixel area whose distance from the light source is D0 or more and D1 or less is a blend area where D65WB processing and AWB processing are blended according to the degree of correction ⁇ .
  • the distance from the light source may be the distance from the center of the light source if the light source on the image is small, or the distance from the periphery of the light source that is closest to the pixel whose distance is to be measured if the light source on the image is large. distance.
  • the blending area may be rectangular.
  • a dashed-dotted frame indicates a distance of D0 from the light source
  • a dashed frame around the dashed-dotted frame indicates a distance of D1 from the light source.
  • the area inside the dashed-dotted frame is an example of the first area.
  • the area between the dashed-dotted frame and the dashed-line frame is an example of a second area within a predetermined range outside the first area.
  • the degree of correction ⁇ is set not according to the distance, but according to pixels on a frame of a predetermined shape that sequentially spreads outward from the light source.
  • the shape of the frame may be a circle, an ellipse, a polygon, a curve, or a shape similar to the external shape of the light source on the image.
  • the degree of correction ⁇ is set to "1" near the light source, gradually decreases with distance from the light source, and finally set to "0". Further, as shown in FIG. 19, the degree of correction ⁇ is set for each light source.
  • the image processing device 200E blends the first post-correction image data and the second post-correction image data for each pixel in accordance with the degree of correction ⁇ set by the degree-of-correction calculation unit 260E to generate post-correction image data.
  • the degree of correction ⁇ is the blend ratio of the pixel values of the first corrected image data and the second corrected image data.
  • the first post-correction image data is generated by AWB processing
  • the second post-correction image data is generated by D65WB processing.
  • the blending process for each pixel of the first post-correction image data and the second post-correction image data is performed by a point light source region detection unit (not shown) provided in the image processing device 200E and corresponding to the point light source region detection unit 250A in FIG. carried out by
  • the correction degree calculator 260E of this embodiment may be used instead of the correction degree calculator 260 in FIGS. 8, 10, and FIG. 21 described later. may be used in the calculation method of
  • FIG. 20 shows an example of correction degree calculation processing by the image processing apparatus of the seventh embodiment.
  • An image processing device 200F (not shown) that performs the processing in FIG. 20 has the same configuration as the image processing device 200 in FIG. However, the functions of the point light source region detection unit and the correction degree calculation unit (not shown) of the image processing device 200E are different from the functions of the point light source region detection unit 250 and the correction degree calculation unit 260 in FIG.
  • the point light source area detection section of the image processing device 200F is referred to as a point light source area detection section 250F
  • the correction degree calculation section of the image processing device 200F is referred to as a correction degree calculation section 260F.
  • the image processing device 200F is similar to the image processing device 200 shown in FIGS. 1 to 3, and is installed in the image processing system 100 together with the information processing device 300 and the display device 400.
  • the point light source area detection unit 250F outputs, as point light source area information, information indicating pixels in the point light source area whose brightness A is greater than the threshold value VT0 to the correction degree calculation unit 260F.
  • the correction degree calculation unit 260F obtains the correction degree according to the number of pixels of the point light source region included in each block when dividing the image represented by the first post-correction image data into a plurality of blocks. For example, as shown in method 1 in FIG. 20, the correction degree calculator 260F varies the correction degree ⁇ from "0" (0%) to "1.0%" for each block according to the number of pixels whose luminance A is equal to or greater than the threshold value VT0. Set to 0" (100%).
  • the degree-of-correction calculation unit 260F brings the degree of correction ⁇ closer to "1.0" as the number of pixels whose luminance A is greater than or equal to the threshold VT0 increases.
  • the degree ⁇ is fixed at "1.0".
  • the correction degree calculation unit 260F fixes the correction degree ⁇ to "0" when the number of pixels whose luminance A is smaller than the threshold VT0 is equal to or less than a second predetermined number which is less than the first predetermined number.
  • the correction degree calculation unit 260F sets pixels in the point light source region to the first pixel value (for example, “1.0”) in the image represented by the first post-correction image data, and pixels that are not in the point light source region. is the second pixel value (for example, "0").
  • the degree-of-correction calculation unit 260F applies a Gaussian filter to each pixel of the image represented by the first post-correction image data as the first pixel value or the second pixel value, and performs image smoothing processing. Then, the correction degree calculation unit 260F calculates the pixel value luminance A of each pixel of the smoothed image, and calculates the correction degree ⁇ according to the calculated luminance A.
  • the correction degree calculation unit 260F sets each pixel of the image represented by the first post-correction image data as the first pixel value or the second pixel value. Then, the correction degree calculation unit 260F applies a guided filter, performs edge-preserving smoothing processing of the image, calculates the luminance A of each pixel of the smoothed image, and calculates the degree of correction according to the calculated luminance A. Calculate ⁇ .
  • the point light source Even if there is an area in which the pixels of the point light source area and the pixels of the non-point light source area are mixed in the first corrected image data, the point light source The change in the degree of correction ⁇ at the boundary between the area and the astigmatic light source area can be smoothed. As a result, it is possible to prevent an unnatural image such as mottled color of the corrected image data in which the color information of the pixels is corrected using the degree of correction ⁇ .
  • Method 1 shows an example in which the image represented by the first post-correction image data is divided into nine blocks
  • the number of blocks is not limited to nine. As the number of blocks increases, the accuracy of correction improves, but the computational load increases. The smaller the number of blocks, the lower the accuracy of correction, but the smaller the computational load.
  • the filters applied to methods 2 and 3 are not limited to Gaussian filters or guided filters.
  • FIG. 21 shows an example of the functional configuration of an image processing apparatus according to the eighth embodiment. Elements similar to those in FIG. 8 are denoted by the same reference numerals, and detailed description thereof is omitted.
  • An image processing device 200G shown in FIG. 21 is similar to the image processing device 200 shown in FIGS.
  • Each functional unit of the image processing device 200G shown in FIG. 21 may be implemented by software such as an image processing program executed by the image processing device 200G, or may be implemented by hardware. It may be realized by working
  • the image processing device 200G has an image correction unit 240G instead of the image correction unit 240A in FIG. 8, and does not have the WB correction unit 230 in FIG.
  • Image correction unit 240G includes point light source region detection unit 250G, correction degree calculation unit 260G, and point light source region correction unit instead of point light source region detection unit 250, correction degree calculation unit 260, and point light source region correction unit 270A in FIG. 270G.
  • the point light source region correction section 270G has a WB correction section 275 similar to the WB correction section 230 in FIG. 8, and does not have the inverse WB conversion section 271 in FIG.
  • the point light source region corrector 270G is an example of a color information corrector.
  • Other configurations of the image processing device 200G are the same as those of the image processing device 200A in FIG. Since the point light source area correction unit 270G does not have the inverse WB conversion unit 271, for example, the inverse WB conversion unit 271 converts the first post-correction image data generated by the WB correction unit 230 in FIG. It is possible to suppress the deterioration of image quality that occurs when
  • the point light source region detection unit 250G performs point light source region detection processing according to the image data (input image) acquired by the image data acquisition unit 210 and the WB value calculated by the WB value calculation unit 220, and detects the point light source region.
  • the information is output to the correction degree calculator 260G.
  • the point light source region detection unit 250G detects the point light source region using the image data before auto white balance processing is performed instead of the first post-correction image data that has been subjected to auto white balance processing. To detect. Therefore, the point light source region cannot be detected using the distance ⁇ C from the origin in the color difference space CbCr in the YCbCr color space described with reference to FIG. This is because the main light source is detected as a point light source area when using image data before auto white balance processing is performed.
  • An example of point light source area detection processing by the point light source area detection unit 250G will be described with reference to FIG.
  • the point light source area detection section 250G is an example of an area detection section.
  • the correction degree calculator 260G sets the correction degree ⁇ of the point light source region to "1.0", and sets the correction degree ⁇ of the non-point light source region to "0". Note that the correction degree calculation unit 260G gradually changes the correction degree ⁇ from "0" to "1.0” from the inner side to the outer side in the boundary portion of the point light source region (peripheral portion of the cylindrical region in FIG. 22). You may let
  • the WB correction unit 275 performs white balance processing on each pixel of the image data according to the WB value calculated by the WB value calculation unit 220, and converts the first post-correction image data. Generate.
  • the functions of the WB correction unit 272 and the blend processing unit 273 are the same as the functions of the WB correction unit 272 and the blend processing unit 273 in FIG. 8, respectively. Therefore, similarly to the point light source region correction unit 270A in FIG. 8, the point light source region correction unit 270G blends the first post-correction image data and the second post-correction image data for each pixel according to the degree of correction ⁇ . Corrected image data can be generated.
  • FIG. 22 shows an example of processing by the point light source area detection unit 250G in FIG.
  • the point light source area detection unit 250G XYZ-converts the input image expressed in the RGB color space, and obtains the coordinates of the input image expressed in the XYZ color space. Furthermore, the point light source region detection unit 250G performs xyY conversion on the coordinates of the input image represented by the XYZ color space, and obtains the coordinates of the input image represented by the xyY color space.
  • the point light source area detection unit 250G performs XYZ conversion on the WB value of the main light source such as the street lamp calculated by the WB value calculation unit 220, and obtains the coordinates of the WB value of the main light source shown in the XYZ color space. Further, the point light source area detection unit 250G performs xyY conversion on the coordinates of the WB value of the main light source indicated in the XYZ color space, and obtains the reference coordinates, which are the coordinates of the WB value of the main light source indicated in the xyY color space.
  • the coefficients used for the XYZ transformation shown in FIG. 22 are calculated in advance according to the characteristics of the imaging device 507. Also, the x-value, y-value and Y-value obtained by the xyY conversion are calculated by the formulas illustrated in FIG. Here, the color of a pixel is represented by an x value and a y value, and the brightness of a pixel is represented by a brightness Y corresponding to luminance.
  • the point light source region detection unit 250G uses the coordinates of the input image converted into the xyY color space and the reference coordinates of the WB value of the main light source to perform detection processing of the point light source region included in the first post-correction image data. do. First, in the xyY color space, the point light source region detection unit 250G detects a color within a range of a first distance ⁇ C with respect to the color (x, y) on the reference coordinates of the WB value of the main light source such as a streetlight. The color of the subject illuminated by the illumination light of A color (x, y) is represented by chromaticity coordinates (x, y) in the xyY color space.
  • the point light source region detection unit 250G detects a pixel value (x , y, Y) is detected as a point light source area.
  • the point light source region detection unit 250G detects the outside of the cylindrical region in the cross-sectional direction where the lightness Y is equal to or greater than the threshold thL and the color (x, y) is within the range of the first distance ⁇ C.
  • a region (first region) is detected as a point light source region.
  • the point light source area detection unit 250G outputs point light source area information indicating the determined point light source area to the correction degree calculation unit 260G in FIG.
  • the correction degree calculator 260G sets the correction degree ⁇ to "1.0" or "0" depending on, for example, whether the area is a point light source area.
  • the point light source region correction unit 270G in FIG. 21 corrects the first corrected image data and the second corrected image data for each pixel according to the degree of correction ⁇ , similarly to the point light source region correction unit 270A in FIG. to generate the corrected image data.
  • the point light source region correction unit 270G does not have the inverse WB conversion unit 271
  • the processing load of the point light source region correction unit 270G can be reduced compared to the case where the inverse WB conversion unit 271 is provided. can be done.
  • the point light source area correction unit 270G does not have the inverse WB conversion unit 271, for example, the first post-correction image data generated by the WB correction unit 230 in FIG. It is possible to suppress deterioration of image quality when converting to .

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Color Television Image Signal Generators (AREA)
  • Processing Of Color Television Signals (AREA)

Abstract

画像処理装置は、画像データにオートホワイトバランス処理を実施した第1補正後画像データにおいて、輝度に色差成分量を付加した輝度である第1輝度が第1閾値より大きい画素を含む第1領域を検出する。画像処理装置は、第1輝度に応じて計算した、第1領域に含まれる画素の色情報の補正度合いに応じて、第1領域に含まれる画素の色情報を補正する。これにより、主光源による照明が照射される被写体領域に自発光被写体が含まれる場合にも、オートホワイトバランス処理による自発光被写体の色再現性の低下を抑制することができる。

Description

画像処理装置および画像処理方法
 本発明は、画像処理装置および画像処理方法に関する。
 画像処理装置において、強い色かぶりの影響を及ぼす光源下で撮影された画像に対するホワイトバランス処理時に、光源を推定し、光源種毎に作成されたカラープロファイルを用いて画像の色を補正する手法が知られている(例えば、特許文献1参照)。照明下で取得された画像に対するホワイトバランス処理時に、被写体画像に特定の発光体が含まれる場合、被写体画像から特定した色温度に基づいて画像データの彩度を抑制する手法が知られている(例えば、特許文献2参照)。
特開2011-254311号公報 国際公開第2019/111921号
 例えば、ヘッドライトまたは信号機等の自発光被写体を含む被写体領域がナトリウム灯等の街灯の照明下で撮影される場合、撮影された画像にオートホワイトバランス処理を行うと自発光被写体の色再現性が低下するおそれがある。
 本発明は、上記の点に鑑みてなされたもので、主光源による照明が照射される被写体領域に自発光被写体が含まれる場合にも、オートホワイトバランス処理による自発光被写体の色再現性の低下を抑制することを目的とする。
 本発明の一態様では、画像処理装置は、第1画像データを取得する画像データ取得部と、前記第1画像データに応じてオートホワイトバランス処理に使用するホワイトバランス値を計算するホワイトバランス値計算部と、前記ホワイトバランス値に応じて、前記第1画像データのオートホワイトバランス処理を実施し、第1補正後画像データを生成する第1ホワイトバランス補正部と、前記第1補正後画像データにおいて、輝度に色差成分量を付加した輝度である第1輝度を計算し、前記第1輝度が第1閾値より大きい画素を含む第1領域を検出する領域検出部と、前記第1補正後画像データにおいて、少なくとも前記第1領域に含まれる画素の色情報の補正度合いを前記第1輝度に応じて計算する補正度合い計算部と、前記第1補正後画像データにおいて、少なくとも前記第1領域に含まれる画素の色情報を前記補正度合いに応じて補正する色情報補正部と、を有する。
 開示の技術によれば、主光源による照明が照射される被写体領域に自発光被写体が含まれる場合にも、オートホワイトバランス処理による自発光被写体の色再現性の低下を抑制することができる。
第1の実施形態における画像処理装置を含む画像処理システムの一例を示すイメージ図である。 図1の移動体に搭載される各種装置の構成の概要を示すブロック図である。 図2の画像処理装置の構成の一例を示すブロック図である。 図2の画像処理装置の機能構成の一例を示す機能ブロック図である。 図2の画像処理装置の動作の一例を示すフロー図である。 図4の点光源領域検出部による処理の一例を示す説明図である。 図4の補正度合い計算部による処理と点光源領域補正部による処理の一例を示す説明図である。 第2の実施形態の画像処理装置の機能構成の一例を示す機能ブロック図である。 図8の画像処理装置の動作の一例を示すフロー図である。 第3の実施形態の画像処理装置の機能構成の一例を示す機能ブロック図である。 第4の実施形態の画像処理装置の動作の一例を示すフロー図である。 図11のステップS65の処理の一例を示す説明図である。 図11の処理フローによる画像の補正の一例を示す説明図である。 図11のステップS65の処理の別の例を示す説明図である。 第5の実施形態の画像処理装置の機能構成の一例を示す機能ブロック図である。 図15の点光源領域検出部による点光源の検出処理の一例を示す説明図である。 図15の画像処理装置の動作の一例を示すフロー図である。 図17の動作の続きを示すフロー図である。 第6の実施形態の画像処理装置による補正度合い計算処理の一例を示す説明図である。 第7の実施形態の画像処理装置による補正度合い計算処理の一例を示す説明図である。 第8の実施形態の画像処理装置の機能構成の一例を示す機能ブロック図である。 図21の点光源領域検出部による処理の一例を示す説明図である。
 以下、図面を用いて実施形態を説明する。以下の説明では、画像データを単に画像と称する場合がある。また、画素値または画素データを単に画素と称する場合がある。なお、以下に示す実施形態は、夜間またはトンネル内等において街灯による照明光が被写体に照らされている状況で顕著な効果を有するが、早朝、夕刻などの薄暗い状況、または、霧が発生している等の悪天候の状況でも所定の効果を得ることができる。
 (第1の実施形態)
 図1は、第1の実施形態における画像処理装置を含む画像処理システムの一例を示す。図1に示す画像処理システム100は、例えば、自動車等の移動体500に搭載される。移動体500の前方、後方、左側および右側と、移動体500の車内の前方には、カメラ等の撮像装置507A、507B、507C、507D、507Eが設置される。以下では、撮像装置507A、507B、507C、507D、507Eを区別なく説明する場合、撮像装置507とも称される。
 なお、移動体500に設置される撮像装置507の数および設置位置は、図1に限定されない。例えば、1つの撮像装置507が移動体500の前方のみに設置されてもよく、2つの撮像装置507が前方と後方に設置されてもよい。あるいは、撮像装置507は、移動体500の天井に設置されてもよい。また、画像処理システム100が搭載される移動体500は、自動車に限定されず、例えば、工場内で稼働する搬送ロボットまたはドローンでもよい。また、画像処理システム100は、例えば、監視カメラ、デジタルスチルカメラまたはデジタルカムコーダなどの、移動体500に設置された撮像装置以外の撮像装置から取得した画像を処理するシステムであってもよい。
 画像処理システム100は、画像処理装置200、情報処理装置300および表示装置400を有する。なお、図1では、説明を分かりやすくするために、上方から俯瞰した移動体500のイメージ図に画像処理システム100を重ねて記載している。しかしながら、実際には、画像処理装置200および情報処理装置300は、移動体500に搭載される制御基板等に実装され、表示装置400は、移動体500内の人物から見える位置に設置される。なお、画像処理装置200は、情報処理装置300の一部として制御基板等に実装されてもよい。各撮像装置507は、信号線または無線を介して画像処理装置200に接続される。
 図2は、図1の移動体500に搭載される各種装置の構成の概要を示す。移動体500は、内部ネットワークを介して相互に接続された画像処理装置200、情報処理装置300、表示装置400、少なくとも1つのECU(Electronic Control Unit)501および無線通信装置502を有する。また、移動体500は、センサ503、駆動装置504、ランプ装置505、ナビゲーション装置506および撮像装置507を有する。例えば、内部ネットワークは、CAN(Controller Area Network)またはイーサネット(登録商標)等の車載ネットワークである。
 画像処理装置200は、撮像装置507により取得された画像データ(フレームデータ)を補正し、補正後画像データを生成する。例えば、画像処理装置200は、生成した補正後画像データを、表示装置400に表示する。なお、画像処理装置200は、生成した補正後画像データを、外部または内部の記録装置に記録してもよい。
 情報処理装置300は、画像処理装置200を介して受信する画像データに基づいて認識処理等を実施するプロセッサ等のコンピュータを含む。例えば、移動体500に搭載される情報処理装置300は、画像データの認識処理を実施することで、他の移動体、信号、標識、道路の白線および人物等を検出し、検出結果に基づいて移動体500の周囲の状況を判断する。
 また、情報処理装置300は、ECU501を制御することにより、移動体500の全体を制御する。さらに、情報処理装置300は、移動体500の移動、停止、右折および左折等を制御する自動運転制御装置を含んでもよい。この場合、情報処理装置300は、画像処理装置200により生成された画像に基づいて、移動体500の外部の物体を認識する機能を有してもよく、認識した物体を追尾する機能を有してもよい。
 表示装置400は、画像処理装置200により生成された画像および補正画像等を表示する。表示装置400は、例えば、移動体500に設置されるサイドミラーモニタ、バックミラーモニタまたはナビゲーション装置のディスプレイである。なお、表示装置400は、ダッシュボード等に設けられたディスプレイ、または、投影板またはフロントガラス等に画像を投影するヘッドアップディスプレイ(Head Up Display)等でもよい。また、表示装置400は、移動体500が後進(バック)する際に、移動体500の後進方向の画像をリアルタイムで表示してもよい。さらに、表示装置400は、ナビゲーション装置506から出力される画像を表示してもよい。
 ECU501は、エンジンまたはトランスミッション等の機構部に対応してそれぞれ設けられる。各ECU501は、情報処理装置300からの指示に基づいて、対応する機構部を制御する。無線通信装置502は、移動体500の外部の装置との通信を行う。センサ503は、各種の情報を検出するセンサである。センサ503は、例えば、移動体500の現在の位置情報を取得する位置センサを含んでもよい。また、センサ503は、移動体500の速度を検出する速度センサを含んでもよい。
 駆動装置504は、移動体500を移動させるための各種装置である。駆動装置504には、例えば、エンジン、操舵装置(ステアリング)、および制動装置(ブレーキ)等が含まれてもよい。ランプ装置505は、移動体500に搭載された各種灯具である。ランプ装置505には、例えば、前照灯(ヘッドランプ、ヘッドライト)、方向指示器(ウインカー)のランプ、バックライトおよびブレーキランプ等が含まれてもよい。ナビゲーション装置506は、目的地への経路を音声および表示により案内する装置である。
 図3は、図2の画像処理装置200の構成の一例を示す。なお、図2の情報処理装置300も図3と同様の構成を有する。例えば、画像処理装置200は、バスBUSで相互に接続されたCPU20、インタフェース装置21、ドライブ装置22、補助記憶装置23およびメモリ装置24を有する。
 CPU20は、メモリ装置24に格納された画像処理プログラムを実行することで、後述する各種の画像処理を実行する。インタフェース装置21は、図示しないネットワークに接続するために使用される。補助記憶装置23は、例えば、HDD(Hard Disk Drive)またはSSD(Solid State Drive)等であり、画像処理プログラム、画像データおよび画像処理に使用する各種パラメータ等を保持する。
 メモリ装置24は、例えば、DRAM(Dynamic Random Access Memory)等であり、補助記憶装置23から転送される画像処理プログラム等を保持する。ドライブ装置22は、記録媒体30を接続するインタフェースを有し、例えば、CPU20からの指示に基づいて、記録媒体30に格納された画像処理プログラムを補助記憶装置23に転送する。なお、ドライブ装置22は、補助記憶装置23に記憶された画像データ等を記録媒体30に転送してもよい。
 図4は、図2の画像処理装置200の機能構成の一例を示す。図4に示す画像処理装置200の各機能部は、画像処理装置200が実行する画像処理プログラムにより実現されてもよく、画像処理装置200に搭載されるFPGA(Field-Programmable Gate Array)等のハードウェアにより実現されてもよい。また、図4に示す画像処理装置200の各機能部は、ソフトウェアとハードウェアとを協働させることにより実現されてもよい。
 画像処理装置200は、画像データ取得部210、WB(ホワイトバランス)値計算部220、WB(ホワイトバランス)補正部230、および画像補正部240を有する。画像補正部240は、点光源領域検出部250、補正度合い計算部260および点光源領域補正部270を有する。以下では、ホワイトバランスは、WBとも称され、オートホワイトバランスは、AWBとも称される。
 画像データ取得部210は、図1に示す複数の撮像装置507のうち、例えば、撮像装置507Eまたは撮像装置507Aにより撮像された画像を示す画像データ(例えば、フレームデータ)を取得する画像データ取得処理を実施する。画像データ取得部210が取得する画像データは、第1画像データの一例である。なお、画像データ取得部210は、撮像装置507E、507A以外の撮像装置507により撮像された画像を示す画像データを取得してもよく、全ての撮像装置507により撮像された画像を示す画像データを取得してもよい。
 WB値計算部220は、画像データ取得部210が取得した画像データに基づいて、被写体に照明を照射している主光源を判別する検波を行い、判別した光源に対応するWB値を計算するホワイトバランス値計算処理を実施する。すなわち、WB値計算部220は、オートホワイトバランス処理に使用するホワイトバランス値を算出する。
 WB補正部230は、WB値計算部220が計算したWB値に応じて画像データの各画素のオートホワイトバランス処理を実施し、第1補正後画像データを生成する第1ホワイトバランス補正処理を実施する。例えば、オートホワイトバランス処理を実施する各画素は、ベイヤー配列に配置された1つの赤画素、1つの青画素および2つの緑画素を含む。WB補正部230は、第1ホワイトバランス補正部の一例である。
 点光源領域検出部250は、第1補正後画像データに含まれる点光源領域(画素領域)を検出する領域検出処理を実施する。点光源領域検出部250は、領域検出部の一例であり、点光源領域は、第1領域の一例である。
 ここで、点光源は、車両のヘッドライトまたは信号機の灯火等の自発光被写体を含む。点光源領域は、自発光被写体の領域だけでなく、自発光被写体によりハレーションが発生した領域と自発光被写体から照射される光を反射する被写体の領域とを含んでもよい。点光源領域検出部250は、検出した点光源領域を示す点光源領域情報を補正度合い計算部260に出力する。点光源領域検出部250による点光源の検出処理の例は、図6で説明される。
 なお、点光源領域検出部250は、第1補正後画像データの画素毎に、色差成分量を含む輝度である後述する輝度Aと、点光源領域の検出に使用した輝度Aの閾値とを点光源領域情報として補正度合い計算部260に出力してもよい。また、点光源領域検出部250は、第1補正後画像データの画素毎の輝度Aを点光源領域情報として補正度合い計算部260に出力してもよい。この場合、所定の閾値以上の輝度Aを有する画素の領域を点光源領域として検出する処理は、補正度合い計算部260により実施されるため、点光源領域の検出機能は、補正度合い計算部260に含まれる。そして、点光源領域検出部250は、輝度Aを計算する輝度計算部として機能する。
 補正度合い計算部260は、点光源領域情報に応じて、点光源領域の画素の色情報の補正に使用する補正度合いαを計算する補正度合い計算処理を実施する。なお、補正度合い計算部260は、点光源領域だけでなく、点光源領域を含む第1補正後画像データの画素毎に補正度合いαを計算してもよい。補正度合い計算部260による補正度合いαの計算例については、図7で説明される。
 点光源領域補正部270は、第1補正後画像データに含まれる点光源領域の各画素の色情報を、補正度合い計算部260が計算した補正度合いαを使用して補正する色情報補正処理を実施する。点光源領域補正部270は、色情報補正部の一例である。オートホワイトバランス補正が実施された第1補正後画像データを、補正度合いαを使用してさらに補正する手法については、図7で説明される。点光源領域補正部270は、第1補正後画像データに含まれる点光源領域の画素の色情報を補正した補正後画像データを表示装置400および情報処理装置300の少なくとも一方に出力する。
 図5は、図2の画像処理装置200の動作の一例を示す。すなわち、図5は、画像処理装置200による画像処理方法の一例を示し、画像処理装置200が実行する画像処理プログラムの一例を示す。
 まず、ステップS10において、画像処理装置200は、例えば、画像データ取得部210により、各撮像装置507により撮像された画像データを取得する。次に、ステップS20において、画像処理装置200は、例えば、WB値計算部220により、取得した画像データに基づいてオートホワイトバランス処理を実施するための検波処理を行い、WB値を計算する。次に、ステップS30において、画像処理装置200は、例えば、WB補正部230により、WB値に応じて画像データのホワイトバランス処理を実施し、第1補正後画像データを生成する。
 次に、画像処理装置200は、ステップS40、S50、S60において、例えば、画像補正部240により、第1補正後画像データの補正処理を実施する。まず、ステップS40において、画像処理装置200は、例えば、点光源領域検出部250により、第1補正後画像データに含まれる点光源領域を検出する。点光源領域は、輝度Aと閾値とにより示されてもよい。
 次に、ステップS50において、画像処理装置200は、例えば、補正度合い計算部260により、点光源領域の輝度Aに応じて、第1補正後画像データのうち少なくとも点光源領域の画素の色情報の補正に使用する補正度合いαを計算する。次に、ステップS60において、画像処理装置200は、例えば、点光源領域補正部270により、第1補正後画像データのうち少なくとも点光源領域の画素の色情報を、補正度合い計算部260が計算した補正度合いαを使用して補正する。そして、点光源領域補正部270は、補正後画像データを生成し、図5に示す処理を終了する。
 図6は、図4の点光源領域検出部250による処理の一例を示す。まず、点光源領域検出部250は、色差空間CbCrにおいて、ホワイトバランス処理が実施された第1補正後画像データの各画素の色の原点からの距離ΔCを計算する。距離ΔCは、例えば、画素の色の濃さを示す。次に、点光源領域検出部250は、式(1)を使用して、画素の輝度Yと計算した距離ΔCとを加算することで輝度Aを計算する。
 輝度A=Y+k・ΔC ‥(1)
 輝度Aは、YCbCr色空間で表される画素の輝度情報である輝度Yと、画素の色の濃さ(鮮やかさ)の指標である距離ΔCに係数kを乗じた値との和であり、第1輝度の一例である。係数kは、距離ΔCの重み付けを調整に使用され、"0"より大きい値である。係数kは、画像処理装置200の設計時または性能評価時に予め設定される。
 例えば、図6の輝度Yと距離ΔCとのグラフで示されるように、輝度Yが大きく、距離ΔCも比較的大きい自発光被写体の輝度Aは大きくなる。撮像装置507により撮影される被写体に照明光を照射する街灯等の主光源の輝度Yは大きい。しかしながら、主光源の色はオートホワイトバランス処理により無彩色になるため、主光源の輝度Aは、自発光被写体の輝度Aより十分に小さくなる。
 黒の画素は、輝度Yおよび距離ΔCが小さいため、黒の画素の輝度Aは、自発光被写体の輝度Aより十分に小さくなる。また、距離ΔCが大きいが(色が濃い)、輝度Yが小さい画素の輝度Aも、自発光被写体の輝度Aより十分に小さくなる。
 点光源領域検出部250は、輝度Aが所定の閾値VT0以下の画素を点光源領域でないと判定し、輝度Aが閾値VT0より大きい画素を点光源領域と判定する。例えば、閾値VT0は、街灯等の主光源のオートホワイトバランス処理後の輝度Aより大きい値に設定される。
 図7のグラフは、図4の補正度合い計算部260による処理と点光源領域補正部270による処理の一例を示す。補正度合い計算部260は、輝度Aが閾値VT0より小さい画素の補正度合いαを"0"に設定し、輝度Aが閾値VT1より大きい画素の補正度合いαを"1"に設定する。また、点光源領域補正部270は、輝度Aが閾値VT0以上で閾値VT1以下の画素の補正度合いαを、式(2)にしたがって、輝度Aが高くなるほど大きく設定する。閾値VT0は、第1閾値の一例であり、閾値VT1は、第2閾値の一例である。
 補正度合いα=(輝度A-VT0)/(VT1-VT0) ‥(2)
 ここで、補正度合いαは、点光源領域補正部270により色情報が補正される第1補正後画像データの補正の適用率を示す。このように、補正度合い計算部260は、輝度Aに応じて第1補正後画像データの色情報の補正の適用率を計算する。
 補正度合いαが"0"の画素は、第1補正後画像データに対する点光源領域としての補正が実施されない。補正度合いαが"1"の画素は、第1補正後画像データに対する点光源領域としての補正が100%実施される。同様に、補正度合いαが"0.3"の画素は、第1補正後画像データに対する点光源領域としての補正が30%実施され、補正度合いαが"0.7"の画素は、第1補正後画像データに対する点光源領域としての補正が70%実施される。
 図7(a)は、撮像装置507Eにより撮影された撮影画像の例を示す。図7(b)は、WB補正部230によりオートホワイトバランス処理が実施された第1補正後画像データによる画像の例を示す。図7(c)は、点光源領域補正部270により補正された補正後画像データによる画像の例を示す。
 図7(a)に示す撮影画像では、ナトリウム灯等の主光源による照明が被写体領域に照射され、道路および道路上の被写体の画像には、主光源による照明の色味が付いている。車両のヘッドライトおよび信号機の灯火等の自発光被写体とその周囲を含む点光源領域の画像は、主光源による照明の影響を受けにいため、昼光光源下での色味と同様の色を有している(色再現性がある)。
 図7(b)に示すオートホワイトバランス処理が実施された第1補正後画像データでは、点光源領域を除く領域の画像は、昼光光源下での色味と同様の色を有している(色再現性がある)。一方、点光源領域の画像は、オートホワイトバランス処理により、昼光光源下での色味と異なる色になる(色再現性の低下)。点光源領域検出部250は、図7(b)で示される画像に対応する第1補正後画像データから各画素の輝度Aを計算し、点光源領域を検出する。
 図7(c)の点光源領域の色情報の補正が実施された補正後画像データでは、点光源領域(0≦α)の画像は、オートホワイトバランス処理により補正された色味が補正度合いαに応じて補正され、昼光光源下での色味と同様の色に変換される。点光源領域を除く領域(α<0)の画像は、オートホワイトバランス処理の結果がそのまま反映され、昼光光源下での色味と同様の色を有する。
 これにより、点光源領域補正部270は、主光源を除いた自発光被写体を含む点光源領域のオートホワイトバランス処理後の各画素の色情報を補正することができる。この結果、点光源領域の色再現性が、オートホワイトバランス処理により低下することを抑制することができる。また、点光源領域補正部270による色情報の補正の対象に、街灯等の主光源が含まれないため、オートホワイトバランス処理により補正された主光源の色味が不自然になることを抑制することができる。
 以上、この実施形態では、オートホワイトバランス処理により色再現性が低下する自発光被写体の色味を、昼光光源下での色味に補正することができる。したがって、主光源による照明の色味が付いた道路および道路上の被写体の画像と、自発光被写体とその周囲を含む点光源領域の画像との両方を、昼光光源下での色味と同様の色味に補正することができる。この結果、主光源による照明下でオートホワイトバランス処理される画像に自発光被写体が含まれる場合にも、正しい色に再現された画像を生成することができる。
 この際、自発光被写体によりハレーションが発生した領域および自発光被写体から照射される光を反射する被写体の領域においても、オートホワイトバランス処理により色再現性が低下した画素の色を昼光光源下での色味と同様の色味に補正することができる。
 点光源領域検出部250により色差成分量を含む輝度である輝度Aを計算することで、主光源の輝度Aを閾値VT0より小さくすることができる。例えば、点光源領域検出部250は、YCbCr色空間で表される画素の輝度Yと、色差空間CbCrでの原点からの距離ΔC(色差成分量)の和を輝度Aとする。この結果、ホワイトバランス処理により補正された主光源の画素の色味が、点光源領域補正部270により補正されて不自然になることを抑制することができる。
 補正度合い計算部260により、点光源領域の画素の色情報の補正に使用する補正度合いαを計算することで、点光源領域と非点光源領域との境界部分の画像において、画素の色が急激に変化することを抑制することができる。この結果、境界部分の画像が不自然になることを軽減することができる。
 (第2の実施形態)
 図8は、第2の実施形態の画像処理装置の機能構成の一例を示す。図4と同様の要素については同じ符号を付し、詳細な説明は省略する。図8に示す画像処理装置200Aは、図1から図3に示す画像処理装置200と同様であり、情報処理装置300および表示装置400とともに画像処理システム100に搭載される。
 図8に示す画像処理装置200Aの各機能部は、画像処理装置200Aが実行する画像処理プログラム等のソフトウェアにより実現されてもよく、ハードウェアにより実現されてもよく、ソフトウェアとハードウェアとを協働させることにより実現されてもよい。
 画像処理装置200Aは、図4の画像補正部240の代わりに画像補正部240Aを有する。画像補正部240Aは、図4の点光源領域補正部270の代わりに点光源領域補正部270Aを有する。画像処理装置200Aのその他の構成は、図4の画像処理装置200と同様である。
 点光源領域補正部270Aは、逆WB変換部271、WB補正部272およびブレンド処理部273を有する。点光源領域補正部270Aは、色情報補正部の一例である。逆WB変換部271は、WB値計算部220が計算したWB値を使用して、WB補正部230が生成した第1補正後画像データをホワイトバランス処理前の元の画像データに変換する。
 WB補正部272は、例えば、標準光源D65(昼光光源)のWB値を使用して、元の画像データの各画素のホワイトバランス処理を実施し、第2補正後画像データを生成する。WB補正部272は、第2ホワイトバランス補正部の一例である。例えば、標準光源D65のWB値は、予め設定された固定のWB値である。標準光源D65によるホワイトバランス処理を実施することで、元の画像データに含まれるヘッドライトおよび信号機の灯火等の自発光被写体の色味を昼光下での自然な色味にすることができる。
 ブレンド処理部273は、式(3)を使用して、補正度合い計算部260が計算した補正度合いαに応じて、第1補正後画像データ(a)の画素値および第2補正後画像データ(b)の画素値を画素毎にブレンドして補正後画像データを生成する。
 a×(1-α)+b×α ‥(3)
 これにより、補正度合いαが"0"の画素(図7の輝度Aが閾値VT0より小さい画素)は、第1補正後画像データ(a)の画素となる。補正度合いαが"1"の画素(図7の輝度Aが閾値VT1より大きい画素)は、第2補正後画像データ(b)の画素となる。
 また、補正度合いαが"0"以上"1"以下の画素(閾値VT0以上閾値VT1以下の画素)は、補正度合いαに応じて第1補正後画像データ(a)の画素値および第2補正後画像データ(b)の画素値がブレンドされる。例えば、補正度合いαが"0.3"の画素は、第1補正後画像データ(a)の画素値の70%と、第2補正後画像データ(b)の画素値の30%とがブレンドされる。補正度合いαが"0.7"の画素は、第1補正後画像データ(a)の画素値の30%と、第2補正後画像データ(b)の画素値の70%とがブレンドされる。
 なお、ブレンド処理部273は、α=0(輝度A<閾値VT0)の画素のブレンド処理を実施せず、第1補正画像データを補正後画像データとして出力してもよい。同様に、ブレンド処理部273は、α=1(輝度A>閾値VT1)の画素のブレンド処理を実施せず、第2補正後画像データを補正後画像データとして出力してもよい。この場合、ブレンド処理部273は、補正度合いαが"0"より大きく"1"より小さい画素のみのブレンド処理を実施すればよいため、計算負荷を軽減することができる。
 図9は、図8の画像処理装置200Aの動作の一例を示すフロー図である。すなわち、図9は、画像処理装置200Aによる画像処理方法の一例を示し、画像処理装置200Aが実行する画像処理プログラムの一例を示す。図5と同様の要素については、同じステップ番号を付し、詳細な説明は省略する。
 ステップS10、S20、S30、S50の処理は、図5のステップS10、S20、S30、S50の処理とそれぞれ同様である。そして、図9では、図5のステップS40の代わりにステップS41、S42が実施され、ステップS60の代わりにステップS61、S62、S63が実施される。なお、ステップS61、S62の処理は、ステップS41、S42、S50の処理と並列に実施されてもよい。
 ステップS30の後、ステップS41において、画像処理装置200Aは、例えば、点光源領域検出部250により、上述した式(1)を使用して、画素毎の輝度Aを計算する。次に、ステップS42において、画像処理装置200Aは、画素毎に輝度Aが閾値VT0より大きいか否かを判定する。画像処理装置200Aは、輝度Aが閾値VT0より大きい画素については、ステップS50の処理を実施し、輝度Aが閾値VT0以下の画素については、図9に示す処理を終了する。
 ステップS50において、画像処理装置200Aは、例えば、補正度合い計算部260により、ステップS42で選択された画素の輝度Aに応じて、補正度合いαを計算する。次に、ステップS61において、画像処理装置200Aは、例えば、逆WB変換部271により、第1補正後画像データをホワイトバランス処理前の元の画像データに変換する。
 次に、ステップS62において、画像処理装置200Aは、例えば、WB補正部272により、標準光源D65のWB値を使用して、元の画像データの各画素のホワイトバランス処理を実施し、第2補正後画像データを生成する。次に、ステップS63において、画像処理装置200Aは、例えば、ブレンド処理部273により、補正度合いαに応じて、第1補正後画像データの画素値および第2補正後画像データの画素値を画素毎にブレンドして補正後画像データを生成する。そして、画像処理装置200Aは、図9に示す処理を終了する。
 以上、この実施形態においても、上述した実施形態と同様の効果を得ることができる。例えば、主光源による照明下でオートホワイトバランス処理される画像に自発光被写体が含まれる場合にも、正しい色に再現された画像を生成することができる。
 さらに、この実施形態では、画像処理装置200Aは、オートホワイトバランス処理が実施された第1補正画像データと、標準光源D65によるホワイトバランス処理が実施された第2補正後画像データとを、補正度合いαに応じてブレンド処理する。これにより、元の画像データに含まれるヘッドライトおよび信号機の灯火等の自発光被写体の色味を自然な色味にすることができる。また、ブレンド処理部273が、α=0およびα=1の画素のブレンド処理を実施しないことで、ブレンド処理部273の計算負荷を軽減することができる。
 (第3の実施形態)
 図10は、第3の実施形態の画像処理装置の機能構成の一例を示す。図4および図8と同様の要素については同じ符号を付し、詳細な説明は省略する。図10に示す画像処理装置200Bは、図1から図3に示す画像処理装置200と同様であり、情報処理装置300および表示装置400とともに画像処理システム100に搭載される。
 図10に示す画像処理装置200Bの各機能部は、画像処理装置200Bが実行する画像処理プログラム等のソフトウェアにより実現されてもよく、ハードウェアにより実現されてもよく、ソフトウェアとハードウェアとを協働させることにより実現されてもよい。
 画像処理装置200Bは、図8の点光源領域補正部270Aの代わりに点光源領域補正部270Bを有する。点光源領域補正部270Bは、図8の点光源領域補正部270Aから逆WB変換部271を削除していることを除き、図8の点光源領域補正部270Aの構成および機能と同様である。点光源領域補正部270Bは、色情報補正部の一例である。画像処理装置200Bのその他の構成は、図8の画像処理装置200と同様である。
 この実施形態では、WB補正部272は、標準光源D65のWB値を使用して、画像データ取得部210が撮像装置507から取得した画像データの各画素のホワイトバランス処理を実施し、第2補正後画像データを生成する。画像処理装置200Bのその他の機能および動作は、図8の画像処理装置200Aと同様である。
 以上、この実施形態においても、上述した実施形態と同様の効果を得ることができる。さらに、この実施形態では、画像データ取得部210が取得した画像データを使用して、標準光源D65によるホワイトバランス処理を実施することで、図8の逆WB変換部271を省略することができる。この結果、画像処理装置200Bの処理負荷を画像処理装置200Aの処理負荷より軽減することができ、軽減した処理負荷により他の処理を実施することで、画像処理装置200Bの処理性能の向上することができる。また、点光源領域補正部270Bがハードウェアで構成される場合、逆WB変換部271の回路分の回路規模を削減することができる。
 なお、夜間等の環境では、自発光被写体の輝度は、他の被写体の輝度に比べて高いため、D65のWB値によるホワイトバランス処理により色が濃くなり過ぎ、補正後の自発光被写体の画像が不自然になる場合がある。このような場合、D65のWB値の特性をすこしずらして色味が抑えられるようにしてもよい。
 (第4の実施形態)
 図11は、第4の実施形態の画像処理装置の動作の一例を示す。図11のフローを実行する図示しない画像処理装置200Cは、図4の画像処理装置200と同様の構成を有する。画像処理装置200Cは、図1から図3に示す画像処理装置200と同様であり、情報処理装置300および表示装置400とともに画像処理システム100に搭載される。図11は、画像処理装置200Cによる画像処理方法の一例を示し、画像処理装置200Cが実行する画像処理プログラムの一例を示す。図5および図9と同様の要素については、同じステップ番号を付し、詳細な説明は省略する。
 ステップS10、S20、S30、S50の処理は、図5のステップS10、S20、S30、S50の処理とそれぞれ同様である。ステップS41、S42の処理は、図9のステップS41、S42の処理とそれぞれ同様である。そして、図11では、図5のステップS60の代わりにステップS65が実施される。
 ステップS50の後、ステップS65において、画像処理装置200Cは、例えば、図4の点光源領域補正部270と同様の点光源領域補正部により、式(4)を使用して、色補正後の画素値C'を計算する。以下では、画像処理装置200Cが有する図示しない点光源領域補正部は、点光源領域補正部270Cと称される。点光源領域補正部270Cは、色情報補正部の一例である。
 C'=C×M(α) ‥(4)
 式(4)において、符号Cは、第1補正画像データの画素値を示し、符号M(α)は、補正度合いαを変数として画素の色を変換する関数を示す。補正度合いαは、図7で説明した補正度合いαと同じである。関数M(α)については、図12で説明される。符号C'は、補正後画像データの画素値を示す。そして、点光源領域補正部270Cは、第1補正後画像データに含まれる点光源領域の画素の色情報を補正し、補正後画像データとして、表示装置400および情報処理装置300の少なくとも一方に出力する。
 図12は、図11のステップS65の処理の一例を示す。画像処理装置200Cの点光源領域補正部270Cは、例えば、YCbCr色空間で表される第1補正画像データを、変換行列Mを使用してRGB色空間の画像データに変換する。
 次に、点光源領域補正部270Cは、変換行列Mを使用して変換されたRGB色空間の画像データを、補正度合いαを変数に含む変換行列Mを使用してRGB色空間の画像データに変換する。変換行列Mにおいて、変数Wr、Wbは、点光源領域の画素の範囲をオートホワイトバランスの検波を実施し、計算することで求められる。例えば、変数Wr、Wbは、点光源領域の近傍画素のR(赤)成分、G(緑)成分、B(青)成分の比に基づいて、式(5)および式(6)によりそれぞれ求められる。
 Wr=(αが"1"の画素の近傍画素のG(緑)成分の平均)/(αが"1"の画素の近傍画素のR(赤)成分の平均) ‥(5)
 Wb=(αが"1"の画素の近傍画素のG(緑)成分の平均)/(αが"1"の画素の近傍画素のB(青)成分の平均) ‥(6)
 さらに、点光源領域補正部270Cは、変換行列Mを使用して変換されたRGB色空間の画像データを、変換行列Mを使用してYCbCr空間の画像データM(α)に変換する。以上をまとめると、第1補正画像データの画素値を補正後画像データの画素値に変換する関数M(α)は、式(7)により示される。
 M(α)=M(α)M ‥(7)
 例えば、補正度合いαが"1.0"の場合、第1補正画像データの色差空間CbCrにおいて、第1補正後画像データの各画素の色(距離ΔCで示される)は、関数M(α)により、色差空間CbCrの原点である無彩色に変換される。そして、補正度合いαが"1.0"に近い画素ほど、画素の色は無彩色に近づく。
 したがって、ナトリウム灯などの街灯により照明される被写体領域にヘッドライト等の自発光被写体が含まれ、自発光被写体(点光源領域)がオートホワイトバランス処理される場合にも、自発光被写体の色を無彩色に変換することができる。この結果、点光源領域の色再現性が、オートホワイトバランス処理により低下することを抑制することができる。
 なお、図12に示す例では、点光源領域補正部270Cは、補正度合いαが"1.0"(すなわち100%)の画素を無彩色に設定する。しかしながら、点光源領域補正部270Cは、例えば、補正度合いαが"1.0"の画素を無彩色に近い色に設定してもよい。あるいは、点光源領域補正部270Cは、例えば、補正度合いαが"0.9"以上の画素を無彩色に設定してもよい。
 図13は、図11の処理フローによる画像の補正の一例を示す。図7と同様の要素および処理については、詳細な説明は省略する。図13(a)は、撮像装置507Eにより撮影された撮影画像の例を示す。図13(b)は、画像処理装置200Cが有する図示しないWB補正部によりオートホワイトバランス処理が実施された第1補正後画像データによる画像の例を示す。画像処理装置200CのWB補正部は、図4のWB補正部230と同様の機能を有する。
 図13(c)は、画像処理装置200Cの点光源領域補正部270Cにより補正された補正後画像データによる画像の例を示す。
 図14は、図11のステップS65の処理の別の例を示す。例えば、色補正変換は、RBG色空間で行う代わりに、HSV色空間などのRGB色空間よりも色が補正しやすい色空間で行われてもよい。
 以上、この実施形態においても、上述した実施形態と同様の効果を得ることができる。例えば、図7と同様に、主光源を除いたヘッドライト等の自発光被写体を含む点光源領域の各画素の色情報を補正することができる。この結果、ヘッドライトおよびその周囲の点光源領域の色再現性が、オートホワイトバランス処理により低下することを抑制することができる。
 (第5の実施形態)
 図15は、第5の実施形態の画像処理装置の機能構成の一例を示す。図8と同様の要素については同じ符号を付し、詳細な説明は省略する。図15に示す画像処理装置200Dは、図1から図3に示す画像処理装置200と同様であり、情報処理装置300および表示装置400とともに画像処理システム100に搭載される。
 図15に示す画像処理装置200Dの各機能部は、画像処理装置200Dが実行する画像処理プログラム等のソフトウェアにより実現されてもよく、ハードウェアにより実現されてもよく、ソフトウェアとハードウェアとを協働させることにより実現されてもよい。
 画像処理装置200Dは、図8の画像補正部240Aの代わりに、画像補正部240Dを有する。画像補正部240Dは、図8の点光源領域検出部250および補正度合い計算部260の代わりに点光源領域検出部250Dおよび補正度合い計算部260Dを有し、新たに、点光源領域補正部280Dおよび画像選択部290Dを有する。画像処理装置200Dのその他の構成は、図8の画像処理装置200Aと同様である。なお、画像処理装置200Dは、点光源領域補正部270Aの代わりに図10の点光源領域検出部250Bを有してもよい。
 点光源領域検出部250Dは、第1補正後画像データにおいて、例えば、予め設定された信号機の灯火等の高輝度の点光源領域を検出する機能と、車両のヘッドライト等の超高輝度の点光源領域を検出する機能とを有する。例えば、点光源領域検出部250Dは、複数種の光源毎に、輝度に色差成分量を付加した輝度である輝度A(第1輝度)を計算し、輝度A(第1輝度)が第1閾値より大きい画素を含む第1領域を検出する。点光源領域検出部250Dは、領域検出部の一例である。点光源領域検出部250Dによる点光源領域の検出処理の例は、図16で説明される。
 補正度合い計算部260Dは、予め設定された高輝度の点光源領域(例えば、信号機の灯火等)の画素の色情報の補正に使用する第1補正度合いα1を計算する。また、補正度合い計算部260Dは、予め設定された高輝度の点光源領域以外の画素の色情報の補正に使用する第2補正度合いα2を計算する。予め設定された信号機の灯火等の高輝度の画素は、特定の色情報を含む特定画素の一例である。特定画素以外の画素は、通常画素の一例である。
 点光源領域補正部270Aは、図8の補正度合いαの代わりに第1補正度合いα1を使用して、第1補正後画像データ(a)の画素値および第2補正後画像データ(b)の画素値を画素毎にブレンドして仮の第1補正後画像データを生成する。点光源領域補正部280Dは、図12に示した手法を使用して、第2補正度合いα2に応じて第1補正後画像データの画素値を補正して仮の第2補正後画像データを生成する。点光源領域補正部270Aは、第1色情報補正部の一例であり、点光源領域補正部280Dは、第2色情報補正部の一例である。
 画像選択部290Dは、画素毎に、点光源領域補正部270Aが生成する仮の第1補正後画像データまたは点光源領域補正部280Dが生成する仮の第2補正後データを選択し、補正後画像データとして出力する。例えば、画像選択部290Dは、第1補正度合いα1による補正対象の画素では仮の第1補正後画像データを選択し、第2補正度合いα2による補正対象の画素では仮の第2補正後画像データを選択する。
 図16は、図15の点光源領域検出部250Dによる点光源の検出処理の一例を示す。例えば、図15の画像処理装置200Dは、オートホワイトバランス補正処理された画素の色情報をさらに補正する補正対象の光源(自発光被写体)を、信号機の青色灯、赤色灯、黄色灯と車両のヘッドライトとの少なくともいずれかに設定している。そして、画像処理装置200Dは、白が想定される光源と、着色が想定される光源とのそれぞれのホワイトバランス処理を変更する。
 点光源領域検出部250Dは、色差空間CbCrの極座標(r,θ)において、偏角θの範囲、中心からの距離r(色の強さ)および輝度の範囲を限定して、限定した範囲を光源とみなす。ここで、Cb=rsinθ、Cb=rcosθである。
 例えば、点光源領域検出部250Dは、距離rが閾値th(Y)より大きい領域を高彩度領域とし、高彩度領域に含まれる画素を特定画素として標準光源D65によるホワイトバランス処理(D65WB)に適応すると判定する。一方、点光源領域検出部250Dは、距離rが閾値th(Y)以下の領域を低彩度領域とし、低彩度領域に含まれる画素を通常画素としてオートホワイトバランス(AWB)処理に適応すると判定する。閾値th(Y)は、輝度に応じて変化する第1閾値であり、輝度が大きいほど小さくなる。閾値th(Y)は、第1閾値の一例である。
 さらに、図16に示す高彩度の光源領域の検出の例では、点光源領域検出部250Dは、所定の偏角θの範囲にあり、かつ、距離rが所定以上の色の領域に含まれる画素を、例えば、信号機の赤色灯として検出する。
 例えば、信号機の赤色灯を含む画素および赤色灯以外の画素の色情報の補正処理は、以下のようになる。
「if(θ>θRedMin && θ<θRedMax){
   if(r>c*th(Y)){D65WB適用または信号機の特定色になるようにWB適用}
   else{AWB適用}

else{
   if(r>th(Y)){D65WB適用}
   else{AWB適用}
}」
 ここで、θRedMinからθRedMaxの範囲は、赤色灯の赤の範囲を示す。変数cは1.0より小さい値である。なお、偏角θの範囲と距離rとを変えることで青色灯または黄色灯の補正処理にも適用可能になる。また、赤色灯、青色灯および黄色灯の補正処理を順次実施してもよい。
 図17および図18は、図15の画像処理装置200Dの動作の一例を示す。すなわち、図17および図18は、画像処理装置200Dによる画像処理方法の一例を示し、画像処理装置200が実行する画像処理プログラムの一例を示す。図5と同様の要素については、同じステップ番号を付し、詳細な説明は省略する。
 ステップS10、S20、S30、S41、S42、S62、S63の処理は、図9のステップS10、S20、S30、S41、S42、S62、S63の処理とそれぞれ同様である。ステップS65の処理は、図11のステップS65の処理と同様である。
 ステップS42において、画像処理装置200Dは、輝度Aが閾値VT0より大きい場合、点光源領域と判定し、図18のステップS43を実施する。画像処理装置200Dは、輝度Aが閾値VT0以下の場合、街灯の照明が照射された主光源領域と判定し、ステップS70を実施する。ステップS70において、画像処理装置200Dは、画像データ取得部210が取得した画像データの全体である主光源領域に対してオートホワイトバランス処理を実施し、図17および図18に示す処理を終了する。
 図18のステップS43において、画像処理装置200Dは、例えば、点光源領域検出部250Dにより、第1補正後画像データの各画素の色差空間CbCrでの極座標(r,θ)を求める。次に、ステップS44において、画像処理装置200Dは、例えば、点光源領域検出部250Dにより、距離rが閾値th(Y)より大きいか否かを画素毎に判定する。距離rが閾値th(Y)より大きい画素は、特定画素として標準光源D65によるホワイトバランス処理(D65WB)に適応するため、ステップS51の処理が実施される(第1条件)。距離rが閾値th(Y)以下の画素は、通常画素としてオートホワイトバランス(AWB)に適応するため、ステップS52の処理が実施される(第2条件)。
 ステップS51において、画像処理装置200Dは、例えば、補正度合い計算部260Dにより、D65WB処理に適応する画素毎に第1補正度合いα1を計算し、処理をステップS62に移行する。ステップS52において、画像処理装置200Dは、例えば、補正度合い計算部260Dにより、AWB処理に適応する画素毎に第2補正度合いα2を計算し、処理をステップS64に移行する。
 ステップS62、S63において、画像処理装置200Dは、例えば、点光源領域補正部270Aにより、図9のステップS62、S63と同様の処理を実行し、図17および図18に示す処理を終了する。
 ステップS64において、画像処理装置200Dは、例えば、点光源領域補正部280Dにより、オートホワイトバランス処理を実施するための検波処理を行い、WB値を計算する(第2補正度合いα2で重み付け)。
 次に、ステップS65において、画像処理装置200Dは、例えば、点光源領域補正部280Dにより、図11のステップS65と同様の処理を実施し、上述した式(4)を使用して、色補正後の画素値C'を計算し、図17および図18に示す処理を終了する。
 以上、この実施形態においても、上述した実施形態と同様の効果を得ることができる。さらに、この実施形態では、複数種の点光源の検出方法を、各点光源の色情報の特性に応じて設定することで、複数種の点光源のそれぞれを精度よく検出することができる。これにより、各点光源に対応する点光源領域の画素の色を、画像上で精度よく再現することができる。
 なお、画像処理装置200Dは、信号機の灯火およびヘッドライト以外の自発光被写体においても、図16と同様の手法で点光源領域として検出することで、検出した点光源領域の画素の色情報を補正することができる。これにより、複数種の点光源のそれぞれに対応する点光源領域の色再現性が、オートホワイトバランス処理により低下することを抑制することができる。
 (第6の実施形態)
 図19は、第6の実施形態の画像処理装置による補正度合い計算処理の一例を示す。図19の処理を実施する図示しない画像処理装置200Eは、図8の画像処理装置200Aと同様の構成を有する。例えば、画像処理装置200Eは、図8の画像データ取得部210、WB値計算部220、WB補正部230、点光源領域検出部250および点光源領域補正部270Aを有する。但し、画像処理装置200Eが有する図示しない補正度合い計算部の機能は、図8の補正度合い計算部260の機能と相違する。
 以下では、画像処理装置200Eの補正度合い計算部は、補正度合い計算部260Eと称される。画像処理装置200Eは、図1から図3に示す画像処理装置200と同様であり、情報処理装置300および表示装置400とともに画像処理システム100に搭載される。
 この実施形態の補正度合い計算部260Eは、光源から距離がD0以内にある画素の補正度合いαを"1"に設定する。また、補正度合い計算部260Eは、光源からの距離がD0以上でD1以下にある画素の補正度合いαを、距離が大きくなるほど"0"に近づくように設定する。さらに、補正度合い計算部260Eは、光源からの距離がD1より遠い画素の補正度合いαを"0"に設定する。
 光源からの距離がD0以上でD1以下の画素領域は、補正度合いαに応じてD65WB処理とAWB処理とがブレンドされるブレンド領域である。なお、例えば、光源からの距離は、画像上での光源が小さい場合、光源の中心からの距離でもよく、画像上での光源が大きい場合、距離を計測する画素に最も近い光源の外周部からの距離としてもよい。
 なお、図19に示すように、ブレンド領域は矩形状でもよい。例えば、一点鎖線の枠は、光源からの距離がD0であることを示し、一点鎖線の枠の周囲の破線の枠は、光源からの距離がD1であることを示す。一点鎖線の枠の内側の領域は、第1領域の一例である。一点鎖線の枠と破線の枠との間の領域は、第1領域の外側の所定範囲の第2領域の一例である。
 ブレンド領域は矩形状にする場合、厳密には、補正度合いαは、距離ではなく、光源から外側に順次広がる所定形状の枠上の画素に対応して設定される。枠の形状は、円、楕円、多角形または曲線でもよく、画像上の光源の外形形状に相似する形状でもよい。この場合にも、補正度合いαは、光源の近くで"1"に設定され、光源から離れるほど徐々に小さくされ、最終的に"0"に設定される。また、図19に示すように、補正度合いαは、光源毎に設定される。
 そして、画像処理装置200Eは、補正度合い計算部260Eにより設定された補正度合いαに応じて、第1補正後画像データおよび第2補正後画像データを画素毎にブレンドして補正後画像データを生成する。例えば、補正度合いαは、第1補正後画像データおよび第2補正後画像データの画素値のブレンド率である。
 ここで、第1補正後画像データは、AWB処理により生成され、第2補正後画像データは、D65WB処理により生成される。例えば、第1補正後画像データおよび第2補正後画像データの画素毎のブレンド処理は、画像処理装置200Eに設けられる、図8の点光源領域検出部250Aに対応する図示しない点光源領域検出部により実施される。
 以上、この実施形態においても、上述した実施形態と同様の効果を得ることができる。さらに、この実施形態では、光源からの距離に応じて補正度合いαを設定することでも、オートホワイトバランス処理により色再現性が低下する自発光被写体の色味を、昼光光源下での色味に補正することができる。
 なお、この実施形態の補正度合い計算部260Eは、図8、図10および後述する図21の補正度合い計算部260の代わりに使用されてもよく、図15の補正度合い計算部260Dの補正度合いαの計算方法に使用されてもよい。
 (第7の実施形態)
 図20は、第7の実施形態の画像処理装置による補正度合い計算処理の一例を示す。図20の処理を実施する図示しない画像処理装置200Fは、図4の画像処理装置200と同様の構成を有する。但し、画像処理装置200Eの図示しない点光源領域検出部および補正度合い計算部のそれぞれ機能は、図4の点光源領域検出部250および補正度合い計算部260の機能と相違する。以下では、画像処理装置200Fの点光源領域検出部は、点光源領域検出部250Fと称され、画像処理装置200Fの補正度合い計算部は、補正度合い計算部260Fと称される。画像処理装置200Fは、図1から図3に示す画像処理装置200と同様であり、情報処理装置300および表示装置400とともに画像処理システム100に搭載される。
 点光源領域検出部250Fは、輝度Aが閾値VT0より大きい点光源領域の画素を示す情報を点光源領域情報として補正度合い計算部260Fに出力する。
 前記補正度合い計算部260Fは、方法1では、第1補正後画像データで示される画像を複数のブロック分けする場合に各ブロックに含まれる点光源領域の画素数に応じて補正度合いを求める。例えば、補正度合い計算部260Fは、図20の方法1に示すように、ブロック毎に、輝度Aが閾値VT0以上の画素数に応じて補正度合いαを"0"(0%)から"1.0"(100%)に設定する。
 補正度合い計算部260Fは、輝度Aが閾値VT0以上の画素数が多いほど補正度合いαを"1.0"に近づけ、輝度Aが閾値VT0以上の画素数が第1所定数以上の場合、補正度合いαを"1.0"に固定する。また、補正度合い計算部260Fは、輝度Aが閾値VT0より小さい画素数が、第1所定数より少ない第2所定数以下の場合、補正度合いαを"0"に固定する。
 補正度合い計算部260Fは、方法2では、第1補正後画像データで示される画像において、例えば、点光源領域の画素を第1画素値(例えば"1.0")とし、点光源領域でない画素を第2画素値(例えば、"0")とする。補正度合い計算部260Fは、第1補正後画像データで示される画像の各画素を第1画素値または第2画素値としてガウシアンフィルタを適用し、画像の平滑化処理を実施する。そして、補正度合い計算部260Fは、平滑化処理した画像の各画素の画素値輝度Aを計算し、計算した輝度Aに応じて補正度合いαを計算する。
 補正度合い計算部260Fは、方法3では、方法2と同様に、第1補正後画像データで示される画像の各画素を第1画素値または第2画素値とする。そして、補正度合い計算部260Fは、ガイデッドフィルタを適用し、画像のエッジ保存平滑化処理を実施し、平滑化処理した画像の各画素の輝度Aを計算し、計算した輝度Aに応じて補正度合いαを計算する。
 以上、この実施形態においても、上述した実施形態と同様の効果を得ることができる。さらに、この実施形態では、第1補正後画像データにおいて、点光源領域の画素と非点光源領域の画素とが混在する領域がある場合にも、方法1-方法3のいずれかにより、点光源領域と非点光源領域との境界での補正度合いαの変化をなだらかにすることができる。これにより、補正度合いαを使用して画素の色情報が補正された補正後画像データの画像の色がまだらになるなど、不自然な画像になることを抑制することができる。
 これに対して、図20に示す点光源領域の検出処理後の画像のように、点光源領域と非点光源領域との画素とが混在する場合に、そのまま補正度合いαが計算されると、色情報の補正後の画像にドット跡が見えるなどの弊害が発生するおそれがある。また、点光源領域の周辺は、光源からの照明光の照射により色が本来の色と変わっている場合がある。このため、点光源領域と非点光源領域との画素とが混在する場合に、そのまま補正度合いαが計算されると、色情報の補正後の画像が不自然になるおそれがある。
 なお、方法1では、第1補正後画像データで示される画像を9個のブロックに分ける例が示されるが、ブロックの数は、9個に限定されない。ブロック数を増やすほど、補正の精度は向上するが、計算負荷は大きくなる。ブロック数が少ないほど、補正の精度は低下するが、計算負荷は小さくなる。また、方法2および方法3に適用するフィルタは、ガウシアンフィルタまたはガイデッドフィルタに限定されない。
 (第8の実施形態)
 図21は、第8の実施形態の画像処理装置の機能構成の一例を示す。図8と同様の要素については同じ符号を付し、詳細な説明は省略する。図21に示す画像処理装置200Gは、図1から図3に示す画像処理装置200と同様であり、情報処理装置300および表示装置400とともに画像処理システム100に搭載される。
 図21に示す画像処理装置200Gの各機能部は、画像処理装置200Gが実行する画像処理プログラム等のソフトウェアにより実現されてもよく、ハードウェアにより実現されてもよく、ソフトウェアとハードウェアとを協働させることにより実現されてもよい。
 画像処理装置200Gは、図8の画像補正部240Aの代わりに画像補正部240Gを有し、図8のWB補正部230を持たない。画像補正部240Gは、図8の点光源領域検出部250、補正度合い計算部260および点光源領域補正部270Aの代わりに、点光源領域検出部250G、補正度合い計算部260Gおよび点光源領域補正部270Gを有する。
 点光源領域補正部270Gは、図8のWB補正部230と同様のWB補正部275を有し、図8の逆WB変換部271を持たない。点光源領域補正部270Gは、色情報補正部の一例である。画像処理装置200Gのその他の構成は、図8の画像処理装置200Aと同様である。点光源領域補正部270Gは、逆WB変換部271を持たないため、例えば、図8のWB補正部230により生成された第1補正後画像データを逆WB変換部271で元の画像データに変換するときに発生する画質の劣化を抑制することができる。
 点光源領域検出部250Gは、画像データ取得部210が取得した画像データ(入力画像)とWB値計算部220が計算したWB値に応じて、点光源領域の検出処理を実施し、点光源領域情報を補正度合い計算部260Gに出力する。
 この実施形態では、点光源領域検出部250Gは、オートホワイトバランス処理が実施された第1補正後画像データではなく、オートホワイトバランス処理が実施される前の画像データを使用して点光源領域を検出する。このため、図6で説明したYCbCr色空間における色差空間CbCrでの原点からの距離ΔCを使用して点光源領域を検出することができない。これは、オートホワイトバランス処理が実施される前の画像データを使用する場合、主光源が点光源領域として検出されるためである。点光源領域検出部250Gによる点光源領域の検出処理の例は、図22で説明される。点光源領域検出部250Gは、領域検出部の一例である。
 補正度合い計算部260Gは、点光源領域の補正度合いαを"1.0"に設定し、点光源領域以外の補正度合いαを"0"に設定する。なお、補正度合い計算部260Gは、点光源領域の境界部分(図22の円柱領域の外周部分)において、内側から外側に向けて補正度合いαを"0"から"1.0"に徐々に変化させてもよい。
 WB補正部275は、図8のWB補正部230と同様に、WB値計算部220が計算したWB値に応じて画像データの各画素のホワイトバランス処理を実施し、第1補正後画像データを生成する。WB補正部272およびブレンド処理部273の機能は、図8のWB補正部272およびブレンド処理部273の機能とそれぞれ同様である。したがって、点光源領域補正部270Gは、図8の点光源領域補正部270Aと同様に、補正度合いαに応じて、第1補正後画像データおよび第2補正後画像データを画素毎にブレンドして補正後画像データを生成することができる。
 図22は、図21の点光源領域検出部250Gによる処理の一例を示す。点光源領域検出部250Gは、RGB色空間で表される入力画像をXYZ変換し、XYZ色空間で示される入力画像の座標を求める。さらに、点光源領域検出部250Gは、XYZ色空間で示される入力画像の座標をxyY変換し、xyY色空間で示される入力画像の座標を求める。
 また、点光源領域検出部250Gは、WB値計算部220が計算した街灯等の主光源のWB値をXYZ変換し、XYZ色空間で示される主光源のWB値の座標を求める。さらに、点光源領域検出部250Gは、XYZ色空間で示される主光源のWB値の座標をxyY変換し、xyY色空間で示される主光源のWB値の座標である基準座標を求める。
 図22に示すXYZ変換に使用する係数は、撮像装置507の特性に応じて予め計算される。また、xyY変換により得られるx値、y値およびY値は、図22に例示する式により計算される。ここで、画素の色はx値およびy値により表され、画素の明度は、輝度に相当する明度Yにより表される。
 点光源領域検出部250Gは、xyY色空間に変換された入力画像の座標および主光源のWB値の基準座標を使用して、第1補正後画像データに含まれる点光源領域の検出処理を実施する。まず、点光源領域検出部250Gは、xyY色空間において、街灯等の主光源のWB値の基準座標での色(x,y)に対して第1距離ΔCの範囲にある色を、主光源による照明光により照らされている被写体の色とする。色(x,y)は、xyY色空間の色度座標(x,y)により表される。
 次に、点光源領域検出部250Gは、主光源のWB値の基準座標での明度Yに対して第1閾値thL以上大きい明度Yであって、第1距離ΔCの範囲外の画素値(x,y,Y)を有する画素領域である第1領域を点光源領域として検出する。図22に示す例では、点光源領域検出部250Gは、明度Yが閾値thL以上で、色(x,y)が第1距離ΔCの範囲で示される円柱領域に対して横断面方向の外側の領域(第1領域)を点光源領域として検出する。
 そして、点光源領域検出部250Gは、判定した点光源領域を示す点光源領域情報を図21の補正度合い計算部260Gに出力する。補正度合い計算部260Gは、上述したように、例えば、点光源領域であるか否かに応じて、補正度合いαを"1.0"または"0"に設定する。
 この後、図21の点光源領域補正部270Gは、図8の点光源領域補正部270Aと同様に、補正度合いαに応じて、第1補正後画像データおよび第2補正後画像データを画素毎にブレンドして補正後画像データを生成する。
 以上、この実施形態においても、上述した実施形態と同様の効果を得ることができる。さらに、この実施形態では、点光源領域補正部270Gは、逆WB変換部271を持たないため、逆WB変換部271を持つ場合に比べて、点光源領域補正部270Gの処理負荷を軽減することができる。また、点光源領域補正部270Gは、逆WB変換部271を持たないため、例えば、図8のWB補正部230により生成された第1補正後画像データを逆WB変換部271で元の画像データに変換するときの画質の劣化を抑制することができる。
 以上、各実施形態に基づき本発明の説明を行ってきたが、上記実施形態に示した要件に本発明が限定されるものではない。これらの点に関しては、本発明の主旨をそこなわない範囲で変更することができ、その応用形態に応じて適切に定めることができる。
 21 インタフェース装置
 22 ドライブ装置
 23 補助記憶装置
 24 メモリ装置
 30 記録媒体
 100 画像処理システム
 200、200A、200B、200C 画像処理装置
 200D、200E、200F、200G 画像処理装置
 210 画像データ取得部
 220 WB値計算部
 230 WB補正部
 240、240A、240B、240D 画像補正部
 250、250A、250B、250D 点光源領域検出部
 250E、250F、250G 点光源領域検出部
 260、260D、260E、260F、260G 補正度合い計算部
 270、270A、270B、270C、270E、270G 点光源領域補正部
 271 逆WB変換部
 272 WB補正部
 273 ブレンド処理部
 275 WB補正部
 280D 点光源領域補正部
 290D 画像選択部
 300 情報処理装置
 400 表示装置
 500 移動体
 502 無線通信装置
 503 センサ
 504 駆動装置
 505 ランプ装置
 506 ナビゲーション装置
 507(507A、507B、507C、507D、507E) 撮像装置

Claims (17)

  1.  第1画像データを取得する画像データ取得部と、
     前記第1画像データに応じてオートホワイトバランス処理に使用するホワイトバランス値を計算するホワイトバランス値計算部と、
     前記ホワイトバランス値に応じて、前記第1画像データのオートホワイトバランス処理を実施し、第1補正後画像データを生成する第1ホワイトバランス補正部と、
     前記第1補正後画像データにおいて、輝度に色差成分量を付加した輝度である第1輝度を計算し、前記第1輝度が第1閾値より大きい画素を含む第1領域を検出する領域検出部と、
     前記第1補正後画像データにおいて、少なくとも前記第1領域に含まれる画素の色情報の補正度合いを前記第1輝度に応じて計算する補正度合い計算部と、
     前記第1補正後画像データにおいて、少なくとも前記第1領域に含まれる画素の色情報を前記補正度合いに応じて補正する色情報補正部と、
     を有する画像処理装置。
  2.  前記領域検出部は、
     前記第1補正後画像データに含まれる少なくとも1つの画素毎に、輝度情報を含む色空間での輝度と前記色空間での色差成分量とを加算することで、前記第1輝度を計算する
     請求項1に記載の画像処理装置。
  3.  前記補正度合い計算部は、前記第1輝度が前記第1閾値以上で、前記第1閾値より大きい第2閾値以下の画素の前記補正度合いを、前記第1輝度が大きくなるにしたがい0%から100%に設定し、前記第1輝度が前記第2閾値より大きい画素の前記補正度合いを100%に設定する
     請求項1または請求項2に記載の画像処理装置。
  4.  前記領域検出部は、前記第1領域の画素を示す情報を前記補正度合い計算部に出力し、
     前記補正度合い計算部は、前記第1補正後画像データで示される画像を複数のブロック分けする場合に各ブロックに含まれる前記第1領域の画素数に応じて補正度合いを求める
     請求項1または請求項2に記載の画像処理装置。
  5.  前記領域検出部は、前記第1領域の画素を示す情報を前記補正度合い計算部に出力し、
     前記補正度合い計算部は、前記第1補正後画像データで示される画像において、前記第1領域の画素を第1画素値とし、前記第1領域でない画素を第2画素値として平滑化処理を実施することにより前記補正度合いを求める
     請求項1または請求項2に記載の画像処理装置。
  6.  前記色情報補正部は、
     前記第1画像データに対して標準光源のホワイトバランス値によるホワイトバランス処理を実施し、第2補正後画像データを生成する第2ホワイトバランス補正部と、
     前記補正度合いに基づいて、前記第1補正後画像データおよび前記第2補正後画像データの画素値をブレンドするブレンド処理部と、
     を有する請求項1ないし請求項5のいずれか1項に記載の画像処理装置。
  7.  前記色情報補正部は、前記補正度合いが大きい画素ほど、画素の色を無彩色に近づける
     請求項3に記載の画像処理装置。
  8.  第1画像データを取得する画像データ取得部と、
     前記第1画像データに応じてオートホワイトバランス処理に使用するホワイトバランス値を計算するホワイトバランス値計算部と、
     前記ホワイトバランス値に応じて、前記第1画像データのオートホワイトバランス処理を実施し、第1補正後画像データを生成する第1ホワイトバランス補正部と、
     前記第1補正後画像データにおいて、複数種の光源毎に、輝度に色差成分量を付加した輝度である第1輝度を計算し、前記第1輝度が第1閾値より大きい画素を含む第1領域を検出する領域検出部と、
     前記第1領域において、特定の色情報を含む特定画素の第1補正度合いを計算し、前記特定画素以外の通常画素の第2補正度合いを計算する補正度合い計算部と、
     少なくとも前記第1領域に含まれる前記特定画素の色情報を前記第1補正度合いに応じて補正する第1色情報補正部と、
     少なくとも前記第1領域に含まれる前記通常画素の色情報を前記第2補正度合いに応じて補正する第2色情報補正部と、
     を有する画像処理装置。
  9.  前記補正度合い計算部は、前記第1領域において、色差空間CbCrの極座標(r、θ)の距離rが第1閾値より大きい画素を前記特定画素に設定し、前記距離rが第1閾値以下の画素を前記通常画素に設定する
     請求項8に記載の画像処理装置。
  10.  前記第1色情報補正部は、
     前記第1画像データに対して標準光源のホワイトバランス値によるホワイトバランス処理を実施し、第2補正後画像データを生成する第2ホワイトバランス補正部と、
     前記第1補正度合いに基づいて、前記第1補正後画像データおよび前記第2補正後画像データの画素値をブレンドするブレンド処理部と、を有し、
     前記第2色情報補正部は、前記第2補正度合いが大きい画素ほど、画素の色を無彩色に近づける
     請求項8または請求項9に記載の画像処理装置。
  11.  前記補正度合い計算部は、信号機の赤色灯の色情報を含む画素を前記特定画素に設定する
     請求項8ないし請求項10のいずれか1項に記載の画像処理装置。
  12.  第1画像データを取得する画像データ取得部と、
     前記第1画像データに応じてオートホワイトバランス処理に使用するホワイトバランス値を計算するホワイトバランス値計算部と、
     前記ホワイトバランス値に応じて、前記第1画像データのオートホワイトバランス処理を実施し、第1補正後画像データを生成する第1ホワイトバランス補正部と、
     前記第1補正後画像データにおいて、輝度に色差成分量を付加した輝度である第1輝度を計算し、前記第1輝度が第1閾値より大きい画素を含む第1領域を検出する領域検出部と、
     前記第1領域に含まれる画素、前記第1領域の外側の所定範囲である第2領域に含まれる画素および前記第2領域の外側の領域の画素の補正度合いを、前記第1領域が大きく、前記外側の領域が小さくなるようにそれぞれ設定する補正度合い計算部と、
     前記第1補正後画像データにおいて、少なくとも前記第1領域に含まれる画素の色情報を前記補正度合いに応じて補正する色情報補正部と、
     を有する画像処理装置。
  13.  前記補正度合い計算部は、前記第1領域に含まれる画素の補正度合いを100%に設定し、前記第1領域の外側の所定範囲の第2領域に含まれる画素の補正度合いを前記第1領域からの距離が大きくなるにしたがい100%から0%に設定し、前記第2領域の外側の画素の補正度合いを0%に設定する
     請求項12に記載の画像処理装置。
  14.  前記色情報補正部は、
     前記第1画像データに対して標準光源のホワイトバランス値によるホワイトバランス処理を実施し、第2補正後画像データを生成する第2ホワイトバランス補正部と、を有し、
     前記第1領域に含まれる画素の画素値を前記第2補正後画像データの画素値に設定し、
     前記第2領域に含まれる画素の画素値を、前記補正度合いに基づいて、前記第1補正後画像データおよび前記第2補正後画像データの画素値をブレンドすることで設定し、
     前記第2領域の外側に含まれる画素の画素値を前記第1補正後画像データの画素値に設定し、
     前記補正度合いは、前記第1補正後画像データの画素値および前記第2補正後画像データの画素値のブレンド率である
     請求項12または請求項13に記載の画像処理装置。
  15.  第1画像データを取得する画像データ取得部と、
     前記第1画像データに応じてオートホワイトバランス処理に使用するホワイトバランス値を計算するホワイトバランス値計算部と、
     前記ホワイトバランス値に応じて、前記第1画像データのオートホワイトバランス処理を実施し、第1補正後画像データを生成する第1ホワイトバランス補正部と、
     前記ホワイトバランス値のxyY色空間での座標である基準座標を計算し、xyY色空間で示される前記第1画像データにおいて、明度Yが前記基準座標の明度Yに対して第1閾値以上大きく、かつ、色度座標(x,y)が前記基準座標の色度座標(x,y)より第1距離以上離れた画素を含む第1領域を検出する領域検出部と、
     前記第1画像データにおいて、前記第1領域に含まれる画素の色情報の補正度合いを前記第1領域に含まれない画素の色情報の補正度合いより大きく設定する補正度合い計算部と、
     前記第1補正後画像データにおいて、少なくとも前記第1領域に含まれる画素の色情報を前記補正度合いに応じて補正する色情報補正部と、
     を有する画像処理装置。
  16.  前記色情報補正部は、
     前記第1画像データに対して標準光源のホワイトバランス値によるホワイトバランス処理を実施し、第2補正後画像データを生成する第2ホワイトバランス補正部と、
     前記補正度合いに基づいて、前記第1補正後画像データおよび前記第2補正後画像データの画素値をブレンドするブレンド処理部と、
     を有する請求項15に記載の画像処理装置。
  17.  第1画像データを取得する画像データ取得処理と、
     前記第1画像データに応じてオートホワイトバランス処理に使用するホワイトバランス値を計算するホワイトバランス値計算処理と、
     前記ホワイトバランス値に応じて、前記第1画像データのオートホワイトバランス処理を実施し、第1補正後画像データを生成する第1ホワイトバランス補正処理と、
     前記第1補正後画像データにおいて、輝度に色差成分量を付加した輝度である第1輝度を計算し、前記第1輝度が第1閾値より大きい画素を含む第1領域を検出する領域検出処理と、
     前記第1補正後画像データにおいて、少なくとも前記第1領域に含まれる画素の色情報の補正度合いを前記第1輝度に応じて計算する補正度合い計算処理と、
     前記第1補正後画像データにおいて、少なくとも前記第1領域に含まれる画素の色情報を前記補正度合いに応じて補正する色情報補正処理と、
     を実施する画像処理方法。
PCT/JP2022/002723 2022-01-25 2022-01-25 画像処理装置および画像処理方法 WO2023144894A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/002723 WO2023144894A1 (ja) 2022-01-25 2022-01-25 画像処理装置および画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/002723 WO2023144894A1 (ja) 2022-01-25 2022-01-25 画像処理装置および画像処理方法

Publications (1)

Publication Number Publication Date
WO2023144894A1 true WO2023144894A1 (ja) 2023-08-03

Family

ID=87471173

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/002723 WO2023144894A1 (ja) 2022-01-25 2022-01-25 画像処理装置および画像処理方法

Country Status (1)

Country Link
WO (1) WO2023144894A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004200971A (ja) * 2002-12-18 2004-07-15 Nikon Corp 画像処理装置、画像処理プログラム、画像処理方法および電子カメラ
JP2019022027A (ja) * 2017-07-14 2019-02-07 キヤノン株式会社 画像処理装置
JP2020156016A (ja) * 2019-03-22 2020-09-24 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004200971A (ja) * 2002-12-18 2004-07-15 Nikon Corp 画像処理装置、画像処理プログラム、画像処理方法および電子カメラ
JP2019022027A (ja) * 2017-07-14 2019-02-07 キヤノン株式会社 画像処理装置
JP2020156016A (ja) * 2019-03-22 2020-09-24 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム

Similar Documents

Publication Publication Date Title
US9319647B2 (en) Image processing device
CN111754440B (zh) 车牌图像增强方法、***、设备及存储介质
WO2015015580A1 (ja) 撮像装置、撮像方法並びに車載撮像システム
US11386867B2 (en) In-vehicle display control device
US11172173B2 (en) Image processing device, image processing method, program, and imaging device
CN111209775B (zh) 信号灯图像处理方法、装置、设备及存储介质
CN114189634B (zh) 图像采集方法、电子设备及计算机存储介质
CN113306486B (zh) 车内照明装置控制方法、存储介质和电子设备
CN110365872B (zh) 相机像素的动态去马赛克
CN111861893B (zh) 一种消除图像伪彩色边方法、***、设备及计算机介质
WO2023144894A1 (ja) 画像処理装置および画像処理方法
JP2006311003A (ja) 車両用画像生成装置および方法
KR102333707B1 (ko) 저조도 이미징 시스템
JP6411644B2 (ja) ヒストグラム拡散を伴う自動車両カメラ装置
US20220318968A1 (en) Image processing device and image processing method
CN113421195B (zh) 一种图像处理方法、装置及设备
JP7279613B2 (ja) 画像処理装置
JP2022188888A (ja) 画像処理装置および画像処理方法
WO2023026407A1 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP5252247B2 (ja) ターゲット位置決定装置
WO2022215234A1 (ja) 画像処理装置および画像処理方法
WO2023011191A1 (zh) 昼夜切换方法、电子设备和存储介质
JP2011259087A (ja) カラーターゲット位置決定装置
WO2020195515A1 (ja) 撮像装置及び画像処理方法
JP4145967B2 (ja) 駐車車両検出方法及びその装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22923763

Country of ref document: EP

Kind code of ref document: A1