WO2018163725A1 - 画像処理装置、および画像処理方法、並びにプログラム - Google Patents

画像処理装置、および画像処理方法、並びにプログラム Download PDF

Info

Publication number
WO2018163725A1
WO2018163725A1 PCT/JP2018/004983 JP2018004983W WO2018163725A1 WO 2018163725 A1 WO2018163725 A1 WO 2018163725A1 JP 2018004983 W JP2018004983 W JP 2018004983W WO 2018163725 A1 WO2018163725 A1 WO 2018163725A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
infrared image
far
unit
infrared
Prior art date
Application number
PCT/JP2018/004983
Other languages
English (en)
French (fr)
Inventor
友希 鴇崎
神尾 和憲
敏之 佐々木
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to JP2019504411A priority Critical patent/JP7014218B2/ja
Priority to US16/482,514 priority patent/US10880498B2/en
Publication of WO2018163725A1 publication Critical patent/WO2018163725A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/11Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J5/00Radiation pyrometry, e.g. infrared or optical thermometry
    • G01J5/02Constructional details
    • G01J5/08Optical arrangements
    • G01J5/0846Optical arrangements having multiple detectors for performing different types of detection, e.g. using radiometry and reflectometry channels
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J5/00Radiation pyrometry, e.g. infrared or optical thermometry
    • G01J5/02Constructional details
    • G01J5/08Optical arrangements
    • G01J5/0859Sighting arrangements, e.g. cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J5/00Radiation pyrometry, e.g. infrared or optical thermometry
    • G01J2005/0077Imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Definitions

  • the present disclosure relates to an image processing apparatus, an image processing method, and a program.
  • the present invention relates to an image processing apparatus, an image processing method, and a program that perform high image quality processing of low-quality images such as far-infrared images.
  • Patent Document 1 Japanese Patent Laid-Open No. 2011-212387
  • Patent Document 2 Japanese Patent Laid-Open No. 2008-183933 disclose such an imaging apparatus using two cameras.
  • the far-infrared camera generally has a problem that the resolution is lower than that of a visible light camera that performs photographing with visible light.
  • an image processing device that realizes high image quality of a far-infrared image that is a captured image of a far-infrared camera, for example. And an image processing method and a program.
  • the first aspect of the present disclosure is: Input a far-infrared image and a plurality of reference images taken of the same subject as the far-infrared image, A first combining unit that generates a first combined signal that is a combined signal of the plurality of reference images;
  • the image processing apparatus includes a second combining unit that generates a high-quality image of the far infrared image by combining the far infrared image and the first combined signal.
  • the second aspect of the present disclosure is: An image processing method executed in an image processing apparatus, Inputting a far-infrared image and a plurality of reference images obtained by photographing the same subject as the far-infrared image; A first synthesized signal generating step in which a first synthesizing unit generates a first synthesized signal that is a synthesized signal of the plurality of reference images; In the image processing method, the second combining unit executes a step of generating a high quality image of the far infrared image by combining the far infrared image and the first combined signal.
  • the third aspect of the present disclosure is: A program for executing image processing in an image processing apparatus; Inputting a far-infrared image and a plurality of reference images obtained by photographing the same subject as the far-infrared image; A first synthesized signal generating step of generating a first synthesized signal that is a synthesized signal of the plurality of reference images in the first synthesis unit; In the second synthesizing unit, a step of generating a high quality image of the far infrared image by synthesizing the far infrared image and the first synthesized signal. It is in the program to be executed.
  • the program of the present disclosure is a program that can be provided by, for example, a storage medium or a communication medium provided in a computer-readable format to an information processing apparatus or a computer system that can execute various program codes.
  • a program in a computer-readable format, processing corresponding to the program is realized on the information processing apparatus or the computer system.
  • system is a logical set configuration of a plurality of devices, and is not limited to one in which the devices of each configuration are in the same casing.
  • an apparatus and a method for executing a high-quality image processing of a far infrared image are realized.
  • a far-infrared image and a plurality of reference images obtained by photographing the same subject as the far-infrared image, and a first combining unit that generates a first combined signal that is a combined signal of the plurality of reference images;
  • a second combining unit that generates a high-quality image of the far infrared image by combining the far infrared image and the first combined signal.
  • the reference image is, for example, a visible light image and a near-infrared image
  • the first combining unit outputs the first combined signal based on the visible light image-far-infrared image correlation amount and the near-infrared image-far-infrared image correlation amount.
  • the first composite signal is generated by setting the contribution ratio of an image having a high correlation amount with the far-infrared image among the two images of the visible light image and the near-infrared image.
  • the image processing apparatus of the present disclosure inputs, for example, a high-resolution image obtained by photographing the same subject as a reference image together with a low-resolution far-infrared image (FIR: Far IneraRed), and performs image processing using the reference image.
  • This is a device that generates a high-quality far-infrared image (FIR: Far IneraRed), for example, a far-infrared image (FIR: Far IneraRed) with an increased resolution.
  • VIS Visible light image
  • NIR Near-infrared image
  • FIR Far IneraRed
  • A Visible light image
  • B Short infrared image
  • FIR Far IneraRed
  • FIR Far IneraRed
  • the visible light image (VIS) 10 is an image having a wavelength in the range of about 0.4 ⁇ m to 0.7 ⁇ m.
  • the visible light image (VIS) 10 is a color image such as an RGB image taken by a general camera. is there.
  • the infrared image has a wavelength of. It is an image consisting of long wavelength light of 0.7 ⁇ m or more.
  • An infrared image capturing camera that captures an infrared image can capture a person who generates heat in the dark, for example, and is used as a surveillance camera.
  • NIR Near infrared
  • SWIR Short infrared
  • FIR Far-infrared
  • An image taken by the near-infrared camera is a near-infrared image (NIR) 20 having a wavelength of about 0.7 to 1 ⁇ m.
  • An image taken by the short infrared camera is a near infrared image (NIR) 30 having a wavelength of about 1 to 2.5 ⁇ m.
  • An image taken by the far-infrared camera is a far-infrared image (FIR) 40 having a wavelength of about 8 to 14 ⁇ m.
  • an image processing example will be described in which high-quality processing is performed on a far-infrared image 40 that mainly captures far-infrared light having a wavelength of about 8 to 14 ⁇ m.
  • the processing of the present disclosure is not limited to far-infrared images, but can be applied to various low-quality images such as other infrared images and fluorescent images, and high-quality processing for low-resolution images.
  • FIG. 2 is a diagram illustrating an example of a pixel array on the image sensor that captures the visible light image 10 and the far-infrared image 40.
  • the visible light image in FIG. 2A shows an example of a Bayer array composed of RGB pixels. This Bayer array is used for image sensors of many visible light photographing cameras. Each pixel of the image sensor outputs an electrical signal corresponding to the light amount of each R, G, or B wavelength light.
  • the far-infrared image of FIG. 2 (2) captures far-infrared (FIR) wavelength light at all pixel positions.
  • an infrared image pickup device such as a far infrared ray generally has a lower resolution than a visible light image pickup device. This is because infrared rays, particularly far infrared rays, have long wavelength light, and it is difficult to use an image sensor having a high-density pixel array.
  • the image processing apparatus performs image processing on a low-resolution far-infrared image to generate a high-resolution far-infrared image.
  • the image processing unit 50 of the image processing apparatus includes (A) a captured image of the imaging unit, (A) Visible light image (VIS), (B) Near infrared image (NIR), (C) Far infrared image (FIR), These three types of images are input. Or (A) Visible light image (VIS), (B) Short infrared image (SWIR), (C) Far infrared image (FIR), These three types of images are input.
  • the image processing unit 50 uses these three input images to execute a high-quality image processing of a low-resolution far-infrared image, and displays a high-quality image as shown in (B), that is, a high-resolution far-field image. Generate and output an infrared image. That is, the correction target image that is the target for high image quality processing is a far-infrared image. As a reference image for this image correction process, a visible light image and a near infrared image, or a visible light image and a short infrared image are used.
  • FIG. 4 is a block diagram illustrating a configuration of an imaging apparatus that is an example of the image processing apparatus 100 of the present disclosure.
  • the image processing device of the present disclosure is not limited to the imaging device, and includes, for example, an information processing device such as a PC that inputs a captured image of the imaging device and executes image processing.
  • an information processing device such as a PC that inputs a captured image of the imaging device and executes image processing.
  • a configuration and processing of an imaging apparatus will be described as an example of the image processing apparatus 100 of the present disclosure.
  • An image processing apparatus 100 as an imaging apparatus illustrated in FIG. 4 includes a control unit 101, a storage unit 102, a codec 103, an input unit 104, an output unit 105, an imaging unit 106, and an image processing unit 120.
  • the imaging unit 106 includes a far infrared image capturing unit 111 that captures a far infrared image, a near infrared image capturing unit 112 that captures a near infrared image, and a visible light image capturing unit 113 that captures a normal visible light image. .
  • the far-infrared image capturing unit 111 performs imaging using an image sensor including pixels that receive the far-infrared rays described above with reference to FIG. 2B, and the electric power corresponding to the amount of incident far-infrared light from each pixel. Output a signal.
  • the near-infrared image capturing unit 112 performs imaging using an image sensor including pixels that receive near-infrared rays, and outputs an electrical signal corresponding to the amount of incident near-infrared light from each pixel.
  • the visible light image capturing unit 113 has, for example, RGB pixels having the Bayer array described above with reference to FIG. 2A, and outputs a signal corresponding to input light of each RGB color for each pixel. It is an image sensor.
  • the far-infrared image capturing unit 111, the near-infrared image capturing unit 112, and the visible light image capturing unit 113 are two image capturing units set at predetermined intervals and apart from each other, and each captured image is from a different viewpoint. It becomes an image.
  • the corresponding subject image of two images from different viewpoints, that is, the pixel at the same position, is not photographed with the same subject image, and subject displacement corresponding to the parallax occurs.
  • the far-infrared image capturing unit 111, the near-infrared image capturing unit 112, and the visible light image capturing unit 113 capture a total of three still images, one each.
  • the shooting frame of each imaging unit is a continuous image frame taken by each imaging unit. Note that the control of the photographing timing is performed by the control unit 101.
  • the control unit 101 controls various processes executed in the imaging apparatus 100, such as image capturing, signal processing for captured images, image recording processing, and display processing.
  • the control unit 101 includes, for example, a CPU that executes processing according to various processing programs stored in the storage unit 102, and functions as a data processing unit that executes the program.
  • the storage unit 102 includes a captured image storage unit, a processing program executed by the control unit 101, a storage unit for various parameters, and a RAM and a ROM that function as a work area for data processing.
  • the codec 103 performs encoding and decoding processing such as compression and decompression processing of a captured image.
  • the input unit 104 is a user operation unit, for example, and inputs control information such as shooting start and end, various mode settings, and the like.
  • the output unit 105 includes a display unit, a speaker, and the like, and is used for displaying captured images and through images, outputting sound, and the like.
  • the image processing unit 120 inputs the three images input from the imaging unit 106, applies these three images, and executes an image quality enhancement process for the input image. Specifically, for example, a high-quality far infrared image (FIR) 180 with high image quality is generated.
  • FIR far infrared image
  • the image processing unit 120 is A far-infrared image (FIR) 151 photographed by the far-infrared image capturing unit 111; A near infrared image (NIR) 152 photographed by the near infrared image capturing unit 112; A visible light image (VIS) 153 captured by the visible light image capturing unit 113; These three types of images are input, and using these three types of images, a high-quality far-infrared image (FIR) 180 subjected to high-quality processing is generated and output.
  • FIR far-infrared image
  • NIR near infrared image
  • VIS visible light image
  • the correction target image to be processed for high image quality is a far infrared image.
  • a visible light image and a near-infrared image are used.
  • the image processing unit 120 A far-infrared image (FIR) 151 photographed by the far-infrared image capturing unit 111; A near infrared image (NIR) 152 photographed by the near infrared image capturing unit 112; A visible light image (VIS) 153 captured by the visible light image capturing unit 113; These three types of images are input to the image registration unit 201.
  • FIR far-infrared image
  • NIR near infrared image
  • VIS visible light image
  • the image alignment unit 201 executes image alignment processing so that the same subject is positioned at the same position for these three types of images. Note that this image alignment is performed by existing processing, for example, processing using the parallax amount of each image, a motion vector, or the like. When the image sizes of the three types of images are different, it is preferable to perform a size adjustment in advance and perform a scaling process to match the same size, and then perform an image alignment process.
  • the near-infrared image 152 that is a reference image and the visible light image 153 are input to low-pass filters (LPF) 202a and 202b.
  • LPF low-pass filters
  • a resolution adjustment process is executed to reduce the resolution level of the near-infrared image 152 that is the reference image and the visible light image 153 to the resolution level of the far-infrared image 151 that is the correction target image. To do.
  • This resolution adjustment process is a process for accurately executing the correlation amount calculation in the next correlation amount calculation units 203a and 203b.
  • the resolution of the far infrared image is lower than that of the visible light image or the near infrared image.
  • the correlation amount calculation units 203a and 203b calculate the correlation amount between the far-infrared image that is the correction target image and the reference image (visible light image and near-infrared image).
  • the correlation amount calculation process if the resolutions of the images to be compared are different, it is difficult to accurately calculate the correlation amount.
  • the correlation amount can be calculated more accurately by matching the resolutions of the images to be compared.
  • Application processing of the low-pass filters (LPF) 202a and 202b is performed for this purpose. That is, it is a process for bringing the resolution of the near-infrared image 152 as the reference image and the visible light image 153 closer to the resolution level of the far-infrared image 151.
  • FIG. 6 shows processing of the low-pass filters (LPF) 202a and 202b.
  • the low-pass filter (LPF) 202a receives the near-infrared image 152, executes a process to which the LPF is applied, and generates and outputs an image with reduced resolution, that is, a reduced-resolution near-infrared image 152b.
  • the low-pass filter (LPF) 202B receives the visible light image 153, executes a process to which the LPF is applied, and generates and outputs an image with reduced resolution, that is, a reduced-resolution visible light image 153b. .
  • an optimum LPF is applied to reduce the resolution of each image to a target resolution, that is, the resolution of the far-infrared image 151 that is the correction target image.
  • a target resolution that is, the resolution of the far-infrared image 151 that is the correction target image.
  • a 5 ⁇ 5 Gaussian filter having coefficients as shown in FIG. 6 can be applied.
  • the resolution adjustment that reduces the resolution level of the near-infrared image 152 that is the reference image and the visible light image 153 to the resolution level of the far-infrared image 151 that is the correction target image. Processing is executed.
  • the processing results of the low-pass filters (LPF) 202a and 202b are input to the correlation amount calculation units 203a and 203b.
  • the near-infrared image 152 that has undergone the resolution reduction process and the far-infrared image 151 that is the correction target image are input to the correlation amount calculation unit 203a.
  • the visible light image 153 that has been subjected to the resolution reduction process and the far-infrared image 151 that is the correction target image are input to the correlation amount calculation unit 203b. Processing executed by the correlation amount calculation units 203a and 203b will be described with reference to FIGS.
  • FIG. 7 is a diagram illustrating the processing of the correlation amount calculation unit 203a.
  • the correlation amount calculation unit 203 a is a far-infrared image 151 that is a correction target image, and a reference image that has been subjected to resolution reduction processing to a resolution that is substantially the same as the resolution of the far-infrared image 151.
  • a resolution-reduced near-infrared image 152b is input.
  • the correlation amount calculation unit 203a calculates the correlation amount between these two input images. It should be noted that various existing techniques can be used for the image correlation amount calculation processing.
  • FIG. 7 shows an example in which ZNCC (zero average normalized cross-correlation) calculated by the following (Equation 1) is applied as the correlation amount.
  • FIR is a pixel value (luminance value) of a far infrared image
  • NIR is the pixel value (luminance value) of the near infrared image
  • the FIR with a bar at the top is the average value of the pixel values (luminance values) of the far-infrared image of the local region (for example, 7 ⁇ 7 pixels) to be calculated for correlation
  • the NIR with a bar at the top is the average pixel value (luminance value) of the near-infrared image of the local region (for example, 7 ⁇ 7 pixels) that is the target of correlation calculation, It is.
  • ZNCC calculated according to the above (Equation 1) is obtained as a correlation amount for each predetermined local region unit (for example, 7 ⁇ 7 pixels). This result is shown as the output of the correlation amount calculation unit 203a in FIG.
  • NIRcorr Far-infrared image-near-infrared image correlation
  • FIG. 8 is a diagram illustrating the processing of the correlation amount calculation unit 203b.
  • the correlation amount calculation unit 203b is a far-infrared image 151 that is a correction target image, and a reference image that has been subjected to resolution reduction processing to a resolution that is substantially the same as the resolution of the far-infrared image 151.
  • a resolution-reduced visible light image 153b is input.
  • the correlation amount calculation unit 203b calculates the correlation amount between these two input images.
  • FIG. 8 shows an example in which ZNCC (zero average normalized cross-correlation) calculated by the following (Equation 2) is applied as the correlation amount.
  • FIR is a pixel value (luminance value) of a far infrared image
  • VIS is a pixel value (luminance value) of a visible light image
  • the FIR with a bar at the top is the average value of the pixel values (luminance values) of the far-infrared image of the local region (for example, 7 ⁇ 7 pixels) to be calculated for correlation
  • the VIS with a bar at the top is an average value of pixel values (luminance values) of a visible light image of a local region (for example, 7 ⁇ 7 pixels) to be calculated for correlation, It is.
  • ZNCC calculated according to the above (Equation 2) is obtained as a correlation amount for each predetermined local region unit (for example, 7 ⁇ 7 pixels). This result is shown as an output of the correlation amount calculation unit 203b in FIG.
  • the correlation amount calculation unit 203a calculates a far infrared image-near infrared image correlation amount (NIRcorr) 161 and outputs the calculated value to the first composite ratio calculation unit 204. Further, the correlation amount calculation unit 203 b calculates a far infrared image-visible light image correlation amount (VIScorr) 162 and outputs the calculated value to the first composite ratio calculation unit 204.
  • NIRcorr far infrared image-near infrared image correlation amount
  • VIScorr far infrared image-visible light image correlation amount
  • the first synthesis ratio calculation unit 204 inputs two correlation amounts from the correlation amount calculation units 203 a and 203 b to generate a first synthesis ratio ⁇ 211, and sends it to the first synthesis unit 205. Output.
  • the first synthesizing unit 205 performs a synthesizing process of the near-infrared image 152 that is the reference image and the visible light image 153, and outputs the first synthesized signal (guide signal) 212 that is the synthesized image to the second synthesizing unit 206. To do.
  • the first synthesis ratio calculation unit 204 executes a process for calculating the synthesis ratio ⁇ of each image applied to the synthesis process of the near-infrared image 152 and the visible light image 153 in the first synthesis unit 205.
  • the first composition ratio ⁇ is a composition ratio of the near-infrared image in the composition process of the near-infrared image and the visible light image in the first composition unit 205, 0 ⁇ ⁇ ⁇ 1 With the value of The first synthesis unit 205
  • An image composition process is performed by applying a near-infrared image (NIR) with a composition ratio ⁇ and a visible light image (VIS) with a composition ratio (1- ⁇ ). Details of this processing will be described later.
  • NIR near-infrared image
  • VIS visible light image
  • FIG. 9 shows input data to the first synthesis ratio calculation unit 204 and output data from the first synthesis ratio calculation unit 204.
  • the first synthesis ratio calculation unit 204 inputs the following data.
  • NIRcorr far infrared image-near infrared image correlation amount
  • VIScorr far infrared image-visible light image correlation amount
  • the first synthesis ratio calculation unit 204 for example, according to the graph shown in FIG. (A) Far infrared image-near infrared image correlation (NIRcorr) 161, (B) Far-infrared image-visible light image correlation (VIScorr) 162, The first synthesis ratio ⁇ 211 is calculated from these input values.
  • NIRcorr Far infrared image-near infrared image correlation
  • VIScorr Far-infrared image-visible light image correlation
  • (NIRcorr-VIScorr) It is the graph which set the 1st synthetic ratio alpha to the vertical axis.
  • (NIRcorr-VIScorr) on the horizontal axis is (A) a far-infrared image-near-infrared image correlation amount (NIRcorr) 161 input from the correlation amount calculation unit 203a; (B) a far-infrared image-visible light image correlation amount (VIScorr) 162 input from the correlation amount calculation unit 203b; This corresponds to the difference between these two correlation amounts.
  • the far-infrared image-near-infrared image correlation amount (NIRcorr) 161 When the far-infrared image-near-infrared image correlation amount (NIRcorr) 161 is larger than the far-infrared image-visible light image correlation amount (VIScorr) 162, it becomes 0 or more on the right side of the horizontal axis.
  • the far-infrared image-near-infrared image correlation amount (NIRcorr) 161 is smaller than the far-infrared image-visible light image correlation amount (VIScorr) 162, it is 0 or less on the left side of the horizontal axis.
  • the near-infrared image has a higher correlation amount with the far-infrared image than the visible light image. That is, it means that the near-infrared image is an image having characteristics closer to the far-infrared image than the visible light image.
  • the amount of correlation with the far-infrared image is higher in the visible light image than in the near-infrared image. That is, it means that a visible light image is an image having characteristics closer to that of a far infrared image than a near infrared image.
  • the first synthesis ratio ⁇ 0 to 0.5
  • the first synthesis ratio ⁇ 0.5
  • the first synthesis ratio ⁇ 0.5
  • the first synthesis ratio ⁇ 0.5 to 1
  • the first synthesis ratio ⁇ 1, This means that in the synthesis process of the visible light image and the near infrared image in the first synthesis unit 205, the synthesis process using only the near infrared image is performed without using the visible light image. In other words, this means that the composition processing using only the near-infrared image having a high correlation with the far-infrared image that is the correction target image is performed.
  • the first synthesis ratio ⁇ 0.5
  • the first synthesis ratio ⁇ 0, This means that in the synthesis process of the visible light image and the near-infrared image in the first synthesis unit 205, a synthesis process that does not use the near-infrared image is performed using the visible light image block. In other words, this means that the composition processing using only the near-visible light image having a high correlation with the far-infrared image that is the correction target image is performed.
  • the graph correspondence data shown in FIG. 10 is held in advance by the first combination ratio calculation unit 204, and the first combination ratio calculation unit 204 determines the input value based on the correspondence data, that is, (A) Far infrared image-near infrared image correlation (NIRcorr) 161, (B) Far-infrared image-visible light image correlation (VIScorr) 162, The first synthesis ratio ⁇ 211 is calculated from these input values.
  • NIRcorr Far infrared image-near infrared image correlation
  • VIScorr Far-infrared image-visible light image correlation
  • the first synthesis ratio ⁇ 211 is calculated in units of correlation amount calculation areas in the correlation amount calculation units 203a and 203b, for example, in units of 7 ⁇ 7 pixel areas as described above.
  • the first composition unit 205 calculates a composition ratio so that composition processing is performed preferentially using a reference image having a large correlation amount with the far-infrared image that is the correction target image. To do.
  • the first combination ratio calculation unit 204 receives the two correlation amounts from the correlation amount calculation units 203a and 203b, generates the first combination ratio ⁇ 211, and outputs the first combination ratio ⁇ 211 to the first combination unit 205.
  • the first synthesis unit 205 executes a synthesis process of the near-infrared image 152 that is the reference image and the visible light image 153, and generates a first synthesized signal (guide signal) 212 that is the synthesized image.
  • the data is output to the second synthesis unit 206.
  • the first synthesis unit 205 receives the first synthesis ratio ⁇ 211 from the first synthesis ratio calculation unit 204. Further, a near infrared image 152 and a visible light image 153 are input. The first synthesizing unit 205 performs synthesis processing of the near-infrared image 152 and the visible light image 153 in accordance with the first synthesis ratio ⁇ 211 to generate a first synthesized signal (guide signal) 212 that is a synthesized image. The generated first combined signal (guide signal) 212 is output to the second combining unit 206.
  • First synthesized signal (guide signal) 212 generated by the first synthesis unit 205 for example, a signal (fusion1_out) according to the following (Equation 3) as shown in FIG.
  • the first composite signal (guide signal (fusion1_out)) 212 calculated by the above (Equation 3) is the same as the first composite ratio ⁇ 211. Thus, the calculation is performed in units of 7 ⁇ 7 pixel areas.
  • Equation 3 performs a DC cancellation, that is, a process of eliminating a direct current component in order to reduce the level shift between the near-infrared image 152 and the visible light image 153 and extract only the information on the waveform change in the local region.
  • DC component cancellation processing is performed by subtraction processing in parentheses in Equation 3, (NIR- ⁇ NIR), (VIS- ⁇ VIS).
  • the first synthesis unit 205 executes the synthesis process of the near-infrared image 152 and the visible light image 153 according to the first synthesis ratio ⁇ 211 to generate the first synthesized signal (guide signal (fusion1_out)) that is a synthesized image. 212 is generated. The generated first combined signal (guide signal) 212 is output to the second combining unit 206.
  • the second synthesis unit 206 A far-infrared image 151; First composite signal (guide signal) 212, Enter these A high-quality far-infrared image 180 is generated and output.
  • the second synthesis unit 206 includes a tap selection unit 231, a correction parameter (coefficient) calculation unit 232, and an image correction unit 233.
  • the tap selection unit 231 inputs a low-resolution far-infrared image 231 and performs tap selection for performing image correction with an improved resolution level. Specifically, the pixel range of the reference pixel applied to the correction process of the pixel value of the pixel to be corrected is set. Further, the correction parameter calculation unit 232 calculates a correction parameter to be applied to the correction processing of the pixel value of the constituent pixels of the far infrared image 231 to be corrected. Specifically, a multiplication coefficient K i for multiplying the pixel value of the reference pixel i is calculated.
  • the correction parameter calculation unit 232 is a first composite signal (guide signal (fusion1_out)) that is a reference image generated by the first combining unit 205, that is, a combined image generated by combining the near-infrared image 152 and the visible light image 153. ) 212 is input, and based on this input signal, a correction parameter (coefficient) is selected and input to the image correction unit 233.
  • a correction parameter coefficient
  • the first synthesized signal (guide signal (fusion1_out)) 212 is a signal in a local region of an image, for example, a 7 ⁇ 7 pixel local region unit, and the correction parameter calculation unit 232 A correction parameter (coefficient) is selected for each area, for example, a local area unit of 7 ⁇ 7 pixels, and is output to the image correction unit 233.
  • optimal taps and correction parameters corresponding to various different first combined signals are stored in association with each other.
  • the tap selection unit 231 and the correction parameter calculation unit 232 select and acquire the tap and the correction parameter associated with the first combined signal (guide signal (fusion1_out)) 212 input from the first combining unit 205 from the stored data. And output to the image correction unit 233.
  • the optimum tap and the optimum correction parameter data associated with the first combined signal (guide signal (fusion1_out)) used by the tap selection unit 231 and the correction parameter calculation unit 232 are obtained by a learning process executed in advance. Generated. This learning process will be described with reference to FIG.
  • FIG. 13 is a diagram illustrating a configuration of the image processing unit 120 that executes processing for calculating taps and correction coefficients applied to high-infrared image quality enhancement processing.
  • This image processing unit 120 has substantially the same configuration as the image processing unit 120 described above with reference to FIG.
  • the second synthesis unit 206 of the image processing unit 120 shown in FIG. 5 is replaced with a learning processing unit 271 in FIG. 13, and a high-resolution far-infrared image 251 is added as an input image in FIG. The point is different.
  • a low-resolution far-infrared image 151 shown as an input image in FIG. 13 is a low-resolution image similar to the far-infrared image 151 that is the correction target image shown in FIG.
  • the learning processing unit 271 of the image processing unit 120 illustrated in FIG. 13 includes a high-resolution far-infrared image 251, a low-resolution far-infrared image 151, and a first synthesized signal (guide signal (fusion1_out)) that is an output of the first synthesizing unit 205. ) 212 is input to perform learning processing.
  • an optimum correction parameter 191 composed of correspondence data with optimum correction parameters (coefficients) corresponding to various first synthesized signals (guide signal (fusion1_out)), and various first synthesized signals (guides).
  • An optimum tap 192 made up of data corresponding to the optimum tap corresponding to the signal (fusion1_out)) is generated.
  • the learning processing unit 271 executes “supervised learning processing” in which the high-resolution far-infrared image 251 is used as a teacher image and the low-resolution far-infrared image 151 is used as a student image.
  • Optimal correction parameters (coefficients) and taps corresponding to various signal values of the output first composite signal (guide signal (fusion1_out)) are calculated.
  • the optimum tap and the optimum correction parameter are the optimum tap for bringing the pixel value of the low-resolution far-infrared image 151 that is the student image closer to the pixel value of the high-resolution far-infrared image 251 that is the teacher image, And correction parameters.
  • the learning processing unit 271 performs learning processing by inputting a low-resolution far-infrared image 151 that is various types of different student images and a high-resolution far-infrared image 251 that is a teacher image, and performs image processing with various different characteristics.
  • the corresponding optimum tap and the correction parameter are calculated.
  • the optimum correction parameter corresponding to the image area having various different characteristics corresponds to the optimum tap corresponding to various different first synthesized signals (guide signal (fusion1_out)) and the correction parameter.
  • the tap selection unit 231 of the second synthesis unit 206 illustrated in FIG. 12 selects a tap that is optimal for the high-quality image processing of the far-infrared image based on the result of the learning process described above, and outputs the selected tap to the image correction unit 233.
  • the correction parameter (coefficient) calculating unit 232 of the second synthesizing unit 206 shown in FIG. 12 selects a correction parameter optimal for the high-quality image of the far-infrared image from the correction parameters calculated in advance by the learning process described above.
  • the data is output to the image correction unit 233.
  • the region unit optimum taps and correction parameters corresponding to the various first combined signals (guide signal (fusion1_out)) generated by the first combining unit 205 are output to the image correcting unit 233.
  • the image correction unit 233 uses the tap (reference pixel region) set in the tap selection unit 231 and further applies the correction parameter input from the correction parameter (coefficient) calculation unit 232 to form the constituent pixels of the far-infrared image 151.
  • the pixel value correction is executed.
  • the pixel value correction is executed by applying a correction parameter selected in units of regions corresponding to the first composite signal (guide signal (fusion1_out)). That is, correction processing using the optimal correction parameter corresponding to the image feature is performed.
  • the pixel value correction executed in the image correction unit 233 is executed, for example, according to the following (Formula 4).
  • each symbol has the following meaning.
  • FIR correction pixel value of correction target pixel
  • FIR i pixel value of reference pixel i: pixel identifier of reference pixel
  • K i multiplication coefficient corresponding to reference pixel i (correction parameter) It is.
  • K i a correction parameter input from the correction parameter (coefficient) calculation unit 232 is used.
  • the second synthesizing unit 206 sequentially executes pixel value correction of the constituent pixels of the far-infrared image 151 that is the correction target image according to the above (Equation 4), and generates and outputs a high-quality far-infrared image 180.
  • the combining process in the second combining unit 206 the pixel value of the far-infrared image 151 that is the correction target image, the near-infrared image that is the reference image, and the first combined signal (guide signal) that is a combined image of the visible light image.
  • the region-by-region combination processing with 212 is executed.
  • the first composite signal (guide signal) 212 is a composite image generated by increasing the composite rate of the reference image having a large correlation amount with the far-infrared image 151 that is the correction target image. Further, taps and correction parameters applied to the correction process are optimum values for improving the image quality of the far-infrared image generated by the learning process.
  • the second synthesis unit 206 performs pixel processing based on the optimum first synthesis signal (guide signal), the optimum tap, and the optimum correction parameter in units of regions of the far-infrared image 151 that is the correction target image. By executing value correction, a high-quality far-infrared image 180 is generated and output.
  • the processing according to the flow shown in FIG. 14 is executed under the control of a control unit having a program execution function, for example, according to a program stored in the storage unit of the image processing apparatus.
  • a control unit having a program execution function for example, according to a program stored in the storage unit of the image processing apparatus.
  • Step S101 First, in step S101, the image processing apparatus inputs a far-infrared image as a correction target image, a visible light image as a reference image, and a near-infrared image, and executes an alignment process for each image.
  • This process is a process executed by the image registration unit 201 of the image processing unit 120 shown in FIG.
  • the image alignment unit 201 executes image alignment processing so that the same subject is positioned at the same position for the three types of input images. Note that this image alignment is performed by existing processing, for example, processing using the parallax amount of each image, a motion vector, or the like.
  • step S102 the image processing apparatus converts the visible light image that is the reference image and the near-infrared image to a resolution that is approximately equal to the resolution of the far-infrared image that is the correction target image. That is, resolution reduction processing is performed by applying LPF.
  • This process is a process executed in the low pass filters (LPF) 202a and 202b of the image processing unit 120 shown in FIG.
  • LPF low pass filters
  • resolution adjustment processing is performed to reduce the resolution levels of the near-infrared image that is the reference image and the visible light image to the resolution level of the far-infrared image that is the correction target image.
  • Step S103 the image processing apparatus calculates a correlation amount between the visible light image that is the reference image, each of the near-infrared images, and the far-infrared image that is the correction target image.
  • This process is a process executed in the correlation amount calculation units 203a and 203b of the image processing unit 120 shown in FIG.
  • the far-infrared image 151 that is the correction target image and the resolution of the far-infrared image 151 are substantially the same.
  • a correlation amount with the resolution-reduced near-infrared image 152b, which is a reference image that has been subjected to resolution reduction processing to the same resolution, is calculated.
  • ZNCC zero average normalized cross-correlation
  • ZNCC zero average normalized cross-correlation
  • step S104 the image processing apparatus, in accordance with the correlation amount between the visible light image that is the reference image, each of the near infrared images, and the far infrared image that is the correction target image, And the composition ratio of the near-infrared image.
  • This process is a process executed by the first synthesis ratio calculation unit 204 of the image processing unit 120 shown in FIG. As shown in FIG. 5, the first synthesis ratio calculation unit 204 inputs two correlation amounts from the correlation amount calculation units 203 a and 203 b to generate a first synthesis ratio ⁇ 211, and sends it to the first synthesis unit 205. Output.
  • the first synthesis ratio calculation unit 204 for example, according to the graph shown in FIG. (A) Far infrared image-near infrared image correlation (NIRcorr) 161, (B) Far-infrared image-visible light image correlation (VIScorr) 162, The first synthesis ratio ⁇ 211 is calculated from these input values.
  • the first synthesis ratio calculation unit 204 calculates a synthesis ratio such that a synthesis process using a reference image having a large correlation amount with the far-infrared image that is the correction target image is performed preferentially.
  • step S105 the image processing apparatus generates a composite signal (guide signal) by executing a composite process between the visible light image that is the reference image and the near-infrared image according to the composite ratio calculated in step S104. To do.
  • This process is a process executed by the first synthesis unit 205 of the image processing unit 120 shown in FIG. As illustrated in FIG. 5, the first synthesis unit 205 executes a synthesis process of the near-infrared image 152 that is the reference image and the visible light image 153, and generates a first synthesized signal (guide signal) 212 that is the synthesized image. The data is output to the second synthesis unit 206.
  • the first synthesis unit 205 performs a synthesis process of the near-infrared image 152 and the visible light image 153 according to the first synthesis ratio ⁇ 211 to obtain a first synthesized image.
  • a composite signal (guide signal) 212 is generated.
  • step S106 Next, in step S ⁇ b> 106, the image processing apparatus combines the far-infrared image that is the correction target image and the composite signal (guide signal) to generate a high-quality far-infrared image.
  • This process is a process executed by the second synthesis unit 206 of the image processing unit 120 shown in FIG. As shown in FIG. 5, the second synthesis unit 206 A far-infrared image 151; First composite signal (guide signal) 212, Enter these A high-quality far-infrared image 180 is generated and output.
  • the second synthesis unit 206 includes a tap selection unit 231, a correction parameter (coefficient) calculation unit 232, and an image correction unit 233.
  • the tap selection unit 231 inputs a low-resolution far-infrared image 231 and performs tap selection for performing image correction with an improved resolution level.
  • the correction parameter calculation unit 232 calculates correction parameters to be applied to the correction processing of the pixel values of the constituent pixels of the far-infrared image 231 to be corrected.
  • the optimum tap and the optimum correction parameter data associated with the first combined signal (guide signal (fusion1_out)) used by the tap selection unit 231 and the correction parameter calculation unit 232 are obtained by a learning process executed in advance. Generated. This learning process is as described above with reference to FIG.
  • the image correction unit 233 uses the tap (reference pixel region) set in the tap selection unit 231 and further applies the correction parameter input from the correction parameter (coefficient) calculation unit 232 to form the constituent pixels of the far-infrared image 151.
  • the pixel value correction is executed.
  • the pixel value correction is executed by applying a correction parameter selected in units of regions corresponding to the first composite signal (guide signal (fusion1_out)). That is, correction processing using the optimal correction parameter corresponding to the image feature is performed.
  • the second synthesis unit 206 sequentially executes the pixel value correction of the constituent pixels of the far-infrared image 151 that is the correction target image according to (Equation 4) described above, and generates the high-quality far-infrared image 180. Output. That is, by the region-by-region combining process of the pixel value of the far-infrared image 151 that is the correction target image, the near-infrared image that is the reference image, and the first combined signal (guide signal) 212 that is the combined image of the visible light image. A high-quality far-infrared image 180 is generated.
  • the first composite signal (guide signal) 212 is an image generated by increasing the composite rate of the reference image having a large correlation amount with the far-infrared image 151 that is the correction target image. Further, taps and correction parameters applied to the correction process are optimum values for improving the image quality of the far-infrared image generated by the learning process.
  • the second synthesis unit 206 performs pixel processing based on the optimum first synthesis signal (guide signal), the optimum tap, and the optimum correction parameter in units of regions of the far-infrared image 151 that is the correction target image. By executing value correction, a high-quality far-infrared image 180 is generated and output.
  • a high-resolution, high-quality far-infrared image is obtained by using a far-infrared image, which is a low-quality image such as a low resolution, as a reference image using a visible light image or a near-infrared image, which is a high-quality image.
  • a far-infrared image which is a low-quality image such as a low resolution
  • a reference image using a visible light image or a near-infrared image, which is a high-quality image.
  • FIG. 15 is a diagram illustrating image characteristics of a visible light image, a near infrared image, and a far infrared image.
  • the image characteristics of the visible light image, the near infrared image, and the far infrared image are shown for the following items.
  • (1) Whether to acquire temperature information (2) Whether to acquire subject information in a dark environment (3) Whether to acquire subject information in a bright environment (4) Whether to acquire subject information in a distant view (5) Whether to acquire subject information in a foreground (6) ) Whether pattern information such as printed matter can be acquired (7) Whether high-resolution images can be acquired
  • the visible light image is (1), (2) Processing of these two items is impossible or difficult.
  • Each of the other items (3) to (7) has an image characteristic of ⁇ , that is, possible.
  • Near-infrared images (1), (4), (6) Processing of these three items is impossible or difficult.
  • the other items (2), (3), (5), and (7) have image characteristics that are o, that is, possible.
  • the far infrared image (6), (7) Processing of these two items is impossible or difficult.
  • Each of the other items (1) to (5) has an image characteristic of ⁇ , that is, possible.
  • a far-infrared image cannot acquire a high-resolution image or a pattern of a printed matter, but is good at detecting a subject having a temperature, for example, a human image.
  • a person a high-temperature car, or the like.
  • it is possible to present information on the person or car ahead to the driver.
  • it is possible to display clearer image information of a person or a car.
  • Example 2 Example using short infrared image
  • Example 2 an example using a short infrared image
  • the processing example in which the visible light image and the near-infrared image are applied as the reference image to the far-infrared image that is the correction target image has been described.
  • a processing example in which a visible light image and a short infrared image are applied as reference images to a far infrared image that is a correction target image will be described.
  • a short infrared (SWIR) image is an image obtained by photographing short infrared (SWIR) having a wavelength of about 1 to 2.5 ⁇ m.
  • the wavelength is longer than that of near-infrared (NIR).
  • NIR near-infrared
  • it has a characteristic that an image of a distant view can be clearly obtained from a near-infrared image.
  • an image pickup apparatus having the configuration shown in FIG. 4 can be used as the image processing apparatus.
  • the second embodiment can be executed not only in the imaging apparatus but also in an information processing apparatus such as a PC that inputs an image captured by the imaging apparatus and executes image processing.
  • the image processing apparatus has a configuration in which the near infrared image imaging unit 112 of the imaging unit 106 in FIG. 4 is replaced with a short infrared image imaging unit, and further, the configuration and processing of the image processing unit 120 are different.
  • the image processing unit 120 is A far-infrared image (FIR) 151 photographed by the far-infrared image capturing unit 111; A short infrared image (SWIR) 154 photographed in the short infrared imaging unit; A visible light image (VIS) 153 captured by the visible light image capturing unit 113; These three types of images are input, and using these three types of images, a high-quality far-infrared image (FIR) 180 subjected to high-quality processing is generated and output.
  • FIR far-infrared image
  • SWIR short infrared image
  • VIS visible light image
  • the correction target image to be processed for high image quality is a far infrared image.
  • a visible light image and a short infrared image are used.
  • the image processing unit 120 A far-infrared image (FIR) 151 photographed by the far-infrared image capturing unit 111; A short infrared image (SWIR) 154 photographed in the short infrared imaging unit; A visible light image (VIS) 153 captured by the visible light image capturing unit 113; These three types of images are input to the image registration unit 301.
  • FIR far-infrared image
  • SWIR short infrared image
  • VIS visible light image
  • the image alignment unit 301 executes an image alignment process so that the same subject is positioned at the same position for these three types of images. Note that this image alignment is performed by existing processing, for example, processing using the parallax amount of each image, a motion vector, or the like. When the image sizes of the three types of images are different, it is preferable to perform a size adjustment in advance and perform a scaling process to match the same size, and then perform an image alignment process.
  • the short infrared image 154 and the visible light image 153 that are reference images among the images that have been aligned by the image alignment unit 301 are input to low-pass filters (LPF) 302a and 302b.
  • LPF low-pass filters
  • a resolution adjustment process is executed to reduce the resolution level of the short infrared image 154 that is the reference image and the visible light image 153 to the resolution level of the far infrared image 151 that is the correction target image. To do.
  • This resolution adjustment process is a process for accurately executing the correlation amount calculation in the next correlation amount calculation units 303a and 303b.
  • the processing results of the low-pass filters (LPF) 302a and 302b are input to the correlation amount calculation units 303a and 303b.
  • the short-infrared image 154 that has undergone the resolution reduction process and the far-infrared image 151 that is the correction target image are input to the correlation amount calculation unit 303a.
  • the short-infrared image 154 subjected to the resolution reduction process and the visible light image 153 subjected to the resolution reduction process are input to the correlation amount calculation unit 303b.
  • the short-infrared image 154 that has been subjected to resolution reduction processing that is a reference image without inputting the far-infrared image 151 that is a correction target image into the correlation amount calculation unit 303b.
  • a visible light image 153 are input.
  • the correlation amount calculation unit 303a A correlation amount between the short infrared image 154 that has been subjected to the resolution reduction process and the far infrared image 151 that is the correction target image is calculated.
  • the correlation amount calculation unit 303b A correlation amount between the short infrared image 154 subjected to the resolution reduction process and the visible light image 153 subjected to the resolution reduction process is calculated.
  • These correlation amount calculation processes are the same as those described with reference to FIGS. 7 and 8 in the first embodiment. For example, as in the above (Expression 1) and (Expression 2), ZNCC ( Applying zero average normalized cross-correlation) calculates a correlation amount in units of local regions (for example, 7 ⁇ 7 pixels).
  • the correlation amount calculation unit 303a calculates the far-infrared image-short infrared image correlation amount (corr_fs) and outputs the calculated value to the second composite ratio calculation unit 304. Further, the correlation amount calculation unit 303b calculates a visible light image-short infrared image correlation amount (corr_vs) and outputs the calculated value to the second composite ratio calculation unit 304.
  • the far-infrared image-short infrared image, the visible light image-short infrared image, and the correlation amounts between these two images having close wavelengths are calculated.
  • the second synthesis ratio calculation unit 304 receives the two correlation amounts from the correlation amount calculation units 303 a and 303 b, generates a second synthesis ratio ⁇ 311, and sends it to the second synthesis unit 306. Output.
  • the second synthesis ratio ⁇ is the first synthesized signal (guide signal) in the synthesis process of the far infrared image in the second synthesis unit 206 and the first synthesized signal (guide signal) 312 generated in the first synthesis unit 305. ) 312 synthesis ratio, 0 ⁇ ⁇ ⁇ 1 With the value of
  • the second synthesis unit 306 The generation process of the high-quality far-infrared image 180 is performed by the image composition process using the first composite signal (guide signal) 312 having the composition ratio ⁇ and the far-infrared image having the composition ratio (1- ⁇ ).
  • High-quality far infrared image 180 FIR_out
  • the first composite signal (guide signal) 312 is (fusion1_out)
  • the input far infrared image 151 is (FIR_in)
  • the second synthesis unit 306 generates a high-quality far-infrared image (FIR_out) according to the following equation.
  • (FIR_out) ⁇ (fusion1_out) + (1- ⁇ ) (FIR_in) Details of this processing will be described later.
  • FIG. 17 shows input data to the second synthesis ratio calculation unit 304 and output data from the first synthesis ratio calculation unit 304.
  • the second composite ratio calculation unit 304 inputs the following data.
  • the second combination ratio calculation unit 304 receives the two correlation amounts, generates a second combination ratio ⁇ 311, and outputs the second combination ratio ⁇ 311 to the second combination unit 306.
  • the second synthesis ratio calculation unit 304 for example, according to the graph shown in FIG. (A) far infrared image-short infrared image correlation amount (corr_fs) 163, (B) Visible light image-short infrared image correlation (corr_vs) 164, From these input values, the second synthesis ratio ⁇ 311 is calculated.
  • (corr_fs-corr_vs) / 2 It is the graph which set the 2nd synthetic
  • (Corr_fs-corr_vs) / 2 on the horizontal axis is (A) Far-infrared image-short infrared image correlation amount (corr_fs) 163, which is input from the correlation amount calculation unit 303a; (B) Visible light image-short infrared image correlation amount (corr_vs) 164 input from the correlation amount calculation unit 303b; This corresponds to 1 ⁇ 2 of the difference between these two correlation amounts.
  • the far-infrared image-short infrared image correlation amount (corr_fs) 163 is larger than the visible light image-short infrared image correlation amount (corr_vs) 164, it is on the right side of the center of the horizontal axis, for example, the middle point of the threshold values Th2 to Th3. This is the area on the right side.
  • the far-infrared image-short infrared image correlation amount (corr_fs) 163 is smaller than the visible light image-short infrared image correlation amount (corr_vs) 164, the left side of the horizontal axis, for example, the middle point between the threshold values Th2 to Th3 It becomes the area on the left side.
  • the far-infrared image-short infrared image correlation amount (corr_fs) 163 is larger than the visible light image-short infrared image correlation amount (corr_vs) 164, that is, This means that the similarity between the far infrared image and the short infrared image is greater than the similarity between the visible light image and the short infrared image.
  • the value of the second synthesis ratio ⁇ is set to a large value (a value close to 1).
  • the second synthesis ratio ⁇ is the first synthesized signal in the synthesis process of the far infrared image in the second synthesis unit 306 and the first synthesized signal (guide signal) 312 generated in the first synthesis unit 305. (Guide signal) 312 synthesis ratio.
  • the far-infrared image-short infrared image correlation amount (corr_fs) 163 is smaller than the visible light image-short infrared image correlation amount (corr_vs) 164
  • the left side of the horizontal axis of the graph shown in FIG. The region is on the left side of the middle point between Th2 and Th3.
  • the similarity between the far infrared image and the short infrared image is smaller than the similarity between the visible light image and the short infrared image.
  • the value of the second synthesis ratio ⁇ is set to a small value (a value close to 0).
  • the high-quality far-infrared image 180 generated by the second synthesis unit 306 becomes the first synthesized signal (guide signal) 312. It is generated as a composite image with a low influence. This is a process based on the determination that the correlation between the far-infrared image and the short-infrared image is low, and it is not preferable to increase the synthesis ratio of the synthesis ratio of the first synthesized signal (guide signal) 312 that is the reference image. This is a process based on the determination.
  • the graph shown in FIG. 18 shows a high-quality far-infrared image generation process by the combining process in the second combining unit 306.
  • the far-infrared image-short infrared image correlation amount (corr_fs) 163 is larger than the visible light image-short infrared image correlation amount (corr_vs) 164, the contribution ratio of the first composite signal (guide signal) 312 is set high.
  • the far-infrared image-short infrared image correlation amount (corr_fs) 163 is smaller than the visible light image-short infrared image correlation amount (corr_vs) 164, the contribution ratio of the first composite signal (guide signal) 312 is set low. It is a graph which outputs 2nd synthetic
  • the line graph shown in FIG. 18 is an example, and other configurations such as a guff configured by one straight line, a curved line, or the like may be used.
  • the far-infrared image-short infrared image correlation amount (corr_fs) 163 is larger than the visible light image-short infrared image correlation amount (corr_vs) 164, the contribution ratio of the first composite signal (guide signal) 312 is increased.
  • the far-infrared image-short infrared image correlation amount (corr_fs) 163 is smaller than the visible light image-short infrared image correlation amount (corr_vs) 164, the contribution ratio of the first composite signal (guide signal) 312 is set low. It is preferable to do.
  • the second composition ratio ⁇ 311 in the second composition ratio calculation unit 304 is calculated in correlation amount calculation region units in the correlation amount calculation units 303a and 303b, for example, in units of 7 ⁇ 7 pixel regions as described above.
  • the second combination ratio calculation unit 304 receives the two correlation amounts from the correlation amount calculation units 303a and 303b, generates the second combination ratio ⁇ 311, and outputs the second combination ratio ⁇ 311 to the second combination unit 306.
  • the first combining unit 305 executes a combining process of the short infrared image 154 that is the reference image and the visible light image 153, and generates a first combined signal (guide signal) 312 that is the combined image.
  • the data is output to the second synthesis unit 306.
  • the first synthesis unit 305 inputs a short infrared image 154 and a visible light image 153.
  • the first synthesis unit 305 applies a synthesis ratio ⁇ that is defined in advance in the image generation algorithm with the maximum visibility, executes a synthesis process of the short infrared image 154 and the visible light image 153, and is a first synthesized image.
  • a composite signal (guide signal) 312 is generated.
  • the generated first combined signal (guide signal) 312 is output to the second combining unit 306.
  • the first combined signal (guide signal) 312 generated by the first combining unit 305 includes, for example, a short infrared image 154 and a visible light image 153 generated by applying a combining ratio ⁇ defined by the graph shown in FIG. This is a composite image.
  • the horizontal axis is (VIS-SWIR), that is, the pixel value (luminance value) difference between corresponding pixels of the visible light image and the short infrared image.
  • the vertical axis represents the synthesis ratio ⁇ .
  • This graph is a graph that defines a composition ratio when two images are synthesized in accordance with an image generation algorithm with maximum visibility.
  • the first synthesizing unit 305 generates a first synthesized signal (guide signal (fusion1_out)) 312 according to the following expression that performs image generation according to an image generation algorithm with maximum visibility.
  • fusion1_out ⁇ (VIS) + (1- ⁇ ) (SWIR)
  • Composition ratio VIS: Pixel value (luminance value) of visible light image
  • SWIR pixel value (luminance value) of short infrared image
  • the first synthesis unit 305 executes the synthesis process of the short infrared image 154 and the visible light image 153 according to the image synthesis algorithm having the maximum visibility and performs the first synthesis signal (guide signal (fusion1_out) that is a synthesized image. )) 312 is generated.
  • the generated first combined signal (guide signal) 312 is output to the second combining unit 306.
  • the second synthesis unit 306 A far-infrared image 151; A second synthesis ratio ⁇ 311; A first composite signal (guide signal) 312, Enter these A high-quality far-infrared image 180 is generated and output.
  • the second synthesis unit 206 (A) From the first synthesis unit 305, a first synthesized signal (guide signal (fusion1_out)) 312, (B) From the second synthesis ratio calculation unit 304, a second synthesis ratio ⁇ 311; (C) a far-infrared image (FIR_in) 151 that is a correction target image; These signals are input and output signals are A high-quality far-infrared image (FIR_out) 180 is output.
  • a first combined signal (guide signal (fusion1_out)) 312 input from the first combining unit 305 corresponds to a combined image of the short infrared image 154 that is a reference image and the visible light image 153.
  • the second composition ratio ⁇ 311 input from the second composition ratio calculation unit 304 is an image composition process executed by the second composition unit 306, that is, a far-infrared image (FIR_in) 151 and a first composition signal (guide signal (fusion1_out)).
  • ) 312 in the synthesizing process with 312 is a synthesis ratio of the first synthesized signal (guide signal (fusion1_out)) 312.
  • the second synthesis unit 306 generates a high-quality far-infrared image (FIR_out) according to the following equation.
  • FIR_out ⁇ (fusion1_out) + (1- ⁇ ) (FIR_in)
  • FIR_out pixel value (brightness value) of high-infrared far-infrared image
  • fusion1_out first composite signal (guide signal)
  • FIR_in the pixel value (luminance value) of the far-infrared image that is the input image to be corrected
  • second synthesis ratio
  • the second synthesis ratio ⁇ 311 input from the second synthesis ratio calculation unit 304 and the first synthesis signal (guide signal (fusion1_out)) 312 input from the first synthesis unit 305 are local regions of the image, for example, 7 ⁇ 7.
  • the pixel value generated according to the above equation is generated as a signal in units of pixels, and is generated in units of these predetermined areas.
  • the first combined signal (guide signal (fusion1_out)) 312 input from the first combining unit 305 is generated according to the visible light image that is the reference image and the maximum visibility image combining algorithm of the short infrared image. It is a composite image.
  • the second composition ratio ⁇ 311 input from the second composition ratio calculation unit 304 is A correlation amount (corr_fs) 163 between the far infrared image and the short infrared image, It is a composition ratio that is set based on the difference in the correlation amount between the visible light image and the short-infrared pixel eyebrow correlation amount (corr_vs) 164, The larger the correlation amount (corr_fs) between the far infrared image and the short infrared image, the closer to 1.
  • the second combining unit 306 causes the first combined signal (guide signal) corresponding to the combined image of the visible light image and the short-infrared image as the reference image.
  • (Fusion1_out)) 312 having a high contribution rate is set as the pixel value of the high-quality far-infrared image (FIR_out) 180.
  • the constituent pixel values of the far-infrared image (FIR_in) 151 that is the correction target image are corrected based on the pixel values of the short-infrared image that is the reference image or the visible light image, and high image quality is achieved. .
  • the processing according to the flow shown in FIG. 21 is executed under the control of a control unit having a program execution function, for example, according to a program stored in the storage unit of the image processing apparatus.
  • a control unit having a program execution function for example, according to a program stored in the storage unit of the image processing apparatus.
  • Step S201 First, in step S201, the image processing apparatus inputs a far-infrared image as a correction target image, a visible light image as a reference image, and a short-infrared image, and executes an alignment process for each image.
  • This process is a process executed by the image registration unit 301 of the image processing unit 120 shown in FIG.
  • the image alignment unit 301 executes image alignment processing so that the same subject is positioned at the same position for the three types of input images. Note that this image alignment is performed by existing processing, for example, processing using the parallax amount of each image, a motion vector, or the like.
  • step S202 the image processing apparatus converts the visible light image that is the reference image and the short infrared image to a resolution that is approximately equal to the resolution of the far infrared image that is the correction target image. That is, resolution reduction processing is performed by applying LPF.
  • This process is a process executed in the low pass filters (LPF) 302a and 302b of the image processing unit 120 shown in FIG.
  • LPF low pass filters
  • resolution adjustment processing is performed to reduce the resolution levels of the short infrared image that is the reference image and the visible light image to the resolution level of the far infrared image that is the correction target image.
  • step S303 the image processing apparatus Correlation between the far-infrared image that is the correction target image and the short-infrared image that is the reference image, and Correlation amount between the visible light image that is the reference image and the short infrared image, The amount of correlation between two images having similar wavelengths is calculated.
  • This process is a process executed in the correlation amount calculation units 303a and 303b of the image processing unit 120 shown in FIG.
  • the far-infrared image that is the correction target image, and a short reference image that has been subjected to resolution reduction processing to approximately the same resolution as the resolution of the far-infrared image.
  • the amount of correlation with the infrared image is calculated. For example, ZNCC (zero average normalized cross-correlation) is calculated as a correlation amount for each predetermined local region unit (for example, 7 ⁇ 7 pixels).
  • a visible light image that is a reference image that has been subjected to resolution reduction processing up to substantially the same resolution as that of the far infrared image 151, and a short infrared image.
  • a correlation amount is calculated.
  • ZNCC zero average normalized cross-correlation
  • ZNCC zero average normalized cross-correlation
  • step S204 the image processing apparatus The amount of correlation between the visible image and the short infrared image that is the reference image, Correlation between the short infrared image that is the reference image and the far infrared image that is the correction target image, In accordance with these two correlation amounts, a combination of a far-infrared image that is a correction target image and a first combined signal (guide signal) 312 that is a combined image based on two reference images (a visible light image and a short infrared image). Calculate the ratio.
  • This process is a process executed by the second synthesis ratio calculation unit 304 of the image processing unit 120 shown in FIG. As described above with reference to FIG. 17, the second synthesis ratio calculation unit 304 inputs the two correlation amounts from the correlation amount calculation units 303a and 303b, generates the second synthesis ratio ⁇ 311, and The data is output to the second synthesis unit 306.
  • the second synthesis ratio calculation unit 304 for example, according to the graph shown in FIG. (A) far infrared image-short infrared image correlation amount (corr_fs) 163, (B) Visible light image-short infrared image correlation (corr_vs) 164, Based on a value that is 1 ⁇ 2 of the difference between these input values, the second synthesis ratio ⁇ 311 is calculated.
  • the second synthesis ratio calculation unit 304 is, for example, (A) Far-infrared image-short infrared image correlation amount (corr_fs) 163 is (B) Visible light image-short infrared image correlation (corr_vs) 164, If greater than Setting for increasing the contribution ratio of the first synthesized signal (guide signal) 312 that is a synthesized image of the reference images (visible light image, short infrared image) generated by the first synthesizing unit 305 in the synthesizing process in the second synthesizing unit 306. The composite ratio was calculated.
  • Step S205 the image processing apparatus generates a first combined signal (guide signal) 312 that is a combined image of the visible light image that is the reference image and the short infrared image.
  • This process is a process executed by the first synthesis unit 305 of the image processing unit 120 shown in FIG.
  • the first synthesis unit 305 applies the synthesis ratio ⁇ defined in advance in the image generation algorithm with the maximum visibility, and performs the short infrared image 154 and the visible light image 153.
  • the first combined signal (guide signal) 312 which is a combined image is generated by executing the combining process.
  • the generated first combined signal (guide signal) 312 is output to the second combining unit 306.
  • the first combined signal (guide signal) 312 generated by the first combining unit 305 includes, for example, a short infrared image 154 and a visible light image 153 generated by applying a combining ratio ⁇ defined by the graph shown in FIG. This is a composite image.
  • Step S206 the image processing apparatus generates a high-quality far-infrared image by combining the far-infrared image that is the correction target image and the composite signal (guide signal) according to the composite ratio calculated in step S204. To do.
  • This process is a process executed by the second synthesis unit 306 of the image processing unit 120 shown in FIG.
  • the second synthesis unit 306 (A) From the first synthesis unit 305, a first synthesized signal (guide signal (fusion1_out)) 312, (B) From the second synthesis ratio calculation unit 304, a second synthesis ratio ⁇ 311; (C) a far-infrared image (FIR_in) 151 that is a correction target image; These signals are input and output signals are A high-quality far-infrared image (FIR_out) 180 is output.
  • a first combined signal (guide signal (fusion1_out)) 312 input from the first combining unit 305 corresponds to a combined image of the short infrared image 154 that is a reference image and the visible light image 153.
  • the second composition ratio ⁇ 311 input from the second composition ratio calculation unit 304 is an image composition process executed by the second composition unit 306, that is, a far-infrared image (FIR_in) 151 and a first composition signal (guide signal (fusion1_out)).
  • ) 312 in the synthesizing process with 312 is a synthesis ratio of the first synthesized signal (guide signal (fusion1_out)) 312.
  • the second synthesis unit 306 generates a high-quality far-infrared image (FIR_out) according to the following equation.
  • FIR_out ⁇ (fusion1_out) + (1- ⁇ ) (FIR_in)
  • FIR_out pixel value (brightness value) of high-infrared far-infrared image
  • fusion1_out first composite signal (guide signal)
  • FIR_in the pixel value (luminance value) of the far-infrared image that is the input image to be corrected
  • second synthesis ratio
  • the second synthesis ratio ⁇ 311 input from the second synthesis ratio calculation unit 304 and the first synthesis signal (guide signal (fusion1_out)) 312 input from the first synthesis unit 305 are local regions of the image, for example, 7 ⁇ 7.
  • the pixel value generated according to the above equation is generated as a signal in units of pixels, and is generated in units of these predetermined areas.
  • the second synthesis unit 306 causes the elements of the synthesized image of the visible light image and the short-infrared image as the reference image (first synthesized signal (guide signal (fusion1_out ))
  • the pixel value having a high contribution rate in 312) is set as the pixel value of the high-quality far-infrared infrared image (FIR_out) 180 to be output.
  • the constituent pixel values of the far-infrared image (FIR_in) 151 that is the correction target image are corrected based on the pixel values of the short-infrared image that is the reference image or the visible light image, and high image quality is achieved. .
  • a high-resolution, high-quality far-infrared image is obtained by using a far-infrared image, which is a low-quality image such as a low resolution, as a reference image using a visible light image or a short-infrared image, which is a high-quality image.
  • a far-infrared image which is a low-quality image such as a low resolution
  • a reference image using a visible light image or a short-infrared image, which is a high-quality image.
  • FIG. 22 is a diagram illustrating image characteristics of a visible light image, a short infrared image, and a far infrared image. For each of the following items, the image characteristics of a visible light image, a short infrared image, and a far infrared image are shown. (1) Whether to acquire temperature information (2) Whether to acquire subject information in a dark environment (3) Whether to acquire subject information in a bright environment (4) Whether to acquire subject information in a distant view (5) Whether to acquire subject information in a foreground (6) ) Whether pattern information such as printed matter can be acquired (7) Whether high-resolution images can be acquired
  • the visible light image is (1), (2) Processing of these two items is impossible or difficult.
  • Each of the other items (3) to (7) has an image characteristic of ⁇ , that is, possible.
  • the short infrared image Processing of the two items (1) and (6) is impossible or difficult.
  • the other items (2) to (5) and (7) each have an image characteristic of ⁇ , that is, possible.
  • the far infrared image (6), (7) Processing of these two items is impossible or difficult.
  • Each of the other items (1) to (5) has an image characteristic of ⁇ , that is, possible.
  • a far-infrared image cannot acquire a high-resolution image or a pattern of a printed matter, but is good at detecting a subject having a temperature, for example, a human image.
  • a person a high-temperature car, or the like.
  • it is possible to present information on the person or car ahead to the driver.
  • it is possible to display clearer image information of a person or a car.
  • a far infrared image is used as the correction target image
  • a visible light image and a near infrared image are used as reference images.
  • a far infrared image is used as the correction target image.
  • An example using a visible light image and a short infrared image as a reference image has been described.
  • Various combinations of these correction target images and reference images are possible. If the configuration uses a reference image having a resolution higher than that of the correction target image, it is possible to apply the configuration of the present disclosure to perform high quality processing of the correction target image.
  • FIG. 23 is a diagram illustrating a hardware configuration example of an image processing apparatus that executes the processing of the present disclosure.
  • a CPU (Central Processing Unit) 501 functions as a control unit or a data processing unit that executes various processes according to a program stored in a ROM (Read Only Memory) 502 or a storage unit 508. For example, processing according to the sequence described in the above-described embodiment is executed.
  • a RAM (Random Access Memory) 503 stores programs executed by the CPU 501 and data.
  • the CPU 501, ROM 502, and RAM 503 are connected to each other by a bus 504.
  • the CPU 501 is connected to an input / output interface 505 via a bus 504.
  • the input / output interface 505 inputs a photographed image of the imaging unit 521 and inputs including various switches that can be input by a user, a keyboard, a mouse, a microphone, and the like.
  • An output unit 507 that outputs data to the unit 506, the display unit 522, a speaker, and the like is connected.
  • the CPU 501 executes various processes in response to a command input from the input unit 506 and outputs a processing result to the output unit 507, for example.
  • the storage unit 508 connected to the input / output interface 505 includes, for example, a hard disk and stores programs executed by the CPU 501 and various data.
  • a communication unit 509 functions as a transmission / reception unit for Wi-Fi communication, Bluetooth (BT) communication, and other data communication via a network such as the Internet or a local area network, and communicates with an external device.
  • BT Bluetooth
  • the drive 510 connected to the input / output interface 505 drives a removable medium 511 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory such as a memory card, and executes data recording or reading.
  • a removable medium 511 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory such as a memory card
  • the technology according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure may be any type of movement such as an automobile, an electric vehicle, a hybrid electric vehicle, a motorcycle, a bicycle, personal mobility, an airplane, a drone, a ship, a robot, a construction machine, and an agricultural machine (tractor). You may implement
  • FIG. 24 is a block diagram illustrating a schematic configuration example of a vehicle control system 7000 that is an example of a mobile control system to which the technology according to the present disclosure can be applied.
  • the vehicle control system 7000 includes a plurality of electronic control units connected via a communication network 7010.
  • the vehicle control system 7000 includes a drive system control unit 7100, a body system control unit 7200, a battery control unit 7300, a vehicle exterior information detection unit 7400, a vehicle interior information detection unit 7500, and an integrated control unit 7600. .
  • the communication network 7010 connecting the plurality of control units is compliant with any standard such as CAN (Controller Area Network), LIN (Local Interconnect Network), LAN (Local Area Network), or FlexRay (registered trademark). It may be an in-vehicle communication network.
  • CAN Controller Area Network
  • LIN Local Interconnect Network
  • LAN Local Area Network
  • FlexRay registered trademark
  • Each control unit includes a microcomputer that performs arithmetic processing according to various programs, a storage unit that stores programs executed by the microcomputer or parameters used for various calculations, and a drive circuit that drives various devices to be controlled. Is provided.
  • Each control unit includes a network I / F for communicating with other control units via a communication network 7010, and is connected to devices or sensors inside and outside the vehicle by wired communication or wireless communication. A communication I / F for performing communication is provided. In FIG.
  • a microcomputer 7610 As the functional configuration of the integrated control unit 7600, a microcomputer 7610, a general-purpose communication I / F 7620, a dedicated communication I / F 7630, a positioning unit 7640, a beacon receiving unit 7650, an in-vehicle device I / F 7660, an audio image output unit 7670, An in-vehicle network I / F 7680 and a storage unit 7690 are illustrated.
  • other control units include a microcomputer, a communication I / F, a storage unit, and the like.
  • the drive system control unit 7100 controls the operation of the device related to the drive system of the vehicle according to various programs.
  • the drive system control unit 7100 includes a driving force generator for generating a driving force of a vehicle such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting the driving force to wheels, and a steering angle of the vehicle. It functions as a control device such as a steering mechanism that adjusts and a braking device that generates a braking force of the vehicle.
  • the drive system control unit 7100 may have a function as a control device such as ABS (Antilock Brake System) or ESC (Electronic Stability Control).
  • a vehicle state detection unit 7110 is connected to the drive system control unit 7100.
  • the vehicle state detection unit 7110 includes, for example, a gyro sensor that detects the angular velocity of the rotational movement of the vehicle body, an acceleration sensor that detects the acceleration of the vehicle, an operation amount of an accelerator pedal, an operation amount of a brake pedal, and steering of a steering wheel. At least one of sensors for detecting an angle, an engine speed, a rotational speed of a wheel, or the like is included.
  • the drive system control unit 7100 performs arithmetic processing using a signal input from the vehicle state detection unit 7110, and controls an internal combustion engine, a drive motor, an electric power steering device, a brake device, or the like.
  • the body system control unit 7200 controls the operation of various devices mounted on the vehicle body according to various programs.
  • the body system control unit 7200 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as a headlamp, a back lamp, a brake lamp, a blinker, or a fog lamp.
  • the body control unit 7200 can be input with radio waves or various switch signals transmitted from a portable device that substitutes for a key.
  • the body system control unit 7200 receives input of these radio waves or signals, and controls a door lock device, a power window device, a lamp, and the like of the vehicle.
  • the battery control unit 7300 controls the secondary battery 7310 that is a power supply source of the drive motor according to various programs. For example, information such as battery temperature, battery output voltage, or remaining battery capacity is input to the battery control unit 7300 from a battery device including the secondary battery 7310. The battery control unit 7300 performs arithmetic processing using these signals, and controls the temperature adjustment of the secondary battery 7310 or the cooling device provided in the battery device.
  • the outside information detection unit 7400 detects information outside the vehicle on which the vehicle control system 7000 is mounted.
  • the outside information detection unit 7400 is connected to at least one of the imaging unit 7410 and the outside information detection unit 7420.
  • the imaging unit 7410 includes at least one of a ToF (Time Of Flight) camera, a stereo camera, a monocular camera, an infrared camera, and other cameras.
  • the outside information detection unit 7420 detects, for example, current weather or an environmental sensor for detecting weather, or other vehicles, obstacles, pedestrians, etc. around the vehicle equipped with the vehicle control system 7000. At least one of the surrounding information detection sensors.
  • the environmental sensor may be, for example, at least one of a raindrop sensor that detects rainy weather, a fog sensor that detects fog, a sunshine sensor that detects sunlight intensity, and a snow sensor that detects snowfall.
  • the ambient information detection sensor may be at least one of an ultrasonic sensor, a radar device, and a LIDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging) device.
  • the imaging unit 7410 and the outside information detection unit 7420 may be provided as independent sensors or devices, or may be provided as a device in which a plurality of sensors or devices are integrated.
  • FIG. 25 shows an example of installation positions of the imaging unit 7410 and the vehicle outside information detection unit 7420.
  • the imaging units 7910, 7912, 7914, 7916, and 7918 are provided at, for example, at least one of the front nose, the side mirror, the rear bumper, the back door, and the upper part of the windshield in the vehicle interior of the vehicle 7900.
  • An imaging unit 7910 provided in the front nose and an imaging unit 7918 provided in the upper part of the windshield in the vehicle interior mainly acquire an image in front of the vehicle 7900.
  • Imaging units 7912 and 7914 provided in the side mirror mainly acquire an image of the side of the vehicle 7900.
  • An imaging unit 7916 provided in the rear bumper or the back door mainly acquires an image behind the vehicle 7900.
  • the imaging unit 7918 provided on the upper part of the windshield in the passenger compartment is mainly used for detecting a preceding vehicle or a pedestrian, an obstacle, a traffic light, a traffic sign, a lane, or
  • FIG. 25 shows an example of shooting ranges of the respective imaging units 7910, 7912, 7914, and 7916.
  • the imaging range a indicates the imaging range of the imaging unit 7910 provided in the front nose
  • the imaging ranges b and c indicate the imaging ranges of the imaging units 7912 and 7914 provided in the side mirrors, respectively
  • the imaging range d The imaging range of the imaging part 7916 provided in the rear bumper or the back door is shown. For example, by superimposing the image data captured by the imaging units 7910, 7912, 7914, and 7916, an overhead image when the vehicle 7900 is viewed from above is obtained.
  • the vehicle outside information detection units 7920, 7922, 7924, 7926, 7928, and 7930 provided on the front, rear, sides, corners of the vehicle 7900 and the upper part of the windshield in the vehicle interior may be, for example, an ultrasonic sensor or a radar device.
  • the vehicle outside information detection units 7920, 7926, and 7930 provided on the front nose, the rear bumper, the back door, and the windshield in the vehicle interior of the vehicle 7900 may be, for example, LIDAR devices.
  • These outside information detection units 7920 to 7930 are mainly used for detecting a preceding vehicle, a pedestrian, an obstacle, and the like.
  • the vehicle exterior information detection unit 7400 causes the imaging unit 7410 to capture an image outside the vehicle and receives the captured image data. Further, the vehicle exterior information detection unit 7400 receives detection information from the vehicle exterior information detection unit 7420 connected thereto. When the vehicle exterior information detection unit 7420 is an ultrasonic sensor, a radar device, or a LIDAR device, the vehicle exterior information detection unit 7400 transmits ultrasonic waves, electromagnetic waves, or the like, and receives received reflected wave information.
  • the outside information detection unit 7400 may perform an object detection process or a distance detection process such as a person, a car, an obstacle, a sign, or a character on a road surface based on the received information.
  • the vehicle exterior information detection unit 7400 may perform environment recognition processing for recognizing rainfall, fog, road surface conditions, or the like based on the received information.
  • the vehicle outside information detection unit 7400 may calculate a distance to an object outside the vehicle based on the received information.
  • the outside information detection unit 7400 may perform image recognition processing or distance detection processing for recognizing a person, a car, an obstacle, a sign, a character on a road surface, or the like based on the received image data.
  • the vehicle exterior information detection unit 7400 performs processing such as distortion correction or alignment on the received image data, and combines the image data captured by the different imaging units 7410 to generate an overhead image or a panoramic image. Also good.
  • the vehicle exterior information detection unit 7400 may perform viewpoint conversion processing using image data captured by different imaging units 7410.
  • the vehicle interior information detection unit 7500 detects vehicle interior information.
  • a driver state detection unit 7510 that detects the driver's state is connected to the in-vehicle information detection unit 7500.
  • Driver state detection unit 7510 may include a camera that captures an image of the driver, a biosensor that detects biometric information of the driver, a microphone that collects sound in the passenger compartment, and the like.
  • the biometric sensor is provided, for example, on a seat surface or a steering wheel, and detects biometric information of an occupant sitting on the seat or a driver holding the steering wheel.
  • the vehicle interior information detection unit 7500 may calculate the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 7510, and determines whether the driver is asleep. May be.
  • the vehicle interior information detection unit 7500 may perform a process such as a noise canceling process on the collected audio signal.
  • the integrated control unit 7600 controls the overall operation in the vehicle control system 7000 according to various programs.
  • An input unit 7800 is connected to the integrated control unit 7600.
  • the input unit 7800 is realized by a device that can be input by a passenger, such as a touch panel, a button, a microphone, a switch, or a lever.
  • the integrated control unit 7600 may be input with data obtained by recognizing voice input through a microphone.
  • the input unit 7800 may be, for example, a remote control device using infrared rays or other radio waves, or may be an external connection device such as a mobile phone or PDA (Personal Digital Assistant) that supports the operation of the vehicle control system 7000. May be.
  • the input unit 7800 may be, for example, a camera.
  • the passenger can input information using a gesture.
  • data obtained by detecting the movement of the wearable device worn by the passenger may be input.
  • the input unit 7800 may include, for example, an input control circuit that generates an input signal based on information input by a passenger or the like using the input unit 7800 and outputs the input signal to the integrated control unit 7600.
  • a passenger or the like operates the input unit 7800 to input various data or instruct a processing operation to the vehicle control system 7000.
  • the storage unit 7690 may include a ROM (Read Only Memory) that stores various programs executed by the microcomputer, and a RAM (Random Access Memory) that stores various parameters, calculation results, sensor values, and the like.
  • the storage unit 7690 may be realized by a magnetic storage device such as an HDD (Hard Disc Drive), a semiconductor storage device, an optical storage device, a magneto-optical storage device, or the like.
  • General-purpose communication I / F 7620 is a general-purpose communication I / F that mediates communication with various devices existing in the external environment 7750.
  • General-purpose communication I / F7620 is a cellular communication protocol such as GSM (registered trademark) (Global System of Mobile communications), WiMAX, LTE (Long Term Evolution) or LTE-A (LTE-Advanced), or wireless LAN (Wi-Fi). (Also referred to as (registered trademark)) and other wireless communication protocols such as Bluetooth (registered trademark) may be implemented.
  • the general-purpose communication I / F 7620 is connected to a device (for example, an application server or a control server) existing on an external network (for example, the Internet, a cloud network, or an operator-specific network) via, for example, a base station or an access point. May be.
  • a device for example, an application server or a control server
  • an external network for example, the Internet, a cloud network, or an operator-specific network
  • the general-purpose communication I / F 7620 uses a P2P (Peer To Peer) technology, for example, a terminal (for example, a driver, a pedestrian or a store terminal, or an MTC (Machine Type Communication) terminal). You may connect with.
  • P2P Peer To Peer
  • a terminal for example, a driver, a pedestrian or a store terminal, or an MTC (Machine Type Communication) terminal. You may connect with.
  • the dedicated communication I / F 7630 is a communication I / F that supports a communication protocol formulated for use in vehicles.
  • the dedicated communication I / F 7630 is, for example, WAVE (Wireless Access in Vehicle Environment), DSRC (Dedicated Short Range Communication Protocol) or DSRC (Dedicated Short Range Communication Protocol), which is a combination of the lower layer IEEE 802.11p and the upper layer IEEE 1609. May be implemented.
  • the dedicated communication I / F 7630 typically includes a vehicle-to-vehicle communication, a road-to-vehicle communication, a vehicle-to-home communication, and a vehicle-to-pedestal (Vehicle to Pestrest). ) Perform V2X communication, which is a concept that includes one or more of the communications.
  • the positioning unit 7640 receives, for example, a GNSS signal from a GNSS (Global Navigation Satellite System) satellite (for example, a GPS signal from a Global Positioning System (GPS) satellite), performs positioning, and performs the latitude, longitude, and altitude of the vehicle.
  • the position information including is generated.
  • the positioning unit 7640 may specify the current position by exchanging signals with the wireless access point, or may acquire position information from a terminal such as a mobile phone, PHS, or smartphone having a positioning function.
  • the beacon receiving unit 7650 receives, for example, radio waves or electromagnetic waves transmitted from a radio station installed on the road, and acquires information such as the current position, traffic jam, closed road, or required time. Note that the function of the beacon receiving unit 7650 may be included in the dedicated communication I / F 7630 described above.
  • the in-vehicle device I / F 7660 is a communication interface that mediates the connection between the microcomputer 7610 and various in-vehicle devices 7760 present in the vehicle.
  • the in-vehicle device I / F 7660 may establish a wireless connection using a wireless communication protocol such as a wireless LAN, Bluetooth (registered trademark), NFC (Near Field Communication), or WUSB (Wireless USB).
  • the in-vehicle device I / F 7660 is connected to a USB (Universal Serial Bus), HDMI (registered trademark) (High-Definition Multimedia Interface), or MHL (Mobile) via a connection terminal (and a cable if necessary).
  • a wired connection such as High-definition Link may be established.
  • the in-vehicle device 7760 may include, for example, at least one of a mobile device or a wearable device that a passenger has, or an information device that is carried into or attached to the vehicle.
  • In-vehicle device 7760 may include a navigation device that searches for a route to an arbitrary destination.
  • In-vehicle device I / F 7660 exchanges control signals or data signals with these in-vehicle devices 7760.
  • the in-vehicle network I / F 7680 is an interface that mediates communication between the microcomputer 7610 and the communication network 7010.
  • the in-vehicle network I / F 7680 transmits and receives signals and the like in accordance with a predetermined protocol supported by the communication network 7010.
  • the microcomputer 7610 of the integrated control unit 7600 is connected via at least one of a general-purpose communication I / F 7620, a dedicated communication I / F 7630, a positioning unit 7640, a beacon receiving unit 7650, an in-vehicle device I / F 7660, and an in-vehicle network I / F 7680.
  • the vehicle control system 7000 is controlled according to various programs based on the acquired information. For example, the microcomputer 7610 calculates a control target value of the driving force generation device, the steering mechanism, or the braking device based on the acquired information inside and outside the vehicle, and outputs a control command to the drive system control unit 7100. Also good.
  • the microcomputer 7610 realizes ADAS (Advanced Driver Assistance System) functions including vehicle collision avoidance or impact mitigation, tracking based on inter-vehicle distance, vehicle speed maintenance, vehicle collision warning, or vehicle lane departure warning. You may perform the cooperative control for the purpose. Further, the microcomputer 7610 controls the driving force generator, the steering mechanism, the braking device, or the like based on the acquired information on the surroundings of the vehicle, so that the microcomputer 7610 automatically travels independently of the driver's operation. You may perform the cooperative control for the purpose of driving.
  • ADAS Advanced Driver Assistance System
  • the microcomputer 7610 is information acquired via at least one of the general-purpose communication I / F 7620, the dedicated communication I / F 7630, the positioning unit 7640, the beacon receiving unit 7650, the in-vehicle device I / F 7660, and the in-vehicle network I / F 7680.
  • the three-dimensional distance information between the vehicle and the surrounding structure or an object such as a person may be generated based on the above and local map information including the peripheral information of the current position of the vehicle may be created.
  • the microcomputer 7610 may generate a warning signal by predicting a danger such as a collision of a vehicle, approach of a pedestrian or the like or an approach to a closed road based on the acquired information.
  • the warning signal may be, for example, a signal for generating a warning sound or lighting a warning lamp.
  • the audio image output unit 7670 transmits an output signal of at least one of audio and image to an output device capable of visually or audibly notifying information to a vehicle occupant or the outside of the vehicle.
  • an audio speaker 7710, a display unit 7720, and an instrument panel 7730 are illustrated as output devices.
  • Display unit 7720 may include at least one of an on-board display and a head-up display, for example.
  • the display portion 7720 may have an AR (Augmented Reality) display function.
  • the output device may be other devices such as headphones, wearable devices such as glasses-type displays worn by passengers, projectors, and lamps.
  • the display device can display the results obtained by various processes performed by the microcomputer 7610 or information received from other control units in various formats such as text, images, tables, and graphs. Display visually. Further, when the output device is an audio output device, the audio output device converts an audio signal made up of reproduced audio data or acoustic data into an analog signal and outputs it aurally.
  • At least two control units connected via the communication network 7010 may be integrated as one control unit.
  • each control unit may be configured by a plurality of control units.
  • the vehicle control system 7000 may include another control unit not shown.
  • some or all of the functions of any of the control units may be given to other control units. That is, as long as information is transmitted and received via the communication network 7010, the predetermined arithmetic processing may be performed by any one of the control units.
  • a sensor or device connected to one of the control units may be connected to another control unit, and a plurality of control units may transmit / receive detection information to / from each other via the communication network 7010. .
  • a computer program for realizing each function of the image processing apparatus according to the present embodiment described above can be installed in any control unit or the like. It is also possible to provide a computer-readable recording medium in which such a computer program is stored.
  • the recording medium is, for example, a magnetic disk, an optical disk, a magneto-optical disk, a flash memory, or the like. Further, the above computer program may be distributed via a network, for example, without using a recording medium.
  • the image processing apparatus can be applied to the integrated control unit 7600 of the application example shown in FIG.
  • the CPU 801 of the image processing apparatus shown in FIG. 25 is the microcomputer 7610 of the integrated control unit 7600 shown in FIG. 24, and the ROM 802, RAM 803, and the storage unit 808 of the image processing apparatus shown in FIG. 25 are the integrated control unit shown in FIG.
  • a storage unit 7690 7600 and the communication unit 809 of the image processing apparatus illustrated in FIG. 25 correspond to the in-vehicle network I / F 7680 of the integrated control unit 7600 illustrated in FIG.
  • the components of the image processing apparatus described above may be realized in a module (for example, an integrated circuit module configured by one die) for the integrated control unit 7600 illustrated in FIG. Good.
  • the image processing apparatus demonstrated previously may be implement
  • the technology disclosed in this specification can take the following configurations.
  • Input a far-infrared image and a plurality of reference images taken of the same subject as the far-infrared image,
  • a first combining unit that generates a first combined signal that is a combined signal of the plurality of reference images;
  • An image processing apparatus comprising: a second combining unit that generates a high-quality image of the far infrared image by combining the far infrared image and the first combined signal.
  • the plurality of reference images are: The image processing apparatus according to (1), which is a visible light image and a near-infrared image.
  • the first combining unit includes: The amount of correlation between the visible light image and the far-infrared image, Based on the amount of correlation between the near-infrared image and the far-infrared image, A configuration for generating the first synthesized signal; In the two reference images of the visible light image and the near-infrared image, the contribution ratio of an image having a high correlation amount with the far-infrared image is set high, and the first combined signal is generated (2).
  • Image processing device The amount of correlation between the visible light image and the far-infrared image, Based on the amount of correlation between the near-infrared image and the far-infrared image, A configuration for generating the first synthesized signal; In the two reference images of the visible light image and the near-infrared image, the contribution ratio of an image having a high correlation amount with the far-infrared image is set high, and the first combined signal is generated (2).
  • Image processing device In the two reference images of the visible light image and the near-infrare
  • the image processing apparatus includes: A low-pass filter that reduces the resolution of the visible light image and the near-infrared image as the reference image to the resolution level of the far-infrared image as the correction target image; A reduced-resolution visible light image generated by applying the low-pass filter, and a reduced-resolution near-infrared image, and a correlation amount calculation unit that calculates a correlation amount between the far-infrared image,
  • the first combining unit includes: According to (3), the visible light image and the near-infrared image are combined according to a combination ratio determined based on the correlation amount calculated by the correlation amount calculation unit, and the first combined signal is generated.
  • Image processing device includes: A low-pass filter that reduces the resolution of the visible light image and the near-infrared image as the reference image to the resolution level of the far-infrared image as the correction target image; A reduced-resolution visible light image generated by applying the low-pass filter, and a reduced-resolution near-infrared image, and
  • the correlation amount calculation unit Calculate the correlation amount of local area unit of the image,
  • the first combining unit includes: In accordance with the local area unit synthesis ratio determined based on the local area unit correlation amount calculated by the correlation amount calculation unit, the local area unit synthesis processing of the visible light image and the near-infrared image is performed, The image processing apparatus according to (4), wherein one composite signal is generated.
  • the correlation amount calculation unit includes: The image processing apparatus according to (4) or (5), wherein zero average normalized cross correlation (ZNCC) is calculated.
  • the second synthesis unit includes: A tap selection unit that determines a tap as a reference region to be used for pixel value correction of the far-infrared image; A correction parameter calculation unit for determining a correction parameter used for pixel value correction of the far-infrared image; Any one of (1) to (6), further comprising an image correction unit that applies the tap determined by the tap selection unit and the correction parameter determined by the correction parameter determination unit to perform pixel value correction of the far-infrared image.
  • An image processing apparatus according to 1.
  • the correction parameter calculation unit The image processing apparatus according to (7), wherein a correction parameter is determined based on the first combined signal generated by the first combining unit.
  • the correction parameter calculation unit It is acquired data by learning process, The image processing apparatus according to (8), wherein a correction parameter is determined based on correspondence data between an optimum correction parameter for high image quality processing of the far-infrared image and the first composite signal.
  • the tap selection unit The image processing device according to any one of (7) to (9), wherein a tap as a reference region is determined based on the first combined signal generated by the first combining unit.
  • the tap selection unit It is acquired data by learning process, The image processing apparatus according to (10), wherein a tap as a reference region is determined based on correspondence data between an optimum tap for high image quality processing of the far-infrared image and the first composite signal.
  • the plurality of reference images are: The image processing apparatus according to (1), which is a visible light image and a short infrared image.
  • the second synthesis unit includes: The amount of correlation between the far infrared image and the short infrared image, The amount of correlation between the short infrared image and the visible light image, Applying the second composition ratio determined based on the above, the composition processing of the far-infrared image and the first composite signal is executed to generate a high-quality image of the far-infrared image (12) An image processing apparatus according to 1.
  • the second synthesis ratio is: The higher the correlation between the far infrared image and the short infrared image,
  • the first combining unit includes: The image processing device according to any one of (12) to (14), wherein the first synthesized signal is generated by executing a synthesis process of the visible light image and the short infrared image in accordance with an image synthesis algorithm that maximizes visibility. .
  • the image processing apparatus includes: A low-pass filter that reduces the resolution of the visible light image and the short infrared image that are the reference images to the resolution level of the far infrared image that is the correction target image; The reduced-resolution visible light image generated by applying the low-pass filter, and the correlation amount of the far-infrared image,
  • the image processing apparatus according to any one of (13) to (15), further including a correlation amount calculation unit that calculates a correlation amount between a reduced-resolution visible light image generated by applying the low-pass filter and a reduced-resolution short infrared image.
  • the correlation amount calculation unit includes: Calculate the correlation amount of local area unit of the image,
  • the second synthesis unit includes According to the synthesis ratio of the local region unit determined based on the correlation amount of the local region unit calculated by the correlation amount calculation unit, the local region unit of the far-infrared image and the first synthesized signal is combined,
  • the image processing apparatus according to (16) which generates a high-quality image of a far-infrared image.
  • An image processing method executed in the image processing apparatus Inputting a far-infrared image and a plurality of reference images obtained by photographing the same subject as the far-infrared image; A first synthesized signal generating step in which a first synthesizing unit generates a first synthesized signal that is a synthesized signal of the plurality of reference images; An image processing method in which a second synthesizing unit executes a step of generating a high-quality image of the far infrared image by synthesizing the far infrared image and the first synthesized signal.
  • a program for executing image processing in an image processing apparatus Inputting a far-infrared image and a plurality of reference images obtained by photographing the same subject as the far-infrared image; A first synthesized signal generating step of generating a first synthesized signal that is a synthesized signal of the plurality of reference images in the first synthesis unit; In the second synthesizing unit, a step of generating a high quality image of the far infrared image by synthesizing the far infrared image and the first synthesized signal.
  • the series of processes described in the specification can be executed by hardware, software, or a combined configuration of both.
  • the program recording the processing sequence is installed in a memory in a computer incorporated in dedicated hardware and executed, or the program is executed on a general-purpose computer capable of executing various processing. It can be installed and run.
  • the program can be recorded in advance on a recording medium.
  • the program can be received via a network such as a LAN (Local Area Network) or the Internet and installed on a recording medium such as a built-in hard disk.
  • the various processes described in the specification are not only executed in time series according to the description, but may be executed in parallel or individually according to the processing capability of the apparatus that executes the processes or as necessary.
  • the system is a logical set configuration of a plurality of devices, and the devices of each configuration are not limited to being in the same casing.
  • an apparatus and a method for performing a high-quality image processing of a far-infrared image are realized.
  • a far-infrared image and a plurality of reference images obtained by photographing the same subject as the far-infrared image, and a first combining unit that generates a first combined signal that is a combined signal of the plurality of reference images;
  • a second combining unit that generates a high-quality image of the far infrared image by combining the far infrared image and the first combined signal.
  • the reference image is, for example, a visible light image and a near-infrared image
  • the first combining unit outputs the first combined signal based on the visible light image-far-infrared image correlation amount and the near-infrared image-far-infrared image correlation amount.
  • the first composite signal is generated by setting the contribution ratio of an image having a high correlation amount with the far-infrared image among the two images of the visible light image and the near-infrared image.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Human Computer Interaction (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

遠赤外線画像の高画質化処理を実行する装置、方法を提供する。遠赤外線画像と、遠赤外線画像と同一被写体を撮影した複数の参照画像を入力し、複数の参照画像の合成信号である第1合成信号を生成する第1合成部と、遠赤外線画像と、第1合成信号との合成処理により、遠赤外線画像の高画質化画像を生成する第2合成部を有する。参照画像は、例えば可視光画像と近赤外線画像であり、第1合成部は、可視光画像-遠赤外線画像相関量と、近赤外線画像-遠赤外線画像相関量に基づいて、第1合成信号を生成し、可視光画像と近赤外線画像の2つの画像中、遠赤外線画像との相関量の高い画像の寄与率を高く設定して第1合成信号を生成する。

Description

画像処理装置、および画像処理方法、並びにプログラム
 本開示は、画像処理装置、および画像処理方法、並びにプログラムに関する。特に、例えば遠赤外線画像等の低画質画像の高画質化処理を行なう画像処理装置、および画像処理方法、並びにプログラムに関する。
 昨今、可視光の画像撮影を行う可視光カメラとともに、可視光による画像撮影が困難な夜間等においても人物等を撮影可能な遠赤外線カメラを組み合わせたシステムが多く利用されている。
 このような2つのカメラを用いた撮像装置について、例えば特許文献1(特開2011-211387号公報)や、特許文献2(特開2008-183933号公報)に開示されている。
 しかし、一般的に遠赤外線カメラは、可視光での撮影を行う可視光カメラに比較して解像度が低下してしまうという問題がある。
特開2011-211387号公報 特開2008-183933号公報
 本開示は、例えば、上記の問題点に鑑みてなされたものであり、本開示の一実施例においては、例えば遠赤外線カメラの撮影画像である遠赤外線画像の高画質化を実現する画像処理装置、および画像処理方法、並びにプログラムを提供することを目的とする。
 本開示の第1の側面は、
 遠赤外線画像と、前記遠赤外線画像と同一被写体を撮影した複数の参照画像を入力し、
 前記複数の参照画像の合成信号である第1合成信号を生成する第1合成部と、
 前記遠赤外線画像と、前記第1合成信号との合成処理により、前記遠赤外線画像の高画質化画像を生成する第2合成部を有する画像処理装置にある。
 さらに、本開示の第2の側面は、
 画像処理装置において実行する画像処理方法であり、
 遠赤外線画像と、前記遠赤外線画像と同一被写体を撮影した複数の参照画像を入力するステップと、
 第1合成部が、前記複数の参照画像の合成信号である第1合成信号を生成する第1合成信号生成ステップと、
 第2合成部が、前記遠赤外線画像と、前記第1合成信号との合成処理により、前記遠赤外線画像の高画質化画像を生成するステップを実行する画像処理方法にある。
 さらに、本開示の第3の側面は、
 画像処理装置において画像処理を実行させるプログラムであり、
 遠赤外線画像と、前記遠赤外線画像と同一被写体を撮影した複数の参照画像を入力するステップと、
 第1合成部において、前記複数の参照画像の合成信号である第1合成信号を生成する第1合成信号生成ステップと、
 第2合成部において、前記遠赤外線画像と、前記第1合成信号との合成処理により、前記遠赤外線画像の高画質化画像を生成するステップを、
 実行させるプログラムにある。
 なお、本開示のプログラムは、例えば、様々なプログラム・コードを実行可能な情報処理装置やコンピュータ・システムに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体によって提供可能なプログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、情報処理装置やコンピュータ・システム上でプログラムに応じた処理が実現される。
 本開示のさらに他の目的、特徴や利点は、後述する本開示の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
 本開示の一実施例の構成によれば、遠赤外線画像の高画質化処理を実行する装置、方法が実現される。
 具体的には、例えば、遠赤外線画像と、遠赤外線画像と同一被写体を撮影した複数の参照画像を入力し、複数の参照画像の合成信号である第1合成信号を生成する第1合成部と、遠赤外線画像と、第1合成信号との合成処理により、遠赤外線画像の高画質化画像を生成する第2合成部を有する。参照画像は、例えば可視光画像と近赤外線画像であり、第1合成部は、可視光画像-遠赤外線画像相関量と、近赤外線画像-遠赤外線画像相関量に基づいて、第1合成信号を生成し、可視光画像と近赤外線画像の2つの画像中、遠赤外線画像との相関量の高い画像の寄与率を高く設定して第1合成信号を生成する。
 これらの処理により、遠赤外線画像の高画質化処理を実行する装置、方法が実現される。
 なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、また付加的な効果があってもよい。
撮影画像の種類と光の波長との対応関係について説明する図である。 可視光画像と赤外線画像の画素配列の例について説明する図である。 本開示の画像処理装置の実行する処理について説明する図である。 画像処理装置の構成例について説明する図である。 画像処理部の構成と処理について説明する図である。 ローパスフィルタ(LPF)の実行する処理について説明する図である。 相関量算出部の実行する処理について説明する図である。 相関量算出部の実行する処理について説明する図である。 第1合成比率算出部の実行する処理について説明する図である。 第1合成比率算出部の実行する処理について説明する図である。 第1合成部の実行する処理について説明する図である。 第2合成部の構成例と実行する処理について説明する図である。 第2合成部において適用する補正パラメータ等を取得するための学習処理について説明する図である。 画像処理装置の実行する画像処理シーケンスについて説明するフローチャートを示す図である。 様々な画像の画像特性について説明する図である。 画像処理部の構成と処理について説明する図である。 第2合成比率算出部の実行する処理について説明する図である。 第2合成比率算出部の実行する処理について説明する図である。 第1合成部の実行する処理について説明する図である。 第2合成部の実行する処理について説明する図である。 画像処理装置の実行する画像処理シーケンスについて説明するフローチャートを示す図である。 様々な画像の画像特性について説明する図である。 画像処理装置のハードウェア構成例について説明する図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
 以下、図面を参照しながら本開示の画像処理装置、および画像処理方法、並びにプログラムの詳細について説明する。なお、説明は以下の項目に従って行う。
 1.本開示の画像処理装置の構成と処理について
 2.遠赤外線画像の高画質化処理を実行する画像処理装置について
 3.画像処理装置の実行する処理シーケンスについて
 4.遠赤外線画像と、可視光画像、および近赤外線画像の画像特性と、遠赤外線画像の高画質化画像の利用可能性について
 5.(実施例2)短赤外線画像を用いた実施例について
 6.第2実施例の画像処理装置の実行する処理シーケンスについて
 7.遠赤外線画像と、可視光画像、および短赤外線画像の画像特性と、遠赤外線画像の高画質化画像の利用可能性について
 8.画像処理装置のハードウェア構成例について
 9.本開示の画像処理装置を適用した応用例について
 10.本開示の構成のまとめ
  [1.本開示の画像処理装置の構成と処理について]
 図1以下を参照して本開示の画像処理装置の構成と処理について説明する。
 まず、図1以下を参照して本開示の画像処理装置が処理対象とする画像について説明する。
 本開示の画像処理装置は、例えば、低解像度の遠赤外線画像(FIR:Far IneraRed)に併せて、同一被写体を撮影した高解像度の画像を参照画像として入力し、参照画像を適用した画像処理により、高画質の遠赤外線画像(FIR:Far IneraRed)、例えば解像度を高めた遠赤外線画像(FIR:Far IneraRed)を生成する装置である。
 具体的には、例えば、
 (a)可視光画像(VIS:Visible)、
 (b)近赤外線画像(NIR:Near IneraRed)、
 (c)遠赤外線画像(FIR:Far IneraRed)、
 これらの画像を入力して、これらの画像を適用した画像処理を行い、高画質の遠赤外線画像(FIR)を生成する。
 あるいは、
 (a)可視光画像(VIS:Visible)、
 (b)短赤外線画像(SWIR:Short Wave IneraRed)、
 (c)遠赤外線画像(FIR:Far IneraRed)、
 これらの画像を入力して、これらの画像を適用した画像処理を行い、高画質の遠赤外線画像(FIR)を生成する。
 図1に示すように、可視光画像(VIS)10は、波長が約0.4μm~0.7μmの範囲の画像であり、例えば、一般的なカメラで撮影されるRGB画像等のカラー画像である。
 一方、赤外線画像は、波長が.0.7μm以上の長波長光からなる画像である。赤外線画像を撮影する赤外線画像撮影カメラは、例えば暗闇等において熱を発生する人物等を撮影することが可能であり、監視カメラ等に利用される。
 なお、赤外線は、図1に示すように、
 波長が約0.7~1μmの近赤外線(NIR)、
 波長が約1~2.5μmの短赤外線(SWIR)、
 波長が約3~5μmの中赤外線、
 波長が約8~14μmの遠赤外線(FIR)、
 このように区分される。
 近赤外線カメラによって撮影される画像は、波長が約0.7~1μmの近赤外線画像(NIR)20となる。
 短赤外線カメラによって撮影される画像は、波長が約1~2.5μmの近赤外線画像(NIR)30となる。
 また、遠赤外線カメラによって撮影される画像は、波長が約8~14μmの遠赤外線画像(FIR)40となる。
 以下に説明する実施例では、主に波長が約8~14μmの遠赤外線を撮影する遠赤外線画像40の高画質化処理を行う画像処理例について説明する。
 ただし、本開示の処理は、遠赤外線画像に限らず、その他の赤外線画像や蛍光画像等の様々な低画質画像や、低解像度画像に対する高画質化処理にも適用可能である。
 図2は、可視光画像10、および遠赤外線画像40を撮影する撮像素子上の画素配列の例を示す図である。
 図2(1)の可視光画像は、RGB各画素からなるベイヤ配列の例を示している。このベイヤ配列は、多くの可視光撮影カメラの撮像素子に利用されている。
 撮像素子の各画素は、RまたはGまたはB各波長光の光量に応じた電気信号を出力する。
 一方、図2(2)の遠赤外線画像は、全ての画素位置において遠赤外線(FIR:Far IneraRed)の波長光を撮影する。
 ただし、図2(1),(2)に示すように、一般的に遠赤外線等の赤外線画像撮像素子は、可視光画像撮像素子に比較して、解像度が低くなる。これは赤外線、特に遠赤外線は波長光が長く、高密度の画素配列を持つ撮像素子が利用しにくい等の理由である。
 本開示の画像処理装置の実行する1つの処理例について図3を参照して説明する。本開示の画像処理装置は、例えば、低解像度の遠赤外線画像に対する画像処理を実行して、高解像度の遠赤外線画像を生成する。
 図3に示すように、本開示の画像処理装置の画像処理部50は、(A)撮像部の撮影画像として、
 (a)可視光画像(VIS)、
 (b)近赤外線画像(NIR)、
 (c)遠赤外線画像(FIR)、
 これらの3種類の画像を入力する。
 あるいは、
 (a)可視光画像(VIS)、
 (b)短赤外線画像(SWIR)、
 (c)遠赤外線画像(FIR)、
 これらの3種類の画像を入力する。
 画像処理部50は、これらの3つの入力画像を利用して、低解像度の遠赤外線画像の高画質化処理を実行し、(B)に示すような高画質化画像、すなわち、高解像度の遠赤外線画像を生成して出力する。
 すなわち、高画質化処理対象となる補正対象画像は、遠赤外線画像である。
 この画像補正処理のための参照画像として、可視光画像と近赤外線画像、または可視光画像と短赤外線画像が利用される。
 以下、このような画像処理を実行する画像処理装置の具体的な構成と処理について説明する。
  [2.遠赤外線画像の高画質化処理を実行する画像処理装置について]
 図4は、本開示の画像処理装置100の一例である撮像装置の構成を示すブロック図である。
 なお、本開示の画像処理装置には、撮像装置に限らず、例えば撮像装置の撮影画像を入力して画像処理を実行するPC等の情報処理装置も含まれる。
 以下では、本開示の画像処理装置100の一例として、撮像装置の構成と処理について説明する。
 図4に示す撮像装置としての画像処理装置100は、制御部101、記憶部102、コーデック103、入力部104、出力部105、撮像部106、画像処理部120を有する。
 撮像部106は、遠赤外線画像を撮影する遠赤外線画像撮像部111と、近赤外線画像を撮影する近赤外線画像撮像部112と、通常の可視光画像の撮影を行う可視光画像撮像部113を有する。
 遠赤外線画像撮像部111は、例えば先に図2(2)を参照して説明した遠赤外線を入射する画素からなる撮像素子による撮影を行い、各画素から、遠赤外線の入射光量に応じた電気信号を出力する。
 近赤外線画像撮像部112は、近赤外線を入射する画素からなる撮像素子による撮影を行い、各画素から、近赤外線の入射光量に応じた電気信号を出力する。
 一方、可視光画像撮像部113は、例えば、先に図2(1)を参照して説明したベイヤ配列からなるRGB画素を有し、各画素単位でRGB各色の入力光対応の信号を出力する撮像素子である。
 遠赤外線画像撮像部111と、近赤外線画像撮像部112と、可視光画像撮像部113は、所定間隔、離れた位置に設定される2つの撮像部であり、それぞれの撮影画像は異なる視点からの画像となる。
 異なる視点からの2つの画像の対応画素、すなわち同一位置の画素には同一の被写体画像が撮影されず、視差に応じた被写体ずれが発生する。
 遠赤外線画像撮像部111と、近赤外線画像撮像部112と、可視光画像撮像部113は、撮影画像が静止画である場合は、各々が1枚ずつ、計3枚の静止画を撮影する。動画を撮影する場合は、各撮像部の撮影フレームは、各撮像部が連続した画像フレームを撮影する。
 なお、これらの撮影タイミングの制御は制御部101によって行われる。
 制御部101は、画像の撮影、撮影画像に対する信号処理、画像の記録処理、表示処理等、撮像装置100において実行する各種の処理を制御する。制御部101は、例えば記憶部102に格納された様々な処理プログラムに従った処理を実行するCPU等を備え、プログラムを実行するデータ処理部として機能する。
 記憶部102は、撮影画像の格納部、さらに、制御部101において実行する処理プログラムや、各種パラメータの記憶部、さらにデータ処理時のワークエリアとして機能するRAM、ROM等によって構成される。
 コーデック103は、撮影画像の圧縮、伸長処理等の符号化、復号処理を実行する。
 入力部104は、例えばユーザ操作部であり、撮影開始、終了、様々なモード設定等の制御情報を入力する。
 出力部105は表示部、スピーカ等によって構成され、撮影画像、スルー画等の表示、音声出力等に利用される。
 画像処理部120は、撮像部106から入力する3枚の画像を入力し、これら3枚の画像を適用して、入力画像の高画質化処理を実行する。
 具体的には、例えば、高画質化した高画質化遠赤外線画像(FIR)180を生成する。
 図5以下を参照して画像処理部120の構成と処理について説明する。
 本実施例において、画像処理部120は、
 遠赤外線画像撮像部111において撮影された遠赤外線画像(FIR)151と、
 近赤外線画像撮像部112において撮影された近赤外線画像(NIR)152と、
 可視光画像撮像部113において撮影された可視光画像(VIS)153、
 これら3種類の画像を入力し、これら3種類の画像を利用して、高画質化処理を施した高画質化遠赤外線画像(FIR)180を生成して出力する。
 前述したように、高画質化処理対象となる補正対象画像は、遠赤外線画像である。
 この画像補正処理のための参照画像として、可視光画像と近赤外線画像が利用される。
 画像処理部120の実行する処理について説明する。
 画像処理部120は、まず、
 遠赤外線画像撮像部111において撮影された遠赤外線画像(FIR)151と、
 近赤外線画像撮像部112において撮影された近赤外線画像(NIR)152と、
 可視光画像撮像部113において撮影された可視光画像(VIS)153、
 これら3種類の画像を画像位置合わせ部201に入力する。
 画像位置合わせ部201は、これら3種類の画像について、同一位置に同一の被写体が位置するように画像の位置合わせ処理を実行する。
 なお、この画像位置合わせは、既存の処理、例えば、各画像の視差量や、動きベクトル等を用いた処理によって実行される。
 なお、上記3種類の画像の画像サイズが異なっている場合は、事前にサイズ調整を行って同一サイズに合わせるスケーリング処理を実行して、その後、画像の位置合わせ処理を実行することが好ましい。
 画像位置合わせ部201において位置合わせのなされた画像中、参照画像である近赤外線画像152と、可視光画像153は、ローパスフィルタ(LPF)202a,202bに入力される。
 このローパスフィルタ(LPF)202a,202bにおいて、参照画像である近赤外線画像152と、可視光画像153の解像度レベルを、補正対象画像である遠赤外線画像151の解像度レベルまで低下させる解像度調整処理を実行する。
 この解像度調整処理は、次の相関量算出部203a,203bにおける相関量算出を正確に実行するための処理である。
 先に図2、図3を参照して説明したように、遠赤外線画像の解像度は、可視光画像や近赤外線画像に比較して低い。
 後段で詳細に説明するが、相関量算出部203a,203bにおいては、補正対象画像である遠赤外線画像と、参照画像(可視光画像および近赤外線画像)との相関量を算出する。
 この相関量算出処理においては、比較対象とする画像の解像度が異なると、正確な相関量の算出が困難となる。比較対象とする画像の解像度を一致させたほうが正確に相関量を算出することができる。
 ローパスフィルタ(LPF)202a,202bの適用処理は、このために行われる。
 すなわち、参照画像である近赤外線画像152と、可視光画像153の解像度を遠赤外線画像151の解像度レベルに近づけるための処理である。
 ローパスフィルタ(LPF)202a,202bにおいて実行する近赤外線画像152と、可視光画像153の解像度レベル低下処理の具体例について、図6を参照して説明する。
 図6には、ローパスフィルタ(LPF)202a,202bの処理を示している。
 ローパスフィルタ(LPF)202aは、近赤外線画像152を入力して、LPFを適用した処理を実行して、解像度を低下させた画像、すなわち、解像度低下近赤外線画像152bを生成して出力する。
 さらに、ローパスフィルタ(LPF)202Bは、可視光画像153を入力して、LPFを適用した処理を実行して、解像度を低下させた画像、すなわち、解像度低下可視光画像153bを生成して出力する。
 なお、ローパスフィルタ(LPF)としては、各画像の解像度を、目的とする解像度、すなわち補正対象画像である遠赤外線画像151の解像度まで低下させるために最適なLPFを適用する。
 具体例としては、例えば図6に示すような係数を持つ5×5のガウシアンフィルタの適用が可能である。
 このように、ローパスフィルタ(LPF)202a,202bにおいて、参照画像である近赤外線画像152と、可視光画像153の解像度レベルが、補正対象画像である遠赤外線画像151の解像度レベルまで低下させる解像度調整処理が実行される。
 図5に示すように、ローパスフィルタ(LPF)202a,202bの処理結果は、相関量算出部203a,203bに入力される。
 図5に示すように、相関量算出部203aには、解像度低下処理がなされた近赤外線画像152と、補正対象画像である遠赤外線画像151が入力される。
 また、相関量算出部203bには、解像度低下処理がなされた可視光画像153と、補正対象画像である遠赤外線画像151が入力される。
 相関量算出部203a,203bの実行する処理について、図7、図8を参照して説明する。
 図7は、相関量算出部203aの処理を説明する図である。
 図7に示すように、相関量算出部203aには、補正対象画像である遠赤外線画像151と、この遠赤外線画像151の解像度と、ほぼ同一の解像度まで解像度低下処理がなされた参照画像である解像度低下近赤外線画像152bが入力される。
 相関量算出部203aは、これらの2つの入力画像の相関量を算出する。
 なお、画像の相関量算出処理としては、様々な既存技術が利用可能である。
 図7には、相関量として、以下の(式1)によって算出されるZNCC(ゼロ平均正規化相互相関)を適用した例を示している。
Figure JPOXMLDOC01-appb-M000001
 なお、上記(式1)において、
 FIRは、遠赤外線画像の画素値(輝度値)、
 NIRは、近赤外線画像の画素値(輝度値)、
 上部にバーを設定したFIRは、相関算出対象の局所領域(例えば7×7画素)の遠赤外線画像の画素値(輝度値)平均値、
 上部にバーを設定したNIRは、相関算出対象の局所領域(例えば7×7画素)の近赤外線画像の画素値(輝度値)平均値、
 である。
 例えば、2つの入力画像(遠赤外線画像、近赤外線画像)に対して、所定の局所領域単位(例えば7×7画素)ごとに相関量として、上記(式1)に従って算出されるZNCCを求める。
 この結果が、図7に相関量算出部203aの出力として示す、
 遠赤外線画像-近赤外線画像相関量(NIRcorr)161、
 である。
 図8は、相関量算出部203bの処理を説明する図である。
 図8に示すように、相関量算出部203bには、補正対象画像である遠赤外線画像151と、この遠赤外線画像151の解像度と、ほぼ同一の解像度まで解像度低下処理がなされた参照画像である解像度低下可視光画像153bが入力される。
 相関量算出部203bは、これらの2つの入力画像の相関量を算出する。
 図8には、相関量として、以下の(式2)によって算出されるZNCC(ゼロ平均正規化相互相関)を適用した例を示している。
Figure JPOXMLDOC01-appb-M000002
 なお、上記(式2)において、
 FIRは、遠赤外線画像の画素値(輝度値)、
 VISは、可視光画像の画素値(輝度値)、
 上部にバーを設定したFIRは、相関算出対象の局所領域(例えば7×7画素)の遠赤外線画像の画素値(輝度値)平均値、
 上部にバーを設定したVISは、相関算出対象の局所領域(例えば7×7画素)の可視光画像の画素値(輝度値)平均値、
 である。
 例えば、2つの入力画像(遠赤外線画像、可視光画像)に対して、所定の局所領域単位(例えば7×7画素)ごとに相関量として、上記(式2)に従って算出されるZNCCを求める。
 この結果が、図8に相関量算出部203bの出力として示す、
 遠赤外線画像-可視光画像相関量(VIScorr)162、
 である。
 このように、
 相関量算出部203aは、遠赤外線画像-近赤外線画像相関量(NIRcorr)161を算出して、この算出値を第1合成比率算出部204に出力する。
 また、相関量算出部203bは、遠赤外線画像-可視光画像相関量(VIScorr)162を算出して、この算出値を第1合成比率算出部204に出力する。
 次に、第1合成比率算出部204の実行する処理について説明する。
 図5に示すように、第1合成比率算出部204は、相関量算出部203a,203bから、2つの相関量を入力して、第1合成比率α211を生成して、第1合成部205に出力する。
 第1合成部205は、参照画像である近赤外線画像152と可視光画像153の合成処理を実行して、この合成画像である第1合成信号(ガイド信号)212を第2合成部206に出力する。
 第1合成部205における近赤外線画像152と可視光画像153の合成処理に適用する各画像の合成比率αを算出する処理を実行するのが、第1合成比率算出部204である。
 なお、第1合成比率αは、第1合成部205における近赤外線画像と可視光画像の合成処理における近赤外線画像の合成比率であり、
 0≦α≦1
 の値を持つ。
 第1合成部205は、
 合成比率αの近赤外線画像(NIR)と、合成比率(1-α)の可視光画像(VIS)を適用した画像合成処理を行う。
 この処理の詳細については後段で説明する。
 第1合成比率算出部204の実行する処理の具体例について、図9、図10を参照して説明する。
 図9には、第1合成比率算出部204に対する入力データと、第1合成比率算出部204からの出力データのを示している。
 図9に示すように、第1合成比率算出部204は、以下の各データを入力する。
 (a)相関量算出部203aから、遠赤外線画像-近赤外線画像相関量(NIRcorr)161、
 (b)相関量算出部203bから、遠赤外線画像-可視光画像相関量(VIScorr)162、
 図9に示すように、第1合成比率算出部204は、これら、2つの相関量を入力して、第1合成比率α211を生成して、第1合成部205に出力する。
 第1合成比率算出部204は、例えば、図10に示すグラフに従って、入力値、すなわち、
 (a)遠赤外線画像-近赤外線画像相関量(NIRcorr)161、
 (b)遠赤外線画像-可視光画像相関量(VIScorr)162、
 これらの入力値から、第1合成比率α211を算出する。
 図10に示すグラフは、
 横軸に、(NIRcorr-VIScorr)
 縦軸に、第1合成比率αを設定したグラフである。
 横軸の(NIRcorr-VIScorr)は、
 (a)相関量算出部203aから入力する、遠赤外線画像-近赤外線画像相関量(NIRcorr)161、
 (b)相関量算出部203bから入力する、遠赤外線画像-可視光画像相関量(VIScorr)162、
 これら2つの相関量の差分に相当する。
 遠赤外線画像-近赤外線画像相関量(NIRcorr)161が、遠赤外線画像-可視光画像相関量(VIScorr)162より大きい場合は、横軸の右側、0以上となり、
 遠赤外線画像-近赤外線画像相関量(NIRcorr)161が、遠赤外線画像-可視光画像相関量(VIScorr)162より小さい場合は、横軸の左側、0以下となる。
 横軸の右側、0以上となる場合は、遠赤外画像に対する相関量が、可視光画像より近赤外線画像が高い。すなわち、可視光画像より近赤外線画像が、遠赤外画像により近い特徴を持つ画像であることを意味する。
 一方、横軸の左側、0以下となる場合は、遠赤外画像に対する相関量が、近赤外線画像より可視光画像が高い。すなわち、近赤外線画像より可視光画像が、遠赤外画像に近い特徴を持つ画像であることを意味する。
 図10に示すグラフから理解されるように、
 しきい値-Th2以下では、第1合成比率α=0、
 しきい値-Th2~-Th1では、第1合成比率α=0~0.5、
 しきい値-Th1~Th1では、第1合成比率α=0.5、
 しきい値Th1~Th2では、第1合成比率α=0.5~1、
 しきい値Th2以上では、第1合成比率α=1、
 このような設定となっている。
 具体的には、
 しきい値Th2以上では、第1合成比率α=1、
 これは、第1合成部205における可視光画像と近赤外線画像との合成処理において、可視光画像を利用せず、近赤外線画像のみを利用した合成処理を行うことを意味する。
 すなわち、補正対象画像である遠赤外線画像との相関の高い近赤外線画像のみを利用した合成処理を行うことを意味する。
 また、Th1~-Th1では、第1合成比率α=0.5、
 これは、第1合成部205における可視光画像と近赤外線画像との合成処理において、可視光画像と、近赤外線画像を1対1で利用した合成処理を行うことを意味する。
 すなわち、補正対象画像である遠赤外線画像との相関がほぼ等しい可視光画像と、近赤外線画像を等分に利用した合成処理を行うことを意味する。
 さらに、しきい値-Th2以下では、第1合成比率α=0、
 これは、第1合成部205における可視光画像と近赤外線画像との合成処理において、可視光画像まみを利用して、近赤外線画像は利用しない合成処理を行うことを意味する。
 すなわち、補正対象画像である遠赤外線画像との相関の高い近可視光画像のみを利用した合成処理を行うことを意味する。
 なお、図10に示すグラフ対応データは、第1合成比率算出部204が予め保持しており、第1合成比率算出部204は、この対応データに基づいて入力値、すなわち、
 (a)遠赤外線画像-近赤外線画像相関量(NIRcorr)161、
 (b)遠赤外線画像-可視光画像相関量(VIScorr)162、
 これらの入力値から、第1合成比率α211を算出する。
 なお、この第1合成比率α211は、相関量算出部203a,bにおける相関量の算出領域単位、例えば前述したように7×7画素領域単位で算出する。
 なお、図10に示すグラフは一例であり、この他の設定のデータを利用する構成としてもよい。ただし、基本的には、第1合成部205において、補正対象画像である遠赤外線画像との相関量が大きい参照画像を優先的に利用した合成処理が行われるような合成比率を算出するものとする。
 このように、第1合成比率算出部204は、相関量算出部203a,203bから、2つの相関量を入力して、第1合成比率α211を生成して、第1合成部205に出力する。
 図5に示すように、第1合成部205は、参照画像である近赤外線画像152と可視光画像153の合成処理を実行して、この合成画像である第1合成信号(ガイド信号)212を第2合成部206に出力する。
 第1合成部205の実行する処理の詳細について、図11を参照して説明する。
 図11に示すように、第1合成部205は、第1合成比率算出部204から、第1合成比率α211を入力する。
 さらに、近赤外線画像152と可視光画像153を入力する。
 第1合成部205は、第1合成比率α211に従って、近赤外線画像152と可視光画像153との合成処理を実行して合成画像である第1合成信号(ガイド信号)212を生成する。
 生成した第1合成信号(ガイド信号)212は、第2合成部206に出力される。
 第1合成部205の生成する第1合成信号(ガイド信号)212、例えば、図11に示すように、以下の(式3)に従った信号(fusion1_out)である。
Figure JPOXMLDOC01-appb-M000003
 なお、上記(式3)によって算出する第1合成信号(ガイド信号(fusion1_out))212も、第1合成比率α211と同様、相関量算出部203a,bにおける相関量の算出領域単位、例えば前述したように7×7画素領域単位で算出する。
 上記(式3)は、近赤外線画像152と可視光画像153のレベルずれを減少させて、かつ局所領域の波形変化の情報のみを抽出するためDCキャンセル、すなわち直流成分を排除する処理を行っている。具体的には、式3中のカッコ内の減算処理、(NIR-ΣNIR)、(VIS-ΣVIS)によってDC成分のキャンセル処理を行っている。
 このように、第1合成部205は、第1合成比率α211に従って、近赤外線画像152と可視光画像153との合成処理を実行して合成画像である第1合成信号(ガイド信号(fusion1_out))212を生成する。
 生成した第1合成信号(ガイド信号)212は、第2合成部206に出力される。
 図5に示すように、第2合成部206は、
 遠赤外線画像151と、
 第1合成信号(ガイド信号)212、
 これらを入力して、
 高画質化遠赤外線画像180を生成して出力する。
 第2合成部206の実行する処理の詳細について、図12を参照して説明する。
 図12に示すように、第2合成部206は、タップ選択部231、補正パラメータ(係数)算出部232、画像補正部233を有する。
 タップ選択部231は、低解像度の遠赤外線画像231を入力し、解像度レベルを向上させた画像補正を行うためのタップ選択を行う。具体的には補正対象となる画素の画素値の補正処理に適用する参照画素の画素範囲を設定する。
 また、補正パラメータ算出部232は、補正対象となる遠赤外線画像231の構成画素の画素値の補正処理に適用する補正パラメータを算出する。具体的には、参照画素iの画素値に乗算する乗算係数Kを算出する。
 補正パラメータ算出部232は、第1合成部205の生成した参照画像、すなわち、近赤外線画像152と可視光画像153の合成処理によって生成された合成画像である第1合成信号(ガイド信号(fusion1_out))212を入力して、この入力信号に基づいて、補正パラメータ(係数)を選択して、画像補正部233に入力する。
 先に説明したように、第1合成信号(ガイド信号(fusion1_out))212は、画像の局所領域、例えば7×7画素の局所領域単位の信号であり、補正パラメータ算出部232は、画像の局所領域、例えば7×7画素の局所領域単位で補正パラメータ(係数)を選択して画像補正部233に出力する。
 タップ選択部231、および、補正パラメータ算出部232には、予め、様々な異なる第1合成信号(ガイド信号(fusion1_out))に対応する最適なタップ、補正パラメータが対応付けられて格納されている。
 タップ選択部231、および補正パラメータ算出部232は、この格納データから、第1合成部205から入力する第1合成信号(ガイド信号(fusion1_out))212に対応付けられたタップ、補正パラメータを選択取得して画像補正部233に出力する。
 タップ選択部231、および、補正パラメータ算出部232が利用する第1合成信号(ガイド信号(fusion1_out))に対応付けられた最適タップや、最適補正パラメータのデータは、事前に実行される学習処理によって生成される。
 この学習処理について、図13を参照して説明する。
 図13は、遠赤外線画像の高画質化処理に適用するタップや補正係数を算出するための処理を実行する画像処理部120の構成を示す図である。
 この画像処理部120は、先に図5を参照して説明した画像処理部120とほぼ同様の構成を有する。
 図5に示す画像処理部120の第2合成部206を、図13では、学習処理部271に置き換えている点と、図13では、入力画像として、高解像度遠赤外線画像251が追加されている点が異なる。
 図13に入力画像として示す低解像度遠赤外線画像151は、図5に示す補正対象画像である遠赤外線画像151と同様の低解像度画像である。
 図13に示す画像処理部120の学習処理部271は、高解像度遠赤外線画像251と、低解像度遠赤外線画像151と、第1合成部205の出力である第1合成信号(ガイド信号(fusion1_out))212を入力して学習処理を行う。
 この学習処理の結果として、様々な第1合成信号(ガイド信号(fusion1_out))に対応した最適な補正パラメータ(係数)との対応データからなる最適補正パラメータ191と、様々な第1合成信号(ガイド信号(fusion1_out))に対応した最適なタップとの対応データからなる最適タップ192を生成する。
 具体的には、学習処理部271は、高解像度遠赤外線画像251を教師画像として、低解像度遠赤外線画像151を生徒画像とした「教師あり学習処理」を実行して、第1合成部205の出力である第1合成信号(ガイド信号(fusion1_out))の様々な信号値に対応する最適な補正パラメータ(係数)や、タップを算出する。
 なお、最適タップ、および最適補正パラメータとは、生徒画像である低解像度遠赤外線画像151の画素値を、教師画像である高解像度遠赤外線画像251の画素値に、より近づけるために最適なタップ、および補正パラメータである。
 学習処理部271は、様々なタイプの異なる生徒画像である低解像度遠赤外線画像151と、教師画像である高解像度遠赤外線画像251を入力して学習処理を行い、様々な異なる特徴を持つ画像領域対応の最適なタップと、補正パラメータを算出する。
 様々な異なる特徴を持つ画像領域対応の最適な補正パラメータとは、様々な異なる第1合成信号(ガイド信号(fusion1_out))対応の最適なタップと、補正パラメータに相当する。
 図13に示す画像処理部120を適用して学習処理を実行することで、様々な異なる第1合成信号(ガイド信号(fusion1_out))対応の最適なタップと、補正パラメータを算出することができる。
 図12に示す第2合成部206のタップ選択部231は、上述の学習処理の結果から、遠赤外線画像の高画質化処理に最適なタップを選択して画像補正部233に出力する。
 図12に示す第2合成部206の補正パラメータ(係数)算出部232は、上述の学習処理によって予め算出された補正パラメータから、遠赤外線画像の高画質化処理に最適な補正パラメータを選択して画像補正部233に出力する。
 すなわち、第1合成部205が生成した画像領域単位の様々な第1合成信号(ガイド信号(fusion1_out))に対応した領域単位の最適なタップ、および補正パラメータを画像補正部233に出力する。
 画像補正部233は、タップ選択部231において設定されたタップ(参照画素領域)を用い、さらに、補正パラメータ(係数)算出部232から入力する補正パラメータを適用して、遠赤外線画像151の構成画素の画素値補正を実行する。なお、画素値補正は、第1合成信号(ガイド信号(fusion1_out))に対応した領域単位で選択された補正パラメータを適用して実行される。
 すなわち、画像特徴に応じた最適な補正パラメータを利用した補正処理が行われる。
 画像補正部233において実行する画素値補正は、例えば以下の(式4)に従って実行される。
Figure JPOXMLDOC01-appb-M000004
 なお、上記(式4)において、各記号は以下の意味を持つ。
 FIR:補正対象画素の補正画素値
 FIR:参照画素の画素値
 i:参照画素の画素識別子
 K:参照画素i対応の乗算係数(補正パラメータ)
 である。
 Kは、補正パラメータ(係数)算出部232から入力する補正パラメータが利用される。
 第2合成部206は、上記(式4)に従って、補正対象画像である遠赤外線画像151の構成画素の画素値補正を順次、実行し、高画質化遠赤外線画像180を生成して出力する。
 この第2合成部206における合成処理により、補正対象画像である遠赤外線画像151の画素値と、参照画像である近赤外線画像、および可視光画像の合成画像である第1合成信号(ガイド信号)212との領域単位の合成処理が実行される。
 第1合成信号(ガイド信号)212は、補正対象画像である遠赤外線画像151との相関量が大きい参照画像の合成率を高めて生成した合成画像である。また、補正処理に適用するタップ、補正パラメータは、学習処理によって生成された遠赤外線画像の高画質化に最適な値である。
 このように、第2合成部206は、補正対象画像である遠赤外線画像151の領域単位で、最適な第1合成信号(ガイド信号)と、最適なタップと、最適な補正パラメータに基づいて画素値補正を実行することで、高画質化遠赤外線画像180を生成して出力する。
  [3.画像処理装置の実行する処理シーケンスについて]
 次に、図5に示す画像処理部の実行する処理のシーケンス、すなわち、遠赤外線画像の高画質化処理処理シーケンスについて、図14に示すフローチャートを参照して説明する。
 図14に示すフローに従った処理は、例えば画像処理装置の記憶部に格納されたプログラムに従ってプログラム実行機能を有する制御部の制御の下に実行される。
 以下、図14に示すフローの各ステップの処理について、順次、説明する。
  (ステップS101)
 まず、画像処理装置は、ステップS101において、補正対象画像である遠赤外線画像と、参照画像となる可視光画像、および近赤外線画像を入力して、各画像の位置合わせ処理を実行する。
 この処理は、図5に示す画像処理部120の画像位置合わせ部201の実行する処理である。
 画像位置合わせ部201は、入力した3種類の画像について、同一位置に同一の被写体が位置するように画像の位置合わせ処理を実行する。
 なお、この画像位置合わせは、既存の処理、例えば、各画像の視差量や、動きベクトル等を用いた処理によって実行される。
  (ステップS102)
 次に、画像処理装置は、ステップS102において、参照画像である可視光画像と、近赤外線画像を、補正対象画像である遠赤外線画像の解像度にほぼ等しい解像度に変換する。すなわち、LPFを適用して解像度の低下処理を行う。
 この処理は、図5に示す画像処理部120のローパスフィルタ(LPF)202a,202bにおいて実行される処理である。
 ローパスフィルタ(LPF)202a,202bにおいて、参照画像である近赤外線画像と、可視光画像の解像度レベルを、補正対象画像である遠赤外線画像の解像度レベルまで低下させる解像度調整処理を実行する。
  (ステップS103)
 次に、画像処理装置は、ステップS103において、参照画像である可視光画像と、近赤外線画像各々と、補正対象画像である遠赤外線画像との相関量を算出する。
 この処理は、図5に示す画像処理部120の相関量算出部203a,203bにおいて実行される処理である。
 図5に示す画像処理部120の相関量算出部203aでは、先に図7を参照して説明したように、補正対象画像である遠赤外線画像151と、この遠赤外線画像151の解像度と、ほぼ同一の解像度まで解像度低下処理がなされた参照画像である解像度低下近赤外線画像152bとの相関量を算出する。
 例えば、所定の局所領域単位(例えば7×7画素)ごとの相関量として、ZNCC(ゼロ平均正規化相互相関)を算出する。
 また、図5に示す画像処理部120の相関量算出部203bでは、先に図8を参照して説明したように、補正対象画像である遠赤外線画像151と、この遠赤外線画像151の解像度と、ほぼ同一の解像度まで解像度低下処理がなされた参照画像である解像度低下可視光画像153bとの相関量を算出する。
 例えば、所定の局所領域単位(例えば7×7画素)ごとの相関量として、ZNCC(ゼロ平均正規化相互相関)を算出する。
  (ステップS104)
 次に、画像処理装置は、ステップS104において、参照画像である可視光画像と、近赤外線画像各々と、補正対象画像である遠赤外線画像との相関量に応じて、参照画像である可視光画像と、近赤外線画像との合成比率を算出する。
 この処理は、図5に示す画像処理部120の第1合成比率算出部204が実行する処理である。
 図5に示すように、第1合成比率算出部204は、相関量算出部203a,203bから、2つの相関量を入力して、第1合成比率α211を生成して、第1合成部205に出力する。
 先に、図9、図10を参照して説明したように、
 第1合成比率算出部204は、例えば、図10に示すグラフに従って、入力値、すなわち、
 (a)遠赤外線画像-近赤外線画像相関量(NIRcorr)161、
 (b)遠赤外線画像-可視光画像相関量(VIScorr)162、
 これらの入力値から、第1合成比率α211を算出する。
 第1合成比率算出部204は、補正対象画像である遠赤外線画像との相関量が大きい参照画像を優先的に利用した合成処理が行われるような合成比率を算出する。
  (ステップS105)
 次に、画像処理装置は、ステップS105において、ステップS104で算出した合成比率に従って、参照画像である可視光画像と、近赤外線画像との合成処理を実行して、合成信号(ガイド信号)を生成する。
 この処理は、図5に示す画像処理部120の第1合成部205の実行する処理である。
 図5に示すように、第1合成部205は、参照画像である近赤外線画像152と可視光画像153の合成処理を実行して、この合成画像である第1合成信号(ガイド信号)212を第2合成部206に出力する。
 先に図11を参照して説明したように、第1合成部205は、第1合成比率α211に従って、近赤外線画像152と可視光画像153との合成処理を実行して合成画像である第1合成信号(ガイド信号)212を生成する。
  (ステップS106)
 次に、画像処理装置は、ステップS106において、補正対象画像である遠赤外線画像と、合成信号(ガイド信号)を合成して、高画質化遠赤外線画像を生成する。
 この処理は、図5に示す画像処理部120の第2合成部206の実行する処理である。
 図5に示すように、第2合成部206は、
 遠赤外線画像151と、
 第1合成信号(ガイド信号)212、
 これらを入力して、
 高画質化遠赤外線画像180を生成して出力する。
 先に図12、図13を参照して説明したように、第2合成部206は、タップ選択部231、補正パラメータ(係数)算出部232、画像補正部233を有する。
 タップ選択部231は、低解像度の遠赤外線画像231を入力し、解像度レベルを向上させた画像補正を行うためのタップ選択を行う。補正パラメータ算出部232は、補正対象となる遠赤外線画像231の構成画素の画素値の補正処理に適用する補正パラメータを算出する。
 タップ選択部231、および、補正パラメータ算出部232が利用する第1合成信号(ガイド信号(fusion1_out))に対応付けられた最適タップや、最適補正パラメータのデータは、事前に実行される学習処理によって生成される。
 この学習処理について、先に図13を参照して説明した通りである。
 画像補正部233は、タップ選択部231において設定されたタップ(参照画素領域)を用い、さらに、補正パラメータ(係数)算出部232から入力する補正パラメータを適用して、遠赤外線画像151の構成画素の画素値補正を実行する。なお、画素値補正は、第1合成信号(ガイド信号(fusion1_out))に対応した領域単位で選択された補正パラメータを適用して実行される。
 すなわち、画像特徴に応じた最適な補正パラメータを利用した補正処理が行われる。
 第2合成部206は、先に説明した(式4)に従って、補正対象画像である遠赤外線画像151の構成画素の画素値補正を順次、実行し、高画質化遠赤外線画像180を生成して出力する。
 すなわち、補正対象画像である遠赤外線画像151の画素値と、参照画像である近赤外線画像、および可視光画像の合成画像である第1合成信号(ガイド信号)212との領域単位の合成処理により、高画質化遠赤外線画像180が生成される。
 前述したように、第1合成信号(ガイド信号)212は、補正対象画像である遠赤外線画像151との相関量が大きい参照画像の合成率を高めて生成した画像である。また、補正処理に適用するタップ、補正パラメータは、学習処理によって生成された遠赤外線画像の高画質化に最適な値である。
 このように、第2合成部206は、補正対象画像である遠赤外線画像151の領域単位で、最適な第1合成信号(ガイド信号)と、最適なタップと、最適な補正パラメータに基づいて画素値補正を実行することで、高画質化遠赤外線画像180を生成して出力する。
  [4.遠赤外線画像と、可視光画像、および近赤外線画像の画像特性と、遠赤外線画像の高画質化画像の利用可能性について]
 次に、遠赤外線画像と、可視光画像、および近赤外線画像の画像特性と、遠赤外線画像の高画質化画像の利用可能性について説明する。
 上述した実施例では、低解像度等の低画質画像である遠赤外線画像を、高画質画像である可視光画像や近赤外線画像を参照画像として利用することで高解像度、高画質の遠赤外線画像を生成する画像処理装置の構成と処理について説明した。
 上述した実施例において利用した画像、すなわち、遠赤外線画像と、可視光画像、近赤外線画像、各々の画像特性について、図15を参照して説明する。
 図15は、可視光画像、近赤外線画像、遠赤外線画像の画像特性を示す図である。
 以下の各項目について、可視光画像、近赤外線画像、遠赤外線画像の画像特性を示している。
 (1)温度情報の取得可否
 (2)暗い環境での被写体情報取得可否
 (3)明るい環境での被写体情報取得可否
 (4)遠景の被写体情報取得可否
 (5)近景の被写体情報取得可否
 (6)印刷物などの模様情報の取得可否
 (7)高解像度画像の取得可否
 可視光画像は、
 (1)、(2)これら2つの項目の処理が不可、あるいは困難である。
 その他(3)~(7)の各項目については○、すなわち可能であるという画像特性を持つ。
 近赤外線画像は、
 (1)、(4),(6)これら3つの項目の処理が不可、あるいは困難である。
 その他(2),(3),(5),(7)の各項目については○、すなわち可能であるという画像特性を持つ。
 また、遠赤外線画像は、
 (6)、(7)これら2つの項目の処理が不可、あるいは困難である。
 その他(1)~(5)の各項目については○、すなわち可能であるという画像特性を持つ。
 このように、遠赤外線画像は、高解像度画像の取得や、印刷物の模様等の取得はできないが、温度を持つ被写体、例えば、人の画像の検出等が得意であり、環境光の有無、近景、遠景にかかわらず、人や、あるいは高温の車等の検出が可能であり、例えば車載カメラとして利用することで、運転者に前方の人や車の情報を提示することが可能となる。
 さらに、上述した実施例に従った高解像度化処理を行うことで、より鮮明な人や車の画像情報を表示することが可能となる。
  [5.(実施例2)短赤外線画像を用いた実施例について]
 次に、実施例2として、短赤外線画像を用いた実施例につい手説明する。
 先に図5他を参照して説明した実施例1においては、補正対象画像である遠赤外線画像に対して、参照画像として、可視光画像と、近赤外線画像を適用した処理例を説明した。
 次に、実施例2として、補正対象画像である遠赤外線画像に対して、参照画像として、可視光画像と、短赤外線画像を適用した処理例について説明する。
 先に図1参照して説明したように、短赤外線(SWIR:Short Wave IneraRed)画像は、波長が約1~2.5μmの短赤外線(SWIR)を撮影した画像である。
 近赤外線(NIR)より波長が長く、例えば、近赤外線画像より、遠景の画像を鮮明に取得できるという特性を持つ。
 本実施例2も、先の実施例1と同様、画像処理装置としては、例えば図4に示す構成を有する撮像装置が利用できる。なお、本実施例2も、撮像装置に限らず、例えば撮像装置の撮影画像を入力して画像処理を実行するPC等の情報処理装置においても実行可能である。
 実施例2の画像処理装置は、図4における撮像部106の近赤外線画像撮像部112を短赤外線画像撮像部に置き換えた構成となり、さらに、画像処理部120の構成と処理が異なるものとなる。
 実施例2の画像処理部120の構成と処理について、図16を参照して説明する。
 本実施例において、画像処理部120は、
 遠赤外線画像撮像部111において撮影された遠赤外線画像(FIR)151と、
 短赤外線画像撮像部において撮影された短赤外線画像(SWIR)154と、
 可視光画像撮像部113において撮影された可視光画像(VIS)153、
 これら3種類の画像を入力し、これら3種類の画像を利用して、高画質化処理を施した高画質化遠赤外線画像(FIR)180を生成して出力する。
 前述したように、高画質化処理対象となる補正対象画像は、遠赤外線画像である。
 この画像補正処理のための参照画像として、可視光画像と短赤外線画像が利用される。
 画像処理部120の実行する処理について説明する。
 画像処理部120は、まず、
 遠赤外線画像撮像部111において撮影された遠赤外線画像(FIR)151と、
 短赤外線画像撮像部において撮影された短赤外線画像(SWIR)154と、
 可視光画像撮像部113において撮影された可視光画像(VIS)153、
 これら3種類の画像を画像位置合わせ部301に入力する。
 画像位置合わせ部301は、これら3種類の画像について、同一位置に同一の被写体が位置するように画像の位置合わせ処理を実行する。
 なお、この画像位置合わせは、既存の処理、例えば、各画像の視差量や、動きベクトル等を用いた処理によって実行される。
 なお、上記3種類の画像の画像サイズが異なっている場合は、事前にサイズ調整を行って同一サイズに合わせるスケーリング処理を実行して、その後、画像の位置合わせ処理を実行することが好ましい。
 画像位置合わせ部301において位置合わせのなされた画像中、参照画像である短赤外線画像154と、可視光画像153は、ローパスフィルタ(LPF)302a,302bに入力される。
 このローパスフィルタ(LPF)302a,302bにおいて、参照画像である短赤外線画像154と、可視光画像153の解像度レベルを、補正対象画像である遠赤外線画像151の解像度レベルまで低下させる解像度調整処理を実行する。
 この解像度調整処理は、次の相関量算出部303a,303bにおける相関量算出を正確に実行するための処理である。
 図16に示すように、ローパスフィルタ(LPF)302a,302bの処理結果は、相関量算出部303a,303bに入力される。
 図16に示すように、相関量算出部303aには、解像度低下処理がなされた短赤外線画像154と、補正対象画像である遠赤外線画像151が入力される。
 また、相関量算出部303bには、解像度低下処理がなされた短赤外線画像154と、解像度低下処理がなされた可視光画像153が入力される。
 本実施例2では、前述した実施例1と異なり、相関量算出部303bには、補正対象画像である遠赤外線画像151を入力せず、参照画像である解像度低下処理がなされた短赤外線画像154と可視光画像153を入力する。
 相関量算出部303aは、
 解像度低下処理がなされた短赤外線画像154と、補正対象画像である遠赤外線画像151との相関量を算出する。
 また、相関量算出部303bは、
 解像度低下処理がなされた短赤外線画像154と、解像度低下処理がなされた可視光画像153との相関量を算出する。
 これらの相関量算出処理は、先の実施例1において図7、図8を参照して説明したと同様の処理であり、例えば、前述の(式1)、(式2)と同様、ZNCC(ゼロ平均正規化相互相関)を適用して局所領域(例えば7×7画素)単位の相関量を算出する。
 このように、
 相関量算出部303aは、遠赤外線画像-短赤外線画像相関量(corr_fs)を算出して、この算出値を第2合成比率算出部304に出力する。
 また、相関量算出部303bは、可視光画像-短赤外線画像相関量(corr_vs)を算出して、この算出値を第2合成比率算出部304に出力する。
 実施例2では、遠赤外線画像-短赤外線画像、さらに、可視光画像-短赤外線画像、これら波長の近い2画像間の相関量を、各々算出する。
 次に、第2合成比率算出部304の実行する処理について説明する。
 図16に示すように、第2合成比率算出部304は、相関量算出部303a,303bから、2つの相関量を入力して、第2合成比率α311を生成して、第2合成部306に出力する。
 なお、第2合成比率αは、第2合成部206における遠赤外線画像と、第1合成部305において生成される第1合成信号(ガイド信号)312との合成処理における第1合成信号(ガイド信号)312の合成比率であり、
 0≦α≦1
 の値を持つ。
 第2合成部306は、
 合成比率αの第1合成信号(ガイド信号)312と、合成比率(1-α)の遠赤外線画像を適用した画像合成処理により、高画質化遠赤外線画像180の生成処理を行う。例えば、
 高画質化遠赤外線画像180を(FIR_out)、
 第1合成信号(ガイド信号)312を(fusion1_out)、
 入力した遠赤外線画像151を(FIR_in)、
 とした場合、第2合成部306は、以下の式に従って、高画質化遠赤外線画像(FIR_out)を生成する。
 (FIR_out)=α(fusion1_out)+(1-α)(FIR_in)
 この処理の詳細については後段で説明する。
 第2合成比率算出部304の実行する処理の具体例について、図17、図18を参照して説明する。
 図17には、第2合成比率算出部304に対する入力データと、第1合成比率算出部304からの出力データのを示している。
 図17に示すように、第2合成比率算出部304は、以下の各データを入力する。
 (a)相関量算出部303aから、遠赤外線画像-短赤外線画像相関量(corr_fs)163、
 (b)相関量算出部303bから、可視光画像-短赤外線画像相関量(corr_vs)164、
 図17に示すように、第2合成比率算出部304は、これら、2つの相関量を入力して、第2合成比率α311を生成して、第2合成部306に出力する。
 第2合成比率算出部304は、例えば、図18に示すグラフに従って、入力値、すなわち、
 (a)遠赤外線画像-短赤外線画像相関量(corr_fs)163、
 (b)可視光画像-短赤外線画像相関量(corr_vs)164、
 これらの入力値から、第2合成比率α311を算出する。
 図18に示すグラフは、
 横軸に、(corr_fs-corr_vs)/2
 縦軸に、第2合成比率αを設定したグラフである。
 横軸の(corr_fs-corr_vs)/2は、
 (a)相関量算出部303aから入力する、遠赤外線画像-短赤外線画像相関量(corr_fs)163、
 (b)相関量算出部303bから入力する、可視光画像-短赤外線画像相関量(corr_vs)164、
 これら2つの相関量の差分の1/2に相当する。
 遠赤外線画像-短赤外線画像相関量(corr_fs)163が、可視光画像-短赤外線画像相関量(corr_vs)164より大きい場合は、横軸の中央より右側、例えばしきい値Th2~Th3の中間点より右側の領域となる。
 一方、遠赤外線画像-短赤外線画像相関量(corr_fs)163が、可視光画像-短赤外線画像相関量(corr_vs)164より小さい場合は、横軸の左側、例えばしきい値Th2~Th3の中間点より左側の領域となる。
 遠赤外線画像-短赤外線画像相関量(corr_fs)163が、可視光画像-短赤外線画像相関量(corr_vs)164より大きい場合とは、すなわち、
 遠赤外線画像と短赤外線画像の類似度が、可視光画像と短赤外線画像の類似度より大きいことを意味する。
 この場合、第2合成比率αの値は大きな値(1に近い値)に設定される。
 前述したように、第2合成比率αは、第2合成部306における遠赤外線画像と、第1合成部305において生成される第1合成信号(ガイド信号)312との合成処理における第1合成信号(ガイド信号)312の合成比率である。
 第2合成比率αの値が大きな値(1に近い値)に設定されることにより、第2合成部306の生成する高画質化遠赤外線画像180が、第1合成信号(ガイド信号)312の影響度の高い合成画像として生成されることになる。
 これは、遠赤外線画像と短赤外線画像の相関量が高いとの判定に基づく処理であり、参照画像である第1合成信号(ガイド信号)312の合成比率の合成比率を高めることが可能であるとの判断に基づく処理である。
 一方、遠赤外線画像-短赤外線画像相関量(corr_fs)163が、可視光画像-短赤外線画像相関量(corr_vs)164より小さい場合は、図18に示すグラフの横軸の左側、例えばしきい値Th2~Th3の中間点より左側の領域となる。
 この場合は、遠赤外線画像と短赤外線画像の類似度が、可視光画像と短赤外線画像の類似度より小さいことを意味する。
 この場合、第2合成比率αの値は小さな値(0に近い値)に設定される。
 第2合成比率αの値が小さな値(0に近い値)に設定されることにより、第2合成部306の生成する高画質化遠赤外線画像180が、第1合成信号(ガイド信号)312の影響度の低い合成画像として生成されることになる。
 これは、遠赤外線画像と短赤外線画像の相関量が低いとの判定に基づく処理であり、参照画像である第1合成信号(ガイド信号)312の合成比率の合成比率を高めることが好ましくないとの判断に基づく処理である。
 なお、図18に示すグラフでは、
 しきい値Th1以下では、第2合成比率α=0、
 しきい値Th1~Th2では、第2合成比率α=0~0.5、
 しきい値Th2~Th3では、第2合成比率α=0.5、
 しきい値Th3~Th4では、第2合成比率α=0.5~1.0、
 しきい値Th4以上では、第2合成比率α=1.0、
 このような設定となっている。
 この図18に示すグラフは、第2合成部306における合成処理による高画質化遠赤外線画像の生成処理において、
 遠赤外線画像-短赤外線画像相関量(corr_fs)163が、可視光画像-短赤外線画像相関量(corr_vs)164より大きい場合は、第1合成信号(ガイド信号)312の寄与率が高く設定され、
 遠赤外線画像-短赤外線画像相関量(corr_fs)163が、可視光画像-短赤外線画像相関量(corr_vs)164より小さい場合は、第1合成信号(ガイド信号)312の寄与率が低く設定されるような、第2合成比率αを出力するグラフである。
 なお、図18に示す折れ線型のグラフは一例であり、この他の例えば1つの直線や曲線等によって構成されるグフを利用する構成としてもよい。
 ただし、遠赤外線画像-短赤外線画像相関量(corr_fs)163が、可視光画像-短赤外線画像相関量(corr_vs)164より大きい場合は、第1合成信号(ガイド信号)312の寄与率を高くし、
 遠赤外線画像-短赤外線画像相関量(corr_fs)163が、可視光画像-短赤外線画像相関量(corr_vs)164より小さい場合は、第1合成信号(ガイド信号)312の寄与率を低くする設定とすることが好ましい。
 なお、この第2合成比率算出部304における第2合成比率α311は、相関量算出部303a,bにおける相関量の算出領域単位、例えば前述したように7×7画素領域単位で算出する。
 このように、第2合成比率算出部304は、相関量算出部303a,303bから、2つの相関量を入力して、第2合成比率α311を生成して、第2合成部306に出力する。
 次に、第1合成部305の実行する処理について説明する。
 図16に示すように、第1合成部305は、参照画像である短赤外線画像154と可視光画像153の合成処理を実行して、この合成画像である第1合成信号(ガイド信号)312を第2合成部306に出力する。
 第1合成部305の実行する処理の詳細について、図19を参照して説明する。
 図19に示すように、第1合成部305は、短赤外線画像154と可視光画像153を入力する。
 第1合成部305は、視認性最大の画像生成アルゴリズムにおいて予め規定される合成比率βを適用して、短赤外線画像154と可視光画像153との合成処理を実行して合成画像である第1合成信号(ガイド信号)312を生成する。
 生成した第1合成信号(ガイド信号)312は、第2合成部306に出力される。
 第1合成部305の生成する第1合成信号(ガイド信号)312は、例えば、図19に示すグラフによって規定される合成比率βを適用して生成される短赤外線画像154と可視光画像153との合成画像である。
 図19に示すグラフは、
 横軸が(VIS-SWIR)、すなわち、可視光画像と短赤外線画像の対応画素の画素値(輝度値)差分である。
 縦軸が、合成比率βである。
 このグラフは、視認性最大の画像生成アルゴリズムに従って2つの画像を合成する場合の合成比率を規定したグラフである。
 VIS-SWIRがTh2以上の場合、β=1.0、
 VIS-SWIRがTh1~Th2の場合、β=0.5~1.0、
 VIS-SWIRが-Th1~Th1の場合、β=0.5、
 VIS-SWIRが-Th2~-Th1の場合、β=1.0~0.5、
 VIS-SWIRが-Th2以下の場合、β=1、
 となる。
 第1合成部305は、視認性最大の画像生成アルゴリズムに従った画像生成を行う以下の式に従って、第1合成信号(ガイド信号(fusion1_out))312を生成する。
 fusion1_out=β(VIS)+(1-β)(SWIR)
 上記式において、
 β:合成比率
 VIS:可視光画像の画素値(輝度値)、
 SWIR:短赤外線画像の画素値(輝度値)、
 である。
 このように、第1合成部305は、視認性最大の画像合成アルゴリズムに従って、短赤外線画像154と可視光画像153との合成処理を実行して合成画像である第1合成信号(ガイド信号(fusion1_out))312を生成する。
 生成した第1合成信号(ガイド信号)312は、第2合成部306に出力される。
 図16に示すように、第2合成部306は、
 遠赤外線画像151と、
 第2合成比率α311と、
 第1合成信号(ガイド信号)312、
 これらを入力して、
 高画質化遠赤外線画像180を生成して出力する。
 第2合成部306の実行する処理の詳細について、図20を参照して説明する。
 図20に示すように、第2合成部206は、
 (a)第1合成部305から、第1合成信号(ガイド信号(fusion1_out))312、
 (b)第2合成比率算出部304から、第2合成比率α311、
 (c)補正対象画像である遠赤外線画像(FIR_in)151、
 これらの信号を入力し、出力信号として、
 高画質化遠赤外線画像(FIR_out)180を出力する。
 第1合成部305から入力する第1合成信号(ガイド信号(fusion1_out))312は、参照画像である短赤外線画像154と、可視光画像153の合成画像に相当する。
 第2合成比率算出部304から入力する第2合成比率α311は、第2合成部306の実行する画像合成処理、すなわち、遠赤外線画像(FIR_in)151と、第1合成信号(ガイド信号(fusion1_out))312との合成処理における第1合成信号(ガイド信号(fusion1_out))312の合成比率である。
 先に説明したように、第2合成部306は、以下に示す式に従って、高画質化遠赤外線画像(FIR_out)を生成する。
 (FIR_out)=α(fusion1_out)+(1-α)(FIR_in)
 上記式において、
 FIR_out:高画質化遠赤外線画像の画素値(輝度値)、
 fusion1_out:第1合成信号(ガイド信号)、
 FIR_in:補正対象の入力画像である遠赤外線画像の画素値(輝度値)、
 α:第2合成比率、
 である。
 なお、第2合成比率算出部304から入力する第2合成比率α311や、第1合成部305から入力する第1合成信号(ガイド信号(fusion1_out))312は、画像の局所領域、例えば7×7画素単位の信号として入力され、上記式に従った画素値生成は、これらの所定領域単位で生成される。
 前述したように、第1合成部305から入力する第1合成信号(ガイド信号(fusion1_out))312は、参照画像である可視光画像と、短赤外線画像の視認性最大画像合成アルゴリズムに従って生成された合成画像である。
 また、第2合成比率算出部304から入力する第2合成比率α311は、
 遠赤外線画像と短赤外線画像の相関量(corr_fs)163と、
 可視光画像と短赤外線画素眉宇の相関量(corr_vs)164との相関量の差分に基づいて、設定される合成比率であり、
 遠赤外線画像と短赤外線画像の相関量(corr_fs)が大きいほど1に近い値を持つ。
 すなわち、遠赤外線画像と短赤外線画像の相関量(corr_fs)が大きいほど、第2合成部306は、参照画像である可視光画像と短赤外線画像の合成画像に相当する第1合成信号(ガイド信号(fusion1_out))312の寄与率の高い画素値を、高画質化遠赤外線画像(FIR_out)180の画素値として設定する。
 このような処理により、補正対象画像である遠赤外線画像(FIR_in)151の構成画素値が、参照画像である短赤外線画像や可視光画像の画素値に基づいて補正され、高画質化が図られる。
  [6.第2実施例の画像処理装置の実行する処理シーケンスについて]
 次に、図16に示す画像処理部の実行する処理シーケンス、すなわち、可視光画像と、短赤外線画像を参照画像として用いて、遠赤外線画像の高画質化処理処理を実行するシーケンスについて、図21に示すフローチャートを参照して説明する。
 図21に示すフローに従った処理は、例えば画像処理装置の記憶部に格納されたプログラムに従ってプログラム実行機能を有する制御部の制御の下に実行される。
 以下、図21に示すフローの各ステップの処理について、順次、説明する。
  (ステップS201)
 まず、画像処理装置は、ステップS201において、補正対象画像である遠赤外線画像と、参照画像となる可視光画像、および短赤外線画像を入力して、各画像の位置合わせ処理を実行する。
 この処理は、図16に示す画像処理部120の画像位置合わせ部301の実行する処理である。
 画像位置合わせ部301は、入力した3種類の画像について、同一位置に同一の被写体が位置するように画像の位置合わせ処理を実行する。
 なお、この画像位置合わせは、既存の処理、例えば、各画像の視差量や、動きベクトル等を用いた処理によって実行される。
  (ステップS202)
 次に、画像処理装置は、ステップS202において、参照画像である可視光画像と、短赤外線画像を、補正対象画像である遠赤外線画像の解像度にほぼ等しい解像度に変換する。すなわち、LPFを適用して解像度の低下処理を行う。
 この処理は、図16に示す画像処理部120のローパスフィルタ(LPF)302a,302bにおいて実行される処理である。
 ローパスフィルタ(LPF)302a,302bにおいて、参照画像である短赤外線画像と、可視光画像の解像度レベルを、補正対象画像である遠赤外線画像の解像度レベルまで低下させる解像度調整処理を実行する。
  (ステップS303)
 次に、画像処理装置は、ステップS303において、
 補正対象画像である遠赤外線画像と、参照画像である短赤外線画像との相関量、および、
 参照画像である可視光画像と、短赤外線画像との相関量、
 これら、波長の近い2つの画像間の相関量をそれぞれ算出する。
 この処理は、図16に示す画像処理部120の相関量算出部303a,303bにおいて実行される処理である。
 図5に示す画像処理部120の相関量算出部303aでは、補正対象画像である遠赤外線画像と、この遠赤外線画像の解像度と、ほぼ同一の解像度まで解像度低下処理がなされた参照画像である短赤外線画像との相関量を算出する。
 例えば、所定の局所領域単位(例えば7×7画素)ごとの相関量として、ZNCC(ゼロ平均正規化相互相関)を算出する。
 また、図16に示す画像処理部120の相関量算出部303bでは、遠赤外線画像151の解像度とほぼ同一の解像度まで解像度低下処理がなされた参照画像である可視光画像と、短赤外線画像との相関量を算出する。
 例えば、所定の局所領域単位(例えば7×7画素)ごとの相関量として、ZNCC(ゼロ平均正規化相互相関)を算出する。
  (ステップS204)
 次に、画像処理装置は、ステップS204において、
 参照画像である可視光画像と短赤外線画像との相関量と、
 参照画像である短赤外線画像と補正対象画像である遠赤外線画像との相関量、
 これら2つの相関量に応じて、補正対象画像である遠赤外線画像と、2つの参照画像(可視光画像と短赤外線画像)に基づく合成画像である第1合成信号(ガイド信号)312との合成比率を算出する。
 この処理は、図16に示す画像処理部120の第2合成比率算出部304の実行する処理である。
 先に図17を参照して説明したように、第2合成比率算出部304は、相関量算出部303a,303bから、2つの相関量を入力して、第2合成比率α311を生成して、第2合成部306に出力する。
 先に、図17、図18を参照して説明したように、
 第2合成比率算出部304は、例えば、図18に示すグラフに従って、入力値、すなわち、
 (a)遠赤外線画像-短赤外線画像相関量(corr_fs)163、
 (b)可視光画像-短赤外線画像相関量(corr_vs)164、
 これらの入力値の差分の1/2の値に基づいて、第2合成比率α311を算出する。
 第2合成比率算出部304は、例えば、
 (a)遠赤外線画像-短赤外線画像相関量(corr_fs)163が、
 (b)可視光画像-短赤外線画像相関量(corr_vs)164、
 より大きい場合、
 第2合成部306における合成処理において、第1合成部305が生成した参照画像(可視光画像,短赤外線画像)同士の合成画像である第1合成信号(ガイド信号)312の寄与率を高める設定とした合成比率を算出する。
  (ステップS205)
 次に、画像処理装置は、ステップS205において、参照画像である可視光画像と,短赤外線画像同士の合成画像である第1合成信号(ガイド信号)312を生成する。
 この処理は、図16に示す画像処理部120の第1合成部305の実行する処理である。
 先に図19を参照して説明したように、第1合成部305は、視認性最大の画像生成アルゴリズムにおいて予め規定された合成比率βを適用して、短赤外線画像154と可視光画像153との合成処理を実行して合成画像である第1合成信号(ガイド信号)312を生成する。
 生成した第1合成信号(ガイド信号)312は、第2合成部306に出力される。
 第1合成部305の生成する第1合成信号(ガイド信号)312は、例えば、図19に示すグラフによって規定される合成比率βを適用して生成される短赤外線画像154と可視光画像153との合成画像である。
  (ステップS206)
 次に、画像処理装置は、ステップS206において、ステップS204で算出した合成比率に従って、補正対象画像である遠赤外線画像と、合成信号(ガイド信号)を合成して、高画質化遠赤外線画像を生成する。
 この処理は、図16に示す画像処理部120の第2合成部306の実行する処理である。
 先に図20を参照して説明したように、第2合成部306は、
 (a)第1合成部305から、第1合成信号(ガイド信号(fusion1_out))312、
 (b)第2合成比率算出部304から、第2合成比率α311、
 (c)補正対象画像である遠赤外線画像(FIR_in)151、
 これらの信号を入力し、出力信号として、
 高画質化遠赤外線画像(FIR_out)180を出力する。
 第1合成部305から入力する第1合成信号(ガイド信号(fusion1_out))312は、参照画像である短赤外線画像154と、可視光画像153の合成画像に相当する。
 第2合成比率算出部304から入力する第2合成比率α311は、第2合成部306の実行する画像合成処理、すなわち、遠赤外線画像(FIR_in)151と、第1合成信号(ガイド信号(fusion1_out))312との合成処理における第1合成信号(ガイド信号(fusion1_out))312の合成比率である。
 先に説明したように、第2合成部306は、以下に示す式に従って、高画質化遠赤外線画像(FIR_out)を生成する。
 (FIR_out)=α(fusion1_out)+(1-α)(FIR_in)
 上記式において、
 FIR_out:高画質化遠赤外線画像の画素値(輝度値)、
 fusion1_out:第1合成信号(ガイド信号)、
 FIR_in:補正対象の入力画像である遠赤外線画像の画素値(輝度値)、
 α:第2合成比率、
 である。
 なお、第2合成比率算出部304から入力する第2合成比率α311や、第1合成部305から入力する第1合成信号(ガイド信号(fusion1_out))312は、画像の局所領域、例えば7×7画素単位の信号として入力され、上記式に従った画素値生成は、これらの所定領域単位で生成される。
 遠赤外線画像と短赤外線画像の相関量(corr_fs)が大きいほど、第2合成部306は、参照画像である可視光画像と短赤外線画像の合成画像の要素(第1合成信号(ガイド信号(fusion1_out))312)の寄与率の高い画素値を、出力する高画質化遠赤外線画像(FIR_out)180の画素値として設定する。
 このような処理により、補正対象画像である遠赤外線画像(FIR_in)151の構成画素値が、参照画像である短赤外線画像や可視光画像の画素値に基づいて補正され、高画質化が図られる。
  [7.遠赤外線画像と、可視光画像、および短赤外線画像の画像特性と、遠赤外線画像の高画質化画像の利用可能性について]
 次に、遠赤外線画像と、可視光画像、および短赤外線画像の画像特性と、遠赤外線画像の高画質化画像の利用可能性について説明する。
 上述した実施例では、低解像度等の低画質画像である遠赤外線画像を、高画質画像である可視光画像や短赤外線画像を参照画像として利用することで高解像度、高画質の遠赤外線画像を生成する画像処理装置の構成と処理について説明した。
 上述した実施例において利用した画像、すなわち、遠赤外線画像と、可視光画像、短赤外線画像、各々の画像特性について、図22を参照して説明する。
 図22は、可視光画像、短赤外線画像、遠赤外線画像の画像特性を示す図である。
 以下の各項目について、可視光画像、短赤外線画像、遠赤外線画像の画像特性を示している。
 (1)温度情報の取得可否
 (2)暗い環境での被写体情報取得可否
 (3)明るい環境での被写体情報取得可否
 (4)遠景の被写体情報取得可否
 (5)近景の被写体情報取得可否
 (6)印刷物などの模様情報の取得可否
 (7)高解像度画像の取得可否
 可視光画像は、
 (1)、(2)これら2つの項目の処理が不可、あるいは困難である。
 その他(3)~(7)の各項目については○、すなわち可能であるという画像特性を持つ。
 短赤外線画像は、
 (1)、(6)の2つの項目の処理が不可、あるいは困難である。
 その他(2)~(5),(7)の各項目については○、すなわち可能であるという画像特性を持つ。
 また、遠赤外線画像は、
 (6)、(7)これら2つの項目の処理が不可、あるいは困難である。
 その他(1)~(5)の各項目については○、すなわち可能であるという画像特性を持つ。
 このように、遠赤外線画像は、高解像度画像の取得や、印刷物の模様等の取得はできないが、温度を持つ被写体、例えば、人の画像の検出等が得意であり、環境光の有無、近景、遠景にかかわらず、人や、あるいは高温の車等の検出が可能であり、例えば車載カメラとして利用することで、運転者に前方の人や車の情報を提示することが可能となる。
 さらに、上述した実施例に従った高解像度化処理を行うことで、より鮮明な人や車の画像情報を表示することが可能となる。
 なお、上述した実施例1では、補正対象画像として遠赤外線画像を用い、参照画像として可視光画像と近赤外線画像を用いた例を説明し、実施例2では、補正対象画像として遠赤外線画像を用い、参照画像として可視光画像と短赤外線画像を用いた例を説明した。
 これらの補正対象画像と、参照画像の組み合わせは、この他にも様々な画像の組み合わせが可能である。
 補正対象画像より、解像度の高い参照画像を用いた構成であれば、本開示の構成を適用して、補正対象画像の高画質化処理を行うことが可能である。
  [8.画像処理装置のハードウェア構成例について]
  次に、図23を参照して画像処理装置のハードウェア構成例について説明する。
 図23は、本開示の処理を実行する画像処理装置のハードウェア構成例を示す図である。
 CPU(Central Processing Unit)501は、ROM(Read Only Memory)502、または記憶部508に記憶されているプログラムに従って各種の処理を実行する制御部やデータ処理部として機能する。例えば、上述した実施例において説明したシーケンスに従った処理を実行する。RAM(Random Access Memory)503には、CPU501が実行するプログラムやデータなどが記憶される。これらのCPU501、ROM502、およびRAM503は、バス504により相互に接続されている。
 CPU501はバス504を介して入出力インタフェース505に接続され、入出力インタフェース505には、撮像部521の撮影画像の入力を行うとともに、ユーザ入力可能な各種スイッチ、キーボード、マウス、マイクロフォンなどよりなる入力部506、表示部522やスピーカなどに対するデータ出力を実行する出力部507が接続されている。CPU501は、入力部506から入力される指令に対応して各種の処理を実行し、処理結果を例えば出力部507に出力する。
 入出力インタフェース505に接続されている記憶部508は、例えばハードディスク等からなり、CPU501が実行するプログラムや各種のデータを記憶する。通信部509は、Wi-Fi通信、ブルートゥース(登録商標)(BT)通信、その他インターネットやローカルエリアネットワークなどのネットワークを介したデータ通信の送受信部として機能し、外部の装置と通信する。
 入出力インタフェース505に接続されているドライブ510は、磁気ディスク、光ディスク、光磁気ディスク、あるいはメモリカード等の半導体メモリなどのリムーバブルメディア511を駆動し、データの記録あるいは読み取りを実行する。
  [9.本開示の画像処理装置を適用した応用例について]
 本開示に係る技術は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット、建設機械、農業機械(トラクター)などのいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図24は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システム7000の概略的な構成例を示すブロック図である。車両制御システム7000は、通信ネットワーク7010を介して接続された複数の電子制御ユニットを備える。図24に示した例では、車両制御システム7000は、駆動系制御ユニット7100、ボディ系制御ユニット7200、バッテリ制御ユニット7300、車外情報検出ユニット7400、車内情報検出ユニット7500、及び統合制御ユニット7600を備える。これらの複数の制御ユニットを接続する通信ネットワーク7010は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)又はFlexRay(登録商標)等の任意の規格に準拠した車載通信ネットワークであってよい。
 各制御ユニットは、各種プログラムにしたがって演算処理を行うマイクロコンピュータと、マイクロコンピュータにより実行されるプログラム又は各種演算に用いられるパラメータ等を記憶する記憶部と、各種制御対象の装置を駆動する駆動回路とを備える。各制御ユニットは、通信ネットワーク7010を介して他の制御ユニットとの間で通信を行うためのネットワークI/Fを備えるとともに、車内外の装置又はセンサ等との間で、有線通信又は無線通信により通信を行うための通信I/Fを備える。図24では、統合制御ユニット7600の機能構成として、マイクロコンピュータ7610、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660、音声画像出力部7670、車載ネットワークI/F7680及び記憶部7690が図示されている。他の制御ユニットも同様に、マイクロコンピュータ、通信I/F及び記憶部等を備える。
 駆動系制御ユニット7100は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット7100は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。駆動系制御ユニット7100は、ABS(Antilock Brake System)又はESC(Electronic Stability Control)等の制御装置としての機能を有してもよい。
 駆動系制御ユニット7100には、車両状態検出部7110が接続される。車両状態検出部7110には、例えば、車体の軸回転運動の角速度を検出するジャイロセンサ、車両の加速度を検出する加速度センサ、あるいは、アクセルペダルの操作量、ブレーキペダルの操作量、ステアリングホイールの操舵角、エンジン回転数又は車輪の回転速度等を検出するためのセンサのうちの少なくとも一つが含まれる。駆動系制御ユニット7100は、車両状態検出部7110から入力される信号を用いて演算処理を行い、内燃機関、駆動用モータ、電動パワーステアリング装置又はブレーキ装置等を制御する。
 ボディ系制御ユニット7200は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット7200は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット7200には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット7200は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 バッテリ制御ユニット7300は、各種プログラムにしたがって駆動用モータの電力供給源である二次電池7310を制御する。例えば、バッテリ制御ユニット7300には、二次電池7310を備えたバッテリ装置から、バッテリ温度、バッテリ出力電圧又はバッテリの残存容量等の情報が入力される。バッテリ制御ユニット7300は、これらの信号を用いて演算処理を行い、二次電池7310の温度調節制御又はバッテリ装置に備えられた冷却装置等の制御を行う。
 車外情報検出ユニット7400は、車両制御システム7000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット7400には、撮像部7410及び車外情報検出部7420のうちの少なくとも一方が接続される。撮像部7410には、ToF(Time Of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラ及びその他のカメラのうちの少なくとも一つが含まれる。車外情報検出部7420には、例えば、現在の天候又は気象を検出するための環境センサ、あるいは、車両制御システム7000を搭載した車両の周囲の他の車両、障害物又は歩行者等を検出するための周囲情報検出センサのうちの少なくとも一つが含まれる。
 環境センサは、例えば、雨天を検出する雨滴センサ、霧を検出する霧センサ、日照度合いを検出する日照センサ、及び降雪を検出する雪センサのうちの少なくとも一つであってよい。周囲情報検出センサは、超音波センサ、レーダ装置及びLIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)装置のうちの少なくとも一つであってよい。これらの撮像部7410及び車外情報検出部7420は、それぞれ独立したセンサないし装置として備えられてもよいし、複数のセンサないし装置が統合された装置として備えられてもよい。
 ここで、図25は、撮像部7410及び車外情報検出部7420の設置位置の例を示す。撮像部7910,7912,7914,7916,7918は、例えば、車両7900のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部のうちの少なくとも一つの位置に設けられる。フロントノーズに備えられる撮像部7910及び車室内のフロントガラスの上部に備えられる撮像部7918は、主として車両7900の前方の画像を取得する。サイドミラーに備えられる撮像部7912,7914は、主として車両7900の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部7916は、主として車両7900の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部7918は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図25には、それぞれの撮像部7910,7912,7914,7916の撮影範囲の一例が示されている。撮像範囲aは、フロントノーズに設けられた撮像部7910の撮像範囲を示し、撮像範囲b,cは、それぞれサイドミラーに設けられた撮像部7912,7914の撮像範囲を示し、撮像範囲dは、リアバンパ又はバックドアに設けられた撮像部7916の撮像範囲を示す。例えば、撮像部7910,7912,7914,7916で撮像された画像データが重ね合わせられることにより、車両7900を上方から見た俯瞰画像が得られる。
 車両7900のフロント、リア、サイド、コーナ及び車室内のフロントガラスの上部に設けられる車外情報検出部7920,7922,7924,7926,7928,7930は、例えば超音波センサ又はレーダ装置であってよい。車両7900のフロントノーズ、リアバンパ、バックドア及び車室内のフロントガラスの上部に設けられる車外情報検出部7920,7926,7930は、例えばLIDAR装置であってよい。これらの車外情報検出部7920~7930は、主として先行車両、歩行者又は障害物等の検出に用いられる。
 図24に戻って説明を続ける。車外情報検出ユニット7400は、撮像部7410に車外の画像を撮像させるとともに、撮像された画像データを受信する。また、車外情報検出ユニット7400は、接続されている車外情報検出部7420から検出情報を受信する。車外情報検出部7420が超音波センサ、レーダ装置又はLIDAR装置である場合には、車外情報検出ユニット7400は、超音波又は電磁波等を発信させるとともに、受信された反射波の情報を受信する。車外情報検出ユニット7400は、受信した情報に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。車外情報検出ユニット7400は、受信した情報に基づいて、降雨、霧又は路面状況等を認識する環境認識処理を行ってもよい。車外情報検出ユニット7400は、受信した情報に基づいて、車外の物体までの距離を算出してもよい。
 また、車外情報検出ユニット7400は、受信した画像データに基づいて、人、車、障害物、標識又は路面上の文字等を認識する画像認識処理又は距離検出処理を行ってもよい。車外情報検出ユニット7400は、受信した画像データに対して歪補正又は位置合わせ等の処理を行うとともに、異なる撮像部7410により撮像された画像データを合成して、俯瞰画像又はパノラマ画像を生成してもよい。車外情報検出ユニット7400は、異なる撮像部7410により撮像された画像データを用いて、視点変換処理を行ってもよい。
 車内情報検出ユニット7500は、車内の情報を検出する。車内情報検出ユニット7500には、例えば、運転者の状態を検出する運転者状態検出部7510が接続される。運転者状態検出部7510は、運転者を撮像するカメラ、運転者の生体情報を検出する生体センサ又は車室内の音声を集音するマイク等を含んでもよい。生体センサは、例えば、座面又はステアリングホイール等に設けられ、座席に座った搭乗者又はステアリングホイールを握る運転者の生体情報を検出する。車内情報検出ユニット7500は、運転者状態検出部7510から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。車内情報検出ユニット7500は、集音された音声信号に対してノイズキャンセリング処理等の処理を行ってもよい。
 統合制御ユニット7600は、各種プログラムにしたがって車両制御システム7000内の動作全般を制御する。統合制御ユニット7600には、入力部7800が接続されている。入力部7800は、例えば、タッチパネル、ボタン、マイクロフォン、スイッチ又はレバー等、搭乗者によって入力操作され得る装置によって実現される。統合制御ユニット7600には、マイクロフォンにより入力される音声を音声認識することにより得たデータが入力されてもよい。入力部7800は、例えば、赤外線又はその他の電波を利用したリモートコントロール装置であってもよいし、車両制御システム7000の操作に対応した携帯電話又はPDA(Personal Digital Assistant)等の外部接続機器であってもよい。入力部7800は、例えばカメラであってもよく、その場合搭乗者はジェスチャにより情報を入力することができる。あるいは、搭乗者が装着したウェアラブル装置の動きを検出することで得られたデータが入力されてもよい。さらに、入力部7800は、例えば、上記の入力部7800を用いて搭乗者等により入力された情報に基づいて入力信号を生成し、統合制御ユニット7600に出力する入力制御回路などを含んでもよい。搭乗者等は、この入力部7800を操作することにより、車両制御システム7000に対して各種のデータを入力したり処理動作を指示したりする。
 記憶部7690は、マイクロコンピュータにより実行される各種プログラムを記憶するROM(Read Only Memory)、及び各種パラメータ、演算結果又はセンサ値等を記憶するRAM(Random Access Memory)を含んでいてもよい。また、記憶部7690は、HDD(Hard Disc Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等によって実現してもよい。
 汎用通信I/F7620は、外部環境7750に存在する様々な機器との間の通信を仲介する汎用的な通信I/Fである。汎用通信I/F7620は、GSM(登録商標)(Global System of Mobile communications)、WiMAX、LTE(Long Term Evolution)若しくはLTE-A(LTE-Advanced)などのセルラー通信プロトコル、又は無線LAN(Wi-Fi(登録商標)ともいう)、Bluetooth(登録商標)などのその他の無線通信プロトコルを実装してよい。汎用通信I/F7620は、例えば、基地局又はアクセスポイントを介して、外部ネットワーク(例えば、インターネット、クラウドネットワーク又は事業者固有のネットワーク)上に存在する機器(例えば、アプリケーションサーバ又は制御サーバ)へ接続してもよい。また、汎用通信I/F7620は、例えばP2P(Peer To Peer)技術を用いて、車両の近傍に存在する端末(例えば、運転者、歩行者若しくは店舗の端末、又はMTC(Machine Type Communication)端末)と接続してもよい。
 専用通信I/F7630は、車両における使用を目的として策定された通信プロトコルをサポートする通信I/Fである。専用通信I/F7630は、例えば、下位レイヤのIEEE802.11pと上位レイヤのIEEE1609との組合せであるWAVE(Wireless Access in Vehicle Environment)、DSRC(Dedicated Short Range Communications)、又はセルラー通信プロトコルといった標準プロトコルを実装してよい。専用通信I/F7630は、典型的には、車車間(Vehicle to Vehicle)通信、路車間(Vehicle to Infrastructure)通信、車両と家との間(Vehicle to Home)の通信及び歩車間(Vehicle to Pedestrian)通信のうちの1つ以上を含む概念であるV2X通信を遂行する。
 測位部7640は、例えば、GNSS(Global Navigation Satellite System)衛星からのGNSS信号(例えば、GPS(Global Positioning System)衛星からのGPS信号)を受信して測位を実行し、車両の緯度、経度及び高度を含む位置情報を生成する。なお、測位部7640は、無線アクセスポイントとの信号の交換により現在位置を特定してもよく、又は測位機能を有する携帯電話、PHS若しくはスマートフォンといった端末から位置情報を取得してもよい。
 ビーコン受信部7650は、例えば、道路上に設置された無線局等から発信される電波あるいは電磁波を受信し、現在位置、渋滞、通行止め又は所要時間等の情報を取得する。なお、ビーコン受信部7650の機能は、上述した専用通信I/F7630に含まれてもよい。
 車内機器I/F7660は、マイクロコンピュータ7610と車内に存在する様々な車内機器7760との間の接続を仲介する通信インタフェースである。車内機器I/F7660は、無線LAN、Bluetooth(登録商標)、NFC(Near Field Communication)又はWUSB(Wireless USB)といった無線通信プロトコルを用いて無線接続を確立してもよい。また、車内機器I/F7660は、図示しない接続端子(及び、必要であればケーブル)を介して、USB(Universal Serial Bus)、HDMI(登録商標)(High-Definition Multimedia Interface)、又はMHL(Mobile High-definition Link)等の有線接続を確立してもよい。車内機器7760は、例えば、搭乗者が有するモバイル機器若しくはウェアラブル機器、又は車両に搬入され若しくは取り付けられる情報機器のうちの少なくとも1つを含んでいてもよい。また、車内機器7760は、任意の目的地までの経路探索を行うナビゲーション装置を含んでいてもよい。車内機器I/F7660は、これらの車内機器7760との間で、制御信号又はデータ信号を交換する。
 車載ネットワークI/F7680は、マイクロコンピュータ7610と通信ネットワーク7010との間の通信を仲介するインタフェースである。車載ネットワークI/F7680は、通信ネットワーク7010によりサポートされる所定のプロトコルに則して、信号等を送受信する。
 統合制御ユニット7600のマイクロコンピュータ7610は、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660及び車載ネットワークI/F7680のうちの少なくとも一つを介して取得される情報に基づき、各種プログラムにしたがって、車両制御システム7000を制御する。例えば、マイクロコンピュータ7610は、取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット7100に対して制御指令を出力してもよい。例えば、マイクロコンピュータ7610は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行ってもよい。また、マイクロコンピュータ7610は、取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行ってもよい。
 マイクロコンピュータ7610は、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660及び車載ネットワークI/F7680のうちの少なくとも一つを介して取得される情報に基づき、車両と周辺の構造物や人物等の物体との間の3次元距離情報を生成し、車両の現在位置の周辺情報を含むローカル地図情報を作成してもよい。また、マイクロコンピュータ7610は、取得される情報に基づき、車両の衝突、歩行者等の近接又は通行止めの道路への進入等の危険を予測し、警告用信号を生成してもよい。警告用信号は、例えば、警告音を発生させたり、警告ランプを点灯させたりするための信号であってよい。
 音声画像出力部7670は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図24の例では、出力装置として、オーディオスピーカ7710、表示部7720及びインストルメントパネル7730が例示されている。表示部7720は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。表示部7720は、AR(Augmented Reality)表示機能を有していてもよい。出力装置は、これらの装置以外の、ヘッドホン、搭乗者が装着する眼鏡型ディスプレイ等のウェアラブルデバイス、プロジェクタ又はランプ等の他の装置であってもよい。出力装置が表示装置の場合、表示装置は、マイクロコンピュータ7610が行った各種処理により得られた結果又は他の制御ユニットから受信された情報を、テキスト、イメージ、表、グラフ等、様々な形式で視覚的に表示する。また、出力装置が音声出力装置の場合、音声出力装置は、再生された音声データ又は音響データ等からなるオーディオ信号をアナログ信号に変換して聴覚的に出力する。
 なお、図24に示した例において、通信ネットワーク7010を介して接続された少なくとも二つの制御ユニットが一つの制御ユニットとして一体化されてもよい。あるいは、個々の制御ユニットが、複数の制御ユニットにより構成されてもよい。さらに、車両制御システム7000が、図示されていない別の制御ユニットを備えてもよい。また、上記の説明において、いずれかの制御ユニットが担う機能の一部又は全部を、他の制御ユニットに持たせてもよい。つまり、通信ネットワーク7010を介して情報の送受信がされるようになっていれば、所定の演算処理が、いずれかの制御ユニットで行われるようになってもよい。同様に、いずれかの制御ユニットに接続されているセンサ又は装置が、他の制御ユニットに接続されるとともに、複数の制御ユニットが、通信ネットワーク7010を介して相互に検出情報を送受信してもよい。
 なお、先に説明した本実施形態に係る画像処理装置の各機能を実現するためのコンピュータプログラムを、いずれかの制御ユニット等に実装することができる。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体を提供することもできる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリ等である。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信されてもよい。
 以上説明した車両制御システム7000において、先に説明した本実施形態に係る画像処理装置は、図24に示した応用例の統合制御ユニット7600に適用することができる。例えば、図25に示す画像処理装置のCPU801は、図24に示す統合制御ユニット7600のマイクロコンピュータ7610、図25に示す画像処理装置のROM802,RAM803,記憶部808は、図24に示す統合制御ユニット7600の記憶部7690、図25に示す画像処理装置の通信部809は、図24に示す統合制御ユニット7600の車載ネットワークI/F7680に相当する。
 また、先に説明した画像処理装置の少なくとも一部の構成要素は、図24に示した統合制御ユニット7600のためのモジュール(例えば、一つのダイで構成される集積回路モジュール)において実現されてもよい。あるいは、先に説明した画像処理装置が、図24に示した車両制御システム7000の複数の制御ユニットによって実現されてもよい。
  [10.本開示の構成のまとめ]
 以上、特定の実施例を参照しながら、本開示の実施例について詳解してきた。しかしながら、本開示の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本開示の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
 なお、本明細書において開示した技術は、以下のような構成をとることができる。
 (1) 遠赤外線画像と、前記遠赤外線画像と同一被写体を撮影した複数の参照画像を入力し、
 前記複数の参照画像の合成信号である第1合成信号を生成する第1合成部と、
 前記遠赤外線画像と、前記第1合成信号との合成処理により、前記遠赤外線画像の高画質化画像を生成する第2合成部を有する画像処理装置。
 (2) 前記複数の参照画像は、
 可視光画像と近赤外線画像である(1)に記載の画像処理装置。
 (3) 前記第1合成部は、
 前記可視光画像と前記遠赤外線画像の相関量と、
 前記近赤外線画像と前記遠赤外線画像の相関量に基づいて、
 前記第1合成信号を生成する構成であり、
 前記可視光画像と前記近赤外線画像の2つの参照画像中、前記遠赤外線画像との相関量の高い画像の寄与率を高く設定して、前記第1合成信号を生成する(2)に記載の画像処理装置。
 (4) 前記画像処理装置は、
 前記参照画像である可視光画像と近赤外線画像を、補正対象画像である前記遠赤外線画像の解像度レベルまで解像度を低下させるローパスフィルタと、
 前記ローパスフィルタを適用して生成した解像度低下可視光画像、および解像度低下近赤外線画像各々と、前記遠赤外線画像の相関量を算出する相関量算出部を有し、
 前記第1合成部は、
 前記相関量算出部の算出した相関量に基づいて決定される合成比率に従って、前記可視光画像と前記近赤外線画像との合成処理を行い、前記第1合成信号を生成する(3)に記載の画像処理装置。
 (5) 前記相関量算出部は、
 画像の局所領域単位の相関量を算出し、
 前記第1合成部は、
 前記相関量算出部の算出した局所領域単位の相関量に基づいて決定される局所領域単位の合成比率に従って、前記可視光画像と前記近赤外線画像との局所領域単位の合成処理を行い、前記第1合成信号を生成する(4)に記載の画像処理装置。
 (6) 前記相関量算出部は、
 ゼロ平均正規化相互相関(ZNCC)を算出する(4)または(5)に記載の画像処理装置。
 (7) 前記第2合成部は、
 前記遠赤外線画像の画素値補正に利用する参照領域としてのタップを決定するタップ選択部と、
 前記遠赤外線画像の画素値補正に利用する補正パラメータを決定する補正パラメータ算出部と、
 前記タップ選択部の決定したタップと、前記補正パラメータ決定部の決定した補正パラメータを適用して、前記遠赤外線画像の画素値補正を実行する画像補正部を有する(1)~(6)いずれかに記載の画像処理装置。
 (8) 前記補正パラメータ算出部は、
 前記第1合成部の生成した前記第1合成信号に基づいて、補正パラメータを決定する(7)に記載の画像処理装置。
 (9) 前記補正パラメータ算出部は、
 学習処理による取得データである、
 前記遠赤外線画像の高画質化処理の最適補正パラメータと、前記第1合成信号との対応データに基づいて、補正パラメータを決定する(8)に記載の画像処理装置。
 (10) 前記タップ選択部は、
 前記第1合成部の生成した前記第1合成信号に基づいて、参照領域としてのタップを決定する(7)~(9)いずれかに記載の画像処理装置。
 (11) 前記タップ選択部は、
 学習処理による取得データである、
 前記遠赤外線画像の高画質化処理の最適タップと、前記第1合成信号との対応データに基づいて、参照領域としてのタップを決定する(10)に記載の画像処理装置。
 (12)
 前記複数の参照画像は、
 可視光画像と短赤外線画像である(1)に記載の画像処理装置。
 (13) 前記第2合成部は、
 前記遠赤外線画像と前記短赤外線画像の相関量と、
 前記短赤外線画像と前記可視光画像の相関量と、
 に基づいて決定される第2合成比率を適用して、前記遠赤外線画像と、前記第1合成信号との合成処理を実行して、前記遠赤外線画像の高画質化画像を生成する(12)に記載の画像処理装置。
 (14) 前記第2合成比率は、
 前記遠赤外線画像と前記短赤外線画像の相関量が高いほど、
 前記第2合成部において生成される合成画像に対する前記第1合成信号の寄与率が高くなる設定を持つ合成比率である(13)に記載の画像処理装置。
 (15) 前記第1合成部は、
 視認性を最大化する画像合成アルゴリズムに従って、前記可視光画像と前記短赤外線画像の合成処理を実行して前記第1合成信号を生成する(12)~(14)いずれかに記載の画像処理装置。
 (16) 前記画像処理装置は、
 前記参照画像である可視光画像と短赤外線画像を、補正対象画像である前記遠赤外線画像の解像度レベルまで解像度を低下させるローパスフィルタと、
 前記ローパスフィルタを適用して生成した解像度低下可視光画像と、前記遠赤外線画像の相関量と、
 前記ローパスフィルタを適用して生成した解像度低下可視光画像と、解像度低下短赤外線画像の相関量を算出する相関量算出部を有する(13)~(15)いずれかに記載の画像処理装置。
 (17) 前記相関量算出部は、
 画像の局所領域単位の相関量を算出し、
 前記第2合成部は、
 前記相関量算出部の算出した局所領域単位の相関量に基づいて決定される局所領域単位の合成比率に従って、前記遠赤外線画像と前記第1合成信号との局所領域単位の合成処理を行い、前記遠赤外線画像の高画質化画像を生成する(16)に記載の画像処理装置。
 (18) 画像処理装置において実行する画像処理方法であり、
 遠赤外線画像と、前記遠赤外線画像と同一被写体を撮影した複数の参照画像を入力するステップと、
 第1合成部が、前記複数の参照画像の合成信号である第1合成信号を生成する第1合成信号生成ステップと、
 第2合成部が、前記遠赤外線画像と、前記第1合成信号との合成処理により、前記遠赤外線画像の高画質化画像を生成するステップを実行する画像処理方法。
 (19) 画像処理装置において画像処理を実行させるプログラムであり、
 遠赤外線画像と、前記遠赤外線画像と同一被写体を撮影した複数の参照画像を入力するステップと、
 第1合成部において、前記複数の参照画像の合成信号である第1合成信号を生成する第1合成信号生成ステップと、
 第2合成部において、前記遠赤外線画像と、前記第1合成信号との合成処理により、前記遠赤外線画像の高画質化画像を生成するステップを、
 実行させるプログラム。
 また、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。例えば、プログラムは記録媒体に予め記録しておくことができる。記録媒体からコンピュータにインストールする他、LAN(Local Area Network)、インターネットといったネットワークを介してプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
 なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
 以上、説明したように、本開示の一実施例の構成によれば、遠赤外線画像の高画質化処理を実行する装置、方法が実現される。
 具体的には、例えば、遠赤外線画像と、遠赤外線画像と同一被写体を撮影した複数の参照画像を入力し、複数の参照画像の合成信号である第1合成信号を生成する第1合成部と、遠赤外線画像と、第1合成信号との合成処理により、遠赤外線画像の高画質化画像を生成する第2合成部を有する。参照画像は、例えば可視光画像と近赤外線画像であり、第1合成部は、可視光画像-遠赤外線画像相関量と、近赤外線画像-遠赤外線画像相関量に基づいて、第1合成信号を生成し、可視光画像と近赤外線画像の2つの画像中、遠赤外線画像との相関量の高い画像の寄与率を高く設定して第1合成信号を生成する。
 これらの処理により、遠赤外線画像の高画質化処理を実行する装置、方法が実現される。
  10 可視光画像
  20 近赤外線画像
  30 短赤外線画像
  40 遠赤外線画像
  50 画像処理部
 100 画像処理装置
 101 制御部
 102 記憶部
 103 コーデック
 104 入力部
 105 出力部
 106 撮像部
 107 赤外線画像撮像部
 108 可視光画像撮像部
 111 遠赤外線画像撮像部
 112 近赤外線画像撮像部
 113 可視光画像撮像部
 120 画像処理部
 201,301 画像位置合わせ部
 202,302 LPF(ローパスフィルタ)
 203,303 相関量算出部
 204 第1合成比率算出部
 205,305 第1合成部
 206,306 第2合成部
 231 タップ選択部
 232 補正パラメータ(係数)算出部
 233 画像補正部
 271 学習処理部
 304 第2合成比率算出部
 501 CPU
 502 ROM
 503 RAM
 504 バス
 505 入出力インタフェース
 506 入力部
 507 出力部
 508 記憶部
 509 通信部
 510 ドライブ
 511 リムーバブルメディア
 521 撮像部
 522 表示部

Claims (19)

  1.  遠赤外線画像と、前記遠赤外線画像と同一被写体を撮影した複数の参照画像を入力し、
     前記複数の参照画像の合成信号である第1合成信号を生成する第1合成部と、
     前記遠赤外線画像と、前記第1合成信号との合成処理により、前記遠赤外線画像の高画質化画像を生成する第2合成部を有する画像処理装置。
  2.  前記複数の参照画像は、
     可視光画像と近赤外線画像である請求項1に記載の画像処理装置。
  3.  前記第1合成部は、
     前記可視光画像と前記遠赤外線画像の相関量と、
     前記近赤外線画像と前記遠赤外線画像の相関量に基づいて、
     前記第1合成信号を生成する構成であり、
     前記可視光画像と前記近赤外線画像の2つの参照画像中、前記遠赤外線画像との相関量の高い画像の寄与率を高く設定して、前記第1合成信号を生成する請求項2に記載の画像処理装置。
  4.  前記画像処理装置は、
     前記参照画像である可視光画像と近赤外線画像を、補正対象画像である前記遠赤外線画像の解像度レベルまで解像度を低下させるローパスフィルタと、
     前記ローパスフィルタを適用して生成した解像度低下可視光画像、および解像度低下近赤外線画像各々と、前記遠赤外線画像の相関量を算出する相関量算出部を有し、
     前記第1合成部は、
     前記相関量算出部の算出した相関量に基づいて決定される合成比率に従って、前記可視光画像と前記近赤外線画像との合成処理を行い、前記第1合成信号を生成する請求項3に記載の画像処理装置。
  5.  前記相関量算出部は、
     画像の局所領域単位の相関量を算出し、
     前記第1合成部は、
     前記相関量算出部の算出した局所領域単位の相関量に基づいて決定される局所領域単位の合成比率に従って、前記可視光画像と前記近赤外線画像との局所領域単位の合成処理を行い、前記第1合成信号を生成する請求項4に記載の画像処理装置。
  6.  前記相関量算出部は、
     ゼロ平均正規化相互相関(ZNCC)を算出する請求項4に記載の画像処理装置。
  7.  前記第2合成部は、
     前記遠赤外線画像の画素値補正に利用する参照領域としてのタップを決定するタップ選択部と、
     前記遠赤外線画像の画素値補正に利用する補正パラメータを決定する補正パラメータ算出部と、
     前記タップ選択部の決定したタップと、前記補正パラメータ決定部の決定した補正パラメータを適用して、前記遠赤外線画像の画素値補正を実行する画像補正部を有する請求項1に記載の画像処理装置。
  8.  前記補正パラメータ算出部は、
     前記第1合成部の生成した前記第1合成信号に基づいて、補正パラメータを決定する請求項7に記載の画像処理装置。
  9.  前記補正パラメータ算出部は、
     学習処理による取得データである、
     前記遠赤外線画像の高画質化処理の最適補正パラメータと、前記第1合成信号との対応データに基づいて、補正パラメータを決定する請求項8に記載の画像処理装置。
  10.  前記タップ選択部は、
     前記第1合成部の生成した前記第1合成信号に基づいて、参照領域としてのタップを決定する請求項7に記載の画像処理装置。
  11.  前記タップ選択部は、
     学習処理による取得データである、
     前記遠赤外線画像の高画質化処理の最適タップと、前記第1合成信号との対応データに基づいて、参照領域としてのタップを決定する請求項10に記載の画像処理装置。
  12.  前記複数の参照画像は、
     可視光画像と短赤外線画像である請求項1に記載の画像処理装置。
  13.  前記第2合成部は、
     前記遠赤外線画像と前記短赤外線画像の相関量と、
     前記短赤外線画像と前記可視光画像の相関量と、
     に基づいて決定される第2合成比率を適用して、前記遠赤外線画像と、前記第1合成信号との合成処理を実行して、前記遠赤外線画像の高画質化画像を生成する請求項12に記載の画像処理装置。
  14.  前記第2合成比率は、
     前記遠赤外線画像と前記短赤外線画像の相関量が高いほど、
     前記第2合成部において生成される合成画像に対する前記第1合成信号の寄与率が高くなる設定を持つ合成比率である請求項13に記載の画像処理装置。
  15.  前記第1合成部は、
     視認性を最大化する画像合成アルゴリズムに従って、前記可視光画像と前記短赤外線画像の合成処理を実行して前記第1合成信号を生成する請求項12に記載の画像処理装置。
  16.  前記画像処理装置は、
     前記参照画像である可視光画像と短赤外線画像を、補正対象画像である前記遠赤外線画像の解像度レベルまで解像度を低下させるローパスフィルタと、
     前記ローパスフィルタを適用して生成した解像度低下可視光画像と、前記遠赤外線画像の相関量と、
     前記ローパスフィルタを適用して生成した解像度低下可視光画像と、解像度低下短赤外線画像の相関量を算出する相関量算出部を有する請求項13に記載の画像処理装置。
  17.  前記相関量算出部は、
     画像の局所領域単位の相関量を算出し、
     前記第2合成部は、
     前記相関量算出部の算出した局所領域単位の相関量に基づいて決定される局所領域単位の合成比率に従って、前記遠赤外線画像と前記第1合成信号との局所領域単位の合成処理を行い、前記遠赤外線画像の高画質化画像を生成する請求項16に記載の画像処理装置。
  18.  画像処理装置において実行する画像処理方法であり、
     遠赤外線画像と、前記遠赤外線画像と同一被写体を撮影した複数の参照画像を入力するステップと、
     第1合成部が、前記複数の参照画像の合成信号である第1合成信号を生成する第1合成信号生成ステップと、
     第2合成部が、前記遠赤外線画像と、前記第1合成信号との合成処理により、前記遠赤外線画像の高画質化画像を生成するステップを実行する画像処理方法。
  19.  画像処理装置において画像処理を実行させるプログラムであり、
     遠赤外線画像と、前記遠赤外線画像と同一被写体を撮影した複数の参照画像を入力するステップと、
     第1合成部において、前記複数の参照画像の合成信号である第1合成信号を生成する第1合成信号生成ステップと、
     第2合成部において、前記遠赤外線画像と、前記第1合成信号との合成処理により、前記遠赤外線画像の高画質化画像を生成するステップを、
     実行させるプログラム。
PCT/JP2018/004983 2017-03-08 2018-02-14 画像処理装置、および画像処理方法、並びにプログラム WO2018163725A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019504411A JP7014218B2 (ja) 2017-03-08 2018-02-14 画像処理装置、および画像処理方法、並びにプログラム
US16/482,514 US10880498B2 (en) 2017-03-08 2018-02-14 Image processing apparatus and image processing method to improve quality of a low-quality image

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-043450 2017-03-08
JP2017043450 2017-03-08

Publications (1)

Publication Number Publication Date
WO2018163725A1 true WO2018163725A1 (ja) 2018-09-13

Family

ID=63447714

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/004983 WO2018163725A1 (ja) 2017-03-08 2018-02-14 画像処理装置、および画像処理方法、並びにプログラム

Country Status (3)

Country Link
US (1) US10880498B2 (ja)
JP (1) JP7014218B2 (ja)
WO (1) WO2018163725A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020179605A1 (ja) * 2019-03-01 2020-09-10 株式会社日立製作所 学習装置および学習方法

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018012050A1 (ja) * 2016-07-14 2018-01-18 ソニー株式会社 画像処理装置及び画像処理方法
WO2019059120A1 (ja) * 2017-09-22 2019-03-28 日本電気株式会社 情報処理装置、情報処理システム、情報処理方法、及び、記録媒体
US11144775B2 (en) * 2018-06-25 2021-10-12 Cnh Industrial Canada, Ltd. System and method for illuminating the field of view of a vision-based sensor mounted on an agricultural machine
CN113132640B (zh) 2018-08-27 2024-01-09 深圳市大疆创新科技有限公司 图像呈现方法、图像获取设备及终端装置
JP7210199B2 (ja) * 2018-09-20 2023-01-23 キヤノン株式会社 撮像装置、制御方法、コンピュータプログラム、及び記憶媒体
JP7277236B2 (ja) * 2019-04-18 2023-05-18 キヤノン株式会社 撮像装置、撮像システム、プログラム、記録媒体、及び制御方法
JP2022007359A (ja) * 2020-06-26 2022-01-13 キヤノン株式会社 画像処理装置、撮像システム、移動体、画像処理方法及びプログラム
US11356605B1 (en) * 2021-05-10 2022-06-07 Samsara Inc. Dual-stream video management
US11636700B2 (en) 2021-05-21 2023-04-25 Ford Global Technologies, Llc Camera identification
US11769313B2 (en) 2021-05-21 2023-09-26 Ford Global Technologies, Llc Counterfeit image detection
US11967184B2 (en) * 2021-05-21 2024-04-23 Ford Global Technologies, Llc Counterfeit image detection

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010278817A (ja) * 2009-05-29 2010-12-09 Victor Co Of Japan Ltd 撮影装置
JP2016005213A (ja) * 2014-06-19 2016-01-12 株式会社Jvcケンウッド 撮像装置及び赤外線画像生成方法
WO2016113983A1 (ja) * 2015-01-13 2016-07-21 ソニー株式会社 画像処理装置、画像処理方法、プログラム及びシステム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008183933A (ja) 2007-01-26 2008-08-14 Toyota Motor Corp 赤外線暗視装置
JP5514605B2 (ja) 2010-03-29 2014-06-04 株式会社日立情報通信エンジニアリング 撮像装置および監視装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010278817A (ja) * 2009-05-29 2010-12-09 Victor Co Of Japan Ltd 撮影装置
JP2016005213A (ja) * 2014-06-19 2016-01-12 株式会社Jvcケンウッド 撮像装置及び赤外線画像生成方法
WO2016113983A1 (ja) * 2015-01-13 2016-07-21 ソニー株式会社 画像処理装置、画像処理方法、プログラム及びシステム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020179605A1 (ja) * 2019-03-01 2020-09-10 株式会社日立製作所 学習装置および学習方法

Also Published As

Publication number Publication date
JPWO2018163725A1 (ja) 2020-01-09
US10880498B2 (en) 2020-12-29
JP7014218B2 (ja) 2022-02-01
US20200053297A1 (en) 2020-02-13

Similar Documents

Publication Publication Date Title
JP7014218B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
US10957029B2 (en) Image processing device and image processing method
JP7024782B2 (ja) 画像処理装置と画像処理方法および撮像装置
WO2018074252A1 (ja) 画像処理装置および画像処理方法
JP6977722B2 (ja) 撮像装置、および画像処理システム
US10704957B2 (en) Imaging device and imaging method
JP7020434B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
WO2017208536A1 (ja) 画像処理装置と画像処理方法および学習装置と学習方法
JP7500798B2 (ja) 固体撮像装置、補正方法、および電子装置
WO2019142660A1 (ja) 画像処理装置および画像処理方法、並びにプログラム
CN110012215B (zh) 图像处理装置和图像处理方法
WO2019116746A1 (ja) 画像処理装置、画像処理方法及び撮像装置
JP6981416B2 (ja) 画像処理装置と画像処理方法
WO2019215979A1 (ja) 画像処理装置、車載装置、画像処理方法及びプログラム
WO2021229983A1 (ja) 撮像装置及びプログラム
US10791287B2 (en) Imaging control apparatus and method, and vehicle
WO2019111651A1 (ja) 撮像システム、画像処理装置、及び、画像処理方法
WO2018135208A1 (ja) 撮像装置と撮像システム
WO2019155718A1 (ja) 認識装置と認識方法およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18764589

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019504411

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18764589

Country of ref document: EP

Kind code of ref document: A1