WO2018079372A1 - 撮像装置、撮像システム、移動体、及び撮像方法 - Google Patents

撮像装置、撮像システム、移動体、及び撮像方法 Download PDF

Info

Publication number
WO2018079372A1
WO2018079372A1 PCT/JP2017/037678 JP2017037678W WO2018079372A1 WO 2018079372 A1 WO2018079372 A1 WO 2018079372A1 JP 2017037678 W JP2017037678 W JP 2017037678W WO 2018079372 A1 WO2018079372 A1 WO 2018079372A1
Authority
WO
WIPO (PCT)
Prior art keywords
infrared ray
image
infrared
control unit
light source
Prior art date
Application number
PCT/JP2017/037678
Other languages
English (en)
French (fr)
Inventor
圭俊 中田
Original Assignee
京セラ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 京セラ株式会社 filed Critical 京セラ株式会社
Priority to US16/345,636 priority Critical patent/US10742890B2/en
Priority to EP17863548.8A priority patent/EP3534603B1/en
Priority to JP2018547598A priority patent/JPWO2018079372A1/ja
Publication of WO2018079372A1 publication Critical patent/WO2018079372A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/72Combination of two or more compensation controls
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/02Illuminating scene
    • G03B15/03Combinations of cameras with lighting apparatus; Flash units
    • G03B15/05Combinations of cameras with electronic flash apparatus; Electronic flash units
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/02Illuminating scene
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/02Bodies
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B7/00Control of exposure by setting shutters, diaphragms or filters, separately or conjointly
    • G03B7/08Control effected solely on the basis of the response, to the intensity of the light received by the camera, of a built-in light-sensitive device
    • G03B7/091Digital circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/11Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/68Circuits for processing colour signals for controlling the amplitude of colour signals, e.g. automatic chroma control circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/77Circuits for processing the brightness signal and the chrominance signal relative to each other, e.g. adjusting the phase of the brightness signal relative to the colour signal, correcting differential gain or differential phase
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/103Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using camera systems provided with artificial illumination device, e.g. IR light source

Definitions

  • the present disclosure relates to an imaging apparatus, an imaging system, a moving object, and an imaging method.
  • Patent Document 1 discloses an imaging device for reproducing the color of a subject in an environment with little visible light.
  • the imaging device described in Patent Document 1 sequentially turns on infrared light having different wavelengths respectively associated with red, blue, and green colors.
  • the imaging device generates a composite image based on an image captured while each infrared light is lit.
  • the present disclosure provides an imaging system, a moving body, and an imaging method that can generate an image including a color with high brightness contrast even in a dark environment with a simple configuration.
  • the imaging device includes an imaging element and a control unit.
  • the control unit acquires an infrared ray image generated by the imaging device when the infrared ray is higher than a predetermined amount of light.
  • the control unit acquires a normal image generated by the imaging device when the infrared ray is lower than a predetermined amount of light.
  • the control unit generates a composite image based on the infrared ray image and the normal image.
  • the imaging system of the present disclosure includes an infrared light source and an imaging device.
  • the infrared light source emits infrared light.
  • the imaging device includes an imaging element and a control unit.
  • the control unit acquires an infrared ray image generated by the imaging device when the infrared ray is higher than a predetermined amount of light.
  • the control unit acquires a normal image generated by the imaging device when the infrared ray is lower than a predetermined amount of light.
  • the control unit generates a composite image based on the infrared ray image and the normal image.
  • the moving body of the present disclosure includes an imaging system.
  • the imaging system includes an infrared light source and an imaging device.
  • the infrared light source emits infrared light.
  • the imaging apparatus includes an imaging element and a control unit.
  • the control unit acquires an infrared ray image generated by the imaging device when the infrared ray is higher than a predetermined amount of light.
  • the control unit acquires a normal image generated by the imaging element when the infrared ray is lower than a predetermined amount of light.
  • the control unit generates a composite image based on the infrared ray image and the normal image.
  • the imaging method of the present disclosure is an imaging method of an imaging device.
  • the imaging device acquires an infrared ray image captured by the imaging element when the infrared ray is higher than a predetermined amount of light.
  • the imaging device acquires a normal image captured by the imaging element when the infrared ray is lower than a predetermined amount of light.
  • the imaging device generates a composite image based on the infrared ray image and the normal image.
  • FIG. 1 shows the example of the mobile body carrying the imaging system which concerns on this embodiment. It is a functional block diagram which shows schematic structure of the imaging system which concerns on this embodiment. It is a timing chart which shows an example of the timing of operation
  • an imaging system 1 including an imaging device 3 according to this embodiment can be attached to a moving body 2.
  • the imaging device 3 is arranged so as to capture a predetermined direction when viewed from the moving body 2.
  • the infrared light source 4 and the white light source 5 are attached to the imaging range of the imaging device 3 so as to be able to irradiate infrared light and white light, respectively.
  • “Moving object” in the present disclosure includes a vehicle, a ship, and an aircraft.
  • Vehicle in the present disclosure includes, but is not limited to, automobiles, railway vehicles, industrial vehicles, and daily life vehicles.
  • the vehicle may include an airplane traveling on a runway.
  • the automobile includes, but is not limited to, a passenger car, a truck, a bus, a two-wheeled vehicle, a trolley bus, and the like, and may include other vehicles that travel on the road.
  • Rail vehicles include, but are not limited to, locomotives, freight cars, passenger cars, trams, guided railroads, ropeways, cable cars, linear motor cars, and monorails.
  • a tracked vehicle may include other vehicles that travel along the track.
  • Industrial vehicles include industrial vehicles for agriculture and construction.
  • Industrial vehicles include but are not limited to forklifts and golf carts.
  • Industrial vehicles for agriculture include, but are not limited to, tractors, tillers, transplanters, binders, combines, and lawn mowers.
  • Industrial vehicles for construction include, but are not limited to, bulldozers, scrapers, excavators, crane trucks, dump trucks, and road rollers.
  • Living vehicles include, but are not limited to, bicycles, wheelchairs, baby carriages, wheelbarrows, and electric standing and riding motorcycles.
  • Vehicle power engines include, but are not limited to, internal combustion engines including diesel engines, gasoline engines, and hydrogen engines, and electrical engines including motors. Vehicles include those that travel by human power.
  • the vehicle classification is not limited to the above.
  • the automobile may include an industrial vehicle capable of traveling on a road, and the same vehicle may be included in a plurality of classifications.
  • the imaging system 1 includes an imaging device 3, an infrared light source 4, and a white light source 5.
  • the imaging device 3 includes an optical system 6, an imaging element 7, a communication unit 8, a control unit 9, and a memory 10.
  • the optical system 6 has at least one optical element such as a lens and a diaphragm according to desired optical characteristics.
  • the optical system 6 is designed to satisfy desired optical characteristics such as a focal length and a focal depth.
  • the optical system 6 forms an image of the subject on the image sensor 7.
  • the image sensor 7 is arranged so that the light receiving surface of the image sensor 7 is perpendicular to the optical axis of the optical system 6. Further, the image sensor 7 is disposed so as to intersect the optical axis of the optical system 6 at the approximate center of the light receiving surface.
  • the image sensor 7 captures an image of a subject formed on the light receiving surface via the optical system 6 and outputs an image signal corresponding to the captured image.
  • the imaging device 7 for example, a CCD (Charge-Coupled Device) or a CMOS (Complementary Metal-Oxide Semiconductor) image sensor can be used.
  • the imaging device 7 has sensitivity to at least visible light and near infrared light, and converts visible light and near infrared light received by the light receiving surface into an image signal.
  • the image sensor 7 is sensitive to infrared light having a wavelength longer than the wavelength of near infrared light, infrared light having a wavelength longer than the wavelength of near infrared light is absorbed or reflected on the subject side of the image sensor 7.
  • a filter may be arranged.
  • the communication unit 8 transmits a control signal output by the control unit 9 to the infrared light source 4.
  • the control signal is a signal for controlling the infrared light source 4 so that the infrared ray becomes higher or lower than the predetermined amount of light.
  • the infrared ray becomes higher than a predetermined amount of light.
  • the infrared ray becomes lower than the predetermined amount of light by the extinction of the infrared ray.
  • the communication unit 8 can transmit an image signal to the outside of the imaging device 3. Thereby, the communication unit 8 can transmit the composite image generated by the control unit 9 to the outside of the imaging device 3.
  • the composite image is external to the imaging device 3, for example, the display device 11 mounted on the mobile body 2, the ECU (Electric Control Unit) 12 of the mobile body 2, or the mobile body 2 connected via a wireless communication network. To an external device.
  • the control unit 9 is, for example, an ISP (Image Signal Processor) that acquires and processes an image captured by the image sensor 7.
  • ISP Image Signal Processor
  • the memory 10 stores an image acquired from the image sensor 7 by the control unit 9.
  • the memory 10 stores an image processed by the control unit 9.
  • the infrared light source 4 emits infrared rays.
  • the irradiation range of the infrared light source 4 is a part of the irradiation range of the white light source 5 described later.
  • the infrared light source 4 includes a communication unit 13, a control unit 14, and a light emitting element 17.
  • the communication unit 13 transmits and receives signals to and from an external device. Further, the control unit 14 controls the light emitting element 17 so that the infrared ray is turned on or off. The light emitting element 17 turns on and off the infrared ray based on the control of the control unit 14. The light emitting element 17 is attached to the moving body 2 so that at least a part of the imaging range of the imaging element 7 can be irradiated with infrared light.
  • the white light source 5 emits white light.
  • the white light source 5 includes a communication unit 15, a control unit 16, and a light emitting element 18.
  • the communication unit 15 transmits a signal with an external device.
  • the control unit 16 controls the light emitting element 18 so that white light is turned on or off.
  • the light emitting element 18 turns on or off the white light based on the control of the control unit 16.
  • the light emitting element 17 is attached to the moving body 2 so that at least a part of the imaging range of the imaging element 7 can be irradiated with white light.
  • the white light source 5 is attached to the moving body 2.
  • the white light source 5 can be a so-called headlight.
  • the white light source 5 can switch between two irradiation ranges that emit white light.
  • the two irradiation ranges differ at least in the vertical direction of the road surface.
  • the irradiation range below vertically corresponds to the “first irradiation range”
  • the irradiation range above vertically corresponds to the “second irradiation range” including the range vertically above the first irradiation range.
  • the white light source 5 irradiates the irradiation range vertically below, the white light emitted from the white light source 5 is a so-called low beam.
  • the white light source 5 irradiates the irradiation range vertically above, the white light emitted from the white light source 5 is a so-called high beam.
  • the imaging device 3 will be described in detail.
  • the image sensor 7 captures an object in a direction in which the infrared light source 4 can irradiate infrared rays and the white light source 5 can irradiate white light, and generates an image.
  • the control unit 9 causes the image sensor 7 to perform imaging every frame imaging time. As a result, the image sensor 7 captures the subject at a frame imaging time corresponding to a preset frame rate and generates a one-frame image.
  • control unit 9 transmits a control signal synchronized with the frame imaging time to the infrared light source 4 via the communication unit 8. Specifically, as illustrated in FIG. 3, the control unit 9 transmits a control signal so that the infrared light source 4 is irradiated with infrared rays in the period P 1 . Further, the control unit 9 causes the image sensor 7 to generate an image during the period P 1 . In addition, the control unit 9 transmits a control signal so that the infrared light source 4 stops the irradiation of infrared rays during the frame imaging time (period P 2 ) next to the frame imaging time corresponding to the period P 1 .
  • the period P 1 corresponds to the “first period”, and the period P 2 corresponds to the “second period”.
  • the control unit 9 transmits a control signal so that the infrared light source 4 is irradiated with infrared rays during the next frame imaging time (period P 1 ).
  • the control unit 9 provides a control signal for causing the infrared ray to repeatedly turn on and off in response to the frame imaging times of the period P 1 and the period P 2 being alternately repeated. Send to repeatedly.
  • the communication unit 13 of the infrared light source 4 receives the control signal transmitted from the imaging device 3.
  • the control unit 14 of the infrared light source 4 turns on or off the infrared ray based on the control signal received by the communication unit 13.
  • the infrared ray is repeatedly turned on and off in synchronization with the frame imaging time corresponding to the frame rate of the imaging device 3. Specifically, the infrared ray is turned on at one frame imaging time and turned off at the next frame imaging time. Then, such turning on and off of the infrared ray is repeatedly executed.
  • control unit 9 always transmits a control signal for lighting white light to the white light source 5 via the communication unit 8 during the imaging processing according to the present embodiment.
  • the communication unit 15 of the white light source 5 receives the control signal transmitted from the imaging device 3.
  • the control unit 16 of the white light source 5 turns on white light based on the control signal received by the communication unit 15. Thereby, as shown in FIG. 3, white light always lights up.
  • the control unit 9 acquires an image captured by the image sensor 7 when the infrared ray is turned on or off.
  • An image when the infrared ray is turned on corresponds to an “infrared ray image”, and an image when the infrared ray is turned off corresponds to a “normal image”.
  • the control unit 9 generates a composite image based on the infrared ray image acquired from the image sensor 7 and the normal image. Specifically, the control unit 9 calculates the intensity of the luminance signal Y from the pixel signal of each pixel constituting the infrared ray image. Further, the control unit 9 calculates the intensities of the color difference signals Cb and Cr from the pixel signal of each pixel constituting the normal image. Then, the control unit 9 generates a color signal using the calculated luminance signal Y of each pixel and the color difference signals Cb and Cr of each corresponding pixel.
  • the control unit 9 may perform gain correction on the color difference signals Cb and Cr when generating the composite image. Specifically, the control unit 9 performs gain correction based on the intensity of the luminance signal Y and the intensity of the color difference signals Cb and Cr. For example, the control unit 9 calculates a value based on the intensity of the luminance signal Y of all pixels constituting the infrared ray image. The value based on the intensity of the luminance signal Y of all the pixels is, for example, a representative value Yr (statistic value such as an average value, median value, maximum value) of the luminance signal Y. Further, the control unit 9 calculates a value based on the color difference signals Cb and Cr of all the pixels constituting the normal image.
  • the values based on the color difference signals Cb and Cr of all the pixels are, for example, representative values Cbr and Cr r (statistic values such as an average value, a median value, and a maximum value) of the intensity of each of the color difference signals Cb and Cr.
  • control unit 9 and the average value of the representative values Cb r and Cr r, the gain to be multiplied to the color difference signals Cb and Cr of each pixel as Samata the ratio of the representative value Y r is within a predetermined range calculate.
  • control unit 9 multiplies the calculated gain by the color difference signals Cb and Cr of each pixel.
  • the control unit 9 generates a color signal based on the luminance signal Y of each pixel and the corrected color difference signals Cb1 and Cr1 of each corresponding pixel.
  • Control unit 9 the infrared light image and the representative value Yr usually based on all the pixels constituting the image, Cb r, and was calculated Cr r, constitutes a part of the infrared light image and a normal image pixel
  • the representative values Y r , Cb r , and Cr r may be calculated based on.
  • the imaging device 3 starts processing when the white light source 5 starts irradiation of white light.
  • the white light source 5 starts irradiating white light when receiving an operation start instruction from the user of the imaging system 1.
  • the white light source 5 may start irradiation of white light by control from ECU which detected that the environment became dark with the light quantity sensor.
  • control unit 9 causes the image sensor 7 to start executing an image (step S1). That is, the control unit 9 causes the image sensor 7 to continuously capture images according to a preset frame rate.
  • control unit 9 transmits a control signal for turning on the infrared ray to the infrared light source 4 via the communication unit 8 (step S2).
  • the control unit 9 acquires an infrared ray image captured when the infrared ray is turned on by the control signal in step S2, and stores it in the memory 10 (step S3).
  • the control unit 9 determines the luminance signal Y of the infrared ray image stored in the memory 10 in step S3 and the corrected color difference signals Cr1 and Cb1 of the normal image captured most recently among the normal images already stored in the memory 10. Based on the above, a composite image is generated (step S4).
  • control unit 9 transmits a control signal for turning off the infrared ray to the infrared light source 4 via the communication unit 8 in synchronization with the next frame imaging time (step S5).
  • control unit 9 When the control signal is transmitted in step S5, the control unit 9 acquires a normal image captured when the infrared ray is turned off by the control signal in step S5, and stores it in the memory 10 (step S6).
  • the control unit 9 performs gain correction on the color difference signals Cr and Cb of the normal image acquired in step S6 (step S7).
  • control unit 9 calculates the representative value Yr of the intensity of the luminance signal Y of the infrared ray image acquired immediately before the normal image is acquired in step S5 and stored in the memory 10 (step S71). .
  • the control unit 9 calculates representative values Crr and Cbr of the intensity of the color difference signals Cr and Cb of the normal image acquired in step S5 (step S72).
  • the process of step S72 may be performed before the process of step S71.
  • the control unit 9 performs gain correction on the color difference signals Cr and Cb of each pixel based on the representative value Yr and the representative values Crr and Cbr, and generates corrected color difference signals Cr1 and Cb1 (step S73). Specifically, for example, the controller 9 determines the intensity of the color difference signals Cb and Cr of each pixel so that the difference or ratio between the average value of the representative values Crr and Cbr and the representative value Yr is within a predetermined range. The gain to be multiplied may be calculated. Then, the control unit 9 multiplies the intensity of the color difference signals Cb and Cr of each pixel by a gain.
  • step S 8 when the gain correction is performed in step S ⁇ b> 7, the control unit 9 is picked up most recently among the corrected color difference signals Cr ⁇ b> 1 and Cb ⁇ b> 1 of the normal image and the infrared ray image already stored in the memory 10. A composite image is generated based on the brightness signal Y of the infrared ray image (step S8).
  • control unit 9 determines whether a stop instruction is input to the imaging apparatus 3 (step S9).
  • step S9 If it is determined in step S9 that a stop instruction has been input, the imaging device 3 ends the process. When it is determined in step S9 that no stop instruction has been input, the imaging device 3 returns to step S2 again and transmits a control signal. Then, the control unit 9 repeats the processes of steps S2 to S9.
  • the imaging device 3 generates an image based on the infrared ray image and the normal image. Specifically, the imaging device 3 generates a composite image having the luminance signal Y of the infrared ray image and the color difference signals Cb and Cr of the normal image. Infrared rays have a higher reflectance from the subject than white light even in a dark environment. Therefore, the control unit 9 can obtain a luminance signal Y having a higher intensity and a larger contrast than the normal image from the infrared ray image. Further, the control unit 9 can obtain the color difference signals Cr and Cb from the normal image.
  • the imaging device 3 is an image with a low S / N ratio and high contrast based on the luminance signal Y even in a dark environment such as at night, and includes a color based on the color difference signals Cb and Cr. An image can be generated.
  • the imaging device 3 performs gain correction only on the color difference signals Cb and Cr of the normal image.
  • the intensity of the pixel signal is generally small, the intensity of the color difference signals Cb and Cr is relatively small, and the color of the composite image can be weak.
  • the gain correction increases the intensity of the color difference signals Cb and Cr, and the color can be reproduced strongly. Since gain correction is not performed on the luminance signal Y, the entire image can be prevented from approaching white. For this reason, the imaging device 3 can generate an image having a high brightness contrast and including bright colors.
  • the infrared light source 4 irradiates infrared light as a high beam.
  • many drivers usually irradiate white light emitted from the white light source 5 as a low beam.
  • the human eye does not sense infrared light. Therefore, the imaging device 3 can irradiate the infrared light source 4 with a high beam so that the user can detect the subject without detecting the glare.
  • the white light source 5 always irradiates white light. Therefore, white light is turned off when the infrared ray is turned on, and the user does not feel uncomfortable due to the blinking of the white light when the white light is turned on when the infrared ray is turned off. There is.
  • control unit 9 transmits the control signal for controlling the lighting of the infrared ray by the infrared light source 4 via the communication unit 8, but this is not restrictive.
  • control unit 9 may receive a lighting state signal indicating a lighting state of an infrared ray from the infrared light source 4 via the communication unit 8.
  • the lighting state signal is a signal indicating one or more of whether the infrared ray is turned on and that the infrared ray is turned off.
  • the control unit 9 when the control unit 9 receives the lighting state signal indicating the lighting of the infrared ray from the infrared light source 4, the image generated by the imaging element 7 when the infrared ray is lit is used as the infrared ray image. get.
  • the communication unit 8 receives a lighting state signal indicating that the infrared ray is turned off from the infrared light source 4
  • the control unit 9 displays an image generated by the imaging element 7 when the infrared ray is turned off as a normal image. Get as.
  • the white light source 5 stops the white light irradiation when the infrared light source 4 is irradiating infrared light, and the infrared light source 4 emits infrared light.
  • White light may be emitted when irradiation is stopped.
  • the turning on and off of the white light is preferably repeated at high speed so as not to be recognized by human eyes. Thereby, it can be avoided that the human being feels uncomfortable due to the continuous turn-on and turn-off.
  • the control unit 9 has been to calculate the gain by using both of the representative values Cb r and Cr r, not limited.
  • the control unit 9, using any of the representative value Cb r and Cr r may be calculated gain for correcting any color difference signals Cb and Cr according to the representative value.
  • the method by which the control unit 9 calculates the gain is appropriately determined according to the characteristics of the composite image obtained by the user according to the application.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Color Television Image Signal Generators (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)

Abstract

撮像装置(3)は、撮像素子(7)と、制御部(9)と、を備える。制御部(9)は、赤外光線が所定値の光量より高いときに撮像素子7が生成した赤外光線画像を取得する。制御部(9)は、赤外光線が所定値の光量より低いときに撮像素子(7)が生成した通常画像を取得する。制御部(9)は、赤外光線画像と通常画像とに基づいて合成画像を生成する。これにより、暗い環境でも、複数の赤外光源を備えることなく、輝度のコントラストが高く、かつ色を含む画像を生成することができる。

Description

撮像装置、撮像システム、移動体、及び撮像方法 関連出願の相互参照
 本出願は、2016年10月28日出願の日本国特許出願2016-212325の優先権を主張するものであり、当該出願の開示全体を、ここに参照のために取り込む。
 本開示は、撮像装置、撮像システム、移動体、及び撮像方法に関する。
 従来、夜間等の暗い環境において撮像する場合、撮像画像において被写体をよりよく識別するために、赤外光線を被写体に対して照射して被写体を撮像することが知られている。しかし、赤外光線を照射した被写体を撮像すると、明るい環境であれば人間の目に見える該被写体の色を撮像画像において十分に再現することができない。
 そこで、可視光が少ない環境で被写体の色を再現するための撮像装置が、例えば、特許文献1に記載されている。特許文献1に記載の撮像装置は、赤、青、緑の各色にそれぞれ対応付けられた異なる波長を有する赤外光を順次、点灯する。該撮像装置は、それぞれの赤外光が点灯されている間に撮像された画像に基づいて合成画像を生成する。
特開2015-149585号公報
 しかしながら、上述の従来技術においては、異なる波長を有する赤外光を点灯させるための複数の赤外光源を備えることが必要となる。このため、撮像装置の大型化するという課題がある。
 本開示は、簡便な構成で、暗い環境でも輝度のコントラストが高く、かつ色を含む画像を生成することができる撮像システム、移動体、及び撮像方法を提供する。
 本開示の撮像装置は、撮像素子と、制御部と、を備える。前記制御部は、赤外光線が所定値の光量より高いときに前記撮像素子が生成した赤外光線画像を取得する。前記制御部は、前記赤外光線が所定値の光量より低いときに前記撮像素子が生成した通常画像を取得する。前記制御部は、前記赤外光線画像と前記通常画像とに基づいて合成画像を生成する。
 本開示の撮像システムは、赤外光源と、撮像装置とを備える。前記赤外光源は、赤外光線を出射する。前記撮像装置は、撮像素子と、制御部とを含む。前記制御部は、前記赤外光線が所定値の光量より高いときに前記撮像素子が生成した赤外光線画像を取得する。前記制御部は、前記赤外光線が所定値の光量より低いときに前記撮像素子が生成した通常画像を取得する。前記制御部は、前記赤外光線画像と前記通常画像とに基づいて合成画像を生成する。
 本開示の移動体は、撮像システムを備える。前記撮像システムは、赤外光源と、撮像装置とを含む。前記赤外光源は、赤外光線を出射する。前記撮像装置は、撮像素子と、制御部とを有する。前記制御部は、前記赤外光線が所定値の光量より高いときに前記撮像素子が生成した赤外光線画像を取得する。前記制御部は、前記赤外光線が所定値の光量より低いに前記撮像素子が生成した通常画像を取得する。前記制御部は、前記赤外光線画像と前記通常画像とに基づいて合成画像を生成する。
 本開示の撮像方法は、撮像装置の撮像方法である。前記撮像装置が、赤外光線が所定値の光量より高いときに撮像素子が撮像した赤外光線画像を取得する。前記撮像装置が、前記赤外光線が所定値の光量より低いときに前記撮像素子が撮像した通常画像を取得する。前記撮像装置が、前記赤外光線画像と前記通常画像とに基づいて合成画像を生成する。
 本開示の一実施形態によれば、簡便な構成で、暗い環境でも輝度のコントラストが高く、かつ色を含む画像を生成することが可能となる。
本実施形態に係る撮像システムを搭載した移動体の例を示す図である。 本実施形態に係る撮像システムの概略構成を示す機能ブロック図である。 本実施形態に係る赤外光源、白色光源、及び撮像装置の動作のタイミングの一例を示すタイミングチャートである。 本実施形態に係る撮像装置の処理フローを示すフロー図である。 本実施形態に係るゲイン補正の詳細な処理フローを示すフロー図である。 他の例に係る撮像システムの赤外光源、白色光源、及び撮像装置の動作のタイミングの他の例を示すタイミングチャートである。
 以下、本開示の本実施形態について、図面を参照して説明する。
 図1に示すように、本実施形態に係る撮像装置3を含む撮像システム1は、移動体2に取り付けることができる。撮像装置3は、移動体2からみて所定の方向を撮像するように配置される。赤外光源4及び白色光源5は、撮像装置3の撮像範囲にそれぞれ赤外光及び白色光を照射可能に取り付けられる。
 本開示における「移動体」は、車両、船舶、航空機を含む。本開示における「車両」は、自動車、鉄道車両、産業車両、及び生活車両を含むが、これに限られない。例えば車両は、滑走路を走行する飛行機を含んでよい。自動車は、乗用車、トラック、バス、二輪車、及びトロリーバス等を含むがこれに限られず、道路上を走行する他の車両を含んでよい。軌道車両は、機関車、貨車、客車、路面電車、案内軌道鉄道、ロープウエー、ケーブルカー、リニアモーターカー、及びモノレールを含むがこれに限られない。軌道車両は、軌道に沿って進む他の車両を含んでよい。産業車両は、農業及び建設向けの産業車両を含む。産業車両は、フォークリフト、及びゴルフカートを含むがこれに限られない。農業向けの産業車両は、トラクター、耕耘機、移植機、バインダー、コンバイン、及び芝刈り機を含むが、これに限られない。建設向けの産業車両は、ブルドーザー、スクレーバー、ショベルカー、クレーン車、ダンプカー、及びロードローラを含むが、これに限られない。生活車両は、自転車、車いす、乳母車、手押し車、及び電動立ち乗り二輪車を含むが、これに限られない。車両の動力機関は、ディーゼル機関、ガソリン機関、及び水素機関を含む内燃機関、並びにモーターを含む電気機関を含むが、これに限られない。車両は、人力で走行するものを含む。なお、車両の分類は、上述に限られない。例えば、自動車は、道路を走行可能な産業車両を含んでよく、複数の分類に同じ車両が含まれてよい。
 図2に示すように、撮像システム1は、撮像装置3と、赤外光源4と、白色光源5と、を備える。
 撮像装置3は、光学系6と、撮像素子7と、通信部8と、制御部9と、メモリ10とを有する。
 光学系6は、所望の光学特性に合わせてレンズ、絞り等少なくとも1つの光学素子を有する。光学系6は焦点距離及び焦点深度等の所望の光学特性を満たすように設計されている。光学系6は、被写体の像を撮像素子7に結像させる。
 撮像素子7は、該撮像素子7の受光面が光学系6の光軸に垂直となるように配置される。また、撮像素子7は、光学系6の光軸と受光面の略中心で交差するように配置される。
 撮像素子7は、光学系6を介して受光面上に結像される被写体の像を撮像して撮像画像に対応する画像信号を出力する。撮像素子7としては、例えばCCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等を用いることができる。
 撮像素子7は、少なくとも可視光及び近赤外光に対して感度を有し、受光面に受光した可視光及び近赤外光を画像信号に変換する。撮像素子7が近赤外光の波長より長い波長の赤外光に対して感度を有する場合、撮像素子7の被写体側に近赤外光の波長より長い波長の赤外光を吸収又は反射するフィルタが配置されてもよい。
 通信部8は、制御部9によって出力される制御信号を赤外光源4に送信する。制御信号は、赤外光線が所定値の光量より高くなるように、又は低くなるように赤外光源4を制御するための信号である。赤外光線の点灯により、赤外光線は所定値の光量より高くなる。また、赤外光線の消灯により、赤外光線は所定値の光量より低くなる。
 また、通信部8は、撮像装置3の外部に画像信号を送信することが可能である。これにより、通信部8は、制御部9によって生成された合成画像を撮像装置3の外部に送信することができる。合成画像は、撮像装置3の外部の、例えば、移動体2に搭載されている表示装置11、移動体2のECU(Electric Control Unit)12、または無線通信ネットワークを介して接続される移動体2の外部の装置等に送信される。
 制御部9は、撮像素子7が撮像した画像を取得して処理する、例えばISP(Image Signal Processor)である。
 メモリ10は、制御部9が撮像素子7から取得した画像を記憶する。また、メモリ10は、制御部9が処理した画像を記憶する。
 赤外光源4は、赤外光線を出射する。赤外光源4の照射範囲は、後述する白色光源5の照射範囲の一部である。赤外光源4は、通信部13と、制御部14と、発光素子17とを含んで構成される。
 通信部13は、外部の装置と信号を送受信する。また、制御部14は、発光素子17を制御して赤外光線が点灯したり、消灯したりするよう制御する。発光素子17は、制御部14の制御に基づいて、赤外光線を点灯させたり消灯させたりする。発光素子17は、撮像素子7の撮像範囲の少なくとも一部に赤外光を照射可能なように、移動体2に取付けられる。
 白色光源5は、白色光を出射する。白色光源5は、通信部15と、制御部16と、発光素子18とを含んで構成される。
 通信部15は、外部の装置と信号を送信する。また、制御部16は、白色光が点灯したり、消灯したりするよう発光素子18を制御する。
 発光素子18は、制御部16の制御に基づいて、白色光を点灯させたり消灯させたりする。発光素子17は、撮像素子7の撮像範囲の少なくとも一部に白色光を照射可能なように、移動体2に取付けられる。
 白色光源5は、移動体2に取り付けられる。白色光源5は、いわゆるヘッドライトとされうる。白色光源5は、白色光を照射する2つの照射範囲を切り替えることができる。2つの照射範囲は、少なくとも路面の鉛直方向に異なる。鉛直下方の照射範囲が「第1の照射範囲」に、鉛直上方の照射範囲が第1の照射範囲より鉛直上方の範囲を含む「第2の照射範囲」に対応する。白色光源5が鉛直下方の照射範囲を照射している場合、白色光源5から照射される白色光は、いわゆるロービームである。白色光源5が鉛直上方の照射範囲を照射している場合、白色光源5から照射される白色光はいわゆるハイビームである。
 ここで、撮像装置3について詳細に説明する。
 撮像素子7は、赤外光源4が赤外光線を照射可能で、白色光源5が白色光を照射可能な方向の被写体を撮像して画像を生成する。
 制御部9は、フレーム撮像時間ごとに撮像素子7に撮像を実行させる。これにより、撮像素子7は、予め設定されたフレームレートに応じたフレーム撮像時間に被写体を撮像して1フレームの画像を生成する。
 また、制御部9は、フレーム撮像時間に同期した制御信号を、通信部8を介して赤外光源4に送信する。具体的には、図3に示すように、制御部9は、期間P1に赤外光源4に赤外光線を照射させるよう、制御信号を送信する。また、制御部9は、期間P1に撮像素子7に画像を生成させる。また、制御部9は、期間P1に対応するフレーム撮像時間の次のフレーム撮像時間(期間P2)に赤外光源4に赤外光線の照射を停止させるよう、制御信号を送信する。期間P1が「第1の期間」に、期間P2が「第2の期間」に対応する。同じく、制御部9は、さらに次のフレーム撮像時間(期間P1)に赤外光源4に赤外光線を照射させるよう、制御信号を送信する。このように、制御部9は、期間P1と期間P2のフレーム撮像時間が交互に繰り返されるのに対応して、赤外光線に点灯及び消灯を繰り返させるための制御信号を赤外光源4に繰り返し送信する。赤外光源4の通信部13は、撮像装置3から送信された制御信号を受信する。赤外光源4の制御部14は、通信部13が受信した制御信号に基づいて、赤外光線を点灯させたり、消灯させたりする。
 これにより、赤外光線は、撮像装置3のフレームレートに応じたフレーム撮像時間と同期して点灯及び消灯を繰り返す。具体的には、赤外光線は一のフレーム撮像時間に点灯し、次のフレーム撮像時間に消灯する。そして、このような赤外光線の点灯と消灯が繰り返し実行される。
 また、制御部9は、本実施形態に係る撮像処理の間、常時、白色光を点灯させるための制御信号を、通信部8を介して白色光源5に送信する。白色光源5の通信部15は、撮像装置3から送信された制御信号を受信する。白色光源5の制御部16は、通信部15が受信した制御信号に基づいて、白色光を点灯させる。これにより、図3に示すように、白色光は常時、点灯する。
 制御部9は、赤外光線が点灯または消灯しているときに撮像素子7が撮像した画像を取得する。赤外光線が点灯しているときの画像が「赤外光線画像」、赤外光線が消灯しているときの画像が「通常画像」に対応する。
 制御部9は、撮像素子7から取得した赤外光線画像と通常画像とに基づいて合成画像を生成する。具体的には、制御部9は、赤外光線画像を構成する各画素の画素信号から輝度信号Yの強度を算出する。また、制御部9は、通常画像を構成する各画素の画素信号から色差信号Cb及びCrの強度を算出する。そして、制御部9は、それぞれ算出した各画素の輝度信号Y、並びに対応する各画素の色差信号Cb及びCrを用いて、色信号を生成する。
 制御部9は、合成画像を生成するにあたって、色差信号Cb及びCrに対してゲイン補正を行ってもよい。具体的には、制御部9は、輝度信号Yの強度並びに色差信号Cb及びCrの強度に基づいてゲイン補正を行う。例えば、制御部9は、赤外光線画像を構成する全ての画素の輝度信号Yの強度に基づく値を算出する。全ての画素の輝度信号Yの強度に基づく値は、例えば、輝度信号Yの代表値Yr(平均値、中央値、最大値等の統計値)である。また、制御部9は、通常画像を構成する全ての画素の色差信号Cb及びCrに基づく値を算出する。全ての画素の色差信号Cb及びCrに基づく値は、例えば、色差信号Cb及びCrそれぞれの強度の代表値Cbr及びCrr(平均値、中央値、最大値等の統計値)である。
 この場合、制御部9は、代表値Cbr及びCrrの平均値と、代表値Yrとの差又は比が所定の範囲内となるように各画素の色差信号Cb及びCrに乗じるゲインを算出する。また、制御部9は、算出したゲインを各画素の色差信号Cb及びCrに乗じる。制御部9は、各画素の輝度信号Y、並びに対応する各画素の補正色差信号Cb1及びCr1とによって色信号を生成する。
 制御部9は、赤外光線画像及び通常画像を構成する全ての画素に基づいて代表値Yr、Cbr、及びCrrを算出したが、赤外光線画像及び通常画像の一部を構成する画素に基づいて代表値Yr、Cbr、及びCrrを算出してもよい。
 続いて、本実施形態の撮像装置3の撮像方法について、図4を参照して説明する。撮像装置3は、白色光源5が白色光の照射を開始したときに、処理を開始する。白色光源5は、撮像システム1の利用者による動作開始の指示を受けたときに白色光の照射を開始する。また、白色光源5は、光量センサによって環境が暗くなったことを検知したECUからの制御により、白色光の照射を開始してもよい。
 まず、制御部9は、撮像素子7が撮像の実行を開始させる(ステップS1)。すなわち、制御部9は、予め設定されたフレームレートに従って、撮像素子7に連続して画像を撮像させる。
 また、制御部9は、赤外光線を点灯させるための制御信号を、通信部8を介して赤外光源4に送信する(ステップS2)。
 制御部9は、ステップS2の制御信号による赤外光線の点灯のときに撮像された赤外光線画像を取得し、メモリ10に記憶させる(ステップS3)。
 制御部9は、ステップS3でメモリ10に記憶させた赤外光線画像の輝度信号Yと、既にメモリ10に記憶されている通常画像のうち直近に撮像された通常画像の補正色差信号Cr1及びCb1とに基づいて合成画像を生成する(ステップS4)。
 続いて、制御部9は、次のフレーム撮像時間に同期して、赤外光線を消灯させるための制御信号を、通信部8を介して赤外光源4に送信する(ステップS5)。
 ステップS5で制御信号が送信されると、制御部9は、ステップS5の制御信号による赤外光線の消灯のときに撮像された通常画像を取得し、メモリ10に記憶させる(ステップS6)。
 制御部9は、ステップS6で取得された通常画像の色差信号Cr及びCbに対してゲイン補正を行う(ステップS7)。
 ここで、制御部9によるゲイン補正について図5を参照して詳細に説明する。
 まず、制御部9は、ステップS5で通常画像が取得される直前に取得されて、メモリ10に記憶されている赤外光線画像の輝度信号Yの強度の代表値Yrを算出する(ステップS71)。
 制御部9は、ステップS5で取得した通常画像の色差信号Cr及びCbの強度のそれぞれ代表値Crr及びCbrを算出する(ステップS72)。ステップS71の処理の前にステップS72の処理が行われてもよい。
 制御部9は、代表値Yr、並びに代表値Crr及びCbrに基づいて、各画素の色差信号Cr及びCbにゲイン補正を行って、補正色差信号Cr1及びCb1を生成する(ステップS73)。具体的には、例えば、制御部9は、代表値Crr及びCbrの平均値と代表値Yrとの差又は比が所定の範囲内となるように各画素の色差信号Cb及びCrの強度に対して乗じるゲインを算出してもよい。そして、制御部9は、各画素の色差信号Cb及びCrの強度にゲインを乗じる。
 図4に戻って、ステップS7でゲイン補正が行われると、制御部9は、通常画像の補正色差信号Cr1及びCb1と、既にメモリ10に記憶されている赤外光線画像のうち直近に撮像された赤外光線画像の輝度信号Yとに基づいて合成画像を生成する(ステップS8)。
 ステップS8で合成画像が送信されると、制御部9は、撮像装置3に停止の指示が入力されているか判定する(ステップS9)。
 ステップS9で停止の指示が入力されていると判定された場合、撮像装置3は処理を終了する。ステップS9で停止の指示が入力されていないと判定された場合、撮像装置3は、再びステップS2に戻って、制御信号を送信する。そして、制御部9は、ステップS2~S9の処理を繰り返す。
 本実施形態によれば、撮像装置3は、赤外光線画像と通常画像とに基づいて画像を生成する。具体的には、撮像装置3は、赤外光線画像の輝度信号Yと通常画像の色差信号Cb及びCrとを有する合成画像を生成する。赤外光線は、暗い環境であっても白色光に比べて被写体からの反射率が高い。したがって、制御部9は、通常画像に比べて、強度が高く、コントラストの大きな輝度信号Yを赤外光線画像から得ることができる。また、制御部9は、通常画像から、色差信号Cr及びCbを得ることができる。このため、撮像装置3は、夜間等の暗い環境であっても、輝度信号Yに基づく、S/N比が低くコントラストの高い画像であって、色差信号Cb及びCrに基づく色味を含んだ画像を生成することができる。
 また、本実施形態によれば、撮像装置3は通常画像の色差信号Cb及びCrに対してのみゲイン補正を行う。暗い環境においては画素信号の強度が全体的に小さいため、色差信号Cb及びCrの強度も比較的小さく、合成画像の色味が弱くなり得る。しかし、ゲイン補正により、色差信号Cb及びCrの強度が高められ、色味が強く再現され得る。輝度信号Yに対してゲイン補正は行われないため、画像全体が白色に近づくことが防がれ得る。このため、撮像装置3は、輝度のコントラストが高く、鮮やかな色を含んだ画像を生成することができる。
 また、本実施形態によれば、赤外光源4は赤外光線をハイビームとして照射する。移動体2に対向する又は前走する移動体の利用者に眩しさを与えるのを防ぐために、通常、多くの運転者は、白色光源5から照射される白色光をロービームとして照射する。人間の目は赤外光線を感知しない。そのため、撮像装置3は、赤外光源4をハイビームで照射することによって、利用者に眩しさを感知させず、被写体を検知可能に撮像し得る。
 また、本実施形態によれば、白色光源5は、常時、白色光を照射する。そのため、赤外光線が点灯するときに白色光が消灯し、赤外光線が消灯するときに白色光が点灯する場合の白色光の点滅による違和感を、撮像システム1の利用者に与えないという利点がある。
 上述の実施形態は代表的な例として説明したが、本開示の趣旨及び範囲内で、多くの変更及び置換ができることは当業者に明らかである。したがって、本開示は、上述の実施形態及び実施例によって制限するものと解するべきではなく、特許請求の範囲から逸脱することなく、種々の変形や変更が可能である。例えば、実施形態及び実施例に記載の複数の構成ブロックを1つに組合せたり、あるいは1つの構成ブロックを分割したりすることが可能である。
 例えば、制御部9は、通信部8を介して、赤外光源4による赤外光線の点灯を制御するための制御信号を送信するとしたが、この限りではない。例えば、制御部9は、通信部8を介して、赤外光源4から赤外光線の点灯状態を示す点灯状態信号を受信してもよい。点灯状態信号は、赤外光線が点灯していること及び赤外光線が消灯していることのいずれか1つ以上を示す信号である。
 この場合、制御部9は、赤外光源4から赤外光線の点灯を示す点灯状態信号を受信すると、赤外光線が点灯しているときに撮像素子7が生成した画像を赤外光線画像として取得する。また、制御部9は、通信部8が赤外光源4から赤外光線の消灯を示す点灯状態信号を受信すると、赤外光線が消灯しているときに撮像素子7が生成した画像を通常画像として取得する。
 また、変形例として、図6に示すように、白色光源5は、赤外光源4が赤外光線を照射しているときに白色光の照射を停止し、赤外光源4が赤外光線の照射を停止しているときに白色光を照射してもよい。この場合、白色光の点灯及び消灯は、人間の目に認識されないように高速に繰り返されるのがよい。これにより、点灯及び消灯の連続によって人間が不快感を催すことが回避され得る。
 また、制御部9は、代表値Cbr及びCrrの両方を用いてゲインを算出するとしたが、この限りではない。例えば、制御部9は、代表値Cbr及びCrrのいずれかを用いて、該代表値に係る色差信号Cb及びCrのいずれかを補正するためのゲインを算出してもよい。制御部9がゲインを算出する方法は、利用者によって用途に応じて求められる合成画像の特性に応じて、適宜、決定される。
1       撮像システム
2       移動体
3       撮像装置
4       赤外光源
5       白色光源
6       光学系
7       撮像素子
8,13,15  通信部
9,14,16  制御部
10      メモリ
11      表示装置
12      ECU
17,18       発光素子

Claims (13)

  1.  撮像素子と、
     赤外光線が所定値の光量より高いときに前記撮像素子が生成した赤外光線画像と、前記赤外光線が前記所定値の光量より低いときに前記撮像素子が生成した通常画像とを取得し、前記赤外光線画像と前記通常画像とに基づいて合成画像を生成する制御部と、
     を備える撮像装置。
  2.  前記制御部は、赤外光源における赤外光線の点灯状態を示す点灯状態信号を受信し、当該点灯状態信号に基づいて、前記赤外光線が前記所定値の光量より高いときに前記赤外光線画像を取得し、前記赤外光線が前記所定値の光量より低いときに前記通常画像を取得する請求項1に記載の撮像装置。
  3.  前記制御部は、第1の期間に赤外光源が赤外光線を前記所定値の光量より高くし、前記第1の期間とは異なる第2の期間に前記赤外光源が赤外光線を前記所定値の光量より低くするよう前記赤外光源を制御する請求項1に記載の撮像装置。
  4.  前記制御部は、前記赤外光線画像の輝度信号と、前記通常画像の色差信号とに基づいて前記合成画像を生成する請求項1から3のいずれか一項に記載の撮像装置。
  5.  前記制御部は、前記色差信号のゲインを補正して補正色差信号を生成し、前記補正色差信号と前記輝度信号とに基づいて前記合成画像を生成する請求項4に記載の撮像装置。
  6.  前記制御部は、前記輝度信号の強度及び前記色差信号の強度に基づいて前記色差信号のゲインを補正する請求項5に記載の撮像装置。
  7.  前記制御部は、前記色差信号のいずれか1つ以上の強度に基づく値と前記輝度信号の強度との差又は比が所定の範囲内となるように前記色差信号のゲインを補正する請求項6に記載の撮像装置。
  8.  赤外光線を出射する赤外光源と、
     撮像素子と、
     前記赤外光線が所定値の光量より高いときに前記撮像素子が生成した赤外光線画像と、前記赤外光線が前記所定値の光量より低いときに前記撮像素子が生成した通常画像とを取得し、前記赤外光線画像と前記通常画像とに基づいて合成画像を生成する制御部と、
    を含む撮像装置と、
     を備える撮像システム。
  9.  前記撮像装置が撮像する範囲に白色光を出射する白色光源をさらに備え、
     前記白色光源は、前記赤外光源が前記所定値の光量より高いときに前記白色光を消灯し、前記赤外光源が前記所定値の光量より低いときに前記白色光を点灯する請求項8に記載の撮像システム。
  10.  前記撮像装置が撮像する範囲に白色光を出射する白色光源をさらに備え、
     前記白色光源は、常時、前記白色光を出射する請求項8に記載の撮像システム。
  11.  赤外光線を出射する赤外光源と、撮像素子と、前記赤外光線が所定値の光量より高いときに前記撮像素子が生成した赤外光線画像と、前記赤外光線が前記所定値の光量より低いときに前記撮像素子が生成した通常画像とを取得し、前記赤外光線画像と前記通常画像とに基づいて合成画像を生成する制御部と、を有する撮像装置と、を含む撮像システム
     を備える移動体。
  12.  前記赤外光源は、第1の照射範囲と、当該第1の照射範囲より鉛直上方を含む第2の照射範囲との照射を切り替え可能な白色光源の前記第2の照射範囲を照射する請求項11に記載の移動体。
  13.  撮像装置の撮像方法であって、
     前記撮像装置が、赤外光線が所定値の光量より高いときに撮像素子が生成した赤外光線画像を取得し、前記赤外光線が前記所定値の光量より低いときに前記撮像素子が生成した通常画像を取得し、前記赤外光線画像と前記通常画像とに基づいて合成画像を生成する撮像方法。
PCT/JP2017/037678 2016-10-28 2017-10-18 撮像装置、撮像システム、移動体、及び撮像方法 WO2018079372A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US16/345,636 US10742890B2 (en) 2016-10-28 2017-10-18 Imaging apparatus, imaging system, moving body, and imaging method
EP17863548.8A EP3534603B1 (en) 2016-10-28 2017-10-18 Image pickup device and method
JP2018547598A JPWO2018079372A1 (ja) 2016-10-28 2017-10-18 撮像装置、撮像システム、移動体、及び撮像方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-212325 2016-10-28
JP2016212325 2016-10-28

Publications (1)

Publication Number Publication Date
WO2018079372A1 true WO2018079372A1 (ja) 2018-05-03

Family

ID=62023425

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/037678 WO2018079372A1 (ja) 2016-10-28 2017-10-18 撮像装置、撮像システム、移動体、及び撮像方法

Country Status (4)

Country Link
US (1) US10742890B2 (ja)
EP (1) EP3534603B1 (ja)
JP (1) JPWO2018079372A1 (ja)
WO (1) WO2018079372A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110493495A (zh) * 2019-05-31 2019-11-22 杭州海康威视数字技术股份有限公司 图像采集装置和图像采集的方法
CN110493493A (zh) * 2019-05-31 2019-11-22 杭州海康威视数字技术股份有限公司 全景细节摄像机及获取图像信号的方法
JP7524777B2 (ja) 2021-01-26 2024-07-30 株式会社デンソー 画像形成装置

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10958830B2 (en) 2018-05-24 2021-03-23 Magna Electronics Inc. Vehicle vision system with infrared LED synchronization
CN109963086B (zh) * 2018-07-30 2020-06-16 华为技术有限公司 时分复用补光成像装置和方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006013884A (ja) * 2004-06-25 2006-01-12 Fuji Photo Film Co Ltd カメラ
JP2008299538A (ja) * 2007-05-30 2008-12-11 Toyota Motor Corp 車両用撮像システム、及び車両用制御装置
JP2010103740A (ja) * 2008-10-23 2010-05-06 Panasonic Corp デジタルカメラ
JP2011119917A (ja) * 2009-12-02 2011-06-16 Denso Corp 車両用表示装置
JP2014135627A (ja) * 2013-01-10 2014-07-24 Hitachi Ltd 撮像装置
WO2014192876A1 (ja) * 2013-05-30 2014-12-04 独立行政法人産業技術総合研究所 撮像システム及び撮像方法
JP2015149585A (ja) 2014-02-06 2015-08-20 株式会社Jvcケンウッド 撮像装置及び撮像装置の制御方法
JP2016096430A (ja) * 2014-11-13 2016-05-26 パナソニックIpマネジメント株式会社 撮像装置及び撮像方法
JP2017097645A (ja) * 2015-11-25 2017-06-01 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4984634B2 (ja) * 2005-07-21 2012-07-25 ソニー株式会社 物理情報取得方法および物理情報取得装置
DE112007003473B4 (de) 2007-05-07 2017-04-06 Fujitsu Limited Nachtsichtgerät
KR100863497B1 (ko) 2007-06-19 2008-10-14 마루엘에스아이 주식회사 이미지 감지 장치, 이미지 신호 처리 방법, 광 감지 소자, 제어 방법 및 화소 어레이
JP2011199798A (ja) * 2010-03-24 2011-10-06 Sony Corp 物理情報取得装置、固体撮像装置、物理情報取得方法
KR20130086066A (ko) * 2010-11-16 2013-07-30 코니카 미놀타 가부시키가이샤 화상 입력 장치 및 화상 처리 장치
JP6533358B2 (ja) * 2013-08-06 2019-06-19 三菱電機エンジニアリング株式会社 撮像装置
KR20150021353A (ko) * 2013-08-20 2015-03-02 삼성테크윈 주식회사 영상 융합 시스템 및 그 방법
US10051211B2 (en) * 2013-12-05 2018-08-14 Omnivision Technologies, Inc. Image sensors for capturing both visible light images and infrared light images, and associated systems and methods
CN105917638B (zh) 2014-02-06 2018-02-16 Jvc 建伍株式会社 摄像装置和摄像装置的控制方法、以及摄像***和摄像***的控制方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006013884A (ja) * 2004-06-25 2006-01-12 Fuji Photo Film Co Ltd カメラ
JP2008299538A (ja) * 2007-05-30 2008-12-11 Toyota Motor Corp 車両用撮像システム、及び車両用制御装置
JP2010103740A (ja) * 2008-10-23 2010-05-06 Panasonic Corp デジタルカメラ
JP2011119917A (ja) * 2009-12-02 2011-06-16 Denso Corp 車両用表示装置
JP2014135627A (ja) * 2013-01-10 2014-07-24 Hitachi Ltd 撮像装置
WO2014192876A1 (ja) * 2013-05-30 2014-12-04 独立行政法人産業技術総合研究所 撮像システム及び撮像方法
JP2015149585A (ja) 2014-02-06 2015-08-20 株式会社Jvcケンウッド 撮像装置及び撮像装置の制御方法
JP2016096430A (ja) * 2014-11-13 2016-05-26 パナソニックIpマネジメント株式会社 撮像装置及び撮像方法
JP2017097645A (ja) * 2015-11-25 2017-06-01 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3534603A4

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110493495A (zh) * 2019-05-31 2019-11-22 杭州海康威视数字技术股份有限公司 图像采集装置和图像采集的方法
CN110493493A (zh) * 2019-05-31 2019-11-22 杭州海康威视数字技术股份有限公司 全景细节摄像机及获取图像信号的方法
CN110493495B (zh) * 2019-05-31 2022-03-08 杭州海康威视数字技术股份有限公司 图像采集装置和图像采集的方法
CN110493493B (zh) * 2019-05-31 2022-04-29 杭州海康威视数字技术股份有限公司 全景细节摄像机及获取图像信号的方法
JP7524777B2 (ja) 2021-01-26 2024-07-30 株式会社デンソー 画像形成装置

Also Published As

Publication number Publication date
US20190273858A1 (en) 2019-09-05
US10742890B2 (en) 2020-08-11
EP3534603A4 (en) 2020-04-29
EP3534603A1 (en) 2019-09-04
JPWO2018079372A1 (ja) 2019-09-12
EP3534603B1 (en) 2022-07-20

Similar Documents

Publication Publication Date Title
WO2018079372A1 (ja) 撮像装置、撮像システム、移動体、及び撮像方法
US11917281B2 (en) Camera system, method and instructions using images captured by a first mage sensor and a second image sensor to generate a third image corresponding to a simulated lens having an intermediate focal length
AU2022203095B2 (en) Real-time HDR video for vehicle control
US10432847B2 (en) Signal processing apparatus and imaging apparatus
JP5853947B2 (ja) 暗視装置
US10304312B2 (en) Imaging apparatus, imaging system, target person monitoring system and control method of imaging apparatus
WO2018061882A1 (ja) カメラモジュール、セレクタ、コントローラ、カメラモニタシステム及び移動体
US20220191449A1 (en) Image processing device, image capturing device, mobile body, and image processing method
JP2007230505A (ja) 車両用ランプ制御装置
JP5716944B2 (ja) 車載カメラ装置
JP6727946B2 (ja) 車両用カメラモニタシステム及び車両
JP2020177242A (ja) 車両用カメラモニタシステム及びその制御方法
JP2018107620A (ja) 撮像システム、移動体、および制御方法
WO2018155280A1 (ja) 周辺監視システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17863548

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018547598

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2017863548

Country of ref document: EP

Effective date: 20190528