WO2016171088A1 - 撮像装置及び撮像装置の画像処理方法及びプログラム - Google Patents

撮像装置及び撮像装置の画像処理方法及びプログラム Download PDF

Info

Publication number
WO2016171088A1
WO2016171088A1 PCT/JP2016/062170 JP2016062170W WO2016171088A1 WO 2016171088 A1 WO2016171088 A1 WO 2016171088A1 JP 2016062170 W JP2016062170 W JP 2016062170W WO 2016171088 A1 WO2016171088 A1 WO 2016171088A1
Authority
WO
WIPO (PCT)
Prior art keywords
image data
image
imaging
unit
imaging mode
Prior art date
Application number
PCT/JP2016/062170
Other languages
English (en)
French (fr)
Inventor
高志 椚瀬
洋介 成瀬
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to CN201680023422.8A priority Critical patent/CN107534733B/zh
Priority to JP2017514100A priority patent/JP6243087B2/ja
Publication of WO2016171088A1 publication Critical patent/WO2016171088A1/ja
Priority to US15/789,196 priority patent/US10634830B2/en

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B11/00Filters or other obturators specially adapted for photographic purposes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/20Filters
    • G02B5/208Filters for use with infrared or ultraviolet radiation, e.g. for separating visible light from infrared and/or ultraviolet radiation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/407Control or modification of tonal gradation or of extreme levels, e.g. background level
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/11Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/12Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with one sensor only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/61Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4"
    • H04N25/611Correction of chromatic aberration
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Definitions

  • the present invention relates to an imaging apparatus that is installed at a fixed position and images a subject regardless of day and night, and an image processing method and program for the imaging apparatus.
  • a day / night monitoring camera also referred to as a day / night function
  • Patent Document 1 describes a hybrid camera that includes a visible light camera that captures a visible light image of a subject and an infrared camera that captures a thermal image of the subject.
  • the hybrid camera of Patent Document 1 generates background image data corresponding to the background region of the subject based on the image data of the visible light image, and moving object image data corresponding to the moving object in the subject based on the image data of the thermal image.
  • the synthesized image data is generated by synthesizing the moving object image data with the background image data. In this manner, an easy-to-see image can be provided by superimposing a moving body image based on a thermal image on a background image based on a visible light image.
  • Patent Document 2 a visible light image of a subject is captured through an optical system in which an infrared cut filter is inserted in the imaging optical path, and a near-infrared light image of the subject is captured through an optical system in which the infrared cut filter is retracted from the imaging optical path.
  • An imaging device for imaging is described.
  • the optical path length changes, so that the focal length may change greatly and image blur may occur. Therefore, in the imaging apparatus described in Patent Document 2, the occurrence of image blur is suppressed by providing a phase modulation element in the imaging optical path described above.
  • the near-infrared light image obtained by night imaging of the surveillance camera is a monochrome image (black and white image)
  • the technique described in Patent Document 1 described above is applied to a surveillance camera, and the moving image data generated from the near-infrared light image data is combined with the background image data generated from the visible light image data to form a composite image. It is possible to make the near-infrared light image easy to see by generating data. However, in this case, it is necessary to simultaneously capture a visible light image and a near-infrared light image.
  • the surveillance camera it is necessary to provide the surveillance camera with two types of imaging units for capturing a visible light image and for capturing a near-infrared light image. As a result, there arises a problem that the surveillance camera is increased in size and the number of parts is increased.
  • Patent Document 1 when the technique described in Patent Document 1 is applied to a monitoring camera, it is necessary to capture a visible light image at night under low illuminance with a high-sensitivity camera. There is a problem that the noise inside increases.
  • Patent Document 2 describes that a phase modulation element is provided in the imaging optical path to suppress the occurrence of image blur caused by the presence or absence of an infrared cut filter, composite image data is generated as in Patent Document 1. There is no description or suggestion of. For this reason, in the imaging apparatus of patent document 2, the problem that the near-infrared light image of the monochrome image obtained by nighttime imaging is hard to see compared with the visible light image obtained by daytime imaging is not solved. Furthermore, in the imaging apparatus of Patent Document 2, since it is necessary to provide a phase modulation element in the imaging optical path, there arises a problem that the surveillance camera is increased in size and the number of parts is increased.
  • the present invention has been made in view of such circumstances, and an imaging apparatus capable of making a near-infrared light image easy to see while suppressing an increase in the size and the number of parts, and an image processing method and program for the imaging apparatus.
  • the purpose is to provide.
  • An image pickup apparatus for achieving the object of the present invention is an image pickup apparatus installed at a fixed position, wherein an infrared cut filter is inserted into the image pickup optical path or retracted from the image pickup optical path, and the infrared cut filter is the image pickup optical path.
  • a first imaging mode in which a subject is imaged through an optical system inserted into the optical system to obtain first image data indicating a visible light image that is a visible light image and a color image of the subject;
  • a second imaging mode in which a subject is imaged through an optical system retracted from the camera and second image data including a near-infrared light image that is a near-infrared light image and is a monochrome image of the subject is acquired.
  • An imaging mode switching unit that alternately switches between the first imaging mode and the second imaging mode, and the imaging unit acquires when the imaging unit is operating in the second imaging mode.
  • a change area detection unit that detects a change area having a change compared to the second image data acquired by the imaging unit before the second image data, and a change area detection unit Based on the detection result, based on the first image data acquired in the first imaging mode immediately before the second imaging mode by the imaging unit in the changed area image data corresponding to the changed area in the second image data.
  • a synthesized image data generating unit that generates synthesized image data obtained by synthesizing background image data of a color image corresponding to a background area that is different from the changed area in the second image data.
  • the background area of the second image data including can be displayed in color.
  • the composite image data generation unit includes color information extracted from a region corresponding to the background region in the first image data, and luminance information in the background region of the second image data. Based on the above, background image data is generated. As a result, actual brightness and darkness can be reproduced based on the luminance information, and an image (synthesized image data) close to reality can be obtained.
  • the composite image data generation unit generates background image data using image data itself included in an area corresponding to the background area in the first image data. Since the first image data of the visible light image is used as it is as the background image data, the background image data is prevented from being affected by the above-mentioned chromatic aberration (magnification chromatic aberration). Further, complicated image processing or the like is not necessary for generating background image data, and the load on the system is reduced.
  • a non-change region detection unit that detects a non-change region in a plurality of first image data acquired at different timings by the image pickup unit in the first imaging mode; Based on the detection result of the change area detection unit, background image data is generated from the image data corresponding to the non-change area in the first image data. Thereby, a moving body can be removed from the image based on the background image data.
  • An imaging apparatus includes a sharpening processing unit that performs a sharpening process on at least change area image data.
  • chromatic aberration magnification chromatic aberration
  • An imaging apparatus includes a magnification chromatic aberration correction processing unit that performs magnification chromatic aberration correction processing on at least change area image data.
  • chromatic aberration magnification chromatic aberration
  • a first point image restoration processing unit that performs point image restoration processing based on the first optical characteristic of the optical system with respect to near-infrared light at least for the change region image data.
  • the first optical characteristic is a first point spread function of the optical system with respect to near-infrared light
  • the first point image restoration processing unit converts the change area image data into the change area image data.
  • the point image restoration process performed for the restoration restores the amplitude component of the change area image data and the phase component resulting from the shape of the first point spread function that is asymmetric with respect to the point.
  • chromatic aberration magnification chromatic aberration
  • point image restoration processing based on the second optical characteristic of the optical system with respect to visible light is performed on the first image data.
  • chromatic aberration magnification chromatic aberration
  • the second optical characteristic is a second point spread function for each color of the optical system with respect to red, green, and blue visible light
  • a second point image restoration process is performed.
  • the point image restoration process performed by the unit on the first image data includes a restoration process of the phase component of the first image data using a restoration filter based on the second point spread function for each color.
  • An image processing method of an imaging apparatus for achieving the object of the present invention includes an optical system in which an infrared cut filter is inserted into or taken from an imaging optical path, and an optical system in which an infrared cut filter is inserted into the imaging optical path
  • a first imaging mode in which a subject is imaged and first image data indicating a visible light image which is a visible light image of a subject and is a color image is acquired; and an optical system in which an infrared cut filter is retracted from the imaging optical path
  • An imaging mode switching unit that alternately switches between the imaging mode and the second imaging mode.
  • the imaging unit is the second In the second image data acquired by the imaging unit when operating in the imaging mode, there is a change area that is changed compared to the second image data acquired by the imaging unit before the second image data.
  • the image pickup unit Based on the detection result of the change area detection step and the change area detection step, converts the change area image data corresponding to the change area in the second image data to the first immediately before the second image pickup mode. Generating composite image data that is generated based on the first image data acquired in the imaging mode and that combines the background image data of the color image corresponding to the background region different from the change region in the second image data And an image data generation step.
  • a program for achieving the object of the present invention is to image an object through an optical system in which an infrared cut filter is inserted into or taken away from the imaging optical path and an optical system in which the infrared cut filter is inserted into the imaging optical path.
  • the first imaging mode for acquiring first image data indicating a visible light image that is a visible light image that is a monochrome light image, and the infrared cut filter images the subject through an optical system that is retracted from the imaging optical path.
  • An imaging unit having a second imaging mode for acquiring second image data including a near-infrared light image that is a near-infrared light image of a subject and is a monochrome image; a first imaging mode; An imaging mode switching unit that alternately switches between imaging modes, and the imaging unit is operated in the second imaging mode by operating the computer of the imaging device installed at a fixed position.
  • a change that detects a change region that has a change compared to the second image data acquired by the imaging unit before the second image data is detected.
  • the first imaging mode immediately before the second imaging mode is recorded on the changed area image data corresponding to the changed area in the second image data by the previous imaging unit.
  • Composite image data generation for generating composite image data generated by combining the background image data of the color image corresponding to the background region different from the change region in the second image data generated based on the first image data acquired in step Function as a means.
  • a computer-readable non-transitory tangible medium (a non-transitory computer-readable tangible medium) in which this program is recorded is also included in the embodiment of the present invention.
  • the imaging device and the image processing method and program of the imaging device according to the present invention can make the near-infrared light image obtained by imaging in the second imaging mode easy to see while suppressing the increase in size and the number of parts.
  • FIG. 1 is a block diagram illustrating an example of a functional configuration of a monitoring camera 10 used for both day and night, and illustrates a state in which imaging is performed in the daytime (daytime).
  • FIG. 2 is a block diagram illustrating a functional configuration example of the monitoring camera 10 and illustrates a state in which imaging is performed at night.
  • “daytime” and “nighttime” in the present specification do not necessarily define a specific time zone, and “daytime” and “nighttime” may include payment and dusk respectively.
  • the surveillance camera 10 corresponding to the imaging apparatus of the present invention is a kind of digital camera, and is installed at a fixed position (fixed point) in public facilities, commercial facilities, residences, and the like.
  • the surveillance camera 10 captures a subject regardless of day or night by capturing a visible light image of a subject (monitoring region) during the daytime and capturing a near-infrared light image of the subject at night.
  • the monitoring camera 10 is connected to a computer 60 such as a personal computer (PC), and outputs image data obtained by imaging a subject to the computer 60.
  • PC personal computer
  • the near-infrared light image is an image obtained by imaging a subject with sensitivity at least in the wavelength band of near-infrared light.
  • the wavelength band of the near infrared light is not particularly limited, but is in the range of 700 nm to 2500 nm.
  • a visible light image is an image obtained by imaging a subject with sensitivity in the visible light wavelength band (generally 380 nm to 780 nm).
  • the surveillance camera 10 includes a lens unit 12 and a camera body 14.
  • the external appearance of the monitoring camera 10 is not limited to the external appearance shown in FIGS. 1 and 2.
  • the lens unit 12 and the camera body 14 may be covered with a transparent dome.
  • the lens unit 12 is provided on the front surface of the camera body 14.
  • the lens unit 12 includes a near-infrared light emitting unit 15, a lens 16 including a focus lens and a zoom lens, a diaphragm 17, and a lens driving unit 18 that drives the lens 16 and the diaphragm 17.
  • the near-infrared light emitting unit 15 emits near-infrared light as auxiliary light toward the subject when the surveillance camera 10 performs imaging at night. As a result, clear image data of the near-infrared light image of the subject can be obtained even when the surveillance camera 10 performs imaging in a dark state at night (under low illuminance).
  • the lens driving unit 18 includes a lens unit controller 20 and an actuator (not shown) that drives the lens 16 and the diaphragm 17.
  • the lens unit controller 20 is electrically connected to the camera body 14 via a lens unit input / output unit 22 provided in the camera body 14.
  • the lens unit controller 20 drives the lens 16 and the diaphragm 17 by the above-described actuator based on a control signal input from the camera body 14. Thereby, focus control and zoom control by lens movement of the lens 16 and aperture amount control of the aperture 17 are performed.
  • the camera body 14 includes a filter driving unit 24, an infrared (IR) cut filter 25, an imaging unit 26, an illuminance sensor 27, a camera body controller 28, A camera main body input / output unit 30 and an input / output interface 32 are provided.
  • IR infrared
  • the infrared cut filter 25 is a filter that blocks infrared light, and constitutes the optical system of the present invention together with the lens 16 and the diaphragm 17 of the lens unit 12.
  • the infrared cut filter 25 can be inserted into or retracted from the imaging optical path L of the lens unit 12 by the filter driving unit 24.
  • the imaging optical path L is an optical path until the light incident on the lens unit 12 reaches an imaging unit 26 described later.
  • the infrared cut filter 25 is provided in the camera body 14, but may be provided in the lens unit 12.
  • the filter drive unit 24 inserts the infrared cut filter 25 into the imaging optical path L when imaging a visible light image of the subject (first imaging mode described later), and the near red of the subject.
  • the infrared cut filter 25 is retracted from the imaging optical path L when an external light image is captured (second imaging mode described later). Thereby, the infrared light which injects into the below-mentioned imaging part 26 at the time of imaging of a visible light image can be interrupted
  • the type of the infrared cut filter 25 is not particularly limited, and for example, a near infrared light cut filter that blocks near infrared light may be used.
  • the imaging unit 26 includes a CCD (Charge-Coupled Device) -type imaging device or a CMOS (Complementary Metal-Oxide-Semiconductor) type imaging device, and various signal processing circuits.
  • CCD Charge-Coupled Device
  • CMOS Complementary Metal-Oxide-Semiconductor
  • RGB pixels that are included are arranged in a matrix.
  • the RGB pixel is sensitive not only to the wavelength band of visible light but also to a part of the wavelength band of near infrared light (particularly the wavelength band of near infrared light emitted by the near infrared light emitting unit 15).
  • a near-infrared light image is captured (in a second imaging mode described later), it functions as a near-infrared light pixel.
  • the imaging unit 26 captures an image of the subject through the lens unit 12 to acquire image data of the subject, and outputs the image data to the camera body controller 28.
  • the imaging unit 26 has a first imaging mode corresponding to daytime imaging and a second imaging mode corresponding to nighttime imaging as imaging modes. Note that switching of the imaging mode of the imaging unit 26 is executed by the camera body controller 28.
  • the imaging unit 26 images the subject through the lens unit 12 with the infrared cut filter 25 inserted into the imaging optical path L, and first image data indicating a visible light image that is a color image of the subject. D1 is acquired.
  • the first image data D1 is composed of RGB image data.
  • other conditions are arbitrary as long as the infrared cut filter 25 is inserted in the imaging optical path L.
  • the imaging unit 26 images the subject through the lens unit 12 with the infrared cut filter 25 retracted from the imaging optical path L, and includes a near-infrared light image that is a monochrome image of the subject.
  • 2 image data D2 is acquired.
  • “second image data D2 including a near-infrared light image” means that the incident of visible light to the imaging unit 26 does not become zero depending on the time zone and the surrounding environment even at night. It means that second image data D2 obtained by imaging visible light as well as infrared light is included.
  • the near infrared light emitting unit 15 emits near infrared light as auxiliary light, so that the visible light incident on the imaging unit 26 is visible.
  • the amount of light is greatly reduced compared to the amount of near infrared light.
  • the second image data D2 does not have color information and can be regarded as monochrome image data constituted by luminance information (luminance signal).
  • luminance signal luminance signal
  • the illuminance sensor 27 detects the illuminance of the subject (monitoring area) imaged by the monitoring camera 10 and outputs the illuminance detection result to the camera body controller 28.
  • the illuminance detection result by the illuminance sensor 27 includes, for example, ON / OFF switching of near-infrared light emission by the near-infrared light emitting unit 15, switching between insertion and withdrawal of the infrared cut filter 25, and imaging by the imaging unit 26. Used for mode switching.
  • the camera main body controller 28 is configured by various shapes of calculation units, processing units, and storage units (memory) including, for example, a CPU (Central Processing Unit), and performs overall operations and processing of the monitoring camera 10. Control.
  • calculation units processing units, and storage units (memory) including, for example, a CPU (Central Processing Unit), and performs overall operations and processing of the monitoring camera 10. Control.
  • CPU Central Processing Unit
  • FIG. 3 is a block diagram showing an electrical configuration of the camera main body controller 28.
  • the camera body controller 28 includes a device control unit 34, an image processing unit 35, and a storage unit 36.
  • the device control unit 34 controls the operation of each unit of the monitoring camera 10 by executing the control program 37A read from the storage unit 36. For example, the device control unit 34 generates a control signal for controlling the lens unit 12 and transmits the control signal from the camera body input / output unit 30 to the lens unit controller 20 (see FIGS. 1 and 2). As a result, the focus control and zoom control described above and the aperture amount control of the aperture 17 are executed.
  • the device control unit 34 also controls the imaging process and the image data output process by the imaging unit 26.
  • the device control unit 34 switches the imaging mode of the imaging unit 26 based on the illuminance detection result by the illuminance sensor 27, and switches ON and OFF of near infrared light emission by the near infrared light emitting unit 15, Switching between insertion and withdrawal of the infrared cut filter 25 is controlled. That is, the device control unit 34 functions as an imaging mode switching unit of the present invention.
  • FIG. 4 is an explanatory diagram for describing control (particularly imaging mode switching control) by the device control unit 34.
  • the device control unit 34 switches the imaging mode of the imaging unit 26 using the illuminance detection result of the subject input from the illuminance sensor 27 as an imaging mode switching condition. Specifically, if the illuminance detection result is equal to or greater than a predetermined threshold, the device control unit 34 determines that it is “daytime”, and switches the imaging mode of the imaging unit 26 to the first imaging mode. Thereby, the imaging unit 26 performs imaging in the first imaging mode.
  • Symbols “a n ⁇ 1 ” and “a n ” (n is an arbitrary natural number) in the figure indicate the timing of imaging by the imaging unit 26.
  • the device control unit 34 determines that it is “night” and switches the imaging mode of the imaging unit 26 to the second imaging mode. Thereby, the imaging unit 26 performs imaging in the second imaging mode.
  • reference numerals “b n ⁇ 1 ” and “b n ” indicate imaging timings by the imaging unit 26, and reference numeral “A” indicates an imaging time interval.
  • the time interval of imaging in the first imaging mode is not particularly limited, but may be the same time interval A as in the second imaging mode.
  • the device control unit 34 sets the imaging mode of the imaging unit 26 to the first in accordance with the repetition of “daytime”, “nighttime”, “daytime”, “nighttime”,.
  • the imaging mode and the second imaging mode are alternately switched.
  • the device control unit 34 controls the near-infrared light emitting unit 15 to turn off near-infrared light emission and also controls the filter driving unit 24. Then, the infrared cut filter 25 is inserted into the imaging optical path L. Conversely, when switching the imaging unit 26 to the second imaging mode, the device control unit 34 controls the near-infrared light emitting unit 15 to turn on near-infrared light emission and also controls the filter driving unit 24. The infrared cut filter 25 is retracted from the imaging optical path L.
  • the symbol “CH” in the figure is the timing for switching the imaging mode, that is, the timing for switching between insertion and withdrawal of the infrared cut filter 25.
  • the device control unit 34 of the present embodiment switches the imaging mode of the imaging unit 26 based on the illuminance detection result by the illuminance sensor 27, but the imaging mode switching condition is not limited to the illuminance detection result. It may be changed as appropriate.
  • the imaging mode of the imaging unit 26 is set according to the time zone using a predetermined time zone (AM 6:00 to PM 6:00 for “daytime” and PM 6:00 to AM 6:00 for “nighttime”) as the imaging mode switching condition. May be switched.
  • the image processing unit 35 executes the image processing program 37 ⁇ / b> B read from the storage unit 36, thereby inputting image data (first image data D ⁇ b> 1 and second image data) input from the imaging unit 26.
  • the image processing described later is performed on the data D2).
  • the image processing unit 35 outputs the image data after the image processing to the input / output interface 32 (see FIGS. 1 and 2).
  • the image processing program 37B corresponds to the program of the present invention.
  • the image processing program 37B will be described in detail later, but the image processing unit 35 constituting a part of the computer of the surveillance camera 10 is replaced with the change region detection means (moving object region detection unit 48) of the present invention and the present invention. It is made to function as a plurality of processing units including composite image data generation means (background image data generation unit 43 and selection unit 50) (see FIG. 5).
  • the input / output interface 32 is wired or wirelessly connected to an external device (such as the computer 60), and outputs image data after image processing to the computer 60 or the like.
  • an external device such as the computer 60
  • the format of the image data sent to the computer 60 or the like is not particularly limited and may be an arbitrary format.
  • the computer 60 is connected to the monitoring camera 10 via the input / output interface 32 and the computer input / output unit 62 of the camera body 14, and receives data such as image data sent from the monitoring camera 10.
  • the computer 60 has a computer controller 64 and a display 66.
  • the computer controller 64 controls the computer 60 in an integrated manner.
  • the computer controller 64 performs image processing on the image data from the monitoring camera 10 and controls communication with a server 80 or the like connected to the computer input / output unit 62 via a network line 70 such as the Internet.
  • the display 66 displays an image input from the monitoring camera 10.
  • the server 80 includes a server input / output unit 82 and a server controller 84.
  • the server input / output unit 82 constitutes a transmission / reception connection unit with external devices such as the computer 60, and is connected to the computer input / output unit 62 via the network line 70.
  • the server controller 84 cooperates with the computer controller 64 in response to a control instruction signal from the computer 60, transmits and receives data to and from the computer controller 64 as necessary, downloads the data to the computer 60, Calculation processing is performed and the calculation result is transmitted to the computer 60.
  • communication between the monitoring camera 10, the computer 60, and the server 80 may be any of wired communication and wireless communication. Further, the computer 60 and the server 80 may be configured integrally, and one or both of them may be omitted. Further, the monitoring camera 10 may have a communication function with the server 80 so that data can be directly transmitted and received between the monitoring camera 10 and the server 80.
  • FIG. 5 is a functional block diagram of the image processing unit 35.
  • the image processing unit 35 performs image processing on the first image data D1 input from the imaging unit 26 in the first imaging mode, and uses the first image data D1 after the image processing as the input / output interface 32. Output to. Further, the image processing unit 35 generates a background image data DB corresponding to the background area of the subject based on the first image data D1.
  • the image processing unit 35 adds the moving body image data DM corresponding to the moving body area in the second image data D2 to the background image data DB generated in the immediately preceding first imaging mode.
  • Composite image data D3 is generated by combining (corresponding to change area image data of the present invention, see FIG. 8). That is, the image processing unit 35 enables color display of the background area of the second image data D2 of the monochrome image acquired at night based on the first image data D1 of the color image acquired in the daytime.
  • the background image data DB generated in the immediately preceding first imaging mode is the first imaging mode before the transition from the first imaging mode to the second imaging mode.
  • the background image data DB generated in the first imaging mode immediately before the current second imaging mode is not particularly limited.
  • the background image data DB generated based on the frame from this frame to the last frame is generated. It may be used. Further, an average value of the background image data DB in a plurality of frames may be used.
  • the image processing unit 35 functions as the first image processing unit 35A in the first imaging mode by executing the image processing program 37B read from the storage unit 36 described above. In the second imaging mode, it functions as the second image processing unit 35B.
  • the image processing unit 35 is divided into a first image processing unit 35A and a second image processing unit 35B, but they may be integrated.
  • the first image processing unit 35 ⁇ / b> A functions as a non-change area detection unit 42 and a background image data generation unit 43.
  • the first image processing unit 35A performs image processing such as white balance correction and gradation correction on the first image data D1 input from the imaging unit 26 by an image processing circuit (not shown), and then performs image processing.
  • the first image data D1 is output to the input / output interface 32.
  • the first image processing unit 35 ⁇ / b> A generates the above-described background image data DB by the non-change region detection unit 42 and the background image data generation unit 43.
  • the non-change region detection unit 42 is a non-change region V1 (corresponding to the background region V3 in FIG. 7) in the plurality of first image data D1 acquired at different timings by the image pickup unit 26 in the first image pickup mode. Is detected.
  • This non-change area V1 corresponds to a background area in a subject (monitoring area) to be imaged by the monitoring camera 10, and is an area where no change occurs regardless of day or night.
  • the non-change area detection unit 42 stores the first image data D1 acquired by the imaging unit 26 in the first imaging mode in a buffer (not shown) at every predetermined storage timing.
  • This buffer has a storage area for storing the first image data D1 for a plurality of frames, and the new first image data D1 is overwritten on the oldest first image data D1 in the buffer.
  • the non-change region detection unit 42 analyzes the plurality of first image data D1 in the buffer and detects the non-change region V1 at every predetermined detection timing of the non-change region V1.
  • the method for detecting the non-change region V1 is basically the same method as the moving object region detection by the moving object region detection unit 48 described later, and will be described in detail later (see FIGS. 6 and 7).
  • the non-change region detection unit 42 outputs the detection result of the non-change region V1 (simply displayed as “V1” in FIG. 5) to the background image data generation unit 43.
  • the background image data generation unit 43 Image data corresponding to the non-change area V1 is extracted from D1 to generate a background image data DB.
  • the background image data generation unit 43 stores the generated background image data DB in a memory or the like (not shown).
  • the background image data generation unit 43 generates a new background image data DB each time the detection result of the non-change region V1 is input from the non-change region detection unit 42, and the background image data stored in the memory or the like Update DB.
  • the second image processing unit 35B functions as a magnification chromatic aberration correction processing unit 46, a past image holding buffer 47, a moving object region detection unit 48, a conversion unit 49, and a selection unit 50.
  • the second image processing unit 35B adds the second image acquired by the imaging unit 26 in the second imaging mode to the background image data DB generated by the first image processing unit 35A in the immediately preceding first imaging mode.
  • Composite image data D3 is generated by combining the moving object image data DM (see FIG. 8) corresponding to the moving object region in the image data D2.
  • the magnification chromatic aberration correction processing unit 46 performs the magnification chromatic aberration correction processing on the second image data D2 input at every time interval A (see FIG. 4) from the imaging unit 26 in the second imaging mode.
  • the moving body image data DM in the second image data D2 of the near-infrared light image is synthesized with the background image data DB generated based on the first image data D1 of the visible light image.
  • Composite image data D3 is generated.
  • a difference occurs in the size of the visible light image and the near-infrared light image captured by the imaging unit 26 due to chromatic aberration (magnification chromatic aberration) of visible light and near-infrared light.
  • the background image data DB having a different size (image size) and the second image data D2 (moving body image data DM) will be synthesized, resulting in unnatural synthesized image data.
  • D3 is generated.
  • the lens 16 used in the day / night monitoring camera 10 has realistic transmittance from visible light to the near infrared region, and optically exhibits chromatic aberration (magnification chromatic aberration) of visible light and near infrared light.
  • chromatic aberration magnification chromatic aberration
  • a combined day / night lens is used.
  • complete chromatic aberration correction up to the near infrared region is not practical, and aberrations remain due to restrictions such as the number of lenses.
  • the magnification chromatic aberration correction processing unit 46 performs the magnification chromatic aberration correction processing on the second image data D2 input from the imaging unit 26 at every time interval A (see FIG. 4), so that visible light and near-red are corrected. Corrects chromatic aberration (magnification chromatic aberration) of external light.
  • the lateral chromatic aberration correction process is performed by a known method such as shifting the pixel position of each pixel of the second image data D2. Further, as the correction amount at this time, a correction amount determined in advance according to the type of the optical system (the lens 16, the diaphragm 17, and the infrared cut filter 25) of the monitoring camera 10 is used.
  • the magnification chromatic aberration correction processing unit 46 outputs the second image data D2 after the magnification chromatic aberration correction processing to the past image holding buffer 47, the moving object region detection unit 48, and the conversion unit 49, respectively.
  • the past image holding buffer 47 temporarily stores the second image data D2 after the magnification chromatic aberration correction processing input from the magnification chromatic aberration correction processing unit 46.
  • the past image holding buffer 47 has a storage area for storing the second image data D2 for two frames.
  • the new first image data D1 input from the magnification chromatic aberration correction processing unit 46 to the past image holding buffer 47 is overwritten on the oldest second image data D2 in the buffer.
  • the moving object region detection unit 48 corresponds to the change region detection unit of the present invention.
  • the moving object region detection unit 48 includes a moving object in the subject within the second image data D2 newly input from the magnification chromatic aberration correction processing unit 46 (hereinafter simply referred to as “new second image data D2”).
  • a moving object region V2 (see FIG. 7) corresponding to is detected.
  • the detection of the moving object region V2 includes the new second image data D2 and the second image data D2 previously stored in the past image holding buffer 47 by the magnification chromatic aberration correction processing unit 46 (hereinafter simply referred to as “the previous first image data”). 2 and abbreviated as “2 image data D2”).
  • the moving object region detection unit 48 includes the imaging timing “b n ⁇ 1 ” which is the previous time interval A in the new second image data D2 obtained at the imaging timing “b n ” as shown in FIG.
  • the change area having a change when compared with the second image data D2 obtained in the above is detected as the moving body area V2. Therefore, the moving body region V2 corresponds to the change region of the present invention.
  • the “moving object” in this specification is not necessarily limited to a moving object in the subject (monitoring area), and an object that was not present in the subject at the time of acquiring the second image data D2. Is also included.
  • the time interval A is set to be extremely short, even if the new second image data D2 and the previous second image data D2 are compared, the position and shape of the moving object in the subject are clear. Since there is no difference, the moving object region V2 corresponding to the moving object in the subject cannot be detected. Therefore, the time interval A is a time interval that is long enough to recognize the moving object in the subject from the difference between the new second image data D2 and the previous second image data D2, for example, It is set from several tens of seconds to several minutes.
  • FIG. 6 shows an example of a functional block diagram of the moving object region detection unit 48.
  • 7A to 7D are explanatory diagrams for explaining the flow of the detection process of the moving object region V2 by the moving object region detection unit 48.
  • FIG. 7 a description will be given assuming that a moving object that does not exist in the subject when the second image data D2 is acquired appears in the subject when the new second image data D2 is acquired.
  • the moving object region detection unit 48 includes a difference region extraction processing unit 52, a binarization processing unit 53, a median filter processing unit 54, an expansion calculation processing unit 55, and a contraction calculation processing unit 56. ,including.
  • the difference area extraction processing unit 52 performs a difference area extraction process for extracting a difference area between the new second image data D2 and the previous second image data D2.
  • Difference area extraction image data DF indicating the result of the difference area extraction process is generated.
  • the imaging interval between the two pieces of image data (second image data D2) is separated, a change in dark current component and a change in the amount of environmental light over time cause Due to the change in the offset value of the QL (Quantum Level) value, a phenomenon may occur in which the QL value changes greatly even though it is not the moving object region V2.
  • the binarization processing unit 53 performs binarization processing on the difference area extraction image data DF.
  • the luminance value is converted to “1” when the luminance value is equal to or greater than a predetermined threshold value, and conversely, when the luminance value is less than the predetermined threshold value, The luminance value is converted to “0”.
  • the luminance value of the pixel corresponding to the moving object region V2 in the difference region extraction image data DF is converted to “1”
  • the luminance value of the pixel corresponding to the background region V3 in the difference region extraction image data DF is “ Converted to "0".
  • the background area V3 is substantially the same as the non-change area V1 in the first image data D1 described above.
  • the median filter processing unit 54 applies the median filter process to the difference area extraction image data DF after the binarization process so as to be mixed into the difference area extraction image data DF. Remove noise such as dark noise.
  • the expansion calculation processing unit 55 and the contraction calculation processing unit 56 perform a closing process on the difference area extraction image data DF after the median filter process. .
  • the contraction calculation processing unit 56 applies to the differential region extraction image data DF.
  • the shrinkage calculation process is performed (see FIG. 7D).
  • the moving object region detection unit 48 can detect the moving object region V2 in the new second image data D2 based on the position coordinates of each pixel constituting the moving object region V2 in the difference region extraction image data DF. . Then, the moving object region detection unit 48 uses the position coordinates of each pixel constituting the moving object region V2 as a detection result of the moving object region V2 in the new second image data D2 (simply indicated as “V2” in FIG. 5). To the selection unit 50.
  • the non-change area detection unit 42 described above is acquired at a different timing by basically the same method as the moving object area detection unit 48 shown in FIGS. 6 and 7 (here, the background area V3 is detected in reverse).
  • the non-change region V1 (corresponding to the background region V3) in the plurality of first image data D1 is detected, and the detection result is output to the background image data generation unit 43.
  • the conversion unit 49 converts the new second image data D2 input from the magnification chromatic aberration correction processing unit 46 into an RGB image similar to the first image data D1 (background image data DB) described above. Convert to data.
  • the second image data D2 is image data composed only of luminance information (luminance signal) as described above, and has no color information. For this reason, the conversion unit 49 converts the second image data D2 into RGB image data after adding color information to the second image data D2.
  • the conversion unit 49 adds the infrared light moving body color 58 (CbCr specified value), which is predetermined color information, to the new second image data D2 input from the magnification chromatic aberration correction processing unit 46.
  • the second image data D2 is set as YCbCr image data.
  • color information is added to the moving object image data DM (see FIG. 8) in the second image data D2 to be the combined image data D3, and the moving object image data DM in the combined image data D3 can be displayed in color.
  • the infrared light moving body color 58 determines the color of the moving body displayed in the image based on the composite image data D3, and an arbitrary color can be selected.
  • the conversion unit 49 converts the second image data D2, which is YCbCr image data, into RGB image data, and then outputs the RGB image data to the selection unit 50.
  • the selection unit 50 constitutes the composite image data generation unit of the present invention together with the background image data generation unit 43 described above.
  • the selection unit 50 adds the second image to the background image data DB generated by the background image data generation unit 43 in the immediately preceding first imaging mode based on the detection result of the moving object region V2 input from the moving object region detection unit 48.
  • Composite image data D3 is generated by combining the moving object image data DM corresponding to the moving object region V2 in the data D2.
  • FIG. 8 is an explanatory diagram for explaining the generation processing of the composite image data D3 by the selection unit 50.
  • the hatching display in the 2nd image data D2 in FIG. 8 shows that the above-mentioned infrared light moving body color 58 is attached
  • the selection unit 50 determines that the first pixel (for example, the pixel at the lower left corner) of the composite image data D3 is a moving object region based on the detection result of the moving object region V2 input from the moving object region detection unit 48. It is determined whether it belongs to V2 or background region V3. Then, when the first pixel of the composite image data D3 belongs to the background region V3, the selection unit 50 selects the first pixel (pixel at the lower left corner) of each of the background image data DB and the second image data D2. Among them, the first pixel in the background image data DB is selected and output.
  • the selection unit 50 selects the second pixel among the first pixels of the background image data DB and the second image data D2. The first pixel in the image data D2 is selected and output.
  • the selection unit 50 selects the remaining Nth pixel of the composite image data D3 from one of the background image data DB and the second image data D2 based on the detection result of the moving object region V2.
  • the Nth pixel is output.
  • “N” is a number that is equal to or larger than 2 and equal to or smaller than the total number of pixels of the composite image data D3.
  • the pixel of the second image data D2 is selected as the pixel belonging to the moving object region V2
  • the pixel of the background image data DB is selected as the pixel belonging to the background region V3. Is done.
  • combined image data D3 is generated by combining the moving image data DM corresponding to the moving region V2 in the second image data D2 with the background image data DB.
  • the selection part 50 produces
  • the magnification chromatic aberration correction processing by the magnification chromatic aberration correction processing unit 46 and the moving object region detection unit 48 are performed.
  • the moving object region detection process by the conversion unit 49, the conversion process by the conversion unit 49, and the composite image data generation process by the selection unit 50 are executed to generate composite image data D3.
  • the composite image data D3 is output to the input / output interface 32 from the second image processing unit 35B after image processing such as white balance correction and gradation correction is performed by an image processing circuit (not shown).
  • FIG. 9 is a flowchart showing the flow of the imaging process and the image process of the monitoring camera 10 in the first imaging mode.
  • FIG. 10 is a flowchart showing the flow of imaging processing and image processing of the monitoring camera 10 in the second imaging mode.
  • Step S1 the device control unit 34 controls the near-infrared light emitting unit 15 to turn off near-infrared light emission, and controls the filter driving unit 24 to insert the infrared cut filter 25 in the imaging optical path L.
  • the device control unit 34 causes the imaging unit 26 to start imaging a visible light image of the subject (monitoring area) in the first imaging mode.
  • the imaging unit 26 images the subject through the lens unit 12 with the infrared cut filter 25 inserted in the imaging optical path L, and obtains first image data D1 indicating a visible light image of the subject as a color image (step). S3).
  • the imaging unit 26 outputs the first image data D1 to the image processing unit 35 (step S4).
  • the first image data D1 output from the imaging unit 26 is input to the first image processing unit 35A of the image processing unit 35.
  • image processing such as white balance correction and gradation correction is performed on the first image data D1 by an image processing circuit (not shown), and then output to the input / output interface 32.
  • the image-processed first image data D1 is output from the input / output interface 32 to one or both of the computer 60 and the server 80.
  • the image processing for the first image data D1 and the output to the computer 60 and the like are repeatedly executed (NO in step S5).
  • the first image data D1 input from the imaging unit 26 is stored in the buffer of the non-change area detecting unit 42 at every predetermined storage timing (YES in step S5). Then, the imaging unit 26 continues to perform imaging until the detection timing of the non-change region V1 by the non-change region detection unit 42 (NO in step S5 or step S6), so that a plurality of second images acquired at different timings are obtained.
  • One image data D1 is stored in the buffer of the non-change area detector 42.
  • the non-change area detection unit 42 analyzes the plurality of first image data D1 in the buffer based on the method described with reference to FIGS.
  • the change area V1 is detected (YES in step S6, step S7).
  • the non-change region detection unit 42 outputs the detection result of the non-change region V1 to the background image data generation unit 43.
  • the background image data generation unit 43 is an image corresponding to the non-change region V1 from the first image data D1 input from the imaging unit 26. Data is extracted to generate a background image data DB (step S8).
  • the background image data DB is stored in a memory or the like (not shown) by the background image data generation unit 43.
  • step S9 the above-described processing from step S3 to step S8 is repeatedly executed.
  • the first image data D1 is stored in the buffer of the non-change region detection unit 42
  • the non-change region V1 is detected by the non-change region detection unit 42
  • the background image data DB is stored.
  • the imaging process and the image process in the first imaging mode are ended (NO in step S9).
  • ⁇ Second imaging mode> As illustrated in FIG. 10, when the device control unit 34 determines that “daytime” is switched to “nighttime” based on the illuminance detection result of the subject input from the illuminance sensor 27, the device control unit 34 sets the imaging mode of the imaging unit 26 to the first mode. The first imaging mode is switched to the second imaging mode (step S11). At the same time, the device control unit 34 controls the near-infrared light emitting unit 15 to turn on near-infrared light emission, and also controls the filter driving unit 24 to retract the infrared cut filter 25 from the imaging optical path L. (Step S12).
  • the device control unit 34 causes the imaging unit 26 to start capturing an infrared light image of the subject in the second imaging mode.
  • the imaging unit 26 images the subject through the lens unit 12 with the infrared cut filter 25 retracted from the imaging optical path L, and acquires second image data D2 including a near-infrared light image of the subject that is a monochrome image. (Step S13).
  • the imaging unit 26 outputs the second image data D2 to the image processing unit 35 (step S14).
  • the second image data D2 output from the imaging unit 26 is input to the second image processing unit 35B in the image processing unit 35.
  • the magnification chromatic aberration correction processing unit 46 of the second image processing unit 35B performs magnification chromatic aberration correction processing on the second image data D2 input from the imaging unit 26 (step S15).
  • the chromatic aberration (magnification chromatic aberration) of visible light and near-infrared light is corrected, and the size (image size) of the background image data DB and the second image data D2 can be matched. Generation of the image data D3 is prevented.
  • the magnification chromatic aberration correction processing by the magnification chromatic aberration correction processing unit 46 is a software process, and is performed without adding hardware such as providing a phase modulation element in the imaging optical path as described in Patent Document 2 above. Can do. As a result, an increase in the size of the surveillance camera 10 and an increase in the number of parts can be suppressed.
  • the magnification chromatic aberration correction processing unit 46 of the present embodiment performs the magnification chromatic aberration correction processing on the entire second image data D2, but for example, the moving object by the moving object region detection unit 48 before the magnification chromatic aberration correction processing.
  • the region V2 may be detected first, and the magnification chromatic aberration correction process may be performed on the moving object region V2 in the second image data D2 based on the detection result. That is, the magnification chromatic aberration correction processing unit 46 may perform the magnification chromatic aberration correction processing on at least the moving object region V2 in the second image data D2.
  • the magnification chromatic aberration correction processing unit 46 outputs the second image data D2 after the magnification chromatic aberration correction processing to the past image holding buffer 47, the moving object region detection unit 48, and the conversion unit 49, respectively.
  • new second image data D2 is stored in the past image holding buffer 47 (step S16).
  • Second image data D2 "is stored.
  • the moving object region detection unit 48 can detect the moving object region V2. In the following description, it is assumed that the “previous second image data D2” is stored in the past image holding buffer 47.
  • the moving object region detection unit 48 starts detection of the moving object region V2 when new second image data D2 is input from the magnification chromatic aberration correction processing unit 46. As described above with reference to FIGS. 6 and 7, the moving object region detection unit 48 compares the new second image data D2 with the previous second image data D2 in the past image holding buffer 47, and performs a new operation. A moving object region V2 in the second image data D2 is detected (step S17, corresponding to the change region detecting step of the present invention). Then, the moving object region detection unit 48 outputs the detection result of the moving object region V2 to the selection unit 50.
  • the conversion unit 49 adds color information based on the infrared light moving body color 58 (CbCr specified value) to the new second image data D2 input from the magnification chromatic aberration correction processing unit 46, thereby generating the second image data.
  • D2 is converted into YCbCr image data, it is converted into RGB image data (step S18).
  • the conversion unit 49 outputs the second image data D2 converted into RGB image data to the selection unit 50.
  • the selection unit 50 reads the background image data DB generated by the background image data generation unit 43 in the first imaging mode immediately before the switching to the second imaging mode from the above-described memory or the like. Then, as described above with reference to FIG. 8, the selection unit 50 performs the second input from the conversion unit 49 to the background image data DB based on the detection result of the moving body region V ⁇ b> 2 input from the moving body region detection unit 48.
  • the moving object image data DM corresponding to the moving object region V2 in the image data D2 is synthesized. Thereby, the composite image data D3 is generated (step S19, corresponding to the composite image data generation step of the present invention).
  • Such composite image data D3 includes color information (color information) of the first image data D1 which is a color image acquired in the daytime with respect to a portion corresponding to the background region V3 in the second image data D2. It can be said that the image data is colored by applying.
  • color information color information of the first image data D1 which is a color image acquired in the daytime with respect to a portion corresponding to the background region V3 in the second image data D2.
  • the composite image data D3 is output from the second image processing unit 35B to the input / output interface 32 after image processing such as white balance correction and gradation correction is performed by an image processing circuit (not shown). Then, the processed composite image data D3 is output from the input / output interface 32 to one or both of the computer 60 and the server 80.
  • step S13 to step S19 the processing from step S13 to step S19 described above is repeatedly executed for each time interval A, and the composite image data D3 is repeatedly generated in the second image processing unit 35B. . (YES in step S20, step S21). Then, when the imaging mode of the imaging unit 26 is switched from the second imaging mode to the first imaging mode, the imaging process and the image process in the second imaging mode are ended (NO in step S20).
  • the imaging process and image processing in the first imaging mode and the imaging process and image processing in the second imaging mode are alternately performed according to switching between “daytime” and “nighttime”. Repeatedly executed.
  • the surveillance camera 10 of the first embodiment uses the background image data DB generated based on the first image data D1 of the color image acquired in the first imaging mode in the daytime, and uses the background image data DB at night. Since the composite image data D3 is generated in the second imaging mode, the background area of the second image data D2 of the monochrome image acquired in the second imaging mode at night can be displayed in color. As a result, it is possible to make the near-infrared light image obtained by night-time imaging easier to see while suppressing an increase in size and an increase in the number of parts such as providing two types of imaging units as described in Patent Document 1 described above.
  • the background image data DB is not affected by the above-described chromatic aberration (magnification chromatic aberration). Further, complicated image processing or the like is not necessary for generating the background image data DB, and the load on the system of the monitoring camera 10 is reduced.
  • the surveillance camera 90 according to the second embodiment of the present invention will be described.
  • the first image data D1 of the visible light image is used as it is as the background image data DB in the composite image data D3.
  • the surveillance camera 90 generates the background image data DB in the composite image data D3 using the color information of the first image data D1 and the luminance information of the second image data D2.
  • FIG. 11 is a functional block diagram of the image processing unit 91 constituting the surveillance camera 90 of the second embodiment.
  • the monitoring camera 90 is basically the same as the monitoring camera 10 of the first embodiment, except that the monitoring camera 90 includes an image processing unit 91 different from the image processing unit 35 of the first embodiment. It is a configuration. Accordingly, the same functions and configurations as those in the first embodiment are denoted by the same reference numerals, and the description thereof is omitted.
  • the image processing unit 91 functions as the first image processing unit 91A in the first imaging mode and executes the second imaging mode in the second imaging mode by executing the image processing program 37B read from the storage unit 36. Functions as the image processing unit 91B. As in the first embodiment, the first image processing unit 91A and the second image processing unit 91B may be integrated.
  • the first image processing unit 91A performs image processing on the first image data D1 input from the imaging unit 26, and outputs the first image data D1 after the image processing to the input / output interface 32. This is basically the same as the first image processing unit 35A of the first embodiment. However, unlike the first image processing unit 35A of the first embodiment, the first image processing unit 91A extracts color information (CbCr) from the non-change region V1 of the first image data D1.
  • the first image processing unit 91A functions as the first conversion unit 93, the above-described non-change area detection unit 42, and the color information extraction unit 94.
  • the first conversion unit 93 converts the first image data D1 that is RGB image data input from the imaging unit 26 in the first imaging mode into YCbCr image data, and converts the converted first image data D1 into non-conversion. This is output to the change area detection unit 42.
  • the non-change region detection unit 42 detects the non-change region V1 in the plurality of first image data D1 acquired at different timings by the imaging unit 26, and this non-change The detection result of the region V1 is output to the color information extraction unit 94.
  • the color information extraction unit 94 is based on the detection result of the non-change region V1 input from the non-change region detection unit 42 and the first image data D1 acquired by the imaging unit 26, and the first image data D1.
  • Color information 96 (CbCr) is extracted from the non-change region V1.
  • the color information extraction unit 94 stores the color information 96 of the non-change area V1 in a memory or the like (not shown). Thereafter, the color information extraction unit 94 extracts new color information 96 every time the detection result of the non-change region V1 is input from the non-change region detection unit 42, and updates the color information 96 stored in the memory or the like. To do.
  • the second image processing unit 91B is the same as the second image processing unit 35B of the first embodiment in that it generates the composite image data D3. However, the second image processing unit 91B uses the background information data DB in the composite image data D3 based on the luminance information extracted from the second image data D2 and the color information 96 obtained in the immediately preceding first imaging mode. Is generated.
  • the second image processing unit 91B includes the magnification chromatic aberration correction processing unit 46, the past image holding buffer 47, the moving object region detection unit 48, the selection unit 100, the luminance information extraction unit 101, and the second conversion unit 102. Function.
  • the magnification chromatic aberration correction processing unit 46 performs the magnification chromatic aberration correction processing on the second image data D2 input from the imaging unit 26 at every time interval A, and the second image data D2 after the magnification chromatic aberration correction processing is obtained.
  • the data is output to the past image holding buffer 47, the moving object region detection unit 48, and the luminance information extraction unit 101, respectively.
  • the moving object region detection unit 48 detects the moving object region V2 in the new second image data D2 input from the magnification chromatic aberration correction processing unit 46 (see FIGS. 6 and 7). The detection result of the moving object region V2 is output to the selection unit 100.
  • the selection unit 100 Based on the detection result of the moving object region V2 input from the moving object region detection unit 48, the selection unit 100 adds the moving object region V2 to the color information 96 (CbCr) of the non-change region V1 obtained in the immediately preceding first imaging mode. Is combined to generate color information combined data DC (CbCr) indicating the color information of the combined image data D3.
  • FIG. 12 is an explanatory diagram for explaining the generation process of the color information composite data DC by the selection unit 100.
  • the selection unit 100 determines that the first pixel (for example, the pixel at the lower left corner) of the color information composite data DC is the moving object region V2 and the background region V3 based on the detection result of the moving object region V2. It is determined to which one it belongs. Then, when the first pixel of the color information composite data DC belongs to the background region V3, the selection unit 100 selects color information from among the infrared light moving body color 58 that is color information indicating the color information 96 and the moving body region V2. The color information (CbCr) corresponding to the first pixel (pixel in the lower left corner) included in 96 is selected and output.
  • CbCr color information
  • the selection unit 100 selects the color information (CbCr) of the infrared light moving body color 58 out of the color information 96 and the infrared light moving body color 58. Select (standard value) and output.
  • the selection unit 100 selects the remaining Nth pixel of the color information composite data DC from one of the color information 96 and the infrared light moving body color 58 based on the detection result of the moving body region V2. Output color information.
  • the color information 96 is selected as the color information of the pixel belonging to the background area V3
  • the infrared light moving body color 58 is selected as the color information of the pixel belonging to the moving body area V2. Color information is selected.
  • color information combined data DC is generated by combining the color information 96 of the non-change region V1 corresponding to the background region V3 with the color information of the infrared light moving body color 58 which is color information indicating the moving body region V2. The Then, the selection unit 100 outputs the color information composite data DC to the second conversion unit 102.
  • the luminance information extraction unit 101 extracts luminance information for each pixel from the new second image data D2 input from the magnification chromatic aberration correction processing unit 46, and luminance information data DY as the extraction result. Is output to the second converter 102.
  • the luminance information data DY is real-time luminance information acquired by imaging in the second imaging mode.
  • the second conversion unit 102 constitutes the composite image data generation unit (composite image data generation unit) of the present invention together with the color information extraction unit 94 and the selection unit 100 described above.
  • the second conversion unit 102 generates composite image data D3 that is RGB image data based on the color information composite data DC input from the selection unit 100 and the luminance information data DY input from the luminance information extraction unit 101. .
  • the second conversion unit 102 generates composite image data D3 that is YCbCr image data based on the color information composite data DC (CbCr) indicating the color information of the composite image data D3 and the real-time luminance information data DY. To do. That is, the second conversion unit 102 interpolates the luminance information of the color information combined data DC configured only by the color information with the luminance information data DY obtained in real time, thereby obtaining the luminance information and color information for each pixel.
  • the combined image data D3 (YCbCr image data) is generated.
  • the color information 96 obtained in the immediately preceding first imaging mode and the luminance information data DY in the background region V3 of the second image data D2 are included in the composite image data D3.
  • a background image data DB is generated.
  • the moving body image data DM in the composite image data D3 is generated based on the color information of the infrared light moving body color 58 and the luminance information data DY in the moving body region V2 of the second image data D2. To do. Thereby, the composite image data D3 (YCbCr image data) is generated.
  • the second conversion unit 102 converts the composite image data D3, which is YCbCr image data, into RGB image data. Similar to the first embodiment, the composite image data D3 that is RGB image data is subjected to image processing such as white balance correction and gradation correction by an image processing circuit (not shown), and then from the second image processing unit 35B. The data is output to the input / output interface 32.
  • FIG. 13 is a flowchart illustrating the flow of the imaging process and the image process of the monitoring camera 90 in the first imaging mode.
  • FIG. 14 is a flowchart showing the flow of imaging processing and image processing of the monitoring camera 90 in the second imaging mode.
  • step S31 to step S34 the process flow from step S31 to step S34 is basically the same as that of the first embodiment (step S1 to step S4) shown in FIG. To do.
  • the imaging unit 26 outputs the first image data D ⁇ b> 1 to the image processing unit 35.
  • the first image data D1 output from the imaging unit 26 is input to the first image processing unit 35A of the image processing unit 35, and image processing such as white balance correction and gradation correction is performed by an image processing circuit (not shown). Is output to the input / output interface 32.
  • the first image data D1 input from the imaging unit 26 is converted from RGB image data to YCbCr image data by the first conversion unit 93 at each predetermined storage timing, and then non-change region detection is performed. It is stored in the buffer of the unit 42 (YES in step S35, step S36). Then, the imaging unit 26 continues to capture images until the non-change region V1 is detected by the non-change region detection unit 42 (NO in step S35 or step S37). As a result, a plurality of first image data D1 (YCbCr image data) acquired at different timings are stored in the buffer of the non-change area detection unit 42.
  • the non-change area detection unit 42 analyzes the plurality of first image data D1 in the buffer based on the method described with reference to FIGS.
  • the change area V1 is detected (YES in step S37, step S38).
  • the non-change region detection unit 42 outputs the detection result of the non-change region V1 to the color information extraction unit 94.
  • the color information extraction unit 94 is based on the detection result of the non-change region V1 input from the non-change region detection unit 42, and the color information 96 from the non-change region V1 in the first image data D1 input from the imaging unit 26. (CbCr) is extracted (step S39).
  • the color information 96 is stored in a memory (not shown) or the like by the color information extraction unit 94.
  • step S40 the above-described processing from step S33 to step S39 is repeatedly executed.
  • the first image data D1 is stored in the buffer of the non-change area detector 42
  • the non-change area V1 is detected by the non-change area detector 42
  • the color information 96 is extracted by the color information extractor 94.
  • the imaging mode of the imaging unit 26 is switched from the first imaging mode to the second imaging mode, the imaging process and the image process in the first imaging mode are ended (NO in step S40). .
  • step S41 to step S47 the process flow from step S41 to step S47 is basically the same as that of the first embodiment (step S11 to step S17) shown in FIG. To do.
  • new second image data D2 after the magnification chromatic aberration correction processing by the magnification chromatic aberration correction processing unit 46 is transferred to the past image holding buffer 47, moving object region detection unit 48, and luminance information extraction unit 101.
  • the moving object region detection unit 48 detects the moving object region V2 in the new second image data D2 (corresponding to the change region detecting step of the present invention), and is selected from the moving object region detection unit 48.
  • the detection result of the moving object region V2 is output to the unit 100.
  • the selection unit 100 switches to the second imaging mode, the color information 96 (CbCr) of the non-change region V1 extracted by the color information extraction unit 94 in the immediately preceding first imaging mode is obtained from the above-described memory or the like. read out.
  • the selection unit 100 adds the moving object region to the color information 96 (CbCr) of the non-change region V1 based on the detection result of the moving object region V2 input from the moving object region detection unit 48.
  • the color information of the infrared light moving body color 58 indicating V2 is synthesized.
  • the color information composite data DC (CbCr) is generated (step S48).
  • the selection unit 100 outputs the color information composite data DC to the second conversion unit 102.
  • the luminance information extraction unit 101 extracts luminance information for each pixel from the new second image data D2 input from the magnification chromatic aberration correction processing unit 46, and outputs the luminance information data DY to the second conversion unit 102. (Step S49).
  • the second conversion unit 102 generates composite image data D3 that is YCbCr image data based on the color information composite data DC indicating the color information of the composite image data D3 and the real-time luminance information data DY.
  • the second conversion unit 102 converts the composite image data D3 that is YCbCr image data into RGB image data.
  • composite image data D3 which is RGB image data is generated (step S50, step S51, corresponding to the composite image data generation step of the present invention).
  • the composite image data D3 is subjected to image processing such as white balance correction and gradation correction by an image processing circuit (not shown), and is then input from the second image processing unit 35B to the input / output interface 32. Is output.
  • step S43 the processing from step S43 to step S51 described above is repeatedly executed every time interval A, and the composite image data D3 is repeatedly generated in the second image processing unit 91B. . (YES in step S52, step S53). Then, when the imaging mode of the imaging unit 26 is switched to the first imaging mode, the imaging process and the image process in the second imaging mode are ended (NO in step S52).
  • the imaging process and image processing in the first imaging mode and the imaging process and image processing in the second imaging mode are alternately performed according to switching between “daytime” and “nighttime”. Repeatedly executed.
  • the background image data DB in the composite image data D3 is obtained.
  • the actual light and dark can be reproduced. For example, a change in brightness from daytime to nighttime or a state illuminated by near infrared light (auxiliary light) from the near infrared light emitting unit 15 can be reproduced.
  • Image data D3) is obtained.
  • FIG. 15 is a functional block diagram of the image processing unit 121 included in the monitoring camera 120 according to the third embodiment of this invention.
  • the magnification chromatic aberration correction process is performed on the second image data D2 in order to correct the chromatic aberration (magnification chromatic aberration) of visible light and near infrared light.
  • the above-mentioned chromatic aberration is corrected by performing a sharpening process on the image data D2.
  • the image processing unit 121 of the monitoring camera 120 is the first embodiment except that the second image processing unit 35Bs has a sharpening processing unit 123 instead of the magnification chromatic aberration correction processing unit 46.
  • This is basically the same configuration as the surveillance camera 10. For this reason, the same reference numerals are given to the same functions and configurations as those in the first embodiment, and the description thereof is omitted.
  • the sharpening processing unit 123 performs a sharpening process on the second image data D2 input from the imaging unit 26 at every time interval A (see FIG. 4) in the second imaging mode.
  • the sharpening process is, for example, performing edge enhancement of an image based on the second image data D2 by a filter process (convolution operation) using a sharpening filter such as a Laplacian filter.
  • the phase of the second image data D2 can be shifted by appropriately adjusting the filter coefficient of the sharpening filter. That is, even when the sharpening process is performed, the pixel position of each pixel of the second image data D2 can be shifted as in the case where the magnification chromatic aberration correction process is performed, and the visible light and the near infrared light can be shifted. Chromatic aberration (magnification chromatic aberration) can be corrected.
  • the filter coefficient of the sharpening filter used for the sharpening process of the sharpening processing unit 123 is determined in advance according to the type of the optical system (the lens 16, the diaphragm 17, the infrared cut filter 25, etc.) of the monitoring camera 120. The filter coefficient is used.
  • the sharpening processing unit 123 outputs the second image data D2 after the sharpening processing to the past image holding buffer 47, the moving object region detection unit 48, and the conversion unit 49, respectively. Subsequent processing is basically the same as that in the first embodiment, and a description thereof will be omitted.
  • the sharpening processing unit 123 of the third embodiment performs the sharpening process on the entire second image data D2. For example, the moving object region V2 by the moving object region detection unit 48 is performed before the sharpening process. May be detected first, and the sharpening process may be performed on the moving object region V2 in the second image data D2 based on the detection result. That is, the sharpening processing unit 123 may perform the sharpening process on at least the moving object region V2 in the second image data D2.
  • magnification chromatic aberration correction processing unit 46 of the monitoring camera 10 of the first embodiment is replaced with the sharpening processing unit 123
  • the monitoring camera of the second embodiment described above.
  • the 90 magnification chromatic aberration correction processing unit 46 may be replaced with a sharpening processing unit 123.
  • FIG. 16 is a functional block diagram of the image processing unit 131 included in the monitoring camera 130 according to the fourth embodiment of the present invention.
  • the magnification chromatic aberration correction process is performed on the second image data D2 in order to correct chromatic aberration (magnification chromatic aberration) of visible light and near infrared light.
  • the surveillance camera 130 corrects the chromatic aberration (magnification chromatic aberration) by performing point image restoration processing on the first image data D1 and the second image data D2.
  • optical characteristics indicating deterioration due to aberrations of the optical system of the monitoring camera 130 are obtained in advance, and a captured image (deteriorated image) is generated based on the above-described optical characteristics.
  • This is a process for restoring an image with a high resolution by performing a restoration process using a restoration filter.
  • the image processing unit 131 of the surveillance camera 130 functions as the first image processing unit 35Af in the first imaging mode, and functions as the second image processing unit 35Bf in the second imaging mode. .
  • the first image processing unit 35Af is the first image processing unit 35A of the first embodiment except that the first image processing unit 35Af has a point image restoration processing unit 133A corresponding to the second point image restoration processing unit of the present invention. And basically the same configuration.
  • the second image processing unit 35Bs is the first embodiment except that it has a point image restoration processing unit 133B corresponding to the first point image restoration processing unit of the present invention instead of the magnification chromatic aberration correction processing unit 46.
  • the configuration is basically the same as that of the second image processing unit 35B. For this reason, the same reference numerals are given to the same functions and configurations as those in the first embodiment, and the description thereof is omitted.
  • the point image restoration processing unit 133A performs imaging in the first imaging mode using three types of R, G, and B restoration filters F R , F G , and F B described later stored in the storage unit 36 described above.
  • a point image restoration process is performed on the first image data D1 input from the unit 26.
  • the point image restoration processing unit 133B by using the infrared restoration filter F IR later stored in the storage unit 36, the second image data D2 inputted from the image pickup unit 26 in the second imaging mode
  • a point image restoration process is performed.
  • FIG. 17 is an explanatory diagram for explaining the point image restoration processing by the point image restoration processing unit 133A in the first imaging mode.
  • FIG. 17 shows a case where a point image is captured as a subject for easy understanding (the same applies to FIG. 19 described later).
  • a visible light image of the subject is captured through the optical system of the monitoring camera 130 (such as the lens 16, the diaphragm 17, and the infrared cut filter 25).
  • the image is captured by the unit 26, and the first image data D ⁇ b> 1 is output from the imaging unit 26.
  • the amplitude component and the phase component deteriorate due to the point spread phenomenon based on the optical characteristics of the optical system of the monitoring camera 130 with respect to visible light, and the original subject image (point image) is astigmatic. Blurry image.
  • R image data, G image data, and B image data are simply abbreviated as “R, G, B image data”.
  • the optical characteristics of the optical system of the monitoring camera 130 with respect to visible light are respectively for R light, G light, and B light.
  • point spread function for each color PSF: point spread function
  • K R, K G, and K B correspond to the second point spread function of the present invention.
  • an optical transfer function may be obtained in advance.
  • PSF and OTF are in a Fourier transform relationship, where PSF is a real function and OTF is a complex function.
  • information having equivalent information there are a modulation transfer function or an amplitude transfer function (MTF: Modulation Transfer Function) and a phase transfer function (PTF: Phase Transfer Function), which respectively indicate an amplitude component and a phase component of the OTF. .
  • MTF and PTF are combined to have an information amount equivalent to OTF or PSF.
  • the point spread functions K R , K G , and K B are obtained in advance and input to the restoration filter generation unit 135.
  • the restoration filter generation unit 135 for example, an arithmetic device such as a computer is used.
  • This restoration filter generation unit 135 is based on the point spread functions K R , K G , and K B (PSF), and uses the R, G, and B restoration filters F R , G used in the point image restoration processing by the point image restoration processing unit 133A. F G and F B are generated.
  • a convolution-type Wiener filter can be used as a restoration filter used for restoration of a blurred image by PSF.
  • the frequency characteristic d ( ⁇ x , ⁇ y ) can be calculated.
  • H ( ⁇ x , ⁇ y ) represents OTF
  • H * ( ⁇ x , ⁇ y ) represents its complex conjugate
  • SNR ( ⁇ x , ⁇ y ) represents a signal-to-noise ratio (SN ratio).
  • the design of the filter coefficient of the restoration filter is an optimization problem in which the coefficient value is selected so that the frequency characteristic of the filter is closest to the desired Wiener frequency characteristic, and the filter coefficient is appropriately calculated by any known method. .
  • R, G, B for restoration filter F R, F G, F B from the optical system point spread information of the monitoring camera 130 in accordance with the imaging conditions during acquisition of the first image data D1 (PSF) Obtained by a predetermined amplitude restoration and phase correction filter calculation algorithm.
  • the point image information of the optical system may fluctuate not only according to the type of the lens 16 but also according to various imaging conditions such as the aperture amount, focal length, zoom amount, image height, number of recording pixels, pixel pitch, and the like. Therefore, when the restoration filter generation unit 135 generates (calculates) the R, G, and B restoration filters F R , F G , and F B , these imaging conditions are acquired.
  • Restoration filter generation unit 135 outputs the generated R, G, B for restoration filter F R, F G, and stores the F B in the storage unit 36 described above.
  • R, G, B for restoration filter F R, F G, F B is a filter in the real space defined by the tap, for example ⁇ ⁇ ⁇ ( ⁇ and beta is an integer of 2 or more), to be processed first This is applied to the R, G, B image data of one image data D1. As a result, a weighted average calculation (deconvolution calculation) is performed on the filter coefficient assigned to each tap and the corresponding pixel data (processing target pixel data of R, G, B image data and adjacent pixel data), thereby performing post-recovery processing. The pixel data can be calculated.
  • the point image restoration process can be performed.
  • FIG. 18 is an explanatory diagram for explaining phase correction and amplitude correction in the point image restoration processing.
  • the point image restoration process can be roughly divided into “phase correction” (also referred to as “phase restoration”) and “amplitude correction” (also referred to as “amplitude restoration”).
  • Phase correction is a restoration process of the phase component of the G, B for restoration filter F R, F G, of the first image data D1 using the F B R, G, B image data.
  • the “phase correction” includes the restoration of the phase shift of the R, G, B image data and the phase component caused by the shape of the astigmatic point spread function K R , K G , K B (PSF).
  • PSF shape of the astigmatic point spread function
  • the restoration of the phase component due to the shape of the point spread function that is asymmetric with respect to the point is to correct the point spread with a point spread that is asymmetric with respect to the point.
  • Amplitude correction is a restoration process of the amplitude component (MTF) of the first image data D1.
  • MTF amplitude component
  • the point spread shape can be corrected to a point (delta function).
  • the point image restoration processing unit 133 ⁇ / b> A performs amplitude restoration and phase correction on the R, G, and B image data of the original image data (first image data D ⁇ b> 1) input from the imaging unit 26.
  • recovered image data (first image data D1) representing an image (recovered image) closer to the original subject image (point image) is obtained.
  • FIG. 19 is an explanatory diagram for describing point image restoration processing by the point image restoration processing unit 133B in the second imaging mode.
  • the near-infrared light image of the subject is captured by the imaging unit 26 through the optical system (lens 16, aperture 17, etc.) of the monitoring camera 130.
  • the image is captured, and second image data D2 is output from the imaging unit 26.
  • the amplitude component and the phase component deteriorate due to the point spread phenomenon based on the optical characteristics of the optical system of the monitoring camera 130 with respect to near infrared light, and the original subject image (point image) is astigmatic. Symmetric blurred image.
  • a point spread function for near infrared light (corresponding to the first optical characteristic of the present invention) of the optical system of the monitoring camera 130 for near infrared light ( PSF: obtained in advance the Point spread function) K IR.
  • Function K IR spread this point corresponds to the first point spread function of the present invention.
  • a point spread function K IR (PSF) corresponding to near-infrared light is obtained in advance and is input to the restoration filter generation unit 135 described above.
  • the restoration filter generation unit 135 generates an infrared restoration filter F IR used in the point image restoration process by the point image restoration processing unit 133B based on the point spread function K IR (PSF) corresponding to near infrared light.
  • the infrared restoration filter FIR is obtained by a predetermined amplitude restoration and phase correction filter calculation algorithm from point image information (PSF) of the optical system of the monitoring camera 130 according to the imaging conditions at the time of acquisition of the second image data D2. It is done.
  • the restoration filter generation unit 135 stores the generated infrared restoration filter FIR in the storage unit 36 described above.
  • Point image restoration processing unit 133B to the original image data input from the imaging unit 26 (the second image data D2), amplitude recovery and point image reconstruction using infrared reconstruction filter F IR for phase correction Process.
  • the point image restoration processing by the point image restoration processing unit 133B and restoring the amplitude component of the second image data D2 (amplitude correction), the phase component due to the shape of the non-point-symmetric point spread function K IR Restoration (phase correction) is performed.
  • recovered image data (second image data D2) representing an image (recovered image) closer to the original subject image (point image) is obtained.
  • the amplitude components of the first image data D1 and the second image data D2 are obtained by the point image restoration processing by the point image restoration processing unit 133A and the point image restoration processing unit 133B. And phase component are restored, the same effect as when the above-described magnification chromatic aberration correction processing is performed, and the chromatic aberration (magnification chromatic aberration) of visible light and near infrared light can be corrected. .
  • the point image restoration process is performed on both the first image data D1 and the second image data D2, but the point image restoration process may be performed only on the second image data D2. Good.
  • the point image restoration process is performed on the entire second image data D2.
  • the moving object region V2 is detected before the point image restoration process, and the detection result is displayed. Based on this, point image restoration processing may be performed on the moving object region V2 in the second image data D2. That is, the point image restoration processing unit 133B may perform point image restoration processing on at least the moving object region V2 in the second image data D2.
  • the present invention can also be applied to an embodiment in which point image restoration processing is performed instead of lateral chromatic aberration correction processing.
  • two point image restoration processing units 133A and 133B are provided, but the first image data D1 and the second image data are provided by one point image restoration processing unit. You may perform the point image restoration process with respect to D2.
  • a monitoring camera that performs so-called fixed-point observation has been described as an example.
  • the present invention is also applied to a monitoring camera that has a pan-tilt function and can capture a plurality of subjects (a wide range of monitoring areas). Can be applied.
  • the first image processing unit functions as the non-change region detection unit 42, but the non-change region detection unit 42 may be omitted.
  • the chromatic aberration (magnification chromatic aberration) of visible light and near infrared light is corrected by the magnification chromatic aberration correction process, the sharpening process, or the point image restoration process. If there is no restriction, chromatic aberration (magnification chromatic aberration) can be suppressed to some extent. Therefore, in this case, correction of chromatic aberration (magnification chromatic aberration) may be omitted.
  • the monitoring camera has been described as an example of the imaging apparatus of the present invention installed at a fixed position.
  • the imaging apparatus of the present invention is installed at a fixed position and has a specific subject (monitoring).
  • Various image pickup devices such as a commercially available digital camera and a smartphone that image (region) are included.
  • the second image data D2 is acquired by the imaging unit 26 including an imaging device having RGB pixels.
  • the imaging unit 26 including an imaging device having RGB pixels.
  • near-infrared light pixels are included.
  • the second image data D2 may be acquired by an imaging unit including an imaging element.
  • a program (such as the above-described image processing program 37B) for causing the computer of the imaging apparatus to function is a CD-ROM, a magnetic disk, or other computer-readable medium (tangible object).
  • the program can be provided through the information storage medium. Instead of providing the program by storing the program in such an information storage medium, it is also possible to provide the program signal as a download service using a communication network such as the Internet.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Toxicology (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Studio Devices (AREA)
  • Blocking Light For Cameras (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本発明は、大型化及び部品点数の増加を抑えつつ、第2の撮像モード時の撮像により得られる近赤外光画像を見易くすることができる撮像装置及び撮像装置の画像処理方法及びプログラムを提供する。本発明の一態様において、撮像部が第2の撮像モードで動作している場合に、撮像部が取得した第2の画像データ内で、第2の画像データの前に撮像部が取得した第2の画像データと比較して変化がある変化領域を検出する。変化領域の検出結果に基づき、第2の画像データ内の変化領域に対応する変化領域画像データに、撮像部により第2の撮像モードの直前の第1の撮像モードで取得された第1の画像データに基づき生成され且つ第2の画像データ内の変化領域とは異なる背景領域に対応するカラー画像の背景画像データを合成した合成画像データを生成する。

Description

撮像装置及び撮像装置の画像処理方法及びプログラム
 本発明は、固定位置に設置され、昼夜を問わずに被写体の撮像を行う撮像装置、及びこの撮像装置の画像処理方法、及びプログラムに関する。
 近年、公共施設及び商業施設及び住居などにおいて固定位置(定点)に設置され、昼夜を問わずに被写体の撮像を行う監視カメラ(撮像装置)が広く用いられている。このような昼夜兼用(デイナイト機能ともいう)の監視カメラでは、昼間(日中)は被写体の可視光画像を撮像し、夜間は被写体の近赤外光画像を撮像するのが通常である。
 特許文献1には、被写体の可視光画像を撮像する可視光カメラと、被写体の熱画像を撮像する赤外線カメラとを備えるハイブリットカメラが記載されている。この特許文献1のハイブリットカメラを上述の監視カメラに適用して、2種類の撮像部を監視カメラに設けることにより、昼間の可視光画像の撮像と夜間の近赤外光画像の撮像とが可能になる。
 また、特許文献1のハイブリットカメラは、可視光画像の画像データに基づき被写体の背景領域に対応する背景画像データを生成すると共に、熱画像の画像データに基づき被写体内の動体に対応する動体画像データを生成して、背景画像データに動体画像データを合成することで合成画像データを生成する。このように、可視光画像に基づく背景画像に、熱画像に基づく動体画像を重ね合わせることにより、見易い画像を提供することができる。
 特許文献2には、赤外線カットフィルタが撮像光路に挿入された光学系を通して被写体の可視光画像を撮像し、且つ赤外線カットフィルタが撮像光路から退避された光学系を通して被写体の近赤外光画像を撮像する撮像装置が記載されている。この特許文献2の撮像装置を上述の昼夜兼用の監視カメラに適用することにより、昼間の可視光画像の撮像と夜間の近赤外光画像の撮像とが可能になる。
 この際に、赤外線カットフィルタの有無によって、光路長が変化するために焦点距離も大きく変化して画像ボケが生じるおそれがある。そこで、特許文献2に記載の撮像装置では、前述の撮像光路に位相変調素子を設けることにより、画像ボケの発生を抑えている。
特開2009-010675号公報 特開2011-128238号公報
 ところで、監視カメラの夜間の撮像で得られる近赤外光画像は、モノクロ画像(白黒画像)であるため、昼間の撮像で得られる可視光画像と比較して見難くなるという問題が生じる。このため、前述の特許文献1に記載の技術を監視カメラに適用して、可視光画像データから生成した背景画像データに、近赤外光画像データから生成した動体画像データを合成して合成画像データを生成することで、近赤外光画像を見易くすることは可能である。しかしながら、この場合には可視光画像の撮像と近赤外光画像の撮像とを同時に行う必要がある。すなわち、監視カメラに、可視光画像の撮像用及び近赤外光画像の撮像用の2種類の撮像部を設ける必要がある。その結果、監視カメラの大型化及び部品点数が増加するという問題が生じる。
 また、前述の特許文献1に記載の技術を監視カメラに適用する場合には、低照度下の夜間における可視光画像の撮像を高感度カメラで行う必要があるが、この場合には可視光画像中のノイズが増加するという問題が生じる。
 特許文献2には、撮像光路に位相変調素子を設けて赤外線カットフィルタの有無に起因する画像ボケの発生を抑えることが記載されているものの、特許文献1のように合成画像データを生成することについての記載又は示唆はなされていない。このため、特許文献2の撮像装置では、夜間の撮像により得られるモノクロ画像の近赤外光画像が、昼間の撮像により得られる可視光画像と比較して見難いという問題は解決されていない。さらに、特許文献2の撮像装置では、撮像光路に位相変調素子を設ける必要があるため、監視カメラの大型化及び部品点数が増加するという問題が生じる。
 本発明はこのような事情に鑑みてなされたものであり、大型化及び部品点数の増加を抑えつつ、近赤外光画像を見易くすることができる撮像装置及び撮像装置の画像処理方法及びプログラムを提供することを目的とする。
 本発明の目的を達成するための撮像装置は、固定位置に設置された撮像装置において、赤外線カットフィルタが撮像光路に挿入され、又は撮像光路から退避可能な光学系と、赤外線カットフィルタが撮像光路に挿入された光学系を通して被写体を撮像し、被写体の可視光画像であってカラー画像である可視光画像を示す第1の画像データを取得する第1の撮像モードと、赤外線カットフィルタが撮像光路から退避された光学系を通して被写体を撮像し、被写体の近赤外光画像であってモノクロ画像である近赤外光画像を含む第2の画像データを取得する第2の撮像モードとを有する撮像部と、第1の撮像モードと第2の撮像モードとを交互に切り替える撮像モード切替部と、撮像部が第2の撮像モードで動作している場合に、撮像部が取得した第2の画像データ内で、第2の画像データの前に撮像部が取得した第2の画像データと比較して変化がある変化領域を検出する変化領域検出部と、変化領域検出部の検出結果に基づき、第2の画像データ内の変化領域に対応する変化領域画像データに、撮像部により第2の撮像モードの直前の第1の撮像モードで取得された第1の画像データに基づき生成され且つ第2の画像データ内の変化領域とは異なる背景領域に対応するカラー画像の背景画像データを合成した合成画像データを生成する合成画像データ生成部と、を備える。
 本発明によれば、第1の撮像モードで取得された可視光画像(カラー画像)を示す第1の画像データに基づき、第2の撮像モードで取得された近赤外光画像(モノクロ画像)を含む第2の画像データの背景領域をカラー表示することができる。
 本発明の他の態様に係る撮像装置において、合成画像データ生成部は、第1の画像データ内の背景領域に対応する領域から抽出した色情報と、第2の画像データの背景領域における輝度情報とに基づき、背景画像データを生成する。これにより、輝度情報に基づき実際の明暗を再現することができ、現実に近い画像(合成画像データ)が得られる。
 本発明の他の態様に係る撮像装置において、合成画像データ生成部は、第1の画像データ内の背景領域に対応する領域に含まれる画像データそのものを用いて背景画像データを生成する。背景画像データとして可視光画像の第1の画像データをそのまま用いるので、背景画像データは前述の色収差(倍率色収差)の影響を受けることが防止される。また、背景画像データの生成に複雑な画像処理などが不要でシステムの負荷が少なくなる。
 本発明の他の態様に係る撮像装置において、第1の撮像モードにおいて撮像部が異なるタイミングで取得した複数の第1の画像データの中の非変化領域を検出する非変化領域検出部と、非変化領域検出部の検出結果に基づき、第1の画像データ内の非変化領域に対応する画像データから、背景画像データを生成する。これにより、背景画像データに基づく画像内から動体を除くことができる。
 本発明の他の態様に係る撮像装置において、少なくとも変化領域画像データに対して、鮮鋭化処理を行う鮮鋭化処理部を備える。これにより、可視光と近赤外光の色収差(倍率色収差)を補正することができる。
 本発明の他の態様に係る撮像装置において、少なくとも変化領域画像データに対して、倍率色収差補正処理を行う倍率色収差補正処理部を備える。これにより、可視光と近赤外光の色収差(倍率色収差)を補正することができる。
 本発明の他の態様に係る撮像装置において、少なくとも変化領域画像データに対して、近赤外光に対する光学系の第1の光学特性に基づく点像復元処理を行う第1の点像復元処理部を備える。これにより、可視光と近赤外光の色収差(倍率色収差)を補正することができる。
 本発明の他の態様に係る撮像装置において、第1の光学特性は、近赤外光に対する光学系の第1の点拡がり関数であり、第1の点像復元処理部が変化領域画像データに対して行う点像復元処理は、変化領域画像データの振幅成分と、非点対称な第1の点拡がり関数の形状に起因する位相成分とを復元する。これにより、可視光と近赤外光の色収差(倍率色収差)を補正することができる。
 本発明の他の態様に係る撮像装置において、第1の画像データに対して、可視光に対する光学系の第2の光学特性に基づく点像復元処理を行う。これにより、可視光と近赤外光の色収差(倍率色収差)を補正することができる。
 本発明の他の態様に係る撮像装置において、第2の光学特性は、赤色及び緑色及び青色の可視光に対する光学系の色毎の第2の点拡がり関数であり、第2の点像復元処理部が第1の画像データに対して行う点像復元処理は、色毎の第2の点拡がり関数に基づく復元フィルタを用いた第1の画像データの位相成分の復元処理を含む。これにより、可視光と近赤外光の色収差(倍率色収差)を補正することができる。
 本発明の目的を達成するための撮像装置の画像処理方法は、赤外線カットフィルタが撮像光路に挿入され、又は撮像光路から退避可能な光学系と、赤外線カットフィルタが撮像光路に挿入された光学系を通して被写体を撮像し、被写体の可視光画像であってカラー画像である可視光画像を示す第1の画像データを取得する第1の撮像モードと、赤外線カットフィルタが撮像光路から退避された光学系を通して被写体を撮像し、被写体の近赤外光画像であってモノクロ画像である近赤外光画像を含む第2の画像データを取得する第2の撮像モードとを有する撮像部と、第1の撮像モードと第2の撮像モードとを交互に切り替える撮像モード切替部と、を備えており、固定位置に設置されている撮像装置の画像処理方法において、撮像部が第2の撮像モードで動作している場合に、撮像部が取得した第2の画像データ内で、第2の画像データの前に撮像部が取得した第2の画像データと比較して変化がある変化領域を検出する変化領域検出ステップと、変化領域検出ステップの検出結果に基づき、第2の画像データ内の変化領域に対応する変化領域画像データに、撮像部により第2の撮像モードの直前の第1の撮像モードで取得された第1の画像データに基づき生成され且つ第2の画像データ内の変化領域とは異なる背景領域に対応するカラー画像の背景画像データを合成した合成画像データを生成する合成画像データ生成ステップと、を有する。
 本発明の目的を達成するためのプログラムは、赤外線カットフィルタが撮像光路に挿入され、又は撮像光路から退避可能な光学系と、赤外線カットフィルタが撮像光路に挿入された光学系を通して被写体を撮像し、被写体の可視光画像であってモノクロ画像である可視光画像を示す第1の画像データを取得する第1の撮像モードと、赤外線カットフィルタが撮像光路から退避された光学系を通して被写体を撮像し、被写体の近赤外光画像であってモノクロ画像である近赤外光画像を含む第2の画像データを取得する第2の撮像モードとを有する撮像部と、第1の撮像モードと第2の撮像モードとを交互に切り替える撮像モード切替部と、を備えており、固定位置に設置されている撮像装置のコンピュータを、撮像部が第2の撮像モードで動作している場合に、撮像部が取得した第2の画像データ内で、第2の画像データの前に撮像部が取得した第2の画像データと比較して変化がある変化領域を検出する変化領域検出手段、変化領域検出手段の検出結果に基づき、第2の画像データ内の変化領域に対応する変化領域画像データに、前撮像部により記第2の撮像モードの直前の第1の撮像モードで取得された第1の画像データに基づき生成され且つ第2の画像データ内の変化領域とは異なる背景領域に対応するカラー画像の背景画像データを合成した合成画像データを生成する合成画像データ生成手段、として機能させる。このプログラムを記録したコンピュータ読み取り可能な非一時的有形媒体(a non-transitory computer-readable tangible medium)も本発明の態様に含まれる。
 本発明の撮像装置及び撮像装置の画像処理方法及びプログラムは、大型化及び部品点数の増加を抑えつつ、第2の撮像モード時の撮像により得られる近赤外光画像を見易くすることができる。
昼夜兼用で用いられる監視カメラの機能構成例を示すブロック図であり、昼間(日中)に撮像を行っている状態を示すものである。 監視カメラの機能構成例を示すブロック図であり、夜間に撮像を行っている状態を示すものである。 カメラ本体コントローラの電気的構成を示すブロック図である。 デバイス制御部による制御(特に撮像モードの切替制御)を説明するための説明図である。 画像処理部の機能ブロック図である。 動体領域検出部の機能ブロック図の一例を示したものである。 動体領域検出部による動体領域の検出処理の流れを説明するための説明である。 選択部による合成画像データの生成処理を説明するための説明図である。 第1の撮像モード時における監視カメラの撮像処理及び画像処理の流れを示すフローチャートである。 第2の撮像モード時における監視カメラの撮像処理及び画像処理の流れを示すフローチャートである。 第2実施形態の監視カメラを構成する画像処理部の機能ブロック図である。 選択部による色情報合成データの生成処理を説明するための説明図である。 第1の撮像モード時における第2実施形態の監視カメラの撮像処理及び画像処理の流れを示すフローチャートである。 第2の撮像モード時における第2実施形態の監視カメラの撮像処理及び画像処理の流れを示すフローチャートである。 第3実施形態の監視カメラを構成する画像処理部の機能ブロック図である。 第4実施形態の監視カメラを構成する画像処理部の機能ブロック図である。 第1の撮像モード時の点像復元処理部による点像復元処理を説明するための説明図である。 点像復元処理の位相補正と振幅補正を説明するための説明図である。 第2の撮像モード時の点像復元処理部による点像復元処理を説明するための説明図である。
 [第1実施形態の監視カメラの全体構成]
 図1は、昼夜兼用で用いられる監視カメラ10の機能構成例を示すブロック図であり、昼間(日中)に撮像を行っている状態を示すものである。図2は、監視カメラ10の機能構成例を示すブロック図であり、夜間に撮像を行っている状態を示すものである。ここで、本明細書でいう「昼間」及び「夜間」は必ずしも特定の時間帯を規定したものではなく、「昼間」及び「夜間」にはそれぞれ払暁や薄暮が含まれることがある。
 図1及び図2に示すように、本発明の撮像装置に相当する監視カメラ10は、デジタルカメラの一種であり、公共施設及び商業施設及び住居などにおいて固定位置(定点)に設置されている。この監視カメラ10は、昼間は被写体(監視領域)の可視光画像の撮像を行い、夜間は被写体の近赤外光画像の撮像を行うことにより、昼夜を問わず被写体の撮像を行う。また、監視カメラ10は、パーソナルコンピュータ(Personal Computer:PC)等のコンピュータ60に接続されており、被写体の撮像により得られた画像データをコンピュータ60に出力する。
 ここで、近赤外光画像とは、少なくとも近赤外光の波長帯域に感度をもって被写体を撮像して得られる画像である。この近赤外光の波長帯域は、特に限定されるものではないが700nmから2500nmの範囲にある。また、可視光画像とは、可視光の波長帯域(一般に380nmから780nm)に感度をもって被写体を撮像して得られる画像である。
 監視カメラ10は、レンズユニット12と、カメラ本体14とを備える。なお、監視カメラ10の外観は、図1及び図2に示した外観に限定されず、例えばレンズユニット12及びカメラ本体14が透明なドームで覆われていてもよい。
 レンズユニット12は、カメラ本体14の前面に設けられている。レンズユニット12は、近赤外光発光部15と、フォーカスレンズやズームレンズ等を含むレンズ16と、絞り17と、レンズ16及び絞り17を駆動するレンズ駆動部18とを備える。
 近赤外光発光部15は、監視カメラ10にて夜間の撮像を行う際に、被写体に向けて近赤外光を補助光として発光する。これにより、監視カメラ10により夜間の暗い状態(低照度下)での撮像を行う場合でも鮮明な被写体の近赤外光画像の画像データが得られる。
 レンズ駆動部18は、レンズユニットコントローラ20と、レンズ16及び絞り17を駆動するアクチュエータ(図示せず)とを含む。レンズユニットコントローラ20は、カメラ本体14に設けられたレンズユニット入出力部22を介してカメラ本体14と電気的に接続されている。このレンズユニットコントローラ20は、カメラ本体14から入力される制御信号に基づき前述のアクチュエータによりレンズ16及び絞り17を駆動する。これにより、レンズ16のレンズ移動によるフォーカス制御及びズーム制御と、絞り17の絞り量制御とが行われる。
 カメラ本体14は、前述のレンズユニット入出力部22の他に、フィルタ駆動部24と、赤外線(IR:infrared)カットフィルタ25と、撮像部26と、照度センサ27と、カメラ本体コントローラ28と、カメラ本体入出力部30と、入出力インタフェース32と、を備える。
 赤外線カットフィルタ25は、赤外光を遮断するフィルタであり、レンズユニット12のレンズ16及び絞り17と共に本発明の光学系を構成している。この赤外線カットフィルタ25は、フィルタ駆動部24によりレンズユニット12の撮像光路Lに挿入、または撮像光路Lから退避可能である。ここで、撮像光路Lとは、レンズユニット12に入射した光が後述の撮像部26に到達するまでの光路である。なお、本実施形態では、赤外線カットフィルタ25がカメラ本体14内に設けられているが、レンズユニット12内に設けられていてもよい。
 フィルタ駆動部24は、カメラ本体コントローラ28の制御の下、被写体の可視光画像の撮像時(後述の第1の撮像モード)には赤外線カットフィルタ25を撮像光路Lに挿入し、被写体の近赤外光画像の撮像時(後述の第2の撮像モード)には赤外線カットフィルタ25を撮像光路Lから退避させる。これにより、可視光画像の撮像時に後述の撮像部26に入射する赤外光を遮断することができる。なお、赤外線カットフィルタ25の種類は特に限定されず、例えば、近赤外光を遮断する近赤外光カットフィルタを用いてもよい。
 撮像部26としては、CCD(Charge Coupled Device)型の撮像素子あるいはCMOS(Complementary Metal Oxide Semiconductor)型の撮像素子と、各種の信号処理回路とを含む。本実施形態の撮像部26の撮像素子の撮像面には、赤色(R:Red)及び緑色(G:Green)及び青色(B:Blue)の3色(3色以上でも可)のカラーフィルタを有するRGB画素がマトリクス状に配列されている。RGB画素は、可視光の波長帯域だけでなく近赤外光の波長帯域の一部(特に近赤外光発光部15が発光する近赤外光の波長帯域)にも感度を有しており、近赤外光画像の撮像時(後述の第2の撮像モード時)には近赤外光画素として機能する。
 撮像部26は、レンズユニット12を通して被写体を撮像して被写体の画像データを取得し、この画像データをカメラ本体コントローラ28に出力する。この撮像部26は、撮像モードとして、昼間の撮像に対応する第1の撮像モードと夜間の撮像に対応する第2の撮像モードとを有する。なお、撮像部26の撮像モードの切り替えは、カメラ本体コントローラ28により実行される。
 第1の撮像モードにおいて撮像部26は、赤外線カットフィルタ25が撮像光路Lに挿入された状態でレンズユニット12を通して被写体を撮像し、被写体のカラー画像である可視光画像を示す第1の画像データD1を取得する。第1の画像データD1はRGBの各色の画像データにより構成される。なお、第1の撮像モードは、赤外線カットフィルタ25が撮像光路Lに挿入されていれば、他の条件は任意である。
 また、第2の撮像モードにおいて撮像部26は、赤外線カットフィルタ25が撮像光路Lから退避された状態でレンズユニット12を通して被写体を撮像し、被写体のモノクロ画像である近赤外光画像を含む第2の画像データD2を取得する。ここで、「近赤外光画像を含む第2の画像データD2」とは、夜間であっても時間帯や周囲の環境によっては撮像部26への可視光の入射がゼロにならず、近赤外光だけでなく可視光の撮像により得られた第2の画像データD2を含むことを意味する。しかし、夜間の撮像では、可視光の光量は減少し、さらに本実施形態では近赤外光発光部15にて近赤外光を補助光として発光しているので、撮像部26に入射する可視光の光量は近赤外光の光量に比較して大幅に少なくなる。このため、第2の画像データD2は、色の情報を持たず、輝度情報(輝度信号)により構成されているモノクロ画像データとみなすことができる。なお、第2の撮像モード時に撮像部26への可視光の入射が問題になる場合には、撮像光路Lに可視光を遮断する可視光カットフィルタを挿入してもよい。
 照度センサ27は、監視カメラ10により撮像される被写体(監視領域)の照度を検出し、この照度検出結果をカメラ本体コントローラ28に出力する。照度センサ27による照度検出結果は、例えば、近赤外光発光部15による近赤外光の発光のON及びOFFの切り替えと、赤外線カットフィルタ25の挿入及び退避の切り替えと、撮像部26の撮像モードの切り替えとに用いられる。
 カメラ本体コントローラ28は、例えばCPU(Central Processing Unit)を含む各種形状の演算部及び処理部及び記憶部(メモリ)により構成されたものであり、監視カメラ10の全体の動作や処理を統括的に制御する。
 図3は、カメラ本体コントローラ28の電気的構成を示すブロック図である。図3に示すように、カメラ本体コントローラ28は、デバイス制御部34と、画像処理部35と、記憶部36と有している。
 デバイス制御部34は、記憶部36から読み出した制御用プログラム37Aを実行することで、監視カメラ10の各部の動作を制御する。例えば、デバイス制御部34は、レンズユニット12を制御するための制御信号を生成し、この制御信号をカメラ本体入出力部30からレンズユニットコントローラ20に送信する(図1及び図2参照)。これにより、前述のフォーカス制御及びズーム制御と、絞り17の絞り量制御とが実行される。また、デバイス制御部34は、撮像部26による撮像処理及び画像データの出力処理を制御する。
 さらに、デバイス制御部34は、照度センサ27による照度検出結果に基づき、撮像部26の撮像モードの切り替えと、近赤外光発光部15による近赤外光の発光のON及びOFFの切り替えと、赤外線カットフィルタ25の挿入及び退避の切り替えと、をそれぞれ制御する。すなわち、デバイス制御部34は、本発明の撮像モード切替部として機能する。
 図4は、デバイス制御部34による制御(特に撮像モードの切替制御)を説明するための説明図である。図4に示すように、デバイス制御部34は、照度センサ27から入力される被写体の照度検出結果を撮像モード切替条件として、撮像部26の撮像モードの切り替えを行う。具体的に、デバイス制御部34は、照度検出結果が予め定めた閾値以上であれば「昼間」であると判定し、撮像部26の撮像モードを第1の撮像モードに切り替える。これにより、撮像部26が第1の撮像モードでの撮像を行う。図中の符号「an-1」、「a」(nは任意の自然数)は撮像部26による撮像のタイミングを示す。
 一方、デバイス制御部34は、照度検出結果が予め定めた閾値未満であれば「夜間」であると判定し、撮像部26の撮像モードを第2の撮像モードに切り替える。これにより、撮像部26が第2の撮像モードでの撮像を行う。図中の符号「bn-1」、「b」は撮像部26による撮像のタイミングを示し、符号「A」は撮像の時間間隔を示す。なお、第1の撮像モードでの撮像の時間間隔は特に限定はされないが、第2の撮像モードと同様の時間間隔Aであってもよい。
 このようにデバイス制御部34は、照度検出結果から判別される「昼間」、「夜間」、「昼間」、「夜間」、・・・の繰り返しに応じて、撮像部26の撮像モードを第1の撮像モードと第2の撮像モードとに交互に切り替える。
 また、デバイス制御部34は、撮像部26を第1の撮像モードに切り替える場合、近赤外光発光部15を制御して近赤外光の発光をOFFさせると共に、フィルタ駆動部24を制御して撮像光路Lに赤外線カットフィルタ25を挿入させる。逆にデバイス制御部34は、撮像部26を第2の撮像モードに切り替える場合、近赤外光発光部15を制御して近赤外光の発光をONさせると共に、フィルタ駆動部24を制御して撮像光路Lから赤外線カットフィルタ25を退避させる。図中の符号「CH」は、撮像モードの切り替えのタイミング、すなわち、赤外線カットフィルタ25の挿入及び退避の切り替えのタイミングである。
 なお、本実施形態のデバイス制御部34は、照度センサ27による照度検出結果に基づき、撮像部26の撮像モードの切り替えを行っているが、撮像モード切替条件は照度検出結果に限定されるものではなく適宜変更してもよい。例えば、予め定めた時間帯(「昼間」はAM6:00~PM6:00、「夜間」はPM6:00~AM6:00)を撮像モード切替条件として、時間帯に応じて撮像部26の撮像モードの切り替えを行ってもよい。
 図3に戻って、画像処理部35は、記憶部36から読み出した画像処理用プログラム37Bを実行することで、撮像部26から入力される画像データ(第1の画像データD1及び第2の画像データD2)に対して後述の画像処理を行う。そして、画像処理部35は、画像処理後の画像データを入出力インタフェース32(図1及び図2参照)に出力する。
 画像処理用プログラム37Bは、本発明のプログラムに相当するものである。この画像処理用プログラム37Bは、詳しくは後述するが、監視カメラ10のコンピュータの一部を構成する画像処理部35を、本発明の変化領域検出手段(動体領域検出部48)と、本発明の合成画像データ生成手段(背景画像データ生成部43及び選択部50)と、を含む複数の処理部として機能させる(図5参照)。
 図1及び図2に戻って、入出力インタフェース32は、外部機器類(コンピュータ60等)に有線または無線接続されており、コンピュータ60等に対して画像処理後の画像データを出力する。なお、コンピュータ60等に送られる画像データのフォーマットは特に限定されず、任意のフォーマットとし得る。
 コンピュータ60は、カメラ本体14の入出力インタフェース32及びコンピュータ入出力部62を介して監視カメラ10に接続されており、監視カメラ10から送られてくる画像データ等のデータ類を受信する。このコンピュータ60は、コンピュータコントローラ64と、ディスプレイ66とを有する。
 コンピュータコントローラ64はコンピュータ60を統括的に制御する。コンピュータコントローラ64は、監視カメラ10からの画像データを画像処理し、インターネット等のネットワーク回線70を介してコンピュータ入出力部62に接続されているサーバ80等との通信を制御する。ディスプレイ66は、監視カメラ10から入力される画像を表示する。
 サーバ80は、サーバ入出力部82及びサーバコントローラ84を有する。サーバ入出力部82は、コンピュータ60等の外部機器類との送受信接続部を構成し、ネットワーク回線70を介してコンピュータ入出力部62に接続される。サーバコントローラ84は、コンピュータ60からの制御指示信号に応じ、コンピュータコントローラ64と協働し、コンピュータコントローラ64との間で必要に応じてデータ類の送受信を行い、データ類をコンピュータ60にダウンロードし、演算処理を行ってその演算結果をコンピュータ60に送信する。
 なお、監視カメラ10及びコンピュータ60及びサーバ80の間の通信は、有線通信及び無線通信のいずれでもよい。また、コンピュータ60及びサーバ80を一体的に構成してもよく、さらに両者の一方あるいは両方が省略されてもよい。また、監視カメラ10にサーバ80との通信機能を持たせ、監視カメラ10とサーバ80との間で直接的にデータ類の送受信が行われるようにしてもよい。
 [画像処理部の構成]
 図5は、画像処理部35の機能ブロック図である。画像処理部35は、第1の撮像モード時において、撮像部26から入力される第1の画像データD1に対して画像処理を施し、画像処理後の第1の画像データD1を入出力インタフェース32へ出力する。また、画像処理部35は、第1の画像データD1に基づき被写体の背景領域に対応する背景画像データDBを生成する。
 一方、画像処理部35は、第2の撮像モード時において、その直前の第1の撮像モード時に生成した背景画像データDBに、第2の画像データD2内の動体領域に対応する動体画像データDM(本発明の変化領域画像データに相当、図8参照)を合成した合成画像データD3を生成する。すなわち、画像処理部35は、昼間に取得されたカラー画像の第1の画像データD1に基づき、夜間に取得されるモノクロ画像の第2の画像データD2の背景領域をカラー表示可能にする。なお、第2の撮像モード時において、その直前の第1の撮像モード時に生成した背景画像データDBとしては、第1の撮影モードから第2の撮像モードに移行する前の第1の撮影モード時(現在の第2の撮像モードの1つ前の第1の撮像モード時)に生成した背景画像データDBであれば特に限定されるものではない。例えば、第2の撮像モードに移行する前の第1の撮影モード時の最後のフレーム(第1の画像データD1)に基づき生成した背景画像データDBや、最後のフレームよりも特定の期間だけ前のフレームやこのフレームから最後のフレームまでの間のフレームに基づき生成した背景画像データDBであってもよい。また、背景画像データDBとして変化がない場合には、第1の撮影モードにおいて変化が生じなくなったタイミングから第1の撮影モードの最後のフレームまでの間のフレームに基づき生成した背景画像データDBを用いてもよい。更に、複数のフレームにおける背景画像データDBの平均値などを用いてもよい。
 図5に示すように、画像処理部35は、前述の記憶部36から読み出した画像処理用プログラム37Bを実行することで、第1の撮像モード時には第1の画像処理部35Aとして機能し、第2の撮像モード時には第2の画像処理部35Bとして機能する。なお、本実施形態では、説明の便宜上、画像処理部35を第1の画像処理部35Aと第2の画像処理部35Bとに分けているが、両者が一体であってもよい。
 [第1の画像処理部について]
 第1の画像処理部35Aは、非変化領域検出部42と、背景画像データ生成部43として機能する。第1の画像処理部35Aは、図示しない画像処理回路によって撮像部26から入力される第1の画像データD1に対しホワイトバランス補正や階調補正などの画像処理を施した後、画像処理後の第1の画像データD1を入出力インタフェース32へ出力する。また、第1の画像処理部35Aは、非変化領域検出部42及び背景画像データ生成部43により前述の背景画像データDBの生成を行う。
 非変化領域検出部42は、第1の撮像モードにおいて撮像部26により異なるタイミングで取得された複数の第1の画像データD1の中の非変化領域V1(図7中の背景領域V3に相当)を検出する。この非変化領域V1は、監視カメラ10の撮像対象となる被写体(監視領域)内の背景領域に相当するものであり、昼夜を問わず変化が生じないと想定される領域である。
 具体的に非変化領域検出部42は、第1の撮像モードにおいて撮像部26により取得された第1の画像データD1を予め定めた記憶タイミング毎に図示しないバッファに記憶させる。このバッファには、複数フレーム分の第1の画像データD1を記憶する記憶領域があり、新たな第1の画像データD1はバッファ内の最も古い第1の画像データD1に上書きされる。そして、非変化領域検出部42は、予め定めた非変化領域V1の検出タイミング毎に、バッファ内の複数の第1の画像データD1を解析して非変化領域V1を検出する。なお、非変化領域V1の検出方法は、後述の動体領域検出部48による動体領域検出と基本的には同じ方法が用いられるので、詳しくは後述する(図6及び図7参照)。非変化領域検出部42は、非変化領域V1の検出結果(図5中では単に「V1」と表示)を背景画像データ生成部43へ出力する。
 背景画像データ生成部43は、非変化領域検出部42から入力される非変化領域V1の検出結果と、撮像部26により取得された第1の画像データD1とに基づき、この第1の画像データD1から非変化領域V1に対応する画像データを抽出して背景画像データDBを生成する。このように、非変化領域V1の検出結果に基づき背景画像データDBの生成を行うことで、背景画像データDBに基づく画像内から動体を除くことができる。そして、背景画像データ生成部43は、生成した背景画像データDBを図示しないメモリ等に記憶させる。以下、背景画像データ生成部43は、非変化領域検出部42から非変化領域V1の検出結果が入力される度に新たな背景画像データDBを生成し、メモリ等に記憶されている背景画像データDBを更新する。
 [第2の画像処理部について]
 第2の画像処理部35Bは、倍率色収差補正処理部46と、過去画像保持バッファ47と、動体領域検出部48と、変換部49と、選択部50として機能する。第2の画像処理部35Bは、直前の第1の撮像モードで第1の画像処理部35Aにより生成された背景画像データDBに、第2の撮像モードにおいて撮像部26により取得された第2の画像データD2内の動体領域に対応する動体画像データDM(図8参照)を合成した合成画像データD3を生成する。
 倍率色収差補正処理部46は、第2の撮像モードにおいて撮像部26から時間間隔A(図4参照)ごとに入力される第2の画像データD2に対して倍率色収差補正処理を施す。本実施形態では、前述の通り、可視光画像の第1の画像データD1に基づき生成した背景画像データDBに、近赤外光画像の第2の画像データD2内の動体画像データDMを合成した合成画像データD3を生成する。この際に、可視光と近赤外光の色収差(倍率色収差)によって、撮像部26によって撮像される可視光画像と近赤外光画像との大きさに差が生じる。このため、何らの処理を行わないと、大きさ(画像サイズ)が異なる背景画像データDBと第2の画像データD2(動体画像データDM)とを合成することになり、不自然な合成画像データD3が生成されてしまう。
 なお、昼夜兼用の監視カメラ10で用いられるレンズ16としては、可視光から近赤外域まで現実的な透過率を有しており、且つ可視光と近赤外光の色収差(倍率色収差)を光学的に補正した昼夜兼用レンズが用いられる。ただし、一般に昼夜兼用のレンズでも近赤外域までの完全な色収差補正は現実的でなく、レンズ枚数などの制約から収差は残存する。特に、監視用の広角ズームレンズなどでは、広角端で可視光と近赤外光のピントずれを優先して抑制する必要があり、色収差(倍率色収差)を抑えきれない傾向がある。
 そこで、倍率色収差補正処理部46は、撮像部26から時間間隔A(図4参照)ごとに入力される第2の画像データD2に対して倍率色収差補正処理を施すことにより、可視光と近赤外光の色収差(倍率色収差)を補正する。倍率色収差補正処理は、例えば、第2の画像データD2の各画素の画素位置をシフトさせるなどの公知の方法により行う。また、この際の補正量については、監視カメラ10の光学系(レンズ16及び絞り17及び赤外線カットフィルタ25)の種類に応じて予め定められた補正量を用いる。倍率色収差補正処理部46は、倍率色収差補正処理後の第2の画像データD2を過去画像保持バッファ47と、動体領域検出部48と、変換部49とにそれぞれ出力する。
 過去画像保持バッファ47は、倍率色収差補正処理部46から入力される倍率色収差補正処理後の第2の画像データD2を一時的に記憶する。例えば、過去画像保持バッファ47には2フレーム分の第2の画像データD2を記憶する記憶領域がある。倍率色収差補正処理部46から過去画像保持バッファ47に入力される新たな第1の画像データD1は、バッファ内の最も古い第2の画像データD2に上書きされる。
 動体領域検出部48は、本発明の変化領域検出部に相当する。この動体領域検出部48は、倍率色収差補正処理部46から新たに入力される第2の画像データD2(以下、単に「新たな第2の画像データD2」と略す)内で、被写体内の動体に対応する動体領域V2(図7参照)を検出する。この動体領域V2の検出は、新たな第2の画像データD2と、倍率色収差補正処理部46により先に過去画像保持バッファ47に記憶された第2の画像データD2(以下、単に「先の第2の画像データD2」と略す)との比較により行われる。
 すなわち、動体領域検出部48は、図4に示したような撮像タイミング「b」で得られた新たな第2の画像データD2内で、時間間隔Aだけ前の撮像タイミング「bn-1」で得られた先の第2の画像データD2と比較した際に変化のある変化領域を動体領域V2として検出する。従って、動体領域V2は本発明の変化領域に相当する。また、本明細書でいう「動体」は、必ずしも被写体(監視領域)内で移動しているものに限定されず、先の第2の画像データD2の取得時には被写体内に存在していなかった物体も含まれる。
 ここで時間間隔Aが極めて短く設定されている場合、新たな第2の画像データD2と先の第2の画像データD2とを比較しても、被写体内の動体の位置及び形状等に明確な差が生じていないので、被写体内の動体に対応する動体領域V2を検出することができない。このため、時間間隔Aは、新たな第2の画像データD2と先の第2の画像データD2とを比較した際に、両者の差から被写体内の動体を認識できる程度に長い時間間隔、例えば数十秒間から数分間に設定されている。
 図6は、動体領域検出部48の機能ブロック図の一例を示したものである。また、図7(A)から(D)は、動体領域検出部48による動体領域V2の検出処理の流れを説明するための説明図である。なお、図7では、先の第2の画像データD2の取得時に被写体内に存在していない動体が、新たな第2の画像データD2の取得時に被写体内に出現したものとして説明を行う。
 図6に示すように、動体領域検出部48は、差分領域抽出処理部52と、2値化処理部53と、メディアンフィルタ処理部54と、膨張演算処理部55と、収縮演算処理部56と、を含む。
 図7(A)に示すように、差分領域抽出処理部52は、新たな第2の画像データD2と先の第2の画像データD2との差分領域を抽出する差分領域抽出処理を行い、この差分領域抽出処理の結果を示す差分領域抽出画像データDFを生成する。なお、実際の撮像系において、2枚の画像データ(第2の画像データD2)の撮像間隔が離れていた場合には、時間経過による暗電流成分の変化や環境光量の変化によって、画像毎のQL(Quantum Level)値のオフセット値が変化してしまうことで、動体領域V2ではないのにもかかわらず、QL値が大きく変化してしまう現象が起こりうる。そのため、その現象を考慮して、経時オフセット補正の適用や、画像比較対象からDC(direct current)成分を無視するようなロバストな動体検出処理を設ける必要がある。しかし、ここでは処理の簡単のために、そのようなQL値の変化は生じることはなく、動体の存在領域でのみQL値の変化が生じるものと想定する。
 次いで、2値化処理部53は、差分領域抽出画像データDFに対して2値化処理を施す。これにより、差分領域抽出画像データDFの画素毎に、輝度値が予め定めた閾値以上の場合には輝度値が「1」に変換され、逆に輝度値が予め定めた閾値未満の場合には輝度値が「0」に変換される。その結果、例えば差分領域抽出画像データDF内の動体領域V2に対応する画素の輝度値が「1」に変換され、差分領域抽出画像データDF内の背景領域V3に対応する画素の輝度値が「0」に変換される。なお、背景領域V3は、実質的には前述の第1の画像データD1内の非変化領域V1と同じものになる。
 図7(B)に示すように、メディアンフィルタ処理部54は、2値化処理後の差分領域抽出画像データDFに対してメディアンフィルタ処理を施すことにより、差分領域抽出画像データDFに混入している暗ノイズ等のノイズを除去する。
 図7(C)及び図7(D)に示すように、膨張演算処理部55及び収縮演算処理部56は、メディアンフィルタ処理後の差分領域抽出画像データDFに対してクロージング(Closing)処理を施す。具体的には、膨張演算処理部55が差分領域抽出画像データDFに対して膨張演算処理を施した後(図7(C)参照)、収縮演算処理部56が差分領域抽出画像データDFに対して収縮演算処理を施す(図7(D)参照)。このクロージング処理(膨張演算処理及び収縮演算処理)によって、差分領域抽出画像データDFに含まれる細かい(小さい)パターンが除去される。その結果、差分領域抽出画像データDF内の動体領域V2と背景領域V3とが各々まだら状になることが防止される。
 このようなクロージング処理後の差分領域抽出画像データDFにおいて、輝度値が「1」の画素が集合している領域が動体領域V2となり、逆に輝度値が「0」の画素が集合している領域が背景領域V3となる。従って、動体領域検出部48は、差分領域抽出画像データDF内の動体領域V2を構成する各画素の位置座標に基づき、新たな第2の画像データD2内の動体領域V2を検出することができる。そして、動体領域検出部48は、動体領域V2を構成する各画素の位置座標を、新たな第2の画像データD2内の動体領域V2の検出結果(図5中では単に「V2」と表示)として選択部50に出力する。
 なお、前述の非変化領域検出部42は、図6及び図7に示した動体領域検出部48と基本的には同じ方法により(ここでは逆に背景領域V3を検出する)、異なるタイミングで取得された複数の第1の画像データD1内の非変化領域V1(背景領域V3に相当)を検出し、その検出結果を背景画像データ生成部43へ出力する。
 図5に戻って、変換部49は、倍率色収差補正処理部46から入力される新たな第2の画像データD2を、前述の第1の画像データD1(背景画像データDB)と同様のRGB画像データに変換する。ここで第2の画像データD2は、前述の通り輝度情報(輝度信号)のみにより構成される画像データであり、色情報を有していない。このため、変換部49は、第2の画像データD2に色情報を付加した後、この第2の画像データD2をRGB画像データに変換する。
 最初に変換部49は、倍率色収差補正処理部46から入力される新たな第2の画像データD2に対して、予め定めた色情報である赤外光動体色58(CbCr規定値)を付加して、第2の画像データD2をYCbCr画像データとする。これにより、合成画像データD3となる第2の画像データD2内の動体画像データDM(図8参照)に色情報が付加され、合成画像データD3内の動体画像データDMをカラー表示することができる。この赤外光動体色58は、合成画像データD3に基づく画像内に表示される動体の色を定めるものであり、任意の色を選択可能である。
 次いで、変換部49は、YCbCr画像データである第2の画像データD2をRGB画像データに変換した後、選択部50に出力する。
 選択部50は、前述の背景画像データ生成部43と共に本発明の合成画像データ生成部を構成する。選択部50は、動体領域検出部48から入力される動体領域V2の検出結果に基づき、直前の第1の撮像モードで背景画像データ生成部43が生成した背景画像データDBに、第2の画像データD2内の動体領域V2に対応する動体画像データDMを合成した合成画像データD3を生成する。
 図8は、選択部50による合成画像データD3の生成処理を説明するための説明図である。なお、図8中における第2の画像データD2内のハッチング表示は、前述の赤外光動体色58が付されていること示す。
 図8に示すように、選択部50は、動体領域検出部48から入力された動体領域V2の検出結果に基づき、合成画像データD3の第1番目の画素(例えば左下隅の画素)が動体領域V2及び背景領域V3のいずれに属するかを判定する。そして、選択部50は、合成画像データD3の第1番目の画素が背景領域V3に属する場合、背景画像データDB及び第2の画像データD2の各々の第1番目の画素(左下隅の画素)のうち、背景画像データDB内の第1番目の画素を選択して出力する。
 一方、選択部50は、合成画像データD3の第1番目の画素が動体領域V2に属する場合、背景画像データDB及び第2の画像データD2の各々の第1番目の画素のうち、第2の画像データD2内の第1番目の画素を選択して出力する。
 以下同様に、選択部50は、合成画像データD3の残りの第N番目の画素についても、動体領域V2の検出結果に基づき、背景画像データDB及び第2の画像データD2のうちの一方から選択した第N番目の画素を出力する。ここで「N」は、2以上で且つ合成画像データD3の全画素数以下の数である。これにより、合成画像データD3の各画素の中で、動体領域V2に属する画素としては第2の画像データD2の画素が選択され、背景領域V3に属する画素としては背景画像データDBの画素が選択される。その結果、背景画像データDBに、第2の画像データD2内の動体領域V2に対応する動体画像データDMを合成した合成画像データD3が生成される。
 なお、前述の動体領域検出部48により動体領域V2が検出されなかった場合、選択部50は、背景画像データDBのみに基づいて合成画像データD3を生成する。
 以下、第2の画像処理部35Bでは、撮像部26から時間間隔Aで第2の画像データD2が入力される毎に、倍率色収差補正処理部46による倍率色収差補正処理と、動体領域検出部48による動体領域検出処理と、変換部49による変換処理と、選択部50による合成画像データ生成処理とが実行されて、合成画像データD3が生成される。合成画像データD3は、図示しない画像処理回路によってホワイトバランス補正や階調補正などの画像処理が施された後、第2の画像処理部35Bから入出力インタフェース32へ出力される。
 [第1実施形態の監視カメラの作用]
 次に、図9及び図10を用いて上記構成の監視カメラ10の作用、特に撮像処理及び画像処理(本発明の撮像装置の画像処理方法)について説明を行う。ここで、図9は、第1の撮像モード時における監視カメラ10の撮像処理及び画像処理の流れを示すフローチャートである。また、図10は、第2の撮像モード時における監視カメラ10の撮像処理及び画像処理の流れを示すフローチャートである。
 <第1の撮像モード>
 図9に示すように、デバイス制御部34は、照度センサ27から入力される被写体の照度検出結果に基づき「夜間」から「昼間」に切り替わったと判定した場合には、撮像部26の撮像モードを第1の撮像モードに切り替える(ステップS1)。また同時に、デバイス制御部34は、近赤外光発光部15を制御して近赤外光の発光をOFFさせると共に、フィルタ駆動部24を制御して撮像光路Lに赤外線カットフィルタ25を挿入させる(ステップS2)。
 次いで、デバイス制御部34は、撮像部26により第1の撮像モードでの被写体(監視領域)の可視光画像の撮像を開始させる。撮像部26は、赤外線カットフィルタ25が撮像光路Lに挿入された状態でレンズユニット12を通して被写体を撮像し、カラー画像である被写体の可視光画像を示す第1の画像データD1を取得する(ステップS3)。そして、撮像部26は第1の画像データD1を画像処理部35に出力する(ステップS4)。
 撮像部26から出力された第1の画像データD1は、画像処理部35の第1の画像処理部35Aに入力される。第1の画像処理部35Aでは、図示しない画像処理回路によって第1の画像データD1に対しホワイトバランス補正や階調補正などの画像処理を施した後、入出力インタフェース32へ出力する。そして、画像処理済みの第1の画像データD1は、入出力インタフェース32からコンピュータ60及びサーバ80の一方あるいは両方に出力される。以下、撮像部26から第1の画像データD1が入力される毎に、第1の画像データD1に対する画像処理及びコンピュータ60等への出力が繰り返し実行される(ステップS5でNO)。
 この際に、撮像部26から入力される第1の画像データD1は、予め定めた記憶タイミング毎に非変化領域検出部42のバッファに記憶される(ステップS5でYES)。そして、非変化領域検出部42よる非変化領域V1の検出タイミングまで、撮像部26の撮像が継続して行われることにより(ステップS5またはステップS6でNO)、異なるタイミングで取得された複数の第1の画像データD1が非変化領域検出部42のバッファに記憶される。
 非変化領域検出部42は、非変化領域V1の検出タイミングになった場合、前述の図6及び図7で説明した方法に基づき、バッファ内の複数の第1の画像データD1を解析して非変化領域V1を検出する(ステップS6でYES、ステップS7)。そして、非変化領域検出部42は、非変化領域V1の検出結果を背景画像データ生成部43へ出力する。
 背景画像データ生成部43は、非変化領域検出部42から入力される非変化領域V1の検出結果に基づき、撮像部26より入力された第1の画像データD1から非変化領域V1に対応する画像データを抽出して背景画像データDBを生成する(ステップS8)。この背景画像データDBは、背景画像データ生成部43により図示しないメモリ等に記憶される。
 以下、第1の撮像モードが継続する間、前述のステップS3からステップS8までの処理が繰り返し実行される(ステップS9でYES)。これにより、非変化領域検出部42のバッファ内への第1の画像データD1の記憶と、非変化領域検出部42による非変化領域V1の検出と、背景画像データ生成部43による背景画像データDBの生成とが繰り返し実行され、前述のメモリ等に記憶されている背景画像データDBが更新される。そして、後述のように、撮像部26の撮像モードが第2の撮像モードに切り替えられると、第1の撮像モードにおける撮像処理及び画像処理が終了する(ステップS9でNO)。
 <第2の撮像モード>
 図10に示すように、デバイス制御部34は、照度センサ27から入力される被写体の照度検出結果に基づき「昼間」から「夜間」に切り替わったと判定した場合に、撮像部26の撮像モードを第1の撮像モードから第2の撮像モードに切り替える(ステップS11)。また同時に、デバイス制御部34は、近赤外光発光部15を制御して近赤外光の発光をONさせると共に、フィルタ駆動部24を制御して撮像光路Lから赤外線カットフィルタ25を退避させる(ステップS12)。
 次いで、デバイス制御部34は、撮像部26により第2の撮像モードでの被写体の赤外光画像の撮像を開始させる。撮像部26は、赤外線カットフィルタ25が撮像光路Lから退避された状態でレンズユニット12を通して被写体を撮像し、モノクロ画像である被写体の近赤外光画像を含む第2の画像データD2を取得する(ステップS13)。そして、撮像部26は第2の画像データD2を画像処理部35に出力する(ステップS14)。
 撮像部26から出力された第2の画像データD2は、画像処理部35における第2の画像処理部35Bに入力される。第2の画像処理部35Bの倍率色収差補正処理部46は、撮像部26から入力された第2の画像データD2に対して倍率色収差補正処理を施す(ステップS15)。これにより、可視光と近赤外光の色収差(倍率色収差)が補正され、背景画像データDBと第2の画像データD2との大きさ(画像サイズ)を合わせることができるため、不自然な合成画像データD3が生成されることが防止される。
 また、倍率色収差補正処理部46による倍率色収差補正処理は、ソフトウェア処理であり、上記特許文献2に記載のように撮像光路に位相変調素子を設けるといったハードウェア的な追加を行うことなく実施することができる。その結果、監視カメラ10の大型化及び部品点数の増加を抑えることができる。
 なお、本実施形態の倍率色収差補正処理部46は、第2の画像データD2の全体に倍率色収差補正処理を行っているが、例えば、倍率色収差補正処理よりも前に動体領域検出部48による動体領域V2の検出を先に行い、この検出結果に基づき第2の画像データD2内の動体領域V2に対して倍率色収差補正処理を行ってもよい。すなわち、倍率色収差補正処理部46は、少なくとも第2の画像データD2内の動体領域V2に対して倍率色収差補正処理を行えばよい。
 次いで、倍率色収差補正処理部46は、倍率色収差補正処理後の第2の画像データD2を過去画像保持バッファ47と、動体領域検出部48と、変換部49とにそれぞれ出力する。これにより、過去画像保持バッファ47に新たな第2の画像データD2が記憶される(ステップS16)。
 なお、図示は省略するが、第2の撮像モードへの切り替え後、少なくとも撮像部26による第2の画像データD2の取得を2回以上行うことで、過去画像保持バッファ47に前述の「先の第2の画像データD2」が記憶される。これにより、動体領域検出部48による動体領域V2の検出が可能になる。以下、過去画像保持バッファ47内に前述の「先の第2の画像データD2」が記憶されているものとして説明を行う。
 動体領域検出部48は、倍率色収差補正処理部46から新たな第2の画像データD2が入力された場合、動体領域V2の検出を開始する。前述の図6及び図7で説明した通り、動体領域検出部48は、新たな第2の画像データD2と過去画像保持バッファ47内の先の第2の画像データD2とを比較して、新たな第2の画像データD2内の動体領域V2を検出する(ステップS17、本発明の変化領域検出ステップに相当)。そして、動体領域検出部48は、動体領域V2の検出結果を選択部50へ出力する。
 変換部49は、倍率色収差補正処理部46から入力される新たな第2の画像データD2に対し赤外光動体色58(CbCr規定値)に基づく色情報を付加して、第2の画像データD2をYCbCr画像データとした後、RGB画像データに変換する(ステップS18)。変換部49は、RGB画像データに変換した第2の画像データD2を選択部50へ出力する。
 選択部50は、第2の撮像モードへの切り替え時に、その直前の第1の撮像モード時に背景画像データ生成部43が生成した背景画像データDBを前述のメモリ等から読み出す。そして、選択部50は、前述の図8で説明したように、動体領域検出部48から入力された動体領域V2の検出結果に基づき、背景画像データDBに、変換部49から入力された第2の画像データD2内の動体領域V2に対応する動体画像データDMを合成する。これにより、合成画像データD3が生成される(ステップS19、本発明の合成画像データ生成ステップに相当)。
 このような合成画像データD3は、第2の画像データD2内の背景領域V3に対応する部分に対して、昼間に取得されたカラー画像である第1の画像データD1の色情報(カラー情報)を当てはめて色を付けた画像データであると言える。その結果、夜間の撮像で得られた画像内で、昼間の撮像で得られた画像内に写っている被写体と同一の被写体については昼間の被写体の色情報が付される。このため、夜間の撮像により得られる近赤外光画像を見易くすることができる。
 合成画像データD3は、図示しない画像処理回路によってホワイトバランス補正や階調補正などの画像処理が施された後、第2の画像処理部35Bから入出力インタフェース32へ出力される。そして、画像処理済みの合成画像データD3は、入出力インタフェース32からコンピュータ60及びサーバ80の一方あるいは両方に出力される。
 以下、第2の撮像モードが継続する間、時間間隔A毎に前述のステップS13からステップS19までの処理が繰り返し実行されて、第2の画像処理部35Bにおいて合成画像データD3が繰り返し生成される。(ステップS20でYES、ステップS21)。そして、撮像部26の撮像モードが第2の撮像モードから第1の撮像モードに切り替えられると、第2の撮像モードにおける撮像処理及び画像処理が終了する(ステップS20でNO)。
 以下同様にして、「昼間」と「夜間」の切り替わりに応じて、前述の第1の撮像モードにおける撮像処理及び画像処理と、前述の第2の撮像モードにおける撮像処理及び画像処理とが交互に繰り返し実行される。
 [第1実施形態の効果]
 以上のように、第1実施形態の監視カメラ10では、昼間の第1の撮像モードで取得されたカラー画像の第1の画像データD1に基づき生成した背景画像データDBを用いて、夜間の第2の撮像モードで合成画像データD3を生成するので、夜間の第2の撮像モードで取得されたモノクロ画像の第2の画像データD2の背景領域をカラー表示することができる。その結果、前述の特許文献1に記載のように2種類の撮像部を設けるといった大型化及び部品点数の増加を抑えつつ、夜間の撮像により得られる近赤外光画像を見易くすることができる。
 また、合成画像データD3の背景画像データDBとして可視光画像の第1の画像データD1をそのまま用いるので、背景画像データDBは前述の色収差(倍率色収差)の影響を受けない。また、背景画像データDBの生成に複雑な画像処理などが不要で監視カメラ10のシステムの負荷が少なくなる。
 [第2実施形態の監視カメラの全体構成]
 次に、本発明の第2実施形態の監視カメラ90について説明を行う。上記第1実施形態の監視カメラ10では、合成画像データD3内の背景画像データDBとして可視光画像の第1の画像データD1をそのまま用いている。これに対して監視カメラ90では、第1の画像データD1の色情報と第2の画像データD2の輝度情報とを用いて合成画像データD3内の背景画像データDBを生成する。
 図11は、第2実施形態の監視カメラ90を構成する画像処理部91の機能ブロック図である。図11に示すように、監視カメラ90は、第1実施形態の画像処理部35とは異なる画像処理部91を備えている点を除けば、第1実施形態の監視カメラ10と基本的に同じ構成である。従って、上記第1実施形態と機能・構成上同一のものについては、同一符号を付してその説明は省略する。
 画像処理部91は、前述の記憶部36から読み出した画像処理用プログラム37Bを実行することで、第1の撮像モード時には第1の画像処理部91Aとして機能し、第2の撮像モード時には第2の画像処理部91Bとして機能する。なお、第1実施形態と同様に、第1の画像処理部91Aと第2の画像処理部91Bとが一体であってもよい。
 [第2実施形態の第1の画像処理部について]
 第1の画像処理部91Aは、撮像部26から入力される第1の画像データD1に対して画像処理を施し、画像処理後の第1の画像データD1を入出力インタフェース32へ出力する点では第1実施形態の第1の画像処理部35Aと基本的に同じである。ただし、第1の画像処理部91Aは、第1実施形態の第1の画像処理部35Aとは異なり、第1の画像データD1の非変化領域V1から色情報(CbCr)の抽出を行う。この第1の画像処理部91Aは、第1変換部93と、前述の非変化領域検出部42と、色情報抽出部94として機能する。
 第1変換部93は、第1の撮像モードにおいて撮像部26から入力されるRGB画像データである第1の画像データD1をYCbCr画像データに変換し、変換後の第1の画像データD1を非変化領域検出部42へ出力する。
 非変化領域検出部42は、第1実施形態で説明したように、撮像部26により異なるタイミングで取得された複数の第1の画像データD1の中の非変化領域V1を検出し、この非変化領域V1の検出結果を色情報抽出部94へ出力する。
 色情報抽出部94は、非変化領域検出部42から入力された非変化領域V1の検出結果と、撮像部26により取得された第1の画像データD1とに基づき、この第1の画像データD1内の非変化領域V1から色情報96(CbCr)を抽出する。そして、色情報抽出部94は、非変化領域V1の色情報96を図示しないメモリ等に記憶させる。以下、色情報抽出部94は、非変化領域検出部42から非変化領域V1の検出結果が入力される度に新たな色情報96を抽出し、メモリ等に記憶されている色情報96を更新する。
 [第2実施形態の第2の画像処理部について]
 第2の画像処理部91Bは、合成画像データD3の生成を行う点では第1実施形態の第2の画像処理部35Bと同じである。ただし、第2の画像処理部91Bは、第2の画像データD2から抽出した輝度情報と直前の第1の撮像モードで得られた色情報96とに基づき合成画像データD3内の背景画像データDBを生成する。この第2の画像処理部91Bは、前述の倍率色収差補正処理部46及び過去画像保持バッファ47及び動体領域検出部48と、選択部100と、輝度情報抽出部101と、第2変換部102として機能する。
 倍率色収差補正処理部46は、撮像部26から時間間隔Aごとに入力される第2の画像データD2に対して倍率色収差補正処理を施し、倍率色収差補正処理後の第2の画像データD2を、過去画像保持バッファ47及び動体領域検出部48と、輝度情報抽出部101とにそれぞれ出力する。
 動体領域検出部48は、第1実施形態と同様に、倍率色収差補正処理部46から入力される新たな第2の画像データD2内の動体領域V2を検出し(図6及び図7参照)、動体領域V2の検出結果を選択部100へ出力する。
 選択部100は、動体領域検出部48から入力された動体領域V2の検出結果に基づき、直前の第1の撮像モードで得られた非変化領域V1の色情報96(CbCr)に、動体領域V2を示す色情報を合成して、合成画像データD3の色情報を示す色情報合成データDC(CbCr)を生成する。
 図12は、選択部100による色情報合成データDCの生成処理を説明するための説明図である。図12に示すように、選択部100は、前述の動体領域V2の検出結果に基づき、色情報合成データDCの第1番目の画素(例えば左下隅の画素)が動体領域V2及び背景領域V3のいずれに属するかを判定する。そして、選択部100は、色情報合成データDCの第1番目の画素が背景領域V3に属する場合、色情報96及び動体領域V2を示す色情報である赤外光動体色58のうち、色情報96に含まれる第1番目の画素(左下隅の画素)に対応する色情報(CbCr)を選択して出力する。
 一方、選択部100は、色情報合成データDCの第1番目の画素が動体領域V2に属する場合、色情報96及び赤外光動体色58のうち、赤外光動体色58の色情報(CbCr規定値)を選択して出力する。
 以下同様に、選択部100は、色情報合成データDCの残りの第N番目の画素についても、動体領域V2の検出結果に基づき、色情報96及び赤外光動体色58のうちの一方から選択した色情報を出力する。これにより、色情報合成データDCの各画素の中で、背景領域V3に属する画素の色情報としては色情報96が選択され、動体領域V2に属する画素の色情報としては赤外光動体色58の色情報が選択される。その結果、背景領域V3に対応する前述の非変化領域V1の色情報96に、動体領域V2を示す色情報である赤外光動体色58の色情報を合成した色情報合成データDCが生成される。そして、選択部100は、色情報合成データDCを第2変換部102へ出力する。
 図11に戻って、輝度情報抽出部101は、倍率色収差補正処理部46から入力される新たな第2の画像データD2から画素ごとの輝度情報を抽出し、その抽出結果である輝度情報データDYを第2変換部102へ出力する。輝度情報データDYは、第2の撮像モードの撮像で取得されたリアルタイムの輝度情報である。
 第2変換部102は、前述の色情報抽出部94及び選択部100と共に本発明の合成画像データ生成部(合成画像データ生成手段)を構成する。第2変換部102は、選択部100から入力される色情報合成データDCと、輝度情報抽出部101から入力される輝度情報データDYとに基づき、RGB画像データである合成画像データD3を生成する。
 最初に、第2変換部102は、合成画像データD3の色情報を示す色情報合成データDC(CbCr)と、リアルタイムの輝度情報データDYとに基づき、YCbCr画像データである合成画像データD3を生成する。すなわち、第2変換部102は、色情報のみで構成される色情報合成データDCの輝度情報を、リアルタイムに得られた輝度情報データDYにより補間することで、画素ごとの輝度情報及び色情報を含む合成画像データD3(YCbCr画像データ)を生成する。
 このように第2実施形態では、直前の第1の撮像モードで得られた色情報96と、第2の画像データD2の背景領域V3における輝度情報データDYとに基づき、合成画像データD3内の背景画像データDBを生成する。また、第2実施形態では、赤外光動体色58の色情報と、第2の画像データD2の動体領域V2における輝度情報データDYとに基づき、合成画像データD3内の動体画像データDMを生成する。これにより、合成画像データD3(YCbCr画像データ)が生成される。
 次いで、第2変換部102は、YCbCr画像データである合成画像データD3をRGB画像データに変換する。RGB画像データである合成画像データD3は、第1実施形態と同様に、図示しない画像処理回路によってホワイトバランス補正や階調補正などの画像処理が施された後、第2の画像処理部35Bから入出力インタフェース32へ出力される。
 [第2実施形態の監視カメラの作用]
 次に、図13及び図14を用いて上記構成の監視カメラ90の作用、特に撮像処理及び画像処理(本発明の撮像装置の画像処理)について説明を行う。ここで、図13は、第1の撮像モード時における監視カメラ90の撮像処理及び画像処理の流れを示すフローチャートである。また、図14は、第2の撮像モード時における監視カメラ90の撮像処理及び画像処理の流れを示すフローチャートである。
 <第1の撮像モード>
 図13に示すように、ステップS31からステップS34までの処理の流れは、図9に示した第1実施形態(ステップS1からステップS4)と基本的に同じであるので、具体的な説明は省略する。ステップS34までの処理により、撮像部26は第1の画像データD1を画像処理部35に出力する。そして、撮像部26から出力された第1の画像データD1は、画像処理部35の第1の画像処理部35Aに入力され、図示しない画像処理回路によってホワイトバランス補正や階調補正などの画像処理が施された後、入出力インタフェース32へ出力される。
 この際に、撮像部26から入力される第1の画像データD1は、予め定めた記憶タイミング毎に、第1変換部93でRGB画像データからYCbCr画像データに変換された後、非変化領域検出部42のバッファに記憶される(ステップS35でYES、ステップS36)。そして、非変化領域検出部42よる非変化領域V1の検出タイミングまで、撮像部26の撮像が継続して行われる(ステップS35またはステップS37でNO)。これにより、異なるタイミングで取得された複数の第1の画像データD1(YCbCr画像データ)が非変化領域検出部42のバッファに記憶される。
 非変化領域検出部42は、非変化領域V1の検出タイミングになった場合、前述の図6及び図7で説明した方法に基づき、バッファ内の複数の第1の画像データD1を解析して非変化領域V1を検出する(ステップS37でYES、ステップS38)。そして、非変化領域検出部42は、非変化領域V1の検出結果を色情報抽出部94へ出力する。
 色情報抽出部94は、非変化領域検出部42から入力された非変化領域V1の検出結果に基づき、撮像部26より入力された第1の画像データD1内の非変化領域V1から色情報96(CbCr)を抽出する(ステップS39)。この色情報96は、色情報抽出部94により図示しないメモリ等に記憶される。
 以下、第1の撮像モードが継続する間、前述のステップS33からステップS39までの処理が繰り返し実行される(ステップS40でYES)。これにより、非変化領域検出部42のバッファ内への第1の画像データD1の記憶と、非変化領域検出部42による非変化領域V1の検出と、色情報抽出部94による色情報96の抽出とが繰り返し実行され、前述のメモリ等に記憶されている色情報96が更新される。そして、後述のように、撮像部26の撮像モードが第1の撮像モードから第2の撮像モードに切り替えられると、第1の撮像モードにおける撮像処理及び画像処理が終了する(ステップS40でNO)。
 <第2の撮像モード>
 図14に示すように、ステップS41からステップS47までの処理の流れは、図10に示した第1実施形態(ステップS11からステップS17)と基本的に同じであるので、具体的な説明は省略する。ステップS47までの処理により、倍率色収差補正処理部46による倍率色収差補正処理後の新たな第2の画像データD2が、過去画像保持バッファ47及び動体領域検出部48と、輝度情報抽出部101とにそれぞれ出力される、また、動体領域検出部48による新たな第2の画像データD2内の動体領域V2の検出が実行され(本発明の変化領域検出ステップに相当)、動体領域検出部48から選択部100へ動体領域V2の検出結果が出力される。
 選択部100は、第2の撮像モードへの切り替え時に、その直前の第1の撮像モードで色情報抽出部94により抽出された非変化領域V1の色情報96(CbCr)を前述のメモリ等から読み出す。次いで、選択部100は、前述の図12で説明したように、動体領域検出部48から入力される動体領域V2の検出結果に基づき、非変化領域V1の色情報96(CbCr)に、動体領域V2を示す赤外光動体色58の色情報を合成する。これにより、色情報合成データDC(CbCr)が生成される(ステップS48)。そして、選択部100は、色情報合成データDCを第2変換部102へ出力する。
 一方、輝度情報抽出部101は、倍率色収差補正処理部46から入力される新たな第2の画像データD2から画素ごとの輝度情報を抽出し、輝度情報データDYを第2変換部102へ出力する(ステップS49)。
 第2変換部102は、合成画像データD3の色情報を示す色情報合成データDCと、リアルタイムの輝度情報データDYとに基づき、YCbCr画像データである合成画像データD3を生成する。次いで、第2変換部102は、YCbCr画像データである合成画像データD3をRGB画像データに変換する。これにより、RGB画像データである合成画像データD3が生成される(ステップS50、ステップS51、本発明の合成画像データ生成ステップに相当)。この合成画像データD3は、第1実施形態と同様に、図示しない画像処理回路によってホワイトバランス補正や階調補正などの画像処理が施された後、第2の画像処理部35Bから入出力インタフェース32へ出力される。
 以下、第2の撮像モードが継続する間、時間間隔A毎に前述のステップS43からステップS51までの処理が繰り返し実行されて、第2の画像処理部91Bにおいて合成画像データD3が繰り返し生成される。(ステップS52でYES、ステップS53)。そして、撮像部26の撮像モードが第1の撮像モードに切り替えられると、第2の撮像モードにおける撮像処理及び画像処理が終了する(ステップS52でNO)。
 以下同様にして、「昼間」と「夜間」の切り替わりに応じて、前述の第1の撮像モードにおける撮像処理及び画像処理と、前述の第2の撮像モードにおける撮像処理及び画像処理とが交互に繰り返し実行される。
 [第2実施形態の効果]
 以上のように、第2実施形態の監視カメラ90では、第2の画像データD2から抽出した輝度情報データDYと第1の撮像モードで得られた色情報96とに基づき生成される背景画像データDBに、前述の動体画像データDMを合成した合成画像データD3を生成するので、第1実施形態と同様に、夜間の第2の撮像モードで取得されたモノクロ画像の第2の画像データD2の背景領域をカラー表示することができる。その結果、第1実施形態と同様に、大型化及び部品点数の増加を抑えつつ、夜間の撮像により得られる近赤外光画像を見易くすることができる。
 また、第1の撮像モードで得られた色情報96と、第2の撮像モードの撮像で取得されたリアルタイムの背景領域V3における輝度情報とに基づいて、合成画像データD3内の背景画像データDBを生成するので、実際の明暗を再現することができる。例えば、昼間から夜間にかけての明るさの変化や、近赤外光発光部15からの近赤外光(補助光)により照明されている状態を再現することができるので、現実に近い画像(合成画像データD3)が得られる。
 [第3実施形態の監視カメラ]
 図15は、本発明の第3実施形態の監視カメラ120を構成する画像処理部121の機能ブロック図である。上記第1実施形態では、可視光と近赤外光の色収差(倍率色収差)を補正するため、第2の画像データD2に対して倍率色収差補正処理を行っているが、監視カメラ120では第2の画像データD2に対して鮮鋭化処理を行うことにより前述の色収差を補正する。
 図15に示すように、監視カメラ120の画像処理部121は、第2の画像処理部35Bsに倍率色収差補正処理部46の代わりに鮮鋭化処理部123を有する点を除けば、第1実施形態の監視カメラ10と基本的に同じ構成である。このため、上記第1実施形態と機能・構成上同一のものについては、同一符号を付してその説明は省略する。
 鮮鋭化処理部123は、第2の撮像モードにおいて撮像部26から時間間隔A(図4参照)ごとに入力される第2の画像データD2に対して鮮鋭化処理を施す。鮮鋭化処理は、例えばラプラシアンフィルタなどの鮮鋭化フィルタを用いたフィルタ処理(畳み込み演算)により、第2の画像データD2に基づく画像のエッジ強調を行うことである。
 ここでフィルタ処理では、鮮鋭化フィルタのフィルタ係数を適切に調整することで、第2の画像データD2の位相をずらすことができる。すなわち、鮮鋭化処理を行った場合でも、倍率色収差補正処理を行った場合と同様に、第2の画像データD2の各画素の画素位置をシフトさせることができ、可視光と近赤外光の色収差(倍率色収差)を補正することができる。なお、鮮鋭化処理部123の鮮鋭化処理に用いられる鮮鋭化フィルタのフィルタ係数については、監視カメラ120の光学系(レンズ16及び絞り17及び赤外線カットフィルタ25など)の種類に応じて予め定められているフィルタ係数を用いる。
 鮮鋭化処理部123は、鮮鋭化処理後の第2の画像データD2を過去画像保持バッファ47と、動体領域検出部48と、変換部49とにそれぞれ出力する。これ以降の処理については上記第1実施形態と基本的に同じであるので、説明は省略する。
 なお、第3実施形態の鮮鋭化処理部123は、第2の画像データD2の全体に鮮鋭化処理を行っているが、例えば、鮮鋭化処理よりも前に動体領域検出部48による動体領域V2の検出を先に行い、この検出結果に基づき第2の画像データD2内の動体領域V2に対して鮮鋭化処理を行ってもよい。すなわち、鮮鋭化処理部123は、少なくとも第2の画像データD2内の動体領域V2に対して鮮鋭化処理を行えばよい。
 また、第3実施形態では、上記第1実施形態の監視カメラ10の倍率色収差補正処理部46を鮮鋭化処理部123に置き換えた実施形態について説明を行ったが、上記第2実施形態の監視カメラ90の倍率色収差補正処理部46を鮮鋭化処理部123に置き換えてもよい。
 [第4実施形態の監視カメラ]
 図16は、本発明の第4実施形態の監視カメラ130を構成する画像処理部131の機能ブロック図である。上記第1実施形態では、可視光と近赤外光の色収差(倍率色収差)を補正するため、第2の画像データD2に対して倍率色収差補正処理を行っている。これに対して、監視カメラ130では第1の画像データD1及び第2の画像データD2に対して点像復元処理を行うことにより前述の色収差(倍率色収差)を補正する。
 点像復元処理とは、監視カメラ130の光学系の収差等による劣化を示す光学特性を予め求めておき、撮像された画像(劣化している画像)を、前述の光学特性に基づいて生成した復元(回復)フィルタを使用して復元処理することにより解像度の高い画像に復元する処理である。
 図16に示すように、監視カメラ130の画像処理部131は、第1の撮像モードでは第1の画像処理部35Afとして機能し、第2の撮像モードでは第2の画像処理部35Bfとして機能する。
 ここで第1の画像処理部35Afは、本発明の第2の点像復元処理部に相当する点像復元処理部133Aを有する点を除けば、第1実施形態の第1の画像処理部35Aと基本的に同じ構成である。また、第2の画像処理部35Bsは、倍率色収差補正処理部46の代わりに本発明の第1の点像復元処理部に相当する点像復元処理部133Bを有する点を除けば、第1実施形態の第2の画像処理部35Bと基本的に同じ構成である。このため、上記第1実施形態と機能・構成上同一のものについては、同一符号を付してその説明は省略する。
 点像復元処理部133Aは、前述の記憶部36に記憶されている後述の3種類のR,G,B用復元フィルタF,F,Fを用いて、第1の撮像モードにおいて撮像部26から入力される第1の画像データD1に対して点像復元処理を施す。また、点像復元処理部133Bは、記憶部36に記憶されている後述の赤外用復元フィルタFIRを用いて、第2の撮像モードにおいて撮像部26から入力される第2の画像データD2に対して点像復元処理を施す。
 <第1の撮像モード時の点像復元処理>
 図17は、第1の撮像モード時の点像復元処理部133Aによる点像復元処理を説明するための説明図である。図17では、理解を容易にするため、被写体として点像を撮像した場合を示している(後述の図19も同様)。
 図17に示すように、第1の撮像モード時に点像を被写体として撮像を行う場合、被写体の可視光画像は監視カメラ130の光学系(レンズ16及び絞り17及び赤外線カットフィルタ25など)を通して撮像部26により撮像され、この撮像部26から第1の画像データD1が出力される。この第1の画像データD1は、可視光に対する監視カメラ130の光学系の光学特性に基づく点拡がり現象によって振幅成分と位相成分とが劣化し、本来の被写体像(点像)は、非点対称なボケ画像となる。ここで、可視光は様々な波長帯域の光から構成されているので倍率色収差が発生し、第1の画像データD1を構成するR画像データとG画像データとB画像データとの位相にずれが発生している。以下、R画像データ及びG画像データ及びB画像データを、単に「R,G,B画像データ」と略す。
 点像復元処理部133Aによる点像復元処理では、可視光に対する監視カメラ130の光学系の光学特性(本発明の第2の光学特性に相当)として、R光及びG光及びB光のそれぞれに対する色毎の点拡がり関数(PSF:Point spread function)K,K,Kを予め求めておく。これら点拡がり関数K,K,Kは、本発明の第2の点拡がり関数に相当するものである。
 なお、点拡がり関数K,K,K(PSF)の代わりに、光学伝達関数(OTF:Optical Transfer Function)を予め求めてもよい。PSFとOTFとはフーリエ変換の関係にあり、PSFは実関数、OTFは複素関数である。また、これらと等価な情報を持つものとして、変調伝達関数又は振幅伝達関数(MTF:Modulation Transfer Function)と位相伝達関数(PTF:Phase Transfer Function)があり、それぞれOTFの振幅成分と位相成分を示す。MTFとPTFとを合わせてOTFやPSFと等価な情報量を持つ。
 本実施形態では、点拡がり関数K,K,K(PSF)が予め求められて、復元フィルタ生成部135に入力される。復元フィルタ生成部135は、例えばコンピュータ等の演算装置が用いられる。この復元フィルタ生成部135は、点拡がり関数K,K,K(PSF)に基づき、点像復元処理部133Aによる点像復元処理で用いられるR,G,B用復元フィルタF,F,Fを生成する。
 一般に、PSFによるボケ画像の復元に用いられる復元フィルタとしては、コンボリューション型のウィナー(Wiener)フィルタを利用することができる。PSF(x,y)をフーリエ変換したOTFと信号対雑音比(SNR:signal-noise ratio、SN比ともいう)の情報を参照して、以下の式によって復元フィルタの周波数特性d(ω,ω)を算出することができる。
Figure JPOXMLDOC01-appb-M000001
 ここで、H(ω,ω)はOTFを表し、H(ω,ω)はその複素共役を表す。また、SNR(ω,ω)は信号対雑音比(SN比)を表す。
 復元フィルタのフィルタ係数の設計は、フィルタの周波数特性が、所望のWiener周波数特性に最も近くなるように係数値を選択する最適化問題であり、任意の公知の手法によってフィルタ係数が適宜算出される。
 このようにR,G,B用復元フィルタF,F,Fは、第1の画像データD1の取得時の撮像条件に応じた監視カメラ130の光学系の点像情報(PSF)から、所定の振幅復元及び位相補正フィルタ算出アルゴリズムによって得られる。光学系の点像情報は、レンズ16の種類だけではなく、絞り量、焦点距離、ズーム量、像高、記録画素数、画素ピッチ等の各種の撮像条件によって変動し得る。従って、復元フィルタ生成部135によりR,G,B用復元フィルタF,F,Fを生成(算出)する際には、これらの撮像条件が取得される。復元フィルタ生成部135は、生成したR,G,B用復元フィルタF,F,Fを前述の記憶部36に記憶させる。
 R,G,B用復元フィルタF,F,Fは、例えばα×β(α及びβは2以上の整数)のタップによって構成される実空間上のフィルタであり、処理対象の第1の画像データD1のR,G,B画像データにそれぞれ適用される。これにより、各タップに割り当てられるフィルタ係数と対応の画素データ(R,G,B画像データの処理対象画素データ及び隣接画素データ)とを加重平均演算(デコンボリューション演算)することで、回復処理後の画素データを算出することができる。R,G,B用復元フィルタF,F,Fを用いた加重平均処理を、対象画素を順番に代えながら、R,G,B画像データを構成する全画素データに適用することで、点像復元処理を行うことができる。
 図18は、点像復元処理の位相補正と振幅補正を説明するための説明図である。図18に示すように、点像復元処理は、「位相補正」(「位相復元」ともいう)と、「振幅補正」(「振幅復元」ともいう)とに大別することができる。「位相補正」は、R,G,B用復元フィルタF,F,Fを用いた第1の画像データD1のR,G,B画像データの位相成分の復元処理である。具体的に「位相補正」には、R,G,B画像データの位相ずれの復元と、非点対称な点拡がり関数K,K,K(PSF)の形状に起因する位相成分の復元とが含まれる。なお、非点対称な点拡がり関数の形状に起因する位相成分の復元とは、非点対称な点広がり形状を点対称な点広がり形状に補正することである。
 「振幅補正」は、第1の画像データD1の振幅成分(MTF)の復元処理である。振幅補正により、点広がり形状を点(デルタ関数)に補正することができる。
 図17に戻って、点像復元処理部133Aは、撮像部26から入力された原画像データ(第1の画像データD1)のR,G,B画像データに対して、振幅復元及び位相補正のためのR,G,B用復元フィルタF,F,Fを用いた点像復元処理を行う。これにより、本来の被写体像(点像)により近い像(回復画像)を表す回復画像データ(第1の画像データD1)が得られる。
 <第2の撮像モード時の点像復元処理>
 図19は、第2の撮像モード時の点像復元処理部133Bによる点像復元処理を説明するための説明図である。図19に示すように、第2の撮像モード時に点像を被写体として撮像を行う場合、被写体の近赤外光画像は監視カメラ130の光学系(レンズ16及び絞り17など)を通して撮像部26により撮像され、この撮像部26から第2の画像データD2が出力される。この第2の画像データD2は、近赤外光に対する監視カメラ130の光学系の光学特性に基づく点拡がり現象によって振幅成分と位相成分とが劣化し、本来の被写体像(点像)は非点対称なボケ画像となる。
 点像復元処理部133Bによる点像復元処理では、近赤外光に対する監視カメラ130の光学系の光学特性(本発明の第1の光学特性に相当)として、近赤外光に対する点拡がり関数(PSF:Point spread function)KIRを予め求めておく。この点拡がり関数KIRは、本発明の第1の点拡がり関数に相当するものである。
 本実施形態では、近赤外光に対応する点拡がり関数KIR(PSF)が予め求められて、前述の復元フィルタ生成部135に入力される。復元フィルタ生成部135は、近赤外光に対応する点拡がり関数KIR(PSF)に基づき、点像復元処理部133Bによる点像復元処理で用いられる赤外用復元フィルタFIRを生成する。赤外用復元フィルタFIRは、第2の画像データD2の取得時の撮像条件に応じた監視カメラ130の光学系の点像情報(PSF)から、所定の振幅復元及び位相補正フィルタ算出アルゴリズムによって得られる。復元フィルタ生成部135は、生成した赤外用復元フィルタFIRを前述の記憶部36に記憶させる。
 点像復元処理部133Bは、撮像部26から入力された原画像データ(第2の画像データD2)に対して、振幅復元及び位相補正のための赤外用復元フィルタFIRを用いた点像復元処理を行う。ここで、夜間の近赤外光画像の撮像時には近赤外光以外の光の影響はほぼ無視することができるので、倍率色収差は発生しない。このため、点像復元処理部133Bによる点像復元処理では、第2の画像データD2の振幅成分の復元(振幅補正)と、非点対称な点拡がり関数KIRの形状に起因する位相成分の復元(位相補正)とが行われる。これにより、本来の被写体像(点像)により近い像(回復画像)を表す回復画像データ(第2の画像データD2)が得られる。
 <第4実施形態の効果>
 以上のように第4実施形態の監視カメラ130では、点像復元処理部133A及び点像復元処理部133Bによる点像復元処理より、第1の画像データD1及び第2の画像データD2の振幅成分の復元と位相成分の復元とが行われるので、前述の倍率色収差補正処理を行った場合と同様の効果が得られ、可視光と近赤外光の色収差(倍率色収差)を補正することができる。
 <第4実施形態の他実施例>
 第4実施形態では、第1の画像データD1及び第2の画像データD2の両方に点像復元処理を行っているが、第2の画像データD2に対してのみ点像復元処理を行ってもよい。また、上記第4実施形態では、第2の画像データD2の全体に点像復元処理を行っているが、例えば、点像復元処理よりも前に動体領域V2の検出を行い、この検出結果に基づき第2の画像データD2内の動体領域V2に対して点像復元処理を行ってもよい。すなわち、点像復元処理部133Bは、少なくとも第2の画像データD2内の動体領域V2に対して点像復元処理を行えばよい。
 また、第4実施形態では、上記第1実施形態の監視カメラ10において倍率色収差補正処理の代わりに点像復元処理を行う実施形態について説明を行ったが、上記第2実施形態の監視カメラ90において倍率色収差補正処理の代わりに点像復元処理を行う実施形態にても本発明を適用することができる。また、第4実施形態では、2つの点像復元処理部133Aと点像復元処理部133Bが設けられているが、1つの点像復元処理部で第1の画像データD1及び第2の画像データD2に対する点像復元処理を行ってもよい。
 [その他]
 上記実施形態では、いわゆる定点観測を行う監視カメラを例に挙げて説明を行ったが、パンチルト機能を有しており複数の被写体(広範囲な監視領域)を撮像可能な監視カメラにも本発明を適用することができる。
 上記各実施形態では、第1の画像処理部が非変化領域検出部42として機能しているが、非変化領域検出部42を省略することも可能である。また、上記各実施形態では、倍率色収差補正処理または鮮鋭化処理または点像復元処理により可視光と近赤外光の色収差(倍率色収差)の補正を行っているが、レンズ16のレンズ枚数等に制約が無ければ色収差(倍率色収差)をある程度は抑えることができる。よって、この場合には色収差(倍率色収差)の補正を省略してもよい。
 上記実施形態では、固定位置に設置される本発明の撮像装置として監視カメラを例に挙げて説明を行ったが、本発明の撮像装置には、固定位置に設置されており特定の被写体(監視領域)を撮像する市販のデジタルカメラやスマートフォン等の各種の撮像装置が含まれる。
 上記各実施形態では、第2の撮像モードにおいて、RGB画素を有する撮像素子を備える撮像部26により第2の画像データD2を取得しているが、RGB画素の他に近赤外光画素を有する撮像素子を備える撮像部により第2の画像データD2を取得してもよい。
 上述の実施形態で説明した撮像装置(監視カメラ)として、撮像装置のコンピュータを機能させるためのプログラム(前述の画像処理用プログラム37B等)をCD-ROMや磁気ディスクやその他のコンピュータ可読媒体(有体物たる非一時的な情報記憶媒体)に記録し、情報記憶媒体を通じてプログラムを提供することが可能である。このような情報記憶媒体にプログラムを記憶させて提供する態様に代えて、インターネットなどの通信ネットワークを利用してプログラム信号をダウンロードサービスとして提供することも可能である。
 10…監視カメラ,12…レンズユニット,16…レンズ,25…赤外線カットフィルタ,26…撮像部,35…画像処理部,37B…画像処理用プログラム,42…非変化領域検出部,43…背景画像データ生成部,46…倍率色収差補正処理部,48…動体領域検出部,49…変換部,50…選択部,90…監視カメラ,91…画像処理部,94…色情報抽出部,100…選択部,120…監視カメラ,121…画像処理部,123…鮮鋭化処理部,130…監視カメラ,131…画像処理部,133A…点像復元処理部,133B…点像復元処理部

Claims (13)

  1.  固定位置に設置された撮像装置において、
     赤外線カットフィルタが撮像光路に挿入され、又は撮像光路から退避可能な光学系と、
     前記赤外線カットフィルタが撮像光路に挿入された前記光学系を通して被写体を撮像し、前記被写体の可視光画像であってカラー画像である前記可視光画像を示す第1の画像データを取得する第1の撮像モードと、前記赤外線カットフィルタが撮像光路から退避された前記光学系を通して被写体を撮像し、前記被写体の近赤外光画像であってモノクロ画像である前記近赤外光画像を含む第2の画像データを取得する第2の撮像モードとを有する撮像部と、
     前記第1の撮像モードと前記第2の撮像モードとを交互に切り替える撮像モード切替部と、
     前記撮像部が前記第2の撮像モードで動作している場合に、前記撮像部が取得した前記第2の画像データ内で、当該第2の画像データの前に前記撮像部が取得した前記第2の画像データと比較して変化がある変化領域を検出する変化領域検出部と、
     前記変化領域検出部の検出結果に基づき、前記第2の画像データ内の前記変化領域に対応する変化領域画像データに、前記撮像部により前記第2の撮像モードの直前の前記第1の撮像モードで取得された前記第1の画像データに基づき生成され且つ前記第2の画像データ内の前記変化領域とは異なる背景領域に対応するカラー画像の背景画像データを合成した合成画像データを生成する合成画像データ生成部と、
     を備える撮像装置。
  2.  前記合成画像データ生成部は、前記第1の画像データ内の前記背景領域に対応する領域から抽出した色情報と、前記第2の画像データの前記背景領域における輝度情報とに基づき、前記背景画像データを生成する請求項1に記載の撮像装置。
  3.  前記合成画像データ生成部は、前記第1の画像データ内の前記背景領域に対応する領域に含まれる画像データそのものを用いて前記背景画像データを生成する請求項1に記載の撮像装置。
  4.  前記第1の撮像モードにおいて前記撮像部が異なるタイミングで取得した複数の前記第1の画像データの中の非変化領域を検出する非変化領域検出部と、
     前記非変化領域検出部の検出結果に基づき、前記第1の画像データ内の前記非変化領域に対応する画像データから、前記背景画像データを生成する請求項1から3のいずれか1項に記載の撮像装置。
  5.  少なくとも前記変化領域画像データに対して、鮮鋭化処理を行う鮮鋭化処理部を備える請求項1から4のいずれか1項に記載の撮像装置。
  6.  少なくとも前記変化領域画像データに対して、倍率色収差補正処理を行う倍率色収差補正処理部を備える請求項1から4のいずれか1項に記載の撮像装置。
  7.  少なくとも前記変化領域画像データに対して、近赤外光に対する前記光学系の第1の光学特性に基づく点像復元処理を行う第1の点像復元処理部を備える請求項1から4のいずれか1項に記載の撮像装置。
  8.  前記第1の光学特性は、前記近赤外光に対する前記光学系の第1の点拡がり関数であり、
     前記第1の点像復元処理部が前記変化領域画像データに対して行う前記点像復元処理は、当該変化領域画像データの振幅成分と、非点対称な前記第1の点拡がり関数の形状に起因する位相成分とを復元する請求項7に記載の撮像装置。
  9.  前記第1の画像データに対して、可視光に対する前記光学系の第2の光学特性に基づく点像復元処理を行う第2の点像復元処理部を備える請求項7または8に記載の撮像装置。
  10.  前記第2の光学特性は、赤色及び緑色及び青色の前記可視光に対する前記光学系の色毎の第2の点拡がり関数であり、
     前記第2の点像復元処理部が前記第1の画像データに対して行う前記点像復元処理は、前記色毎の第2の点拡がり関数に基づく復元フィルタを用いた前記第1の画像データの位相成分の復元処理を含む請求項9に記載の撮像装置。
  11.  赤外線カットフィルタが撮像光路に挿入され、又は撮像光路から退避可能な光学系と、前記赤外線カットフィルタが撮像光路に挿入された前記光学系を通して被写体を撮像し、前記被写体の可視光画像であってカラー画像である前記可視光画像を示す第1の画像データを取得する第1の撮像モードと、前記赤外線カットフィルタが撮像光路から退避された前記光学系を通して被写体を撮像し、前記被写体の近赤外光画像であってモノクロ画像である前記近赤外光画像を含む第2の画像データを取得する第2の撮像モードとを有する撮像部と、前記第1の撮像モードと前記第2の撮像モードとを交互に切り替える撮像モード切替部と、を備えており、固定位置に設置されている撮像装置の画像処理方法において、
     前記撮像部が前記第2の撮像モードで動作している場合に、前記撮像部が取得した前記第2の画像データ内で、当該第2の画像データの前に前記撮像部が取得した前記第2の画像データと比較して変化がある変化領域を検出する変化領域検出ステップと、
     前記変化領域検出ステップの検出結果に基づき、前記第2の画像データ内の前記変化領域に対応する変化領域画像データに、前記撮像部により前記第2の撮像モードの直前の前記第1の撮像モードで取得された前記第1の画像データに基づき生成され且つ前記第2の画像データ内の前記変化領域とは異なる背景領域に対応するカラー画像の背景画像データを合成した合成画像データを生成する合成画像データ生成ステップと、
     を有する撮像装置の画像処理方法。
  12.  赤外線カットフィルタが撮像光路に挿入され、又は撮像光路から退避可能な光学系と、前記赤外線カットフィルタが撮像光路に挿入された前記光学系を通して被写体を撮像し、前記被写体の可視光画像であってモノクロ画像である前記可視光画像を示す第1の画像データを取得する第1の撮像モードと、前記赤外線カットフィルタが撮像光路から退避された前記光学系を通して被写体を撮像し、前記被写体の近赤外光画像であってモノクロ画像である前記近赤外光画像を含む第2の画像データを取得する第2の撮像モードとを有する撮像部と、前記第1の撮像モードと前記第2の撮像モードとを交互に切り替える撮像モード切替部と、を備えており、固定位置に設置されている撮像装置のコンピュータを、
     前記撮像部が前記第2の撮像モードで動作している場合に、前記撮像部が取得した前記第2の画像データ内で、当該第2の画像データの前に前記撮像部が取得した前記第2の画像データと比較して変化がある変化領域を検出する変化領域検出手段、
     前記変化領域検出手段の検出結果に基づき、前記第2の画像データ内の前記変化領域に対応する変化領域画像データに、前記撮像部により前記第2の撮像モードの直前の前記第1の撮像モードで取得された前記第1の画像データに基づき生成され且つ前記第2の画像データ内の前記変化領域とは異なる背景領域に対応するカラー画像の背景画像データを合成した合成画像データを生成する合成画像データ生成手段、
     として機能させるためのプログラム。
  13.  請求項12に記載のプログラムを記録したコンピュータ読み取り可能な非一時的有形媒体。
PCT/JP2016/062170 2015-04-23 2016-04-15 撮像装置及び撮像装置の画像処理方法及びプログラム WO2016171088A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201680023422.8A CN107534733B (zh) 2015-04-23 2016-04-15 摄像装置、该摄像装置的图像处理方法及介质
JP2017514100A JP6243087B2 (ja) 2015-04-23 2016-04-15 撮像装置及び撮像装置の画像処理方法及びプログラム
US15/789,196 US10634830B2 (en) 2015-04-23 2017-10-20 Imaging device, image processing method and program for imaging device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-088229 2015-04-23
JP2015088229 2015-04-23

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/789,196 Continuation US10634830B2 (en) 2015-04-23 2017-10-20 Imaging device, image processing method and program for imaging device

Publications (1)

Publication Number Publication Date
WO2016171088A1 true WO2016171088A1 (ja) 2016-10-27

Family

ID=57143146

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/062170 WO2016171088A1 (ja) 2015-04-23 2016-04-15 撮像装置及び撮像装置の画像処理方法及びプログラム

Country Status (4)

Country Link
US (1) US10634830B2 (ja)
JP (1) JP6243087B2 (ja)
CN (1) CN107534733B (ja)
WO (1) WO2016171088A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022024612A1 (ja) * 2020-07-29 2022-02-03 富士フイルム株式会社 撮像制御装置、撮像制御装置の作動方法、プログラム、並びに撮像装置
TWI757387B (zh) * 2016-12-27 2022-03-11 日商瑞薩電子股份有限公司 用來將構成為對於相機之像震進行修正的致動器之驅動量加以校正所用方法
TWI812104B (zh) * 2017-06-27 2023-08-11 日商半導體能源研究所股份有限公司 顯示系統及資料處理方法

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7210872B2 (ja) * 2017-07-19 2023-01-24 富士フイルムビジネスイノベーション株式会社 画像処理装置及び画像処理プログラム
CN110998703A (zh) 2017-08-24 2020-04-10 株式会社半导体能源研究所 图像处理方法
JP7450163B2 (ja) * 2018-09-18 2024-03-15 パナソニックIpマネジメント株式会社 奥行取得装置、奥行取得方法およびプログラム
JP7425281B2 (ja) * 2018-10-23 2024-01-31 株式会社デンソーウェーブ 情報コード読取装置
JP7169863B2 (ja) * 2018-12-03 2022-11-11 キヤノン株式会社 撮像装置及びその制御方法、及び演算方法
JP7204499B2 (ja) * 2019-01-21 2023-01-16 キヤノン株式会社 画像処理装置、画像処理方法、および、プログラム
EP3820144B1 (en) 2019-11-07 2021-12-29 Axis AB Method for displaying a video stream of a scene
CN112449095A (zh) * 2020-11-12 2021-03-05 Oppo广东移动通信有限公司 图像处理方法和装置、电子设备、可读存储介质
JP2023162833A (ja) 2022-04-27 2023-11-09 株式会社リコー 画像処理装置、読取装置、画像形成装置および画像処理方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11272849A (ja) * 1998-03-24 1999-10-08 Toyota Motor Corp 周辺監視装置
JP2006333132A (ja) * 2005-05-26 2006-12-07 Sony Corp 撮像装置及び撮像方法、プログラム、プログラム記録媒体並びに撮像システム
JP2009010675A (ja) * 2007-06-28 2009-01-15 Sony Corp 撮像装置
JP2013172213A (ja) * 2012-02-17 2013-09-02 Canon Inc 画像処理装置、撮像装置、画像処理方法、および、プログラム
JP2014507856A (ja) * 2011-01-14 2014-03-27 ソニー株式会社 レンズ部の縦の色収差を利用したイメージングシステム及びその操作方法
JP2015056674A (ja) * 2013-09-10 2015-03-23 和浩 山本 カメラ

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB1455021A (en) * 1973-02-07 1976-11-10 Croftshaw Engs Ltd Material flowrate monitoring system
US7428019B2 (en) * 2001-12-26 2008-09-23 Yeda Research And Development Co. Ltd. System and method for increasing space or time resolution in video
WO2007054931A2 (en) * 2005-11-10 2007-05-18 D-Blur Technologies Ltd. Image enhancement in the mosaic domain
CN100474337C (zh) * 2006-09-08 2009-04-01 浙江师范大学 一种基于径向基神经网络的有噪运动模糊图像复原方法
US8866920B2 (en) * 2008-05-20 2014-10-21 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
JP5259381B2 (ja) * 2008-12-25 2013-08-07 京セラ株式会社 撮像装置および撮像方法
JP5335734B2 (ja) * 2009-06-11 2013-11-06 キヤノン株式会社 眼科撮像装置及び眼科撮像方法
JP2011128238A (ja) 2009-12-16 2011-06-30 Fujitsu Ltd 撮像装置および情報端末装置
JP6045185B2 (ja) * 2011-06-14 2016-12-14 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
WO2015146380A1 (ja) * 2014-03-28 2015-10-01 富士フイルム株式会社 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム
JP6259165B2 (ja) * 2015-04-16 2018-01-10 富士フイルム株式会社 撮像装置、画像処理装置、画像処理方法、プログラム及び記録媒体
CN107431763B (zh) * 2015-04-16 2020-02-28 富士胶片株式会社 摄像装置、图像处理装置、图像处理方法及记录介质
WO2017146060A1 (ja) * 2016-02-26 2017-08-31 富士フイルム株式会社 画像処理装置、撮像装置及び画像処理方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11272849A (ja) * 1998-03-24 1999-10-08 Toyota Motor Corp 周辺監視装置
JP2006333132A (ja) * 2005-05-26 2006-12-07 Sony Corp 撮像装置及び撮像方法、プログラム、プログラム記録媒体並びに撮像システム
JP2009010675A (ja) * 2007-06-28 2009-01-15 Sony Corp 撮像装置
JP2014507856A (ja) * 2011-01-14 2014-03-27 ソニー株式会社 レンズ部の縦の色収差を利用したイメージングシステム及びその操作方法
JP2013172213A (ja) * 2012-02-17 2013-09-02 Canon Inc 画像処理装置、撮像装置、画像処理方法、および、プログラム
JP2015056674A (ja) * 2013-09-10 2015-03-23 和浩 山本 カメラ

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI757387B (zh) * 2016-12-27 2022-03-11 日商瑞薩電子股份有限公司 用來將構成為對於相機之像震進行修正的致動器之驅動量加以校正所用方法
TWI812104B (zh) * 2017-06-27 2023-08-11 日商半導體能源研究所股份有限公司 顯示系統及資料處理方法
WO2022024612A1 (ja) * 2020-07-29 2022-02-03 富士フイルム株式会社 撮像制御装置、撮像制御装置の作動方法、プログラム、並びに撮像装置
JP7430801B2 (ja) 2020-07-29 2024-02-13 富士フイルム株式会社 撮像制御装置、撮像制御装置の作動方法、プログラム、並びに撮像装置

Also Published As

Publication number Publication date
US20180045867A1 (en) 2018-02-15
US10634830B2 (en) 2020-04-28
CN107534733B (zh) 2019-12-20
JPWO2016171088A1 (ja) 2018-03-15
CN107534733A (zh) 2018-01-02
JP6243087B2 (ja) 2017-12-06

Similar Documents

Publication Publication Date Title
JP6243087B2 (ja) 撮像装置及び撮像装置の画像処理方法及びプログラム
JP6247425B2 (ja) 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム
JP5624809B2 (ja) 画像信号処理装置
JP5660341B2 (ja) 撮像装置、撮像方法
WO2013039061A1 (ja) 撮像装置、撮像方法及び記録媒体
JP2005130297A (ja) 信号処理システム、信号処理方法、信号処理プログラム
US8189066B2 (en) Image processing apparatus, image processing method, and computer-readable medium
JP6247794B2 (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
CN104221364A (zh) 成像装置和图像处理方法
JP5708036B2 (ja) 撮像装置
US10326947B2 (en) Image processing device, imaging device, image processing method, and program
JP2007243917A (ja) 撮像装置および画像処理プログラム
JP6108680B2 (ja) 撮像装置及びその制御方法、プログラム、並びに記憶媒体
JP6240813B2 (ja) 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム
JP2014216775A (ja) 撮像装置、検出方法およびプログラム
JP2012095223A (ja) 撮像装置、撮像方法及びプログラム
JP2011109411A (ja) ホワイトバランス補正係数決定方法、ホワイトバランス補正係数決定装置、ホワイトバランス補正方法、ホワイトバランス補正装置、及び撮像装置
JP2010239493A (ja) 撮像装置および映像信号の補正処理方法
JP2023155650A (ja) 撮像装置及びその制御方法並びにプログラム
JP5307572B2 (ja) 撮像システム、映像信号処理プログラム、および撮像方法
JP6627422B2 (ja) 画像処理装置、撮像装置、制御プログラム
KR101299250B1 (ko) 디지털 영상 처리 장치 및 그 제어 방법
JP2023155714A (ja) 撮像装置及びその制御方法並びにプログラム
CN117670706A (zh) 用于生成经摩尔纹校正的图像文件的方法和相机设备
KR20160056409A (ko) 저 조도 cctv 시스템

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16783109

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017514100

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16783109

Country of ref document: EP

Kind code of ref document: A1