JP2006262101A - Image sensing apparatus - Google Patents

Image sensing apparatus Download PDF

Info

Publication number
JP2006262101A
JP2006262101A JP2005076975A JP2005076975A JP2006262101A JP 2006262101 A JP2006262101 A JP 2006262101A JP 2005076975 A JP2005076975 A JP 2005076975A JP 2005076975 A JP2005076975 A JP 2005076975A JP 2006262101 A JP2006262101 A JP 2006262101A
Authority
JP
Japan
Prior art keywords
image
water droplet
unit
detection
monitoring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005076975A
Other languages
Japanese (ja)
Inventor
Takashi Nagamine
隆 長峯
Tetsuya Takahashi
哲也 高橋
Toshio Matsuzawa
俊男 松澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2005076975A priority Critical patent/JP2006262101A/en
Publication of JP2006262101A publication Critical patent/JP2006262101A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Alarm Systems (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Burglar Alarm Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image sensing apparatus for surely monitoring until an adhered state of water droplets is eliminated by switching automatic monitoring into visual monitoring through the detection of the water droplets. <P>SOLUTION: The image sensing apparatus 100 includes: an intruder detecting section 40 for discriminating whether or not an image region by a detection object exists in an input image imaged by an imaging section 10 so as to detect the presence of the detection object in a monitoring space; a water droplet detection section 50 for discriminating an image region by water droplets exists in the input image imaged by the imaging section 10 so as to detect the adhesion of the water droplets to the imaging section 10; and an output section 80 for outputting signals with respect to results of detection by the intruder detection section 40 and the water droplet detection section 50 to a monitoring center 120. When the water droplet detection section 50 detects water droplets, a monitoring control section 90 carries out control of outputting an input image acquired from the imaging section 10 after the water droplet detection to the monitoring center 120, and the monitoring center 120 displays the input image to allow the monitoring. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、特に屋外の監視空間を撮像した画像から検出対象である移動物体を検出するのに好適な画像センシング装置に関する。   The present invention relates to an image sensing apparatus suitable for detecting a moving object that is a detection target from an image obtained by imaging an outdoor monitoring space.

近年、監視空間に侵入した侵入者等を検出するセキュリティシステムが広く使用されており、例えば画像センサを用いたセキュリティシステムが普及している。画像センサを用いたシステムは、監視対象となる監視空間を撮像するカメラ部と、カメラ部で撮像された画像を受ける画像取得部と、処理に利用される画像データを格納及び保持する記憶部と、画像データを処理して監視空間内に存在する移動物体を検出する処理部と、を備える。処理部は、入力画像とそれより過去に撮像された背景画像との差分からなる差分画像に基づいて画像内の変動領域を抽出し、その変動領域に対応する入力画像の領域の属性値が検出対象物に特有の特徴を有する場合に、検出対象物が監視空間内に存在するものとして警報を発する等の処理を行う。例えば、検出対象が「侵入者」である場合には、変動領域に対応する入力画像データ中の領域の大きさ、縦横比、輝度情報等の「人らしさ」を表す属性値が所定の条件を満たす場合に侵入者が存在するものとして警報を発する等の処理を行う。   In recent years, security systems that detect intruders or the like that have entered a monitoring space have been widely used. For example, security systems using image sensors have become widespread. A system using an image sensor includes a camera unit that captures a monitoring space to be monitored, an image acquisition unit that receives an image captured by the camera unit, and a storage unit that stores and holds image data used for processing. A processing unit that processes the image data and detects a moving object existing in the monitoring space. The processing unit extracts a variation area in the image based on a difference image composed of a difference between the input image and a background image captured in the past, and detects an attribute value of the area of the input image corresponding to the variation area When the object has a characteristic characteristic, processing such as issuing an alarm as the detection object exists in the monitoring space is performed. For example, when the detection target is “intruder”, the attribute value indicating “humanity” such as the size, aspect ratio, and luminance information of the input image data corresponding to the variable region satisfies a predetermined condition. When the condition is satisfied, processing such as issuing an alarm that an intruder exists is performed.

また、画像センサを用いて侵入者等の監視を行うシステムは、夜間の監視のために、監視空間に光を照射する照明部をさらに備える。そして、照明部により監視空間を照射した状態で監視空間を撮像した画像を取得し、取得した画像データを処理して移動物体の検出及び該移動物体が検出対象物か否かの判断を行うことで、夜間における監視空間内の検出対象物(例えば侵入者)の存否を判断する。   Moreover, the system which monitors an intruder etc. using an image sensor is further provided with the illumination part which irradiates light to monitoring space for nighttime monitoring. Then, an image obtained by capturing the monitoring space in a state where the monitoring space is illuminated by the illumination unit is acquired, and the acquired image data is processed to detect a moving object and determine whether the moving object is a detection target. Thus, it is determined whether or not there is a detection object (for example, an intruder) in the monitoring space at night.

特開平05−284501号公報JP 05-284501 A

ところで、屋外の監視空間に侵入した侵入者等を検出するため、カメラ部を屋外に設置して上記のシステムを利用することがある。この場合、屋外の監視空間を監視するシステムではカメラ部を屋外に設置するため、雨天時等にカメラ部のレンズ部分等に水滴が付着する事態が生じることがある。ここで、水滴がレンズ部分等に付着すると、水滴を撮像した画像領域はぼやけた状態で画像データ中に映り込むため、ぼやけた水滴画像領域における検出対象物の検出処理が困難となる。例えば、画像中の水滴画像領域内に侵入者が存在する場合、侵入者の画像が水滴画像領域に隠れる等してはっきりと撮像されない場合があり、セキュリティシステムでは特に問題となる。   By the way, in order to detect an intruder or the like who has entered an outdoor monitoring space, the above system may be used by installing a camera unit outdoors. In this case, since the camera unit is installed outdoors in a system for monitoring an outdoor monitoring space, a situation may occur in which water drops adhere to the lens portion of the camera unit during rainy weather. Here, when a water droplet adheres to a lens part or the like, an image region in which the water droplet is imaged is reflected in the image data in a blurred state, so that it is difficult to detect a detection target in the blurred water droplet image region. For example, when an intruder exists in the water drop image area in the image, the intruder image may not be clearly captured because it is hidden in the water drop image area, which is a particular problem in the security system.

また、侵入者等を検出するための画像センサを用いたシステムでは、入力画像と背景画像との差分画像から抽出された変動領域の「検出対象物らしさ」を表す属性値が所定の条件を満たすか否かが検出のポイントとなる。すなわち、変動領域が検出対象物に起因しない場合においても「検出対象物らしさ」の条件が満たされるときには検出誤り(誤報)を発することとなる。このような誤報は、侵入者を検出するセキュリティシステムでは特に問題となるが、カメラ部のレンズ部分等に付着した水滴が、この誤報の原因となることがある。   In addition, in a system using an image sensor for detecting an intruder or the like, an attribute value representing the “detection object likelihood” of the fluctuation region extracted from the difference image between the input image and the background image satisfies a predetermined condition. Whether or not is the point of detection. That is, even when the fluctuation region is not caused by the detection object, a detection error (false report) is issued when the condition of “detection object likelihood” is satisfied. Such a false alarm becomes a problem particularly in a security system for detecting an intruder, but water droplets adhering to the lens portion of the camera unit may cause the false alarm.

本発明の目的は、撮像部に水滴が付着した場合に、画像センサによる検出対象物(侵入者)の検出が困難になっても、入力画像を送信して画面表示することで、監視員による目視での監視に切り替え可能とする画像センシング装置を提供することにある。   It is an object of the present invention to transmit an input image and display it on a screen even if it becomes difficult to detect a detection target (intruder) by an image sensor when a water droplet adheres to an imaging unit. An object of the present invention is to provide an image sensing device that can be switched to visual monitoring.

本発明の画像センシング装置は、監視空間を撮像した画像を取得する撮像部と、前記撮像部により撮像された入力画像中に検出対象物による画像領域が存在するか否かを判定し、前記監視空間における検出対象物の存在を検出する対象物検出部と、前記撮像部により撮像された入力画像中に水滴による画像領域が存在するか否かを判定し、前記撮像部への水滴の付着を検出する水滴検出部と、前記対象物検出部及び前記水滴検出部による検出結果に関する信号を外部の監視装置に出力する出力部と、を備え、前記水滴検出部が水滴を検出した場合に、水滴を検出した以降に前記撮像部から取得する入力画像を前記監視装置に出力し、前記監視装置にて画面表示を可能とすることを特徴とする。   The image sensing device of the present invention determines an image capturing unit that obtains an image of a monitoring space, and whether or not an image region due to a detection target exists in an input image captured by the image capturing unit. An object detection unit that detects the presence of a detection object in space, and determines whether or not an image region due to water droplets exists in the input image captured by the imaging unit, and the attachment of water droplets to the imaging unit A water droplet detection unit to detect, and an output unit that outputs a signal related to a detection result by the object detection unit and the water droplet detection unit to an external monitoring device, and when the water droplet detection unit detects a water droplet, An input image acquired from the imaging unit after detecting the image is output to the monitoring device, and the monitoring device can display a screen.

また本発明の画像センシング装置は、監視空間を撮像した画像を取得する撮像部と、前記撮像部により撮像された入力画像中に検出対象物による画像領域が存在するか否かを判定し、前記監視空間における検出対象物の存在を検出する対象物検出部と、前記撮像部により撮像された入力画像中に水滴による画像領域が存在するか否かを判定し、前記撮像部への水滴の付着を検出する水滴検出部と、前記対象物検出部及び前記水滴検出部による検出結果に関する信号を外部の監視装置に出力する出力部と、を備え、前記出力部からの水滴を検出した旨の信号に対して外部から返答信号を受信した場合に、水滴を検出した以降に前記撮像部から取得する入力画像を前記監視装置に出力し、前記監視装置にて画面表示を可能とすることを特徴とする。   The image sensing device of the present invention determines whether or not an image area by a detection target exists in an input image captured by the imaging section, an imaging section that captures an image of the surveillance space, An object detection unit for detecting the presence of a detection object in a monitoring space, and whether or not an image region due to water droplets exists in an input image captured by the imaging unit, and adhesion of water droplets to the imaging unit A signal indicating that a water droplet has been detected from the output unit, and a water droplet detection unit for detecting a water droplet, and an output unit for outputting a signal related to a detection result by the object detection unit and the water droplet detection unit to an external monitoring device. When an answer signal is received from the outside, an input image acquired from the imaging unit after detecting a water droplet is output to the monitoring device, and the monitoring device can display a screen. Do

ここで上記構成の画像センシング装置において、前記水滴検出部が水滴を検出した場合、前記対象物検出部は、検出処理を停止するのが好適である。   Here, in the image sensing device configured as described above, when the water droplet detection unit detects a water droplet, it is preferable that the object detection unit stops the detection process.

また、前記対象物検出部が検出処理を停止した場合であって前記水滴検出部が水滴を検出しなくなった場合には、前記対象物検出部は、検出処理を再開するようにしても良く、あるいは、外部から検出処理を再開する旨の指示信号を受信して、検出処理を再開するようにしても良い。   Further, when the object detection unit stops the detection process and the water droplet detection unit stops detecting the water droplet, the object detection unit may restart the detection process, Alternatively, the detection process may be resumed by receiving an instruction signal for restarting the detection process from the outside.

本発明によれば、水滴の付着を検出すると、入力画像を画面表示することで画像センシング装置による自動監視から監視員の目視による監視に切り替えるため、水滴の付着状態が解消されるまでの間の侵入者検出を確実に行うことが可能となる。   According to the present invention, when the attachment of water droplets is detected, the input image is displayed on the screen to switch from automatic monitoring by the image sensing device to monitoring by visual observation by the observer. Intruder detection can be performed reliably.

本発明の実施の形態における画像センシング装置100は、図1に示すように、撮像部10、照明部20、照明制御部30、侵入者検出部40と水滴検出部50と判定部60とを含む画像処理部70、出力部80及び監視制御部90を含み、以下に説明する処理を実行するためのプログラムを実行可能なコンピュータで構成することができる。尚、本実施形態では、検出対象物を「侵入者」としているが、これに限定されるものではない。従って、符号40の構成要素を侵入者検出部という名称としているが、検出対象物によって名称も変更し得るものであり、画像センシング装置100による所望の検出対象物を検出する処理を行う構成であれば良い。   As shown in FIG. 1, the image sensing device 100 according to the embodiment of the present invention includes an imaging unit 10, an illumination unit 20, an illumination control unit 30, an intruder detection unit 40, a water droplet detection unit 50, and a determination unit 60. The image processing unit 70, the output unit 80, and the monitoring control unit 90 can be configured by a computer that can execute a program for executing the processing described below. In the present embodiment, the detection target is “intruder”, but is not limited to this. Therefore, although the component 40 is named the intruder detection unit, the name can be changed depending on the detection target, and the image sensing device 100 performs a process of detecting a desired detection target. It ’s fine.

撮像部10は、監視空間を2次元画像データとして取得可能なCCD素子又はC−MOS素子等の光電変換素子を備えたカメラ、撮像された画像に対してアナログ/デジタル変換等の処理を行う処理部、及び、画像データを出力するインターフェース(図示せず)を含んで構成される。撮像部10は、所定の時間周期Ti(例えば、0.1秒)で監視空間の画像を撮像して画像データとして出力する。   The imaging unit 10 is a camera that includes a photoelectric conversion element such as a CCD element or a C-MOS element that can acquire the monitoring space as two-dimensional image data, and a process that performs processing such as analog / digital conversion on the captured image. And an interface (not shown) for outputting image data. The imaging unit 10 captures an image of the monitoring space at a predetermined time period Ti (for example, 0.1 second) and outputs it as image data.

照明部20は、例えば複数の発光ダイオード(LED)素子やランプ等が例えばマトリックス状に配列された構成となっている。この照明部20により、夜間等における監視空間を照射した状態で撮像部10により撮像した画像を取得することができる。尚、撮像部10と照明部20とは屋外向け防水性能を備えた筐体に収納されている。本発明では、その前面のガラスに付着した水滴を検出する。   The illumination unit 20 has a configuration in which, for example, a plurality of light emitting diode (LED) elements, lamps, and the like are arranged in a matrix, for example. The illumination unit 20 can acquire an image captured by the imaging unit 10 in a state where the monitoring space is irradiated at night or the like. In addition, the imaging part 10 and the illumination part 20 are accommodated in the housing | casing provided with the waterproof performance for outdoors. In the present invention, water droplets attached to the front glass are detected.

照明制御部30は、撮像部10による入力画像全体の平均輝度を算出し、所定値以下であれば、夜間の監視のように環境光による明るさだけでは監視困難であるとして、監視空間を照射させるよう照明部20を制御する。一方、入力画像全体の平均輝度が所定値以上であれば、昼間の監視のように環境光による明るさで十分監視可能であるとして、照明部20による照射を行わないように照明部20を制御する。また、例えば夜間における監視空間が街灯等で明るい場合には、街灯等による監視空間を撮像した入力画像全体の平均輝度に応じて、照明部20が制御される。また照明制御部30は、水滴検出部50(詳しくは、後述のプログラム選択部58)に、いずれの照明制御を行うか(照明の有無)を示す照明有無信号を出力する。   The illumination control unit 30 calculates the average luminance of the entire input image by the imaging unit 10, and irradiates the monitoring space, assuming that it is difficult to monitor only with the brightness due to the ambient light as in the case of nighttime monitoring if it is below a predetermined value. The illumination unit 20 is controlled so that On the other hand, if the average luminance of the entire input image is equal to or greater than a predetermined value, the illumination unit 20 is controlled so that the illumination unit 20 does not irradiate, assuming that the brightness by the ambient light can be sufficiently monitored as in daytime monitoring. To do. For example, when the monitoring space at night is bright with a streetlight or the like, the illumination unit 20 is controlled according to the average luminance of the entire input image obtained by imaging the monitoring space with the streetlight or the like. Further, the illumination control unit 30 outputs an illumination presence / absence signal indicating which illumination control is performed (whether illumination is present) to the water droplet detection unit 50 (specifically, a program selection unit 58 described later).

尚、照明有無を判断する条件としては、例えば撮像部10に内蔵された入力画像信号を増幅するAGC(Auto Gain Control)アンプにおいて、入力画像信号がAGCアンプによるゲイン調整可能なレンジを超えたら夜間とみなす(環境光による明るさだけでは監視困難とする)、画像信号のレベルが所定値以下なら夜間とみなす(環境光による明るさだけでは監視困難とする)、等の条件を設定しても良い。また本実施形態では、撮像部10による入力画像データを用いて監視空間の照度を判断しているが、照度センサを別途設け、この照度センサにより取得した照度に基づいて照明を当てるか否かを判断するようにしても良い。   As a condition for determining the presence or absence of illumination, for example, in an AGC (Auto Gain Control) amplifier that amplifies an input image signal built in the imaging unit 10, if the input image signal exceeds the range in which the gain can be adjusted by the AGC amplifier, it is nighttime. Even if the condition is set such that it is considered that it is difficult to monitor only by the brightness due to ambient light, or if the level of the image signal is below a predetermined value, it is regarded as nighttime (it is difficult to monitor only by the brightness due to ambient light) good. In the present embodiment, the illuminance of the monitoring space is determined using the input image data from the imaging unit 10, but an illuminance sensor is provided separately, and whether or not illumination is applied based on the illuminance acquired by the illuminance sensor. You may make it judge.

侵入者検出部40は、従来と同様に、撮像部10から所定の時間周期Tiで入力画像データを取得し、最新の入力画像データとそれより過去に撮像された背景画像データとの差分からなる差分画像データに基づいて画像内の変動領域を抽出し、その変動領域に対応する入力画像データ中の領域の属性値が検出対象物(本実施形態では「侵入者」すなわち「人」)に特有の特徴を有する場合に、検出対象物が監視空間内に存在するものとして、監視空間内における「侵入者」の存在を検出する。例えば、変動領域に対応する入力画像データ中の領域の大きさ、縦横比、輝度情報等の「人らしさ」を表す属性値が所定の条件を満たす場合に侵入者が存在するものとして「侵入者」の存在を検出する。また、こうして得られた検出結果を示す信号を判定部60に出力する。   The intruder detection unit 40 obtains input image data from the imaging unit 10 at a predetermined time period Ti, as in the conventional case, and includes a difference between the latest input image data and background image data captured in the past. A fluctuation area in the image is extracted based on the difference image data, and the attribute value of the area in the input image data corresponding to the fluctuation area is specific to the detection target (in this embodiment, “intruder”, that is, “person”). The presence of an “intruder” in the monitoring space is detected assuming that the detection target exists in the monitoring space. For example, an intruder is considered to be present when an attribute value representing “humanity” such as the size, aspect ratio, and luminance information of the input image data corresponding to the variable region satisfies a predetermined condition. ”Is detected. In addition, a signal indicating the detection result thus obtained is output to the determination unit 60.

水滴検出部50は、侵入者検出部40と同様に、所定の時間周期Tiで入力画像データを取得する。水滴検出部50は、図2に示すように、背景画像更新部51、背景差分演算部52、エッジ抽出部53、水滴候補画像生成部54、フレーム間差分演算部55、水滴候補近傍画像処理部56、水滴判定部57、プログラム選択部58及び記憶部59を含んで構成される。記憶部59は、半導体メモリ、ハードディスク装置、光ディスク装置等から構成することができる。記憶部59は、背景差分画像を算出するために必要な背景画像データ、及び、後述の水滴候補画像の移動情報を算出するために必要な過去水滴候補画像データを格納及び保持する。尚、過去水滴候補画像データは、最も新しい入力画像の撮像時刻から所定の時間だけ前(例えば、1フレーム前)に撮像された画像データにおいて後述の如く抽出された水滴候補画像の画像データとされる。記憶部59以外の構成部における処理については後述する。   Similar to the intruder detection unit 40, the water droplet detection unit 50 acquires input image data at a predetermined time period Ti. As shown in FIG. 2, the water drop detection unit 50 includes a background image update unit 51, a background difference calculation unit 52, an edge extraction unit 53, a water drop candidate image generation unit 54, an interframe difference calculation unit 55, and a water drop candidate neighborhood image processing unit. 56, a water drop determination unit 57, a program selection unit 58, and a storage unit 59. The storage unit 59 can be composed of a semiconductor memory, a hard disk device, an optical disk device, or the like. The storage unit 59 stores and holds background image data necessary for calculating a background difference image and past water droplet candidate image data necessary for calculating movement information of a water droplet candidate image described later. The past water droplet candidate image data is image data of a water droplet candidate image extracted as described later in image data captured a predetermined time before the imaging time of the newest input image (for example, one frame before). The Processing in components other than the storage unit 59 will be described later.

水滴検出部50は、最新の入力画像データとそれより過去に撮像された背景画像データとの差分からなる差分画像データを生成する。そして、入力画像データ、背景画像データ及び差分画像データに後述の各種処理を行い、各種処理により得られた画像データに基づいて、入力画像が水滴に起因して生じた画像か否かを判定する。水滴に起因する画像であると判定した場合には、水滴の付着を検出した旨の信号を判定部60に出力する。   The water droplet detection unit 50 generates difference image data including a difference between the latest input image data and background image data captured in the past. The input image data, the background image data, and the difference image data are subjected to various processes described later, and based on the image data obtained by the various processes, it is determined whether or not the input image is an image caused by water droplets. . If it is determined that the image is caused by a water droplet, a signal indicating that the adhesion of the water droplet has been detected is output to the determination unit 60.

判定部60は、侵入者検出部40及び水滴検出部50において検出された結果に基づいて、監視空間に検出対象物が存在するか否か、撮像部10のレンズ部分等に水滴が付着しているか否か、について判定する。ここで得られた判定結果は出力部80に出力される。   Based on the results detected by the intruder detection unit 40 and the water droplet detection unit 50, the determination unit 60 determines whether or not a detection target exists in the monitoring space, and a water droplet adheres to the lens portion of the imaging unit 10. Whether or not it is determined. The determination result obtained here is output to the output unit 80.

以上、本実施形態では、侵入者検出部40、水滴検出部50及び判定部60を含めて画像センシング装置100における画像処理部70とする。   As described above, in the present embodiment, the image processing unit 70 in the image sensing device 100 includes the intruder detection unit 40, the water droplet detection unit 50, and the determination unit 60.

出力部80は、判定部60において監視空間に検出対象物が存在する、あるいは撮像部10のレンズ部分等に水滴が付着している、と判定された場合に装置外部へ警報信号等を出力するために用いられる。例えば、警報ランプや警報ブザーを含む警報装置としても良いが、本実施形態では、遠方の監視センタ120に警報信号を送信するためのネットワーク・インターフェースとする。   The output unit 80 outputs an alarm signal or the like to the outside of the apparatus when the determination unit 60 determines that a detection target exists in the monitoring space or that water droplets are attached to the lens portion or the like of the imaging unit 10. Used for. For example, an alarm device including an alarm lamp or an alarm buzzer may be used. In this embodiment, a network interface for transmitting an alarm signal to a remote monitoring center 120 is used.

監視制御部90は、判定部60が水滴の付着を検出したと判定した場合には、入力画像データを撮像部10から出力部80に直接送り渡すよう制御する。このとき、画像処理部70による侵入者及び水滴の検出のための画像処理を停止させても良い。詳細は後述する。   When the determination unit 60 determines that water droplets are attached, the monitoring control unit 90 performs control so that the input image data is directly transferred from the imaging unit 10 to the output unit 80. At this time, the image processing for detecting intruders and water droplets by the image processing unit 70 may be stopped. Details will be described later.

本実施形態において、画像センシング装置100はネットワーク110を介して監視センタ120に接続される。ネットワーク110は、専用回線やインターネット等のような有線ネットワークであっても良く、あるいは無線ネットワークであっても良い。また監視センタ120には、ネットワーク110を介して画像センシング装置100から受信した信号に応じて適切な対応を行うための監視員が待機している。監視員は、例えば、侵入者ありの警報信号と画像データを受信した場合に、監視センタ120内の監視装置(図示せず)により画像データから監視空間の様子を確認後、現地に出向いて対処する、あるいは、撮像部10に水滴が付着した場合には画像処理部70による侵入者検出が困難となるために後述の如く目視による監視を行う、等の適切な対応を行うために監視センタ120に待機している。   In the present embodiment, the image sensing device 100 is connected to the monitoring center 120 via the network 110. The network 110 may be a wired network such as a dedicated line or the Internet, or may be a wireless network. In addition, the monitoring center 120 waits for a monitoring person to perform an appropriate response according to a signal received from the image sensing device 100 via the network 110. For example, when an alarm signal and image data with an intruder are received, the monitoring person checks the state of the monitoring space from the image data by a monitoring device (not shown) in the monitoring center 120, and then visits the site to deal with it. If the water droplets adhere to the image pickup unit 10, it becomes difficult for the image processing unit 70 to detect an intruder, so that the monitoring center 120 performs an appropriate response such as visual monitoring as described later. Waiting to

次に、本実施形態における画像センシング装置100で行われる画像データに対する処理について、図3を参照して説明する。   Next, processing for image data performed by the image sensing device 100 according to the present embodiment will be described with reference to FIG.

ステップS1では、最新の入力画像データが取得され、撮像部10において撮像された監視空間の最新の画像データが侵入者検出部40及び水滴検出部50へ入力される。このとき、入力画像データに基づいて照明制御部30による照明部20の制御が行われており、昼間等あるいは街灯等による明るい状況下での監視のように環境光による明るさで十分監視可能である場合には、環境光を利用して撮像された画像が、最新の入力画像データとして取得される。一方、夜間等のように環境光による明るさだけでは監視困難な場合には、照明部20により監視空間を照射した状態で撮像された画像が、最新の入力画像データとして取得される。   In step S <b> 1, the latest input image data is acquired, and the latest image data of the monitoring space captured by the imaging unit 10 is input to the intruder detection unit 40 and the water droplet detection unit 50. At this time, the illumination unit 20 is controlled by the illumination control unit 30 based on the input image data, and can be sufficiently monitored by the brightness of the ambient light, such as monitoring in bright conditions such as daytime or street lights. In some cases, an image captured using ambient light is acquired as the latest input image data. On the other hand, when it is difficult to monitor only with the brightness of ambient light, such as at night, an image captured in a state where the illumination space 20 illuminates the monitoring space is acquired as the latest input image data.

ステップS2では、侵入者検出部40により、監視空間内における「侵入者」の存在を検出する。侵入者検出部40では、最新の入力画像データとそれより過去に撮像された背景画像データとの差分からなる差分画像データに基づいて画像内の変動領域を抽出する。そして、その変動領域に対応する入力画像データ中の領域の属性値が「侵入者」すなわち「人」に特有の特徴を有する場合、例えば、変動領域に対応する入力画像データ中の領域の大きさ、縦横比、輝度情報等の「人らしさ」を表す属性値が所定の条件を満たす場合に、「侵入者」が監視空間内に存在するものとして、監視空間内における「侵入者」の存在を検出する。そして侵入者検出部40は、こうして得られた検出結果を示す信号を判定部60に出力する(ステップS3)。   In step S <b> 2, the intruder detection unit 40 detects the presence of “intruder” in the monitoring space. The intruder detection unit 40 extracts a fluctuation region in the image based on difference image data that is a difference between the latest input image data and background image data captured in the past. If the attribute value of the area in the input image data corresponding to the variable area has a characteristic characteristic of “intruder”, that is, “person”, for example, the size of the area in the input image data corresponding to the variable area If the attribute value indicating “humanity” such as aspect ratio and luminance information satisfies a predetermined condition, it is assumed that the “intruder” exists in the monitoring space and the presence of the “intruder” in the monitoring space. To detect. And the intruder detection part 40 outputs the signal which shows the detection result obtained in this way to the determination part 60 (step S3).

ステップS4では、水滴検出部50により、撮像部10の前面への水滴の付着を検出する。水滴検出部50により行われる水滴付着検出処理について、図4を参照して説明する。尚、以下の画像信号処理はプログラム選択部58内の記憶装置(図示せず)等に予め格納されている画像信号処理プログラムを実行することによって実現することができる。   In step S <b> 4, the water droplet detection unit 50 detects the adhesion of water droplets to the front surface of the imaging unit 10. The water droplet adhesion detection process performed by the water droplet detection unit 50 will be described with reference to FIG. The following image signal processing can be realized by executing an image signal processing program stored in advance in a storage device (not shown) or the like in the program selection unit 58.

画像信号処理プログラムには、例えば昼間等の明るい状況下で環境光を利用して撮像された撮像画像を処理して水滴検出処理を行うための明監視空間用プログラムと、夜間等に照明部20から照明光を当てて撮像された撮像画像を処理して水滴検出処理を行うための暗監視空間用プログラムとがある。そして、以下の処理が行われる前に、照明制御部30からの信号に基づき、プログラム選択部58が、撮像状況に適した画像信号処理プログラムを選択し、選択された画像信号処理プログラムに基づいて各構成部が実行することによって、以下の処理は実現される。すなわち、特に断らない限り、処理の名称が同じでも照明光を用いずに環境光を用いて撮像された撮像画像を対象とする処理と、照明光を当てて撮像された撮像画像を対象とする処理とがある。   The image signal processing program includes, for example, a bright monitoring space program for processing a captured image captured using ambient light in a bright condition such as daytime and performing water droplet detection processing, and the illumination unit 20 at night or the like. There is a dark monitoring space program for processing a picked-up image picked up by illuminating light and performing water droplet detection processing. Then, before the following processing is performed, based on the signal from the illumination control unit 30, the program selection unit 58 selects an image signal processing program suitable for the imaging situation, and based on the selected image signal processing program. The following processing is realized by executing each component. In other words, unless otherwise specified, processing is performed on a captured image captured using ambient light without using illumination light even if the process name is the same, and captured image captured using illumination light is processed. There is processing.

ステップS4−1では、最新の入力画像データと背景画像データとに基づいて背景差分データが生成される。背景差分演算部52は、記憶部59から背景画像データを読み出し、撮像部10で取得された最新の入力画像データと背景画像データとの差分を算出することによって背景差分データを生成する。具体的には、最新の入力画像データに含まれる各画素を順に着目画素として、その画素の輝度値からその画素に対応する背景画像データの画素の輝度値を引くことによって、着目画素に対する差分データを算出する。例えば、この差分データが所定の閾値以上の値であれば着目画素に対応する背景差分データの画素の画素値を“1”とし、差分データが所定の閾値より小さければ着目画素に対応する背景差分データの画素の画素値を“0”として2値化された背景差分データを生成する。すなわち、入力画像データと背景画像データとにおいて閾値以上の変動があった画像領域の画素値は“1”となり、変動がなかった画像領域の画素値は“0”となる。尚、背景差分データに含まれる画素値“1”を有する画素のうち連続する画素群で構成される領域は、一つの変動領域を形成することとなる。   In step S4-1, background difference data is generated based on the latest input image data and background image data. The background difference calculation unit 52 reads the background image data from the storage unit 59 and generates background difference data by calculating the difference between the latest input image data acquired by the imaging unit 10 and the background image data. Specifically, each pixel included in the latest input image data is set as the target pixel in order, and the difference data for the target pixel is obtained by subtracting the luminance value of the pixel of the background image data corresponding to the pixel from the luminance value of the pixel. Is calculated. For example, if the difference data is a value greater than or equal to a predetermined threshold, the pixel value of the background difference data corresponding to the pixel of interest is set to “1”, and if the difference data is smaller than the predetermined threshold, the background difference corresponding to the pixel of interest The binarized background difference data is generated by setting the pixel value of the data pixel to “0”. That is, the pixel value of the image area where the input image data and the background image data fluctuated by more than the threshold value is “1”, and the pixel value of the image area where there was no fluctuation is “0”. It should be noted that an area constituted by a continuous pixel group among pixels having the pixel value “1” included in the background difference data forms one variable area.

ここで、ステップS4−1での処理において、さらに輝度値の閾値TH1(例えば輝度情報を256階調で設定した場合、200程度)を設定しておき、この閾値TH1を用いて同様の2値化処理も行う。これにより、上記の2値化処理により得られた入力画像データにおける水滴に起因して生じた画像領域(水滴画像領域)について、この水滴画像領域内で特に閾値TH1以上である入力高輝度領域と、閾値TH1未満である他の領域(入力非高輝度領域)とを別個のものとして差分処理も行われ、入力高輝度領域についての入力高輝度差分データと入力非高輝度領域についての入力非高輝度差分データとが生成される。これは、昼間等の明るい場合に環境光を利用して撮像された場合、環境光を利用して撮像された画像中の水滴画像領域は、明るい領域(入力高輝度領域に相当)と暗い領域(入力非高輝度領域に相当)とに分かれる特徴があり、以後の処理において両者を個別に処理するのが望ましいためである。一方、夜間等に照明部20から照明光を当てて撮像した場合には、水滴はほぼ全域が明るくなるため、水滴画像領域は入力高輝度領域となる。従って、以下の説明において、入力高輝度領域の処理は、昼間等に環境光を利用して撮像した場合における入力高輝度領域及び夜間等に照明光を当てて撮像した場合における水滴画像領域の双方に対する処理を示すものとする。   Here, in the processing in step S4-1, a threshold value TH1 of the luminance value (for example, about 200 when the luminance information is set in 256 gradations) is set, and similar binary values are set using this threshold value TH1. The process is also performed. Thereby, with respect to an image region (water droplet image region) generated due to water droplets in the input image data obtained by the above binarization processing, an input high-intensity region that is particularly greater than or equal to the threshold TH1 in the water droplet image region. Difference processing is also carried out separately from other regions (input non-high luminance regions) that are less than the threshold TH1, and input high luminance difference data for the input high luminance regions and input non-high for the input non-high luminance regions. Brightness difference data is generated. This is because when the image is captured using ambient light when it is bright such as in the daytime, the water droplet image region in the image captured using ambient light is a bright region (corresponding to the input high luminance region) and a dark region. This is because it is desirable to process both of them separately in the subsequent processing. On the other hand, when imaging is performed by illuminating the illumination light from the illumination unit 20 at night or the like, the entire area of the water droplet is brightened, and thus the water droplet image region is an input high luminance region. Therefore, in the following description, the processing of the input high-brightness area includes both the input high-brightness area when imaged using ambient light during daytime and the like, and the water droplet image area when imaged by illuminating illumination light during nighttime and the like. The processing for

また、水滴画像領域とみなせる最低限の輝度として閾値TH2(例えば輝度情報を256階調で設定した場合、80〜160程度)を設定しておき、入力画像データに対して閾値TH2以上の輝度値の画素を抽出し、抽出した画素に対してのみ上記の2値化処理の画素値を“1”としても良い。これによれば、あまりにも低い輝度の画像領域は水滴に起因した画像領域ではない可能性が高いため、このような画像領域を水滴付着検出処理の処理対象外とすることができる。こうして生成された各差分データは水滴候補画像生成部54に渡される。   In addition, a threshold value TH2 (for example, about 80 to 160 when the luminance information is set in 256 gradations) is set as the minimum luminance that can be regarded as a water droplet image region, and the luminance value equal to or higher than the threshold value TH2 with respect to the input image data. This pixel may be extracted, and the pixel value of the above binarization process may be set to “1” only for the extracted pixel. According to this, there is a high possibility that an image region with too low luminance is not an image region caused by water droplets, and thus such an image region can be excluded from the processing target of the water droplet adhesion detection process. Each difference data generated in this way is passed to the water droplet candidate image generation unit 54.

ステップS4−2では、最新の入力画像データ及び背景画像データのそれぞれについて、画像中のエッジ強度が算出され、エッジ処理が行われる。この処理は、水滴がレンズ部分等に付着すると、水滴を撮像した画像領域はレンズ効果によりぼやけた状態で画像データ中に映り込み、エッジの変化が顕著となるという特徴を利用したものである。エッジ抽出部53は、撮像部10で取得された最新の入力画像データと、記憶部59内の背景画像データとについて、それぞれの画像中のエッジ強度を、既存の算出方法を用いて算出する。例えば、X方向(画像の上下方向)のエッジ強度とY方向(画像の左右方向)のエッジ強度をそれぞれ算出し、得られた各エッジ強度の絶対値を加算することでエッジ強度を算出する。   In step S4-2, the edge strength in the image is calculated for each of the latest input image data and background image data, and edge processing is performed. This process utilizes the feature that when a water droplet adheres to a lens portion or the like, an image area in which the water droplet is imaged is reflected in the image data in a blurred state due to the lens effect, and the change of the edge becomes remarkable. The edge extraction unit 53 calculates the edge strength in each image of the latest input image data acquired by the imaging unit 10 and the background image data in the storage unit 59 using an existing calculation method. For example, the edge strength is calculated by calculating the edge strength in the X direction (vertical direction of the image) and the edge strength in the Y direction (horizontal direction of the image), and adding the absolute values of the obtained edge strengths.

エッジ抽出部53は、最新の入力画像データ及び背景画像データについて上記処理を行い、これにより得られた入力エッジ画像データ及び背景エッジ画像データを用いて、次の各画像データを生成する。まず、入力エッジ画像中でエッジ強度が所定の閾値TH3(例えば輝度情報を256階調で設定した場合、2〜3程度)以下であるという条件を満たす画像のデータ(入力弱エッジ画像データ)を生成する。これは、ぼやけて映る水滴画像領域の内部ではエッジ強度が弱いという特徴を水滴検出に利用するためのものである。   The edge extraction unit 53 performs the above processing on the latest input image data and background image data, and generates the following image data using the input edge image data and background edge image data obtained thereby. First, image data (input weak edge image data) that satisfies the condition that the edge intensity is equal to or less than a predetermined threshold TH3 (for example, about 2 to 3 when luminance information is set in 256 gradations) in the input edge image. Generate. This is for using the feature that the edge intensity is weak inside the waterdrop image area that appears blurred for waterdrop detection.

また、入力エッジ画像中でエッジ強度が所定の閾値TH4(例えば輝度情報を256階調で設定した場合、20程度)以上であるという条件を満たす画像のデータ(入力強エッジ画像データ)を生成する。これは、入力高輝度領域はほぼ全域が明るくなるため、これら入力高輝度領域の内部ではエッジ強度が強くない一方で、これら入力高輝度領域の周辺近傍ではエッジ強度が強いという特徴を水滴検出に利用するためのものである。   Also, image data (input strong edge image data) that satisfies the condition that the edge strength is equal to or higher than a predetermined threshold TH4 (for example, about 20 when luminance information is set with 256 gradations) in the input edge image is generated. . This is because the entire area of the input high-brightness area becomes brighter, so the edge strength is not strong inside these input high-brightness areas, but the edge strength is strong near the periphery of these input high-brightness areas. It is for use.

さらに、入力エッジ画像中ではエッジ強度が上記所定の閾値TH4以上であり且つ背景エッジ画像中ではエッジ強度が所定の閾値TH5(例えば輝度情報を256階調で設定した場合、20程度)以下であるという条件を満たす画像のデータ(差分強エッジ画像データ)を生成する。差分強エッジ画像の生成手順としては、まず背景エッジ画像中でエッジ強度が前記TH5より大きい所定の閾値TH6(例えば輝度情報を256階調で設定した場合、20程度)以上であるという条件を満たす画像のデータ(背景強エッジ画像データ)を生成する。次に、上記の入力強エッジ画像データと背景強エッジ画像データとで差分をとることで差分強エッジ画像データを生成する。これは、水滴画像領域の内部では強いエッジが新たに出現しないという特徴や、入力高輝度領域はほぼ全域が明るいため、これらの領域の周辺部分では光の屈折の関係で強エッジが形成されやすい、すなわち入力高輝度領域の周辺部分に相当する領域では、背景エッジ画像中には存在せず入力エッジ画像中に新たに出現する強エッジが多いという特徴を、水滴検出に利用するためのものである。   Further, the edge strength in the input edge image is equal to or higher than the predetermined threshold value TH4, and in the background edge image, the edge strength is equal to or lower than the predetermined threshold value TH5 (for example, about 20 when luminance information is set with 256 gradations). Image data (difference strong edge image data) that satisfies the following condition is generated. As a procedure for generating a differential strong edge image, first, the condition that the edge intensity in the background edge image is greater than or equal to a predetermined threshold TH6 (for example, about 20 when luminance information is set in 256 gradations) is greater than TH5. Image data (background strong edge image data) is generated. Next, difference strong edge image data is generated by taking a difference between the input strong edge image data and the background strong edge image data. This is because a strong edge does not newly appear inside the water drop image area, and the input high-brightness area is almost entirely bright, so a strong edge is likely to be formed in the peripheral part of these areas due to light refraction. In other words, in the area corresponding to the peripheral part of the input high-brightness area, the feature that there are many strong edges that do not exist in the background edge image but appear newly in the input edge image is used for water droplet detection. is there.

以上のようにしてエッジ抽出部53で生成された各エッジ画像データは、水滴候補画像生成部54に渡される。   Each edge image data generated by the edge extraction unit 53 as described above is passed to the water droplet candidate image generation unit 54.

ステップS4−3では、エッジ抽出部53で抽出された入力エッジ画像データと背景エッジ画像データの対応する画素のエッジ強度を比較し、両エッジ画像間でのエッジ強度の変化を示す画像が生成される。水滴候補画像生成部54は、入力エッジ画像データと背景エッジ画像データとの差分エッジ画像データを生成し、これに基づいて、以下の各画像データを生成する。   In step S4-3, the input edge image data extracted by the edge extraction unit 53 is compared with the edge intensity of the corresponding pixels in the background edge image data, and an image indicating a change in edge intensity between the two edge images is generated. The The water droplet candidate image generation unit 54 generates difference edge image data between the input edge image data and the background edge image data, and generates the following image data based on the difference edge image data.

まず、背景エッジ画像よりも入力エッジ画像のエッジ強度が所定値TH7(例えば輝度情報を256階調で設定した場合、2〜3程度)以上低いという条件を満たす画像のデータ(エッジ減画像データ)を差分エッジ画像から生成する。これは、ぼやけて映る水滴画像領域の内部では、背景画像における水滴画像領域と対応する画像領域と比べ、エッジ強度が減少するという特徴を水滴検出に利用するためのものである。   First, image data (edge-reduced image data) that satisfies the condition that the edge strength of the input edge image is lower than a background edge image by a predetermined value TH7 (for example, about 2 to 3 when luminance information is set in 256 gradations) or more. Is generated from the difference edge image. This is for using the feature that the edge intensity is reduced in the water droplet detection in the water droplet image region that appears blurred compared to the image region corresponding to the water droplet image region in the background image.

また、背景エッジ画像よりも入力エッジ画像のエッジ強度が所定値TH8(例えば輝度情報を256階調で設定した場合、2〜3程度)以上高いという条件を満たす画像のデータ(エッジ増画像データ)を差分エッジ画像から生成する。これは、ぼやけて映る水滴画像領域の周辺近傍では、背景画像において水滴画像領域の周辺近傍と対応する画像領域と比べ、エッジ強度が増加するという特徴を水滴検出に利用するためのものである。入力画像中の水滴画像領域におけるエッジ強度は背景画像における水滴画像領域と対応する画像領域よりも弱まると考えられることから、逆に強まった場合にはエッジ増領域を水滴候補画像の生成の際に除外することが効果的である。   Also, image data (edge-enhanced image data) that satisfies the condition that the edge strength of the input edge image is higher than a background edge image by a predetermined value TH8 (for example, about 2 to 3 when luminance information is set in 256 gradations) or more. Is generated from the difference edge image. This is for using the feature that the edge strength increases in the vicinity of the periphery of the water drop image area that appears blurred in comparison with the image area corresponding to the vicinity of the periphery of the water drop image area in the background image for water drop detection. Since the edge strength in the water drop image area in the input image is considered to be weaker than the image area corresponding to the water drop image area in the background image, the edge increase area is used when generating the water drop candidate image. It is effective to exclude.

ここで、例えば背景画像として白い壁を映していた場合に光の関係で水滴が黒く映る場合、水滴画像領域の内部では、背景画像における水滴画像領域と対応する画像領域と比べ、エッジ強度が増加する。しかし、上記のエッジ増画像の定義に従えば、このような水滴画像領域に起因したエッジ増画像は水滴候補画像の生成の際に除外されてしまうこととなり、望ましくない。そこで、このような場合に対応するため、水滴画像領域の内部では、背景画像における水滴画像領域と対応する画像領域と比べ、エッジ強度がある程度以上は増加しないであろう閾値TH9(例えば輝度情報を256階調で設定した場合、20程度)を新たに設定し、エッジ強度増加量が閾値TH9以上という条件を満たす画像のデータ(エッジ大幅増画像データ)を差分エッジ画像から生成することとした。エッジ大幅増画像は、背景エッジ画像よりも入力エッジ画像のエッジ強度が所定の閾値TH9以上高い(ここでTH9≧TH8)という条件を満たすものである。そして、このエッジ大幅増画像を水滴候補画像の生成の際に除外することとした。   Here, for example, when a white wall is projected as a background image and the water droplet appears black due to light, the edge strength is increased inside the water droplet image region compared to the image region corresponding to the water droplet image region in the background image. To do. However, according to the definition of the edge-enhanced image, the edge-enhanced image resulting from such a water-drop image region is excluded when generating the water-drop candidate image, which is not desirable. Therefore, in order to cope with such a case, the threshold TH9 (for example, luminance information is set) in which the edge strength is not increased more than a certain amount in the water drop image area as compared with the image area corresponding to the water drop image area in the background image. When setting with 256 gradations, about 20) is newly set, and image data (edge greatly increased image data) that satisfies the condition that the edge strength increase amount is equal to or greater than the threshold TH9 is generated from the difference edge image. The edge greatly increased image satisfies the condition that the edge strength of the input edge image is higher than the background edge image by a predetermined threshold TH9 or more (here, TH9 ≧ TH8). The edge greatly increased image is excluded when the water droplet candidate image is generated.

ステップS4−4では、入力画像が撮像部10への水滴の付着により生じた可能性のある画像か否かを判定するための水滴候補画像が生成される。水滴候補画像生成部54は、背景差分演算部52から取得した背景差分データ、入力高輝度差分データ及び入力非高輝度差分データ、エッジ抽出部53から取得した各エッジ画像データ、及び水滴候補画像生成部54で生成した各画像データを用いて、水滴候補画像を生成する。   In step S <b> 4-4, a water droplet candidate image for determining whether or not the input image is an image that may have occurred due to the attachment of water droplets to the imaging unit 10 is generated. The water droplet candidate image generation unit 54 generates background difference data acquired from the background difference calculation unit 52, input high luminance difference data and input non-high luminance difference data, each edge image data acquired from the edge extraction unit 53, and water droplet candidate image generation. A water droplet candidate image is generated using each image data generated by the unit 54.

ここで、昼間等の明るい監視空間に対して環境光を利用して撮像した場合、水滴画像領域には、ステップS4−1の処理で形成された入力高輝度領域と入力非高輝度領域とが含まれる。そこで、以後の処理を入力高輝度領域と入力非高輝度領域とで別個に処理する必要があるため、水滴画像領域についての水滴候補画像(全水滴候補画像)の他に、入力高輝度領域についての水滴候補画像(高輝度水滴候補画像)と入力非高輝度領域についての水滴候補画像(非高輝度水滴候補画像)とをそれぞれ生成する。   Here, when an image is captured using ambient light in a bright monitoring space such as daytime, the water drop image area includes the input high-brightness area and the input non-high-brightness area formed in the process of step S4-1. included. Therefore, since the subsequent processing needs to be processed separately for the input high-brightness area and the input non-high-brightness area, in addition to the waterdrop candidate image (all waterdrop candidate images) for the waterdrop image area, Water droplet candidate images (high luminance water droplet candidate images) and water droplet candidate images (non-high luminance water droplet candidate images) for the input non-high luminance region are respectively generated.

全水滴候補画像は、次のような特徴を有する画像である。特徴1は、背景輝度差分がある程度以上であり且つ入力画像においてある程度以上の輝度を持つ画像(ステップS4−1で得られた背景差分データ)である。特徴2は、エッジ強度が弱い画像(ステップS4−2で得られた入力弱エッジ画像)又はエッジ強度が減った画像(ステップS4−3で得られたエッジ減画像)である。特徴3は、強いエッジが背景画像には無いが入力画像にはある画像(ステップS4−2で得られた差分強エッジ画像)ではなく、エッジ強度が大幅に増えもしていない画像(ステップS4−3で得られたエッジ大幅増画像)である。   The all water droplet candidate images are images having the following characteristics. A feature 1 is an image (background difference data obtained in step S4-1) having a background luminance difference of a certain level or more and having a luminance of a certain level or more in the input image. Feature 2 is an image with weak edge strength (input weak edge image obtained in step S4-2) or an image with reduced edge strength (edge reduced image obtained in step S4-3). The feature 3 is not an image in which there is no strong edge in the background image but in the input image (difference strong edge image obtained in step S4-2), and an image in which the edge strength has not increased significantly (step S4-). 3). The edge greatly increased image obtained in step 3).

高輝度水滴候補画像は、次のような特徴を有する画像である。特徴1は、背景輝度差分がある程度以上であり且つ入力高輝度領域の特徴を満たす画像(ステップS4−1で得られた入力高輝度差分データ)である。特徴2は、エッジ強度が弱い画像(ステップS4−2で得られた入力弱エッジ画像)又はエッジ強度が減った画像(ステップS4−3で得られたエッジ減画像)である。特徴3は、強いエッジが背景画像には無いが入力画像にはある画像(ステップS4−2で得られた差分強エッジ画像)ではなく、エッジ強度が大幅に増えもしていない画像(ステップS4−3で得られたエッジ大幅増画像)である。   The high brightness water droplet candidate image is an image having the following characteristics. The feature 1 is an image (the input high luminance difference data obtained in step S4-1) that has a background luminance difference of a certain level or more and satisfies the features of the input high luminance region. Feature 2 is an image with weak edge strength (input weak edge image obtained in step S4-2) or an image with reduced edge strength (edge reduced image obtained in step S4-3). The feature 3 is not an image in which there is no strong edge in the background image but in the input image (difference strong edge image obtained in step S4-2), and an image in which the edge strength has not increased significantly (step S4-). 3). The edge greatly increased image obtained in step 3).

非高輝度水滴候補画像は、次のような特徴を有する画像である。特徴1は、背景輝度差分がある程度以上であり且つ入力非高輝度領域の特徴を満たす画像(ステップS4−1で得られた入力非高輝度差分データ)である。特徴2及び特徴3は、高輝度水滴候補画像と同一である。   The non-high brightness water droplet candidate image is an image having the following characteristics. The feature 1 is an image (the input non-high luminance difference data obtained in step S4-1) that has a background luminance difference of a certain level or more and satisfies the features of the input non-high luminance region. Feature 2 and feature 3 are the same as the high brightness water droplet candidate image.

一方、夜間等の暗い監視空間に対して照明部20により照明を当てて撮像した場合における水滴候補画像は、次のような特徴を有する画像である。特徴1は、背景輝度差分がプラスであり且つ入力画像においてある程度以上の輝度を持つ画像(ステップS4−1で得られた背景差分データ)である。特徴2は、エッジ強度が弱い画像(ステップS4−2で得られた入力弱エッジ画像)又はエッジ強度が減った画像(ステップS4−3で得られたエッジ減画像)である。特徴3は、強いエッジが背景画像には無いが入力画像にはある画像(ステップS4−2で得られた差分強エッジ画像)ではなく、エッジ強度が大幅に増えもしていない画像(ステップS4−3で得られたエッジ大幅増画像)である。そこで、水滴候補画像生成部54は、背景差分データ、入力弱エッジ画像データ、エッジ減画像データ、差分強エッジ画像データ及びエッジ大幅増画像データを用いて、上記特徴を満たす画像を水滴候補画像として生成する。   On the other hand, a water droplet candidate image in the case where an image is taken by illuminating a dark monitoring space such as at night with the illumination unit 20 is an image having the following characteristics. The feature 1 is an image (background difference data obtained in step S4-1) having a positive background luminance difference and having a luminance of a certain level or more in the input image. Feature 2 is an image with weak edge strength (input weak edge image obtained in step S4-2) or an image with reduced edge strength (edge reduced image obtained in step S4-3). The feature 3 is not an image in which there is no strong edge in the background image but in the input image (difference strong edge image obtained in step S4-2), and an image in which the edge strength has not increased significantly (step S4-). 3). The edge greatly increased image obtained in step 3). Therefore, the water droplet candidate image generation unit 54 uses the background difference data, the input weak edge image data, the edge reduced image data, the difference strong edge image data, and the edge greatly increased image data, as the water droplet candidate image. Generate.

尚、以後の説明中、単に水滴候補画像と述べている場合には、特にことわりのない限り、明るい撮像状況の場合の全水滴候補画像、高輝度水滴候補画像及び非高輝度水滴候補画像と、暗い撮像状況の場合の水滴候補画像とを全て含むものとする。   In the following description, if it is simply referred to as a water droplet candidate image, unless otherwise specified, all water droplet candidate images in a bright imaging situation, high-intensity water droplet candidate images, and non-high-intensity water droplet candidate images, It is assumed that all the water drop candidate images in the case of a dark imaging situation are included.

ここで、水滴候補画像を生成する際に考慮する特徴として、水滴候補画像につきそれぞれ上記の特徴1〜3を挙げているが、少なくとも特徴1及び特徴2を満たしている画像については、水滴候補画像として生成可能である。特徴1及び特徴2のみならず特徴3をも満たす画像を生成することで、より精度の高い水滴候補画像の生成が可能となる。   Here, as the features to be considered when generating the water droplet candidate image, the above-described features 1 to 3 are listed for each water droplet candidate image, but for images satisfying at least the features 1 and 2, the water droplet candidate image Can be generated. By generating an image satisfying not only the feature 1 and the feature 2 but also the feature 3, it is possible to generate a water droplet candidate image with higher accuracy.

以上のようにして水滴候補画像が生成されると、水滴判定部57は、この水滴候補画像に基づいて水滴が存在するか否かを判定する。例えば、上記各特徴を満たした画素あるいは画素群から構成される領域が水滴候補画像内に存在している場合には、水滴が存在すると判定し、そのような画素あるいは領域が水滴候補画像内に存在しない場合には、水滴が存在しないと判定する。水滴判定部57は、水滴が存在すると判定した場合には水滴を検出した旨の信号を、水滴が存在しないと判定した場合には水滴を検出しない旨の信号を、それぞれ判定部60に出力する。しかし、以下に説明するステップS4−5以降の処理を行うことによって、より水滴検出の検出確度を高めることができる。   When the water droplet candidate image is generated as described above, the water droplet determination unit 57 determines whether or not a water droplet exists based on the water droplet candidate image. For example, when a region composed of pixels or pixel groups satisfying the above features is present in the water droplet candidate image, it is determined that there is a water droplet, and such a pixel or region is present in the water droplet candidate image. If it does not exist, it is determined that there is no water droplet. The water droplet determination unit 57 outputs a signal indicating that a water droplet has been detected to the determination unit 60 when it is determined that a water droplet is present, and a signal indicating that no water droplet is detected when it is determined that no water droplet is present. . However, the detection accuracy of water droplet detection can be further increased by performing the processing after step S4-5 described below.

ステップS4−5では、水滴候補画像生成部54により生成された水滴候補画像において、水滴候補画像の各特徴を満たした画素あるいは画素群から構成される領域の近傍(外周部分)の一定範囲が、当該画素あるいは領域の周辺領域として特定される。水滴候補近傍画像処理部56は、その周辺領域を示す画像を水滴候補近傍画像として生成する。これは、水滴画像領域の内部ではレンズ効果により背景画像の対応する部分よりもエッジ強度が弱くなる傾向にあるのに対して、その周辺部分では逆に屈折の関係で背景画像よりもエッジ強度が増加する傾向にある、さらには明るく映る水滴の周辺には強いエッジが出やすい、という現象を捉えるためのものである。水滴候補近傍画像は、水滴候補画像の各特徴を満たした画素あるいは画素群から構成される領域について、これら画素あるいは領域を所定の画素数分(例えば4画素)膨張させた部分の内、当該画素あるいは領域に含まれない部分を当該画素あるいは領域の周辺領域として示すものである。   In step S4-5, in the water droplet candidate image generated by the water droplet candidate image generation unit 54, a certain range in the vicinity (peripheral portion) of the region composed of pixels or pixel groups satisfying the characteristics of the water droplet candidate image is It is specified as the peripheral region of the pixel or region. The water drop candidate vicinity image processing unit 56 generates an image indicating the peripheral area as a water drop candidate vicinity image. This is because the edge intensity tends to be weaker than the corresponding part of the background image due to the lens effect inside the water drop image area, whereas the edge intensity is higher than the background image due to refraction in the peripheral part. It is intended to capture the phenomenon of strong edges that tend to increase, and that a strong edge is likely to appear around brightly reflected water droplets. The water droplet candidate vicinity image is a pixel in a region formed by expanding a predetermined number of pixels (for example, 4 pixels) of a region composed of pixels or pixel groups satisfying each feature of the water droplet candidate image. Alternatively, a portion not included in the region is shown as the peripheral region of the pixel or region.

ステップS4−6では、水滴候補近傍画像処理部56が、水滴候補近傍画像に含まれる強いエッジに関する画像を生成する。まず、ステップS4−2で取得した強いエッジ画像と水滴候補近傍画像との論理積により得られる画像のデータ(近傍強エッジ画像データ)を生成する。この論理積処理には、強いエッジ画像として差分強エッジ画像を用いる。これは、明るく映る場合には、その周辺部分では背景と比べて強いエッジが新たに現れやすいと想定できるためである。一方、明るく映らない場合には、逆に背景と比べて強いエッジが現れにくいと想定できるためである。尚、昼間等に環境光を利用して撮像された場合における非高輝度水滴候補画像に対しては、上記の論理積処理に用いられる強いエッジ画像として入力強エッジ画像を用いても良いが、上述の如く差分強エッジ画像を用いるのが好ましい。次に、ステップS4−3で取得したエッジ増画像と水滴候補近傍画像との論理積により得られる画像のデータ(近傍エッジ増画像データ)を生成する。   In step S4-6, the water drop candidate vicinity image processing unit 56 generates an image related to a strong edge included in the water drop candidate vicinity image. First, image data (neighboring strong edge image data) obtained by the logical product of the strong edge image acquired in step S4-2 and the water droplet candidate neighboring image is generated. In this logical product process, a differential strong edge image is used as a strong edge image. This is because it can be assumed that a bright edge is likely to appear newly in the peripheral portion when compared with the background when it appears bright. On the other hand, if the image is not bright, it can be assumed that a strong edge is unlikely to appear compared to the background. In addition, for a non-high brightness water droplet candidate image when imaged using ambient light in the daytime or the like, an input strong edge image may be used as a strong edge image used in the above logical product processing. As described above, it is preferable to use the differential strong edge image. Next, image data (neighboring edge augmented image data) obtained by the logical product of the edge augmented image acquired in step S4-3 and the water droplet candidate nearby image is generated.

以上の2種類の画像データは、次のような目的で利用する。まず、昼間等に環境光を利用して撮像された場合には、特に水滴画像領域における入力高輝度領域及び入力非高輝度領域の以下の特徴を捉えるために利用するものである。まず、入力高輝度領域及び入力非高輝度領域の周辺領域では、いずれも背景に比べてエッジが増えるという特徴がある。また、入力高輝度領域の周辺領域では、エッジ強度が強いという特徴があり、入力非高輝度領域の周辺領域では、エッジ強度が強くないという特徴がある。従って、近傍強エッジ画像データ及び近傍エッジ増画像データを用いることで、上記の周辺領域におけるエッジの特徴を満たさない画像を、水滴候補画像から除外することができる。   The above two types of image data are used for the following purposes. First, when the image is picked up by using ambient light in the daytime or the like, it is used to capture the following features of the input high luminance region and the input non-high luminance region in the water drop image region. First, each of the peripheral areas of the input high-brightness area and the input non-high-brightness area has a feature that edges are increased compared to the background. Further, there is a feature that edge strength is strong in the peripheral region of the input high brightness region, and edge strength is not strong in the peripheral region of the input non-high brightness region. Therefore, by using the neighborhood strong edge image data and the neighborhood edge augmented image data, an image that does not satisfy the edge feature in the peripheral region can be excluded from the water droplet candidate images.

また、以上の2種類の画像データは、水滴候補画像が実は水滴ではない他の原因によるものである可能性があるため、その区別をするためにも利用するものである。他の原因としては、昼間等の明るい状況に関して言えば、例えば監視空間に存在する移動物体があり、夜間等の暗い状況に関して言えば、それに加えて、例えば監視空間に懐中電灯の光や自動車のヘッドライトが差し込んで作り出された明るい光の領域などがある。   The above two types of image data are also used to distinguish the water droplet candidate images because they may be due to other causes that are not actually water droplets. Other causes include moving objects that exist in the surveillance space, for example, in light conditions such as daytime, and in addition, for example, in the dark space such as nighttime, there are flashlights and automobiles in the surveillance space. There are areas of bright light created by the insertion of headlights.

具体的には、光の領域の場合には、近傍強エッジ画像において強いエッジの存在する部分の面積(あるいは総画素数)が小さく、かつ近傍エッジ増画像においてエッジ強度が増加した部分の面積(あるいは総画素数)が大きいという特徴がある。これは、光の領域の輪郭部分では背景よりも強くなるエッジは増えるが、グラデーションのように輝度が緩やかに変化するので強いエッジは多くない、という光の領域の特徴による。また移動物体の場合には、近傍強エッジ画像において強いエッジの存在する部分の面積(あるいは総画素数)が大きく、かつ近傍エッジ増画像においてエッジ強度が増加した部分の面積(あるいは総画素数)が小さいという特徴がある。これは、逆に輪郭部分では急峻に輝度が変化するためエッジ強度は高いが、背景よりも強くなるエッジの増加量は多くない、という移動物体の特徴による。これに対して水滴の場合には、近傍強エッジ画像において強いエッジの存在する部分の面積(あるいは総画素数)が大きく、かつ近傍エッジ増画像においてエッジ強度が増加した部分の面積(あるいは総画素数)が大きいという傾向にある。従って、近傍強エッジ画像データ及び近傍エッジ増画像データを用いることで、水滴候補画像から、他の原因に起因した画像を除外することができる。   Specifically, in the case of the light region, the area (or the total number of pixels) where the strong edge exists in the neighborhood strong edge image is small and the area of the portion where the edge strength is increased in the neighborhood edge increased image ( Another feature is that the total number of pixels) is large. This is due to the feature of the light region that the edge that becomes stronger than the background increases in the contour portion of the light region, but there are not many strong edges because the luminance changes gently like gradation. In the case of a moving object, the area (or the total number of pixels) where the strong edge exists in the near strong edge image is large, and the area (or the total number of pixels) where the edge strength increases in the near edge increased image. There is a feature that is small. On the contrary, this is due to the feature of the moving object that the edge strength is high because the brightness changes sharply in the contour portion, but the amount of increase of the edge that is stronger than the background is not large. On the other hand, in the case of water droplets, the area (or total number of pixels) where the strong edge exists in the near strong edge image is large, and the area (or total pixel) where the edge strength increases in the near edge increased image. Number) tends to be large. Therefore, by using the near strong edge image data and the near edge augmented image data, it is possible to exclude images caused by other causes from the water droplet candidate images.

以上のようにして水滴候補画像からの除外処理を行った上で、水滴判定部57は、この除外処理後の水滴候補画像に基づいて水滴が存在するか否かを判定する。判定の仕方は上記ステップS4−6における判定処理と同様である。水滴判定部57は、水滴が存在すると判定した場合には水滴を検出した旨の信号を、水滴が存在しないと判定した場合には水滴を検出しない旨の信号を、それぞれ判定部60に出力する。これにより、高い検出確度で水滴検出を行うことができる。しかし、さらに以下に説明するステップS4−7以降の処理を行うことによって、さらなる水滴検出の検出確度を高めることができる。   After performing the exclusion process from the water droplet candidate image as described above, the water droplet determination unit 57 determines whether or not a water droplet exists based on the water droplet candidate image after the exclusion process. The method of determination is the same as the determination process in step S4-6. The water droplet determination unit 57 outputs a signal indicating that a water droplet has been detected to the determination unit 60 when it is determined that a water droplet is present, and a signal indicating that no water droplet is detected when it is determined that no water droplet is present. . Thereby, water droplet detection can be performed with high detection accuracy. However, the detection accuracy of further water droplet detection can be further increased by performing the processing after step S4-7 described below.

ステップS4−7では、水滴候補画像生成部54により生成された水滴候補画像に関して、記憶部59内の過去水滴候補画像データとの差分処理を行う。フレーム間差分演算部55は、水滴候補画像生成部54にて生成された水滴候補画像について、記憶部59に記憶されている、最新の入力画像の撮像時刻から所定の時間だけ前(例えば、1フレーム前)の過去水滴候補画像データとの差分を算出することによってフレーム間差分データを生成する。そして、生成されたフレーム間差分データを用いて、例えば後述のフレーム間差分面積を算出する。これにより、水滴候補画像の移動に関する情報を取得する。これは、水滴候補画像の動きの情報を取り入れ、水滴が付着したまま動かない場合と、流れ落ちる場合とで区別して水滴の判断条件を分けた方が、より高い検出確度が望めるためである。   In step S4-7, the difference processing with the past water droplet candidate image data in the storage unit 59 is performed on the water droplet candidate image generated by the water droplet candidate image generation unit 54. The inter-frame difference calculation unit 55 is a predetermined time before the latest input image capturing time stored in the storage unit 59 with respect to the water droplet candidate image generated by the water droplet candidate image generation unit 54 (for example, 1 Inter-frame difference data is generated by calculating a difference from the previous water droplet candidate image data before the frame). Then, for example, an inter-frame difference area to be described later is calculated using the generated inter-frame difference data. Thereby, the information regarding the movement of the water droplet candidate image is acquired. This is because higher detection accuracy can be expected by taking in information on the motion of the water droplet candidate image and dividing the determination conditions for water droplets by distinguishing between the case where the water droplets do not move and the case where they flow down.

フレーム間差分演算部55は、現在の入力画像から得られた水滴候補画像と過去の水滴候補画像との排他的論理和により定まる画素あるいは画素群から構成される領域の面積(あるいは総画素数)をフレーム間差分面積として算出する。また、最新の水滴候補画像データと、過去水滴候補画像データとのそれぞれの重心の位置を算出する。   The inter-frame difference calculation unit 55 determines the area (or the total number of pixels) of a pixel or a group of pixels determined by exclusive OR of a water droplet candidate image obtained from the current input image and a past water droplet candidate image. Is calculated as an inter-frame difference area. Further, the positions of the centers of gravity of the latest water droplet candidate image data and the past water droplet candidate image data are calculated.

ステップS4−8以降では、水滴候補画像生成部54により生成された水滴候補画像に関して、流れ落ちずに滞留している水滴(滞留水滴)に起因した画像か否か、流れ落ちる水滴(流動水滴)に起因した画像か否かを判定する。水滴判定部57は、水滴候補画像生成部54にて生成された水滴候補画像と、フレーム間差分演算部55にて算出された水滴候補画像の移動情報などから、背景差分演算部52にて生成された背景差分データが、滞留水滴に起因した画像か否か、流動水滴に起因した画像か否かを判定する。   In step S4-8 and subsequent steps, the water droplet candidate image generated by the water droplet candidate image generation unit 54 is an image caused by water droplets staying without flowing down (staying water droplets) or caused by water droplets flowing down (flowing water droplets). It is determined whether or not the image has been processed. The water drop determination unit 57 is generated by the background difference calculation unit 52 from the water drop candidate image generated by the water drop candidate image generation unit 54 and the movement information of the water drop candidate image calculated by the inter-frame difference calculation unit 55. It is determined whether or not the background difference data thus obtained is an image caused by staying water droplets or an image caused by flowing water droplets.

ステップS4−8では、水滴候補画像が滞留水滴に起因した画像か否か、流動水滴に起因した画像か否かを判定するために必要な判定情報を算出する。ここでは図5に示す各処理により以下の各判定情報が算出される。   In step S4-8, determination information necessary for determining whether the water droplet candidate image is an image caused by a staying water droplet or an image caused by a flowing water droplet is calculated. Here, the following determination information is calculated by each process shown in FIG.

ステップS4−8−1では、水滴候補画像の各特徴を満たした画素あるいは画素群から構成される領域の、水滴候補画像1フレーム中に占める割合である面積比率F1が、面積比率F1=(各特徴を満たした画素あるいは領域の面積)/(水滴候補画像1フレームの面積)により算出される。面積比率F1は、水滴候補画像の各特徴を満たした画素あるいは領域は水滴候補画像中である程度以上の大きさを有するはずである、という特徴を反映させるためのものである。尚、ここで用いられる面積を総画素数としても良い。   In step S4-8-1, the area ratio F1, which is the ratio of the area composed of pixels or pixel groups satisfying the characteristics of the water droplet candidate image in one frame of the water droplet candidate image, is expressed as area ratio F1 = (each It is calculated by: (area of pixel or region satisfying feature) / (area of one frame of water drop candidate image). The area ratio F1 is for reflecting the feature that a pixel or a region satisfying each feature of the water drop candidate image should have a size of a certain level or more in the water drop candidate image. The area used here may be the total number of pixels.

ステップS4−8−2では、ステップS4−7で求められたフレーム間差分面積を用いて、差分面積比率F2が、差分面積比率F2=(フレーム間差分面積)/(最新及び過去の少なくとも一方に出現している水滴候補画像の面積)により算出される。尚、最新及び過去の少なくとも一方に出現している水滴候補画像の面積とは、最新の水滴候補画像と過去の水滴候補画像との論理和によって生成される画像の面積のことである。差分面積比率F2は、水滴候補画像の各特徴を満たした画素あるいは画素群から構成される領域が所定の時間間隔(例えば1フレーム分)でどれだけ出現したか、あるいは消滅したかを水滴候補画像中に占める比率で表す。尚、ここで用いられる面積を総画素数としても良い。   In step S4-8-2, using the inter-frame difference area obtained in step S4-7, the difference area ratio F2 is calculated as follows: difference area ratio F2 = (inter-frame difference area) / (latest and / or past). The area of the waterdrop candidate image that appears). The area of the water droplet candidate image that appears in at least one of the latest and the past is the area of an image generated by the logical sum of the latest water droplet candidate image and the past water droplet candidate image. The difference area ratio F2 is a water droplet candidate image that indicates how many pixels or groups of pixels that satisfy each feature of the water droplet candidate image appear or disappear at a predetermined time interval (for example, one frame). Expressed as a percentage of the total. The area used here may be the total number of pixels.

ステップS4−8−3では、ステップS4−5で求められた水滴候補近傍画像を用いて、近傍画像面積比率F3が、近傍画像面積比率F3=(水滴候補画像の各特徴を満たした画素あるいは領域の周辺領域の面積)/(水滴候補近傍画像1フレームの面積)により算出される。近傍画像面積比率F3は、水滴画像領域が画像フレームからはみ出して映る等により、水滴候補画像の各特徴を満たした画素あるいは領域の周辺領域が大きく欠けて映っている場合には、このような画像についての水滴判定は適切に行えないため、判定対象外とするために用いられる情報である。尚、ここで用いられる面積を総画素数としても良い。   In step S4-8-3, using the water droplet candidate vicinity image obtained in step S4-5, the neighborhood image area ratio F3 is calculated as follows: neighborhood image area ratio F3 = (pixel or region satisfying each feature of the water droplet candidate image) The area of the peripheral region of the image) / (the area of one frame of the water droplet candidate vicinity image). The near image area ratio F3 is such that when the water drop image area is projected out of the image frame and the surrounding area of the pixel or area satisfying each feature of the water drop candidate image is largely missing. Since the water droplet determination cannot be performed properly, the information is used for excluding the determination target. The area used here may be the total number of pixels.

ステップS4−8−4では、ステップS4−5で求められた水滴候補近傍画像とステップS4−6で求められた近傍強エッジ画像とを用いて、近傍強エッジ画像比率F4が、近傍強エッジ画像比率F4=(水滴候補画像の各特徴を満たした画素あるいは領域の周辺領域内で強いエッジが存在する領域の面積)/(水滴候補近傍画像1フレームの面積)により算出される。近傍強エッジ画像比率F4は、水滴候補近傍画像に強いエッジがどれだけ含まれているかを表す。尚、ここで用いられる面積を総画素数としても良い。   In step S4-8-4, the vicinity strong edge image ratio F4 is set to the vicinity strong edge image using the water droplet candidate vicinity image obtained in step S4-5 and the vicinity strong edge image obtained in step S4-6. Ratio F4 = (area of a region where a strong edge exists in the peripheral region of the pixel or region satisfying each feature of the water droplet candidate image) / (area of one frame of the water droplet candidate vicinity image). The neighborhood strong edge image ratio F4 represents how many strong edges are included in the water droplet candidate neighborhood image. The area used here may be the total number of pixels.

ステップS4−8−5では、ステップS4−5で求められた水滴候補近傍画像とステップS4−6で求められた近傍エッジ増画像とを用いて、近傍エッジ増画像比率F5が、近傍エッジ増画像比率F5=(水滴候補画像の各特徴を満たした画素あるいは領域の周辺領域内でエッジ強度が増加した領域の面積)/(水滴候補近傍画像1フレームの面積)により算出される。近傍エッジ増画像比率F5は、入力画像において背景画像よりもエッジ強度が増加した部分が、水滴候補近傍画像にどれだけ含まれているかを表す。尚、ここで用いられる面積を総画素数としても良い。   In step S4-8-5, using the water drop candidate neighborhood image obtained in step S4-5 and the neighborhood edge augmented image obtained in step S4-6, the neighborhood edge augmented image ratio F5 is set to the neighborhood edge augmented image. The ratio F5 = (area of the region where the edge intensity is increased in the peripheral region of the pixel or region satisfying each feature of the water droplet candidate image) / (area of one frame of the water droplet candidate vicinity image). The near edge increased image ratio F5 represents how much the portion where the edge strength is increased in the input image as compared to the background image is included in the water droplet candidate vicinity image. The area used here may be the total number of pixels.

ステップS4−8−6では、ステップS4−7で生成されたフレーム間差分データにおいて、最新の水滴候補画像データと過去水滴候補画像データとのそれぞれの重心の位置を算出し、画像中における座標値の差を重心位置変化量として算出する。画像中の座標軸は任意に設定できるが、例えば画像左上端を原点とし、左右方向の軸をX軸(右方向が正)、上下方向の軸をY軸(下方向が正)と設定する。そして、設定した座標軸により最新の水滴候補画像データと過去水滴候補画像データの重心の座標を算出し、X座標の差を(最新の水滴候補画像データのX座標)−(過去水滴候補画像データのX座標)より求め、Y座標の差を(最新の水滴候補画像データのY座標)−(過去水滴候補画像データのY座標)より求める。これらは水滴画像領域がどれだけ移動したのかを示すものであり、X座標の差すなわちX方向の移動量ΔXが正ならば水滴が画面中において右方向に移動したことを示し、Y座標の差すなわちY方向の移動量ΔYが正ならば水滴が画面中において下方向に移動したことを示す。こうして水滴の移動情報を取得する。   In step S4-8-6, the position of the center of gravity of the latest water droplet candidate image data and the past water droplet candidate image data is calculated in the inter-frame difference data generated in step S4-7, and the coordinate value in the image is calculated. Is calculated as the amount of change in the center of gravity. The coordinate axes in the image can be arbitrarily set. For example, the upper left corner of the image is set as the origin, the horizontal axis is set as the X axis (right direction is positive), and the vertical axis is set as Y axis (down direction is positive). Then, the coordinates of the center of gravity of the latest water droplet candidate image data and the past water droplet candidate image data are calculated using the set coordinate axes, and the difference between the X coordinates is calculated as (X coordinate of the latest water droplet candidate image data) − (past water droplet candidate image data X coordinate), and a difference in Y coordinate is obtained from (Y coordinate of latest water droplet candidate image data) − (Y coordinate of past water droplet candidate image data). These indicate how much the water droplet image area has moved. If the difference in the X coordinate, that is, the movement amount ΔX in the X direction is positive, it indicates that the water droplet has moved in the right direction on the screen, and the difference in the Y coordinate. That is, if the movement amount ΔY in the Y direction is positive, it indicates that the water droplet has moved downward in the screen. In this way, the movement information of the water droplet is acquired.

以上のようにして、ステップS4−8では、水滴候補画像が滞留水滴に起因した画像か否か、流動水滴に起因した画像か否かを判定するために必要な各判定情報を算出している。こうして各判定情報が算出されたら、図4におけるステップS4−9の処理へ移行する。   As described above, in step S4-8, each piece of determination information necessary for determining whether the water droplet candidate image is an image caused by a staying water droplet or an image caused by a flowing water droplet is calculated. . When each determination information is calculated in this way, the process proceeds to step S4-9 in FIG.

ステップS4−9では、水滴判定部57は、水滴候補画像が滞留水滴に起因した画像か否かを判定する。この処理は、明るい撮像状況か暗い撮像状況かによって処理が異なる。以下、それぞれの撮像状況ごとに説明する。   In step S4-9, the water droplet determination unit 57 determines whether or not the water droplet candidate image is an image caused by a staying water droplet. This processing differs depending on whether the imaging situation is bright or dark. Hereinafter, each imaging situation will be described.

昼間等に環境光を利用して撮像された場合には、高輝度水滴候補画像、非高輝度水滴候補画像、及び全水滴候補画像について、それぞれ次の各条件を満たすか否かを判定し、得られる判定結果の内で、滞留水滴によるものであるとの判定結果が少なくとも一つあれば、水滴候補画像は滞留水滴に起因した画像であると判定する。   When the image is picked up using ambient light in the daytime, etc., it is determined whether or not the following conditions are satisfied for the high-brightness water droplet candidate image, the non-high-brightness water droplet candidate image, and the total water droplet candidate image, If at least one of the determination results obtained is determined to be due to staying water droplets, the water droplet candidate image is determined to be an image resulting from the staying water droplets.

高輝度水滴候補画像についての条件とは、<滞留条件1>面積比率F1が所定の閾値THF1−1(例えば2%)以上であること(滞留水滴は一定以上の面積を有するため)、<滞留条件2>差分面積比率F2が所定の閾値THF2(例えば5〜10%)以下であること(滞留状態の水滴は移動が少ないため)、<滞留条件3>近傍画像面積比率F3が閾値THF3(例えば2〜3%)以上であること(水滴候補画像の面積が一定以上の面積を有する状態でないと、水滴判定が適切に行えないため)、<滞留条件4>近傍強エッジ画像比率F4が閾値THF4−1(例えば10〜50%)以上であること(水滴の周囲部分では強いエッジが多いため)、<滞留条件5>近傍エッジ増画像比率F5が閾値THF5−1(例えば10〜50%)以上であること(水滴の周囲部分ではエッジが増える画像の面積が大きいため)、といったものであり、これらの条件を満たせば、判定対象の高輝度水滴候補画像は滞留水滴に起因した画像であると判定する。   The conditions for the high-intensity water droplet candidate image are: <Residence condition 1> The area ratio F1 is not less than a predetermined threshold THF1-1 (for example, 2%) (since the retained water droplet has a certain area or more), <Residence Condition 2> The difference area ratio F2 is equal to or less than a predetermined threshold value THF2 (for example, 5 to 10%) (because water droplets in a staying state move less), <Retention condition 3> The neighborhood image area ratio F3 is a threshold value THF3 (for example, (2 to 3%) or more (because the water droplet candidate image cannot be properly determined unless the area of the water droplet candidate image has a certain area or more) <Residual condition 4> The near strong edge image ratio F4 is the threshold value THF4. −1 (for example, 10 to 50%) or more (because there are many strong edges around the water droplets), <Residual condition 5> The near edge increased image ratio F5 is not less than the threshold THF5-1 (for example, 10 to 50%). (Because the area of the image in which the edge increases in the peripheral part of the water droplet is large), and if these conditions are satisfied, the high-intensity water droplet candidate image to be judged is an image caused by the staying water droplet judge.

非高輝度水滴候補画像についての条件は、<滞留条件4>及び<滞留条件5>以外は高輝度水滴候補画像についての条件と同様で、<滞留条件4>については、近傍強エッジ画像比率F4が閾値THF4−2(例えば10%)未満であること(水滴の周囲部分に強いエッジは存在しないため)とし、<滞留条件5>については、近傍エッジ増画像比率F5が閾値THF5−2(例えば10〜50%)以上であること(水滴の周囲部分ではエッジが増える画像の面積が大きいため)とし、これらの条件を満たせば、判定対象の非高輝度水滴候補画像は滞留水滴に起因した画像であると判定する。   The conditions for the non-high-intensity water droplet candidate images are the same as those for the high-intensity water droplet candidate images except for <Residence Condition 4> and <Residence Condition 5>. Is less than the threshold THF4-2 (for example, 10%) (because there is no strong edge in the peripheral portion of the water droplet), and for <Residual Condition 5>, the near edge increased image ratio F5 is the threshold THF5-2 (for example, 10% to 50%) (because the area of the image where the edge increases in the surrounding area of the water droplet is large), and if these conditions are satisfied, the non-high-intensity water droplet candidate image to be judged is an image caused by the staying water droplet It is determined that

全水滴候補画像についての条件は、上記<滞留条件1>〜<滞留条件3>を満たし、且つ、高輝度水滴候補画像と非高輝度水滴候補画像のそれぞれについて<滞留条件4>及び<滞留条件5>を満たすことである。これらを満たせば、判定対象の全水滴候補画像は滞留水滴に起因した画像であると判定する。   The conditions for all the water droplet candidate images satisfy the above <Retention Condition 1> to <Retention Condition 3>, and <Retention Condition 4> and <Retention Condition for each of the high-intensity water droplet candidate image and the non-high-intensity water droplet candidate image. 5> is satisfied. If these conditions are satisfied, it is determined that the all-droplet candidate image to be determined is an image caused by the staying waterdrop.

一方、夜間等に照明を当てて撮像された場合には、次の各条件を満たすか否かを判定する。各条件とは、<滞留条件1>面積比率F1が所定の閾値THF1−1(例えば2%)以上であること(滞留水滴は一定以上の面積を有するため)、<滞留条件2>差分面積比率F2が所定の閾値THF2(例えば5〜10%)以下であること(滞留状態の水滴は移動が少ないため)、<滞留条件3>近傍画像面積比率F3が閾値THF3(例えば2〜3%)以上であること(水滴画像領域の面積が一定以上の面積を有する状態でないと、水滴判定が適切に行えないため)、<滞留条件4>近傍強エッジ画像比率F4が閾値THF4−1(例えば10〜50%)以上であること(水滴の周囲部分では強いエッジが多いため)、<滞留条件5>近傍エッジ増画像比率F5が閾値THF5(例えば10〜50%)以上であること(水滴の周囲部分ではエッジが増える画像の面積が大きいため)、といったものであり、これらの条件を満たせば、判定対象の水滴候補画像は滞留水滴に起因した画像であると判定する。   On the other hand, when an image is taken with illumination at night or the like, it is determined whether or not the following conditions are satisfied. Each condition is <Residence condition 1> The area ratio F1 is not less than a predetermined threshold THF1-1 (for example, 2%) (because the staying water droplet has a certain area or more), <Residence condition 2> Difference area ratio F2 is equal to or less than a predetermined threshold value THF2 (for example, 5 to 10%) (due to less moving water droplets in a staying state), <Retention Condition 3> The neighborhood image area ratio F3 is equal to or more than a threshold value THF3 (for example, 2 to 3%) (If the area of the water droplet image region is not in a state of a certain area or more, the water droplet determination cannot be performed properly), and <Residual condition 4> The neighborhood strong edge image ratio F4 is a threshold THF4-1 (for example, 10 to 10). 50%) or higher (since there are many strong edges in the surrounding area of the water droplet), <Residual condition 5> The near edge increased image ratio F5 is equal to or higher than the threshold THF5 (for example, 10 to 50%) (the peripheral portion of the water droplet). so Since the area of the image edges is increased greater), it is those such as, determines that satisfy these conditions, water droplets candidate image to be determined is an image due to retention water droplets.

ステップS4−10では、水滴判定部57は、水滴候補画像が流動水滴に起因した画像か否かを判定する。具体的には、ステップS4−9の処理と同様に、明るい撮像状況か暗い撮像状況かによって処理が異なる。以下、それぞれの撮像状況ごとに説明する。   In step S4-10, the water droplet determination unit 57 determines whether or not the water droplet candidate image is an image caused by a flowing water droplet. Specifically, similarly to the processing in step S4-9, the processing differs depending on whether the imaging condition is bright or dark. Hereinafter, each imaging situation will be described.

昼間等に環境光を利用して撮像された場合には、高輝度水滴候補画像、非高輝度水滴候補画像、及び全水滴候補画像について、それぞれ次の各条件を満たすか否かを判定し、得られる判定結果の内で、流動水滴によるものであるとの判定結果が少なくとも一つあれば、水滴候補画像は流動水滴に起因した画像であると判定する。   When the image is picked up using ambient light in the daytime, etc., it is determined whether or not the following conditions are satisfied for the high-brightness water droplet candidate image, the non-high-brightness water droplet candidate image, and the total water droplet candidate image, If there is at least one determination result that is based on flowing water droplets among the determination results obtained, it is determined that the water droplet candidate image is an image caused by flowing water droplets.

高輝度水滴候補画像についての条件とは、<流動条件1>面積比率F1が所定の閾値THF1−2(例えば10%)以上であること(流動水滴は一定以上の面積を有するため)、<流動条件2>近傍画像面積比率F3が閾値THF3(例えば2〜3%)以上であること(水滴画像領域の面積が一定以上の面積を有する状態でないと、水滴判定が適切に行えないため)、<流動条件3>近傍強エッジ画像比率F4が閾値THF4−1(例えば10〜50%)以上であること(水滴の周囲部分では強いエッジが多いため)、<流動条件4>近傍エッジ増画像比率F5が閾値THF5−1(例えば10〜50%)以上であること(水滴の周囲部分ではエッジが増える画像の面積が大きいため)、<流動条件5>移動量ΔYが所定の閾値THΔY(例えば5%)以上であること(流動水滴では、一定以上の距離を下方向に流れ落ちているはずであるため)、<流動条件6>移動量ΔYが、移動量ΔXの絶対値以上の値であること(流動水滴では、左右方向の移動量よりも下方向の移動量の方が大きいはずであるため)といったものであり、これらの条件を満たせば、判定対象の高輝度水滴候補画像は流動水滴に起因した画像であると判定する。   The conditions for the high-intensity water droplet candidate image are: <Flow condition 1> The area ratio F1 is equal to or greater than a predetermined threshold THF1-2 (for example, 10%) (because the flow droplet has a certain area or more), <Flow Condition 2> The neighborhood image area ratio F3 is equal to or greater than a threshold THF3 (for example, 2 to 3%) (because the water droplet image area cannot be determined properly unless the area of the water droplet image region has a certain area or more), < Flow condition 3> Near edge strong edge image ratio F4 is greater than or equal to the threshold THF4-1 (for example, 10 to 50%) (because there are many strong edges around the water droplet), <Flow condition 4> Near edge increased image ratio F5 Is greater than or equal to the threshold THF5-1 (for example, 10 to 50%) (because the area of the image in which the edge increases in the peripheral portion of the water droplet is large), <flow condition 5> the movement amount ΔY is a predetermined threshold THΔY (for example, 5%) or more (because the flowing water droplets should have flowed downward for a certain distance or more) <Flow condition 6> The movement amount ΔY is a value greater than or equal to the absolute value of the movement amount ΔX. (For flowing water droplets, the amount of movement in the downward direction should be larger than the amount of movement in the left and right direction.) If these conditions are met, the high-intensity water droplet candidate image to be judged will flow. It is determined that the image is caused by water droplets.

非高輝度水滴候補画像についての条件は、<流動条件3>及び<流動条件4>以外は高輝度水滴候補画像についての条件と同様で、<流動条件3>については、近傍強エッジ画像比率F4が閾値THF4−2(例えば10%)未満であること(水滴の周囲部分に強いエッジは存在しないため)とし、<流動条件4>については、近傍エッジ増画像比率F5が閾値THF5−2(例えば10〜50%)以上であること(水滴の周囲部分ではエッジが増える画像の面積が大きいため)とし、これらの条件を満たせば、判定対象の非高輝度水滴候補画像は流動水滴に起因した画像であると判定する。   The conditions for the non-high-intensity water droplet candidate images are the same as the conditions for the high-intensity water droplet candidate images except for <flow condition 3> and <flow condition 4>. For <flow condition 3>, the neighborhood strong edge image ratio F4 Is less than the threshold THF4-2 (for example, 10%) (because there is no strong edge in the surrounding portion of the water droplet), and for <flow condition 4>, the neighboring edge increased image ratio F5 is the threshold THF5-2 (for example, 10% to 50%) or more (because the area of the image where the edge increases in the surrounding area of the water droplet is large), and if these conditions are met, the non-high brightness water droplet candidate image to be judged is an image caused by the flowing water droplet It is determined that

全水滴候補画像についての条件は、上記<流動条件1>、<流動条件2>、<流動条件5>及び<流動条件6>を満たし、且つ、高輝度水滴候補画像と非高輝度水滴候補画像のそれぞれについて<流動条件3>及び<流動条件4>を満たすことである。これらを満たせば、判定対象の全水滴候補画像は流動水滴に起因した画像であると判定する。   The conditions for all the water droplet candidate images satisfy the above <flow condition 1>, <flow condition 2>, <flow condition 5>, and <flow condition 6>, and the high brightness water drop candidate image and the non-high brightness water drop candidate image. For each of the above, <flow condition 3> and <flow condition 4> are satisfied. If these conditions are satisfied, it is determined that the determination target all water droplet candidate image is an image caused by the flowing water droplets.

一方、夜間等に照明を当てて撮像された場合には、次の各条件を満たすか否かを判定する。各条件とは、<流動条件1>面積比率F1が所定の閾値THF1−2(例えば10%)以上であること(流動水滴は一定以上の面積を有するため)、<流動条件2>近傍画像面積比率F3が閾値THF3(例えば2〜3%)以上であること(水滴画像領域の面積が一定以上の面積を有する状態でないと、水滴判定が適切に行えないため)、<流動条件3>近傍強エッジ画像比率F4が閾値THF4−1(例えば10〜50%)以上であること(水滴の周囲部分では強いエッジが多いため)、<流動条件4>近傍エッジ増画像比率F5が閾値THF5(例えば10〜50%)以上であること(水滴の周囲部分ではエッジが増える画像の面積が大きいため)、<流動条件5>移動量ΔYが所定の閾値THΔY(例えば5%)以上であること(流動水滴では、一定以上の距離を下方向に流れ落ちているはずであるため)、<流動条件6>移動量ΔYが、移動量ΔXの絶対値以上の値であること(流動水滴では、左右方向の移動量よりも下方向の移動量の方が大きいはずであるため)といったものであり、これらの条件を満たせば、判定対象の水滴候補画像は流動水滴に起因した画像であると判定する。   On the other hand, when an image is taken with illumination at night or the like, it is determined whether or not the following conditions are satisfied. Each condition is <flow condition 1> the area ratio F1 is equal to or greater than a predetermined threshold THF1-2 (for example, 10%) (because the flowing water droplet has a certain area or more), and <flow condition 2> neighboring image area The ratio F3 is equal to or greater than the threshold THF3 (for example, 2 to 3%) (because the water droplet image area cannot be properly determined unless the area of the water droplet image area is a certain area or more), <flow condition 3> strong in the vicinity The edge image ratio F4 is equal to or higher than the threshold THF4-1 (for example, 10 to 50%) (because there are many strong edges around the water droplet), and <flow condition 4> the near edge increased image ratio F5 is the threshold THF5 (for example, 10). ˜50%) (because the area of the image where the edge increases in the peripheral portion of the water droplet is large), <flow condition 5> the movement amount ΔY is greater than or equal to a predetermined threshold THΔY (for example, 5%) (flowing water <Flow condition 6> The amount of movement ΔY is greater than or equal to the absolute value of the amount of movement ΔX. If the movement amount in the downward direction should be larger than the movement amount), and these conditions are satisfied, it is determined that the water droplet candidate image to be determined is an image caused by the flowing water droplets.

以上のようにして水滴判定部57は、ステップS4−9〜ステップS4−11により、水滴候補画像が滞留水滴に起因した画像か、流動水滴に起因した画像かを判定し、得られた判定結果に基づき、水滴の状態をも考慮した水滴の検出を行うことができる。そして水滴判定部57は、得られた検出結果を示す信号を図1における判定部60に出力する(ステップS5)。検出結果としては、水滴の有無を示すのみでも良いし、あるいは滞留水滴か流動水滴かまでの情報を検出結果に含めて水滴付着ありとしても良い。こうして水滴検出部50における水滴付着検出処理が終了し、続いて図3におけるステップS6の処理へ移行する。   As described above, the water droplet determination unit 57 determines whether the water droplet candidate image is an image caused by a staying water droplet or an image caused by a flowing water droplet in steps S4-9 to S4-11, and the obtained determination result. Based on the above, it is possible to detect a water droplet in consideration of the state of the water droplet. And the water droplet determination part 57 outputs the signal which shows the obtained detection result to the determination part 60 in FIG. 1 (step S5). As the detection result, it is possible to indicate only the presence or absence of water droplets, or it is possible to include information on whether the water droplets are staying or flowing water droplets in the detection results and indicate that there is water droplet adhesion. Thus, the water droplet adhesion detection process in the water droplet detection unit 50 is completed, and then the process proceeds to step S6 in FIG.

ステップS6では、判定部60が、侵入者検出部40及び水滴検出部50からの検出結果信号に基づいて、監視空間に検出対象物が存在するか否か、撮像部10のレンズ部分等に水滴が付着しているか否か、について判定する。そして、判定部60において侵入者の存在を検出した、あるいは水滴の付着を検出したと判定された場合にはステップS7に処理を移行させ、侵入者の存在も水滴の付着も検出されなかった場合にはステップS8に処理を移行させる。   In step S <b> 6, the determination unit 60 determines whether there is a detection target in the monitoring space based on the detection result signals from the intruder detection unit 40 and the water droplet detection unit 50, and drops water on the lens portion of the imaging unit 10. It is determined whether or not the material is attached. When the determination unit 60 detects the presence of an intruder or determines that the attachment of water droplets has been detected, the process proceeds to step S7, and neither the presence of an intruder nor the attachment of water droplets is detected. The process is shifted to step S8.

ステップS7では、出力部80からネットワーク110を介して監視センタ120に対し警報信号を送信させる。このとき、侵入者の存在のみを検出した場合、水滴の付着のみを検出した場合、侵入者及び水滴の双方を検出した場合に応じて、例えば以下のように処理が行われる。   In step S 7, an alarm signal is transmitted from the output unit 80 to the monitoring center 120 via the network 110. At this time, when only the presence of the intruder is detected, only the attachment of the water droplet is detected, or both the intruder and the water droplet are detected, for example, the following processing is performed.

侵入者の存在のみを検出した場合には、侵入者の存在を検出した入力画像データを警報信号と共に監視センタ120に送信する。これにより、これを受信した監視センタ120の監視員は、監視装置により入力画像データを確認後、適切な対応を行うことができる。   When only the presence of the intruder is detected, the input image data for detecting the presence of the intruder is transmitted to the monitoring center 120 together with an alarm signal. As a result, the monitoring staff of the monitoring center 120 that has received this can take appropriate action after confirming the input image data by the monitoring device.

水滴の付着のみを検出した場合には、水滴の付着を検出した入力画像データを、監視センタ120の監視員による目視での監視を要請する監視要請信号と共に監視センタ120に送信する。このとき画像センシング装置100では、入力画像データを撮像部10から出力部80に直接送り渡すよう制御する。このとき、監視制御部90が侵入者検出部40による侵入者検出のための画像処理を停止させても良く、これにより画像センシング装置100による自動監視が停止する。また監視制御部90は、撮像部10からの入力画像データを出力部80から順次監視センタ120に自動送信するように制御する。これにより監視センタ120の監視員は、監視装置による目視での監視を行うことが可能となる。またこのとき、水滴検出部50による水滴検出のための画像処理は継続して行い、水滴が検出されなくなったら侵入者検出のための画像処理を再開するようにすると良い。   When only the adhesion of water droplets is detected, the input image data in which the adhesion of water droplets is detected is transmitted to the monitoring center 120 together with a monitoring request signal for requesting visual monitoring by a monitoring person of the monitoring center 120. At this time, the image sensing device 100 performs control so that the input image data is directly transferred from the imaging unit 10 to the output unit 80. At this time, the monitoring control unit 90 may stop the image processing for intruder detection by the intruder detection unit 40, thereby stopping the automatic monitoring by the image sensing device 100. The monitoring control unit 90 controls to automatically transmit the input image data from the imaging unit 10 sequentially from the output unit 80 to the monitoring center 120. Thereby, the monitoring staff of the monitoring center 120 can perform visual monitoring by the monitoring device. At this time, the image processing for water droplet detection by the water droplet detection unit 50 may be continuously performed, and the image processing for intruder detection may be resumed when no water droplet is detected.

ここで、上記のように画像センシング装置100において監視を目視に自動的に切り替える以外に、監視センタ120からの指示により監視を目視に切り替えるようにしても良い。例えば、監視要請信号を受信した後に、目視による監視に切り替える旨の目視実行信号を監視センタ120から画像センシング装置100に送信する。目視実行信号を受信すると、監視制御部90が画像センシング装置100による自動監視を停止させ、撮像部10からの入力画像データを順次監視センタ120に自動送信するよう各構成部を制御する。以上のようにしても、監視センタ120の監視員は監視装置による目視での監視を行うことが可能となる。   Here, in addition to automatically switching the monitoring to the visual observation in the image sensing device 100 as described above, the monitoring may be switched to the visual according to an instruction from the monitoring center 120. For example, after receiving the monitoring request signal, a visual execution signal for switching to visual monitoring is transmitted from the monitoring center 120 to the image sensing device 100. When the visual execution signal is received, the monitoring control unit 90 stops the automatic monitoring by the image sensing device 100 and controls each component unit to automatically transmit the input image data from the imaging unit 10 to the monitoring center 120 sequentially. Even in the above-described manner, the monitoring staff at the monitoring center 120 can perform visual monitoring by the monitoring device.

侵入者及び水滴の双方を検出した場合には、侵入者及び水滴の双方を検出した入力画像データを、上記の警報信号及び監視要請信号と共に監視センタ120に送信する。そして、これを受信した監視センタ120の監視員は、入力画像データを確認し、水滴の付着のみを検出した場合と同様の処理を経て、侵入者の検出に対して適切な対応を行うことができると共に、以後の監視を監視センタ120からの目視により行うことが可能となる。   When both the intruder and the water droplet are detected, the input image data in which both the intruder and the water droplet are detected is transmitted to the monitoring center 120 together with the alarm signal and the monitoring request signal. Then, the monitoring staff of the monitoring center 120 that has received this confirms the input image data, and can perform an appropriate response to the detection of the intruder through the same processing as when only the adhesion of water droplets is detected. In addition, the subsequent monitoring can be performed by visual observation from the monitoring center 120.

またステップS7において、出力部80から水滴を検出した旨の信号が出力した場合には、その出力信号に基づいて、撮像部10の前面に温風を吹き付けるブロアや、付着した水滴を除去するワイパー(図示せず)が作動するようにしても良い。ここで、ブロアやワイパーが作動中には目視による監視が行われるが、ブロアやワイパーの作動により水滴の付着が無くなって水滴検出部50により水滴が検出されなくなった場合、あるいは水滴の付着が無くなったことが入力画像データから目視により確認できた場合には、例えば監視センタ120から自動監視実行信号を画像センシング装置100に送信し、画像センシング装置100はこの自動監視実行信号を受信して、自動監視を再開するよう各構成部を制御するようにしても良い。   In step S7, when a signal indicating that a water droplet has been detected is output from the output unit 80, a blower that blows warm air on the front surface of the imaging unit 10 or a wiper that removes the attached water droplet based on the output signal. (Not shown) may be activated. Here, visual monitoring is performed while the blower or wiper is in operation. However, when the blower or wiper is operated, no water droplets are attached and no water droplets are detected by the water droplet detection unit 50, or no water droplets are attached. If the input image data can be confirmed visually, for example, the monitoring center 120 transmits an automatic monitoring execution signal to the image sensing device 100, and the image sensing device 100 receives the automatic monitoring execution signal and automatically You may make it control each structure part so that monitoring may be restarted.

ステップS8では、背景画像データの更新処理が行われる。背景画像更新部51は、所定の背景更新周期Tr(例えば、10秒)で記憶部59に保持されている背景画像データを最新の入力画像データで更新する。背景更新周期Trは、監視空間に対する日照の変動等を考慮して決定することが好適である。また、他の方法として、「人」が存在しないと判定された入力画像データで背景画像データを更新しても良く、さらに、過去に取得された複数の入力画像データの移動平均画像データにより背景画像データを更新しても良い。   In step S8, background image data update processing is performed. The background image update unit 51 updates the background image data held in the storage unit 59 with the latest input image data at a predetermined background update cycle Tr (for example, 10 seconds). It is preferable to determine the background update period Tr in consideration of fluctuations in sunlight with respect to the monitoring space. As another method, the background image data may be updated with the input image data determined that “person” does not exist, and the background is obtained by moving average image data of a plurality of input image data acquired in the past. The image data may be updated.

尚、本実施形態では、撮像部10により取得された最新の入力画像1フレーム全体について水滴の検出処理を行っているが、最新の入力画像データと背景画像データとの差分を算出することによって得られる背景差分データ内の変動領域ごとに、同様の水滴検出処理を行うようにしても良い。また、最新の入力画像1フレーム全体についての水滴検出処理と、背景差分データ内の変動領域ごとについての水滴検出処理とを併行して行っても良い。   In the present embodiment, the water droplet detection process is performed for the entire frame of the latest input image acquired by the imaging unit 10, but it is obtained by calculating the difference between the latest input image data and the background image data. The same water droplet detection process may be performed for each fluctuation region in the background difference data. In addition, the water droplet detection process for the entire frame of the latest input image and the water droplet detection process for each fluctuation region in the background difference data may be performed in parallel.

以上のように、本実施の形態によれば、水滴を検出すると、入力画像を画面表示して画像センシング装置による自動監視から監視員の目視による監視に切り替えるため、水滴の付着状態が解消されるまでの間の侵入者検出を確実に行うことが可能となる。   As described above, according to the present embodiment, when a water droplet is detected, the input image is displayed on the screen, and the automatic monitoring by the image sensing device is switched to the monitoring by the observer's visual observation. It is possible to reliably detect the intruder until the time.

ここで、以上のような画像センシング装置は、例えば図6に示す床面走行型ロボット130等の移動体に適用するのが好適である。ロボット130は、監視センタ120からの遠隔操作により又は自動で走行する。ロボット130の上面には、上記構成の画像センシング装置100を含むセンサ部140が取り付けられている。例えば図6のように、センサ部140のハウジングを六角柱型とし、各側面に一つずつ撮像部10を取り付けることにより、ロボット130の水平方向の周囲360度全ての空間が監視可能となる。   Here, the image sensing device as described above is preferably applied to a moving body such as the floor running robot 130 shown in FIG. The robot 130 travels by remote operation from the monitoring center 120 or automatically. A sensor unit 140 including the image sensing device 100 configured as described above is attached to the upper surface of the robot 130. For example, as shown in FIG. 6, the sensor unit 140 has a hexagonal prism housing, and one imaging unit 10 is attached to each side surface, whereby the entire space around 360 degrees around the robot 130 can be monitored.

そこで、以上のような構成のロボット130に本発明の画像センシング装置を利用すれば、ロボット130を走行させながら屋外の監視を行っている最中に撮像部10の前面に水滴が付着した場合にも、水滴の検出により監視方法を監視センタ120からの目視に迅速に切り替えることができるため、水滴の付着状態が解消されるまでの間の監視を確実に行うことが可能となる。   Therefore, if the image sensing device of the present invention is used for the robot 130 having the above-described configuration, when water droplets adhere to the front surface of the imaging unit 10 while the robot 130 is running while performing outdoor monitoring. However, since the monitoring method can be quickly switched to the visual observation from the monitoring center 120 by detecting the water droplets, it is possible to reliably perform the monitoring until the water droplet adhesion state is eliminated.

本発明の実施の形態におけるセンシング装置の構成を示す図である。It is a figure which shows the structure of the sensing apparatus in embodiment of this invention. 本発明の実施の形態における水滴検出部の構成を示す図である。It is a figure which shows the structure of the water droplet detection part in embodiment of this invention. 本発明の実施の形態におけるセンシング処理のフローチャートである。It is a flowchart of the sensing process in embodiment of this invention. 本発明の実施の形態における水滴付着検出処理のフローチャートである。It is a flowchart of the water droplet adhesion detection process in the embodiment of the present invention. 本発明の実施の形態における水滴判定情報算出処理のフローチャートである。It is a flowchart of the water droplet determination information calculation process in embodiment of this invention. 本発明の実施の形態におけるセンシング装置を利用したロボットの一例を示す図である。It is a figure which shows an example of the robot using the sensing apparatus in embodiment of this invention.

符号の説明Explanation of symbols

10 撮像部、20 照明部、30 照明制御部、40 侵入者検出部、50 水滴検出部、51 背景画像更新部、52 背景差分演算部、53 エッジ抽出部、54 水滴候補画像生成部、55 フレーム間差分演算部、56 水滴候補近傍画像処理部、57 水滴判定部、58 プログラム選択部、59 記憶部、60 判定部、70 画像処理部、80 出力部、90 監視制御部、100 画像センシング装置、110 ネットワーク、120 監視センタ、130 ロボット、140 センサ部。   DESCRIPTION OF SYMBOLS 10 Imaging part, 20 Illumination part, 30 Illumination control part, 40 Intruder detection part, 50 Water drop detection part, 51 Background image update part, 52 Background difference calculation part, 53 Edge extraction part, 54 Water drop candidate image generation part, 55 frames Difference calculation unit, 56 water droplet candidate vicinity image processing unit, 57 water drop determination unit, 58 program selection unit, 59 storage unit, 60 determination unit, 70 image processing unit, 80 output unit, 90 monitoring control unit, 100 image sensing device, 110 network, 120 monitoring center, 130 robot, 140 sensor unit.

Claims (5)

監視空間を撮像した画像を取得する撮像部と、
前記撮像部により撮像された入力画像中に検出対象物による画像領域が存在するか否かを判定し、前記監視空間における検出対象物の存在を検出する対象物検出部と、
前記撮像部により撮像された入力画像中に水滴による画像領域が存在するか否かを判定し、前記撮像部への水滴の付着を検出する水滴検出部と、
前記対象物検出部及び前記水滴検出部による検出結果に関する信号を外部の監視装置に出力する出力部と、
を備え、
前記水滴検出部が水滴を検出した場合に、水滴を検出した以降に前記撮像部から取得する入力画像を前記監視装置に出力し、前記監視装置にて画面表示を可能とすることを特徴とする画像センシング装置。
An imaging unit that acquires an image of the surveillance space;
An object detection unit that determines whether or not an image region due to a detection target exists in the input image captured by the imaging unit, and detects the presence of the detection target in the monitoring space;
A water droplet detection unit that determines whether or not an image region due to water droplets is present in the input image captured by the imaging unit,
An output unit for outputting a signal related to a detection result by the object detection unit and the water droplet detection unit to an external monitoring device;
With
When the water droplet detection unit detects a water droplet, an input image acquired from the imaging unit after detecting the water droplet is output to the monitoring device, and the monitoring device can display a screen. Image sensing device.
監視空間を撮像した画像を取得する撮像部と、
前記撮像部により撮像された入力画像中に検出対象物による画像領域が存在するか否かを判定し、前記監視空間における検出対象物の存在を検出する対象物検出部と、
前記撮像部により撮像された入力画像中に水滴による画像領域が存在するか否かを判定し、前記撮像部への水滴の付着を検出する水滴検出部と、
前記対象物検出部及び前記水滴検出部による検出結果に関する信号を外部の監視装置に出力する出力部と、
を備え、
前記出力部からの水滴を検出した旨の信号に対して外部から返答信号を受信した場合に、水滴を検出した以降に前記撮像部から取得する入力画像を前記監視装置に出力し、前記監視装置にて画面表示を可能とすることを特徴とする画像センシング装置。
An imaging unit that acquires an image of the surveillance space;
An object detection unit that determines whether or not an image region due to a detection target exists in the input image captured by the imaging unit, and detects the presence of the detection target in the monitoring space;
A water droplet detection unit that determines whether or not an image region due to water droplets exists in the input image captured by the imaging unit, and detects adhesion of water droplets to the imaging unit;
An output unit that outputs a signal related to a detection result by the object detection unit and the water droplet detection unit to an external monitoring device;
With
When a response signal is received from the outside in response to a signal indicating that a water droplet has been detected from the output unit, an input image acquired from the imaging unit after detecting the water droplet is output to the monitoring device, and the monitoring device An image sensing device characterized in that screen display is possible.
請求項1又は2に記載の画像センシング装置において、
前記水滴検出部が水滴を検出した場合、前記対象物検出部は、検出処理を停止することを特徴とする画像センシング装置。
The image sensing device according to claim 1 or 2,
When the water droplet detection unit detects a water droplet, the target object detection unit stops the detection process.
請求項3に記載の画像センシング装置において、
前記水滴検出部が水滴を検出しなくなった場合には、前記対象物検出部は、検出処理を再開することを特徴とする画像センシング装置。
The image sensing device according to claim 3.
When the water droplet detection unit stops detecting a water droplet, the object detection unit restarts the detection process.
請求項3に記載の画像センシング装置において、
前記対象物検出部は、外部から検出処理を再開する旨の指示信号を受信して、検出処理を再開することを特徴とする画像センシング装置。


The image sensing device according to claim 3.
The object detection unit receives an instruction signal for restarting the detection process from the outside and restarts the detection process.


JP2005076975A 2005-03-17 2005-03-17 Image sensing apparatus Pending JP2006262101A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005076975A JP2006262101A (en) 2005-03-17 2005-03-17 Image sensing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005076975A JP2006262101A (en) 2005-03-17 2005-03-17 Image sensing apparatus

Publications (1)

Publication Number Publication Date
JP2006262101A true JP2006262101A (en) 2006-09-28

Family

ID=37100842

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005076975A Pending JP2006262101A (en) 2005-03-17 2005-03-17 Image sensing apparatus

Country Status (1)

Country Link
JP (1) JP2006262101A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008090757A (en) * 2006-10-04 2008-04-17 Secom Co Ltd Mobile robot
JP2014190934A (en) * 2013-03-28 2014-10-06 Mitsubishi Electric Corp Tsunami detection system
JP2021051378A (en) * 2019-09-20 2021-04-01 株式会社デンソーテン Attached matter detection device and attached matter detection method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0512591A (en) * 1991-06-28 1993-01-22 Mitsubishi Electric Corp Monitoring device
JPH08172684A (en) * 1994-12-19 1996-07-02 Mitsubishi Denki Eng Kk Image monitoring security system
JPH09214940A (en) * 1996-01-31 1997-08-15 Mitsubishi Electric Corp Image processor for supervision
JP2004172878A (en) * 2002-11-19 2004-06-17 Sumitomo Electric Ind Ltd Image processing system using turnable monitoring camera

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0512591A (en) * 1991-06-28 1993-01-22 Mitsubishi Electric Corp Monitoring device
JPH08172684A (en) * 1994-12-19 1996-07-02 Mitsubishi Denki Eng Kk Image monitoring security system
JPH09214940A (en) * 1996-01-31 1997-08-15 Mitsubishi Electric Corp Image processor for supervision
JP2004172878A (en) * 2002-11-19 2004-06-17 Sumitomo Electric Ind Ltd Image processing system using turnable monitoring camera

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008090757A (en) * 2006-10-04 2008-04-17 Secom Co Ltd Mobile robot
JP2014190934A (en) * 2013-03-28 2014-10-06 Mitsubishi Electric Corp Tsunami detection system
JP2021051378A (en) * 2019-09-20 2021-04-01 株式会社デンソーテン Attached matter detection device and attached matter detection method
JP7234885B2 (en) 2019-09-20 2023-03-08 株式会社デンソーテン Attached matter detection device and attached matter detection method

Similar Documents

Publication Publication Date Title
JP4611776B2 (en) Image signal processing device
JP4542929B2 (en) Image signal processing device
JP3481397B2 (en) Fire detector
JP4491360B2 (en) Image signal processing device
JP4656977B2 (en) Sensing device
CN104134352A (en) Video vehicle characteristic detection system and detection method based on combination of long exposure and short exposure
JP2000175176A (en) Supervisory method for mobile object and image supervisory device
JP2018110057A (en) Lighting system, lighting method and program
JP2016206139A (en) Gas detection device
JP6189284B2 (en) Image sensing device
JP2006262101A (en) Image sensing apparatus
JP2004312402A (en) System and apparatus for road monitoring
JP2000306684A (en) Image monitor device and its illumination control method
JP4887540B2 (en) Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program, and vehicle periphery monitoring method
JP2012084009A (en) Image sensor
JP2006314061A (en) Image processing apparatus and noise detecting method
JP5179132B2 (en) Human body detection device
JP6183748B2 (en) Motion detection device
JP2001273484A (en) Instructed position detection system, presentation system and information storage medium
JP2018142887A (en) Image-taking system and image-taking device
JP6093270B2 (en) Image sensor
JP5044742B2 (en) Digital camera
JP5027646B2 (en) Combined intrusion detection device
JP2008164537A (en) Adhesive detection device and method
Kehtarnavaz et al. Real-time vision-based detection of waiting pedestrians

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080307

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100922

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100928

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110405

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110726