JP2001357388A - Device for monitoring road - Google Patents

Device for monitoring road

Info

Publication number
JP2001357388A
JP2001357388A JP2000175052A JP2000175052A JP2001357388A JP 2001357388 A JP2001357388 A JP 2001357388A JP 2000175052 A JP2000175052 A JP 2000175052A JP 2000175052 A JP2000175052 A JP 2000175052A JP 2001357388 A JP2001357388 A JP 2001357388A
Authority
JP
Japan
Prior art keywords
image
background
camera
unit
difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000175052A
Other languages
Japanese (ja)
Inventor
Toshio Fujine
俊夫 藤根
Naohiro Amamoto
直弘 天本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2000175052A priority Critical patent/JP2001357388A/en
Publication of JP2001357388A publication Critical patent/JP2001357388A/en
Pending legal-status Critical Current

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To solve the problem that an object is detected only one of a visible ray camera or an IR camera in the case of the object whose color or temperature is the same as that of a road or at night so that the object is not finally detected by a method for detecting the common part of the images of the both cameras as the object. SOLUTION: Respective input images obtained by the visible ray camera 200 and the IR camera 300 and background images which are previously photographed and stored in background image storage parts 230 and 330 are processed by difference in background difference processing parts 220 and 320 to generate background difference images. Ternarization processing parts 240 and 340 synthesize the two background difference images which are processed by ternarization and, then, an object detecting part 410 detects the object.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、例えば高速道路な
どにおいて、可視カメラと赤外カメラを使用して、道路
監視範囲に存在する車両や障害物を自動的に検出する道
路監視装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a road monitoring apparatus for automatically detecting vehicles and obstacles existing in a road monitoring area using a visible camera and an infrared camera, for example, on a highway. is there.

【0002】[0002]

【従来の技術】従来、可視カメラと赤外カメラを使用し
た監視装置では、可視カメラによる画像処理で検出した
物体と赤外カメラによる画像処理で検出した物体の共通
部分を装置全体での物体として検出している。
2. Description of the Related Art Conventionally, in a monitoring apparatus using a visible camera and an infrared camera, a common part of an object detected by image processing by a visible camera and an object detected by image processing by an infrared camera is regarded as an object in the entire apparatus. Detected.

【0003】例えば、特公平4−56359号公報で
は、可視カメラで得られた画像に時間差分方式を施して
物体を検出し、その物体と赤外カメラで得られた画像と
の共通部分を物体として検出している。具体的には、I
TV(可視)カメラおよび赤外線カメラより得られた画
像について時刻(t1)と時刻(t1+Δt)の画像お
よび時刻(t1+Δt)と時刻(t1+2Δt)の画像
の差分を各々求め、2値化処理を施し、得られた2つの
画像にAND処理を施して物体を検出する。更に、AN
D処理を施して得られた画像と赤外線カメラから得られ
た画像にAND処理を施して最終的な物体を検出してい
る。
For example, in Japanese Patent Publication No. 4-56359, an image obtained by a visible camera is subjected to a time difference method to detect an object, and a common portion between the object and an image obtained by an infrared camera is detected. Has been detected as Specifically, I
For the images obtained from the TV (visible) camera and the infrared camera, the difference between the images at the time (t1) and the time (t1 + Δt) and the image at the time (t1 + Δt) and the time (t1 + 2Δt) is obtained, and binarization processing is performed. An object is detected by performing an AND process on the two obtained images. Furthermore, AN
The final object is detected by performing an AND process on the image obtained by performing the D process and the image obtained by the infrared camera.

【0004】また、特開平4−137016号公報で
は、可視カメラで得られた画像と赤外カメラで得られた
画像から物体を検出し、両画像で共通に得られる部分を
物体として検出している。具体的には、可視カメラで得
られた画像と赤外カメラで得られた画像を各々2値化処
理を施し、更に、2値化処理により得られた2つの画像
にAND処理を施して、物体を検出している。
In Japanese Patent Application Laid-Open No. Hei 4-137016, an object is detected from an image obtained by a visible camera and an image obtained by an infrared camera, and a portion obtained in common between both images is detected as an object. I have. Specifically, the image obtained by the visible camera and the image obtained by the infrared camera are respectively subjected to a binarization process, and further, the two images obtained by the binarization process are subjected to an AND process. An object is being detected.

【0005】更に、一般的に画像処理により物体を検出
する方法として、予め物体が存在しない背景画像とカメ
ラからの入力画像に差分処理を施して得られる背景差分
画像を2値化処理し、得られた画像から物体を検出する
方法がある。そこで、可視カメラと赤外カメラで得られ
る各々の画像に対して、背景差分画像を2値化処理して
得られた画像から物体を検出し、その共通部分を最終的
な物体として検出する方法も考えられる。
In general, as a method of detecting an object by image processing, a background difference image obtained by subjecting a background image having no object to an input image from a camera in advance is binarized to obtain a background difference image. There is a method of detecting an object from a captured image. Therefore, for each image obtained by the visible camera and the infrared camera, an object is detected from an image obtained by binarizing a background difference image, and a common part is detected as a final object. Is also conceivable.

【0006】[0006]

【発明が解決しようとする課題】しかしながら、物体に
よっては背景となる道路と著しく同じ色の場合や道路と
著しく同じ温度の場合がある。また夜間の場合に照明設
備等がない環境においては、物体を十分認識できるほど
の照度が得られず、可視カメラで撮影された画像を用い
て物体を検出することは困難である。
However, depending on the object, there may be a case where the color of the road is significantly the same as that of the background road or a case where the temperature of the road is significantly the same. Further, in an environment where there is no lighting equipment or the like in the night, illuminance sufficient to recognize the object cannot be obtained, and it is difficult to detect the object using an image captured by a visible camera.

【0007】このように道路と同じ色の物体や夜間の場
合は、可視カメラの画像処理により物体として検出でき
ず、また道路と同じ温度の物体は、赤外カメラの画像処
理により物体として検出できない。即ち、そのような場
合、可視カメラあるいは赤外カメラのいずれか一方のみ
でしか物体を検出できず、両カメラの画像で共通して得
られた部分を物体として検出する従来例では、物体とし
て検出できないことになる。
As described above, an object having the same color as a road or at night cannot be detected as an object by image processing of a visible camera, and an object having the same temperature as a road cannot be detected as an object by image processing of an infrared camera. . That is, in such a case, the object can be detected only by either the visible camera or the infrared camera, and in the conventional example of detecting the part obtained in common by the images of both cameras as the object, the object is detected as the object. You can't.

【0008】[0008]

【課題を解決するための手段】上記課題を解決するた
め、本発明は可視カメラと赤外カメラで得られるそれぞ
れの入力画像と予め撮影した背景画像との差分処理をし
て背景差分画像を作成し、2つの背景差分画像を合成す
ることにより物体を検出するようにしたものである。
In order to solve the above-mentioned problems, the present invention creates a background difference image by performing a difference process between each input image obtained by a visible camera and an infrared camera and a background image taken in advance. The object is detected by combining two background difference images.

【0009】[0009]

【発明の実施の形態】図1は、本発明の第1の実施形態
を示すもので、道路監視装置の構成図である。この道路
監視装置10は、可視カメラ200と、赤外カメラ30
0と、画像処理装置100と、検出結果表示部500と
を備える。
FIG. 1 shows a first embodiment of the present invention, and is a configuration diagram of a road monitoring apparatus. The road monitoring device 10 includes a visible camera 200 and an infrared camera 30.
0, an image processing apparatus 100, and a detection result display unit 500.

【0010】この画像処理装置100は、可視カメラ入
力部210と、背景差分処理部220と、背景画像記憶
部230と、3値化処理部240と、背景画像更新部2
50と、赤外カメラ入力部310と、背景差分処理部3
20と、背景画像記憶部330と、3値化処理部340
と、背景画像更新部350と、物体検出部410とを備
える。
The image processing apparatus 100 includes a visible camera input unit 210, a background difference processing unit 220, a background image storage unit 230, a ternarization processing unit 240, and a background image update unit 2.
50, infrared camera input unit 310, background difference processing unit 3
20, a background image storage unit 330, and a ternarization processing unit 340
, A background image updating unit 350, and an object detecting unit 410.

【0011】この可視カメラ入力部210は、可視カメ
ラ200からの入力画像が格納されている。
The visible camera input unit 210 stores an input image from the visible camera 200.

【0012】背景画像記憶部230は、可視カメラ20
0において予め物体が存在しない画像が背景画像として
格納されている。
The background image storage unit 230 stores the visible camera 20
At 0, an image in which no object exists is stored in advance as a background image.

【0013】背景差分処理部220は、可視カメラ入力
部210で格納されている入力画像と背景画像記憶部2
30に格納されている背景画像との差分処理を施し、背
景差分画像を作成する。
The background difference processing unit 220 includes an input image stored in the visible camera input unit 210 and the background image storage unit 2.
The difference processing with respect to the background image stored in 30 is performed to create a background difference image.

【0014】3値化処理部240は、背景差分処理部2
20で作成した背景差分画像に3値化処理を施す。
The ternarization processing unit 240 includes a background difference processing unit 2
A ternarization process is performed on the background difference image created in 20.

【0015】背景更新部250では、3値化処理部24
0で得られた結果に基づいて、背景画像の更新を行う。
In the background updating section 250, the ternarization processing section 24
The background image is updated based on the result obtained at 0.

【0016】赤外カメラ入力部310は、赤外カメラ3
00からの入力画像が格納されている。
The infrared camera input unit 310 is connected to the infrared camera 3
The input image from 00 is stored.

【0017】背景画像記憶部330は、赤外カメラ30
0において予め物体が存在しない画像が背景画像として
格納されている。
The background image storage unit 330 stores the infrared camera 30
At 0, an image in which no object exists is stored in advance as a background image.

【0018】背景差分処理部320は、赤外カメラ入力
部310で格納されている入力画像と背景画像記憶部3
30に格納されている背景画像との差分処理を施し、背
景差分画像を作成する。
The background difference processing unit 320 is configured to store the input image stored in the infrared camera input unit 310 and the background image storage unit 3
The difference processing with respect to the background image stored in 30 is performed to create a background difference image.

【0019】3値化処理部340は、背景差分処理部3
20で作成した背景差分画像に3値化処理を施す。
The ternarization processing section 340 includes a background difference processing section 3
A ternarization process is performed on the background difference image created in 20.

【0020】背景更新部350では、3値化処理部34
0で得られた結果に基づいて、背景画像の更新を行う。
In the background updating section 350, the ternarization processing section 34
The background image is updated based on the result obtained at 0.

【0021】物体検出部410は、可視カメラ200の
入力画像に関する3値化処理部240と赤外カメラ30
0の入力に関する3値化処理部340の結果に基づい
て、合成した背景差分画像の濃淡値により自動的に物体
を検出する。
The object detection unit 410 includes a ternarization processing unit 240 for the input image of the visible camera 200 and the infrared camera 30.
Based on the result of the ternarization processing unit 340 regarding the input of 0, the object is automatically detected based on the gray value of the synthesized background difference image.

【0022】検出結果表示部500は、画像処理装置1
0から出力される物体検出結果をディスプレイなどの表
示装置に表示する。
The detection result display section 500 includes the image processing device 1
The object detection result output from 0 is displayed on a display device such as a display.

【0023】図2は第1の実施形態における物体検出処
理の説明図である。
FIG. 2 is an explanatory diagram of the object detection processing in the first embodiment.

【0024】以下に図1と図2を用いて、第1の実施形
態の道路監視装置における物体検出方法を具体的に説明
する。
Hereinafter, an object detection method in the road monitoring device of the first embodiment will be described in detail with reference to FIGS.

【0025】可視カメラ200および赤外カメラ300
は、道路および路上を走行する車両のように背景と物体
からなる画像を撮影する。また、可視カメラ200およ
び赤外カメラ300は監視領域が一致するように設置さ
れている。
The visible camera 200 and the infrared camera 300
Captures an image composed of a background and an object, such as a road and a vehicle running on a road. In addition, the visible camera 200 and the infrared camera 300 are installed so that the monitoring areas match.

【0026】可視カメラ200および赤外カメラ300
により撮影された画像は、それぞれ可視カメラ入力部2
10および赤外カメラ入力部310に入力され、入力画
像として記憶される。
The visible camera 200 and the infrared camera 300
The images captured by the camera are respectively input to the visible camera input unit 2
10 and input to the infrared camera input unit 310 and stored as an input image.

【0027】また、背景画像記憶部230および背景画
像記憶部330には、各々可視カメラ200および赤外
カメラ300によって、予め物体などが存在しない背景
のみからなる画像が撮影され、背景画像として記憶され
ている。
In the background image storage unit 230 and the background image storage unit 330, an image consisting of only a background having no object or the like is previously photographed by the visible camera 200 and the infrared camera 300 and stored as a background image. ing.

【0028】背景差分処理部220では、可視カメラ入
力部210で記憶されている可視カメラ200の図2
(a)に示す入力画像と背景記憶部230で記憶されて
いる背景画像において差分処理を施し、背景差分画像を
得る。
In the background subtraction processing section 220, the visible camera 200 stored in the visible camera input section 210 shown in FIG.
Difference processing is performed on the input image shown in FIG. 2A and the background image stored in the background storage unit 230 to obtain a background difference image.

【0029】3値化処理部240では、背景差分処理部
220で得られた背景差分画像を予め決められた閾値で
3値化処理を行う。閾値には、例えば、2値化処理で物
体を検出する閾値およびその閾値の半分の値を3値化処
理の閾値として用いれば良い。
The ternarization processing section 240 performs ternarization processing on the background difference image obtained by the background difference processing section 220 at a predetermined threshold value. As the threshold, for example, a threshold for detecting an object in the binarization processing and a half value of the threshold may be used as the threshold for the ternarization processing.

【0030】具体的に3値化処理によって得られた画像
を図2(c)に示す。濃淡値を示す斜線の部分(3値化
レベル“2”)が、通常2値化処理によって物体として
検出される領域であり、網目の部分(3値化レベル
“1”)は、物体とは検出できないが、入力画像と背景
画像において若干差分がある領域である。
FIG. 2C shows an image specifically obtained by the ternarization processing. The shaded portion indicating the gray level (the ternary level “2”) is a region that is normally detected as an object by the binarization process, and the mesh portion (the ternary level “1”) is the object. This is an area that cannot be detected, but has a slight difference between the input image and the background image.

【0031】赤外カメラ300で撮影された画像も同様
に、背景差分処理部320では、赤外カメラ入力部31
0で記憶されている赤外カメラ300の図2(b)に示
す入力画像と背景記憶部330で記憶されている背景画
像において差分処理を施し、背景差分画像を得る。
Similarly, the image captured by the infrared camera 300 is also input to the background difference processing unit 320 by the infrared camera input unit 31.
The difference processing is performed on the input image shown in FIG. 2B of the infrared camera 300 and the background image stored in the background storage unit 330 to obtain a background difference image.

【0032】3値化処理部340では、背景差分処理部
320で得られた背景差分画像を予め決められた閾値で
3値化処理を行う。閾値には、例えば、2値化処理で物
体を検出する閾値およびその閾値の半分の値を3値化処
理の閾値として用いれば良い。具体的に3値化処理によ
って得られた画像を図2(d)に示す。
The ternarization processing section 340 performs ternarization processing on the background difference image obtained by the background difference processing section 320 at a predetermined threshold value. As the threshold, for example, a threshold for detecting an object in the binarization processing and a half value of the threshold may be used as the threshold for the ternarization processing. An image specifically obtained by the ternarization processing is shown in FIG.

【0033】物体検出部410では、可視カメラ200
の3値化処理部240によって得られた画像と赤外カメ
ラ300の3値化処理部340によって得られた画像か
ら合成して物体領域を検出する。具体的な方法として
は、2つの3値化処理した画像の和をとり、濃淡値
“3”以上の画素を物体として検出する。
In the object detection unit 410, the visible camera 200
And an image obtained by the ternarization processing unit 340 of the infrared camera 300 is synthesized from the image obtained by the ternarization processing unit 240 to detect an object region. As a specific method, the sum of two ternary-processed images is calculated, and a pixel having a gray scale value “3” or more is detected as an object.

【0034】図を用いて具体的に説明すると、両画像で
物体と検出されている歩行者1c,1dは、3値画像の
和が“4”なので図2(e)の物体1eとして検出でき
る。また、どちらかの一方でしか検出できず、もう一方
ではわずかな差分しかない障害物2c,2dや車両3
c,3dでも、3値画像の和が“3”となり、図2
(e)の物体2e,3eとして検出できる。
More specifically, the pedestrians 1c and 1d detected as objects in both images can be detected as the object 1e in FIG. 2E because the sum of the ternary images is "4". . In addition, the obstacles 2c and 2d and the vehicle 3 which can be detected only in one of them and the other has only a small difference
Also in c and 3d, the sum of the ternary images is “3”, and FIG.
(E) can be detected as the objects 2e and 3e.

【0035】なお、一方でわずかな差分しかない障害物
の影4cは3値画像の和が“1”となり、また、一方で
しか検出できず、もう一方では全く検出できない車両の
影5cも3値画像の和が“2”となり、物体と誤って認
識することもない。
On the other hand, the shadow 4c of the obstacle having only a small difference has the sum of the ternary images of "1", and the shadow 5c of the vehicle which can be detected only on one side and not detected on the other side is also 3. The sum of the value images is “2”, and there is no erroneous recognition as an object.

【0036】背景画像更新部250では、可視カメラ2
00の背景画像を更新する。可視カメラ200の入力は
天候や時間の変化と共に撮影される画像の明るさが変化
するので、正確な背景差分を得るためには常に背景画像
を更新する必要がある。具体的には3値化処理部240
で3値レベルが“2”(通常2値化処理によって物体と
して検出される領域)の背景画像の画素は、背景画像記
憶部230で記憶されている過去の背景画像の画素値を
保持する。
In the background image updating section 250, the visible camera 2
The background image of 00 is updated. The input of the visible camera 200 changes the brightness of the captured image with the change of weather or time. Therefore, it is necessary to always update the background image in order to obtain an accurate background difference. Specifically, the ternarization processing unit 240
The pixel of the background image whose ternary level is “2” (a region normally detected as an object by the binarization process) holds the pixel value of the past background image stored in the background image storage unit 230.

【0037】それ以外の物体として検出されなかった画
素は、可視カメラ入力部210で記憶されている入力画
像と背景画像記憶部230で記憶されている過去の背景
画像とをある一定の比率で合成することで、新たな背景
画像の画素値とする。物体として検出されなかった画素
について背景更新する場合は、可視カメラ入力部210
で記憶されている入力画像の画素値をそのまま新たな背
景画像の画素値とすることもできる。
Pixels not detected as other objects are synthesized at a certain ratio between the input image stored in the visible camera input unit 210 and the past background image stored in the background image storage unit 230. By doing so, the pixel value of the new background image is set. To update the background of pixels not detected as an object, the visible camera input unit 210
The pixel value of the input image stored in step (1) can be used as it is as the pixel value of the new background image.

【0038】赤外カメラ300の方も同様で、背景画像
更新部350では、赤外カメラ300の背景画像を更新
する。具体的には3値化処理部340で3値化レベルが
“2”(通常2値化処理によって物体として検出される
領域)の背景画像の画素は、背景画像記憶部330で記
憶されている過去の背景画像の画素値を保持する。
The same applies to the infrared camera 300, and the background image updating section 350 updates the background image of the infrared camera 300. Specifically, the pixels of the background image whose ternarization level is “2” in the ternarization processing unit 340 (a region normally detected as an object by the binarization processing) are stored in the background image storage unit 330. The pixel value of the past background image is held.

【0039】それ以外の物体として検出されなかった画
素は、赤外カメラ入力部310で記憶されている入力画
像と背景画像記憶部330で記憶されている過去の背景
画像とをある一定の比率で合成することで、新たな背景
画像の画素値とする。物体として検出されなかった画素
について背景更新する場合は、赤外カメラ入力部310
で記憶されている入力画像の画素値をそのまま新たな背
景画像の画素値とすることもできる。
Pixels that are not detected as other objects are determined by a certain ratio between the input image stored in the infrared camera input unit 310 and the past background image stored in the background image storage unit 330. By combining, the pixel value of the new background image is obtained. To update the background of pixels not detected as an object, the infrared camera input unit 310
The pixel value of the input image stored in step (1) can be used as it is as the pixel value of the new background image.

【0040】最後に検出結果表示部500では、画像処
理装置100で得られた物体検出結果をディスプレイな
どの表示装置に文字・矩形などを用いて表示する。
Finally, the detection result display section 500 displays the object detection result obtained by the image processing apparatus 100 on a display device such as a display using characters and rectangles.

【0041】この第1の実施形態によれば、可視カメラ
および赤外カメラの両方で検出できる物体はもちろん、
一方では物体として検出できるが、もう一方では物体と
しては検出できず、わずかな差分特徴しか得られない場
合でも、3値化画像の和を取ることにより総合的に判定
して、物体として検出することができる。
According to the first embodiment, not only objects that can be detected by both the visible camera and the infrared camera, but also
On the one hand, it can be detected as an object, but on the other hand it cannot be detected as an object, and even if only a small difference feature is obtained, it is determined comprehensively by taking the sum of the ternary images and detected as an object be able to.

【0042】そのため、どちらか一方でしか検出できな
い物体や夜間のような環境下でも、物体を正確に検出で
き、検出漏れのない道路監視が可能となる。
Therefore, even in an environment where only one of them can be detected or an environment such as at night, the object can be accurately detected and road monitoring without omission of detection becomes possible.

【0043】上述した第1の実施形態では、可視カメラ
と赤外カメラの入力画像と予め撮影した各々の背景画像
との差分から背景差分画像を求め、両背景差分画像を3
値化処理し、両3値化画像の和から物体を検出してい
た。
In the above-described first embodiment, a background difference image is obtained from the difference between the input images of the visible camera and the infrared camera and each of the background images captured in advance.
A binarization process was performed, and an object was detected from the sum of the two ternary images.

【0044】これに対して、第2の実施形態では、得ら
れた2つの背景差分画像を4値化処理し、両4値化画像
の和から物体を検出する。
On the other hand, in the second embodiment, the obtained two background difference images are quaternized, and an object is detected from the sum of both quaternized images.

【0045】図3は、本発明の第2の実施形態を示すも
ので、道路監視装置の構成図である。この道路監視装置
12は、可視カメラ200と、赤外カメラ300と、画
像処理装置102と、検出結果表示部500とを備え
る。
FIG. 3 shows a second embodiment of the present invention, and is a configuration diagram of a road monitoring apparatus. The road monitoring device 12 includes a visible camera 200, an infrared camera 300, an image processing device 102, and a detection result display unit 500.

【0046】この画像処理装置102は、可視カメラ入
力部210と、背景差分処理部220と、背景画像記憶
部230と、4値化処理部242と、背景画像更新部2
50と、赤外カメラ入力部310と、背景差分処理部3
20と、背景画像記憶部330と、4値化処理部342
と、背景画像更新部350と、物体検出部410とを備
える。第1の実施形態とは4値化処理部242と342
が異なっている。
The image processing apparatus 102 includes a visible camera input unit 210, a background difference processing unit 220, a background image storage unit 230, a quaternization processing unit 242, and a background image update unit 2
50, infrared camera input unit 310, background difference processing unit 3
20, a background image storage unit 330, and a quaternary processing unit 342
, A background image updating unit 350, and an object detecting unit 410. What is the first embodiment?
Are different.

【0047】この可視カメラ入力部210は、可視カメ
ラ200からの入力画像が格納されている。
The visible camera input section 210 stores an input image from the visible camera 200.

【0048】背景画像記憶部230は、可視カメラ20
0において予め物体が存在しない画像が背景画像として
格納されている。
The background image storage section 230 stores the visible camera 20
At 0, an image in which no object exists is stored in advance as a background image.

【0049】背景差分処理部220は、可視カメラ入力
部で格納されている入力画像と背景画像記憶部230に
格納されている背景画像との差分処理を施し、背景差分
画像を作成する。
The background difference processing section 220 performs a difference process between the input image stored in the visible camera input section and the background image stored in the background image storage section 230 to create a background difference image.

【0050】4値化処理部242は、背景差分処理部2
20で作成した背景差分画像に4値化処理を施す。
The quaternary processing section 242 is provided by the background difference processing section 2
The quaternization process is performed on the background difference image created in step 20.

【0051】背景更新部250では、4値化処理部24
2で得られた結果に基づいて、背景画像の更新を行う。
In the background updating section 250, the quaternary processing section 24
The background image is updated based on the result obtained in step 2.

【0052】赤外カメラ入力部310は、赤外カメラ3
00からの入力画像が格納されている。
The infrared camera input unit 310 is connected to the infrared camera 3
The input image from 00 is stored.

【0053】背景画像記憶部330は、赤外カメラ30
0において予め物体が存在しない画像が背景画像として
格納されている。
The background image storage section 330 stores the infrared camera 30
At 0, an image in which no object exists is stored in advance as a background image.

【0054】背景差分処理部320は、赤外カメラ入力
部310で格納されている入力画像と背景画像記憶部3
30に格納されている背景画像との差分処理を施し、背
景差分画像を作成する。
The background difference processing section 320 stores the input image stored in the infrared camera input section 310 and the background image storage section 3.
The difference processing with respect to the background image stored in 30 is performed to create a background difference image.

【0055】4値化処理部342は、背景差分処理部3
20で作成した背景差分画像に4値化処理を施す。
The quaternary processing section 342 is provided by the background difference processing section 3
The quaternization process is performed on the background difference image created in step 20.

【0056】背景更新部350では、4値化処理部34
2で得られた結果に基づいて、背景画像の更新を行う。
In the background updating section 350, the quaternary processing section 34
The background image is updated based on the result obtained in step 2.

【0057】物体検出部410は、可視カメラ200の
入力画像に関する4値化処理部242と赤外カメラ30
0の入力に関する4値化処理部342の結果に基づい
て、合成した背景差分画像の濃淡値により自動的に物体
を検出する。
The object detection unit 410 includes a quaternization processing unit 242 for the input image of the visible camera 200 and the infrared camera 30
Based on the result of the quaternization processing unit 342 regarding the input of 0, an object is automatically detected based on the gray value of the synthesized background difference image.

【0058】検出結果表示部500は、画像処理装置1
2から出力される物体検出結果をディスプレイなどの表
示装置に表示する。
The detection result display section 500 displays the image processing device 1
The object detection result output from 2 is displayed on a display device such as a display.

【0059】図4は第2の実施形態における物体検出処
理の説明図である。
FIG. 4 is an explanatory diagram of the object detection processing in the second embodiment.

【0060】以下に図3と図4を用いて、第2の実施形
態の道路監視装置における物体検出方法を具体的に説明
する。
Hereinafter, an object detection method in the road monitoring device according to the second embodiment will be described in detail with reference to FIGS.

【0061】可視カメラ200および赤外カメラ300
は、道路および路上を走行する車両のように背景と物体
からなる画像を撮影する。また、可視カメラ200およ
び赤外カメラ300は監視領域が一致するように設置さ
れている。
The visible camera 200 and the infrared camera 300
Captures an image composed of a background and an object, such as a road and a vehicle running on a road. In addition, the visible camera 200 and the infrared camera 300 are installed so that the monitoring areas match.

【0062】可視カメラ200および赤外カメラ300
により撮影された画像は、それぞれ可視カメラ入力部2
10および赤外カメラ入力部310に入力され、入力画
像として記憶される。
The visible camera 200 and the infrared camera 300
The images captured by the camera are respectively input to the visible camera input unit 2
10 and input to the infrared camera input unit 310 and stored as an input image.

【0063】また、背景画像記憶部230および背景画
像記憶部330には、各々可視カメラ200および赤外
カメラ300によって、予め物体などが存在しない背景
のみからなる画像が撮影され、背景画像として記憶され
ている。
In the background image storage section 230 and the background image storage section 330, an image consisting of only a background having no object or the like is previously photographed by the visible camera 200 and the infrared camera 300, and stored as a background image. ing.

【0064】背景差分処理部220では、可視カメラ入
力部210で記憶されている可視カメラ200の図4
(a)に示す入力画像と背景記憶部230で記憶されて
いる背景画像において差分処理を施し、背景差分画像を
得る。
In the background difference processing section 220, the visible camera 200 stored in the visible camera input section 210 shown in FIG.
Difference processing is performed on the input image shown in FIG. 2A and the background image stored in the background storage unit 230 to obtain a background difference image.

【0065】4値化処理部242では、背景差分処理部
220で得られた背景差分画像を予め決められた閾値で
4値化処理を行う。閾値には、例えば、2値化処理で物
体を検出する閾値、その閾値の2倍、およびその閾値の
半分の値を4値化処理の閾値として用いれば良い。
The quaternization processing unit 242 performs quaternization processing on the background difference image obtained by the background difference processing unit 220 using a predetermined threshold. As the threshold value, for example, a threshold value for detecting an object in the binarization process, twice the threshold value, and a half value of the threshold value may be used as the threshold value for the quaternization process.

【0066】具体的に4値化処理によって得られた画像
を図4(c)に示す。濃淡値を示す黒色の部分(4値化
レベル“3”)は、背景差分画像で通常の2値化処理に
おける閾値の倍以上の差分がある画素で、明らかに物体
として検出できる領域であり、斜線の部分(4値化レベ
ル“2”)は、背景差分画像で通常の2値化処理におけ
る閾値の倍以上の差分がないが、通常2値化処理によっ
て物体として検出される領域であり、網目の部分(4値
化レベル“1”)は、物体とは検出できないが、入力画
像と背景画像において若干差分がある領域である。
FIG. 4C shows an image specifically obtained by the quaternization processing. A black portion (a quaternary level “3”) indicating a gray value is a pixel having a difference equal to or more than twice the threshold value in the normal binarization processing in the background difference image, and is a region that can be clearly detected as an object. The shaded portion (quaternary level “2”) is an area that is detected as an object by the normal binarization process, although the background difference image does not have a difference equal to or more than twice the threshold value in the normal binarization process, The mesh portion (quaternary level “1”) is an area that cannot be detected as an object but has a slight difference between the input image and the background image.

【0067】赤外カメラ300で撮影された画像も同様
に、背景差分処理部320では、赤外カメラ入力部31
0で記憶されている赤外カメラ300の図4(b)に示
す入力画像と背景記憶部330で記憶されている背景画
像において差分処理を施し、背景差分画像を得る。
Similarly, the image captured by the infrared camera 300 is also input to the background difference processing section 320 by the infrared camera input section 31.
The difference processing is performed on the input image shown in FIG. 4B of the infrared camera 300 and the background image stored in the background storage unit 330 to obtain a background difference image.

【0068】4値化処理部342では、背景差分処理部
320で得られた背景差分画像を予め決められた閾値で
4値化処理を行う。閾値には、例えば、2値化処理で物
体を検出する閾値、その閾値の2倍、およびその閾値の
半分の値を4値化処理の閾値として用いれば良い。具体
的に4値化処理によって得られた画像を図4(d)に示
す。
The quaternization processing section 342 performs quaternization processing on the background difference image obtained by the background difference processing section 320 at a predetermined threshold value. As the threshold value, for example, a threshold value for detecting an object in the binarization process, twice the threshold value, and a half value of the threshold value may be used as the threshold value for the quaternization process. FIG. 4D shows an image specifically obtained by the quaternization processing.

【0069】物体検出部410では、可視カメラ200
の4値化処理部242によって得られた画像と赤外カメ
ラ300の4値化処理部342によって得られた画像か
ら、物体領域を検出する。具体的な方法としては、2つ
の4値化処理した画像の和をとり、“3”以上の画素を
物体として検出する。
In the object detection unit 410, the visible camera 200
The object area is detected from the image obtained by the quaternization processing unit 242 of the infrared camera 300 and the image obtained by the quaternization processing unit 342 of the infrared camera 300. As a specific method, a sum of two quaternized images is obtained, and pixels of “3” or more are detected as objects.

【0070】図を用いて具体的に説明すると、両画像で
明らかに物体と検出されている歩行者1c,1dは、4
値画像の和が“6”なので図4(e)の物体1eとして
検出できる。また、どちらかの一方で明らかに検出で
き、もう一方では全く物体として検出できない障害物2
c,2dも、4値画像の和が“3”なので図4(e)の
物体2eとして検出できる。なお、車両3c,3dは、
4値画像の和が“3”となり、図4(e)の物体3eと
して検出でき、車両の影5cは4値画像の和が“2”と
なり、誤って物体として検出されることもなく、第1の
実施形態と同様の結果が得られる。
More specifically, with reference to the drawings, pedestrians 1c and 1d clearly detected as objects in both images are 4
Since the sum of the value images is "6", it can be detected as the object 1e in FIG. An obstacle 2 that can be clearly detected on one side and not detected as an object on the other side
Since the sum of the quaternary images is "3", c and 2d can also be detected as the object 2e in FIG. The vehicles 3c and 3d are:
The sum of the quaternary images is "3", which can be detected as the object 3e in FIG. 4 (e). The shadow 5c of the vehicle has the sum of the quaternary images of "2" and is not erroneously detected as an object. A result similar to that of the first embodiment is obtained.

【0071】背景画像更新部250では、可視カメラ2
00の背景画像を更新する。可視カメラ200の入力は
天候や時間の変化と共に撮影される画像の明るさが変化
するので、正確な背景差分を得るためには常に背景画像
を更新する必要がある。具体的には4値化処理部242
で4値化レベルが“2”以上(通常2値化処理によって
物体として検出される領域)の背景画像の画素は、背景
画像記憶部230で記憶されている過去の背景画像の画
素値を保持する。
In the background image updating unit 250, the visible camera 2
The background image of 00 is updated. The input of the visible camera 200 changes the brightness of the captured image with the change of weather or time. Therefore, it is necessary to always update the background image in order to obtain an accurate background difference. Specifically, the quaternary processing unit 242
The pixels of the background image having a quaternization level of “2” or more (a region normally detected as an object by the binarization processing) hold the pixel values of the past background image stored in the background image storage unit 230 I do.

【0072】それ以外の物体として検出されなかった画
素は、可視カメラ入力部210で記憶されている入力画
像と背景画像記憶部230で記憶されている過去の背景
画像とある一定の比率で合成することで、新たな背景画
像の画素値とする。物体として検出されなかった画素に
ついて背景更新する場合は、可視カメラ入力部210で
記憶されている入力画像の画素値をそのまま新たな背景
画像の画素値とすることもできる。
Pixels not detected as other objects are synthesized with the input image stored in the visible camera input unit 210 and the past background image stored in the background image storage unit 230 at a certain fixed ratio. Thus, the pixel value of the new background image is set. When the background is updated for a pixel not detected as an object, the pixel value of the input image stored in the visible camera input unit 210 can be used as it is as the pixel value of the new background image.

【0073】赤外カメラ300の方も同様で、背景画像
更新部350では、赤外カメラ300の背景画像を更新
する。具体的には4値化処理部342で3値化レベルが
“2”以上(通常2値化処理によって物体として検出さ
れる領域)の背景画像の画素は、背景画像記憶部330
で記憶されている過去の背景画像の画素値を保持する。
The same applies to the infrared camera 300, and the background image updating section 350 updates the background image of the infrared camera 300. Specifically, the pixels of the background image whose ternarization level is “2” or more (usually an area detected as an object by the binarization processing) in the quaternization processing unit 342 are stored in the background image storage unit 330.
Holds the pixel value of the past background image stored in.

【0074】それ以外の物体として検出されなかった画
素は、赤外カメラ入力部310で記憶されている入力画
像と背景画像記憶部330で記憶されている過去の背景
画像とある一定の比率で合成することで、新たな背景画
像の画素値とする。物体として検出されなかった画素に
ついて背景更新する場合は、赤外カメラ入力部310で
記憶されている入力画像の画素値をそのまま新たな背景
画像の画素値とすることもできる。
Pixels not detected as other objects are synthesized at a certain ratio with the input image stored in the infrared camera input unit 310 and the past background image stored in the background image storage unit 330. By doing so, the pixel value of the new background image is set. When the background is updated for a pixel not detected as an object, the pixel value of the input image stored in the infrared camera input unit 310 can be used as it is as the pixel value of a new background image.

【0075】最後に検出結果表示部500では、画像処
理装置102で得られた物体検出結果をディスプレイな
どの表示装置に文字・矩形などを用いて表示する。
Finally, the detection result display section 500 displays the object detection result obtained by the image processing device 102 on a display device such as a display using characters and rectangles.

【0076】この第2の実施形態によれば、可視カメラ
および赤外カメラの両方で検出できる物体はもちろん、
一方では物体として検出できるが、もう一方では物体と
しては全く検出できない場合でも、4値化画像の和を取
ることにより総合的に判定して、物体として検出するこ
とができる。
According to the second embodiment, not only objects that can be detected by both the visible camera and the infrared camera, but also
Even if one object can be detected as an object but the other object cannot be detected at all, it can be comprehensively determined by taking the sum of the quaternized images and detected as an object.

【0077】そのため、どちらか一方でしか検出できな
い物体や夜間のような環境下でも、物体を正確に検出で
き、検出漏れのない道路監視が可能となる。
Therefore, even in an environment where only one of the objects can be detected or an environment such as at night, the object can be accurately detected, and road monitoring without omission of detection can be performed.

【0078】上述した第1の実施形態では、可視カメラ
と赤外カメラの入力画像と予め撮影した各々の背景画像
との差分から背景差分画像を求め、両背景差分画像を3
値化処理し、両3値化画像の和から物体を検出し、第2
の実施形態では4値化処理し、両4値化画像の和から物
体を検出していた。
In the first embodiment described above, a background difference image is obtained from the difference between the input images of the visible camera and the infrared camera and each of the background images captured in advance, and the two background difference images are
Binarization processing to detect an object from the sum of both ternary images,
In the embodiment, the object is detected from the sum of the quaternized images and the quaternized processing.

【0079】これに対して、第3の実施形態では、各々
の入力画像や背景画像より確信度を求め、その確信度の
比率で2つの背景差分画像の合成を求めることで、物体
を検出する。
On the other hand, in the third embodiment, an object is detected by obtaining a certainty factor from each input image or background image and obtaining a composite of two background difference images at a ratio of the certainty factor. .

【0080】図5は、本発明の第3の実施形態を示すも
ので、道路監視装置の構成図である。この道路監視装置
13は、可視カメラ200と、赤外カメラ300と、画
像処理装置103と、検出結果表示部500とを具え
る。
FIG. 5 shows a third embodiment of the present invention, and is a configuration diagram of a road monitoring apparatus. The road monitoring device 13 includes a visible camera 200, an infrared camera 300, an image processing device 103, and a detection result display unit 500.

【0081】この画像処理装置103は、可視カメラ入
力部210と、背景差分処理部220と、背景画像記憶
部230と、2値化処理部243と、背景画像更新部2
50と、確信度算出部260と、赤外カメラ入力部31
0と、背景差分処理部320と、背景画像記憶部330
と、2値化処理部343と、背景画像更新部350と、
確信度算出部360と、物体検出部413と、背景差分
合成部420とを備える。
The image processing device 103 includes a visible camera input unit 210, a background difference processing unit 220, a background image storage unit 230, a binarization processing unit 243, and a background image update unit 2
50, the certainty factor calculation unit 260, and the infrared camera input unit 31
0, background difference processing section 320, background image storage section 330
, A binarization processing unit 343, a background image updating unit 350,
It includes a certainty factor calculation unit 360, an object detection unit 413, and a background difference synthesis unit 420.

【0082】この可視カメラ入力部210は、可視カメ
ラ200からの入力画像が格納されている。
The visible camera input section 210 stores an input image from the visible camera 200.

【0083】背景画像記憶部230は、可視カメラ20
0において予め物体が存在しない画像が背景画像として
格納されている。
The background image storage unit 230 stores the visible camera 20
At 0, an image in which no object exists is stored in advance as a background image.

【0084】背景差分処理部220は、可視カメラ入力
部210で格納されている入力画像と背景画像記憶部2
30に格納されている背景画像との差分処理を施し、背
景差分画像を作成する。
The background difference processing section 220 is configured to store the input image stored in the visible camera input section 210 and the background image storage section 2.
The difference processing with respect to the background image stored in 30 is performed to create a background difference image.

【0085】2値化処理部243は、背景差分処理部2
20で作成した背景差分画像に2値化処理を施す。
The binarization processing section 243 includes the background difference processing section 2
The background difference image created in step 20 is subjected to a binarization process.

【0086】背景更新部250では、2値化処理部24
3で得られた結果に基づいて、背景画像の更新を行う。
In the background updating section 250, the binarization processing section 24
The background image is updated based on the result obtained in step 3.

【0087】確信度算出部260では、可視カメラ入力
部210あるいは背景画像記憶部230で記憶されてい
る可視カメラ200の入力画像あるいは背景画像を用い
て可視カメラ200の確信度を求める。
The certainty calculation unit 260 obtains the certainty of the visible camera 200 using the input image or the background image of the visible camera 200 stored in the visible camera input unit 210 or the background image storage unit 230.

【0088】赤外カメラ入力部310は、赤外カメラ3
00からの入力画像が格納されている。
The infrared camera input section 310 is connected to the infrared camera 3
The input image from 00 is stored.

【0089】背景画像記憶部330は、赤外カメラ30
0において予め物体が存在しない画像が背景画像として
格納されている。
The background image storage section 330 stores the infrared camera 30
At 0, an image in which no object exists is stored in advance as a background image.

【0090】背景差分処理部320は、赤外カメラ入力
部310で格納されている入力画像と背景画像記憶部3
30に格納されている背景画像との差分処理を施し、背
景差分画像を作成する。
The background difference processing section 320 is configured to store the input image stored in the infrared camera input section 310 and the background image storage section 3
The difference processing with respect to the background image stored in 30 is performed to create a background difference image.

【0091】2値化処理部343は、背景差分処理部3
20で作成した背景差分画像に2値化処理を施す。
The binarization processing unit 343 includes the background difference processing unit 3
The background difference image created in step 20 is subjected to a binarization process.

【0092】背景更新部350では、2値化処理部34
3で得られた結果に基づいて、背景画像の更新を行う。
In the background updating section 350, the binarization processing section 34
The background image is updated based on the result obtained in step 3.

【0093】確信度算出部360では、赤外カメラ入力
部310あるいは背景画像記憶部330で記憶されてい
る赤外カメラ300の入力画像あるいは背景画像を用い
て赤外カメラ300の確信度を求める。
The certainty calculation unit 360 obtains the certainty of the infrared camera 300 using the input image or the background image of the infrared camera 300 stored in the infrared camera input unit 310 or the background image storage unit 330.

【0094】背景差分合成部420は、可視カメラ20
0の背景差分処理部220で作成した背景差分画像と赤
外カメラ300の背景差分処理部320で作成した背景
差分画像とを、確信度算出部260で算出された可視カ
メラ200の確信度と確信度算出部360で算出された
赤外カメラ300の確信度とに基づいて合成する。
[0094] The background difference synthesizing section 420
The background difference image created by the background difference processing unit 220 of the infrared camera 300 and the background difference image created by the background difference processing unit 320 of the infrared camera 300 are compared with the confidence of the visible camera 200 calculated by the confidence calculation unit 260. The combination is performed based on the degree of certainty of the infrared camera 300 calculated by the degree calculation unit 360.

【0095】物体検出部413は、背景差分合成部42
0で求めた可視カメラ200と赤外カメラ300の両背
景差分画像の合成結果に基づいて、合成した背景差分画
像の濃淡値により自動的に物体を検出する。
The object detecting section 413 includes the background difference synthesizing section 42
Based on the result of combining the background difference images of the visible camera 200 and the infrared camera 300 obtained at 0, an object is automatically detected based on the gray value of the combined background difference image.

【0096】検出結果表示部500は、画像処理装置1
3から出力される物体検出結果をディスプレイなどの表
示装置に表示する。
[0096] The detection result display section 500 displays the image processing apparatus 1
The object detection result output from 3 is displayed on a display device such as a display.

【0097】図6は第3の実施形態における物体検出処
理の説明図である。
FIG. 6 is an explanatory diagram of the object detection processing in the third embodiment.

【0098】以下に図5と図6を用いて、第3の実施形
態の道路監視装置における物体検出方法を具体的に説明
する。
Hereinafter, an object detection method in the road monitoring apparatus according to the third embodiment will be described in detail with reference to FIGS.

【0099】可視カメラ200および赤外カメラ300
は、道路および路上を走行する車両のように背景と物体
からなる画像を撮影する。また、可視カメラ200およ
び赤外カメラ300は監視領域が一致するように設置さ
れている。
The visible camera 200 and the infrared camera 300
Captures an image composed of a background and an object, such as a road and a vehicle running on a road. In addition, the visible camera 200 and the infrared camera 300 are installed so that the monitoring areas match.

【0100】可視カメラ200および赤外カメラ300
により撮影された画像は、それぞれ可視カメラ入力部2
10および赤外カメラ入力部310に入力され、入力画
像として記憶される。
Visible camera 200 and infrared camera 300
The images captured by the camera are respectively input to the visible camera input unit 2
10 and input to the infrared camera input unit 310 and stored as an input image.

【0101】また、背景画像記憶部230および背景画
像記憶部330には、各々可視カメラ200および赤外
カメラ300によって、予め物体などが存在しない背景
のみからなる画像が撮影され、背景画像として記憶され
ている。
In the background image storage section 230 and the background image storage section 330, an image consisting only of a background having no object or the like is previously photographed by the visible camera 200 and the infrared camera 300 and stored as a background image. ing.

【0102】背景差分処理部220では、可視カメラ入
力部210で記憶されている可視カメラ200の図6
(a)に示す入力画像と背景記憶部230で記憶されて
いる背景画像において差分処理を施し、背景差分画像を
得る。この背景差分画像を図6(e)に示す。
In the background subtraction processing section 220, the visible camera 200 stored in the visible camera input section 210 shown in FIG.
Difference processing is performed on the input image shown in FIG. 2A and the background image stored in the background storage unit 230 to obtain a background difference image. This background difference image is shown in FIG.

【0103】2値化処理部243では、背景差分処理部
220で得られた背景差分画像を予め決められた閾値で
2値化処理を行う。具体的に2値化処理によって得られ
た画像を図6(c)に示す。
The binarization processing section 243 performs a binarization process on the background difference image obtained by the background difference processing section 220 at a predetermined threshold. FIG. 6C shows an image specifically obtained by the binarization processing.

【0104】確信度算出部260では、可視カメラ入力
部210あるいは背景画像記憶部230で記憶されてい
る可視カメラ200の入力画像や背景画像を用いて可視
カメラ200の確信度を算出する。この確信度は、物体
をどれほど確からしく検出できるかの指標である。具体
的には、入力画像や背景画像における画素の輝度値の平
均や分散値を用いれば良い。
The certainty factor calculating unit 260 calculates the certainty factor of the visible camera 200 using the input image and the background image of the visible camera 200 stored in the visible camera input unit 210 or the background image storage unit 230. The certainty factor is an index of how accurately the object can be detected. Specifically, an average or a variance of luminance values of pixels in the input image or the background image may be used.

【0105】赤外カメラ300で撮影された画像も同様
に、背景差分処理部320では、赤外カメラ入力部31
0で記憶されている赤外カメラ300の図6(b)に示
す入力画像と背景記憶部330で記憶されている背景画
像において差分処理を施し、背景差分画像を得る。この
背景差分画像を図6(f)に示す。
Similarly, the image captured by the infrared camera 300 is also input to the background difference processing section 320 by the infrared camera input section 31.
The difference processing is performed on the input image shown in FIG. 6B of the infrared camera 300 and the background image stored in the background storage unit 330 to obtain a background difference image. This background difference image is shown in FIG.

【0106】2値化処理343では、背景差分処理部3
20で得られた背景差分画像を予め決められた閾値で2
値化処理を行う。具体的に2値化処理によって得られた
画像を図6(d)に示す。
In the binarization process 343, the background difference processing unit 3
The background difference image obtained in step 20 is set to 2 with a predetermined threshold value.
Perform value conversion processing. FIG. 6D shows an image specifically obtained by the binarization processing.

【0107】確信度算出部360では、赤外カメラ入力
部310あるいは背景画像記憶部330で記憶されてい
る赤外カメラ300の入力画像や背景画像を用いて赤外
カメラ300の確信度を算出する。具体的には、入力画
像や背景画像における画素の輝度値の平均や分散値を用
いれば良い。
The certainty calculation unit 360 calculates the certainty of the infrared camera 300 using the input image or the background image of the infrared camera 300 stored in the infrared camera input unit 310 or the background image storage unit 330. . Specifically, an average or a variance of luminance values of pixels in the input image or the background image may be used.

【0108】背景差分合成部420は、可視カメラ20
0の背景差分処理部220で作成した背景差分画像と赤
外カメラ300の背景差分処理部320で作成した背景
差分画像とを、確信度算出部260で算出された可視カ
メラ200の確信度と確信度算出部360で算出された
赤外カメラ300の確信度とに基づいて合成する。
[0108] The background difference synthesizing section 420
The background difference image created by the background difference processing unit 220 of the infrared camera 300 and the background difference image created by the background difference processing unit 320 of the infrared camera 300 are compared with the confidence of the visible camera 200 calculated by the confidence calculation unit 260. The combination is performed based on the degree of certainty of the infrared camera 300 calculated by the degree calculation unit 360.

【0109】具体的には、確信度算出部260で算出さ
れた可視カメラの確信度をα、確信度算出部360で算
出された赤外カメラ300の確信度をβとし、可視カメ
ラ200の背景差分画像の各画素の濃淡値をdA 、赤外
カメラの背景差分画像の各画素の濃淡値をdB とすると
き、両背景差分画像の合成後の各画素の濃淡値dは、以
下の式、数1で求めれば良い。
More specifically, the certainty factor of the visible camera calculated by the certainty factor calculation unit 260 is α, and the certainty factor of the infrared camera 300 calculated by the certainty factor calculation unit 360 is β. when the density value d a of each pixel of the difference image, the gray value of each pixel of the background difference image of the infrared camera and d B, gray value d of each pixel after the synthesis of both the background difference image, the following What is necessary is just to calculate | require by Formula and Formula 1.

【0110】[0110]

【数1】 (Equation 1)

【0111】このように各確信度の比率に応じて両背景
画像の合成を求めることで、確信度の大きい方がその背
景差分画像の画素の濃淡値を両背景差分画像の合成した
濃淡値に反映させることができる。つまり、確信度の高
い、すなわち物体の検出の確からしさが大きい方の背景
差分値が両背景差分画像を合成した濃淡値に反映され、
その結果として、確信度の高い方の特徴を有効に活用
し、確信度が低い方の特徴の影響を抑えることができ
る。
As described above, by synthesizing the two background images in accordance with the ratio of the certainty factors, the one having the higher certainty factor sets the gray value of the pixel of the background difference image to the gray value obtained by combining the two background difference images. Can be reflected. In other words, the background difference value having a higher degree of certainty, that is, the probability of detection of the object being larger is reflected in the grayscale value obtained by combining the two background difference images,
As a result, it is possible to effectively utilize the feature with the higher certainty and suppress the influence of the feature with the lower certainty.

【0112】物体検出部413では、背景差分合成部4
20によって得られた両背景差分画像の合成値をある適
当な2値化閾値で2値化処理することで物体領域を検出
する。
In the object detecting section 413, the background difference synthesizing section 4
The object area is detected by subjecting the composite value of the two background difference images obtained in step 20 to a binarization process using a certain appropriate binarization threshold.

【0113】具体的に図6を用いて説明すると、図6
(a)の確信度が低く、図6(b)の確信度が高い場
合、両画像で物体と検出されている車両3e,3fはも
ちろんのこと、障害物2fや歩行者1fのように確信度
が高い方で物体と検出できていれば、確信度の高い方の
背景差分値を反映でき、結果として図6(g)に示すよ
うに、物体を検出できる。なお、図6(g)の黒色の部
分は両背景差分画像の合成した濃淡値を2値化した時
に、閾値以上の画素を示してあり、物体として検出され
る領域である。
A specific description will be given with reference to FIG.
When the confidence in FIG. 6A is low and the confidence in FIG. 6B is high, the vehicle 3e, 3f detected as an object in both images, as well as the obstacle 2f and the pedestrian 1f, are convinced. If the object can be detected with the higher degree, the background difference value with the higher certainty can be reflected, and as a result, the object can be detected as shown in FIG. Note that the black portion in FIG. 6G indicates pixels that are equal to or larger than a threshold when binarizing the combined grayscale value of the two background difference images, and is a region that is detected as an object.

【0114】背景画像更新部250では、可視カメラ2
00の背景画像を更新する。可視カメラ200の入力は
天候や時間の変化と共に撮影される画像の明るさが変化
するので、正確な背景差分を得るためには常に背景画像
を更新する必要がある。具体的には2値化処理部243
で2値化レベルが“1”(物体として検出される領域)
の背景画像の画素は、背景画像記憶部230で記憶され
ている過去の背景画像の画素値を保持する。
In the background image updating unit 250, the visible camera 2
The background image of 00 is updated. The input of the visible camera 200 changes the brightness of the captured image with the change of weather or time. Therefore, it is necessary to always update the background image in order to obtain an accurate background difference. Specifically, the binarization processing unit 243
And the binarization level is "1" (area detected as an object)
The pixel of the background image holds the pixel value of the past background image stored in the background image storage unit 230.

【0115】それ以外の物体として検出されなかった画
素は、可視カメラ入力部210で記憶されている入力画
像と背景画像記憶部230で記憶されている過去の背景
画像とある一定の比率で合成することで、新たな背景画
像の画素値とする。物体として検出されなかった画素に
ついて背景更新する場合は、可視カメラ入力部210で
記憶されている入力画像の画素値をそのまま新たな背景
画像の画素値とすることもできる。
Pixels not detected as other objects are synthesized at a certain ratio with the input image stored in the visible camera input unit 210 and the past background image stored in the background image storage unit 230. Thus, the pixel value of the new background image is set. When the background is updated for a pixel not detected as an object, the pixel value of the input image stored in the visible camera input unit 210 can be used as it is as the pixel value of the new background image.

【0116】赤外カメラ300の方も同様で、背景画像
更新部350では、赤外カメラ300の背景画像を更新
する。具体的には2値化処理部343で2値化レベルが
“1”(2値化処理によって物体として検出される領
域)の背景画像の画素は、背景画像記憶部330で記憶
されている過去の背景画像の画素値を保持する。
The same applies to the infrared camera 300, and the background image updating section 350 updates the background image of the infrared camera 300. Specifically, the pixels of the background image whose binarization level is “1” (the area detected as an object by the binarization processing) in the binarization processing unit 343 are stored in the background image storage unit 330 in the past. Is stored.

【0117】それ以外の物体として検出されなかった画
素は、赤外カメラ入力部310で記憶されている入力画
像と背景画像記憶部330で記憶されている過去の背景
画像とある一定の比率で合成することで、新たな背景画
像の画素値とする。物体として検出されなかった画素に
ついて背景更新する場合は、赤外カメラ入力部310で
記憶されている入力画像の画素値をそのまま新たな背景
画像の画素値とすることもできる。
Pixels not detected as other objects are synthesized at a certain ratio with the input image stored in the infrared camera input unit 310 and the past background image stored in the background image storage unit 330. By doing so, the pixel value of the new background image is set. When the background is updated for a pixel not detected as an object, the pixel value of the input image stored in the infrared camera input unit 310 can be used as it is as the pixel value of a new background image.

【0118】最後に検出結果表示部500では、画像処
理装置103で得られた物体検出結果をディスプレイな
どの表示装置に文字・矩形などを用いて表示する。
Finally, the detection result display section 500 displays the object detection result obtained by the image processing device 103 on a display device such as a display using characters and rectangles.

【0119】この第3の実施形態によれば、可視カメラ
および赤外カメラの両方で検出できる物体はもちろん、
一方では物体として検出できるが、もう一方では物体と
しては全く検出できない時でも、検出できているカメラ
側の確信度が高い場合、すなわち物体を検出する度合い
がより確からしい場合は、算出した確信度に応じた比率
で両背景差分画像を合成することにより、確信度が高い
側の背景差分値特徴を有効に活用し、その合成画像を2
値化することで、物体として検出することができる。
According to the third embodiment, not only objects that can be detected by both the visible camera and the infrared camera, but also
Even if one object can be detected as an object but the other object cannot be detected at all, if the certainty of the camera that has been detected is high, that is, if the degree of object detection is more certain, the calculated certainty By combining the two background difference images at a ratio according to the background difference value feature on the side with the higher degree of certainty.
By converting to a value, it can be detected as an object.

【0120】そのため、可視カメラの特徴が有効な昼間
は可視カメラの特徴を有効に活用し、可視カメラでしか
検出できない物体も検出でき、赤外カメラの特徴が有効
な夜間は赤外カメラの特徴を有効に活用し、赤外カメラ
でしか検出できない物体も検出できる。すなわち、昼夜
を問わず、物体を正確に検出でき、検出漏れのない道路
監視が可能となる。
Therefore, in the daytime when the features of the visible camera are effective, the features of the visible camera can be effectively used, objects that can only be detected by the visible camera can be detected, and at night when the features of the infrared camera are effective, the features of the infrared camera can be used. Can be used to detect objects that can only be detected by infrared cameras. That is, regardless of day or night, an object can be accurately detected, and road monitoring without detection omission can be performed.

【0121】[0121]

【発明の効果】上記したように、本発明によれば可視カ
メラおよび赤外カメラのどちらか一方でしか検出できな
い物体や夜間のような環境下でも、物体を正確に検出で
き、検出漏れのない道路監視が可能となる。
As described above, according to the present invention, an object that can be detected by only one of the visible camera and the infrared camera and an object can be accurately detected even in an environment such as at night without omission of detection. Road surveillance becomes possible.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施形態の構成図FIG. 1 is a configuration diagram of a first embodiment of the present invention.

【図2】第1の実施形態における物体検出処理の説明図FIG. 2 is an explanatory diagram of an object detection process according to the first embodiment.

【図3】本発明の第2の実施形態の構成図FIG. 3 is a configuration diagram of a second embodiment of the present invention.

【図4】第2の実施形態における物体検出処理の説明図FIG. 4 is a diagram illustrating an object detection process according to a second embodiment.

【図5】本発明の第3の実施形態の構成図FIG. 5 is a configuration diagram of a third embodiment of the present invention.

【図6】第3の実施形態における物体検出処理の説明図FIG. 6 is an explanatory diagram of an object detection process according to a third embodiment.

【符号の説明】[Explanation of symbols]

10,12,13 道路監視装置 100,102,103 画像処理装置 200 可視カメラ 300 赤外カメラ 210 可視カメラ入力部 310 赤外カメラ入力部 220,320 背景差分処理部 230,330 背景画像記憶部 240,340 3値化処理部 250,350 背景画像更新部 410,413 物体検出部 420 背景差分合成部 500 検出結果表示部 242,342 4値化処理部 243,343 2値化処理部 260,360 確信度算出部 10, 12, 13 Road monitoring device 100, 102, 103 Image processing device 200 Visible camera 300 Infrared camera 210 Visible camera input unit 310 Infrared camera input unit 220, 320 Background difference processing unit 230, 330 Background image storage unit 240, 340 ternarization processing unit 250, 350 background image updating unit 410, 413 object detection unit 420 background difference synthesis unit 500 detection result display unit 242, 342 quaternization processing unit 243, 343 binarization processing unit 260, 360 confidence Calculator

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B057 AA16 BA11 CA02 CB08 CE08 DA06 DB09 DC32 5C022 AA01 AB68 AC01 AC41 AC69 CA02 5C054 AA01 CA04 CA05 CD03 CE02 CH01 EA01 EB05 EH00 EJ00 FA09 FC01 FC12 FC14 FE09 FE13 FF03 HA26 5H180 AA01 AA21 CC02 CC04 EE11 5L096 BA04 EA45 GA08 HA03 HA13 ──────────────────────────────────────────────────続 き Continued on the front page F-term (reference) CC02 CC04 EE11 5L096 BA04 EA45 GA08 HA03 HA13

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 所定の監視領域が撮影されるように設置
された可視カメラおよび赤外カメラと、前記可視カメラ
および赤外カメラから得られた画像を処理して物体を検
出する画像処理装置と、前記画像処理装置からの検出結
果を監視者に通知する検出結果表示部とを備えた道路監
視装置において、 前記可視カメラの入力画像と予め撮影した背景画像とを
差分処理して背景差分画像を作成する背景差分処理部
と、 前記赤外カメラの入力画像と予め撮影した背景画像とを
差分処理して背景差分画像を作成する背景差分処理部
と、 前記2つの背景差分画像を合成することにより物体を検
出する物体検出部とを設けたことを特徴とする道路監視
装置。
1. A visible camera and an infrared camera which are installed so that a predetermined monitoring area is photographed, and an image processing device which processes an image obtained from the visible camera and the infrared camera to detect an object. A road monitoring device comprising: a detection result display unit that notifies a monitoring result of a detection result from the image processing device; anda difference processing between the input image of the visible camera and a background image captured in advance to obtain a background difference image. A background difference processing unit that creates a background difference processing unit that creates a background difference image by performing a difference process between the input image of the infrared camera and a background image that has been captured in advance; by combining the two background difference images A road monitoring device, comprising: an object detection unit that detects an object.
【請求項2】 前記2つの背景差分画像をそれぞれ3値
化処理する3値化処理部を設け、3値化処理した前記2
つの背景差分画像の和から物体を検出することを特徴と
する請求項1記載の道路監視装置。
2. A ternarization processing unit for ternarizing each of the two background difference images, wherein the ternarization processing is performed on the two background difference images.
The road monitoring device according to claim 1, wherein an object is detected from a sum of the two background difference images.
【請求項3】 前記2つの背景差分画像をそれぞれ4値
化処理する4値化処理部を設け、4値化処理した前記2
つの背景差分画像の和から物体を検出することを特徴と
する請求項1記載の道路監視装置。
3. A quaternary processing unit for quaternizing each of the two background difference images, wherein
The road monitoring device according to claim 1, wherein an object is detected from a sum of the two background difference images.
【請求項4】 所定の監視領域が撮影されるように設置
された可視カメラおよび赤外カメラと、前記可視カメラ
および赤外カメラから得られた画像を処理して物体を検
出する画像処理装置と、前記画像処理装置からの検出結
果を監視者に通知する検出結果表示部とを備えた道路監
視装置において、 前記可視カメラの入力画像と予め撮影した背景画像とを
差分処理して背景差分画像を作成する背景差分処理部
と、 前記赤外カメラの入力画像と予め撮影した背景画像とを
差分処理して背景差分画像を作成する背景差分処理部
と、 前記可視カメラの入力画像あるいは背景画像を用いて前
記可視カメラの確信度を求める確信度算出部と、 前記赤外カメラの入力画像あるいは背景画像を用いて前
記赤外カメラの確信度を求める確信度算出部と、 前記2つの背景差分画像を前記2つの確信度の比率に応
じて合成する背景差分合成部と、 前記2つの背景差分画像の合成結果に基づいて物体を検
出する物体検出部とを設けたことを特徴とする道路監視
装置。
4. A visible camera and an infrared camera installed so that a predetermined monitoring area is photographed, and an image processing device for processing an image obtained from the visible camera and the infrared camera to detect an object. A road monitoring device comprising: a detection result display unit that notifies a monitoring result of a detection result from the image processing device; anda difference processing between the input image of the visible camera and a background image captured in advance to obtain a background difference image. A background difference processing unit to create, a background difference processing unit to create a background difference image by performing difference processing between the input image of the infrared camera and a background image captured in advance, and using the input image or the background image of the visible camera. A confidence calculation unit for determining the confidence of the visible camera, a confidence calculation unit for determining the confidence of the infrared camera using an input image or a background image of the infrared camera, A background difference image combining unit that combines the two background difference images according to the ratio of the two confidence levels; and an object detection unit that detects an object based on the result of combining the two background difference images. Road monitoring equipment.
【請求項5】 前記可視カメラおよび赤外カメラの確信
度はそれぞれの前記入力画像あるいは背景画像における
画素の輝度値から算出することを特徴とする請求項4記
載の道路監視装置。
5. The road monitoring apparatus according to claim 4, wherein the certainty factors of the visible camera and the infrared camera are calculated from luminance values of pixels in each of the input image and the background image.
【請求項6】 前記2つの背景差分画像をそれぞれ2値
化処理する2値化処理部を設けたことを特徴とする請求
項4又は請求項5記載の道路監視装置。
6. The road monitoring device according to claim 4, further comprising a binarization processing unit that binarizes each of the two background difference images.
【請求項7】 前記可視カメラにより予め撮影された背
景画像を格納する背景画像記憶部と、格納された前記背
景画像を更新する背景画像更新部と、 前記赤外カメラにより予め撮影された背景画像を格納す
る背景画像記憶部と、格納された前記背景画像を更新す
る背景画像更新部とを設けたことを特徴とする請求項1
〜6のいずれかに記載の道路監視装置。
7. A background image storage unit for storing a background image previously captured by the visible camera, a background image update unit for updating the stored background image, and a background image previously captured by the infrared camera A background image storage unit for storing the background image, and a background image updating unit for updating the stored background image.
The road monitoring device according to any one of claims 1 to 6, wherein
JP2000175052A 2000-06-12 2000-06-12 Device for monitoring road Pending JP2001357388A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000175052A JP2001357388A (en) 2000-06-12 2000-06-12 Device for monitoring road

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000175052A JP2001357388A (en) 2000-06-12 2000-06-12 Device for monitoring road

Publications (1)

Publication Number Publication Date
JP2001357388A true JP2001357388A (en) 2001-12-26

Family

ID=18676984

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000175052A Pending JP2001357388A (en) 2000-06-12 2000-06-12 Device for monitoring road

Country Status (1)

Country Link
JP (1) JP2001357388A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006260098A (en) * 2005-03-16 2006-09-28 Matsushita Electric Works Ltd Obstacle detection unit
JP2009301494A (en) * 2008-06-17 2009-12-24 Sumitomo Electric Ind Ltd Image processing unit and image processing method
JP2010267252A (en) * 2009-05-13 2010-11-25 Fujitsu Ltd Method and apparatus for processing image
CN102722982A (en) * 2012-03-30 2012-10-10 上海市金山区青少年活动中心 Background and inter-frame difference algorithm-based traffic flow and motion state detection method
JP2012224210A (en) * 2011-04-20 2012-11-15 Japan Aerospace Exploration Agency Method and device for improving visibility of infrared video image
JP2016119614A (en) * 2014-12-22 2016-06-30 日本電気株式会社 Dynamic body detection device, dynamic body detection method and dynamic body detection program
CN109671090A (en) * 2018-11-12 2019-04-23 深圳佑驾创新科技有限公司 Image processing method, device, equipment and storage medium based on far infrared
WO2020027210A1 (en) * 2018-08-03 2020-02-06 日本電信電話株式会社 Image processing device, image processing method, and image processing program
US20200402243A1 (en) * 2020-09-03 2020-12-24 Intel Corporation Video background estimation using spatio-temporal models

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006260098A (en) * 2005-03-16 2006-09-28 Matsushita Electric Works Ltd Obstacle detection unit
JP4539388B2 (en) * 2005-03-16 2010-09-08 パナソニック電工株式会社 Obstacle detection device
JP2009301494A (en) * 2008-06-17 2009-12-24 Sumitomo Electric Ind Ltd Image processing unit and image processing method
JP2010267252A (en) * 2009-05-13 2010-11-25 Fujitsu Ltd Method and apparatus for processing image
JP2012224210A (en) * 2011-04-20 2012-11-15 Japan Aerospace Exploration Agency Method and device for improving visibility of infrared video image
CN102722982A (en) * 2012-03-30 2012-10-10 上海市金山区青少年活动中心 Background and inter-frame difference algorithm-based traffic flow and motion state detection method
JP2016119614A (en) * 2014-12-22 2016-06-30 日本電気株式会社 Dynamic body detection device, dynamic body detection method and dynamic body detection program
WO2020027210A1 (en) * 2018-08-03 2020-02-06 日本電信電話株式会社 Image processing device, image processing method, and image processing program
JP2020021397A (en) * 2018-08-03 2020-02-06 日本電信電話株式会社 Image processing device, image processing method, and image processing program
JP7144678B2 (en) 2018-08-03 2022-09-30 日本電信電話株式会社 Image processing device, image processing method, and image processing program
US11881005B2 (en) 2018-08-03 2024-01-23 Nippon Telegraph And Telephone Corporation Image processing device, image processing method, and image processing program
CN109671090A (en) * 2018-11-12 2019-04-23 深圳佑驾创新科技有限公司 Image processing method, device, equipment and storage medium based on far infrared
US20200402243A1 (en) * 2020-09-03 2020-12-24 Intel Corporation Video background estimation using spatio-temporal models

Similar Documents

Publication Publication Date Title
JP3307335B2 (en) Vehicle region detection device and vehicle region verification method
JP4772115B2 (en) Method and system for detecting roads at night
US6754367B1 (en) Method and apparatus for automatically detecting intrusion object into view of image pickup device
US6658150B2 (en) Image recognition system
JP6554169B2 (en) Object recognition device and object recognition system
US8712096B2 (en) Method and apparatus for detecting and tracking vehicles
JP2000090277A (en) Reference background image updating method, method and device for detecting intruding object
WO2016113983A1 (en) Image processing device, image processing method, program, and system
JP2003134508A (en) Information providing device for vehicle
US20060221181A1 (en) Video ghost detection by outline
JP2002373332A (en) Device and method for recognizing image
CN111768332B (en) Method for splicing vehicle-mounted panoramic real-time 3D panoramic images and image acquisition device
JP5802146B2 (en) Method, apparatus, and program for color correction of still camera (color correction for still camera)
JP7092615B2 (en) Shadow detector, shadow detection method, shadow detection program, learning device, learning method, and learning program
JP2013214143A (en) Vehicle abnormality management device, vehicle abnormality management system, vehicle abnormality management method, and program
JP2001357388A (en) Device for monitoring road
JP2013093639A (en) Vehicle periphery monitoring device
JP3134845B2 (en) Apparatus and method for extracting object in moving image
JP2001160146A (en) Method and device for recognizing image
CN115083008A (en) Moving object detection method, device, equipment and storage medium
JP4887540B2 (en) Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program, and vehicle periphery monitoring method
JP2010136207A (en) System for detecting and displaying pedestrian
JP2001043383A (en) Image monitoring system
KR101865958B1 (en) Method and apparatus for recognizing speed limit signs
JPH11211845A (en) Rainfall/snowfall detecting method and its device