JP2000175178A - Supervisory device for intruded object and intruded object supervisory method - Google Patents

Supervisory device for intruded object and intruded object supervisory method

Info

Publication number
JP2000175178A
JP2000175178A JP10348899A JP34889998A JP2000175178A JP 2000175178 A JP2000175178 A JP 2000175178A JP 10348899 A JP10348899 A JP 10348899A JP 34889998 A JP34889998 A JP 34889998A JP 2000175178 A JP2000175178 A JP 2000175178A
Authority
JP
Japan
Prior art keywords
blur
image
processing
intruding object
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP10348899A
Other languages
Japanese (ja)
Inventor
Asao Yamanishi
麻雄 山西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Active Co Ltd
Original Assignee
Active Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Active Co Ltd filed Critical Active Co Ltd
Priority to JP10348899A priority Critical patent/JP2000175178A/en
Publication of JP2000175178A publication Critical patent/JP2000175178A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Burglar Alarm Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To realize sure intruded object supervision. SOLUTION: A CPU 3 processes a moving picture Fk obtained by applying digital processing to a moving picture v(t) obtained from a supervisory camera 1 at an interface circuit 2. That is, the CPU 3 applies fog processing to the moving picture Fk that is sequentially received by the CPU 3. Then the CPU 3 compares a fogged image Ak obtained through this processing with a referenced background fogged image Bk(=Ak-r) to detect presence of an intruded object from a difference (change quantity) between both the images Ak and Bk. Thus, even when the moving picture Fk is changed due to other causes than an intruded object that is desired for detection such as branches and leaves of a tree swaying in the wind within a supervisory area, since the change can be absorbed by the fog processing above, the CPU 3 never misrecognizes it as intrusion of any object. Thus, an intruded object can be surely supervised.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、監視カメラから
得られる動画映像を基に、侵入者等の侵入物体を自動的
に検出する侵入物体監視装置及び監視方法に関する。
[0001] 1. Field of the Invention [0002] The present invention relates to an intruding object monitoring apparatus and method for automatically detecting an intruding object such as an intruder based on a moving image obtained from a monitoring camera.

【0002】[0002]

【従来の技術】上記のような監視装置及び監視方法とし
て、従来、例えば差分法というディジタル画像処理技術
を用いたものが知られている。これは、監視カメラから
得られる動画映像をディジタル化して得た動画像データ
と、予め記憶しておいた背景画像、即ち監視領域内に侵
入物体が存在しないときの画像データと、を比較して、
これら両画像データ間で各画素毎の輝度の差分を求め、
その差分値の大きい画素領域を侵入物体として検出する
ものである。
2. Description of the Related Art As a monitoring apparatus and a monitoring method as described above, for example, a monitoring apparatus using a digital image processing technique called a difference method is conventionally known. This is done by comparing moving image data obtained by digitizing a moving image obtained from a surveillance camera with a previously stored background image, that is, image data when no intruding object exists in the monitoring area. ,
The difference between the brightness of each pixel is obtained between these two image data,
A pixel area having a large difference value is detected as an intruding object.

【0003】[0003]

【発明が解決しようとする課題】しかし、上記従来技術
によれば、上記のように、監視カメラから得られる動画
像(動画映像)と、基準となる背景画像とを比較して、
動画像に変化が生じたときに、これを何らかの物体が侵
入したものと判断するので、次のような問題を生じる。
例えば、監視領域内に樹木等があるときにこの樹木の枝
葉が風で揺れたり、或いは監視領域内にゴミ等が舞い込
んだりする等により、上記動画像が若干変化したとす
る。このように、本来検出したい侵入物体以外の原因に
より動画像が変化したときでも、上記従来技術によれ
ば、これを何らかの物体が侵入したものと誤認識してし
まうので、実用的な侵入物体監視を実現できないという
問題がある。
However, according to the above prior art, as described above, a moving image (moving image) obtained from a surveillance camera is compared with a reference background image.
When a change occurs in a moving image, it is determined that some kind of object has entered the moving image, and thus the following problem occurs.
For example, it is assumed that when a tree or the like is present in the monitoring area, the moving image slightly changes due to the branches and leaves of the tree swaying due to the wind, or dust or the like falling into the monitoring area. As described above, even when the moving image changes due to a cause other than the intruding object that is originally desired to be detected, according to the above-described conventional technology, this is erroneously recognized as an object that has intruded. There is a problem that cannot be realized.

【0004】そこで、本発明は、侵入物体以外の原因に
より監視カメラから得られる動画像に変化が生じても、
その影響を受けることなく確実に侵入物体を検出できる
監視装置及び監視方法を提供することを目的とする。
[0004] Therefore, the present invention provides a method for changing a moving image obtained from a surveillance camera due to a cause other than an intruding object.
It is an object of the present invention to provide a monitoring device and a monitoring method capable of reliably detecting an intruding object without being affected by the influence.

【0005】[0005]

【課題を解決するための手段】上記目的を達成するため
に、本発明のうちで、請求項1に記載の発明は、画像入
力端子から入力されるディジタル画像データにぼかし処
理を施すぼかし処理手段と、このぼかし処理手段によっ
て処理して得たぼかし画像と、予め上記ぼかし処理手段
によって処理して得た基準のぼかし画像とを比較して、
これら両画像間で各画素毎の輝度の差分を求める比較手
段と、この比較手段により求めた各画素毎の差分の絶対
値がそれぞれ所定のしきい値以下、例えば上記輝度の差
分が殆ど無く、また差分があるとしてもそれが雑音等に
よる誤差範囲内であると見なせる値以下、であるか否か
を判別し、その判別結果から侵入物体の有無を判断する
判断手段と、を具備するものである。
To achieve the above object, according to the present invention, the invention according to claim 1 is a blur processing means for performing a blur process on digital image data input from an image input terminal. And comparing the blurred image obtained by processing by the blurring processing means with the reference blurred image previously obtained by processing by the blurring processing means,
A comparison unit that calculates a difference in luminance of each pixel between these two images, and an absolute value of the difference of each pixel obtained by the comparison unit is equal to or less than a predetermined threshold value, for example, there is almost no difference in the luminance, Further, if there is a difference, it is determined whether or not the difference is equal to or less than a value that can be considered to be within an error range due to noise or the like, and a determination means for determining the presence or absence of an intruding object from the determination result. is there.

【0006】なお、ここで言うディジタル画像データと
は、例えば監視カメラで捉えた動画映像をディジタル化
して得た動画像データのことを言う。また、ぼかし処理
手段とは、例えば一般に空間フィルタリングと呼ばれて
いる手法に基づいて、ぼかし処理を実行するものであ
る。そして、基準のぼかし画像とは、例えば監視カメラ
の監視領域内に侵入物体が存在しないときの背景画像
(フレーム)のデータを、上記ぼかし処理手段によって
処理して得たデータ(画像)のことを言う。
The digital image data referred to here is, for example, moving image data obtained by digitizing a moving image captured by a surveillance camera. The blur processing means executes the blur processing based on, for example, a method generally called spatial filtering. The reference blur image is, for example, data (image) obtained by processing data of a background image (frame) when there is no intruding object in the monitoring area of the monitoring camera by the blur processing unit. To tell.

【0007】本請求項1に記載の発明によれば、比較手
段が、ぼかし処理手段によるぼかし処理後の動画像デー
タと、ぼかし処理後の背景画像データとを比較して、こ
れら両画像間で各画素毎の輝度の差分、即ち変化量を求
める。そして、判断手段によって、上記差分値が雑音等
による誤差範囲内であると見なせるか否かを判別し、そ
の判別結果から侵入物体の有無を判断する。例えば、略
全ての画素において上記差分値が誤差範囲内であると
き、即ち動画像の各フレームが背景画像と殆ど同じとき
は、判断手段は、侵入物体が無いものと判断する。一
方、上記差分値が誤差範囲を越える画素が(所定の数よ
りも)比較的に多いとき、好ましくはその誤差範囲を越
える画素が連なって比較的に大きい連続した領域を形成
するときには、判断手段は、何らかの物体が侵入したも
のと判断する。
According to the first aspect of the present invention, the comparing means compares the moving image data after the blurring processing by the blurring processing means with the background image data after the blurring processing, and compares these two images. The difference in luminance for each pixel, that is, the amount of change is obtained. Then, it is determined by the determining means whether or not the difference value can be regarded as being within an error range due to noise or the like, and the presence or absence of an intruding object is determined from the determination result. For example, when the difference value is within the error range in almost all the pixels, that is, when each frame of the moving image is almost the same as the background image, the determining unit determines that there is no intruding object. On the other hand, when the number of pixels whose difference value exceeds the error range is relatively large (more than a predetermined number), preferably when the pixels exceeding the error range are connected to form a relatively large continuous area, Judges that some object has entered.

【0008】例えば、今、監視カメラによる監視領域内
に樹木が存在し、この樹木の枝葉等が風で揺れるか、或
いは監視領域内にゴミ等が舞い込んだとする。この場
合、監視カメラから得られる動画像データ(動画映像)
に変化が生じるが、この変化が比較的に小さい場合に
は、この変化は、ぼかし処理手段によるぼかし処理によ
って緩和(吸収)される。これは、基準となる背景画像
を得る場合も、同様である。従って、樹木の枝葉等が風
で揺れたり、或いは本来検出したい物体よりも小さいゴ
ミ等が舞い込んだりすることにより、動画像に若干の変
化が生じても、これを本来検出したい侵入物体として誤
認識することはない。
For example, it is now assumed that a tree is present in the monitoring area of the monitoring camera, and that the branches and leaves of the tree are shaken by the wind, or that dust or the like has entered the monitoring area. In this case, moving image data (moving image) obtained from the surveillance camera
However, if the change is relatively small, the change is moderated (absorbed) by the blur processing by the blur processing means. This is the same when obtaining a reference background image. Therefore, even if a slight change occurs in the moving image due to the branches and leaves of trees swaying due to the wind, or dust or the like that is smaller than the object to be detected originally, it is erroneously recognized as an intruding object to be detected originally. I will not do it.

【0009】請求項2に記載の発明は、請求項1に記載
の発明の監視装置において、上記比較手段が、上記ぼか
し処理手段によって処理して得たぼかし画像のフレーム
と、このぼかし画像を得た時点よりも所定の時間、即ち
所定のフレーム数だけ前に上記ぼかし処理手段により処
理して得たぼかし画像のフレームとを比較する状態に、
上記基準のぼかし画像、即ち背景画像を順次更新するよ
う構成されたものである。
According to a second aspect of the present invention, in the monitoring apparatus according to the first aspect, the comparing means obtains a frame of a blurred image obtained by processing by the blurring processing means and obtains the blurred image. At a predetermined time from the time point, that is, a state of comparing with a frame of a blurred image obtained by processing by the blurring processing unit by a predetermined number of frames before,
The reference blur image, that is, the background image is sequentially updated.

【0010】即ち、本請求項2に記載の発明によれば、
比較手段は、或る時点で捉えたぼかし処理後の動画像の
フレームと、この或る時点で捉えた動画像のフレームよ
りも所定のフレーム数だけ前に捉えたぼかし処理後の動
画像のフレームとを比較するように、動画像の各フレー
ムとの比較対象となる背景画像フレームを順次更新す
る。なお、上記所定のフレーム数が小さいほど、即ちぼ
かし処理後の動画像フレームと背景画像フレームとの時
間間隔が短いほど、監視領域内を高速で移動する物体を
検出し易い。一方、上記所定のフレーム数が大きいほ
ど、即ちぼかし処理後の動画像フレームと背景画像フレ
ームとの時間間隔が長いほど、監視領域内を低速で移動
する物体を検出し易い。
That is, according to the second aspect of the present invention,
The comparing means includes a frame of the moving image captured at a certain point in time and a frame of the moving image captured before the frame of the moving image captured at the certain point by a predetermined number of frames. , The background image frame to be compared with each frame of the moving image is sequentially updated. Note that the smaller the above-mentioned predetermined number of frames, that is, the shorter the time interval between the moving image frame after the blurring processing and the background image frame, the easier it is to detect an object moving at high speed in the monitoring area. On the other hand, as the predetermined number of frames is larger, that is, as the time interval between the moving image frame after the blurring processing and the background image frame is longer, it is easier to detect an object moving at a low speed in the monitoring area.

【0011】請求項3に記載の発明は、請求項1に記載
の発明の監視装置において、上記ぼかし処理手段を、平
均値フィルタ(または、移動平均フィルタとも言う。)
手段により構成したものである。
According to a third aspect of the present invention, in the monitoring apparatus according to the first aspect, the blur processing means is an average value filter (or a moving average filter).
It is constituted by means.

【0012】なお、一般に、上記平均値フィルタ手段
は、その構成(これをCPU(中央演算処理装置)やD
SP(ディジタル演算処理装置)等で構成した場合に
は、これらを平均値フィルタ周波数だとして機能させる
ためのアルゴリズム)が、比較的に簡単であることが知
られている。また、この平均値フィルタ手段によるぼか
し処理は、例えば一般に知られている中央値(メディア
ン)フィルタ手段等によるぼかし処理に比べて、処理後
の画像ぼけが大きいことが知られている。
In general, the above-mentioned average value filter means has a configuration (which is constituted by a CPU (Central Processing Unit),
It is known that an algorithm for causing these to function as an average filter frequency when configured with an SP (Digital Processing Unit) or the like is relatively simple. In addition, it is known that the blurring process by the average value filter unit is larger than the blurring process by a generally known median (median) filter unit, for example, after the process.

【0013】請求項4に記載の発明は、請求項1に記載
の発明の監視装置において、上記ぼかし処理手段が、そ
の処理の対象となる画像データに対して、上記ぼかし処
理を複数回繰り返し実行する状態に構成されたものであ
る。
According to a fourth aspect of the present invention, in the monitoring apparatus according to the first aspect, the blur processing means repeatedly executes the blur processing on the image data to be processed a plurality of times. It is configured in such a state that

【0014】本請求項4に記載の発明によれば、上記ぼ
かし処理を複数回実行するので、画像のぼかし(ぼけ)
度合いが大きなる。なお、ぼかし処理の実行回数が多い
ほど、画像のぼけ度合いが大きくなる。
According to the fourth aspect of the present invention, the blur processing is executed a plurality of times, so that the image is blurred (blurred).
The degree is large. Note that the greater the number of times the blurring process is performed, the greater the degree of blurring of the image.

【0015】請求項5に記載の発明は、請求項1に記載
の発明の監視装置において、上記ぼかし処理手段が、そ
の処理の対象となる画像データの各画素を所定の画素数
毎に纏めて、この所定の画素数単位で上記ぼかし処理を
実行する状態に構成されたものである。
According to a fifth aspect of the present invention, in the monitoring device according to the first aspect, the blur processing means collects each pixel of the image data to be processed by a predetermined number of pixels. , The blur processing is executed in units of the predetermined number of pixels.

【0016】即ち、本請求項5に記載の発明によれば、
ぼかし処理手段は、所定の画素数から成る複数画素を1
画素と見なして、ぼかし処理を実行する。なお、この1
画素と見なす所定の画素数が多いほど、画像のぼけ度合
いが大きくなる。
That is, according to the fifth aspect of the present invention,
The blur processing means includes a plurality of pixels having a predetermined number of pixels as one.
The blur processing is executed by regarding the pixel as a pixel. In addition, this 1
The larger the predetermined number of pixels regarded as pixels, the greater the degree of blurring of the image.

【0017】請求項6に記載の発明は、画像入力端子か
ら入力されるディジタル画像データにぼかし処理を施す
ぼかし処理過程と、このぼかし処理過程において処理し
て得たぼかし画像と、予め上記ぼかし処理過程において
処理して得た基準のぼかし画像とを比較して、これら両
画像間で各画素毎の輝度の差分を求める比較過程と、こ
の比較過程において求めた各画素毎の差分の絶対値がそ
れぞれ所定のしきい値以下であるか否かを判別し、その
判別結果から侵入物体の有無を判断する判断過程と、を
具備するものである。
According to a sixth aspect of the present invention, there is provided a blur processing step of performing a blur processing on digital image data input from an image input terminal, a blur image obtained by performing the blur processing in the blur processing step, and the blur processing in advance. A comparison process of comparing a reference blurred image obtained in the process with the reference blurred image to obtain a difference in luminance of each pixel between these two images, and an absolute value of a difference of each pixel obtained in the comparison process is obtained. A determination step of determining whether or not each of them is equal to or less than a predetermined threshold value, and determining the presence or absence of an intruding object based on the determination result.

【0018】請求項7に記載の発明は、請求項6に記載
の発明の監視方法において、上記比較過程で、上記ぼか
し処理過程により処理して得たぼかし画像のフレーム
と、このぼかし画像を得た時点よりも所定の時間、即ち
所定のフレーム数だけ前に上記ぼかし処理過程により処
理して得たぼかし画像のフレームとを比較する状態に、
上記基準のぼかし画像を順次更新するようにしたもので
ある。
According to a seventh aspect of the present invention, in the monitoring method according to the sixth aspect, in the comparing step, a frame of a blurred image obtained by processing in the blurring process and the blurred image are obtained. At a predetermined time from the time point, that is, in a state of comparing with a frame of a blurred image obtained by performing the above-described blurring process by a predetermined number of frames before,
The reference blurred image is sequentially updated.

【0019】請求項8に記載の発明は、請求項6に記載
の発明の監視方法において、上記ぼかし処理過程を、上
記ぼかし処理として平均値フィルタリング処理を施す過
程としたものである。
According to an eighth aspect of the present invention, in the monitoring method according to the sixth aspect, the blurring process is a process of performing an average value filtering process as the blurring process.

【0020】請求項9に記載の発明は、請求項6に記載
の発明の監視方法において、上記ぼかし処理過程で、そ
の処理の対象となる画像データに対して、上記ぼかし処
理を複数回繰り返し実行するようにしたものである。
According to a ninth aspect of the present invention, in the monitoring method according to the sixth aspect, the blurring process is repeatedly performed a plurality of times on the image data to be processed in the blurring process. It is something to do.

【0021】請求項10に記載の発明は、請求項6に記
載の発明の監視方法において、上記ぼかし処理過程で、
その処理の対象となる画像データの各画素をそれぞれ所
定の画素数毎に分割し、この分割して得た所定の画素数
単位で上記ぼかし処理を実行するようにしたものであ
る。
According to a tenth aspect of the present invention, in the monitoring method according to the sixth aspect, the blurring process includes:
Each pixel of the image data to be processed is divided by a predetermined number of pixels, and the blurring process is executed in units of the predetermined number of pixels obtained by the division.

【0022】即ち、請求項6、7、8、9または10に
記載の発明の監視方法に基づいて侵入物体の監視を行え
ば、上記請求項1、2、3、4または5に記載の発明と
同様の作用を奏する。
That is, if an intruding object is monitored based on the monitoring method according to the sixth, seventh, eighth, ninth or tenth aspect of the present invention, the invention according to the first, second, third, fourth or fifth aspect is achieved. It has the same function as.

【0023】[0023]

【発明の実施の形態】本発明の一実施の形態について、
図1から図6を参照して説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS One embodiment of the present invention will be described.
This will be described with reference to FIGS.

【0024】図1(a)に、本実施の形態の概略構成を
示す。同図に示すように、本実施の形態は、例えばモノ
クロ監視カメラ1から得られるアナログの動画映像v
(t) (tは、時間を表すインデックス。)を入力インタ
ーフェース回路2によってディジタル化して得た動画像
データFk (kは、動画像を構成する各フレームの番号
を表すインデックスである。)が入力されるCPU3を
有している。
FIG. 1A shows a schematic configuration of the present embodiment. As shown in the figure, in the present embodiment, for example, an analog moving image v
(t) (t is an index representing time) is digitized by the input interface circuit 2 and the moving image data F k (k is an index representing the number of each frame constituting the moving image) is obtained. It has a CPU 3 for inputting.

【0025】動画像データFk は、図2に示すように、
各フレーム毎に、それぞれ、水平(x軸)方向の座標を
i(i=0、1、2、・・・、I)、垂直(y軸)方向
の座標をj(j=0、1、2、・・・、J)とする、画
素fk [i,j] の集合から成り、各画素fk [i,j] は、そ
れぞれの座標に対応する映像の輝度を、例えば0乃至2
55の256階調(即ち8ビット)のグレイスケールで
表している。CPU3は、この動画像データFk を、各
フレーム毎に、それぞれ図1(b)のフローチャートに
示す手順に従って、順次処理する。なお、この図1
(b)の手順に従ってCPU3を動作させるためのプロ
グラムは、図示しない例えば半導体メモリ構成の記憶部
に記憶されている。
The moving image data F k is, as shown in FIG.
For each frame, the coordinates in the horizontal (x-axis) direction are i (i = 0, 1, 2,..., I), and the coordinates in the vertical (y-axis) direction are j (j = 0, 1,. , J), a set of pixels f k [i, j], and each pixel f k [i, j] sets the luminance of an image corresponding to each coordinate to, for example, 0 to 2
It is represented by 55 gray scales of 256 gradations (ie, 8 bits). The CPU 3 sequentially processes the moving image data Fk for each frame according to the procedure shown in the flowchart of FIG. Note that FIG.
A program for operating the CPU 3 in accordance with the procedure (b) is stored in a storage unit (not shown) having, for example, a semiconductor memory configuration.

【0026】同図に示すように、CPU3は、これに或
る時点の動画像フレームFk が入力されると(ステップ
S2)、このフレームFk に対して、ぼかし処理、例え
ば一般に知られている平均値フィルタリング処理を施す
(ステップS4)。この平均値フィルタリング処理の演
算式(アルゴリズム)を、数1に示す。なお、この数1
において、nは、フィルタサイズである(図3参照)。
As shown in FIG. 3, when a moving image frame F k at a certain point in time is input to the CPU 3 (step S2), the CPU 3 applies a blurring process to the frame F k , for example, a generally known process. The average value filtering process is performed (step S4). The arithmetic expression (algorithm) of this average value filtering process is shown in Expression 1. Note that this equation 1
, N is the filter size (see FIG. 3).

【0027】[0027]

【数1】 (Equation 1)

【0028】この数1に示すように、CPU3は、フレ
ームFk を構成する各画素fk [i,j] について、これを
中心とするn×nの範囲内にある各画素fk [i+p,j+q]
を用いて上記数1の演算を実行して、上記各画素fk [i
+p,j+q] の輝度値の平均gk[i,j] を求める。そして、
この数1により求めた各画素(輝度値の平均)gk [i,
j] の集合から成るぼかし画像Ak を得る。
As shown in this number 1, CPU 3, the frame F each pixel f k [i, j] where k constituting for each pixel f k [i lying in the range of n × n centered at this + p, j + q]
Is used to execute the operation of the above equation (1), and each of the pixels f k [i
+ p, j + q] to find the average g k [i, j] of the luminance values. And
Each pixel (average of luminance values) g k [i,
obtaining a blurred image A k consisting of a set of j].

【0029】なお、数1において、この演算に用いる画
素fk [i+p,j+q] が、フレームFkを外れる場合(即
ち、i+p<0、i+p>I、j+q<0、及びj+q
>Jのいずれかに該当する場合。)は、図4に示すよう
に処理する。同図は、上記フィルタサイズnをn=3と
した場合の処理の一例を示す図で、同図に斜線部分1
0、10、・・・で示すように、上記画素fk [i+p,j+
q] の一部がフレームFk の上下左右の各側端から外れ
る場合は、矢印11、11、・・・で示すように、これ
らフレームFk から外れる各画素に対して、これらに隣
接するフレームFk 内の各側端部の画素の輝度値を代入
し、数1を実行する。また、同図に斜線部分20、2
0、・・・で示すように、フレームFk の角部から斜め
方向に外れる画素については、矢印21、21、・・・
で示すように、そのフレームFk から外れる画素に対し
て、これをi軸方向及びj軸方向に沿って直角に挟む各
画素(即ち斜線部分10の架空の画素)の平均値、つま
りはフレームFk 内の角部の画素の輝度値を代入し、上
記数1を実行する。このことは、フィルタサイズnがn
=3以外の場合も同様である。勿論、これ以外の方法に
より上記各斜線部分10及び20に係る各画素の処理を
行ってもよいが、これについては、本発明の本旨に直接
関係しないので、これ以上の詳しい説明は省略する。
In the equation (1), when the pixel f k [i + p, j + q] used for this operation is out of the frame F k (that is, i + p <0, i + p> I, j + q <0, and j + q
> When any of J is satisfied. ) Is processed as shown in FIG. The figure shows an example of processing when the filter size n is set to n = 3.
As shown by 0, 10,..., The pixel f k [i + p, j +
If q] part of deviates from the side end of the upper and lower left and right frames F k is the arrow 11, 11, as shown by ..., for each pixel to deviate from the frames F k, adjacent thereto substituting the luminance values of the pixels of each side edge of the frame F k, it executes the number 1. In FIG.
0, as shown by ..., for the pixels deviate in an oblique direction from the corner of the frame F k is the arrow 21, ...
As shown in, for pixels which deviate from the frame F k, the average value of the pixels sandwiching a right angle along this to the i axis and j axis (i.e. the fictitious pixels of the hatched portion 10), that is, the frame substituting the luminance value of the angular portion of the pixel in the F k, it executes the number 1. This means that the filter size n is n
The same applies to cases other than = 3. Of course, the processing of each pixel relating to each of the hatched portions 10 and 20 may be performed by a method other than this, but since this is not directly related to the gist of the present invention, further detailed description will be omitted.

【0030】上記ステップS4において、ぼかし画像A
k を得た後、CPU3は、このぼかし画像Ak と、この
ぼかし画像Ak よりも所定のフレーム数rだけ前に上記
ステップS4により処理して得たぼかし画像Bk (即
ち、Bk =Ak-r )とを比較して、その差分画像C
k (=Bk −Ak )を求める。即ち、厳密には、次の数
2により、上記各画像Ak 及びBk 間での各画素毎の輝
度の差分、即ち変化量ck [i,j] を求める。
In step S4, the blurred image A
After obtaining k , the CPU 3 sets the blurred image A k and a blurred image B k (ie, B k = B k) obtained by performing the processing in step S4 before the blurred image A k by a predetermined number of frames r. A kr ) and the difference image C
k (= B k −A k ) is obtained. That is, strictly speaking, the following equation 2 is used to determine the luminance difference between each of the images A k and B k for each pixel, that is, the amount of change c k [i, j].

【0031】[0031]

【数2】ck [i,j] =gk-r [i,j] −gk [i,j] ここで、gk-r [i,j] は、ぼかし画像Bk を構成する各
画素のデータ、gk [i,j] は、ぼかし画像Ak を構成す
る各画素のデータである。
## EQU2 ## c k [i, j] = g kr [i, j] −g k [i, j] Here, g kr [i, j] is the data of each pixel constituting the blurred image B k , G k [i, j] are data of each pixel constituting the blurred image A k .

【0032】CPU3は、この数2により求めた各差分
値ck [i,j] について、それぞれの絶対値|ck [i,j]
|と、予め定めた基準値Tとを比較して、各画素に係る
データを2値化する。即ち、上記差分の絶対値|c
k [i,j] |が上記基準値T以下(|ck [i,j] |≦T)
である画素については、これを変化なしとして、例えば
「零(0)」という値を設定する。上記差分の絶対値|
k [i,j] |が上記基準値Tを越える(|ck [i,j] |
>T)画素については、これを何らかの変化を捉えたも
のとして、「1」という値を設定する(ステップS
8)。
The CPU 3 calculates the absolute value | c k [i, j] of each difference value c k [i, j] obtained by the equation (2).
Is compared with a predetermined reference value T to binarize data relating to each pixel. That is, the absolute value of the difference | c
k [i, j] | is equal to or less than the reference value T (| c k [i, j] | ≦ T)
For a pixel having a value of “0”, for example, a value of “zero (0)” is set. Absolute value of the above difference |
c k [i, j] | exceeds the reference value T (| c k [i, j] |
> T) For the pixel, a value of “1” is set assuming that this is a change (step S).
8).

【0033】そして、上記「1」を設定した画素の数が
比較的に、例えば或る数よりも多いとき、好ましくは上
記「1」を設定した画素が連なって或る面積よりも大き
い連続した領域を形成するときに、CPU3は、これを
何らかの物体が侵入したものと判断して(ステップS1
0においてYESとして)、警報を出力する(詳しく
は、警報を出力するための信号Sを出力インターフェー
ス回路4を介して出力する:ステップS12)。その
後、次の動画像フレームFk+1 を入力すべく、フレーム
番号kを更新(k=k+1)すると共に(ステップS1
4)、上記ステップS6において次の(即ちフレーム番
号kを更新した後の)ぼかし画像Ak との比較対象とな
る所謂基準のぼかし画像Bk を更新(Bk =Ak-r )し
て(ステップS16)、ステップS2に戻る。なお、こ
の基準のぼかし画像Bk を更新するために、CPU3
は、上記ステップS4により順次ぼかし処理して得たぼ
かし画像Ak を、それぞれ少なくとも上記ステップS1
6において基準のぼかし画像Bkとして引用するまでの
間、即ち各ぼかし画像Ak を得た時点からそれぞれフレ
ーム数rに対応する時間が経過するまでの間は、上記記
憶部に一時的に記憶している。
When the number of pixels set to "1" is relatively large, for example, more than a certain number, it is preferable that the pixels set to "1" are continuous and larger than a certain area. When forming an area, the CPU 3 determines that this is an intrusion of some object (step S1).
If YES at step S0), an alarm is output (specifically, a signal S for outputting an alarm is output via the output interface circuit 4: step S12). Thereafter, the frame number k is updated (k = k + 1) to input the next moving image frame F k + 1 (step S1).
4) In step S6, the so-called reference blurred image B k to be compared with the next blurred image A k (that is, after updating the frame number k) is updated (B k = A kr ) (step S 6). S16), and return to step S2. In order to update the reference blurred image B k , the CPU 3
Converts the blurred images A k obtained by sequentially performing the blurring process in step S4 into at least the steps S1 and
6 until it is quoted as the reference blurred image B k , that is, until the time corresponding to the number r of frames elapses from the time when each blurred image A k is obtained, and is temporarily stored in the storage unit. are doing.

【0034】一方、上記ステップS8において「1」を
設定した画素の数が上記或る数よりも少ないときは、C
PU3は、上記ステップS10において、侵入物体なし
と判断して(NOとして)、そのままステップS14に
進む。
On the other hand, if the number of pixels for which "1" is set in step S8 is smaller than the certain number, C
PU3 determines in step S10 that there is no intruding object (NO), and proceeds directly to step S14.

【0035】ここで、上記数2において、フィルタサイ
ズnをn=3としたときの本実施の形態の具体例につい
て、図5を参照して説明する。
Here, a specific example of the present embodiment when the filter size n is 3 in the above equation 2 will be described with reference to FIG.

【0036】例えば、今、或る時点において、監視カメ
ラ1から得た動画像フレームFk-rの或る画素fk [i,j]
を中心とする3×3の画素領域が、それぞれ図5
(a)に示すような輝度値(中央の画素fk [i,j] が9
0で、それ以外の周囲の画素が100という値)を有し
ているとする。ここで、監視領域内にある樹木の枝葉等
が風で揺れたり、或いは監視領域内に侵入物体よりも小
さいゴミ等が舞い込む等により、上記中央の画素f
k [i,j] の輝度値が、これを得た時点よりも所定のフレ
ーム数rだけ後に得た動画像フレームFk において、例
えば図5(b)に示すように、120という輝度値に変
化したとする。
For example, at a certain point in time, a certain pixel f k [i, j] of a moving image frame F kr obtained from the surveillance camera 1
Each of the 3 × 3 pixel areas centered on FIG.
A luminance value as shown in (a) (the central pixel f k [i, j] is 9)
0, and the other surrounding pixels have a value of 100). Here, the branches and foliage of trees in the monitoring area are shaken by the wind, or dust or the like smaller than the intruding object falls into the monitoring area, and the center pixel f
k [i, j] the luminance values of, in moving image frames F k obtained after a predetermined number of frames r than the time which was obtained, for example, as shown in FIG. 5 (b), the luminance value of 120 Let's say it has changed.

【0037】このような場合、上述した従来技術によれ
ば、上記動画像フレームFk-r を背景画像とすると、こ
の背景画像フレームFk-r と上記動画像フレームFk
の間で、各画素毎の輝度の差分(変化量)が求められ
る。従って、上記中央の画素f k [i,j] については、そ
の差分値が、図5(c)に示すように、−30という値
になる。この−30という値は、上記中央の画素f
k [i,j] 自体の元の輝度値が90若しくは120である
ことを鑑みると、変化量としては十分に大きい値であ
る。よって、上記従来技術によれば、この中央の画素f
k [i,j] の輝度値の変化を何らかの物体が侵入したもの
と誤認識する可能性がある。
In such a case, according to the above-described prior art,
If the moving image frame FkrIs the background image.
Background image frame FkrAnd the moving image frame FkWhen
The difference (change amount) of the luminance of each pixel is obtained between
You. Therefore, the central pixel f kFor [i, j],
Is a value of -30 as shown in FIG. 5 (c).
become. This value of -30 is determined by the central pixel f
kThe original luminance value of [i, j] itself is 90 or 120
In view of this, the amount of change is a sufficiently large value.
You. Therefore, according to the above prior art, the central pixel f
kThe change in the luminance value of [i, j] is something intruded by an object
May be mistakenly recognized.

【0038】これに対して、本実施の形態によれば、上
記各動画像フレームFk-r 及びFkに平均値フィルタリ
ング処理を施して、それぞれ図5(d)及び図5(e)
に示すぼかし画像Bk (Ak-r )及びAk を得る。従っ
て、これら各図に示すように、上記中央の画素fk [i,
j] を処理して得た画素gk [i,j] の輝度値は、それぞ
れ99及び102という値なる。そして、これら各ぼか
し画像Ak 及びBk 間で、各画素毎の輝度値の差分を求
めるので、上記中央の画素gk [i,j] の差分値c k [i,
j] は、図5(f)に示すように、−3となる。従っ
て、この差分値ck [i,j] を2値化するための上述した
基準値Tを、例えばT=10(即ち差分の絶対値|c
[i,j] |の最大値(255)の5%よりも小さい値)と
すれば、上記中央の画素gk [i,j] の変化は、誤差範囲
内であって、輝度の変化はないものと見なされる。よっ
て、上記のように監視領域内の樹木の枝葉等が風で揺れ
たり、或いは監視領域内に侵入物体よりも小さいゴミ等
が舞い込む等により、監視カメラ3から得られる動画像
k が若干変化しても、これを侵入物体によるものと誤
認識することはない。
On the other hand, according to the present embodiment,
Each moving image frame FkrAnd FkMean filter
5D and FIG. 5E, respectively.
Blur image B shown ink(Akr) And AkGet. Follow
As shown in these figures, the center pixel fk[i,
j]kThe luminance values of [i, j] are
Are 99 and 102. And each of these blurs
Image AkAnd BkThe difference between the luminance values for each pixel
The center pixel gkDifference value c of [i, j] k[i,
j] is -3 as shown in FIG. Follow
And this difference value ckThe above for binarizing [i, j]
When the reference value T is, for example, T = 10 (that is, the absolute value of the difference | c
[i, j] | less than 5% of the maximum value (255))
Then, the central pixel gkThe change in [i, j] is
And there is no change in brightness. Yo
As mentioned above, the branches and leaves of trees in the monitoring area
Or dust that is smaller than the intruding object in the monitoring area
A moving image obtained from the surveillance camera 3
FkMay change slightly due to an intruding object.
I do not recognize.

【0039】このように、本実施の形態によれば、上記
動画像Fk が変化しても、その変化の程度が小さい場
合、この変化は、ぼかし処理によって緩和(吸収)され
る。よって、上述した従来技術とは異なり、侵入物体以
外の原因により生じる動画像F k の変化を、侵入物体と
して誤認識することがなく、確実な侵入物体監視を実現
できる。
As described above, according to the present embodiment,
Moving image FkIf the degree of change is small even if
This change is mitigated (absorbed) by blurring
You. Therefore, unlike the conventional technology described above,
Moving image F caused by outside cause kChanges with intruding objects
Intrusion object monitoring without erroneous recognition
it can.

【0040】また、CPU3は、ぼかし処理後の動画像
フレームAk との比較対象となる基準のぼかし画像Bk
を、Bk =Ak-r となるように順次更新している。従っ
て、例えば監視カメラ1を屋外に設けたときに、その監
視カメラ1で捉えた屋外の風景(背景)が、天候の変化
や時間の経過(特に明け方や夕暮れ時)等により時々刻
々と変化しても、この変化を侵入物体として誤認識する
ことはない。なお、上記各フレームAk 及びBk 間の時
間間隔が短いほど、即ち上述した所定のフレーム数rが
小さいほど、監視領域内を高速で移動する物体を検出し
易い。一方、各フレームAk 及びBk 間の時間間隔が長
いほど、即ち上記フレーム数rが大きいほど、監視領域
内を低速で移動する物体を検出し易くなる。従って、検
出したい物体の移動速度に応じて、上記フレーム数rを
決定すれば、より確実な物体監視を実現できる。
Further, CPU 3, the reference blurred image B k of to be compared with the moving image frame A k after blurring processing
Are sequentially updated so that B k = A kr . Therefore, for example, when the surveillance camera 1 is installed outdoors, the outdoor scenery (background) captured by the surveillance camera 1 changes every moment due to a change in weather, elapse of time (particularly at dawn or at dusk), and the like. However, this change is not erroneously recognized as an intruding object. Note that the shorter the time interval between the frames A k and B k , that is, the smaller the above-mentioned predetermined number r of frames, the easier it is to detect an object moving at high speed within the monitoring area. On the other hand, the longer the time interval between the frames A k and B k , that is, the larger the number r of frames, the easier it is to detect an object moving at a low speed in the monitoring area. Therefore, if the frame number r is determined according to the moving speed of the object to be detected, more reliable object monitoring can be realized.

【0041】また、本実施の形態において上記ぼかし処
理として用いている平均値フィルタリング処理は、上述
した数1に示すように、比較的に簡単なアルゴリズムに
よって実現できると共に、処理後の画像ぼけが大きいこ
とが知られている。従って、動画像Fk を故意にぼかす
という本実施の形態の特徴を、このぼかし処理を実行す
るCPU3に大きい負担を掛けることなく実現できると
いう効果がある。なお、本実施の形態では、上記数1の
アルゴリズムをCPU3に実行させるというソフトウェ
ア的な手段によって上記平均値フィルタリング処理を実
現したが、これに限らず、ディジタル論理回路等を組み
合わせたハードウェア構成により上記平均値フィルタリ
ング処理を実現してもよい。また、この平均値フィルタ
リング処理に限らず、例えば中間値フィルタリング処理
等の他の処理を、上記ぼかし処理として採用してもよ
い。
The average value filtering process used as the above-mentioned blurring process in the present embodiment can be realized by a relatively simple algorithm as shown in the above-described equation 1, and the image blur after the process is large. It is known. Therefore, there is an effect that the feature of the present embodiment that the moving image F k is intentionally blurred can be realized without imposing a large burden on the CPU 3 that executes the blurring process. In the present embodiment, the average value filtering process is realized by software means that causes the CPU 3 to execute the algorithm of the above equation 1. However, the present invention is not limited to this, and a hardware configuration combining digital logic circuits and the like is used. The above average value filtering processing may be realized. Further, the present invention is not limited to the average value filtering process. For example, another process such as an intermediate value filtering process may be adopted as the blurring process.

【0042】更に、図1(b)のステップS4における
ぼかし処理(数1に基づく平均値フィルタリング処理)
を複数回実行してもよい。即ち、監視カメラ1から得ら
れる動画像Fk に対して平均値フィルタリング処理を複
数回実行することによって、その処理後のぼかし画像A
k のぼけ度合いを大きくできる。これは、上記動画像F
k が、本来検出したい侵入物体以外の原因により大きく
変化するような場合(例えば、監視領域内の風が強く、
樹木の枝葉等が大きく揺れる場合)等に、非常に有効で
ある。なお、この処理回数を可変とすることによって、
動画像Fk がどれくらい変化したときにこれを侵入物体
によるものと判断するのかという所謂侵入物体の検出感
度を調節できる。
Further, the blurring processing in step S4 in FIG. 1B (average value filtering processing based on equation 1)
May be executed a plurality of times. That is, by executing the average value filtering processing on the moving image F k obtained from the monitoring camera 1 a plurality of times, the blurred image A after the processing is executed.
The degree of blur of k can be increased. This corresponds to the moving image F
If k changes greatly due to causes other than the intruder that you want to detect (for example, if the wind in the monitoring area is strong,
This is very effective when the branches and foliage of a tree fluctuate greatly. In addition, by making the number of processing times variable,
Adjustable detection sensitivity of the so-called entering object of how to determine that this by intruding object when a video image F k is changed much.

【0043】また、本実施の形態では、動画像フレーム
k の各画素fk [i,j] について、1画素ずつ上記数1
を実行したが、次のように処理してもよい。即ち、上記
数1に基づいて、或る画素fk [i,j] を中心とするn×
nの範囲内にある各画素fk[i+p,j+q] の各輝度値の平
均を求める(ここまでは、上記と同様である)。そし
て、この求めた平均値gk [i,j] を、図6に示すよう
に、上記或る画素fk [i,j] を中心とするm×mの範囲
内(m<n)にある全ての画素gk [i',j'] の値として
設定し、即ち次の数3を実行する。
Also, in the present embodiment, for each pixel f k [i, j] of the moving image frame F k ,
Was executed, but the following processing may be performed. That is, based on the above equation 1, nx centered on a certain pixel f k [i, j]
The average of each luminance value of each pixel f k [i + p, j + q] within the range of n is obtained (this is the same as above). Then, the obtained average value g k [i, j] is set within an m × m range (m <n) centered on the certain pixel f k [i, j] as shown in FIG. The value is set as the value of all the pixels g k [i ′, j ′], that is, the following equation 3 is executed.

【0044】[0044]

【数3】gk [i',j'] =gk [i,j] i’=i+u (uは整数:−(m−1)/2≦u≦
(m−1)/2) j’=j+w (wは整数:−(m−1)/2≦w≦
(m−1)/2)
G k [i ′, j ′] = g k [i, j] i ′ = i + u (u is an integer: − (m−1) / 2 ≦ u ≦
(M−1) / 2) j ′ = j + w (w is an integer: − (m−1) / 2 ≦ w ≦
(M-1) / 2)

【0045】そして、上記数1(及び数3)に基づく処
理を、m画素置きに実行する(即ち、i=i+m、j=
j+mとして、i及びjをそれぞれ更新する)。
Then, the processing based on the above equation (1) (and equation (3)) is executed every m pixels (ie, i = i + m, j =
i and j are updated as j + m).

【0046】このように、m×m個から成る複数画素を
纏めて1画素と見なし、これら複数画素〔m×m〕単位
で、上記数1(及び数3)を実行することにより、CP
U3の負担を軽減でき、換言すれば、CPU3によるぼ
かし処理の高速化を図ることができる。なお、mは、例
えばm=n/3、n/5、n/7となるように設定す
る。そして、このm及び上記フィルタサイズであるnが
変わると、画像のぼけ度合いが変化し、即ちこれらm及
びnを可変とすることによっても、上述した侵入物体の
検出感度を調節できる。
As described above, a plurality of m × m pixels are regarded as one pixel, and the above equation 1 (and equation 3) is executed in units of these plurality of pixels [m × m].
The burden on U3 can be reduced, in other words, the speed of the blurring process by the CPU 3 can be increased. Note that m is set so that m = n / 3, n / 5, and n / 7, for example. When m and the filter size n change, the degree of blurring of the image changes, that is, by making these m and n variable, the above-described detection sensitivity of the intruding object can be adjusted.

【0047】本実施の形態においては、監視カメラ1を
モノクロ形のカメラとしたが、カラー形のカメラを用い
た場合にも、本発明を応用できる。この場合、R(レッ
ド)、G(グリーン)及びB(ブルー)の各カラー信号
に分けて、これら各カラー信号毎に、上記と同様の処理
を実行すればよい。
In the present embodiment, the surveillance camera 1 is a monochrome camera, but the present invention can be applied to a case where a color camera is used. In this case, the same processing as described above may be performed for each of the R (red), G (green), and B (blue) color signals.

【0048】[0048]

【発明の効果】以上のように、請求項1に記載の発明の
監視装置によれば、監視領域内にある樹木の枝葉等が風
で揺れたり、或いは検出しようとする物体よりも小さい
ゴミ等が舞い込んだりすることによって、監視カメラか
ら得られる動画像が変化しても、この変化は、ぼかし処
理によって緩和(吸収)される。このように、本来検出
したい侵入物体以外の原因によって上記動画像に変化が
生じても、これを侵入物体として誤認識することがない
ので、確実な侵入物体監視を実現できるという効果があ
る。
As described above, according to the monitoring apparatus of the first aspect of the present invention, the branches and leaves of a tree in the monitoring area are shaken by the wind, or dust or the like smaller than the object to be detected. If the moving image obtained from the surveillance camera changes as a result, the change is mitigated (absorbed) by the blurring process. As described above, even if a change occurs in the moving image due to a cause other than the originally intended intruding object, the moving image is not erroneously recognized as an intruding object.

【0049】請求項2に記載の発明の監視装置によれ
ば、監視カメラから得られる動画像フレームが更新され
る度に、その比較対象となる背景画像フレームも更新さ
れる。従って、例えば監視カメラを屋外に設けたとき
に、その監視カメラで捉えた屋外の風景(背景)画像
が、天候の変化や時間の経過等により時々刻々と変化し
ても、これを侵入物体として誤認識することはないとい
う効果がある。
According to the surveillance device of the second aspect, every time a moving image frame obtained from a surveillance camera is updated, a background image frame to be compared is also updated. Therefore, for example, when a surveillance camera is installed outdoors, even if an outdoor scenery (background) image captured by the surveillance camera changes every moment due to a change in the weather, a lapse of time, or the like, this is regarded as an intruding object. This has the effect of preventing erroneous recognition.

【0050】請求項3に記載の発明の監視装置は、ぼか
し処理手段を、比較的に簡単な構成で、かつ、ぼけ効果
の大きい平均値フィルタ手段により構成したものであ
る。従って、画像を故意にぼかしたいという本発明の意
図に合致するぼかし処理手段を、簡単な構成で実現でき
るという効果がある。また、この平均値フィルタ手段
を、例えばCPUやDSP等で構成する場合には、比較
的に簡単なアルゴリズムによりこれらを平均値フィルタ
手段として機能させることができるので、これらCPU
やDSPの負担を軽減できるという効果もある。
According to a third aspect of the present invention, in the monitoring apparatus, the blur processing means has a relatively simple configuration and is constituted by an average filter means having a large blur effect. Therefore, there is an effect that a blur processing unit that meets the intention of the present invention to intentionally blur an image can be realized with a simple configuration. Further, when this average value filter means is constituted by, for example, a CPU or a DSP, it is possible to make these function as an average value filter means by a relatively simple algorithm.
Also, there is an effect that the load on the DSP can be reduced.

【0051】請求項4に記載の発明の監視装置によれ
ば、ぼかし処理を複数回実行することによって、画像の
ぼけ度合いを大きくしている。従って、監視カメラから
得られる動画像が、本来検出したい侵入物体以外の原因
によって大きく変化するような場合等に、非常に有効で
ある。また、上記ぼかし処理の回数を可変とすることに
よって、上記動画像がどれくらい変化したときにこれを
侵入物体として判断(検出)するのかという所謂検出感
度を調節できる。
According to the monitoring device of the fourth aspect of the present invention, the degree of blurring of the image is increased by executing the blurring processing a plurality of times. Therefore, it is very effective when the moving image obtained from the surveillance camera is greatly changed due to causes other than the intruding object to be detected. Further, by making the number of times of the blurring process variable, it is possible to adjust the so-called detection sensitivity of how much the moving image changes when it is determined (detected) as an intruding object.

【0052】請求項5に記載の発明の監視装置によれ
ば、ぼかし処理手段によって画像を処理する際に、複数
画素を1画素と見なしてぼかし処理を実行する。従っ
て、ぼかし処理手段の負担を軽減でき、言い換えれば、
ぼかし処理手段によるぼかし処理速度を向上できるとい
う効果がある。そして、上記1画素と見なす画素数が多
いほど、画像のぼけの程度が大きくなるので、この画素
数を可変とすることによっても、上記検出感度を調節で
きる。
According to the fifth aspect of the present invention, when an image is processed by the blur processing means, a plurality of pixels are regarded as one pixel and the blur processing is executed. Therefore, the load on the blur processing means can be reduced, in other words,
There is an effect that the blur processing speed by the blur processing means can be improved. Since the degree of image blur increases as the number of pixels regarded as one pixel increases, the detection sensitivity can be adjusted by varying the number of pixels.

【0053】請求項6、7、8、9または10に記載の
発明の監視方法は、上記請求項1、2、3、4または5
に記載の発明と同様の作用を奏するための監視方法であ
る。従って、請求項6、7、8、9または10に記載の
発明の監視方法に基づいて侵入物体の監視を実施するこ
とによって、上記請求項1、2、3、4または5に記載
の発明と同様の効果が得られる。
The monitoring method according to the sixth, seventh, eighth, ninth or tenth aspect of the present invention provides the monitoring method according to the first, second, third, fourth or fifth aspect.
This is a monitoring method for achieving the same effect as the invention described in (1). Therefore, by monitoring an intruding object based on the monitoring method of the invention according to claim 6, 7, 8, 9 or 10, the invention according to claim 1, 2, 3, 4 or 5 is realized. Similar effects can be obtained.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施の形態を表す図で、(a)は、
概略構成ブロック図、(b)は、CPUの動作を表すフ
ローチャートである。
FIG. 1 is a diagram illustrating an embodiment of the present invention.
FIG. 3B is a schematic configuration block diagram, and is a flowchart showing the operation of the CPU.

【図2】同実施の形態における動画像フレームの概念を
表す図である。
FIG. 2 is a diagram illustrating a concept of a moving image frame in the embodiment.

【図3】同実施の形態におけるn×nのフィルタリング
処理の概念図である。
FIG. 3 is a conceptual diagram of an n × n filtering process in the embodiment.

【図4】同実施の形態におけるフィルタリング処理の例
外を説明する図である。
FIG. 4 is a diagram for explaining an exception of a filtering process in the embodiment.

【図5】同実施の形態による効果を説明するための図で
ある。
FIG. 5 is a diagram for describing effects according to the embodiment.

【図6】同実施の形態におけるぼかし処理の応用例を示
す図である。
FIG. 6 is a diagram showing an application example of the blurring process in the embodiment.

【符号の説明】[Explanation of symbols]

1 監視カメラ 3 CPU(ぼかし処理手段、比較手段、判断手段) ステップS4 ぼかし処理過程 ステップS6 比較過程 ステップS8、10 判断過程 Reference Signs List 1 surveillance camera 3 CPU (blur processing means, comparison means, determination means) Step S4 Blur processing step Step S6 Comparison step Steps S8, 10 Determination step

フロントページの続き Fターム(参考) 5B057 AA19 CA16 CB16 CE04 DA06 DB02 DC33 5C054 AA01 FC01 FC05 FC11 FC15 FC16 HA18 5C084 AA01 AA02 AA07 BB05 BB31 CC19 DD12 GG56 GG57 GG78Continued on the front page F term (reference) 5B057 AA19 CA16 CB16 CE04 DA06 DB02 DC33 5C054 AA01 FC01 FC05 FC11 FC15 FC16 HA18 5C084 AA01 AA02 AA07 BB05 BB31 CC19 DD12 GG56 GG57 GG78

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 画像入力端子から入力されるディジタル
画像データにぼかし処理を施すぼかし処理手段と、 このぼかし処理手段によって処理して得たぼかし画像
と、予め上記ぼかし処理手段によって処理して得た基準
のぼかし画像とを比較して、これら両画像間で各画素毎
の輝度の差分を求める比較手段と、 この比較手段により求めた各画素毎の差分の絶対値がそ
れぞれ所定のしきい値以下であるか否かを判別し、その
判別結果から侵入物体の有無を判断する判断手段と、を
具備する侵入物体監視装置。
1. A blur processing means for blurring digital image data input from an image input terminal, a blur image obtained by processing by the blur processing means, and a blur image obtained by previously processing by the blur processing means. Comparing means for comparing the reference blurred image with each other to obtain a luminance difference for each pixel between the two images; and an absolute value of the difference for each pixel obtained by the comparing means being equal to or less than a predetermined threshold value. And a determining means for determining whether there is an intruding object based on a result of the determination.
【請求項2】 上記比較手段が、上記ぼかし処理手段に
よって処理して得たぼかし画像と、このぼかし画像を得
た時点よりも所定の時間だけ前に上記ぼかし処理手段に
より処理して得たぼかし画像とを比較する状態に、上記
基準のぼかし画像を順次更新するよう構成された請求項
1に記載の侵入物体監視装置。
2. A blur image obtained by processing by said blur processing means by said comparing means, and a blur image obtained by processing by said blur processing means a predetermined time before the time when said blur image is obtained. The intruding object monitoring device according to claim 1, wherein the reference blur image is sequentially updated in a state where the image is compared with the image.
【請求項3】 上記ぼかし処理手段が、平均値フィルタ
手段である請求項1に記載の侵入物体監視装置。
3. An intruding object monitoring apparatus according to claim 1, wherein said blur processing means is an average value filter means.
【請求項4】 上記ぼかし処理手段が、その処理の対象
となる画像データに対して、上記ぼかし処理を複数回実
行する状態に構成された請求項1に記載の侵入物体監視
装置。
4. The intruding object monitoring apparatus according to claim 1, wherein the blur processing means is configured to execute the blur processing a plurality of times on image data to be processed.
【請求項5】 上記ぼかし処理手段が、その処理の対象
となる画像データの各画素を所定の画素数毎に纏めて、
この所定の画素数単位で上記ぼかし処理を実行する状態
に構成された請求項1に記載の侵入物体監視装置。
5. The blur processing means collects pixels of image data to be processed by a predetermined number of pixels,
2. The intruding object monitoring device according to claim 1, wherein the blurring process is executed in units of the predetermined number of pixels.
【請求項6】 画像入力端子から入力されるディジタル
画像データにぼかし処理を施すぼかし処理過程と、 このぼかし処理過程において処理して得たぼかし画像
と、予め上記ぼかし処理過程において処理して得た基準
のぼかし画像とを比較して、これら両画像間で各画素毎
の輝度の差分を求める比較過程と、 この比較過程において求めた各画素毎の差分の絶対値が
それぞれ所定のしきい値以下であるか否かを判別し、そ
の判別結果から侵入物体の有無を判断する判断過程と、
を具備する侵入物体監視方法。
6. A blur processing step of blurring digital image data input from an image input terminal, a blur image obtained by processing in the blur processing step, and a blur image obtained by previously processing in the blur processing step. A comparison process of comparing a reference blurred image with a brightness difference of each pixel between these two images; and an absolute value of a difference of each pixel obtained in the comparison process being equal to or less than a predetermined threshold value. A determination process of determining whether or not there is an intruding object from the determination result;
An intruding object monitoring method comprising:
【請求項7】 上記比較過程において、上記ぼかし処理
過程により処理して得たぼかし画像と、このぼかし画像
を得た時点よりも所定の時間だけ前に上記ぼかし処理過
程により処理して得たぼかし画像とを比較する状態に、
上記基準のぼかし画像を順次更新するようにした請求項
6に記載の侵入物体監視方法。
7. In the comparing step, a blur image obtained by processing in the blur processing step and a blur obtained by processing in the blur processing step by a predetermined time before the time when the blur image is obtained. In a state to compare with the image,
7. The intruding object monitoring method according to claim 6, wherein the reference blurred image is sequentially updated.
【請求項8】 上記ぼかし処理過程が、上記ぼかし処理
として平均値フィルタリング処理を施す過程である請求
項6に記載の侵入物体監視方法。
8. The intruding object monitoring method according to claim 6, wherein the blurring process is a process of performing an average value filtering process as the blurring process.
【請求項9】 上記ぼかし処理過程において、その処理
の対象となる画像データに対して、上記ぼかし処理を複
数回実行するようにした請求項6に記載の侵入物体監視
方法。
9. The intruding object monitoring method according to claim 6, wherein in the blurring process, the blurring process is performed a plurality of times on image data to be processed.
【請求項10】 上記ぼかし処理過程において、その処
理の対象となる画像データの各画素を所定の画素数毎に
纏めて、この所定の画素数単位で上記ぼかし処理を実行
するようにした請求項6に記載の侵入物体監視方法。
10. In the blurring process, each pixel of the image data to be processed is grouped by a predetermined number of pixels, and the blurring process is executed by the predetermined number of pixels. 7. The intruding object monitoring method according to 6.
JP10348899A 1998-12-08 1998-12-08 Supervisory device for intruded object and intruded object supervisory method Withdrawn JP2000175178A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10348899A JP2000175178A (en) 1998-12-08 1998-12-08 Supervisory device for intruded object and intruded object supervisory method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10348899A JP2000175178A (en) 1998-12-08 1998-12-08 Supervisory device for intruded object and intruded object supervisory method

Publications (1)

Publication Number Publication Date
JP2000175178A true JP2000175178A (en) 2000-06-23

Family

ID=18400142

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10348899A Withdrawn JP2000175178A (en) 1998-12-08 1998-12-08 Supervisory device for intruded object and intruded object supervisory method

Country Status (1)

Country Link
JP (1) JP2000175178A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006290172A (en) * 2005-04-11 2006-10-26 Fujitsu Ten Ltd Anti-theft device for vehicle and anti-theft method for vehicle
US8068701B2 (en) 2006-08-31 2011-11-29 Sony Corporation Image-processing apparatus, image-processing method and image-processing program
CN113311301A (en) * 2021-05-28 2021-08-27 广东电网有限责任公司 Method and system for testing insulation performance of electrical equipment

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006290172A (en) * 2005-04-11 2006-10-26 Fujitsu Ten Ltd Anti-theft device for vehicle and anti-theft method for vehicle
US8068701B2 (en) 2006-08-31 2011-11-29 Sony Corporation Image-processing apparatus, image-processing method and image-processing program
CN113311301A (en) * 2021-05-28 2021-08-27 广东电网有限责任公司 Method and system for testing insulation performance of electrical equipment
CN113311301B (en) * 2021-05-28 2022-11-04 广东电网有限责任公司 Method and system for testing insulation performance of electrical equipment

Similar Documents

Publication Publication Date Title
JP4203736B2 (en) Image motion detection apparatus and computer program
US6661838B2 (en) Image processing apparatus for detecting changes of an image signal and image processing method therefor
KR100659781B1 (en) Smoke Detecting Method and System using CCD Image
CN111144337B (en) Fire detection method and device and terminal equipment
JP3486229B2 (en) Image change detection device
US10878221B2 (en) Imaging device capable of performing high-speed image recognition processing
US9842260B2 (en) Image processing apparatus and image processing method of performing image segmentation
WO2013132711A1 (en) Object detection device, object detection method and program
JPH0973541A (en) Object detection device/method
JP2004222200A (en) Method and device for detecting intruding object
KR101024731B1 (en) Method and system for reducing mosquito noise in a digital image
JP2000175178A (en) Supervisory device for intruded object and intruded object supervisory method
JP2002157598A (en) System for detecting invader
JP2002279429A (en) Method for detecting infiltrating object
CN117218039A (en) Image processing method, device, computer equipment and storage medium
JP2005070985A (en) Image processor, method and program
KR101920740B1 (en) Real-time image processing system
JP3625442B2 (en) Object detection method, object detection apparatus, and object detection program
JPH0981754A (en) Movement detecting circuit
JPH0620049A (en) Intruder identification system
KR101893677B1 (en) Method and apparatus for Detecting the change area in color image signals
JP3736836B2 (en) Object detection method, object detection apparatus, and program
JP3796356B2 (en) Camera control apparatus, method, and computer-readable storage medium
JP2002150440A (en) Detector for object of monitoring
US11270442B2 (en) Motion image integration method and motion image integration system capable of merging motion object images

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060307