JPH04273587A - Object detector - Google Patents

Object detector

Info

Publication number
JPH04273587A
JPH04273587A JP3034153A JP3415391A JPH04273587A JP H04273587 A JPH04273587 A JP H04273587A JP 3034153 A JP3034153 A JP 3034153A JP 3415391 A JP3415391 A JP 3415391A JP H04273587 A JPH04273587 A JP H04273587A
Authority
JP
Japan
Prior art keywords
image
edge
feature component
difference
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3034153A
Other languages
Japanese (ja)
Inventor
Shuichi Nishio
西尾 秀一
Hiroshi Tomiyasu
冨安 寛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
N T T DATA TSUSHIN KK
NTT Data Group Corp
Original Assignee
N T T DATA TSUSHIN KK
NTT Data Communications Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by N T T DATA TSUSHIN KK, NTT Data Communications Systems Corp filed Critical N T T DATA TSUSHIN KK
Priority to JP3034153A priority Critical patent/JPH04273587A/en
Publication of JPH04273587A publication Critical patent/JPH04273587A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To detect an object which is not present on a background by integrating the difference images of every feature component edge, binalizing the integrated edge image and performing such forming processes as noise removal and gap filling. CONSTITUTION:An image input means 102 inputs a color image from a color image pick-up device A and converts the inputted color gradation image into a digital frame image of red, green and blue. A feature component conversion processing means 103 converts the digital frame image into the feature component images of brightness, saturation and color information and each image is converted further into edge images by an edge extraction means 104. An image storage means 105 stores the edge images and a difference processing means 106 obtains the difference between the background image and the inputted image at every edge image. An adding processing means 107 integrates the difference images of respective feature component edges. A binalization processing means 108 binalizes this integrated edge image and then the formation processes as noise removal and the gap filling of the binalized image are performed.

Description

【発明の詳細な説明】[Detailed description of the invention]

【0001】0001

【産業上の利用分野】本発明は、画像処理技術を用いて
入力画像から背景に存在していなかった物体を検出する
物体検出装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an object detection device that uses image processing technology to detect an object that does not exist in the background from an input image.

【0002】0002

【従来の技術】近年、画像処理技術を用いた通過車両の
検出装置、駐車車両の検出装置および不法浸入者の検出
装置を代表する様々な物体検出装置が開発されている。 これらの装置は、一般に、テレビカメラ(TVカメラ)
等の画像撮像装置から得られた入力画像に対して、画像
変換処理、特徴抽出処理等の画像の処理を施し、背景画
像中に存在していなかった物体を検出する機能を有する
BACKGROUND OF THE INVENTION In recent years, various object detection devices have been developed using image processing technology, including a device for detecting passing vehicles, a device for detecting parked vehicles, and a device for detecting illegal intruders. These devices are generally television cameras (TV cameras)
It has a function of performing image processing such as image conversion processing and feature extraction processing on an input image obtained from an image capturing device such as the above, and detecting an object that is not present in the background image.

【0003】交通管制システムにおいて、交通状況を把
握するためのセンサとして使用される通過車両検出装置
を従来の物体検出装置の例として説明する。
A passing vehicle detection device used as a sensor for grasping traffic conditions in a traffic control system will be described as an example of a conventional object detection device.

【0004】従来の通過車両検出装置としては、例えば
、電子情報通信学会論文誌(D)、昭和60年3月号に
記載される工藤安夫著、表題“画像処理手法を用いた交
通流計測システム”がある。
[0004] Conventional passing vehicle detection devices include, for example, a traffic flow measurement system using image processing method written by Yasuo Kudo and described in the Transactions of the Institute of Electronics, Information and Communication Engineers (D), March 1985 issue. “There is.

【0005】図3は、このような通過車両検出装置の従
来例を示すものである。この装置では、あらかじめ通過
車両の存在しない背景画像を入力しておき、通過車両の
存在する入力画像との輝度値の差分をとり、差分値の大
きな領域を車両の領域として検出している。具体的には
、モノクロームTVカメラ等の画像撮像装置4から入力
された背景のみの白黒濃淡画像は、画像入力手段5でデ
ィジタルフレーム画像に変換され、画像蓄積手段8に蓄
積される。同様に通過車両の存在する入力画像もディジ
タルフレーム画像に変換される。次に、差分処理手段9
で入力画像と背景画像の各画素における輝度値の差分処
理が施され、その後、2値化処理手段11であるしきい
値により2値化され差分値の大きな領域が検出される。 ただし、この領域には雑音成分が含まれているので、成
形処理手段12で雑音除去等の成形処理により、最終的
に車両の領域が検出される。
FIG. 3 shows a conventional example of such a passing vehicle detection device. In this device, a background image without a passing vehicle is input in advance, a difference in luminance value is calculated from an input image in which a passing vehicle is present, and an area with a large difference value is detected as a vehicle area. Specifically, a black and white grayscale image of only the background input from an image capturing device 4 such as a monochrome TV camera is converted into a digital frame image by the image input means 5 and stored in the image storage means 8. Similarly, an input image in which a passing vehicle is present is also converted into a digital frame image. Next, the difference processing means 9
A difference process is performed on the brightness values of each pixel of the input image and the background image, and then the image is binarized by a threshold value, which is the binarization processing means 11, and areas with large difference values are detected. However, since this region contains noise components, the region of the vehicle is finally detected by the shaping processing means 12 through shaping processing such as noise removal.

【0006】画像処理技術を用いた不法浸入者の検出装
置においても、同様の処理による検出が行われている。
[0006] Detection by similar processing is also performed in illegal intruder detection devices using image processing technology.

【0007】[0007]

【発明が解決しようとする課題】この従来の方式では、
差分処理手段9において背景画像と入力画像の輝度値の
差分を求めているために、道路等の背景の輝度値が変化
しないことを前提としている。
[Problem to be solved by the invention] In this conventional method,
Since the difference processing means 9 calculates the difference between the luminance values of the background image and the input image, it is assumed that the luminance value of the background such as a road does not change.

【0008】しかしながら、実際には日時および天候等
により背景の輝度値は、時間的にも空間的にも変動する
ものであり、入力画像における背景の各画素の輝度値を
常に背景画像と同一に保つ処理が必要となるが、このよ
うな処理を入力画像の背景全体に施すことは現在の技術
では困難であった。
However, in reality, the brightness value of the background varies both temporally and spatially depending on the date and time, weather, etc., and the brightness value of each pixel of the background in the input image is always the same as that of the background image. However, it is difficult with current technology to apply such processing to the entire background of the input image.

【0009】また、従来の方式では、モノクロームTV
カメラ等の画像撮像装置4から入力される白黒濃淡画像
の輝度値のみに着目しているために、背景と同程度の輝
度値を持つ車両、浸入者等の物体の検出は困難であった
[0009] Furthermore, in the conventional system, monochrome TV
Since only the brightness value of the black and white grayscale image inputted from the image capturing device 4 such as a camera is focused on, it is difficult to detect objects such as vehicles and intruders that have the same brightness value as the background.

【0010】本発明は、前記問題点を解決するためにな
されたものであり、本発明の目的は、背景の輝度値の変
動する入力画像から背景画像に存在していなかった物体
を検出することが可能な技術を提供することにある。
The present invention has been made to solve the above problems, and an object of the present invention is to detect an object that does not exist in the background image from an input image in which the brightness value of the background changes. The goal is to provide technology that enables

【0011】[0011]

【課題を解決するための手段】前記目的を達成するため
に、本発明では、入力画像から背景に存在していなかっ
た物体を検出する画像処理を行なう物体検出装置におい
て、カラー画像を入力するカラー画像撮像装置と、該入
力カラー濃淡画像を赤色・緑色・青色のディジタルフレ
ーム画像に変換する画像変換手段と、前記赤色・緑色・
青色のディジタルフレーム画像を明度、彩度、色情報の
特徴成分画像に変換する特徴成分変換処理手段と、各特
徴成分画像をエッジ画像に変換するエッジ抽出手段と、
各特徴成分のエッジ画像を蓄積する画像蓄積手段と、各
特徴成分のエッジ画像毎に背景画像と入力画像と入力画
像の差分を求める差分処理手段と、各特徴成分エッジの
差分画像を統合する加算処理手段と、該統合エッジ画像
を2値化する2値化処理手段と、該2値画像の雑音除去
、穴埋め等の成形処理を行なう成形処理手段を具備する
ことを最も主要な特徴とする。
[Means for Solving the Problems] In order to achieve the above object, the present invention provides an object detection device that performs image processing to detect an object that does not exist in the background from an input image. an image capturing device; an image converting means for converting the input color gradation image into red, green, and blue digital frame images;
a feature component conversion processing means for converting a blue digital frame image into a feature component image of brightness, saturation, and color information; an edge extraction means for converting each feature component image into an edge image;
an image storage means for accumulating edge images of each feature component; a difference processing means for calculating the difference between the background image and the input image for each edge image of each feature component; and addition for integrating the difference images of the edges of each feature component. The most important feature is that it includes a processing means, a binarization processing means for binarizing the integrated edge image, and a shaping processing means for performing shaping processing such as noise removal and hole filling of the binary image.

【0012】0012

【作用】前述の手段によれば、カラー画像撮像装置から
画像入力手段によりラーカ画像を入力し、この入力カラ
ー濃淡画像を画像変換手段により赤色・緑色・青色のデ
ィジタルフレーム画像に変換し、前記赤色・緑色・青色
のディジタルフレーム画像を特徴成分変換処理手段によ
り明度、彩度、色情報の特徴成分画像に変換し、各特徴
成分画像をエッジ抽出手段によりエッジ画像に変換し、
各特徴成分のエッジ画像を画像蓄積手段に蓄積し、各特
徴成分のエッジ画像毎に背景画像と入力画像と入力画像
の差分を差分処理手段により求める。各特徴成分エッジ
の差分画像を加算処理手段により統合し、この統合エッ
ジ画像を2値化処理手段により2値化し、この2値画像
の雑音除去、穴埋め等の成形処理を行なうことにより、
背景の輝度値の変動する入力画像から背景画像に存在し
ていなかった物体を検出することができる。
[Operation] According to the above-mentioned means, a color image is inputted from the color image pickup device by the image input means, and this input color gradation image is converted into red, green, and blue digital frame images by the image conversion means, and the color image is converted into red, green and blue digital frame images.・Converting green and blue digital frame images into feature component images of brightness, saturation, and color information by a feature component conversion processing means, converting each feature component image into an edge image by an edge extraction means,
The edge image of each feature component is stored in an image storage means, and the difference between the background image, the input image, and the input image is determined for each edge image of each feature component by a difference processing means. By integrating the difference images of each feature component edge by an addition processing means, binarizing this integrated edge image by a binarization processing means, and performing shaping processing such as noise removal and hole filling on this binary image,
An object that does not exist in the background image can be detected from an input image in which the background brightness value fluctuates.

【0013】[0013]

【実施例】以下、本発明の一実施例を図面を用いて具体
的に説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described in detail below with reference to the drawings.

【0014】図1は、本発明を通過車両検出装置に適用
した実施例の概略構成を示すブロック図、図2は、図1
に示す特徴成分変換処理手段における特徴成分画像変換
処理を説明するための説明図である。
FIG. 1 is a block diagram showing a schematic configuration of an embodiment in which the present invention is applied to a passing vehicle detection device, and FIG.
FIG. 3 is an explanatory diagram for explaining feature component image conversion processing in the feature component conversion processing means shown in FIG.

【0015】本実施例の通過車両検出装置は、コンピュ
ータを使用したものであり、図1に示すように、コンピ
ュータ(CPU)1、情報データ,画像データ等を表示
する表示手段(CRT)2、情報データ,画像データ等
を格納する記憶手段(メモリ)3、画像撮影装置4を備
えている。
The passing vehicle detection device of this embodiment uses a computer, and as shown in FIG. 1, it includes a computer (CPU) 1, a display means (CRT) 2 for displaying information data, image data, etc. It includes a storage means (memory) 3 for storing information data, image data, etc., and an image photographing device 4.

【0016】前記コンピュータ1の機能構成は、演算処
理部(CPU)101、入力部102、特徴成分変換処
理部103、エッジ抽出部104、画像蓄積部105、
差分処理部106、加算処理部107、2値化処理部1
08、成形処理部109、データバス110を備えてい
る。
The functional configuration of the computer 1 includes a calculation processing unit (CPU) 101, an input unit 102, a feature component conversion processing unit 103, an edge extraction unit 104, an image storage unit 105,
Difference processing unit 106, addition processing unit 107, binarization processing unit 1
08, a molding processing section 109, and a data bus 110.

【0017】前記表示手段2は、例えば、CRTディス
プレイ装置を用いる。記憶手段3は、コンピュータ1の
主記憶装置と磁気ディスク装置,光ディスク装置等から
なる補助記憶装置とからなっている。画像撮影装置4は
、例えば、テレビカメラを用いる。
The display means 2 uses, for example, a CRT display device. The storage means 3 consists of a main storage device of the computer 1 and an auxiliary storage device including a magnetic disk device, an optical disk device, etc. The image capturing device 4 uses, for example, a television camera.

【0018】前記画像入力部102は、画像撮像装置4
から入力された背景のみのカラー濃淡画像を赤色・緑色
・青色(以下、RGBという)ディジタルフレーム画像
に変換する。特徴成分変換処理部103は、RGBディ
ジタルフレーム画像を図2に示すような6つの明度、彩
度、色情報の特徴成分画像に変換する。エッジ抽出部1
04は、各特徴成分画像をエッジ抽出処理によりエッジ
画像に変換する。画像蓄積部105は、前記エッジ画像
を蓄積する。差分処理部106は、各特徴成分のエッジ
画像毎に背景画像と入力画像のエッジ値の差分処理を行
なう。加算処理部107は、特徴成分に応じた重みによ
る重み付け加算処理を行なう。2値化処理部108は、
重み付け加算処理された統合エッジ画像をあるしきい値
により2値化されエッジ差分の大きな領域が取り出す。 この領域は、雑音成分を含んだ車両のエッジおよび車両
によって隠されたエッジを示し、これらのエッジに囲ま
れた内部の領域が車両を示す領域となる。成形処理部1
09は、雑音除去、穴埋め等の成形処理を施し、最終的
に車両の領域を検出する。
The image input section 102 includes the image capturing device 4
A color gradation image of only the background inputted from is converted into a red, green, and blue (hereinafter referred to as RGB) digital frame image. The feature component conversion processing unit 103 converts the RGB digital frame image into six feature component images of brightness, saturation, and color information as shown in FIG. Edge extraction part 1
04 converts each feature component image into an edge image by edge extraction processing. The image storage unit 105 stores the edge images. The difference processing unit 106 performs difference processing between the edge values of the background image and the input image for each edge image of each feature component. The addition processing unit 107 performs weighted addition processing using weights according to the feature components. The binarization processing unit 108
The integrated edge image that has been subjected to weighted addition processing is binarized using a certain threshold value, and regions with large edge differences are extracted. This area shows edges of the vehicle that include noise components and edges hidden by the vehicle, and the internal area surrounded by these edges becomes the area that shows the vehicle. Molding processing section 1
09 performs shaping processing such as noise removal and hole filling, and finally detects the vehicle area.

【0019】次に、本実施例の通過車両検出装置の動作
を説明する。
Next, the operation of the passing vehicle detection device of this embodiment will be explained.

【0020】図1において、カラーテレビカメラ等の画
像撮像装置4から入力された背景のみのカラー濃淡画像
は、画像入力部102においてRGBディジタルフレー
ム画像に変換されて入力される。このRGBディジタル
フレーム画像は、特徴成分変換処理部103において、
以下に述べる6つの特徴成分画像(図2に示す)に変換
される。
In FIG. 1, a color grayscale image of only the background inputted from an image capturing device 4 such as a color television camera is converted into an RGB digital frame image and inputted to an image input section 102. This RGB digital frame image is processed by the feature component conversion processing unit 103.
It is converted into six feature component images (shown in FIG. 2) described below.

【0021】(1)明度画像(34) 明度画像Vはカラー濃淡画像の画像の明るさの特徴を表
わし、各画素の値Vpは以下の式に示すようなR、G、
Bの最大値とする。 Vp=max(R,G,B,) (2)彩度画像(35) 彩度画像Dはカラー濃淡画像の色の鮮やかさの特徴を表
わし、各画素の値Dpは以下の式に示すようなR、G、
Bの最大値から最小値を引いた値とする。 Dp=max(R,G,B)−min(R,G,B)(
3)色特徴画像1(36) 色特徴画像Ywはカラー濃淡画像の黄味の特徴を表わし
、各画素の値Ywpは以下の式に示すようなRからBを
引いた正値とする。 Ywp=max(R−B,0) (4)色特徴画像2(37) 色特徴画像Rdはカラー濃淡画像の赤味の特徴を表わし
、各画素の値Rdpは以下の式に示すようなRからGを
引いた正値とする。 Rdp=max(R−G,0) (5)色特徴画像3(38) 色特徴画像B1はカラー濃淡画像の赤味の特徴を表わし
、各画素の値Blpは以下の式に示すようなBからRを
引いた正値とする。 Blp=max(B−R,0) (6)色特徴画像4(39) 色特徴画像Gnはカラー濃淡画像の赤味の特徴を表わし
、各画素の値Gnpは以下の式に示すようなGからRを
引いた正値とする。 Gnp=max(G−R,0) 変換後の各特徴成分画像は、エッジ抽出部104におけ
るエッジ抽出処理によりエッジ画像に変換され、画像蓄
積部105に蓄積される。入力画像に対しても同様の処
理を施し、各特徴成分のエッジ画像を得る。次に、差分
処理部106において各特徴成分のエッジ画像毎に背景
画像と入力画像のエッジ値の差分処理を行い、その後、
加算処理部107で特徴成分に応じた重みによる重み付
け加算処理を行い統合エッジ画像を得る。次に、この統
合エッジ画像は、2値化処理部108であるしきい値に
より2値化されてエッジ差分の大きな領域が取り出され
る。この領域は、雑音成分を含んだ車両のエッジおよび
車両によって隠されたエッジを示し、これらのエッジに
囲まれた内部の領域が車両を示す領域となる。そこで、
成形処理部109において雑音除去、穴埋め等の成形処
理を施すことによって最終的に車両の領域が検出される
(1) Brightness image (34) The brightness image V represents the brightness characteristics of a color gradation image, and the value Vp of each pixel is determined by R, G,
Let it be the maximum value of B. Vp=max(R,G,B,) (2) Saturation image (35) The saturation image D represents the characteristics of the vividness of the color of the color gradation image, and the value Dp of each pixel is as shown in the following formula. R, G,
It is the value obtained by subtracting the minimum value from the maximum value of B. Dp=max(R,G,B)-min(R,G,B)(
3) Color feature image 1 (36) The color feature image Yw represents the yellowish feature of the color gradation image, and the value Ywp of each pixel is a positive value obtained by subtracting B from R as shown in the following equation. Ywp=max(R-B,0) (4) Color feature image 2 (37) The color feature image Rd represents the reddish feature of the color gradation image, and the value Rdp of each pixel is R as shown in the following formula. The positive value obtained by subtracting G from Rdp=max(R-G,0) (5) Color feature image 3 (38) Color feature image B1 represents the reddish feature of the color gradation image, and the value Blp of each pixel is B as shown in the following formula. The positive value obtained by subtracting R from Blp=max(B-R,0) (6) Color feature image 4 (39) The color feature image Gn represents the reddish feature of the color gradation image, and the value Gnp of each pixel is G as shown in the following formula. The positive value obtained by subtracting R from Gnp=max(G-R, 0) Each feature component image after conversion is converted into an edge image by edge extraction processing in the edge extraction unit 104, and is stored in the image storage unit 105. Similar processing is applied to the input image to obtain edge images of each feature component. Next, the difference processing unit 106 performs difference processing between the edge values of the background image and the input image for each edge image of each feature component, and then
The addition processing unit 107 performs weighted addition processing using weights according to the feature components to obtain an integrated edge image. Next, this integrated edge image is binarized by a threshold value, which is a binarization processing unit 108, and regions with large edge differences are extracted. This area shows edges of the vehicle that include noise components and edges hidden by the vehicle, and the internal area surrounded by these edges becomes the area that shows the vehicle. Therefore,
A shaping processing unit 109 performs shaping processing such as noise removal and hole filling to finally detect the vehicle area.

【0022】以上の説明からわかるように、本実施例に
よれば、まず、車両の存在しない背景のカラー濃淡画像
が特徴成分変換処理部103において、特徴成分画像に
変換され、この各特徴成分画像は、エッジ抽出部104
におけるエッジ抽出処理によりエッジ画像に変換され、
画像蓄積部105に蓄積され、入力画像に対しても同様
の処理を施し、差分処理部106において各特徴成分の
エッジ画像毎に背景画像と入力画像のエッジ値の大きな
画素が車両のエッジおよび車両によって隠されたエッジ
を示し、これらのエッジに囲まれた内部が車両を示すこ
とになる。各特徴成分エッジの差分画像を加算処理部1
07で統合し、この統合エッジ画像を2値化処理部10
8で2値化し、この2値画像の雑音除去、穴埋め等の成
形処理を行なうことにより、背景の輝度値の変動する入
力画像から背景画像に存在していなかった物体を検出す
ることができる。
As can be seen from the above description, according to this embodiment, first, a color gradation image of a background in which no vehicle exists is converted into a feature component image in the feature component conversion processing section 103, and each feature component image is converted into a feature component image. is the edge extraction unit 104
is converted into an edge image by the edge extraction process in
Similar processing is applied to the input image stored in the image storage unit 105, and in the difference processing unit 106, for each edge image of each feature component, pixels with large edge values of the background image and the input image are classified as the edge of the vehicle and the edge of the vehicle. The hidden edges are shown, and the interior surrounded by these edges shows the vehicle. Addition processing unit 1 adds difference images of each feature component edge.
07, and this integrated edge image is processed by the binarization processing unit 10.
8 and performs shaping processing such as noise removal and hole filling on this binary image, it is possible to detect an object that does not exist in the background image from an input image in which the background brightness value varies.

【0023】つまり、本実施例では、従来装置において
扱われていた白黒濃淡画像ではなく、カラー濃淡画像か
ら明度画像、彩度画像、色特徴画像を得る特徴成分変換
処理を行なう。また、従来装置における背景画像と入力
画像の輝度値の差分処理を行なうのではなく、それぞれ
の画像からエッジ抽出処理を行った後のエッジ値の差分
処理を行なう。すなわち、輝度値と比べて日時や天候の
変化による影響を受けにくいエッジ値の差分処理を行な
う。これにより、入力画像の背景の輝度値が変動しても
背景に存在しなかった車両を検出することが可能となる
That is, in this embodiment, feature component conversion processing is performed to obtain a brightness image, a chroma image, and a color feature image from a color gradation image, rather than from a black and white gradation image handled in the conventional apparatus. Furthermore, instead of processing the difference between the luminance values of the background image and the input image in the conventional apparatus, the difference processing of the edge values is performed after performing edge extraction processing from each image. That is, difference processing is performed on edge values, which are less affected by changes in date and time or weather than brightness values. This makes it possible to detect a vehicle that is not present in the background even if the luminance value of the background of the input image changes.

【0024】また、カラー濃淡画像を変換して得られる
色彩情報を扱うため、背景と同程度の輝度値を持つ車両
であっても色の異なる車両であれば検出することが可能
となる。
Furthermore, since color information obtained by converting a color gradation image is handled, it is possible to detect a vehicle with a different color even if the vehicle has a luminance value comparable to that of the background.

【0025】なお、本発明は、通過車両の検出ばかりで
なく、駐車場等における駐車車両の検出、不法浸入者の
検出、バス停等における待ち人数の計測等、広い範囲で
利用することが可能であり、画像処理技術を用いた物体
検出装置として非常に有効である。
The present invention can be used not only for detecting passing vehicles, but also for detecting parked vehicles in parking lots, detecting illegal intruders, and measuring the number of people waiting at bus stops, etc. Therefore, it is very effective as an object detection device using image processing technology.

【0026】以上、本発明を実施例に基づき具体的に説
明したが、本発明は、前記実施例に限定されることなく
、その要旨を逸脱しない範囲において種々変更し得るこ
とはいうまでもない。
Although the present invention has been specifically explained above based on examples, it goes without saying that the present invention is not limited to the above-mentioned examples and can be modified in various ways without departing from the gist thereof. .

【0027】[0027]

【発明の効果】以上、説明したように、本発明によれば
、背景の輝度値が日時や天候によって変動する入力画像
であっても、背景に存在していなかった物体を検出する
ことができる。
[Effects of the Invention] As explained above, according to the present invention, an object that is not present in the background can be detected even in an input image in which the brightness value of the background changes depending on the date and time or the weather. .

【0028】また、背景と同程度の輝度値を持つ物体で
あっても、色が異なればその物体を検出することができ
る。
Furthermore, even if an object has a luminance value comparable to that of the background, it can be detected if the object has a different color.

【図面の簡単な説明】[Brief explanation of the drawing]

【図1】本発明を通過車両検出装置に適用した実施例の
概略構成を示すブロック図。
FIG. 1 is a block diagram showing a schematic configuration of an embodiment in which the present invention is applied to a passing vehicle detection device.

【図2】図1に示す特徴成分変換処理手段における特徴
成分画像変換処理を説明するための説明図。
FIG. 2 is an explanatory diagram for explaining feature component image conversion processing in the feature component conversion processing means shown in FIG. 1;

【図3】従来装置の問題点を説明するためのブロック図
FIG. 3 is a block diagram for explaining problems with a conventional device.

【符号の説明】[Explanation of symbols]

1…コンピュータ 2…表示手段(CRT) 3…メモリ手段 4…画像撮影装置 101…演算処理部(CPU) 102…画像入力部 103…特徴成分変換処理部 104…エッジ抽出部 105…画像蓄積部 106…差分処理部 107…加算処理部 108…2値化処理部 109…成形処理部 110…データバス 1...Computer 2...Display means (CRT) 3...Memory means 4...Image photographing device 101... Arithmetic processing unit (CPU) 102...Image input section 103...Feature component conversion processing unit 104...edge extraction section 105...Image storage section 106...Difference processing section 107... Addition processing section 108...Binarization processing unit 109...Molding processing section 110...Data bus

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】  入力画像から背景に存在していなかっ
た物体を検出する画像処理を行なう物体検出装置におい
て、カラー画像を入力するカラー画像撮像装置と、該入
力カラー濃淡画像を赤色・緑色・青色のディジタルフレ
ーム画像に変換する画像変換手段と、前記赤色・緑色・
青色のディジタルフレーム画像を明度、彩度、色情報の
特徴成分画像に変換する特徴成分変換処理手段と、各特
徴成分画像をエッジ画像に変換するエッジ抽出手段と、
各特徴成分のエッジ画像を蓄積する画像蓄積手段と、各
特徴成分のエッジ画像毎に背景画像と入力画像と入力画
像の差分を求める差分処理手段と、各特徴成分エッジの
差分画像を統合する加算処理手段と、該統合エッジ画像
を2値化する2値化処理手段と、該2値画像の雑音除去
、穴埋め等の成形処理を行なう成形処理手段を具備する
ことを特徴とする物体検出装置。
Claim 1: An object detection device that performs image processing to detect an object that does not exist in the background from an input image, comprising: a color image capturing device that inputs a color image; an image converting means for converting the digital frame image into a digital frame image;
a feature component conversion processing means for converting a blue digital frame image into a feature component image of brightness, saturation, and color information; an edge extraction means for converting each feature component image into an edge image;
an image storage means for accumulating edge images of each feature component; a difference processing means for calculating the difference between the background image and the input image for each edge image of each feature component; and addition for integrating the difference images of the edges of each feature component. An object detection device comprising a processing means, a binarization processing means for binarizing the integrated edge image, and a shaping processing means for performing shaping processing such as noise removal and hole filling of the binary image.
JP3034153A 1991-02-28 1991-02-28 Object detector Pending JPH04273587A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3034153A JPH04273587A (en) 1991-02-28 1991-02-28 Object detector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3034153A JPH04273587A (en) 1991-02-28 1991-02-28 Object detector

Publications (1)

Publication Number Publication Date
JPH04273587A true JPH04273587A (en) 1992-09-29

Family

ID=12406261

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3034153A Pending JPH04273587A (en) 1991-02-28 1991-02-28 Object detector

Country Status (1)

Country Link
JP (1) JPH04273587A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1996034363A1 (en) * 1995-04-26 1996-10-31 Hitachi, Ltd. Image processor for vehicle
JP2005339276A (en) * 2004-05-27 2005-12-08 Tama Tlo Kk Method, program and device for detection of moving body
US7130465B2 (en) 2002-08-29 2006-10-31 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V Method for extracting texture features from a multichannel image

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1996034363A1 (en) * 1995-04-26 1996-10-31 Hitachi, Ltd. Image processor for vehicle
US5987174A (en) * 1995-04-26 1999-11-16 Hitachi, Ltd. Image processing apparatus for vehicles
US7130465B2 (en) 2002-08-29 2006-10-31 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V Method for extracting texture features from a multichannel image
JP2005339276A (en) * 2004-05-27 2005-12-08 Tama Tlo Kk Method, program and device for detection of moving body

Similar Documents

Publication Publication Date Title
US8724885B2 (en) Integrated image processor
US20120019728A1 (en) Dynamic Illumination Compensation For Background Subtraction
JP4767240B2 (en) Method and apparatus for detecting video boundary and computer-readable recording medium embodying the same
JP2004522372A (en) Spatio-temporal adaptive noise removal / high-quality image restoration method and high-quality image input device using the same
US20080247640A1 (en) Image Processing Device, Image Processing Method, and Recording Medium on Which the Program is Recorded
JP2012176641A (en) Detection apparatus for parking frame
JP2020529159A (en) Multiplexed high dynamic range image
AU2008200966A1 (en) Stationary object detection using multi-mode background modelling
KR100548611B1 (en) Apparatus and method for edge emphasis in image processing
JP5352859B2 (en) Method and apparatus for maintaining video background using multiple Gaussian distribution models
JP3486229B2 (en) Image change detection device
US5821999A (en) Method and system for fractally interpolating intensity values for a single color component array obtained from a single color sensor
JP4192719B2 (en) Image processing apparatus and method, and program
JP3134845B2 (en) Apparatus and method for extracting object in moving image
EP2176829B1 (en) Arrangement and method for processing image data
JPH07249128A (en) Picture processor for vehicle
JPH04273587A (en) Object detector
JP4861922B2 (en) Car color judgment device
JP2004501575A (en) Image sensor signal defect correction
JP2001222680A (en) License plate number reader
WO2009026966A1 (en) Method of estimating illumination change of images for object detection
KR20180088557A (en) Method and apparatus for Detecting the change area in color image signals
JP3448645B2 (en) Road surface condition determination device
JP2006053801A (en) Object detecting device and object detecting method
JP2726830B2 (en) Road surface freeze detection device