JP2000090240A - Method and device for detecting vehicle - Google Patents

Method and device for detecting vehicle

Info

Publication number
JP2000090240A
JP2000090240A JP10256589A JP25658998A JP2000090240A JP 2000090240 A JP2000090240 A JP 2000090240A JP 10256589 A JP10256589 A JP 10256589A JP 25658998 A JP25658998 A JP 25658998A JP 2000090240 A JP2000090240 A JP 2000090240A
Authority
JP
Japan
Prior art keywords
vehicle
image data
image
vehicle detection
contrast
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10256589A
Other languages
Japanese (ja)
Inventor
Yushiro Nitta
雄四郎 新田
Shiyourin Kiyo
昭倫 許
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP10256589A priority Critical patent/JP2000090240A/en
Publication of JP2000090240A publication Critical patent/JP2000090240A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To accurately detect a vehicle from the entire video area photographing the front by improving the contrast of extracted image data based on information and the numbers of pixels at both the side edges of a road. SOLUTION: The image of the front is picked up by a CCD camera 101 while having a prescribed angle of view, and the fetched video is stored in a storage part 102 as image data. An improving processing part 103 improves the contrast of image data stored in the storage part 102 and based on the improved image data, an edge detecting part 104 detects an edge area. Based on that edge area, a vehicle detecting part 105 detects the vehicle. The improving processing part 103 determines and extracts mutually different small areas (windows) out of the video area formed from image data for one frame, histogram conversion is performed in each window, and the contrast of image data is improved. Thus, the high-contrast image can be provided and the edge area can be highly accurately detected.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、車両検出装置及び
車両検出方法に関し、更に詳しくは、車両の検出精度が
高く、かつ、前方を撮像した映像領域全体から車両を検
出する車両検出方法及び車両検出装置に関するものであ
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a vehicle detection device and a vehicle detection method, and more particularly, to a vehicle detection method and a vehicle detection method which detect a vehicle from an entire image area in which the detection accuracy of the vehicle is high and the front is imaged. The present invention relates to a detection device.

【0002】[0002]

【従来の技術】カーナビゲーションシステムでは、先行
する車両(以下、先行車両という)との距離を算出し、
安全性を判断することが、近年、益々重要視されてお
り、これに伴い、前方を撮像して先行車両を認識する車
両検出方法や車両検出装置が実用化されている。この方
法や装置では、撮像した画像の濃淡値を微分処理して得
られるエッジ画像が、水平成分及び垂直成分のエッジ特
徴を多く含むことを利用して、車両を検出している。
2. Description of the Related Art In a car navigation system, a distance from a preceding vehicle (hereinafter referred to as a preceding vehicle) is calculated,
In recent years, it has become increasingly important to judge safety, and accordingly, a vehicle detection method and a vehicle detection device that image the front and recognize a preceding vehicle have been put to practical use. In this method and apparatus, a vehicle is detected by utilizing that an edge image obtained by differentiating a grayscale value of a captured image includes many edge characteristics of a horizontal component and a vertical component.

【0003】ところで、これらの車両検出方法及び車両
検出装置では、雨天等により画像のコントラストが低い
と、エッジ検出の精度が低くなるという難点があった。
また、撮像した画像の領域が広いため、ヒストグラム変
換等を行って画像データを改善しても、あまり有効な効
果が得られないという難点もあった。この対策として、
撮像する前方の領域を限定して車両を検出する車両検出
方法や車両検出装置が開発されている。領域を限定する
際、通常、以下の(1)や(2)に説明する方法で限定
している。 (1)自車レーン内から車両を検出する。 (2)入力画像の両側に小領域を形成し、小領域内で追
い越し・追い抜き車両を検出する。
[0003] However, these vehicle detection methods and vehicle detection devices have the disadvantage that if the contrast of the image is low due to rain or the like, the accuracy of edge detection is low.
Further, since the area of the captured image is large, there is also a problem that even if the image data is improved by performing histogram conversion or the like, a very effective effect cannot be obtained. As a measure against this,
A vehicle detection method and a vehicle detection device that detect a vehicle by limiting an area in front of an image to be imaged have been developed. When limiting the area, the area is usually limited by the methods described in (1) and (2) below. (1) A vehicle is detected from within the own vehicle lane. (2) A small area is formed on both sides of the input image, and an overtaking / overtaking vehicle is detected in the small area.

【0004】[0004]

【発明が解決しようとする課題】しかし、領域を限定し
て車両を検出する従来の方法(1)では、車線をまたが
る車両を検出するには、限定する領域を大きく設定しな
ければならなくなり、領域を限定しない場合と同様、画
像データを改善しても、あまり有効な効果が得られない
という問題があった。また、従来の方法(2)では、追
い越し車両や追い抜き車両しか検出できないという問題
があった。
However, in the conventional method (1) for detecting a vehicle by limiting an area, in order to detect a vehicle crossing a lane, the area to be limited must be set large. As in the case where the area is not limited, there is a problem that even if the image data is improved, a very effective effect cannot be obtained. Further, the conventional method (2) has a problem that only overtaking vehicles and overtaking vehicles can be detected.

【0005】以上のような事情に照らして、本発明の目
的は、車両の検出精度が高く、かつ、前方を撮像した映
像領域全体から車両を検出する車両検出方法及び車両検
出装置を提供することである。
SUMMARY OF THE INVENTION In view of the above circumstances, an object of the present invention is to provide a vehicle detection method and a vehicle detection device which have high vehicle detection accuracy and detect a vehicle from the entire image area in which an image of the front is captured. It is.

【0006】[0006]

【課題を解決するための手段】上記目的を達成するため
に、本発明に係る車両検出方法は、前方を撮像し、撮像
された映像を画像データとして記憶する第1ステップ
と、前方に延びる道路の両側縁の情報と、検出する車両
の最大車幅及び最小車幅の各設定値に対応する画素数と
を求める第2ステップと、第2ステップで求めた道路の
両側縁の情報と画素数とに基づいて、画像データによっ
て形成される映像領域から相互に異なる小領域を決定し
て抽出する第3ステップと、抽出してなる各抽出領域の
画像データのコントラストを改善する第4ステップと、
コントラストを改善した画像データに基づいてエッジ領
域を検出して車両を検出する第5ステップとを備えてい
ることを特徴としている。
In order to achieve the above object, a vehicle detection method according to the present invention includes a first step of capturing an image of the front, storing the captured image as image data, and a road extending forward. And the number of pixels corresponding to each set value of the maximum vehicle width and the minimum vehicle width of the vehicle to be detected, and the information and the number of pixels of both sides of the road obtained in the second step A third step of determining and extracting mutually different small areas from the video area formed by the image data based on the above, a fourth step of improving the contrast of the image data of each extracted area extracted,
A fifth step of detecting an edge region based on the image data with improved contrast to detect a vehicle.

【0007】これにより、前方を撮像した映像領域全体
から車両を検出する上で、車両の検出精度が高い。
[0007] Accordingly, in detecting the vehicle from the entire image area obtained by imaging the front, the detection accuracy of the vehicle is high.

【0008】好適には、隣り合う抽出領域が、端部で相
互に重なるようにして抽出する。これにより、抽出領域
の境界での検出精度が高くなる。また好適には、第2ス
テップで、両側縁の遠方の交点に相当する道路消失点の
情報を求め、第3ステップでは、道路消失点が一の抽出
領域の中央に位置するようにして抽出する。これによ
り、検出精度が更に向上する。
Preferably, the extraction is performed such that adjacent extraction regions overlap each other at the end. Thereby, the detection accuracy at the boundary of the extraction region is increased. Also preferably, in a second step, information on a road vanishing point corresponding to a distant intersection between both side edges is obtained, and in a third step, the road vanishing point is extracted so as to be located at the center of one extraction region. . Thereby, the detection accuracy is further improved.

【0009】第5ステップでは、例えば、各抽出領域の
画像データをヒストグラム変換してコントラストを改善
する。また、抽出領域は、通常、矩形状である。
In the fifth step, for example, the image data of each extracted area is converted into a histogram to improve the contrast. The extraction area is usually rectangular.

【0010】本発明に係る車両検出装置は、画像処理に
より前方の車両を検出する車両検出装置であって、前方
を撮像する撮像部と、撮像部で撮像された映像を画像デ
ータとして記憶する記憶部と、記憶部に記憶された画像
データによって形成される映像領域から相互に異なる小
領域を決定して抽出し、抽出してなる各抽出領域の画像
データのコントラストを改善する改善処理部と、改善処
理部で改善された画像データに基づいてエッジ領域を検
出するエッジ検出部と、エッジ領域に基づいて車両を検
出する車両検出部とを備えていることを特徴としてい
る。
A vehicle detection device according to the present invention is a vehicle detection device for detecting a vehicle ahead in accordance with image processing. The vehicle detection device includes an imaging unit that captures an image of the front and a storage that stores a video image captured by the imaging unit as image data. And an improvement processing unit that determines and extracts mutually different small areas from the video area formed by the image data stored in the storage unit, and improves the contrast of the image data of each extracted area that is extracted. The image processing apparatus further includes an edge detection unit that detects an edge region based on the image data improved by the improvement processing unit, and a vehicle detection unit that detects a vehicle based on the edge region.

【0011】撮像部は、通常、CCDカメラで構成され
る。本発明に係る車両検出装置により、撮像された映像
のコントラストが低くても、車両を充分に認識すること
ができる。
[0011] The imaging section is usually constituted by a CCD camera. The vehicle detection device according to the present invention can sufficiently recognize a vehicle even when the contrast of a captured image is low.

【0012】[0012]

【発明の実施の形態】以下に、実施形態例を挙げ、添付
図面を参照して、本発明の実施の形態を具体的かつより
詳細に説明する。実施形態例 本実施形態例は、本発明に係る車両検出装置を用いた本
発明に係る車両検出方法の一例である。本実施形態例の
車両検出装置100は、所定の画角を有し、前方を撮像
する撮像部として設けられたCCDカメラ101と、C
CDカメラ101で取り込まれた映像を画像データとし
て記憶する記憶部102とを備えている。また、車両検
出装置100は、記憶部102に記憶された画像データ
のコントラストを改善する改善処理部103と、改善処
理部103で改善された画像データに基づいてエッジ領
域を検出するエッジ検出部104と、エッジ領域に基づ
いて車両を検出する車両検出部105とを備えている。
Embodiments of the present invention will be described below in detail with reference to the accompanying drawings. Embodiment This embodiment is an example of a vehicle detection method according to the present invention using the vehicle detection device according to the present invention. The vehicle detection device 100 according to the present embodiment includes a CCD camera 101 having a predetermined angle of view and provided as an imaging unit for imaging the front,
A storage unit 102 for storing video captured by the CD camera 101 as image data. The vehicle detection device 100 includes an improvement processing unit 103 that improves the contrast of the image data stored in the storage unit 102, and an edge detection unit 104 that detects an edge region based on the image data improved by the improvement processing unit 103. And a vehicle detection unit 105 that detects a vehicle based on the edge area.

【0013】改善処理部103は、1フレームの画像デ
ータによって形成される映像領域から、相互に異なる小
領域(以下、本実施形態例では窓という)を決定して抽
出し、各窓内でヒストグラム変換を行い、画像データの
コントラストを改善する。
The improvement processing unit 103 determines and extracts mutually different small areas (hereinafter, referred to as windows in this embodiment) from a video area formed by one frame of image data, and extracts a histogram within each window. Perform a conversion to improve the contrast of the image data.

【0014】次に、車両検出装置100を用いた車両検
出方法を説明する。図1及び図2は、それぞれ、本実施
形態例での処理フローを示すブロック図及びフローチャ
ート図である。先ず、前方を撮像し、撮像された映像を
画像データとして記憶する第1ステップを行う。図3
は、撮像した映像の模式図である。
Next, a vehicle detection method using the vehicle detection device 100 will be described. FIG. 1 and FIG. 2 are a block diagram and a flowchart, respectively, showing a processing flow in the present embodiment. First, a first step of capturing an image of the front and storing the captured video as image data is performed. FIG.
Is a schematic diagram of a captured video.

【0015】次いで、前方に延びる道路の両側縁の情報
と、検出する車両の最大車幅及び最小車幅の各設定値に
対応する画素数とを求める第2ステップを行う。画素数
は、以下のようにして求める。まず、各領域について、
設定されたMaxCarx(検出対象車両の最大車幅)及びMin
Carx(検出対象車両の最小車幅)に基づき xdif=MaxCarx-MinCarx を算出し、許容最大車幅maxcarx、及び、許容最小車幅m
incarxを以下のように求める。 maxcarx:(carx+3/5×xdif)と(MaxCarx)とを比較し
て小さい方の値 mincarx:(carx-2/5×xdif)と(MinCarx)とを比較し
て大きい方の値 ここで、carxは、上方の映像領域を構成する窓では ca
rx=MinCarx 下方の映像領域を構成する窓では carx=MinCarx+4/5×
xdifである。上方及び下方の判断基準については、例え
ば映像領域の上半分及び下半分を判断基準とする。
Next, a second step of obtaining information on both side edges of the road extending forward and the number of pixels corresponding to each set value of the maximum vehicle width and the minimum vehicle width of the vehicle to be detected is performed. The number of pixels is obtained as follows. First, for each area,
Set MaxCarx (maximum width of detection target vehicle) and Min
Xdif = MaxCarx-MinCarx is calculated based on Carx (minimum vehicle width of the detection target vehicle), and the maximum allowable vehicle width maxcarx and the minimum allowable vehicle width m
Find incarx as follows. maxcarx: The smaller value comparing (carx + 3/5 × xdif) with (MaxCarx) mincarx: The larger value comparing (carx-2 / 5 × xdif) with (MinCarx) , Carx is ca in the window that constitutes the upper image area
rx = MinCarx Carx = MinCarx + 4/5 ×
xdif. For the upper and lower determination criteria, for example, the upper half and the lower half of the image area are determined as the determination criteria.

【0016】更に、許容最大車幅maxcarxに対応する標
準底辺高さmaxeyを求める。標準底辺高さとは、CCD
カメラの画角によって異なるが、平均的な大きさの乗用
車の車幅がmaxcarxに相当する画素数に見える画像上の
垂直方向の高さ位置のことである。
Further, a standard base height maxey corresponding to the allowable maximum vehicle width maxcarx is obtained. Standard base height is CCD
Although it depends on the angle of view of the camera, it is a vertical height position on an image in which the width of an average-sized passenger car looks like the number of pixels corresponding to maxcarx.

【0017】続いて、第2ステップで求めた道路の両側
縁の情報と画素数とに基づいて、画像データによって形
成される映像領域から相互に異なる窓を決定して抽出す
る第3ステップを行う。第3ステップは、以下のように
して行う。
Subsequently, a third step of determining and extracting mutually different windows from the image area formed by the image data is performed based on the information on the both side edges of the road and the number of pixels obtained in the second step. . The third step is performed as follows.

【0018】先ず、窓の下端高さEYを標準底辺高さとす
る。検出に必要な車の高さを車幅の1.5倍と設定する
と、窓の上端高さSYは、以下の式によって算出される。 SY=EY+1.5×maxcarx
First, the lower end height EY of the window is set as a standard base height. When the height of the vehicle required for detection is set to 1.5 times the vehicle width, the height SY of the upper end of the window is calculated by the following equation. SY = EY + 1.5 × maxcarx

【0019】更に、窓の左端の水平方向位置SX、右端の
水平方向位置EXを以下のようにして決定する。窓の水平
方向位置が映像領域の水平方向の中央位置を含む場合、
自車レーンの先行車両の検出精度を上げるために、道路
両側縁の遠方の交点に相当する道路消失点が中央になる
ようにし、そこから検出対象の最大車幅だけ左右にそれ
ぞれ離れた位置をSX及びEXとする。 SX=foex-maxcarx EX=foex+maxcarx ここで、foexは、消失点の水平方向位置(x座標)であ
る。
Further, the horizontal position SX at the left end of the window and the horizontal position EX at the right end of the window are determined as follows. If the horizontal position of the window includes the horizontal center position of the video area,
In order to increase the detection accuracy of the preceding vehicle in the own vehicle lane, the road vanishing point corresponding to the distant intersection of both sides of the road is set in the center, and the positions separated from the left and right by the maximum vehicle width of the detection target from there are SX and EX. SX = foex-maxcarx EX = foex + maxcarx Here, foex is the horizontal position (x coordinate) of the vanishing point.

【0020】窓が映像領域の左端を構成する場合、SXを
窓の下端高さに対応する道路左端に設定する。また、右
端EXの白線108(図3参照)をまたがっている車をも
検出するために、左端SXから検出対象の最大車幅の例え
ば2倍だけ右方の水平方向位置と道路消失点の水平方向
位置とのうち、左端に近い方を右端EXに設定する。 SX=sx EX=(foexと 2×MaxCarx のうち SX に近い方の値) ここで、sxは、窓の下端高さがEYである場合に対応する
道路端の水平方向位置である。窓が映像領域の右端を構
成する場合も同様である。
When the window forms the left end of the image area, SX is set to the left end of the road corresponding to the height of the lower end of the window. Further, in order to also detect a vehicle that straddles the white line 108 (see FIG. 3) at the right end EX, the horizontal position of the right side of the maximum vehicle width to be detected and the horizontal position of the road vanishing point by, for example, twice the maximum vehicle width to be detected from the left end SX. The direction position closer to the left end is set to the right end EX. SX = sx EX = (the value of foex and 2 × MaxCarx which is closer to SX) Here, sx is the horizontal position of the road edge corresponding to the case where the lower end height of the window is EY. The same applies when the window forms the right end of the video area.

【0021】道路の両側縁の情報と、SY、EY、SX、及
び、EXとに基づき、抽出する窓の映像領域内の位置、及
び、寸法を設定して抽出する(図3参照)。窓の形状は
矩形である。抽出する際、同一高さ位置では同一の検出
対象車幅を有し、かつ、垂直方向の各検出窓同士で比較
すると、下方になるに従い、検出対象の最大車幅MaxCar
x及び最小車幅MinCarxを共に増加させつつ、窓を抽出す
る。本実施形態例では、図3に、抽出した窓111〜1
15を示す。
Based on information on both side edges of the road and SY, EY, SX, and EX, the position and size of the window to be extracted in the image area are set and extracted (see FIG. 3). The shape of the window is rectangular. At the time of extraction, the same height position has the same detection target vehicle width, and when compared with each other in the vertical detection windows, the lower the detection target vehicle width, the lower the maximum vehicle width MaxCar
The window is extracted while increasing both x and the minimum vehicle width MinCarx. In the present embodiment, the extracted windows 111 to 1 are shown in FIG.
15 is shown.

【0022】次いで、抽出した各窓内でヒストグラム変
換を行い、画像データのコントラストを改善する第4ス
テップを行う。更に、コントラストを改善した画像デー
タに基づいてエッジ領域を検出して車両を検出する第5
ステップを行う。
Next, a histogram conversion is performed within each of the extracted windows to perform a fourth step of improving the contrast of the image data. Further, a fifth method for detecting a vehicle by detecting an edge region based on image data with improved contrast is performed.
Perform the steps.

【0023】本実施形態例により、撮像した映像のコン
トラストが低くても、高コントラストな画像データを得
ることができ、エッジ領域を高い精度で検出できる。
According to the present embodiment, high-contrast image data can be obtained and the edge region can be detected with high accuracy even if the contrast of the captured image is low.

【0024】尚、抽出する窓の数に特に制限はない。ま
た、ヒストグラム変換を行うことにより画像のコントラ
ストを改善したが、ヒストグラム変換に代えて鮮鋭化な
どによりコントラストを改善してもよい。
There is no particular limitation on the number of windows to be extracted. Further, the contrast of the image is improved by performing the histogram conversion, but the contrast may be improved by sharpening or the like instead of the histogram conversion.

【0025】[0025]

【発明の効果】本発明によれば、道路の両側縁の情報と
画素数とに基づいて、画像データによって形成される映
像領域から相互に異なる小領域を決定して抽出し、抽出
してなる各抽出領域の画像データのコントラストを改善
する。これにより、車両の検出精度を高めることができ
る。
According to the present invention, mutually different small areas are determined and extracted from a video area formed by image data based on information on both side edges of a road and the number of pixels. Improve the contrast of the image data of each extraction area. Thereby, the detection accuracy of the vehicle can be improved.

【図面の簡単な説明】[Brief description of the drawings]

【図1】実施形態例での処理フローを示すブロック図で
ある。
FIG. 1 is a block diagram showing a processing flow in an embodiment.

【図2】実施形態例での処理フローを示すフローチャー
ト図である。
FIG. 2 is a flowchart illustrating a processing flow in the embodiment.

【図3】実施形態例で撮像した映像の模式図である。FIG. 3 is a schematic diagram of an image captured in the embodiment.

【符号の説明】[Explanation of symbols]

100 車両検出装置 101 CCDカメラ 102 記憶部 103 改善処理部 104 エッジ検出部 105 車両検出部 108 白線 111 窓 112 窓 113 窓 114 窓 115 窓 REFERENCE SIGNS LIST 100 vehicle detection device 101 CCD camera 102 storage unit 103 improvement processing unit 104 edge detection unit 105 vehicle detection unit 108 white line 111 window 112 window 113 window 114 window 115 window

フロントページの続き Fターム(参考) 5B057 AA16 DA06 DA08 DB02 DC07 DC16 DC23 5C054 CC03 EA01 ED03 EJ04 FC12 FC14 FC16 GB01 HA30 5H180 AA01 CC04 LL04 Continuation of the front page F term (reference) 5B057 AA16 DA06 DA08 DB02 DC07 DC16 DC23 5C054 CC03 EA01 ED03 EJ04 FC12 FC14 FC16 GB01 HA30 5H180 AA01 CC04 LL04

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 前方を撮像し、撮像された映像を画像デ
ータとして記憶する第1ステップと、 前方に延びる道路の両側縁の情報と、検出する車両の最
大車幅及び最小車幅の各設定値に対応する画素数とを求
める第2ステップと、 第2ステップで求めた道路の両側縁の情報と画素数とに
基づいて、画像データによって形成される映像領域から
相互に異なる小領域を決定して抽出する第3ステップ
と、 抽出してなる各抽出領域の画像データのコントラストを
改善する第4ステップと、 コントラストを改善した画像データに基づいてエッジ領
域を検出して車両を検出する第5ステップとを備えてい
ることを特徴とする車両検出方法。
1. A first step of capturing an image of the front and storing the captured image as image data, information on both side edges of a road extending forward, and setting of a maximum vehicle width and a minimum vehicle width of a vehicle to be detected. A second step of obtaining the number of pixels corresponding to the value, and determining mutually different small areas from the image area formed by the image data based on the information on both side edges of the road and the number of pixels obtained in the second step. A fourth step of improving the contrast of the image data of each extracted region extracted, and a fifth step of detecting an edge region based on the improved image data to detect a vehicle. And a vehicle detection method.
【請求項2】 隣り合う抽出領域が、端部で相互に重な
ることを特徴とする請求項1に記載の車両検出方法。
2. The vehicle detection method according to claim 1, wherein adjacent extraction regions overlap each other at an end.
【請求項3】 第2ステップで、両側縁の遠方の交点に
相当する道路消失点の情報を求め、 第3ステップでは、道路消失点が一の抽出領域の中央に
位置するようにして抽出することを特徴とする請求項1
又は2に記載の車両検出方法。
3. In a second step, information on a road vanishing point corresponding to a distant intersection between both side edges is obtained, and in a third step, the road vanishing point is extracted so as to be located at the center of one extraction area. 2. The method according to claim 1, wherein
Or the vehicle detection method according to 2.
【請求項4】 第5ステップでは、各抽出領域の画像デ
ータをヒストグラム変換してコントラストを改善するこ
とを特徴とする請求項1から3のうち何れか1項に記載
の車両検出方法。
4. The vehicle detection method according to claim 1, wherein in the fifth step, image data of each extracted area is subjected to histogram conversion to improve contrast.
【請求項5】 抽出領域が矩形状であることを特徴とす
る請求項1から4のうち何れか1項に記載の車両検出方
法。
5. The vehicle detection method according to claim 1, wherein the extraction area has a rectangular shape.
【請求項6】 画像処理により前方の車両を検出する車
両検出装置であって、 前方を撮像する撮像部と、 撮像部で撮像された映像を画像データとして記憶する記
憶部と、 記憶部に記憶された画像データによって形成される映像
領域から相互に異なる小領域を決定して抽出し、抽出し
てなる各抽出領域の画像データのコントラストを改善す
る改善処理部と、 改善処理部で改善された画像データに基づいてエッジ領
域を検出するエッジ検出部と、 エッジ領域に基づいて車両を検出する車両検出部とを備
えていることを特徴とする車両検出装置。
6. A vehicle detection device for detecting a preceding vehicle by image processing, comprising: an image pickup unit for picking up a front image; a storage unit for storing a video image picked up by the image pickup unit as image data; An improved processing unit that determines and extracts mutually different small regions from the video region formed by the extracted image data, and improves the contrast of the image data of each extracted region. A vehicle detection device, comprising: an edge detection unit that detects an edge region based on image data; and a vehicle detection unit that detects a vehicle based on the edge region.
【請求項7】 撮像部がCCDカメラで構成されること
を特徴とする請求項6に記載の車両検出装置。
7. The vehicle detection device according to claim 6, wherein the imaging unit is configured by a CCD camera.
JP10256589A 1998-09-10 1998-09-10 Method and device for detecting vehicle Pending JP2000090240A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10256589A JP2000090240A (en) 1998-09-10 1998-09-10 Method and device for detecting vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10256589A JP2000090240A (en) 1998-09-10 1998-09-10 Method and device for detecting vehicle

Publications (1)

Publication Number Publication Date
JP2000090240A true JP2000090240A (en) 2000-03-31

Family

ID=17294737

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10256589A Pending JP2000090240A (en) 1998-09-10 1998-09-10 Method and device for detecting vehicle

Country Status (1)

Country Link
JP (1) JP2000090240A (en)

Similar Documents

Publication Publication Date Title
US8005266B2 (en) Vehicle surroundings monitoring apparatus
US7957559B2 (en) Apparatus and system for recognizing environment surrounding vehicle
JP3630100B2 (en) Lane detection device
JP4157620B2 (en) Moving object detection apparatus and method
JP2003296736A (en) Device for detecting obstacle and method thereof
US8730325B2 (en) Traveling lane detector
JP2007179386A (en) Method and apparatus for recognizing white line
JP2008158958A (en) Road surface determination method and road surface determination device
US20090052742A1 (en) Image processing apparatus and method thereof
CN111967396A (en) Processing method, device and equipment for obstacle detection and storage medium
JP3656056B2 (en) Interrupting vehicle detection device and method
JPH1173514A (en) Recognition device for vehicle
JPH11195127A (en) Method for recognizing white line and device therefor
JP2014106739A (en) In-vehicle image processing device
JP5062091B2 (en) Moving object identification device, computer program, and optical axis direction specifying method
JP3807651B2 (en) White line recognition device
JP3868915B2 (en) Forward monitoring apparatus and method
JP2962799B2 (en) Roadside detection device for mobile vehicles
JP3260503B2 (en) Runway recognition device and runway recognition method
JP4070450B2 (en) Forward vehicle recognition device and recognition method
CN114973157A (en) Vehicle separation method, electronic device, and computer-readable storage medium
JP2008040965A (en) Road surface estimation device
JP6218514B2 (en) Pedestrian detection device and traffic control system
JP2001092979A (en) Unsuitable image detecting method
JP2000090240A (en) Method and device for detecting vehicle