JP3632088B2 - Vehicle detection method - Google Patents

Vehicle detection method Download PDF

Info

Publication number
JP3632088B2
JP3632088B2 JP2002095279A JP2002095279A JP3632088B2 JP 3632088 B2 JP3632088 B2 JP 3632088B2 JP 2002095279 A JP2002095279 A JP 2002095279A JP 2002095279 A JP2002095279 A JP 2002095279A JP 3632088 B2 JP3632088 B2 JP 3632088B2
Authority
JP
Japan
Prior art keywords
vehicle
road
image
peak
road surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2002095279A
Other languages
Japanese (ja)
Other versions
JP2003296878A (en
Inventor
達郎 平山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute for Land and Infrastructure Management
Original Assignee
National Institute for Land and Infrastructure Management
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute for Land and Infrastructure Management filed Critical National Institute for Land and Infrastructure Management
Priority to JP2002095279A priority Critical patent/JP3632088B2/en
Publication of JP2003296878A publication Critical patent/JP2003296878A/en
Application granted granted Critical
Publication of JP3632088B2 publication Critical patent/JP3632088B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、道路を走行する車両を撮影して車両の位置を検出する車両検出方法に関するものである。
【0002】
【従来の技術】
従来、車両検出方法としては、例えば、CCDカメラ等の撮影手段で撮影して得られた画像と車両が通行していない状態での画像とを比較して車両の位置を検出する背景差分方式が知られている。この方式により、撮影手段で得られた画像から車両の位置を検出することができる。
【0003】
【発明が解決しようとする課題】
しかし、従来の車両検出方法では、雨天時に路面で反射して発生する車両の反射像を車両であると検出してしまい車両の位置を正確に検出できないおそれがある。
【0004】
本発明は、上記問題点を解消する為になされたものであり、車両位置の検出精度の向上が図れる車両検出方法を提供することを目的とする。
【0005】
【課題を解決するための手段】
このような目的を達成するために、本発明に係る車両検出方法は、道路を走行する車両を撮影して車両の位置を検出する車両検出方法であって、車両を撮影してない晴天時のときの基本画像データと道路を走行する車両を撮影した画像データとの輝度の値を比較して、輝度値の差分により前記道路の路面反射の有無を判断する路面判断工程と、前記道路の路面反射があると判断たときに、車両を含む撮影画像の一部の領域である切出画像を切り出す工程と、前記切出画像の各画素の輝度値が大きく変化するエッジ部を抽出するエッジ処理工程と、前記エッジ処理した処理画像の各画素について道路の方向の輝度を加算する加算工程と、前記加算の結果に基づいて前記車両の位置を検出する検出工程とを備え、道路の路面反射があると判断したときに、前記加算工程で加算された道路の横幅方向の輝度の各加算値について第1のピーク及び第2のピークを検出した後、前記第1のピークとなる位置と前記第2のピークとなる位置との間において最小値となる位置を検出し、その最小値の位置を前記車両の先頭部分として前記車両の位置を検出するとともに、前記道路の路面反射がないと判断したときに、背景差分処理及び前記エッジ処理により前記車両の位置を検出することを特徴とする。
【0007】
この発明によれば、道路の路面反射があると判断されたときに、画像をエッジ処理した処理画像の各画素について横方向の輝度を加算する。その横方向の輝度を加算して得られた値は、車両とその反射像とに対応する位置において大きくなる(ピークを持つ)傾向がある。逆に、車両とその反射像との境界に対応する位置において、この値は、ピークでの値に比べ比較的小さくなる傾向がある。これら傾向を利用することで車両と反射像との境界位置が正確に判断される。従って、撮影した画像において雨天時などであっても車両の位置を正確に検出することができる。
【0008】
【発明の実施の形態】
以下、添付図面に基づき、本発明の実施の形態について説明する。なお、各図において同一要素には同一の符号を付し、重複する説明を省略する。また、図面の寸法比率は、説明のものと必ずしも一致していない。
【0009】
実施の形態に係る車両検出方法について説明する。
【0010】
図1に本実施の形態に係る車両検出方法の実施に用いられる車両検出装置の構成図を示す。図1に示すように、車両検出装置1は、道路2を走行する車両3を撮影した画像に基づいて車両の位置を検出するものであって、例えば、検出された車両位置を示す情報を他の車両4に報知する衝突防止支援などに用いられる。この車両検出装置1は、CCD(Charge Coupled Device)カメラ10、画像処理装置20を備えている。
【0011】
CCDカメラ10は、車両3を撮影するものであり、例えば道路2の斜め上方に固定され、道路2を走行する車両3を前方又は後方の斜め上方から撮影する。CCDカメラ10は、動画として撮影可能な撮像カメラが用いられるが、静止画として撮影するものであっても良い。
【0012】
車両検出装置1は、さらに、画像処理装置20を備えている。画像処理装置20は、CCDカメラ10と接続され、CCDカメラ10からの撮影映像を入力し、その撮影映像における撮影画像を用いて車両の位置を検出するものである。
【0013】
画像処理装置20は、A/D(analogue−to−digital)変換部21、画像メモリ22、画像処理部23及び車両検出部24とを備えて構成されている。A/D変換部21は、入力された画像信号等をアナログ信号からデジタル信号にA/D変換するものであり、例えば、ビデオA−Dコンバータなどが用いられる。なお、カメラ10がデジタル信号を出力するものである場合には、このA/D変換部21の設置を省略する場合もある。
【0014】
画像メモリ22は、デジタル変換された画像信号を画像データとして記憶するものである。例えば、画像データは、x軸、y軸の座標点ごとに濃淡値を持つ画素の集合であり、その画素の濃淡は例えば8ビットの256階調とされる。
【0015】
画像処理部23は、画像メモリ22に記憶された画像データを画像処理するものである。車両検出部24は、画像処理部23によって処理された情報に基づいて、車両の位置を検出するものである。
【0016】
次に、車両検出装置1の動作とともに車両検出方法について詳説する。
【0017】
先ず、道路2を走行している車両3がCCDカメラ10に撮影される。このとき、図2に示すように、道路2の路面が雨などによって濡れている場合、車両3が路面に反射している。CCDカメラ10に撮影された撮影画像30には、車両3及び路面反射した反射像3aの両方が写っている。そして、この反射像3aを含む撮影画像30は、画像信号として画像処理装置20に入力される。
【0018】
画像処理装置20に入力された画像信号は、A/D変換部21によりアナログ信号からデジタル信号にA/D変換される。デジタル変換された画像信号は、画像メモリ22により画像データ(各画素の輝度値)として記憶される。
【0019】
そして、図3に示すフローチャートに従い、画像処理装置20により以下の処理が行われる。すなわち、図3のS1において、画像メモリ22に記憶されている画像データが画像処理部23により読み込まれる。このとき読み込まれるデータは、例えば、車両3が撮影されてない晴天時のときの基本画像データと今回撮影された画像データとの輝度データである。
【0020】
そして、S2に移行し、画像処理部23により路面判断処理が行われる。路面判断処理は、道路2を走行する車両3を撮影した画像の画素における輝度に基づいて道路2の路面反射があるか否かを判断する処理である。ここでは、例えば、基本画像データ(晴天時のデータ)と今回撮影された画像データとの輝度の値を比較して、輝度値の差分が所定値以上の場合に路面反射ありと判断される。
【0021】
また、S2において、路面反射なしと判断されると、S7に移行して、背景差分処理及びエッジ処理による車両検出が行われる。背景差分処理は、撮影画像30から予め記憶された背景画像を差し引く処理であり、エッジ処理は、差し引きされた画像の各画素の輝度値が大きく変化するエッジ部を抽出する処理である。この抽出により車両が検出される。
【0022】
一方、S2において、路面反射ありと判断されると、S3に移行して、画像処理部23により切出処理が行われる。切出処理は、車両3を含む撮影画像30の一部の領域30aを切出画像40として切り出す処理である。図4に切出処理により切り出された切出画像40を示す。切り出される部分は、例えば、背景差分方式などにより決定される。なお、この切出画像40は、道路2の横幅方向及び長さ方向が画像のx軸、y軸となるように座標変換されている。
【0023】
そして、図3のS4に移行して、画像処理部23によりエッジ処理が行われる。エッジ処理は、図4における切出画像40の各画素の輝度値が大きく変化するエッジ部を検出し抽出する処理である。このエッジ処理により、切出画像40上にて車両3及びその反射像3aの輪郭が明確になる。また、このエッジ処理により、車両3及びその反射像3a内においても輝度が大きく変化するエッジ部が明確になる。このエッジ処理された処理画像を図5に示す。
【0024】
そして、図3のS5に移行して、車両検出部24により加算処理が行われる。ここで、加算処理とは、図6に示すように、画像をエッジ処理した処理画像の各画素について横方向、すなわちx軸方向の輝度を加算する処理である。
【0025】
そして、図3のS6に移行して、車両検出部24により検出処理が行われる。ここで、検出処理とは、加算の結果に基づいて車両3の位置を検出する処理である。ここでは、輝度が加算された各加算値の特徴を解析して車両3の位置が検出される。そして、車両検出処理が終了する。
【0026】
次に、図3の車両位置検出処理について図6及び図7を参照して詳説する。
【0027】
図7に図3の車両位置検出処理のフローチャートを示す。
【0028】
車両の位置検出については、先ず、S61において、加算処理で加算された横方向の輝度の各加算値について第1のピークが検出されるとともに、その第1のピークとなる位置Yが検出される(図6)。この第1のピークは、加算処理で加算された横方向の輝度の各加算値における最大値であるので、この最大値を検出することで得ることができる。
【0029】
そして、図7のS62に移行して、加算処理で加算された横方向の輝度の各加算値について第2のピークが検出されるとともに、その第2のピークとなる位置Yが検出される(図6)。ここでいう第2のピークとなる位置は、第1のピークとなる位置から所定距離隔てたY位置領域における加算値のピークであって、第1のピークの値の次に大きな値をとる位置である。
【0030】
その後に、図7のS63に移行して、第1のピークとなる位置Yと第2のピークとなる位置Yとの間において最小値となる位置Yが検出される(図6)。
【0031】
そして、図7のS64に移行して、その最小値の位置Yを車両3の先頭部分として車両3の位置が検出される。
【0032】
以上のように、本実施形態によれば、道路2の路面反射があると判断されたときに、画像をエッジ処理した処理画像の各画素について横方向の輝度を加算する。その横方向の輝度を加算して得られた値は、車両3とその反射像3aとに対応する位置において大きくなる(第1及び第2のピークを持つ)傾向がある。逆に、車両3とその反射像3aとの境界に対応する位置において、この値は、ピークでの値に比べ比較的小さくなる傾向がある。これら傾向を利用することで車両3と反射像3aとの境界位置が正確に判断される。従って、撮影した画像において雨天時などであっても車両3の位置を正確に検出することができる。
【0033】
【発明の効果】
以上詳細に説明したように本発明によれば、撮影した画像において雨天時などであっても車両の位置を正確に検出することができる。
【図面の簡単な説明】
【図1】本実施の形態に係る車両検出方法の実施に用いられる車両検出装置の構成図である。
【図2】CCDカメラに撮影された撮影画像を示す図である。
【図3】本実施の形態に係る車両検出方法における画像処理及び車両検出処理を示すフローチャートである。
【図4】本実施の形態に係る車両検出方法において切出処理され得られた切出画像を示す図である。
【図5】本実施の形態に係る車両検出方法においてエッジ処理され得られた切出画像を示す図である。
【図6】本実施の形態に係る車両検出方法において加算処理された各加算値を示す図である。
【図7】図3における車両位置検出処理のフローチャートである。
【符号の説明】
1…車両検出装置、2…道路、3…車両、10…CCDカメラ、20…画像処理装置、23…画像処理部、24…車両検出部。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a vehicle detection method for detecting a position of a vehicle by photographing a vehicle traveling on a road.
[0002]
[Prior art]
Conventionally, as a vehicle detection method, for example, there is a background difference method that detects the position of a vehicle by comparing an image obtained by photographing with a photographing means such as a CCD camera and an image when the vehicle is not passing. Are known. By this method, the position of the vehicle can be detected from the image obtained by the photographing means.
[0003]
[Problems to be solved by the invention]
However, in the conventional vehicle detection method, the reflected image of the vehicle that is reflected on the road surface in rainy weather is detected as the vehicle, and the vehicle position may not be accurately detected.
[0004]
The present invention has been made to solve the above problems, and an object of the present invention is to provide a vehicle detection method capable of improving the detection accuracy of the vehicle position.
[0005]
[Means for Solving the Problems]
In order to achieve such an object, a vehicle detection method according to the present invention is a vehicle detection method for detecting the position of a vehicle by shooting a vehicle traveling on a road, and when the vehicle is not shooting A road surface determination step of comparing the brightness value of the basic image data and image data of a vehicle traveling on the road, and determining the presence or absence of road surface reflection of the road based on the difference of the brightness value, and the road surface of the road When it is determined that there is reflection, a step of cutting out a cutout image that is a partial region of the captured image including the vehicle, and an edge for extracting an edge portion where the luminance value of each pixel of the cutout image changes greatly A processing step, an addition step of adding the luminance in the width direction of the road for each pixel of the processed image subjected to the edge processing, and a detection step of detecting the position of the vehicle based on the result of the addition , If there is road reflection When the first peak and the second peak are detected for each added value of the luminance in the lateral width direction of the road added in the adding step, the position corresponding to the first peak and the second peak are detected. When detecting the position of the minimum value between the position and the position of the minimum value of the position of the vehicle as the head portion of the vehicle, and determining that there is no road surface reflection of the road, The position of the vehicle is detected by background difference processing and edge processing .
[0007]
According to the present invention, when it is determined that there is road surface reflection on the road, the luminance in the horizontal direction is added to each pixel of the processed image obtained by performing edge processing on the image. The value obtained by adding the luminances in the horizontal direction tends to increase (have a peak) at a position corresponding to the vehicle and its reflected image. Conversely, at a position corresponding to the boundary between the vehicle and its reflected image, this value tends to be relatively small compared to the value at the peak. By using these tendencies, the boundary position between the vehicle and the reflected image can be accurately determined. Therefore, the position of the vehicle can be accurately detected even in rainy weather or the like in the captured image.
[0008]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. In addition, in each figure, the same code | symbol is attached | subjected to the same element and the overlapping description is abbreviate | omitted. Further, the dimensional ratios in the drawings do not necessarily match those described.
[0009]
A vehicle detection method according to the embodiment will be described.
[0010]
FIG. 1 shows a configuration diagram of a vehicle detection device used for carrying out the vehicle detection method according to the present embodiment. As shown in FIG. 1, the vehicle detection device 1 detects the position of a vehicle based on an image obtained by photographing a vehicle 3 traveling on a road 2. For example, the vehicle detection device 1 may include other information indicating the detected vehicle position. This is used for collision prevention support for informing the vehicle 4 of the vehicle. The vehicle detection device 1 includes a CCD (Charge Coupled Device) camera 10 and an image processing device 20.
[0011]
The CCD camera 10 shoots the vehicle 3, and is fixed, for example, obliquely above the road 2, and photographs the vehicle 3 traveling on the road 2 from the diagonally upper front or rear. The CCD camera 10 is an imaging camera that can shoot as a moving image, but may be a camera that shoots as a still image.
[0012]
The vehicle detection device 1 further includes an image processing device 20. The image processing apparatus 20 is connected to the CCD camera 10, receives a captured image from the CCD camera 10, and detects the position of the vehicle using the captured image in the captured image.
[0013]
The image processing apparatus 20 includes an A / D (analogue-to-digital) conversion unit 21, an image memory 22, an image processing unit 23, and a vehicle detection unit 24. The A / D conversion unit 21 performs A / D conversion of an input image signal or the like from an analog signal to a digital signal, and for example, a video A-D converter or the like is used. When the camera 10 outputs a digital signal, the installation of the A / D conversion unit 21 may be omitted.
[0014]
The image memory 22 stores the digitally converted image signal as image data. For example, the image data is a set of pixels having gradation values for each coordinate point on the x-axis and y-axis, and the gradation of the pixels is, for example, 256 bits of 8 bits.
[0015]
The image processing unit 23 performs image processing on the image data stored in the image memory 22. The vehicle detection unit 24 detects the position of the vehicle based on the information processed by the image processing unit 23.
[0016]
Next, the vehicle detection method will be described in detail along with the operation of the vehicle detection device 1.
[0017]
First, the vehicle 3 traveling on the road 2 is photographed by the CCD camera 10. At this time, as shown in FIG. 2, when the road surface of the road 2 is wet due to rain or the like, the vehicle 3 is reflected on the road surface. The captured image 30 captured by the CCD camera 10 includes both the vehicle 3 and the reflected image 3a reflected from the road surface. The captured image 30 including the reflected image 3a is input to the image processing device 20 as an image signal.
[0018]
The image signal input to the image processing apparatus 20 is A / D converted from an analog signal to a digital signal by the A / D converter 21. The digitally converted image signal is stored as image data (luminance value of each pixel) by the image memory 22.
[0019]
Then, the following processing is performed by the image processing apparatus 20 in accordance with the flowchart shown in FIG. That is, the image data stored in the image memory 22 is read by the image processing unit 23 in S1 of FIG. The data read at this time is, for example, the luminance data of the basic image data when the vehicle 3 is in fine weather and the image data captured this time.
[0020]
Then, the process proceeds to S <b> 2, and the road surface determination process is performed by the image processing unit 23. The road surface determination process is a process of determining whether or not there is road surface reflection of the road 2 based on the luminance in the pixel of the image obtained by photographing the vehicle 3 traveling on the road 2. Here, for example, the brightness values of the basic image data (data in fine weather) and the image data captured this time are compared.
[0021]
If it is determined in S2 that there is no road surface reflection, the process proceeds to S7 and vehicle detection is performed by background difference processing and edge processing. The background difference process is a process of subtracting a background image stored in advance from the photographed image 30, and the edge process is a process of extracting an edge portion where the luminance value of each pixel of the subtracted image changes greatly. A vehicle is detected by this extraction.
[0022]
On the other hand, if it is determined in S2 that there is road surface reflection, the process proceeds to S3, and the image processing unit 23 performs a cutting process. The cutout process is a process of cutting out a partial region 30 a of the captured image 30 including the vehicle 3 as the cutout image 40. FIG. 4 shows a cut image 40 cut out by the cut processing. The part to be cut out is determined by, for example, a background difference method. Note that the cutout image 40 is coordinate-transformed so that the horizontal width direction and the length direction of the road 2 are the x-axis and y-axis of the image.
[0023]
Then, the process proceeds to S4 in FIG. 3, and the image processing unit 23 performs edge processing. The edge processing is processing for detecting and extracting an edge portion where the luminance value of each pixel of the cut image 40 in FIG. 4 changes greatly. By this edge processing, the contours of the vehicle 3 and the reflected image 3a thereof are clarified on the cut image 40. In addition, this edge processing makes it clear where the luminance changes greatly in the vehicle 3 and the reflected image 3a. FIG. 5 shows the processed image after the edge processing.
[0024]
And it transfers to S5 of FIG. 3, and the addition process is performed by the vehicle detection part 24. FIG. Here, as shown in FIG. 6, the addition processing is processing for adding the luminance in the horizontal direction, that is, the x-axis direction, for each pixel of the processed image obtained by performing edge processing on the image.
[0025]
And it transfers to S6 of FIG. 3, and a detection process is performed by the vehicle detection part 24. FIG. Here, the detection process is a process of detecting the position of the vehicle 3 based on the addition result. Here, the position of the vehicle 3 is detected by analyzing the feature of each added value to which the luminance has been added. Then, the vehicle detection process ends.
[0026]
Next, the vehicle position detection process of FIG. 3 will be described in detail with reference to FIGS.
[0027]
FIG. 7 shows a flowchart of the vehicle position detection process of FIG.
[0028]
The position detection of the vehicle, first, in S61, with the first peak is detected for each sum of lateral luminance which is added by the adding process, the position Y 1 to be its first peak is detected (FIG. 6). Since this first peak is the maximum value in each added value of the luminance in the horizontal direction added by the addition process, it can be obtained by detecting this maximum value.
[0029]
Then, the process proceeds to S62 in FIG. 7, and the second peak is detected for each added value of the luminance in the horizontal direction added by the addition process, and the position Y2 serving as the second peak is detected. (FIG. 6). The position that becomes the second peak here is the peak of the added value in the Y position region that is a predetermined distance away from the position that becomes the first peak, and is the position that takes the next largest value after the value of the first peak. It is.
[0030]
Thereafter, the processing proceeds to S63 in FIG. 7, the position Y 3 is detected as the minimum value between the position Y 2 to the position Y 1 to be the first peak is the second peak (Fig. 6) .
[0031]
Then, the processing proceeds to S64 in FIG. 7, the position of the vehicle 3 is detected the position Y 3 in its minimum value as the first portion of the vehicle 3.
[0032]
As described above, according to the present embodiment, when it is determined that there is road surface reflection on the road 2, the luminance in the horizontal direction is added to each pixel of the processed image obtained by performing edge processing on the image. The value obtained by adding the luminances in the horizontal direction tends to be large (having first and second peaks) at positions corresponding to the vehicle 3 and the reflected image 3a. Conversely, at a position corresponding to the boundary between the vehicle 3 and its reflected image 3a, this value tends to be relatively small compared to the value at the peak. By using these tendencies, the boundary position between the vehicle 3 and the reflected image 3a is accurately determined. Accordingly, the position of the vehicle 3 can be accurately detected even in rainy weather or the like in the captured image.
[0033]
【The invention's effect】
As described above in detail, according to the present invention, it is possible to accurately detect the position of a vehicle even in rainy weather or the like in a photographed image.
[Brief description of the drawings]
FIG. 1 is a configuration diagram of a vehicle detection device used to implement a vehicle detection method according to the present embodiment.
FIG. 2 is a view showing a photographed image photographed by a CCD camera.
FIG. 3 is a flowchart showing image processing and vehicle detection processing in the vehicle detection method according to the present embodiment.
FIG. 4 is a diagram showing a cut-out image obtained by cut-out processing in the vehicle detection method according to the present embodiment.
FIG. 5 is a diagram showing a cut-out image obtained by performing edge processing in the vehicle detection method according to the present embodiment.
FIG. 6 is a diagram showing each added value subjected to addition processing in the vehicle detection method according to the present embodiment.
7 is a flowchart of a vehicle position detection process in FIG.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Vehicle detection apparatus, 2 ... Road, 3 ... Vehicle, 10 ... CCD camera, 20 ... Image processing apparatus, 23 ... Image processing part, 24 ... Vehicle detection part.

Claims (1)

道路を走行する車両を撮影して車両の位置を検出する車両検出方法であって、
車両を撮影してない晴天時のときの基本画像データと道路を走行する車両を撮影した画像データとの輝度の値を比較して、輝度値の差分により前記道路の路面反射の有無を判断する路面判断工程と、
前記道路の路面反射があると判断たときに、車両を含む撮影画像の一部の領域である切出画像を切り出す工程と、
前記切出画像の各画素の輝度値が大きく変化するエッジ部を抽出するエッジ処理工程と、
前記エッジ処理した処理画像の各画素について道路の方向の輝度を加算する加算工程と、
前記加算の結果に基づいて前記車両の位置を検出する検出工程とを備え
道路の路面反射があると判断したときに、前記加算工程で加算された道路の横幅方向の輝度の各加算値について第1のピーク及び第2のピークを検出した後、前記第1のピークとなる位置と前記第2のピークとなる位置との間において最小値となる位置を検出し、その最小値の位置を前記車両の先頭部分として前記車両の位置を検出するとともに、
前記道路の路面反射がないと判断したときに、背景差分処理及び前記エッジ処理により前記車両の位置を検出することを特徴とする車両検出方法。
A vehicle detection method for detecting a vehicle position by photographing a vehicle traveling on a road ,
Compare the brightness value of the basic image data in fine weather when the vehicle is not photographed and the image data photographed of the vehicle traveling on the road, and determine the presence or absence of road surface reflection on the road based on the difference in the brightness value Road surface judgment process,
When it is determined that there is road surface reflection of the road , a step of cutting out a cut-out image that is a partial region of the captured image including the vehicle;
An edge processing step of extracting an edge portion where the luminance value of each pixel of the cut-out image greatly changes;
An adding step of adding the luminance of the horizontal width direction of the road for each pixel of the edge-treated processed image,
A detection step of detecting the position of the vehicle based on the result of the addition ,
When it is determined that there is road surface reflection of the road, the first peak and the second peak are detected for each added value of the luminance in the width direction of the road added in the adding step, and then the first peak and And detecting the position of the minimum value between the position and the position of the second peak, and detecting the position of the vehicle with the position of the minimum value as the head portion of the vehicle,
A vehicle detection method comprising: detecting a position of the vehicle by background difference processing and edge processing when it is determined that there is no road surface reflection of the road .
JP2002095279A 2002-03-29 2002-03-29 Vehicle detection method Expired - Lifetime JP3632088B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002095279A JP3632088B2 (en) 2002-03-29 2002-03-29 Vehicle detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002095279A JP3632088B2 (en) 2002-03-29 2002-03-29 Vehicle detection method

Publications (2)

Publication Number Publication Date
JP2003296878A JP2003296878A (en) 2003-10-17
JP3632088B2 true JP3632088B2 (en) 2005-03-23

Family

ID=29387182

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002095279A Expired - Lifetime JP3632088B2 (en) 2002-03-29 2002-03-29 Vehicle detection method

Country Status (1)

Country Link
JP (1) JP3632088B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5077088B2 (en) * 2008-06-17 2012-11-21 住友電気工業株式会社 Image processing apparatus and image processing method
JP5423566B2 (en) * 2010-04-28 2014-02-19 富士通株式会社 Object detection device, object detection method, and program
JP6314435B2 (en) 2013-11-13 2018-04-25 株式会社デンソー Driver monitoring device

Also Published As

Publication number Publication date
JP2003296878A (en) 2003-10-17

Similar Documents

Publication Publication Date Title
US7209832B2 (en) Lane recognition image processing apparatus
JP4248558B2 (en) Road marking line detection device
JP3083918B2 (en) Image processing device
JP5068134B2 (en) Target area dividing method and target area dividing apparatus
JP5012396B2 (en) White line detection device, parking and stopping support device, and white line detection method
JP3800785B2 (en) White line recognition device
JP3330285B2 (en) Vehicle white line detection device
JP3341605B2 (en) Image processing device for vehicles
JP3632088B2 (en) Vehicle detection method
JP3395289B2 (en) Lane recognition device
JP2007189432A (en) Imaging apparatus for vehicle
JP2003162723A (en) Image processing program
JP3390122B2 (en) Vehicle white line detection device
JP3198258B2 (en) Parked vehicle detection method and device
JP3175509B2 (en) Road white line detector
JPH09288737A (en) Onboard picture processor
JP2876493B2 (en) Vehicle dynamics measurement method
JP4580117B2 (en) Parking vehicle detection device
JP3053723B2 (en) License plate character recognition method and device
JP2726830B2 (en) Road surface freeze detection device
JPH1097625A (en) Parking vehicle detecting system
JP2001101428A (en) Image processor
JP2001229389A (en) Shadow change area decision device, image decision device using the area decision device, image generation device and shadow intensity ratio arithmetic unit used to the generation device
JP2814315B2 (en) Vehicle dynamics measurement device
JP2004240636A (en) White line detection device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040517

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040907

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041018

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20041124

R150 Certificate of patent or registration of utility model

Ref document number: 3632088

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

EXPY Cancellation because of completion of term