JP2006088940A - Collision warning device for vehicle and collision warning method for vehicle - Google Patents

Collision warning device for vehicle and collision warning method for vehicle Download PDF

Info

Publication number
JP2006088940A
JP2006088940A JP2004278504A JP2004278504A JP2006088940A JP 2006088940 A JP2006088940 A JP 2006088940A JP 2004278504 A JP2004278504 A JP 2004278504A JP 2004278504 A JP2004278504 A JP 2004278504A JP 2006088940 A JP2006088940 A JP 2006088940A
Authority
JP
Japan
Prior art keywords
collision
vehicle
collision time
image
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004278504A
Other languages
Japanese (ja)
Other versions
JP4075879B2 (en
Inventor
Shogo Watanabe
省吾 渡辺
Masahiko Sakamoto
雅彦 阪本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2004278504A priority Critical patent/JP4075879B2/en
Priority to US11/216,168 priority patent/US7262710B2/en
Priority to DE602005011084T priority patent/DE602005011084D1/en
Priority to EP05019471A priority patent/EP1640937B1/en
Publication of JP2006088940A publication Critical patent/JP2006088940A/en
Application granted granted Critical
Publication of JP4075879B2 publication Critical patent/JP4075879B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Emergency Alarm Devices (AREA)
  • Traffic Control Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To efficiently calculate only a collision time with an object with which its own vehicle is likely to collide. <P>SOLUTION: An image pickup means 2 picks up the peripheral image of a vehicle, and a moving amount calculating means 3 extracts vertical and horizontal edge images from the image picked up by the image pickup means 2, and calculates moving amounts of the vertical and horizontal edge images, and an information extracting means 4 extracts an image region in which the object with which its own vehicle is likely to collide is included as a region under consideration according to the calculation result of the moving amount calculating means 3, and a collision time calculating means 5 calculates the collision time with the object by using the vertical position and moving speed of the horizontal edge included in the region under consideration extracted by the information extracting means 4, and calculates the collision time with the object, and an announcement/control means 6 announces the possibility of a collision or controls the vehicle to avoid the collision according to the collision time calculated by the collision time calculating means 5. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、衝突可能性がある対象物との衝突時間を推定し、推定結果に基づいて衝突可能性がある旨を運転者に報知、又は対象物との衝突を回避するために車両を制御する車両用衝突警報装置及び車両用衝突警報方法に関する。   The present invention estimates a collision time with an object having a possibility of collision, notifies the driver that there is a possibility of collision based on the estimation result, or controls the vehicle in order to avoid a collision with the object. The present invention relates to a vehicle collision warning device and a vehicle collision warning method.

従来より、時間的に異なる2つの車両周囲画像から対象物の水平方向又は垂直方向のエッジを検出し、検出されたエッジのオプティカルフローを算出し、算出されたオプティカルフローに基づいて対象物との衝突時間を算出することにより、車両周囲に存在する対象物との衝突の可能性を判定し、警報を行う車両用衝突警報装置が知られている(例えば、特許文献1を参照)。そして、このような車両用衝突警報装置によれば、対象物に対する衝突回避行動を運転者にとらせることができる。
特開平11−353565号公報
Conventionally, a horizontal or vertical edge of an object is detected from two images around the vehicle that are temporally different, an optical flow of the detected edge is calculated, and an object is detected based on the calculated optical flow. 2. Description of the Related Art There is known a vehicle collision alarm device that calculates a collision time to determine a possibility of a collision with an object existing around the vehicle and issues an alarm (for example, see Patent Document 1). And according to such a collision warning device for vehicles, a driver can be made to take a collision avoidance action to a subject.
JP 11-353565 A

しかしながら、従来までの車両用衝突警報装置は、対象物が隣接車線を直進しながら自車両に追い付いてくる場合や、対象物が自車両前方から自車両の進行方向と平行な方向に接近する場合等、対象物が自車両前方方向(自車両の座標系におけるZ軸)に対し平行に走行している場合を前提として構成されている。従って、従来までの車両用衝突警報装置によれば、飛び出し,割り込み,合流等、自車両に対して危険な状態を生じさせる対象物が自車両の横方向に移動する場合には、衝突時間が自車両との衝突可能性がある対象について算出されたのか否かを判断することはできず、衝突時間を適切に算出することができなかった。   However, conventional vehicle collision warning devices are used when an object catches up to the host vehicle while traveling straight in an adjacent lane, or when the object approaches from the front of the host vehicle in a direction parallel to the traveling direction of the host vehicle. The object is configured on the assumption that the object is traveling in parallel to the front direction of the own vehicle (the Z axis in the coordinate system of the own vehicle). Therefore, according to the conventional collision warning device for a vehicle, when an object causing a dangerous state to the own vehicle such as jumping out, interruption, merging moves in the lateral direction of the own vehicle, the collision time It was not possible to determine whether or not the calculation was made for an object that may collide with the host vehicle, and the collision time could not be calculated appropriately.

本発明は、上述の課題を解決するためになされたものであり、その目的は、自車両との衝突可能性がある対象物との衝突時間を適切に算出することが可能な車両用衝突警報装置及び車両用衝突警報方法を提供することにある。   The present invention has been made to solve the above-described problems, and an object of the present invention is to provide a vehicle collision warning capable of appropriately calculating a collision time with an object that may collide with the host vehicle. An apparatus and a vehicle collision warning method are provided.

上述の課題を解決するために、本発明に係る車両用衝突警報装置及び車両用衝突警報方法は、撮像した画像から縦方向及び横方向のエッジ画像を抽出し、縦方向及び横方向のエッジ画像の動き量を算出し、動き量の算出結果に従って、衝突可能性がある対象物が含まれる画像領域を注目領域として抽出し、抽出された注目領域内に含まれる横方向のエッジ画像の縦方向の位置及び移動速度を利用して、対象物との衝突時間を算出する。   In order to solve the above-described problems, a vehicle collision warning device and a vehicle collision warning method according to the present invention extract vertical and horizontal edge images from captured images, and vertical and horizontal edge images. The amount of motion is calculated, and according to the result of the amount of motion, an image region that includes an object with a possibility of collision is extracted as a region of interest, and the vertical direction of the horizontal edge image included in the extracted region of interest The collision time with the object is calculated using the position and the moving speed.

本発明に係る車両用衝突警報装置及び車両用衝突警報方法によれば、縦方向及び横方向のエッジ画像の動き量に基づいて衝突可能性がある対象物が含まれる画像領域を抽出し、その対象物についてのみ衝突時間を算出するので、自車両との衝突可能性がある対象物との衝突時間のみを適切に算出することができる。   According to the vehicle collision warning device and the vehicle collision warning method according to the present invention, an image region including an object with a possibility of collision is extracted based on the amount of movement of the edge image in the vertical direction and the horizontal direction, Since the collision time is calculated only for the target object, it is possible to appropriately calculate only the collision time with the target object that may collide with the host vehicle.

以下、図面を参照して、本発明の実施形態となる車両用衝突警報装置の構成と動作について説明する。   Hereinafter, the configuration and operation of a vehicle collision warning device according to an embodiment of the present invention will be described with reference to the drawings.

[車両用衝突警報装置の構成]
本発明の実施形態となる車両用衝突警報装置1は、車両に搭載され、図1に示すように、自車両周囲の画像を撮像する撮像手段2と、撮像手段2により撮像された時間的に連続する画像中の各領域の動き量を算出する動き量算出手段3と、動き量算出手段3の算出結果に従って所定の動き量を有する領域を特定,抽出する情報抽出手段4と、動き量算出手段3の算出結果を利用して情報抽出手段4により抽出された領域に対する自車両の衝突時間を算出する衝突時間算出手段5と、衝突時間算出手段5の算出結果に基づいて衝突可能性がある旨を運転者に報知、又は衝突を回避するために車両アクチュエータを制御する報知/制御手段6とを有する。
[Configuration of vehicle collision warning device]
A vehicle collision warning device 1 according to an embodiment of the present invention is mounted on a vehicle, and as shown in FIG. 1, as shown in FIG. A motion amount calculating means 3 for calculating the motion amount of each area in the continuous image; an information extracting means 4 for specifying and extracting a region having a predetermined motion amount according to the calculation result of the motion amount calculating means 3; There is a possibility of a collision based on the calculation result of the collision time calculation means 5 that calculates the collision time of the host vehicle with respect to the area extracted by the information extraction means 4 using the calculation result of the means 3 The information / control means 6 for controlling the vehicle actuator in order to notify the driver of the fact or to avoid a collision.

なお、上記撮像手段2は、CMOSやCCD等の撮像素子により構成され、車両の前端部、後端部、及び側面部のうちの少なくとも1箇所、又は衝突可能性がある対象物との正確な衝突時間を計測すべき箇所に取り付けられる。また、撮像手段2は、後述する処理においてエッジ画像の移動速度及び移動方向を簡易的に算出可能なように、エッジ画像の移動速度より速い所定値以上のフレームレートで自車両周囲画像を撮像する(詳しくは後述する)。   The imaging means 2 is constituted by an imaging element such as a CMOS or a CCD, and is accurate with at least one of the front end portion, rear end portion, and side portion of the vehicle, or an object that may collide. It is attached to the location where the collision time should be measured. Further, the imaging unit 2 captures a surrounding image of the host vehicle at a frame rate equal to or higher than a predetermined value that is faster than the moving speed of the edge image so that the moving speed and moving direction of the edge image can be easily calculated in the processing described later. (Details will be described later).

また、上記動き量算出手段3は、図2に示すように、横エッジ検出手段11と、縦エッジ検出手段12と、横エッジ速度算出手段13と、縦エッジ速度算出手段14とを有する。また、上記情報抽出手段4は、注目領域設定手段15と処理領域設定手段16とを備える。また、上記動き量算出手段3,情報抽出手段4,衝突時間算出手段5,及び報知/制御手段6の各機能は、車載コンピュータがコンピュータプログラムを実行することにより実現される。   Further, as shown in FIG. 2, the motion amount calculation means 3 includes a horizontal edge detection means 11, a vertical edge detection means 12, a horizontal edge speed calculation means 13, and a vertical edge speed calculation means 14. Further, the information extracting unit 4 includes an attention area setting unit 15 and a processing area setting unit 16. The functions of the motion amount calculation means 3, the information extraction means 4, the collision time calculation means 5, and the notification / control means 6 are realized by an in-vehicle computer executing a computer program.

このような構成を有する車両用衝突警報装置1は、以下に示す衝突時間算出処理を実行することにより、自車両との衝突可能性がある対象物との衝突時間のみを効率よく算出する。以下、図3に示すフローチャートを参照して、衝突時間算出処理を実行する際の車両用衝突警報装置1内部の処理の流れについて説明する。   The vehicle collision warning device 1 having such a configuration efficiently calculates only the collision time with an object that may collide with the host vehicle by executing the following collision time calculation process. Hereinafter, with reference to the flowchart shown in FIG. 3, the flow of processing inside the vehicle collision warning device 1 when executing the collision time calculation processing will be described.

[衝突時間算出処理]
図3に示すフローチャートは、撮像手段2が所定のフレームレート毎に車両周囲画像を撮像し、撮像した車両周囲画像を動き量算出手段3に入力することで開始となり、衝突時間算出処理はステップS1の処理に進む。
[Collision time calculation process]
The flowchart shown in FIG. 3 starts when the imaging unit 2 captures a vehicle surrounding image at each predetermined frame rate and inputs the captured vehicle surrounding image to the motion amount calculating unit 3, and the collision time calculation process is performed in step S1. Proceed to the process.

ステップS1の処理では、横エッジ検出手段11及び縦エッジ検出手段12がそれぞれ、Sobelフィルタを利用して撮像手段2により撮像された車両周囲画像から横方向及び縦方向のエッジ画像を検出する。これにより、このステップS1の処理は完了し、この算出処理はステップS1の処理からステップS2の処理に進む。   In the process of step S1, the horizontal edge detection means 11 and the vertical edge detection means 12 detect edge images in the horizontal and vertical directions from the vehicle surrounding image captured by the imaging means 2 using Sobel filters, respectively. Thereby, the process of step S1 is completed, and the calculation process proceeds from the process of step S1 to the process of step S2.

ステップS2の処理では、横エッジ速度算出手段13及び縦エッジ速度算出手段14が、ステップS1の処理により検出された横方向及び縦方向のエッジ画像を規格化する。具体的には、エッジ画像がx軸1次元方向(車両の横方向)に移動するものとすると、横エッジ算出手段13は、図4(a)に示すように各フレームのエッジ画像に対し2値化(0/1)処理を施した後に、図4(b)に示すようにアクティブ(値が1)なエッジ画像を所定画素幅(図4(b)に示す例では1画素)まで細線化する。なお、細線化処理はエッジ幅が所定画素幅になるまで繰り返し実行するものとする。   In the process of step S2, the horizontal edge speed calculation unit 13 and the vertical edge speed calculation unit 14 normalize the horizontal and vertical edge images detected by the process of step S1. Specifically, assuming that the edge image moves in the one-dimensional direction of the x axis (the lateral direction of the vehicle), the lateral edge calculation means 13 performs 2 for the edge image of each frame as shown in FIG. After performing the value conversion (0/1) processing, an active edge image (value 1) is thinned to a predetermined pixel width (one pixel in the example shown in FIG. 4B) as shown in FIG. Turn into. The thinning process is repeatedly executed until the edge width reaches a predetermined pixel width.

そして、エッジ画像を細線化した結果、位置x0にエッジ位置が観測された場合、横エッジ算出手段13は、位置x0の両側の位置x0−1及び位置x0+1の画素をアクティブに設定することにより、エッジ画像を所定画素幅(図4(c)に示す例では3画素)まで膨張させる。これらの処理により、エッジ幅が所定画素数に規格化された2値のエッジ画像が得られ、この算出処理はステップS2の処理からステップS3の処理に進む。   As a result of thinning the edge image, when the edge position is observed at the position x0, the horizontal edge calculating unit 13 sets the pixels at the positions x0-1 and x0 + 1 on both sides of the position x0 to be active, The edge image is expanded to a predetermined pixel width (3 pixels in the example shown in FIG. 4C). By these processes, a binary edge image whose edge width is normalized to a predetermined number of pixels is obtained, and the calculation process proceeds from the process of step S2 to the process of step S3.

なお、上記ステップS2の処理では、細線化処理と膨張処理を行うことによりエッジ幅を規格化したが、エッジ画像のエッジピーク位置を検出し、エッジピーク位置に所定画素数幅を持たせた2値画像を生成することにより、エッジ幅を規格化してもよい。また、図4に示す例では、横エッジ検出手段11の動作についてのみ説明したが、縦エッジ検出手段12も同様にして縦方向のエッジ画像を規格化する。   In the process of step S2, the edge width is standardized by performing the thinning process and the expansion process. However, the edge peak position of the edge image is detected, and the edge peak position has a predetermined number of pixels. The edge width may be normalized by generating a value image. In the example shown in FIG. 4, only the operation of the horizontal edge detection unit 11 has been described, but the vertical edge detection unit 12 similarly normalizes the edge image in the vertical direction.

ステップS3の処理では、横エッジ速度算出手段13及び縦エッジ速度算出手段14が、規格化されたエッジ画像が観測された位置に対応するメモリアドレスの値(カウント値)をカウントアップ、且つ、エッジが観測されなかった位置に対応するメモリアドレスの値をリセットすることにより、規格化されたエッジ画像が何フレーム連続して観測されたかの情報を記憶し、その勾配に基づいて抽出された横方向及び縦方向のエッジ画像の移動速度と移動方向を算出する。   In the processing of step S3, the horizontal edge speed calculation means 13 and the vertical edge speed calculation means 14 increment the memory address value (count value) corresponding to the position where the standardized edge image is observed, and the edge By resetting the value of the memory address corresponding to the position where the edge was not observed, information on how many frames the normalized edge image was continuously observed was stored, and the lateral direction extracted based on the gradient and The moving speed and moving direction of the vertical edge image are calculated.

具体的には、始めに、時刻tにおいて図4(c)に示すエッジ画像が検出された場合、横エッジ速度算出手段13は、図5(a)に示すように、エッジ画像が検出された位置x0−1,x0,x0+1のカウント値を1だけカウントアップする共に、エッジ画像が検出された位置以外の位置のカウント値を0にリセットする。次に、時刻t+1においても位置x0にエッジ画像が観測された場合、横エッジ速度算出手段13は、図5(b)に示すように、エッジ画像が検出された位置x0−1,x0,x0+1のカウント値をさらに1だけカウントアップする共に、エッジ画像が検出された位置以外の位置のカウント値を0にリセットする。次に、時刻t+2においてエッジ画像がx軸正方向に1画素シフトして位置x0+1にエッジ画像が観測された場合、横エッジ速度算出手段13は、図5(c)に示すように、エッジ画像が検出された位置x0,x0+1,x0+2のカウント値を1だけカウントアップする共に、エッジ画像が検出された位置以外の位置のカウント値をリセットする。   Specifically, first, when the edge image shown in FIG. 4C is detected at time t, the lateral edge speed calculation unit 13 detects the edge image as shown in FIG. 5A. The count values at the positions x0-1, x0, x0 + 1 are incremented by 1, and the count values at positions other than the position where the edge image is detected are reset to 0. Next, when an edge image is observed at the position x0 even at time t + 1, the horizontal edge velocity calculation means 13 detects the positions x0-1, x0, x0 + 1 at which the edge image is detected as shown in FIG. And the count value at a position other than the position where the edge image is detected is reset to 0. Next, when the edge image is shifted by one pixel in the positive direction of the x-axis at time t + 2 and the edge image is observed at the position x0 + 1, the lateral edge speed calculation means 13 performs the edge image as shown in FIG. The count values of the positions x0, x0 + 1, and x0 + 2 where the edge image is detected are incremented by 1, and the count values at positions other than the position where the edge image is detected are reset.

ここで、エッジ画像が移動する速度に比べてフレームレートが十分に大きい場合、エッジ画像は連続するフレーム間で必ず重複する領域を有する(図5に示す例では2画素幅で重複している)。従って、上記のようにエッジ画像が観測された位置のカウント値をカウントアップすることにより、カウント値はエッジ画像が同じ位置に観測されている時間と等価になる。また、エッジ画像が移動した場合には、エッジ画像が新たに観測された位置のカウント値は1であり、エッジ画像のカウント値の中で最も小さい値となる。つまり、エッジ画像が移動する方向のカウント値は小さく、逆にエッジ画像が移動する方向と反対方向のエッジ画像のカウント値は大きくなる。従って、このようなカウント値の大きさの差によって生まれる勾配、すなわち図5に示す直線Yの傾きαは、エッジ画像が移動するまでの間にエッジ画像が何フレーム連続して同じ位置で観測されていたかを示す値、換言すれば、以下の数式1に示すようにエッジ画像の移動速度vedgeの逆数と等価になる。
Here, when the frame rate is sufficiently large compared to the moving speed of the edge image, the edge image always has an overlapping area between consecutive frames (in the example shown in FIG. 5, it overlaps with a width of two pixels). . Therefore, by counting up the count value at the position where the edge image is observed as described above, the count value is equivalent to the time during which the edge image is observed at the same position. When the edge image is moved, the count value at the position where the edge image is newly observed is 1, which is the smallest value among the count values of the edge image. That is, the count value in the direction in which the edge image moves is small, and conversely, the count value in the edge image in the direction opposite to the direction in which the edge image moves is large. Therefore, the gradient generated by such a difference in the count value, that is, the gradient α of the straight line Y shown in FIG. 5, is observed at the same position for how many frames the edge image is continuous until the edge image moves. It is equivalent to the reciprocal of the moving speed vedge of the edge image as shown in Equation 1 below.

具体的には、図5(b)に示す例において、位置x0−1,x0,x0+1のカウント値がそれぞれ6,4,2であるとすると、エッジ画像の位置はシフトする度毎に位置x0−1のカウント値と位置x0+1のカウント値の差であるH=6−2=4フレーム連続して観測されていたことがわかる。そして、位置x0にシフトしてからは、位置x0+1のカウント値h=2であることから、エッジ画像は2フレーム連続して観測されていることがわかる。従って、注目しているエッジ画像は4フレームで1画素移動していることがわかり、エッジ画像の移動速度を検出することができる。さらに、フレームレートが十分高い場合はエッジ画像は等速移動していると仮定できるので、図5に示す例では、エッジ画像は、4フレームで1画素移動し、時刻t+1の時点では2フレーム連続して観測されていることより、時刻t+1の時点では、エッジ画像は、2フレーム/{4フレーム/1画素}=0.5画素だけ位置x0からシフトしていることがわかる。なお、この例では、横方向の移動速度の算出方法についてのみ説明したが、同様にして縦方向の移動速度も算出する。これにより、このステップS3の処理は完了し、この算出処理はステップS3の処理からステップS4の処理に進む。   Specifically, in the example shown in FIG. 5B, if the count values at the positions x0-1, x0, and x0 + 1 are 6, 4, and 2, respectively, the position of the edge image is the position x0 every time it is shifted. It can be seen that H = 6-2 = 4 frames, which are the difference between the count value of −1 and the count value of the position x0 + 1, were continuously observed. Since the count value h = 2 at the position x0 + 1 after the shift to the position x0, it can be seen that the edge image is continuously observed for two frames. Therefore, it can be seen that the focused edge image moves by one pixel in four frames, and the moving speed of the edge image can be detected. Further, when the frame rate is sufficiently high, it can be assumed that the edge image is moving at a constant speed. Therefore, in the example shown in FIG. 5, the edge image moves by one pixel in four frames, and two frames are continuous at time t + 1. Thus, it can be seen that the edge image is shifted from the position x0 by 2 frames / {4 frames / 1 pixel} = 0.5 pixels at the time t + 1. In this example, only the method of calculating the horizontal movement speed has been described, but the vertical movement speed is also calculated in the same manner. Thereby, the process of step S3 is completed, and the calculation process proceeds from the process of step S3 to the process of step S4.

ステップS4の処理では、処理領域設定手段15が、横方向の移動速度が閾値以下の縦方向のエッジ画像が含まれる画像領域があるか否かを判別する。そして、判別の結果、横方向の移動速度が閾値以下の縦方向のエッジ画像が含まれる画像領域がない場合には、一連の算出処理は終了する。一方、横方向の移動速度が閾値以下の縦方向のエッジ画像が含まれる画像領域がある場合には、注目領域設定手段15は、この算出処理をステップS5の処理に進める。   In the process of step S4, the processing area setting unit 15 determines whether there is an image area including a vertical edge image whose horizontal movement speed is equal to or less than a threshold value. Then, as a result of the determination, when there is no image area including a vertical edge image whose horizontal moving speed is equal to or less than the threshold value, the series of calculation processing ends. On the other hand, if there is an image area including a vertical edge image whose horizontal movement speed is equal to or less than the threshold value, the attention area setting unit 15 advances the calculation process to the process of step S5.

ステップS5の処理では、注目領域設定手段15が、横方向の移動速度が閾値以下の縦方向のエッジ画像が含まれる画像領域を衝突可能性がある対象物が含まれる注目領域として設定する。一般に、図6(a),(b)に示すような隣接斜線を走行する他車両Bが直進している自車両が走行する車線Lに合流する走行シーンの場合、自車両Aと他車両Bの相対位置関係は図7(a),(b)に示すようになり、衝突可能性がある場合、他車両Bは自車両Aに向かって接近している。しかしながら、カメラが自車両前方(z軸正の向き)を視軸中心として取り付けられているとすると、フレーム間における他車両Bの横方向(x軸方向)の動き量は小く、特に視軸中心付近では極めて小さくなる。   In the process of step S5, the attention area setting means 15 sets an image area including a vertical edge image whose horizontal movement speed is equal to or less than a threshold value as an attention area including an object that may collide. In general, in the case of a traveling scene where the other vehicle B traveling along the adjacent oblique line as shown in FIGS. 6A and 6B joins the lane L where the traveling vehicle travels straight, the own vehicle A and the other vehicle B 7 (a) and 7 (b). When there is a possibility of collision, the other vehicle B approaches the host vehicle A. However, if the camera is mounted with the front of the host vehicle (the positive direction of the z-axis) as the center of the visual axis, the amount of movement of the other vehicle B in the lateral direction (x-axis direction) between the frames is small. It becomes very small near the center.

また、他車両Bは車幅を有するために、他車両Bのフレーム間の動き量は必ずしも0にはならない(フレーム間の移動量が0である場合、他車両Bはカメラに衝突することになる)。そして、この動き量は、画像周囲に他車両Bが移動するのに従って徐々に大きくなる。そこで、注目領域設定手段15は、横方向の位置(x)毎の移動速度(移動量T(x),閾値)を規定することにより図8に示すようなプロファイルを規定し、このプロファイル領域内に入る横方向の移動速度を有する縦方向のエッジ画像が含まれる画像領域を注目領域として規定する。これにより、このステップS5の処理は完了し、この算出処理はステップS5の処理からステップS6の処理に進む。   Further, since the other vehicle B has a vehicle width, the movement amount between the frames of the other vehicle B is not necessarily zero (if the movement amount between the frames is zero, the other vehicle B will collide with the camera). Become). The amount of movement gradually increases as the other vehicle B moves around the image. Therefore, the attention area setting means 15 defines a profile as shown in FIG. 8 by defining the moving speed (movement amount T (x), threshold value) for each position (x) in the horizontal direction. An image area including a vertical edge image having a horizontal movement speed that enters is defined as an attention area. Thereby, the process of step S5 is completed, and the calculation process proceeds from the process of step S5 to the process of step S6.

ステップS6の処理では、処理領域設定手段16が、注目領域内に含まれる縦方向のエッジ画像を所定画素数(例えば、エッジの両側10画素ずつ)膨張させることにより、衝突時間算出領域を設定する。これにより、このステップS6の処理は完了し、この算出処理はステップS6の処理からステップS7の処理に進む。   In step S6, the processing area setting unit 16 sets a collision time calculation area by expanding a vertical edge image included in the attention area by a predetermined number of pixels (for example, 10 pixels on both sides of the edge). . Thereby, the process of step S6 is completed, and the calculation process proceeds from the process of step S6 to the process of step S7.

ここで、上記ステップS6の処理において、処理領域設定手段16は、縦方向のエッジ画像の濃度勾配(エッジ強度)に従って衝突時間算出領域の大きさを規定してもよい。一般に、横方向及び縦方向のエッジ画像はそれぞれ、原画像の縦方向及び横方向の濃度勾配であり、そのエッジ強度(エッジ強度は±の符号を有するが、ここでは簡単のために、原画像を空間微分した値の絶対値として考える)は原画像の濃度勾配に比例する。つまり、原画像の濃度勾配が小さい時は、図9に示すようにエッジ画像のエッジ強度は弱く、原画像の濃度勾配が大きい時には、図10に示すようにエッジ画像のエッジ強度は強い。一方、濃度勾配が小さい場合はエッジ画像のエッジ強度の分散は大きく、濃度勾配が大きい場合にはエッジ画像のエッジ強度の分散は小さい。   Here, in the process of step S6, the processing area setting unit 16 may define the size of the collision time calculation area according to the density gradient (edge strength) of the edge image in the vertical direction. Generally, the horizontal and vertical edge images are the density gradients of the original image in the vertical and horizontal directions, respectively, and the edge strength (the edge strength has a sign of ±, but here, for simplicity, the original image Is proportional to the density gradient of the original image. That is, when the density gradient of the original image is small, the edge strength of the edge image is weak as shown in FIG. 9, and when the density gradient of the original image is large, the edge strength of the edge image is strong as shown in FIG. On the other hand, when the density gradient is small, the edge intensity variance of the edge image is large, and when the density gradient is large, the edge intensity variance of the edge image is small.

これは、原画像の濃度勾配とエッジ強度の分散が反比例の関係にあり、エッジ強度の分散が大きい所はエッジがボケ、逆にエッジ強度の分散が小さい所はエッジがシャープになっていることを意味している。そして、エッジがボケていると、後述する処理において縦方向の移動速度を計測する部位が注目領域として設定されたエッジ画像の周囲に観測できない可能性がある。そこで、エッジ強度の分散が大きい所では衝突時間算出領域を大きめに設定し、エッジ強度の分散が小さい所では衝突時間算出領域を小さめに設定することにより、処理時間の無用な増加と衝突時間の算出精度が悪化することを防止できる。   This is because the density gradient of the original image and the dispersion of the edge strength are inversely proportional, the edge is blurred when the edge strength dispersion is large, and the edge is sharp when the edge strength dispersion is small. Means. If the edge is blurred, there is a possibility that the part for measuring the moving speed in the vertical direction in the process described later cannot be observed around the edge image set as the attention area. Therefore, by setting the collision time calculation area to a larger value when the edge strength variance is large, and setting the collision time calculation area to a smaller value when the edge strength dispersion is small, the processing time is unnecessarily increased and the collision time is reduced. It is possible to prevent the calculation accuracy from deteriorating.

また、上記ステップS6の処理において、処理領域設定手段16は、縦方向のエッジ画像の横方向の移動速度に応じて注目領域を拡大することにより衝突時間算出領域を設定することが望ましい。このような構成によれば、縦エッジの横方向の移動速度が大きい場合、衝突時間算出領域を大きく設定することにより、横方向のエッジ画像の縦方向の移動速度を計測できる部位を衝突時間算出領域に含めることができる。一方、縦エッジの横方向の移動速度が小さい場合には、衝突時間算出領域が無用に大きくなることを防ぎ、処理時間の無用な増加と衝突時間の算出精度が悪化することを防止できる。   In the process of step S6, it is preferable that the processing area setting unit 16 sets the collision time calculation area by enlarging the attention area in accordance with the horizontal movement speed of the vertical edge image. According to such a configuration, when the moving speed of the vertical edge in the horizontal direction is large, the collision time calculation is performed for a part where the vertical moving speed of the edge image in the horizontal direction can be measured by setting a large collision time calculation area. Can be included in the area. On the other hand, when the moving speed of the vertical edge in the horizontal direction is low, it is possible to prevent the collision time calculation area from becoming unnecessarily large, and to prevent an unnecessary increase in the processing time and deterioration in the calculation accuracy of the collision time.

なお、縦方向エッジ画像の濃度勾配(エッジ強度)や横方向の移動速度に応じて注目領域を拡大することにより、縦方向の移動速度を検出可能な横方向エッジを注目領域に含めることができない場合には、処理領域設定手段16は、横方向エッジ画像の縦方向の移動速度を検出可能な部位が含まれるまで注目領域を拡大することが望ましい。このような処理によれば、横方向エッジ画像の縦方向の移動速度及び衝突時間が算出できないことを防止できる。   It should be noted that by expanding the attention area in accordance with the density gradient (edge strength) of the vertical edge image and the horizontal movement speed, the horizontal edge capable of detecting the vertical movement speed cannot be included in the attention area. In this case, it is desirable that the processing area setting unit 16 expands the attention area until a part capable of detecting the moving speed in the vertical direction of the horizontal edge image is included. According to such processing, it is possible to prevent the vertical movement speed and collision time of the horizontal edge image from being calculated.

ステップS7の処理では、動き量算出手段3が、衝突時間算出領域に含まれる横方向エッジ画像の縦方向の位置と移動速度を算出する。これにより、このステップS7の処理は完了し、この算出処理はステップS7の処理からステップS8の処理に進む。   In the process of step S7, the motion amount calculation means 3 calculates the vertical position and moving speed of the horizontal edge image included in the collision time calculation area. Thereby, the process of step S7 is completed, and the calculation process proceeds from the process of step S7 to the process of step S8.

ステップS8の処理では、衝突時間算出手段5が、衝突時間算出領域に含まれる横方向エッジ画像の縦方向の位置と移動速度に基づいて、衝突可能性がある対象物との衝突時間を算出する。具体的には、図11,12に示すように、時刻t及び時刻t+dtに検出されたエッジ画像の位置をそれぞれy,y+dy、時刻tから時刻t+dtの間に自車両Aが移動した距離をdLとした場合、時刻t+dtにおける自車両Aから他車両Bまでの距離をZは以下に示す数式2のように表される。また、エッジ画像の縦方向の移動速度vedge及び他車両Bの自車両Aとの相対速度Vvehicleはそれぞれ以下に示す数式3,4のように表される。
In the process of step S8, the collision time calculation means 5 calculates the collision time with the object with the possibility of collision based on the vertical position and moving speed of the horizontal edge image included in the collision time calculation area. . Specifically, as shown in FIGS. 11 and 12, the positions of the edge images detected at time t and time t + dt are respectively y, y + dy, and the distance traveled by the host vehicle A between time t and time t + dt is dL. In this case, the distance Z from the own vehicle A to the other vehicle B at time t + dt is expressed as Equation 2 below. Further, the vertical moving speed vedge of the edge image and the relative speed Vvehicle of the other vehicle B with the host vehicle A are expressed as the following formulas 3 and 4, respectively.

従って、時刻t+dtにおける自車両Aから他車両Bまでの距離Zは、数式3,4を数式2に代入することにより、以下に示す数式5のように表されるので、以下に示す数式6に時刻tにおけるエッジ画像の位置yと移動速度vedge(又はカウント値の勾配α)を代入することにより、他車両Bとの衝突時間TTCを算出することができる。すなわち、他車両Bとの間の正確な距離や他車両Bとの相対速度を算出することなく、他車両Bとの間の距離が0になる時間を算出することにより、他車両Bとの衝突時間TTCを算出する。これにより、このステップS8の処理は完了し、この算出処理はステップS8の処理からステップS9の処理に進む。
Therefore, the distance Z from the own vehicle A to the other vehicle B at time t + dt is expressed as Equation 5 shown below by substituting Equations 3 and 4 into Equation 2; By substituting the position y of the edge image at the time t and the moving speed vedge (or the gradient α of the count value), the collision time TTC with the other vehicle B can be calculated. That is, by calculating the time when the distance to the other vehicle B is zero without calculating the exact distance to the other vehicle B and the relative speed with the other vehicle B, The collision time TTC is calculated. Thereby, the process of step S8 is completed, and the calculation process proceeds from the process of step S8 to the process of step S9.

ステップS9の処理では、報知/制御手段6が、衝突時間算出手段5により算出された衝突時間TTCに基づいて、運転者に対して衝突可能性がある旨を報知、又は衝突を回避するために車両アクチュエータを制御する。なお、報知/制御手段6は、人の反応時間を考慮して、衝突時間を数秒に設定することが望ましい。これにより、運転者の操作遅れが生じることなく、運転者に適切に衝突可能性を報知することができる。また、報知/制御手段6は、衝突時間が100[mS]程度と短く、運転者に操作遅れが生じると判断された場合、運転者への報知と共に、スロットルアクチュエータ,ブレーキアクチュエータ,ステアリングアクチュエータを自動的に制御することにより、対象物との衝突の回避、又は衝突速度を低減することができる。これにより、このステップS9の処理は完了し、一連の算出処理は終了する。   In the process of step S9, the notification / control unit 6 notifies the driver that there is a possibility of a collision based on the collision time TTC calculated by the collision time calculation unit 5, or avoids the collision. Control vehicle actuators. Note that the notification / control unit 6 desirably sets the collision time to several seconds in consideration of the reaction time of the person. Accordingly, it is possible to appropriately notify the driver of the possibility of collision without causing a delay in the operation of the driver. In addition, when the collision time is as short as about 100 [mS] and it is determined that the driver will be delayed in operation, the notification / control unit 6 automatically notifies the driver and automatically operates the throttle actuator, brake actuator, and steering actuator. By controlling automatically, the collision with the object can be avoided or the collision speed can be reduced. Thereby, the process of this step S9 is completed and a series of calculation processes are completed.

以上の説明から明らかなように、本発明の実施形態となる車両用衝突警報装置1によれば、撮像手段2が、車両周囲の画像を撮像し、動き量算出手段3が、撮像手段2が撮像した画像から縦方向及び横方向のエッジ画像を抽出し、縦方向及び横方向のエッジ画像の動き量を算出し、情報抽出手段4が、動き量算出手段3の算出結果に従って、衝突可能性がある対象物が含まれる画像領域を注目領域として抽出し、衝突時間算出手段5が、情報抽出手段4により抽出された注目領域内に含まれる横方向エッジの縦方向の位置及び移動速度を利用して、対象物との衝突時間を算出し、報知/制御手段6が、衝突時間算出手段5により算出された衝突時間に従って、衝突可能性がある旨を報知、又は衝突を回避するように車両を制御するので、自車両との衝突可能性がある対象物との衝突時間のみを効率よく算出することができる。   As is apparent from the above description, according to the vehicle collision alarm device 1 according to the embodiment of the present invention, the imaging unit 2 captures an image around the vehicle, the motion amount calculation unit 3 includes the imaging unit 2. The vertical and horizontal edge images are extracted from the captured image, the motion amounts of the vertical and horizontal edge images are calculated, and the information extraction unit 4 determines the possibility of collision according to the calculation result of the motion amount calculation unit 3. An image area including a certain object is extracted as an attention area, and the collision time calculation means 5 uses the vertical position and moving speed of the horizontal edge included in the attention area extracted by the information extraction means 4. Then, the collision time with the object is calculated, and the notification / control unit 6 notifies the vehicle that there is a possibility of collision according to the collision time calculated by the collision time calculation unit 5 or avoids the collision. Control the vehicle Only collision time with the object there is possibility of collision and can be calculated efficiently.

また、本発明の実施形態となる車両用衝突警報装置1によれば、撮像手段2は、対象物の移動速度よりも速い時間間隔で画像を撮像するので、縦方向及び横方向の移動速度を簡単に算出し、計算量を大幅に削減することができる。   Further, according to the vehicle collision warning device 1 according to the embodiment of the present invention, the imaging unit 2 captures images at a time interval faster than the moving speed of the object, so that the moving speed in the vertical direction and the horizontal direction is set. It is easy to calculate and the amount of calculation can be greatly reduced.

また、本発明の実施形態となる車両用衝突警報装置1によれば、情報抽出手段4は、横方向の移動速度が所定値より小さい縦方向のエッジ画像が含まれる画像領域を注目領域として抽出するので、自車両に対して衝突可能性がある領域と衝突可能性がない領域とを区別することができる。   In addition, according to the vehicle collision warning device 1 according to the embodiment of the present invention, the information extraction unit 4 extracts, as a region of interest, an image region that includes a vertical edge image whose lateral movement speed is smaller than a predetermined value. Therefore, it is possible to distinguish between a region where there is a possibility of collision with the host vehicle and a region where there is no possibility of collision.

また、本発明の実施形態となる車両用衝突警報装置1によれば、衝突時間算出領域設定手段16は、縦方向のエッジ画像を所定画素数膨張させることにより注目領域を拡大し、拡大された注目領域を衝突時間算出領域として設定し、衝突時間算出手段5は、衝突時間算出領域内に含まれる横方向のエッジ画像の縦方向の位置及び移動速度を利用して、衝突時間を算出するので、縦方向の位置及び移動速度を検出可能な横方向のエッジ画像がより確実に衝突時間算出領域に含まれ、衝突可能性がある対象までの衝突時間をより正確に算出することができる。   In addition, according to the vehicle collision warning device 1 according to the embodiment of the present invention, the collision time calculation area setting unit 16 expands the attention area by expanding the vertical edge image by a predetermined number of pixels, and is enlarged. Since the attention area is set as the collision time calculation area, the collision time calculation means 5 calculates the collision time using the vertical position and moving speed of the horizontal edge image included in the collision time calculation area. The horizontal edge image capable of detecting the vertical position and the moving speed is more reliably included in the collision time calculation area, and the collision time to the object with the possibility of collision can be calculated more accurately.

また、本発明の実施形態となる車両用衝突警報装置1によれば、衝突時間算出領域設定手段16は、注目領域に含まれる縦方向のエッジ画像の濃度勾配に応じて注目領域を拡大、又は縮小し、拡大、又は縮小された注目領域を衝突時間算出領域として設定するので、エッジ画像のエッジ強度に依存することなく衝突時間算出領域を適切に設定することができる。   Further, according to the vehicle collision warning device 1 according to the embodiment of the present invention, the collision time calculation area setting unit 16 enlarges the attention area according to the density gradient of the vertical edge image included in the attention area, or Since the attention area that has been reduced, enlarged, or reduced is set as the collision time calculation area, the collision time calculation area can be appropriately set without depending on the edge strength of the edge image.

また、本発明の実施形態となる車両用衝突警報装置1によれば、衝突時間算出領域設定手段16は、注目領域に含まれる縦エッジの横方向の移動速度に応じて注目領域を拡大、又は縮小し、拡大、又は縮小された注目領域を衝突時間算出領域として設定するので、エッジ画像の移動速度に依存することなく衝突時間算出領域を適切に設定することができる。   Further, according to the vehicle collision warning device 1 according to the embodiment of the present invention, the collision time calculation area setting unit 16 enlarges the attention area according to the moving speed in the horizontal direction of the vertical edge included in the attention area, or Since the attention area that has been reduced, enlarged, or reduced is set as the collision time calculation area, the collision time calculation area can be appropriately set without depending on the moving speed of the edge image.

また、本発明の実施形態となる車両用衝突警報装置1によれば、衝突時間算出領域設定手段16は、縦方向の位置及び移動速度を検出可能な横方向のエッジ画像が注目領域が含まれない場合、所定の濃度変化量を有する横方向のエッジ画像が含まれるまで注目領域を拡大し、拡大された注目領域を衝突時間算出領域として設定するので、移動速度の検出精度が向上する。   In addition, according to the vehicle collision warning device 1 according to the embodiment of the present invention, the collision time calculation region setting unit 16 includes a region of interest including a lateral edge image capable of detecting a vertical position and moving speed. If not, the attention area is enlarged until a lateral edge image having a predetermined density change amount is included, and the enlarged attention area is set as a collision time calculation area, so that the detection accuracy of the moving speed is improved.

また、本発明の実施形態となる車両用衝突警報装置1によれば、報知/制御手段6は、衝突時間に応じて報知又は車両を制御するタイミングを設定するので、運転者に報知する、又は車両アクチュエータを制御するまでの無駄時間を削減することができる。   Further, according to the vehicle collision warning device 1 according to the embodiment of the present invention, the notification / control means 6 sets the timing for controlling or controlling the vehicle according to the collision time, so that the driver is notified, or It is possible to reduce the dead time until the vehicle actuator is controlled.

以上、本発明者らによってなされた発明を適用した実施の形態について説明したが、この実施の形態による本発明の開示の一部をなす論述及び図面により本発明は限定されることはない。例えば、上記実施形態では、フレームレートを十分に高くすることにより、動き量を簡易的に算出したが、計算量が膨大になることを厭わない限り、テンプレートマッチング処理や勾配法等の従来までの方法を利用して動き量を算出してもよい。具体的には、テンプレートマッチング処理を利用して動き量を算出する場合、時刻t−n(n=1,2,3…)において取得した画像中に追跡領域W(u×vのサイズ)のテンプレートを設定し、設定した追跡領域Wが時刻tで取得された画像中のどの位置も最も適合するかを正規化相関等の相関値又はSAD値等の評価関数を利用して特定する。なお、正規化相関の場合、相関値は、0から1の値をとり、一致度が最も大きい時は1となり、一致度が低下するのに従って0に近づく。一方、SAD値は、時刻t−nで設定した追跡領域Wと時刻tにおける注目領域(テンプレートWを当てはめる領域)間の画素値の差の絶対値和により表され、一致度が高い程、低い値を取る。そして、時刻t−nで注目した位置(x,y)に対して、位置(x,y)を含む周囲数画素の領域を時刻tで取得した画像中に設定し、領域Sの各点で算出された相関値又は評価関数を用いて、時刻t−nで設定した領域Wが時奥tでどの位置に移動したかを算出する。これにより、動き量を算出することができる。なお、相関値や評価関数を曲線補間するサブピクセル手法を用いることにより、1画素以下のオーダーで動き量を算出するようにしてもよい。一方、勾配法を利用して動き量を算出する場合には、動きベクトルが空間的に滑らかに変化するという拘束条件を付加し、例えば速度場の滑らかさを表す評価関数を規定する。そして、この評価関数が最小、又は最大になるパラメータを算出することにより、画像間の動き量を算出することができる。このように、上記実施の形態に基づいて当業者等によりなされる他の実施の形態、実施例及び運用技術等は全て本発明の範疇に含まれることは勿論であることを付け加えておく。   As mentioned above, although the embodiment to which the invention made by the present inventors was applied has been described, the present invention is not limited by the description and the drawings that form part of the disclosure of the present invention according to this embodiment. For example, in the above embodiment, the motion amount is simply calculated by sufficiently increasing the frame rate. However, unless the calculation amount is enormous, conventional template matching processing, gradient method, etc. The amount of motion may be calculated using a method. Specifically, when the amount of motion is calculated using the template matching process, the tracking area W (u × v size) is included in the image acquired at time t−n (n = 1, 2, 3...). A template is set, and it is specified by using an evaluation function such as a correlation value such as a normalized correlation or an SAD value that any position in the image acquired at time t matches the set tracking area W most. In the case of normalized correlation, the correlation value takes a value from 0 to 1, and becomes 1 when the degree of coincidence is the largest, and approaches 0 as the degree of coincidence decreases. On the other hand, the SAD value is represented by the sum of absolute values of pixel value differences between the tracking region W set at time t−n and the region of interest (region to which the template W is applied) at time t. Take the value. Then, with respect to the position (x, y) of interest at time t−n, an area of surrounding pixels including the position (x, y) is set in the image acquired at time t. Using the calculated correlation value or evaluation function, it is calculated to which position the region W set at time t−n has moved at time t. Thereby, the amount of motion can be calculated. Note that the motion amount may be calculated on the order of one pixel or less by using a sub-pixel method in which a correlation value or an evaluation function is subjected to curve interpolation. On the other hand, when calculating the amount of motion using the gradient method, a constraint condition that the motion vector changes spatially smoothly is added, and for example, an evaluation function representing the smoothness of the velocity field is defined. The amount of motion between images can be calculated by calculating a parameter that minimizes or maximizes this evaluation function. As described above, it is a matter of course that all other embodiments, examples, operation techniques, and the like made by those skilled in the art based on the above embodiments are included in the scope of the present invention.

本発明の実施形態となる車両用衝突警報装置の構成を示すブロック図である。It is a block diagram which shows the structure of the collision alarm device for vehicles used as embodiment of this invention. 図1に示す動き量算出手段及び情報抽出手段の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of the motion amount calculation means and information extraction means which are shown in FIG. 本発明の実施形態となる衝突警報処理の流れを示すフローチャート図である。It is a flowchart figure which shows the flow of the collision warning process used as embodiment of this invention. 図1に示す動き量算出手段による規格化処理を説明するための図である。It is a figure for demonstrating the normalization process by the motion amount calculation means shown in FIG. 図1に示す動き量算出手段によるカウント処理を説明するための図である。It is a figure for demonstrating the count process by the motion amount calculation means shown in FIG. 図1に示す注目領域設定手段による注目領域設定処理を説明するための図である。It is a figure for demonstrating the attention area setting process by the attention area setting means shown in FIG. 図1に示す注目領域設定手段による注目領域設定処理を説明するための図である。It is a figure for demonstrating the attention area setting process by the attention area setting means shown in FIG. 図1に示す注目領域設定手段による注目領域設定処理を説明するための図である。It is a figure for demonstrating the attention area setting process by the attention area setting means shown in FIG. エッジ強度が弱い場合のエッジ画像の濃度分布を示す図である。It is a figure which shows the density distribution of the edge image in case edge strength is weak. エッジ強度が強い場合のエッジ画像の濃度分布を示す図である。It is a figure which shows the density distribution of the edge image in case edge strength is strong. 図1に示す衝突時間算出手段による衝突時間算出処理を説明するための図である。It is a figure for demonstrating the collision time calculation process by the collision time calculation means shown in FIG. 図1に示す衝突時間算出手段による衝突時間算出処理を説明するための図である。It is a figure for demonstrating the collision time calculation process by the collision time calculation means shown in FIG.

符号の説明Explanation of symbols

1:車両用衝突警報装置
2:撮像手段
3:動き量算出手段
4:情報抽出手段
5:衝突時間算出手段
6:報知/制御手段
11:横エッジ検出手段
12:縦エッジ検出手段
13:横エッジ速度算出手段
14:縦エッジ速度算出手段
15:注目領域設定手段
16:衝突時間算出領域設定手段
1: Vehicle collision warning device 2: Image pickup means 3: Movement amount calculation means 4: Information extraction means 5: Collision time calculation means 6: Notification / control means 11: Horizontal edge detection means 12: Vertical edge detection means 13: Horizontal edge Speed calculation means 14: vertical edge speed calculation means 15: attention area setting means 16: collision time calculation area setting means

Claims (9)

車両周囲の画像を撮像する撮像手段と、
前記撮像手段が撮像した画像から縦方向及び横方向のエッジ画像を抽出し、縦方向及び横方向のエッジ画像の動き量を算出する動き量算出手段と、
前記動き量算出手段の算出結果に従って、衝突可能性がある対象物が含まれる画像領域を注目領域として抽出する情報抽出手段と、
前記情報抽出手段により抽出された注目領域内に含まれる横方向のエッジ画像の縦方向の位置及び移動速度を利用して、前記対象物との衝突時間を算出する衝突時間算出手段と、
前記衝突時間算出手段により算出された衝突時間に従って、衝突可能性がある旨を報知、又は衝突を回避するように車両を制御する報知制御手段と
を備えることを特徴とする車両用衝突警報装置。
An imaging means for capturing an image around the vehicle;
A motion amount calculating means for extracting vertical and horizontal edge images from the image captured by the imaging means and calculating the motion amounts of the vertical and horizontal edge images;
Information extraction means for extracting an image area including an object with a possibility of collision as an attention area according to the calculation result of the motion amount calculation means;
Collision time calculation means for calculating the collision time with the object using the vertical position and moving speed of the horizontal edge image included in the attention area extracted by the information extraction means;
A vehicle collision warning device comprising: a notification control unit that notifies that there is a possibility of collision according to the collision time calculated by the collision time calculation unit, or controls the vehicle so as to avoid a collision.
請求項1に記載の車両用衝突警報装置であって、
前記撮像手段は、対象物の移動速度よりも速い時間間隔で画像を撮像することを特徴とする車両用衝突警報装置。
The vehicle collision warning device according to claim 1,
The vehicle collision warning device, wherein the imaging means captures images at a time interval faster than a moving speed of an object.
請求項1又は請求項2に記載の車両用衝突警報装置であって、
前記情報抽出手段は、横方向の移動速度が所定値より小さい縦方向のエッジ画像が含まれる画像領域を注目領域として抽出することを特徴とする車両用衝突警報装置。
The vehicle collision warning device according to claim 1 or 2,
The vehicular collision warning device, wherein the information extracting means extracts an image area including a vertical edge image having a horizontal moving speed smaller than a predetermined value as a target area.
請求項1から請求項3のうち、いずれか1項に記載の車両用衝突警報装置であって、
前記情報抽出手段は、縦方向のエッジ画像を所定画素数膨張させることにより注目領域を拡大し、拡大された注目領域を衝突時間算出領域として設定する衝突時間算出領域設定手段を有し、前記衝突時間算出手段は、衝突時間算出領域内に含まれる横方向のエッジ画像の縦方向の位置及び移動速度を利用して、衝突時間を算出することを特徴とする車両用衝突警報装置。
The vehicle collision warning device according to any one of claims 1 to 3,
The information extraction means includes a collision time calculation area setting means for expanding the attention area by expanding a vertical edge image by a predetermined number of pixels, and setting the enlarged attention area as a collision time calculation area. The time calculation means calculates a collision time by using a vertical position and a moving speed of a horizontal edge image included in a collision time calculation area.
請求項4に記載の車両用衝突警報装置であって、
前記衝突時間算出領域設定手段は、注目領域に含まれる縦方向のエッジ画像の濃度勾配に応じて注目領域を拡大、又は縮小し、拡大、又は縮小された注目領域を衝突時間算出領域として設定することを特徴とする車両用衝突警報装置。
The vehicle collision warning device according to claim 4,
The collision time calculation area setting means enlarges or reduces the attention area according to the density gradient of the vertical edge image included in the attention area, and sets the enlarged or reduced attention area as the collision time calculation area. A vehicle collision warning device.
請求項4に記載の車両用衝突警報装置であって、
前記衝突時間算出領域設定手段は、注目領域に含まれる縦方向のエッジ画像の横方向の移動速度に応じて注目領域を拡大、又は縮小し、拡大、又は縮小された注目領域を衝突時間算出領域として設定することを特徴とする車両用衝突警報装置。
The vehicle collision warning device according to claim 4,
The collision time calculation area setting means enlarges or reduces the attention area according to the horizontal movement speed of the vertical edge image included in the attention area, and sets the enlarged or reduced attention area as the collision time calculation area. A collision alarm device for a vehicle, characterized by being set as follows.
請求項4から請求項6のうち、いずれか1項に記載の車両用衝突警報装置であって、
前記衝突時間算出領域設定手段は、縦方向の位置及び移動速度を検出可能な横方向のエッジ画像が注目領域が含まれない場合、所定の濃度変化量を有する横方向のエッジ画像が含まれるまで注目領域を拡大し、拡大された注目領域を衝突時間算出領域として設定することを特徴とする車両用衝突警報装置。
The vehicle collision warning device according to any one of claims 4 to 6,
The collision time calculation area setting means, when a horizontal edge image capable of detecting the vertical position and moving speed does not include the attention area, until the horizontal edge image having a predetermined density change amount is included. A vehicular collision warning device characterized by enlarging an attention area and setting the enlarged attention area as a collision time calculation area.
請求項1から請求項7のうち、いずれか1項に記載の車両用衝突警報装置であって、
前記報知制御手段は、衝突時間に応じて報知又は車両を制御するタイミングを設定することを特徴とする車両用衝突警報装置。
The vehicle collision warning device according to any one of claims 1 to 7,
The vehicle alarm device is characterized in that the notification control means sets a notification or timing for controlling the vehicle according to a collision time.
車両周囲の画像を撮像するステップと、
撮像された画像から縦方向及び横方向のエッジ画像を抽出し、縦方向及び横方向のエッジ画像の動き量を算出するステップと、
動き量の算出結果に従って、衝突可能性がある対象物が含まれる画像領域を注目領域として抽出するステップと、
抽出された注目領域内に含まれる横方向のエッジ画像の縦方向の位置及び移動速度を利用して、前記対象物との衝突時間を算出するステップと、
算出された衝突時間に従って、衝突可能性がある旨を報知、又は衝突を回避するように車両を制御するステップと
を有することを特徴とする車両用衝突警報方法。
Capturing an image around the vehicle;
Extracting vertical and horizontal edge images from the captured image and calculating the amount of motion of the vertical and horizontal edge images;
Extracting an image area including an object with a possibility of collision as an attention area according to the calculation result of the amount of movement;
Calculating the collision time with the object using the vertical position and moving speed of the horizontal edge image included in the extracted region of interest;
A vehicle collision warning method comprising: notifying that there is a possibility of collision according to the calculated collision time, or controlling the vehicle so as to avoid the collision.
JP2004278504A 2004-09-22 2004-09-24 Vehicle collision warning device and vehicle collision warning method Expired - Fee Related JP4075879B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2004278504A JP4075879B2 (en) 2004-09-24 2004-09-24 Vehicle collision warning device and vehicle collision warning method
US11/216,168 US7262710B2 (en) 2004-09-22 2005-09-01 Collision time estimation apparatus for vehicles, collision time estimation method for vehicles, collision alarm apparatus for vehicles, and collision alarm method for vehicles
DE602005011084T DE602005011084D1 (en) 2004-09-22 2005-09-07 Apparatus and method for estimating collision time for vehicles
EP05019471A EP1640937B1 (en) 2004-09-22 2005-09-07 Collision time estimation apparatus and method for vehicles

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004278504A JP4075879B2 (en) 2004-09-24 2004-09-24 Vehicle collision warning device and vehicle collision warning method

Publications (2)

Publication Number Publication Date
JP2006088940A true JP2006088940A (en) 2006-04-06
JP4075879B2 JP4075879B2 (en) 2008-04-16

Family

ID=36230307

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004278504A Expired - Fee Related JP4075879B2 (en) 2004-09-22 2004-09-24 Vehicle collision warning device and vehicle collision warning method

Country Status (1)

Country Link
JP (1) JP4075879B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120013799A (en) * 2010-08-06 2012-02-15 현대자동차주식회사 Method for controlling air bag module based on pre-crash information
JP2015182604A (en) * 2014-03-24 2015-10-22 東芝アルパイン・オートモティブテクノロジー株式会社 Image processing apparatus and image processing program
JP2016012264A (en) * 2014-06-30 2016-01-21 本田技研工業株式会社 Article detection device, drive support apparatus, article detection method, and article detection program
EP3002709A1 (en) * 2014-09-30 2016-04-06 Valeo Schalter und Sensoren GmbH Method for detecting an object in an environmental region of a motor vehicle, driver assistance system and motor vehicle

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120013799A (en) * 2010-08-06 2012-02-15 현대자동차주식회사 Method for controlling air bag module based on pre-crash information
KR101637598B1 (en) 2010-08-06 2016-07-08 현대자동차주식회사 Method for controlling air bag module based on pre-crash information
JP2015182604A (en) * 2014-03-24 2015-10-22 東芝アルパイン・オートモティブテクノロジー株式会社 Image processing apparatus and image processing program
JP2016012264A (en) * 2014-06-30 2016-01-21 本田技研工業株式会社 Article detection device, drive support apparatus, article detection method, and article detection program
EP3002709A1 (en) * 2014-09-30 2016-04-06 Valeo Schalter und Sensoren GmbH Method for detecting an object in an environmental region of a motor vehicle, driver assistance system and motor vehicle

Also Published As

Publication number Publication date
JP4075879B2 (en) 2008-04-16

Similar Documents

Publication Publication Date Title
US7262710B2 (en) Collision time estimation apparatus for vehicles, collision time estimation method for vehicles, collision alarm apparatus for vehicles, and collision alarm method for vehicles
US8670590B2 (en) Image processing device
EP2492871B1 (en) 3D object detecting apparatus and 3D object detecting method
JP5267596B2 (en) Moving body detection device
US7512494B2 (en) Vehicle mounted image processor and method of use
US8050459B2 (en) System and method for detecting pedestrians
Aytekin et al. Increasing driving safety with a multiple vehicle detection and tracking system using ongoing vehicle shadow information
JPH11353565A (en) Method and device for alarm of collision for vehicle
JP2011180982A (en) Lane marker detecting apparatus
JP6722051B2 (en) Object detection device and object detection method
JP2010256995A (en) Object recognition apparatus
JP2015225546A (en) Object detection device, drive support apparatus, object detection method, and object detection program
JP2012252501A (en) Traveling path recognition device and traveling path recognition program
JP2010003253A (en) Motion estimation device
JP4075879B2 (en) Vehicle collision warning device and vehicle collision warning method
JP2008003696A (en) Image processing apparatus and image processing method
JP4788399B2 (en) Pedestrian detection method, apparatus, and program
JP2005170290A (en) Obstacle detecting device
JP6032141B2 (en) Travel road marking detection device and travel road marking detection method
JP2006099155A (en) Collision deciding device and method
JP5493705B2 (en) Vehicle position detection device, vehicle position detection method, and vehicle position detection program
CN112513573B (en) Stereo camera device
JP4096932B2 (en) Vehicle collision time estimation apparatus and vehicle collision time estimation method
JP5430213B2 (en) Vehicle periphery monitoring device
JP6677142B2 (en) Parking frame recognition device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070904

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071102

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080121

R150 Certificate of patent or registration of utility model

Ref document number: 4075879

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110208

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120208

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120208

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130208

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130208

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140208

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees