JP2003248895A - System and method for image type vehicle sensing - Google Patents

System and method for image type vehicle sensing

Info

Publication number
JP2003248895A
JP2003248895A JP2002048568A JP2002048568A JP2003248895A JP 2003248895 A JP2003248895 A JP 2003248895A JP 2002048568 A JP2002048568 A JP 2002048568A JP 2002048568 A JP2002048568 A JP 2002048568A JP 2003248895 A JP2003248895 A JP 2003248895A
Authority
JP
Japan
Prior art keywords
image
projection
differential
time difference
moving body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002048568A
Other languages
Japanese (ja)
Other versions
JP3914447B2 (en
Inventor
Takanori Yamada
貴則 山田
Hisakuni Yokosuka
久訓 横須賀
Tomoyasu Kitagawa
朝靖 北川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Signal Co Ltd
Original Assignee
Nippon Signal Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Signal Co Ltd filed Critical Nippon Signal Co Ltd
Priority to JP2002048568A priority Critical patent/JP3914447B2/en
Publication of JP2003248895A publication Critical patent/JP2003248895A/en
Application granted granted Critical
Publication of JP3914447B2 publication Critical patent/JP3914447B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/273Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion removing elements interfering with the pattern to be recognised

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image type vehicle sensing system which detects only vehicles among moving bodies by securely removing only a shadow from an image obtained by an imaging means. <P>SOLUTION: The system comprises an imaging part 100 which photographs an image of an entry and sense area, an A/D conversion part 101 which converts analog image data into a digital signal, a multi-valued memory part 102 which stores the digital signal as multi-valued gradation data, difference image generation parts 103, 106, and 110 which generate time-difference images from frame images of a current frame and a last frame, projection value arithmetic parts 105 and 108 which generate projection images by computing the total of luminance values by lines, a differential image generation part 104 which performs differentiation processing in a direction perpendicular to the passing direction of a moving body, and AND processing parts 107 and 109 which performs AND processing for projection values. <P>COPYRIGHT: (C)2003,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、画像式車両感知シ
ステムに関し、さらに詳しくは、撮像手段により撮影さ
れた移動体の画像情報を画像処理することにより、前記
移動体から車両のみを検出する画像式車両感知システム
に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image type vehicle detection system, and more particularly to an image for detecting only a vehicle from a moving body by image-processing image information of the moving body taken by an image pickup means. Vehicle detection system.

【0002】[0002]

【従来の技術】交差点に設置されている信号機による指
示内容は、車両を運転する運転者にとっては道路交通法
規上、絶対遵守が求められる存在である。そして、信号
機の表示内容は、横断若しくは停止するための行動指針
となる。従って、もし、信号機が故障した場合、それに
よる交通渋滞、事故発生等の混乱には、計り知れないも
のがあり、信号機自体の信頼性確保は常に高いレベルで
要求されている。そして、信頼性確保と併せて要求され
ることが、信号機と車両交通量とのマッチングがとれた
システムの開発である。特に、信号機自体が単に所定時
間間隔で信号を切替えているだけでは道路の交通量、あ
るいは通行時間帯により刻々変化する状況をさばくこと
はできない。つまり、道路状況は生き物であり、信号灯
を所定のパターンで順次点灯させる信号機の制御方法で
は、このように変化する道路状況に対応することが困難
になってきている。そこで最近では信号機周辺の所定エ
リア内の交通量をリアルタイムに把握して、変化する交
通状況に合わせて最適な信号制御を行う信号機が多くな
ってきている。このシステムを有効に、しかも正確に稼
動させるための最重要課題は、路面上を移動する種々の
移動体中から車両だけを正確に感知することである。こ
の路面上を移動する移動体を感知するには、撮像手段が
必要であり、一般的にはビデオカメラが使われる。そし
て、交差点の手前から所定のエリアを撮影するように設
定されている。撮影するエリアは路面であるため、時
間、周辺状況、季節により変化する被写体である。例え
ば、昼間と夜では周辺の明るさ、あるいは交通量が異な
り、また、周辺が住宅街か否かによっても周りからの照
明量が異なる。さらに、季節が異なれば当然路面状況は
大きく変化する。例えば、冬に雪が降れば全く異なる状
況を呈することになる。
2. Description of the Related Art The contents of instructions given by traffic lights installed at intersections are required by drivers of vehicles to be absolutely obeyed by road traffic regulations. The display content of the traffic light serves as an action guideline for crossing or stopping. Therefore, if a traffic signal fails, the confusion such as traffic congestion and accident occurrence is immeasurable, and the reliability of the traffic signal itself is always required at a high level. What is required along with ensuring reliability is the development of a system in which traffic signals and vehicle traffic volume are matched. In particular, it is not possible to judge the situation that the traffic signal is constantly changing depending on the traffic volume of the road or the traffic time zone only by switching the signal at a predetermined time interval. In other words, the road condition is a living thing, and it is becoming difficult for the traffic signal control method of sequentially turning on the signal lights in a predetermined pattern to cope with the changing road condition. Therefore, recently, an increasing number of traffic lights are capable of grasping the traffic volume in a predetermined area around the traffic light in real time and performing optimal signal control according to the changing traffic situation. The most important issue for effective and accurate operation of this system is to accurately sense only the vehicle from among various moving bodies moving on the road surface. An image pickup means is required to detect a moving object moving on the road surface, and a video camera is generally used. Then, it is set so that a predetermined area is photographed before the intersection. Since the area to be photographed is the road surface, it is a subject that changes depending on time, surrounding conditions, and the season. For example, the brightness of the surroundings or the amount of traffic differs between daytime and night, and the amount of illumination from the surroundings also differs depending on whether or not the surroundings are residential areas. In addition, the road surface condition will change significantly depending on the season. For example, if it snows in winter, it will be a completely different situation.

【0003】このような背景から、従来より車両検出に
伴う課題を解決するために多くの提案がなされており、
例えば、特開平11−328378号公報には、路面上
の輝度の変化を明るい方向と暗い方向に分離して考え、
明るい色の車両の検出と暗い色の車両の検出とを個別に
行うことで、影の誤検出を抑える技術が開示されてい
る。これは、明方向データから明色物体を検出し、双方
向(明暗両方向)データと明方向データとから明色物体
として検出されなかった物体を検出するものである。ま
た、特開2001−273499公報には、背景画像と
次にサンプリングされた撮影画像との輝度差分値を求
め、それに応じたフィードバック量を背景画像に加算す
ることにより背景画像を更新する技術について開示され
ており、これは、サンプリングされた撮影画像と1つ前
にサンプリングされた撮影画像との輝度差画像と、前記
フィードバック量を元に移動体のみを抽出するものであ
る。また、特開平11−328578号公報には、時間
的に緩やかに変化する輝度分布を非常駐車帯の背景画像
に取り込み、背景画像との差分により車両を検出する技
術について開示されている。しかし、これら何れの公報
記載の技術にあっても、背景画像の設定が必要であり、
その背景画像を設定することは必ずしも容易ではない。
From such a background, many proposals have been conventionally made to solve the problems associated with vehicle detection.
For example, in Japanese Unexamined Patent Application Publication No. 11-328378, the change in luminance on the road surface is considered separately in a bright direction and a dark direction,
There is disclosed a technique for suppressing false detection of a shadow by separately detecting a bright color vehicle and a dark color vehicle. This is to detect a bright color object from the bright direction data, and to detect an object that is not detected as a bright color object from the bidirectional (bright / dark direction) data and the bright direction data. Further, Japanese Patent Application Laid-Open No. 2001-273499 discloses a technique for updating a background image by obtaining a brightness difference value between the background image and the next sampled captured image and adding a feedback amount corresponding to the brightness difference value to the background image. This is to extract only the moving object based on the brightness difference image between the sampled captured image and the sampled captured image immediately before and the feedback amount. Further, Japanese Patent Laid-Open No. 11-328578 discloses a technique of incorporating a luminance distribution that changes gently with time into a background image of an emergency parking zone and detecting a vehicle based on a difference from the background image. However, in any of the technologies described in these publications, it is necessary to set a background image,
Setting the background image is not always easy.

【0004】また、特開2000−113374公報に
は、車両前面の微分値が疎か密かにより、車両判定を行
う技術について開示されている。また、特開2001−
175845公報には、水平方向微分画像、垂直方向微
分画像を生成し、エッジにより車両の上端下端を検出す
る技術について開示されている。さらに、特開平05−
289009号公報には、エッジ画像の差分画像によ
り、車頭位置を検出する技術について開示されている。
しかしながら、これら何れの公報記載の技術も特徴の無
い車両の検出が困難であるといった問題がある。その
他、特開2000−113169公報には、車両の下影
領域を用いて車両を検出する技術が開示されているが、
車両進行方向の後方から撮影しているため、下影が出る
ことが前提条件でありトンネル内に限られる。また、特
開2000−168691公報には、車両の進行方向に
対して一定の間隔で設定された2つの車両感知領域間に
おける車両感知信号の立ち上がり時刻の差と立下り時刻
の差により、物体が高さを持つ物体か、高さを持たない
影かを判定する技術が開示されている。しかし、これに
は車両検出エリアが2つ必要である。さらに、特許第2
841652号公報、及び第2924063号公報に
は、車両の影の検出方法について開示されているが、車
の頭部を正しく検出する必要があったり、影の除去方法
が本発明とは異なる発明である。
Further, Japanese Unexamined Patent Publication No. 2000-113374 discloses a technique for determining a vehicle based on whether the differential value on the front surface of the vehicle is sparse or dense. In addition, Japanese Patent Laid-Open No. 2001-2001
Japanese Patent No. 175845 discloses a technique of generating a differential image in the horizontal direction and a differential image in the vertical direction and detecting an upper end and a lower end of a vehicle by edges. Furthermore, Japanese Patent Laid-Open No. 05-
Japanese Patent No. 289099 discloses a technique of detecting a vehicle head position by a difference image of edge images.
However, the techniques described in any of these publications have a problem that it is difficult to detect a vehicle having no characteristics. In addition, Japanese Unexamined Patent Application Publication No. 2000-113169 discloses a technique of detecting a vehicle by using a lower shadow area of the vehicle.
Since the image is taken from the rear of the direction of travel of the vehicle, it is a prerequisite that a shadow is visible, and is limited to the inside of the tunnel. Further, Japanese Patent Laid-Open No. 2000-168691 discloses that an object is detected due to a difference between a rising time and a falling time of a vehicle detection signal between two vehicle detection areas set at regular intervals in the traveling direction of the vehicle. A technique for determining whether an object has a height or a shadow having no height is disclosed. However, this requires two vehicle detection areas. Furthermore, the second patent
Japanese Patent No. 841652 and Japanese Patent No. 2924063 disclose a method for detecting a shadow of a vehicle. However, it is necessary to correctly detect the head of a vehicle, or a method for removing a shadow is different from the present invention. is there.

【0005】[0005]

【発明が解決しようとする課題】以上のように、従来の
方法では、背景画像の設定が必要であり、その背景画像
を設定することは必ずしも容易ではないといった問題
や、車両に特徴がないと検出が困難であったり、車両の
特定部分を検出しないと正しく検出できないといった問
題があった。本発明は、かかる課題に鑑み、撮像手段に
より得られた画像から影のみを確実に除去して移動体か
ら車両のみを検出する画像式車両感知システムを提供す
ることを目的とする。また、他の目的は、対向車線に移
動体が逆走してきた場合でも、その影を除去することが
できる画像式車両感知システムを提供することにある。
As described above, in the conventional method, it is necessary to set the background image, and it is not always easy to set the background image. There are problems that it is difficult to detect, and it cannot be detected correctly unless a specific part of the vehicle is detected. In view of the above problems, it is an object of the present invention to provide an image type vehicle detection system that reliably removes only shadows from an image obtained by an image pickup unit and detects only a vehicle from a moving body. Another object of the present invention is to provide an image-type vehicle detection system capable of removing the shadow of a moving body traveling backward in an oncoming lane.

【0006】[0006]

【課題を解決するための手段】本発明はかかる課題を解
決するために、請求項1は、撮像手段により撮影された
感知エリア内の移動体を画像情報処理により車両として
検出する画像式車両感知システムにおいて、前記撮像手
段により撮影された感知エリア内の移動体及び周辺の画
像を格納する画像格納手段と、現在フレームの画像情報
と該現在フレームの一つ前のフレーム画像情報から時間
差分画像を生成する差分画像生成手段と、前記移動体の
通行方向に対して垂直方向に微分処理する微分画像生成
手段と、前記差分画像生成手段からの出力画像のライン
毎の輝度値の合計を演算して投影像を生成する投影像生
成手段と、複数の投影像生成手段からの投影値を論理積
処理する論理積演算手段と、を備えたことを特徴とす
る。撮像手段は一般的にはビデオカメラであり、交差点
の手前から所定の感知エリアを撮影するように設定され
ている。撮影する感知エリアは路面であるため、時間、
周辺状況、季節により変化する被写体である。例えば、
昼間と夜では周辺の明るさ、あるいは交通量が異なり、
また、周辺が住宅街か否かによっても周りからの照明量
が異なる。さらに、季節が異なれば当然路面状況は大き
く変化する。例えば、冬に雪が降れば全く異なる状況を
呈することになる。従って、この状態での画像情報を一
旦メモリに格納し、その格納された画像情報から車両に
ついての画像情報のみを画像処理により抽出することが
必要となる。本発明では画像処理のために、1フレーム
前の画像との時間差分画像を生成する差分画像生成手段
により移動体の影を除去し、画像のエッジを検出する微
分画像生成手段により画像のエッジ部分を強調して画像
の輪郭を求め、前記差分画像生成手段からの出力画像の
ライン毎の輝度値の合計を演算して投影像を生成する投
影像生成手段により画像を論理演算可能なレベルに変換
し、複数の投影像生成手段からの投影値を論理積処理す
る論理積演算手段により最終的な投影値を算出する。か
かる発明によれば、画像処理のために差分画像生成手
段、微分画像生成手段、及び論理積演算手段を備えるこ
とにより、移動体から車両のみを確実に検出することが
できる。
In order to solve the above-mentioned problems, the present invention provides an image-type vehicle detection system for detecting a moving body in a sensing area photographed by an image pickup means as a vehicle by image information processing. In the system, an image storage unit for storing images of the moving body and its surroundings in the sensing area captured by the image capturing unit, a time difference image from image information of the current frame and frame image information immediately before the current frame. A difference image generating means for generating, a differential image generating means for differentiating in a direction perpendicular to the traveling direction of the moving body, and a sum of brightness values for each line of an output image from the difference image generating means are calculated. It is characterized in that it is provided with a projection image generating means for generating a projection image, and a logical product calculating means for performing a logical product processing of the projection values from the plurality of projection image generating means. The image pickup means is generally a video camera, and is set so as to photograph a predetermined sensing area from before the intersection. Since the sensing area for shooting is the road surface,
It is a subject that changes depending on the surrounding conditions and the season. For example,
The brightness of the surroundings or the traffic volume differs between daytime and night,
In addition, the amount of illumination from the surroundings varies depending on whether or not the surrounding area is a residential area. In addition, the road surface condition will change significantly depending on the season. For example, if it snows in winter, it will be a completely different situation. Therefore, it is necessary to temporarily store the image information in this state in the memory and extract only the image information about the vehicle from the stored image information by image processing. In the present invention, for image processing, the difference image generating means for generating a time difference image from the image one frame before is used to remove the shadow of the moving body, and the differential image generating means for detecting the edge of the image detects the edge portion of the image. Is emphasized to obtain the contour of the image, and the total of the brightness values for each line of the output image from the difference image generating means is calculated to generate a projected image. Then, the final projection value is calculated by the logical product calculating means which performs logical product processing of the projection values from the plurality of projection image generating means. According to this invention, by providing the differential image generating means, the differential image generating means, and the logical product calculating means for image processing, it is possible to reliably detect only the vehicle from the moving body.

【0007】請求項2では、前記差分画像生成手段によ
り得られた時間差分画像から前記投影像生成手段により
第1の投影像を生成すると共に、前記微分画像生成手段
により得られた微分画像から前記差分画像生成手段によ
り時間差分画像を生成後、該時間差分画像を前記投影像
生成手段により第2の投影像を生成し、前記第1の投影
像と第2の投影像を前記論理積演算手段により演算する
ことにより前記画像情報から車両のみを検出することも
本発明の有効な手段である。移動体からその影を除去す
るためには、現在フレームの画像から1フレーム前の画
像を引き算し、画像の輝度値が負の場合はゼロとするこ
とにより可能である。つまり、並走する移動体がない場
合、感知エリアに進入した移動体とその影の画像から、
感知エリアに進入する前の画像を引き算すると移動体の
輝度値は正となり、影のみが負となる性質を利用する。
ここで、影は路面より必ず暗いため輝度値が負となるの
で消去することができる。しかし、このとき並走する移
動体がある場合、並走する移動体の影が感知エリアに存
在するので、その影も同時に時間差分画像として現れ
る。このような時間差分画像を論理演算可能なレベルに
変換するために、次に、その画像のライン毎の輝度値を
加算していき輝度値の投影像を作成する。一方、同時に
画像のエッジ部分を検出するために感知エリア内の画像
を微分する(具体的な方法は後述する)。そして、その
微分画像から固定部物の影を除去するために前記と同様
に、微分画像の時間差分画像を生成する。この方法は、
前記と同様にして現在のフレーム画像(固定物と移動体
とその影のエッジ画像)から1フレーム前の微分画像
(固定物のみのエッジ画像)を引き算して固定物のエッ
ジ画像を除去する。その後エッジ画像を論理演算可能な
レベルに変換するために、その画像のライン毎の輝度値
を加算していき輝度値の投影像を作成する。ここで、2
種類の投影像が生成されたことになり、この2種類の投
影画像を論理積することにより、車両部分の投影像が時
間的に一致して論理積処理がなされて出力される。
According to a second aspect of the present invention, the first projected image is generated by the projected image generating means from the time difference image obtained by the differential image generating means, and the first projected image is generated by the differential image generating means by the differential image generating means. After the time difference image is generated by the difference image generating means, the time difference image is generated by the projection image generating means to generate a second projection image, and the first projection image and the second projection image are calculated by the AND operation means. It is also an effective means of the present invention to detect only the vehicle from the image information by calculating by In order to remove the shadow from the moving body, it is possible to subtract the image one frame before from the image of the current frame and set it to zero when the luminance value of the image is negative. In other words, if there is no moving object running in parallel, from the image of the moving object that entered the sensing area and its shadow,
When the image before entering the sensing area is subtracted, the brightness value of the moving body becomes positive and only the shadow becomes negative.
Here, since the shadow is always darker than the road surface, the brightness value is negative, so it can be erased. However, if there is a moving body running in parallel at this time, since the shadow of the moving body running in parallel exists in the sensing area, the shadow also appears as a time difference image. In order to convert such a time difference image into a level at which a logical operation is possible, next, the brightness value for each line of the image is added to create a projected image of the brightness value. On the other hand, at the same time, the image in the sensing area is differentiated in order to detect the edge portion of the image (a specific method will be described later). Then, in order to remove the shadow of the fixed part from the differential image, the time difference image of the differential image is generated in the same manner as described above. This method
In the same manner as described above, the edge image of the fixed object is removed by subtracting the differential image (the edge image of only the fixed object) one frame before from the current frame image (the edge image of the fixed object, the moving object and its shadow). After that, in order to convert the edge image into a level at which a logical operation is possible, the brightness values for each line of the image are added to create a projected image of the brightness value. Where 2
This means that different types of projection images have been generated, and by logically multiplying these two types of projection images, the projection images of the vehicle parts are temporally coincident, and the logical product processing is performed and output.

【0008】かかる技術手段によれば、前記差分画像生
成手段により得られた時間差分画像を前記投影像生成手
段により第1の投影像を生成すると共に、前記微分画像
生成手段により得られた微分画像から前記差分画像生成
手段により時間差分画像を生成後、該時間差分画像を前
記投影像生成手段により第2の投影像を生成し、前記第
1の投影像と第2の投影像を前記論理積演算手段により
演算することにより、並走する移動体の影と固定物の影
を除去して車両のみを検出することができる。請求項3
では、前記微分画像生成手段は、前記画像情報の基準画
素の座標をT(x、y)、該座標での輝度値をP(x、
y)としたとき、P(x、y)>P(x、y−1)の場
合、座標T(x、y)の輝度値をP(x、y)−P
(x、y−1)とし、P(x、y)≦P(x、y−1)
の場合、座標T(x、y)の輝度値を0とすることも本
発明の有効な手段である。
According to the technical means, the time difference image obtained by the difference image generating means is used by the projection image generating means to generate the first projection image, and the differential image is obtained by the differential image generating means. After the time difference image is generated by the difference image generating means, the time difference image is generated by the projection image generating means as a second projection image, and the first projection image and the second projection image are subjected to the logical product. By calculating with the calculating means, it is possible to detect only the vehicle by removing the shadow of the moving body and the shadow of the fixed object running in parallel. Claim 3
Then, the differential image generation means sets the coordinates of the reference pixel of the image information to T (x, y) and the brightness value at the coordinates to P (x,
y), and P (x, y)> P (x, y-1), the brightness value of the coordinate T (x, y) is P (x, y) -P.
(X, y−1), P (x, y) ≦ P (x, y−1)
In this case, setting the luminance value of the coordinate T (x, y) to 0 is also an effective means of the present invention.

【0009】移動する画像を微分することは、その対象
物の変化率を算出することである。そこで、画像を画素
単位に分解して、ある基準画素に対してその画素の前後
の変化を見ることによりエッジを検出することができ
る。例えば、基準画素の座標をT(x、y)、該座標で
の輝度値をP(x、y)としたとき、座標T(x、y)
と隣接する座標T(x、y−1)の輝度値P(x、y−
1)がP(x、y)より暗い場合(つまり、暗いところ
から明るいところに変化した場合)、その座標点の輝度
値を基準座標の輝度値と隣接画素の輝度値の差分とす
る。また、この逆の場合、座標T(x、y)と隣接する
座標T(x、y−1)の輝度値P(x、y−1)がP
(x、y)と等しいか、あるいは明るい場合(つまり、
明るいところから暗いところに変化した場合)ゼロにす
る。これにより、並走する移動体の陰影エッジ画像を除
去することができる。かかる技術手段によれば、前記微
分画像生成手段は、前記画像情報の基準画素の座標をT
(x、y)、該座標での輝度値をP(x、y)としたと
き、P(x、y)>P(x、y−1)の場合、座標T
(x、y)の輝度値をP(x、y)−P(x、y−1)
とし、P(x、y)≦P(x、y−1)の場合、座標T
(x、y)の輝度値を0とすることにより、感知エリア
内の画像の明暗方向により微分画像を生成することがで
きる。
Differentiating a moving image is calculating the rate of change of the object. Therefore, the edge can be detected by dividing the image into pixel units and observing the change before and after that pixel with respect to a certain reference pixel. For example, when the coordinate of the reference pixel is T (x, y) and the brightness value at the coordinate is P (x, y), the coordinate T (x, y)
And the brightness value P (x, y−) of the coordinate T (x, y−1) adjacent to
When 1) is darker than P (x, y) (that is, when it changes from a dark place to a bright place), the brightness value of the coordinate point is set as the difference between the brightness value of the reference coordinates and the brightness value of the adjacent pixel. In the opposite case, the brightness value P (x, y-1) of the coordinate T (x, y-1) adjacent to the coordinate T (x, y) is P.
Equal to (x, y) or bright (ie,
When changing from a bright place to a dark place) Set to zero. Thereby, the shadow edge image of the moving body running in parallel can be removed. According to the technical means, the differential image generating means sets the coordinates of the reference pixel of the image information to T
(X, y), where P (x, y) is the brightness value at the coordinate, and P (x, y)> P (x, y−1), the coordinate T
The brightness value of (x, y) is P (x, y) -P (x, y-1)
And P (x, y) ≦ P (x, y−1), the coordinate T
By setting the brightness value of (x, y) to 0, a differential image can be generated according to the light-dark direction of the image in the sensing area.

【0010】請求項4では、前記差分画像生成手段は、
前記感知エリア内の前記移動体の現在フレームの画像の
輝度値から該現在フレームの一つ前のフレーム画像の輝
度値を減算し、該減算結果の画像輝度値から負の輝度値
をゼロにすることにより、前記移動体に含まれる陰影部
分を除去することも本発明の有効な手段である。時間差
分画像は、感知エリア内の現在のフレーム画像から1フ
レーム前の画像を引き算して得られる。つまり、対象が
移動体の場合、その対象は常に移動しており、その変化
を捉えるには1フレーム前の画像と比較する必要があ
る。そして、その画像を引き算することにより、移動体
の輝度値が正の部分と負の部分の差分が残り、その差分
の輝度値が負の部分をゼロにすることにより輝度値の正
の差分のみが残る。これにより、移動体の影を除去する
ことができる。かかる技術手段によれば、前記差分画像
生成手段は、前記感知エリア内の前記移動体の現在フレ
ームの画像の輝度値から該現在フレームの一つ前のフレ
ーム画像の輝度値を減算し、該減算結果の画像輝度値か
ら負の輝度値をゼロにすることにより、前記移動体に含
まれる陰影部分を除去することにより、移動体の影を除
去することができる。
In the fourth aspect, the difference image generating means is
The brightness value of the frame image immediately before the current frame is subtracted from the brightness value of the image of the current frame of the moving body in the sensing area, and the negative brightness value is set to zero from the image brightness value of the subtraction result. Therefore, it is also an effective means of the present invention to remove the shaded portion included in the moving body. The time difference image is obtained by subtracting the image one frame before from the current frame image in the sensing area. In other words, when the target is a moving body, the target is always moving, and it is necessary to compare it with the image one frame before in order to capture the change. Then, by subtracting the image, the difference between the positive portion and the negative portion of the brightness value of the moving object remains, and by setting the negative portion of the difference brightness value to zero, only the positive difference of the brightness value is obtained. Remains. As a result, the shadow of the moving body can be removed. According to the technical means, the difference image generation means subtracts the luminance value of the frame image immediately before the current frame from the luminance value of the image of the current frame of the moving body in the sensing area, and the subtraction is performed. By setting the negative luminance value to zero from the resulting image luminance value, the shadow of the moving body can be removed by removing the shaded portion included in the moving body.

【0011】請求項5では、前記微分画像生成手段によ
り固定物の陰影及び前記移動体の陰影を微分処理した微
分画像の一フレーム前の微分画像から前記差分画像生成
手段により時間差分画像を生成することにより前記固定
物の陰影と前記移動体の陰影を同時に除去することも本
発明の有効な手段である。固定物が感知エリア内に常に
存在する場合、移動体の陰影と同時に、この固定物の影
を除去する必要がある。その一つの方法として感知エリ
ア内の固定物の影が撮影される部分を強制的に画像処理
を行わないようにする方法である。しかし、この方法
は、固定物の大きさや位置が変化した場合、対応が困難
となる。そこで、画像処理により除去できれば好まし
い。その方法として感知エリア内の画像を移動体の進行
方向に対して垂直に微分処理する方法が考えられる。そ
して、画像の輝度値が暗から明に変化した場合のみ、そ
の輝度値の差分を輝度値とし、逆に明から暗に変化した
場合は、輝度値をゼロにすれば移動体の陰影エッジは除
去され、固定物は常に微分されることになる。そして、
その画像を前記の時間差分処理を行うことにより、全て
のフレームに撮影される固定物の微分画像は引き算によ
り除去される。かかる技術手段によれば、前記微分画像
生成手段により固定物の陰影及び前記移動体の陰影を微
分処理した微分画像の一フレーム前の微分画像から前記
差分画像生成手段により時間差分画像を生成することに
より、固定物と並走する移動体の陰影の画像を除去する
ことができる。
According to a fifth aspect of the present invention, the differential image generating means generates a time difference image from the differential image one frame before the differential image obtained by differentiating the shadow of the fixed object and the shadow of the moving body by the differential image generating means. Therefore, it is also an effective means of the present invention to remove the shadow of the fixed object and the shadow of the moving body at the same time. If the fixed object is always present in the sensing area, it is necessary to remove the shadow of the fixed object at the same time as the shadow of the moving object. As one of the methods, there is a method of forcibly not performing image processing on the portion of the sensing area where the shadow of the fixed object is captured. However, this method is difficult to handle when the size or position of the fixed object changes. Therefore, it is preferable that the image can be removed by image processing. As a method therefor, a method of differentiating the image in the sensing area perpendicularly to the traveling direction of the moving body can be considered. Then, only when the brightness value of the image changes from dark to bright, the difference between the brightness values is used as the brightness value. Conversely, when the brightness value changes from bright to dark, the shadow edge of the moving object is set to zero by setting the brightness value to zero. Removed and the fixed matter will always be differentiated. And
By performing the time difference processing on the image, the differential image of the fixed object captured in all the frames is removed by subtraction. According to the technical means, the differential image generating means generates the time difference image from the differential image one frame before the differential image in which the shadow of the fixed object and the shadow of the moving body are differentiated by the differential image generating means. By this, it is possible to remove the image of the shadow of the moving body running in parallel with the fixed object.

【0012】請求項6は、撮像手段により撮影された感
知エリア内の移動体を画像情報処理により車両として検
出する画像式車両感知システムにおいて、前記撮像手段
により撮影された進入判定エリア内の移動体及び周辺の
画像を格納する進入画像格納手段と、前記移動体の進行
方向に前記進入判定エリアに連続して設けられた感知エ
リア内の移動体及び周辺の画像を格納する感知画像格納
手段と、現在フレームのN(Nは1以上の整数)フレー
ム前の画像情報と前記現在フレームの(N−1)フレー
ム前の画像情報から時間差分画像を生成する差分画像生
成手段と、前記移動体の通行方向に対して垂直方向に微
分処理する微分画像生成手段と、前記差分画像生成手段
からの出力画像のライン毎の輝度値の合計を演算して投
影像を生成する投影像生成手段と、複数の投影像生成手
段からの投影値を論理積処理する論理積演算手段と、を
備えたことを特徴とする。前記請求項1から請求項5ま
では、複数車線を並走する移動体の画像処理である。し
かし、対向車線がある場合は、対向車線の移動体が逆走
してくるため、感知エリア内にその影が含まれてしまう
可能性がある。従って、この余分な逆走移動体の影を予
め除去しておく必要がある。その方法として、感知エリ
アの手前に進入判定エリアを設け、その中で逆走移動体
の影を除去しようとするものである。具体的には、進入
判定エリア内の現在フレームのNフレーム前の画像から
現在フレームの(N−1)フレーム前の画像を引き算し
て時間差分画像を生成し、その投影値を求めておく。次
に、感知エリア内の画像から前記請求項2の方法により
時間差分画像と微分画像から投影値を求め、前記投影値
同志を論理積処理することにより、逆走移動体の影を除
去した車両を感知することができる。かかる技術手段に
よれば、更に、進入判定エリア内に時間差分画像を生成
するエリアを設けることにより、予め逆走移動体の影を
除去することができる。
According to a sixth aspect of the present invention, in an image type vehicle detection system for detecting a moving body in a sensing area photographed by the image pickup means as a vehicle by image information processing, the moving body in the entry determination area photographed by the image pickup means. And an approach image storage means for storing images of the surrounding area, and a sense image storage means for storing images of the moving body and the surrounding area in a sensing area continuously provided in the entry determination area in the traveling direction of the moving body, Difference image generation means for generating a time difference image from image information N frames before the current frame (N is an integer of 1 or more) and image information before (N-1) frames of the current frame, and the passage of the moving body. A differential image generating means for performing a differential processing in a direction perpendicular to the direction, and a projection image for generating a projected image by calculating the sum of the brightness values for each line of the output image from the difference image generating means. Wherein the image generation unit, a logical product operation means for logical processing projection values from the plurality of projection image generator, further comprising a. The first to fifth aspects are image processing of a moving body running in parallel in a plurality of lanes. However, when there is an oncoming lane, a moving object in the oncoming lane runs in the opposite direction, which may cause the shadow to be included in the sensing area. Therefore, it is necessary to remove the extra shadow of the reverse moving body in advance. As a method, an approach determination area is provided in front of the sensing area, and the shadow of the reverse running vehicle is to be removed in the area. Specifically, a time difference image is generated by subtracting the image of the (N-1) th frame of the current frame from the image of the Nth frame before the current frame in the entry determination area, and the projection value thereof is obtained. Next, from the image in the sensing area, the projection value is obtained from the time difference image and the differential image by the method of claim 2, and the projection values are logically ANDed to remove the shadow of the reverse running vehicle. Can be sensed. According to such a technical means, by further providing an area for generating a time difference image in the entry determination area, it is possible to remove the shadow of the reverse traveling vehicle in advance.

【0013】請求項7では、前記進入画像格納手段に格
納された前記進入判定エリア内の画像を前記差分画像生
成手段により第1の時間差分画像を生成し、該第1の時
間差分画像を前記投影像生成手段により第1の投影像を
生成すると共に、前記感知画像格納手段に格納された前
記感知エリア内の画像を前記差分画像生成手段により第
2の時間差分画像を生成し、該第2の時間差分画像を前
記投影像生成手段により第2の投影像を生成し、前記微
分画像生成手段により得られた微分画像から前記差分画
像生成手段により第3の時間差分画像を生成後、該第3
の時間差分画像を前記投影像生成手段により第3の投影
像を生成し、前記第1の投影像、第2の投影像及び第3
の投影像を前記論理積演算手段により演算することによ
り前記画像情報から逆走移動体の陰影部分を除去して車
両のみを検出することも本発明の有効な手段である。前
記で述べたように、移動体からその影を除去するために
は、現在フレームの画像から1フレーム前の画像を引き
算し、画像の輝度値が負の場合はゼロとすることにより
可能である。つまり、進入判定エリアに進入した移動体
とその影の画像(現在フレームのNフレーム前の画像)
から、(N−1)フレーム前の画像を引き算すると移動
体の輝度値は正となり、影のみが負となるので消去する
ことができる。しかし、このとき逆走する移動体がある
場合、逆走する移動体の影が感知エリアには存在してし
まい、その影も同時に時間差分画像として現れる。ま
た、固定物の影を除去するために感知エリア内の画像を
微分して、その微分画像の時間差分画像を生成して除去
しておく。このような時間差分画像を論理演算可能なレ
ベルに変換するために、次に、進入判定エリアのNフレ
ーム前の時間差分画像と感知エリアの時間差分画像を、
画像のライン毎の輝度値を加算していき輝度値の投影像
を夫々作成する。これにより進入判定エリアの投影像に
は車両のみが現れ、感知エリアの投影像には逆走する移
動体の影と車両の投影像が現れ、微分画像には逆走する
移動体の影と車両と車両の影の投影像が現れる。これら
を論理積することにより車両部分の投影像が時間的に一
致して論理積処理がなされて出力される。かかる技術手
段によれば、前記第1の投影像、第2の投影像及び第3
の投影像を前記論理積演算手段により演算することによ
り前記画像情報から逆走移動体の陰影部分を除去して車
両のみを検出することができる。
According to a seventh aspect of the present invention, a first time difference image is generated from the image in the entrance determination area stored in the entrance image storage means by the difference image generating means, and the first time difference image is generated from the first time difference image. The first projection image is generated by the projection image generating means, and the image in the sensing area stored in the sensing image storage means is generated by the difference image generating means to generate a second time difference image, and the second time difference image is generated. Of the time difference image is generated by the projection image generating means, a second projection image is generated, and the third time difference image is generated by the difference image generating means from the differential image obtained by the differential image generating means. Three
The time-difference image of the third projection image is generated by the projection image generating means, and the first projection image, the second projection image, and the third projection image are generated.
It is also an effective means of the present invention to detect only the vehicle by removing the shaded portion of the reverse traveling vehicle from the image information by calculating the projected image of the above with the logical product calculating means. As described above, in order to remove the shadow from the moving object, it is possible to subtract the image one frame before from the image of the current frame and set it to zero when the brightness value of the image is negative. . In other words, an image of the moving body that entered the entry determination area and its shadow (image N frames before the current frame)
Therefore, when the image of the (N-1) th frame before is subtracted, the luminance value of the moving body becomes positive and only the shadow becomes negative, so that it can be erased. However, at this time, when there is a moving body running in the reverse direction, the shadow of the moving body running in the reverse direction exists in the sensing area, and the shadow also appears as a time difference image. Further, in order to remove the shadow of the fixed object, the image in the sensing area is differentiated, and a time difference image of the differential image is generated and removed. In order to convert such a time difference image into a level capable of logical operation, next, the time difference image N frames before the entry determination area and the time difference image of the sensing area are
The brightness values for each line of the image are added to create a projected image of the brightness value. As a result, only the vehicle appears in the projected image of the entry determination area, the shadow of the moving object moving backward and the projected image of the vehicle appearing in the projected image of the sensing area, and the shadow of the moving object moving backward and the vehicle appearing in the differential image. And a projected image of the shadow of the vehicle appears. By logically multiplying these, the projected images of the vehicle portion are temporally coincident, and the logical product processing is performed and output. According to such technical means, the first projected image, the second projected image, and the third projected image
By calculating the projected image of (1) by the logical product calculating means, it is possible to detect only the vehicle by removing the shaded portion of the reverse traveling vehicle from the image information.

【0014】請求項8では、前記感知エリアは車両感知
領域内に1個所設定することにより前記移動体から車両
の特定を可能としたことも本発明の有効な手段である。
本発明の車両感知方法は、所定のエリア内の画像から移
動体の影を除去して車両を特定する方法である。従っ
て、車両感知領域内に所定のエリアが1箇所あれば画像
処理が可能である。かかる技術手段によれば、前記感知
エリアは車両感知領域内に1個所設定することにより前
記移動体から車両の特定を可能としたので、システムの
コストを安くすることができる。請求項9では、前記差
分画像生成手段及び前記微分画像生成手段は、所定の時
間間隔で1フレーム単位に前記格納手段に格納された画
像情報を画像処理することも本発明の有効な手段であ
る。撮像手段で撮影された画像は、一旦メモリに格納さ
れ、そのメモリから所定の時間間隔で読み出される。そ
の時間間隔は一般的には1画面単位、つまりフレーム単
位である。これにより、メモリ容量は少なくとも1フレ
ーム分以上あればよく、メモリ容量を節約することがで
きる。かかる技術手段によれば、前記差分画像生成手段
及び前記微分画像生成手段は、所定の時間間隔で1フレ
ーム単位に前記格納手段に格納された画像情報を画像処
理するので、少ないメモリ容量でシステムを構築するこ
とができる。請求項10では、撮影された感知エリア内
の移動体を画像情報処理により車両として検出する画像
式車両感知方法において、撮影された感知エリア内の移
動体及び周辺の画像を格納するステップと、この格納さ
れた画像情報に基づいて現在フレームと該現在フレーム
の一つ前のフレーム画像から時間差分画像を生成するス
テップと、前記移動体の通行方向に垂直な方向に微分処
理するステップと、前記差分画像生成ステップからの出
力画像のライン毎の輝度値の合計を演算して投影像を生
成するステップと、複数の投影像生成ステップからの投
影値を論理積処理するステップと、を備え、前記差分画
像生成ステップにより得られた時間差分画像を前記投影
像生成ステップにより第1の投影像を生成すると共に、
前記微分画像生成ステップにより得られた微分画像から
前記差分画像生成ステップにより時間差分画像を生成
後、該時間差分画像を前記投影像生成ステップにより第
2の投影像を生成し、前記第1の投影像と第2の投影像
を前記論理積演算ステップにより演算することにより前
記画像情報から車両のみを検出するたことを特徴とす
る。かかる発明によれば、請求項1、2と同様の作用効
果を奏する。
In the present invention, it is also an effective means of the present invention that the sensing area is set at one location within the vehicle sensing area so that the vehicle can be identified from the moving body.
The vehicle detection method of the present invention is a method of identifying a vehicle by removing a shadow of a moving body from an image in a predetermined area. Therefore, if there is one predetermined area in the vehicle detection area, image processing is possible. According to such a technical means, the vehicle can be specified from the moving body by setting one sensing area in the vehicle sensing area, so that the system cost can be reduced. In the ninth aspect, it is also an effective means of the present invention that the difference image generating means and the differential image generating means perform image processing on the image information stored in the storage means in units of one frame at predetermined time intervals. . The image photographed by the image pickup means is temporarily stored in the memory and read out from the memory at predetermined time intervals. The time interval is generally one screen unit, that is, a frame unit. As a result, the memory capacity may be at least one frame or more, and the memory capacity can be saved. According to this technical means, the difference image generating means and the differential image generating means image-process the image information stored in the storing means in units of one frame at a predetermined time interval, so that the system can be constructed with a small memory capacity. Can be built. According to a tenth aspect of the present invention, in the image type vehicle detection method for detecting a moving object in a sensed area as a vehicle by image information processing, a step of storing an image of the moving object in the sensed area and the surrounding area, A step of generating a time difference image from the current frame and a frame image immediately before the current frame based on the stored image information; a step of differentiating in a direction perpendicular to the traveling direction of the moving body; The step of calculating the sum of the brightness values for each line of the output image from the image generation step to generate a projection image; and the step of performing a logical product process on the projection values from the plurality of projection image generation steps, The time-difference image obtained in the image generation step is used to generate a first projection image in the projection image generation step, and
After the time difference image is generated by the difference image generating step from the differential image obtained by the differential image generating step, a second projection image is generated from the time difference image by the projection image generating step, and the first projection is generated. Only the vehicle is detected from the image information by calculating the image and the second projected image in the logical product calculating step. According to this invention, the same effects as those of the first and second aspects are achieved.

【0015】請求項11は、撮影された感知エリア内の
移動体を画像情報処理により車両として検出する画像式
車両感知方法において、進入判定エリア内の移動体及び
周辺の画像を格納するステップと、前記移動体の進行方
向に前記進入判定エリアに連続して設けられた感知エリ
ア内の移動体及び周辺の画像を格納するステップと、現
在フレームのN(Nは1以上の整数)フレーム前の画像
情報と前記現在フレームの(N−1)フレーム前の画像
情報から時間差分画像を生成するステップと、前記移動
体の通行方向に対して垂直方向に微分処理する微分画像
生成ステップと、前記差分画像生成ステップからの出力
画像のライン毎の輝度値の合計を演算して投影像を生成
する投影像生成ステップと、複数の投影像生成ステップ
からの投影値を論理積処理する論理積演算ステップと、
を備え、前記進入判定エリア内の画像を前記差分画像生
成ステップにより第1の時間差分画像を生成し、該第1
の時間差分画像を前記投影像生成ステップにより第1の
投影像を生成すると共に、前記感知エリア内の画像を前
記差分画像生成ステップにより第2の時間差分画像を生
成し、該第2の時間差分画像を前記投影像生成ステップ
により第2の投影像を生成し、前記微分画像生成ステッ
プにより得られた微分画像から前記差分画像生成ステッ
プにより第3の時間差分画像を生成後、該第3の時間差
分画像を前記投影像生成ステップにより第3の投影像を
生成し、前記第1の投影像、第2の投影像、及び第3の
投影像を前記論理積演算ステップにより演算することに
より前記画像情報から逆走移動体の陰影部分を除去して
車両のみを検出することを特徴とする。かかる発明によ
れば、請求項6、7と同様の作用効果を奏する。
According to an eleventh aspect of the present invention, in an image type vehicle detection method for detecting a moving object in a sensed area that has been photographed as a vehicle by image information processing, a step of storing an image of the moving object in the entry determination area and its surroundings. A step of storing an image of the moving body and its surroundings in a sensing area continuously provided in the approach determination area in the traveling direction of the moving body, and an image before N frames (N is an integer of 1 or more) of the current frame. A step of generating a time difference image from the information and image information of (N-1) th frame before the current frame; a differential image generating step of differentiating in a direction perpendicular to a traveling direction of the moving body; The projection image generation step that calculates the sum of the brightness values for each line of the output image from the generation step to generate a projection image, and the projection values from the plurality of projection image generation steps are discussed. A logical product operation steps of product processing,
A first time difference image is generated from the image in the entry determination area by the difference image generating step, and the first time difference image is generated.
And a second time difference image is generated by the difference image generating step, and a second time difference image is generated by the difference image generating step. A second projection image of the image is generated by the projection image generation step, and a third time difference image is generated by the difference image generation step from the differential image obtained by the differential image generation step, and then the third time is generated. A third projection image is generated from the difference image by the projection image generation step, and the first projection image, the second projection image, and the third projection image are calculated by the logical product calculation step, and the image is obtained. The feature is that only the vehicle is detected by removing the shaded portion of the reverse traveling vehicle from the information. According to this invention, the same effects as those of the sixth and seventh aspects are achieved.

【0016】[0016]

【発明の実施の形態】以下、本発明を図に示した実施形
態を用いて詳細に説明する。但し、この実施形態に記載
される構成要素、種類、組み合わせ、形状、その相対配
置などは特定的な記載がない限り、この発明の範囲をそ
れのみに限定する主旨ではなく単なる説明例に過ぎな
い。図1は、本発明の一実施形態に係る画像式車両感知
システムの構成ブロック図である。この構成は、大きく
3つの部分から構成されている。つまり、共通部分であ
る撮像記憶部140、感知エリア内の画像認識部12
0、進入エリア内の画像認識部130である。撮像記憶
部140には、CCDカメラで構成され、進入及び感知
エリアの画像を撮影する撮像部100と、撮像部100
で撮影されたアナログ画像データをデジタル信号に変換
するA/D変換部101と、デジタル信号に変換された
信号を多値階調データとして格納する多値メモリ部10
2がある。また、感知エリア内の画像認識部120に
は、多値メモリ部102のデータを所定のフレーム単位
に取り出し、現在フレームと一つ前のフレーム画像から
時間差分画像を生成する差分画像生成部103と、この
差分画像生成部103からの出力画像のライン毎の輝度
値の合計を演算して投影像を生成する投影値演算部10
5と、移動体の通行方向に垂直な方向に微分処理する微
分画像生成部104と、この微分画像生成部104の画
像の現在フレームと一つ前のフレーム画像から時間差分
画像を生成する差分画像生成部106と、この差分画像
生成部106からの出力画像のライン毎の輝度値の合計
を演算して投影像を生成する投影値演算部108と、前
記投影値演算部105と投影値演算部108からの投影
値を論理積処理するAND処理部107から構成されて
いる。また、進入エリア内の画像認識部130には、多
値メモリ部102のデータを所定のフレーム単位に取り
出し、Nフレーム前と(N−1)フレーム前の画像から
時間差分画像を生成する差分画像生成部110と、この
差分画像生成部110からの出力画像のライン毎の輝度
値の合計を演算して投影像を生成する投影値演算部11
1から構成されている。そして、AND処理部107の
出力112と投影値演算部111の出力113をAND
処理部109に入力している。
BEST MODE FOR CARRYING OUT THE INVENTION The present invention will be described in detail below with reference to the embodiments shown in the drawings. However, the constituent elements, types, combinations, shapes, relative arrangements, and the like described in this embodiment are merely explanatory examples, not the gist of limiting the scope of the present invention thereto, unless specifically stated. . FIG. 1 is a configuration block diagram of an image type vehicle detection system according to an embodiment of the present invention. This structure is roughly composed of three parts. That is, the imaging storage unit 140, which is a common part, and the image recognition unit 12 in the sensing area
0, the image recognition unit 130 in the entry area. The imaging storage unit 140 is composed of a CCD camera and captures an image of the approaching and sensing areas.
A / D conversion unit 101 for converting the analog image data photographed in 1. into a digital signal, and multi-value memory unit 10 for storing the signal converted into a digital signal as multi-value gradation data.
There are two. Further, the image recognition unit 120 in the sensing area includes a difference image generation unit 103 that extracts the data of the multi-valued memory unit 102 in a predetermined frame unit and generates a time difference image from the current frame and the frame image immediately before. A projection value calculation unit 10 that calculates the sum of the brightness values for each line of the output image from the difference image generation unit 103 to generate a projection image.
5, a differential image generation unit 104 that performs differential processing in a direction perpendicular to the moving direction of the moving body, and a differential image that generates a time differential image from the current frame of the image of the differential image generation unit 104 and the previous frame image. The generation unit 106, a projection value calculation unit 108 that calculates the sum of the brightness values for each line of the output image from the difference image generation unit 106 to generate a projection image, the projection value calculation unit 105, and the projection value calculation unit. It is composed of an AND processing unit 107 which performs a logical product process on the projection values from 108. Further, the image recognition unit 130 in the entry area takes out the data of the multi-valued memory unit 102 in a predetermined frame unit and generates a time difference image from images N frames before and (N-1) frames before. The generation unit 110 and a projection value calculation unit 11 that calculates the sum of the brightness values for each line of the output image from the difference image generation unit 110 to generate a projection image.
It is composed of 1. Then, the output 112 of the AND processing unit 107 and the output 113 of the projection value calculation unit 111 are ANDed.
It is input to the processing unit 109.

【0017】次に、本構成による画像式車両感知システ
ムの概略動作について図7のフローチャートと併せて参
照しながら説明する。本構成によるシステムは、3つの
ステップに分けることができる。つまり、時間差分画像
を生成するステップと、微分画像を生成するステップ
と、逆走車両の影を除去するステップであり、これらの
ステップは並行して実行される。まず、時間差分画像を
生成するステップについて説明する。撮像部100で撮
影された路面上の車両はモノクロのアナログ信号として
A/D変換部101に入力される。A/D変換部101
では、そのアナログ信号を処理しやすいデジタル信号に
変換する。そして、デジタル信号は画像の濃淡に応じ
て、例えば256階調に分解されて、320×32画素
の画像として多値メモリ部102の所定のアドレスに今
回感知エリア画像として格納される(S1)。次に、時
間差分画像を生成するために、差分画像生成部103に
より、多値メモリ部102に格納された今回感知エリア
画像から1フレーム前の前回感知エリア画像を減算する
(S2)。次に、投影値演算部105により、この減算
結果の画像をライン毎の輝度値の合計を演算してX軸投
影像Aを生成する(S3)。次に、多値メモリ部102
に格納した今回感知エリア画像を次の処理のために、前
回感知エリア画像のアドレスに格納する(S4)。ここ
までが、時間差分画像を生成するステップであり、次に
微分画像を生成するステップについて説明する。ステッ
プS1は共通であるので説明を省略する。今回画像の微
分画像を生成するために、微分画像生成部104により
多値メモリ部102に格納された今回感知エリア画像を
微分して、今回画像の微分画像を生成する(S5)。次
に、差分画像生成部106により今回画像の微分画像か
ら1フレーム前の前回画像の微分画像を減算する(S
6)。次に、投影値演算部108により、この減算結果
の画像をライン毎の輝度値の合計を演算してX軸投影像
Bを生成する(S7)。次に、多値メモリ部102に格
納した今回画像の微分画像を次の処理のために、前回画
像の微分画像のアドレスに格納する(S8)。ここまで
が、微分画像を生成するステップであり、次に逆走車両
の影を除去するステップについて説明する。まず撮像部
100で撮影された路面上の車両はモノクロのアナログ
信号としてA/D変換部101に入力される。A/D変
換部101では、そのアナログ信号を処理しやすいデジ
タル信号に変換する。そして、デジタル信号は画像の濃
淡に応じて、例えば256階調に分解されて、320×
32画素の画像として多値メモリ部102の所定のアド
レスに、今回進入判定エリア画像として格納される(S
9)。次に、時間差分画像を生成するために、差分画像
生成部110により多値メモリ部102に格納されたN
フレーム前の進入判定エリア画像から(N−1)フレー
ム前の前回進入判定エリア画像を減算する(S10)。
次に、投影値演算部111により、この減算結果の画像
をライン毎の輝度値の合計を演算してX軸投影像Cを生
成する(S11)。次に、多値メモリ部102に格納し
た今回進入判定エリア画像を次の処理のために、前回進
入判定エリア画像のアドレスに格納する(S12)。以
上のステップは各フレーム単位に並行して実行され、そ
れらの結果に基づいて更に、前記X軸投影像A、B、C
をAND処理部107、109により論理積処理し、抽
出領域として出力する(S13)。次に、感知エリアに
車両が通過中かを検出し(S14)、NOであれば先頭
のステップに戻り、YESであれば、その画像の幅が車
両の幅であるか否かを検証し(S15)、車両の幅より
小さければ(NOのルート)先頭のステップに戻り、車
両の幅に近ければステップS13で抽出した抽出領域を
車両と判定する(S16)。
Next, the general operation of the image type vehicle detection system according to this configuration will be described with reference to the flowchart of FIG. The system according to this configuration can be divided into three steps. That is, it is a step of generating a time difference image, a step of generating a differential image, and a step of removing the shadow of the reverse running vehicle, and these steps are executed in parallel. First, the step of generating a time difference image will be described. The vehicle on the road surface photographed by the image pickup unit 100 is input to the A / D conversion unit 101 as a monochrome analog signal. A / D converter 101
Then, it converts the analog signal into a digital signal that can be easily processed. Then, the digital signal is decomposed into, for example, 256 gradations according to the lightness and darkness of the image, and is stored as a current sensing area image in a predetermined address of the multi-valued memory unit 102 as an image of 320 × 32 pixels (S1). Next, in order to generate the time difference image, the difference image generation unit 103 subtracts the previous detection area image one frame before from the current detection area image stored in the multi-valued memory unit 102 (S2). Next, the projection value calculation unit 105 calculates the sum of the brightness values for each line of the image resulting from the subtraction to generate an X-axis projection image A (S3). Next, the multi-valued memory unit 102
The present sensing area image stored in step S4 is stored at the address of the previous sensing area image for the next processing (S4). The steps up to here are the steps of generating the time difference image, and the step of generating the differential image will be described next. Since step S1 is common, its explanation is omitted. In order to generate the differential image of the current image, the differential image generating unit 104 differentiates the current sensing area image stored in the multi-valued memory unit 102 to generate the differential image of the current image (S5). Next, the differential image generation unit 106 subtracts the differential image of the previous image one frame before from the differential image of the current image (S
6). Next, the projection value calculation unit 108 calculates the sum of the brightness values for each line of the image resulting from the subtraction to generate the X-axis projection image B (S7). Next, the differential image of the current image stored in the multi-valued memory unit 102 is stored at the address of the differential image of the previous image for the next processing (S8). The steps up to here are the steps of generating a differential image, and the steps of removing the shadow of the reverse running vehicle will be described next. First, the vehicle on the road surface photographed by the image pickup unit 100 is input to the A / D conversion unit 101 as a monochrome analog signal. The A / D converter 101 converts the analog signal into a digital signal that can be easily processed. Then, the digital signal is decomposed into, for example, 256 gradations according to the contrast of the image, and 320 ×
A 32 pixel image is stored as a current entry determination area image at a predetermined address of the multi-valued memory unit 102 (S
9). Next, the N stored in the multi-valued memory unit 102 by the difference image generation unit 110 in order to generate the time difference image.
The previous entry determination area image before (N-1) frames is subtracted from the entry determination area image before the frame (S10).
Next, the projection value calculation unit 111 calculates the sum of the brightness values for each line of the image resulting from the subtraction to generate the X-axis projection image C (S11). Next, the current entry determination area image stored in the multi-valued memory unit 102 is stored at the address of the previous entry determination area image for the next processing (S12). The above steps are executed in parallel for each frame unit, and based on the results thereof, the X-axis projection images A, B, C are further processed.
Is AND-processed by the AND processing units 107 and 109 and output as an extraction region (S13). Next, it is detected whether or not the vehicle is passing through the sensing area (S14). If NO, the process returns to the first step, and if YES, it is verified whether or not the width of the image is the width of the vehicle ( If it is smaller than the width of the vehicle (NO route), the process returns to the first step, and if it is close to the width of the vehicle, the extraction area extracted in step S13 is determined to be the vehicle (S16).

【0018】以上のように、撮像部100は一般的には
ビデオカメラであり、交差点の手前から所定の感知エリ
アを撮影するように設定されている。撮影する感知エリ
アは路面であるため、時間、周辺状況、季節により変化
する被写体である。例えば、昼間と夜では周辺の明る
さ、あるいは交通量が異なり、また、周辺が住宅街か否
かによっても周りからの照明量が異なる。さらに、季節
が異なれば当然路面状況は大きく変化する。例えば、冬
に雪が降れば全く異なる状況を呈することになる。従っ
て、この状態での画像情報を一旦多値メモリ部102に
格納し、その格納された画像情報から車両についての画
像情報のみを画像処理により抽出することが必要とな
る。本発明では画像処理のために、1フレーム前の画像
との時間差分画像を生成する差分画像生成部103、1
06により移動体の影を除去し、画像のエッジを検出す
る微分画像生成部104により画像のエッジ部分を強調
して画像の輪郭を求め、前記差分画像生成部からの出力
画像のライン毎の輝度値の合計を演算して投影像を生成
する投影値演算部105、108により画像を論理演算
可能なレベルに変換し、投影値演算部105、108か
らの投影値を論理積処理するAND処理部107により
最終的な投影値を算出する。これにより、移動体から車
両のみを確実に検出することができる。
As described above, the image pickup section 100 is generally a video camera, and is set so as to photograph a predetermined sensing area from before the intersection. Since the sensing area to be photographed is the road surface, it is a subject that changes depending on time, surrounding conditions, and season. For example, the brightness of the surroundings or the amount of traffic differs between daytime and night, and the amount of illumination from the surroundings also differs depending on whether or not the surroundings are residential areas. In addition, the road surface condition will change significantly depending on the season. For example, if it snows in winter, it will be a completely different situation. Therefore, it is necessary to temporarily store the image information in this state in the multi-valued memory unit 102 and to extract only the image information about the vehicle from the stored image information by image processing. In the present invention, for the image processing, a difference image generation unit 103, 1 for generating a time difference image from the image one frame before
The shadow of the moving object is removed by 06, and the edge portion of the image is emphasized by the differential image generation unit 104 that detects the edge of the image to obtain the contour of the image, and the brightness of each line of the output image from the difference image generation unit is calculated. An AND processing unit that calculates the sum of the values to generate a projected image, converts the image to a level at which logical calculation is possible by the projection value calculation units 105 and 108, and performs a logical product process on the projection values from the projection value calculation units 105 and 108. The final projection value is calculated by 107. This makes it possible to reliably detect only the vehicle from the moving body.

【0019】更に詳細に説明すると、移動体からその影
を除去するためには、現在フレームの画像から1フレー
ム前の画像を引き算し、画像の輝度値が負の場合はゼロ
とすることにより可能である。つまり、並走する移動体
がない場合、感知エリアに進入した移動体とその影の画
像から、感知エリアに進入する前の画像を引き算すると
移動体の輝度値は正となり、影のみが負となる性質を利
用する。ここで、影は路面より必ず暗いため輝度値が負
となるので消去することができる。しかし、このとき並
走する移動体がある場合、並走する移動体の影が感知エ
リアに存在するので、その影も同時に時間差分画像とし
て現れる。このような時間差分画像を論理演算可能なレ
ベルに変換するために、次に、その画像のライン毎の輝
度値を加算していき輝度値の投影像を作成する。一方、
同時に画像のエッジ部分を検出するために感知エリア内
の画像を微分する。そして、その微分画像から固定部物
の影を除去するために前記と同様に、微分画像の時間差
分画像を生成する。この方法は、前記と同様にして現在
のフレーム画像(固定物と移動体とその影のエッジ画
像)から1フレーム前の微分画像(固定物のみのエッジ
画像)を引き算して固定物のエッジ画像を除去する。そ
の後エッジ画像を論理演算可能なレベルに変換するため
に、その画像のライン毎の輝度値を加算していき輝度値
の投影像を作成する。ここで、2種類の投影像が生成さ
れたことになり、この2種類の投影画像を論理積するこ
とにより、車両部分の投影像が時間的に一致して論理積
処理がなされて出力される。
More specifically, in order to remove the shadow from the moving object, it is possible to subtract the image one frame before from the image of the current frame, and set it to zero when the brightness value of the image is negative. Is. In other words, when there is no moving object running in parallel, subtracting the image before entering the sensing area from the image of the moving object that entered the sensing area and its shadow, the brightness value of the moving object is positive and only the shadow is negative. To take advantage of the property. Here, since the shadow is always darker than the road surface, the brightness value is negative, so it can be erased. However, if there is a moving body running in parallel at this time, since the shadow of the moving body running in parallel exists in the sensing area, the shadow also appears as a time difference image. In order to convert such a time difference image into a level at which a logical operation is possible, next, the brightness value for each line of the image is added to create a projected image of the brightness value. on the other hand,
At the same time, the image in the sensing area is differentiated to detect the edge portion of the image. Then, in order to remove the shadow of the fixed part from the differential image, the time difference image of the differential image is generated in the same manner as described above. In this method, the edge image of the fixed object is subtracted from the current frame image (the edge image of the fixed object, the moving object and its shadow) by one frame before the differential image (the edge image of the fixed object only) in the same manner as described above. To remove. After that, in order to convert the edge image into a level at which a logical operation is possible, the brightness values for each line of the image are added to create a projected image of the brightness value. Here, it means that two types of projection images have been generated, and by performing a logical product of these two types of projection images, the projection images of the vehicle portion are temporally matched and the logical product processing is performed and output. .

【0020】次に、図を参照しながら前記で説明した動
作を更に詳細に説明をする。図2は、時間差分画像を生
成する過程について説明する図である。例えば、図2
(a)は、車両とその影が感知エリアに進入する直前の
様子を模式的に描いた図であり、(b)は車両とその影
が一部感知エリアに進入した様子を模式的に描いた図で
あり、(c)は時間差分処理された画像を模式的に描い
た図である。時間差分画像は、あるフレームの画像毎に
現在のフレーム画像と1フレーム前の画像の比較を行う
ことにより生成される。例えば、説明を簡単にするため
に、図2(b)が現在フレーム画像、図2(a)が1フ
レーム前の画像とすると、図2(b)の画像の輝度値か
ら図2(a)の画像の輝度値を引き算する。この例では
図2(a)の感知エリア3には画像が無いので、引き算
の結果は車両の一部7とその影8が残る。ここで、影8
は感知エリアの路面より必ず暗いので輝度値が負とな
る。このアルゴリズムでは輝度値が負の場合は、輝度値
をゼロにすることにより、(c)のように影8が消えて
車両9のみが検出できる。図3は、時間差分画像を生成
する過程について説明する図であり、特に車両の影が感
知エリアから出て行く際の時間差分画像の図である。例
えば、図3(a)は車両の影が感知エリアから出ていく
際の様子を模式的に描いた図であり、(b)は車両の影
が感知エリアから出た後の様子を模式的に描いた図であ
り、(c)は時間差分処理された画像を模式的に描いた
図である。例えば、説明を簡単にするために、図2と同
様に図3(b)が現在フレーム画像、図3(a)が1フ
レーム前の画像とすると、図3(b)の画像の輝度値か
ら図3(a)の画像の輝度値を引き算する。この例では
図3(a)の感知エリア20には影21があり、図3
(b)の感知エリア23には影が無いので、もともと負
の輝度値を持つ影21の輝度値が引き算の結果正とな
り、図3(c)のように車両の影の一部26が残ってし
まう。つまり、感知エリアに進入する車両は時間差分処
理によりその影を消去することができるが、感知エリア
から出て行く場合は、影が残ってしまう。この影を消去
するために、以下に説明する微分画像処理が必要とな
る。
Next, the operation described above will be described in more detail with reference to the drawings. FIG. 2 is a diagram illustrating a process of generating a time difference image. For example, in FIG.
(A) is a diagram schematically illustrating a state immediately before the vehicle and its shadow enter the sensing area, and (b) is a diagram schematically illustrating the vehicle and its shadow partially entering the sensing area. FIG. 6C is a diagram schematically illustrating an image subjected to the time difference processing. The time difference image is generated by comparing the current frame image and the image one frame before for each image of a certain frame. For example, assuming that FIG. 2 (b) is the current frame image and FIG. 2 (a) is the image one frame before in order to simplify the explanation, the luminance value of the image in FIG. Subtract the brightness value of the image. In this example, since there is no image in the sensing area 3 of FIG. 2 (a), the subtraction result leaves a part 7 of the vehicle and its shadow 8. Where shadow 8
Since is always darker than the road surface in the sensing area, the brightness value is negative. In this algorithm, when the brightness value is negative, by setting the brightness value to zero, the shadow 8 disappears as shown in (c) and only the vehicle 9 can be detected. FIG. 3 is a diagram for explaining the process of generating the time difference image, and is a diagram of the time difference image when the shadow of the vehicle goes out of the sensing area, in particular. For example, FIG. 3A is a diagram schematically illustrating a state where a vehicle shadow leaves the sensing area, and FIG. 3B is a diagram illustrating a state after the vehicle shadow leaves the sensing area. FIG. 4C is a diagram schematically illustrating an image subjected to the time difference processing. For example, assuming that FIG. 3 (b) is the current frame image and FIG. 3 (a) is the image one frame before, in order to simplify the explanation, from the luminance value of the image of FIG. 3 (b), The brightness values of the image in FIG. 3A are subtracted. In this example, there is a shadow 21 in the sensing area 20 of FIG.
Since there is no shadow in the sensing area 23 of (b), the brightness value of the shadow 21 which originally has a negative brightness value becomes positive as a result of the subtraction, and a part 26 of the shadow of the vehicle remains as shown in FIG. 3 (c). Will end up. In other words, the vehicle entering the sensing area can eliminate the shadow by the time difference processing, but when leaving the sensing area, the shadow remains. In order to eliminate this shadow, differential image processing described below is required.

【0021】図4は、ある画像の一部の画素座標を表す
図である。移動する画像を微分することは、その対象物
の変化率を算出することである。そこで、画像を画素単
位に分解して、ある基準画素に対してその画素の前後の
変化を見ることによりエッジを検出することができる。
例えば、基準画素の座標を(x、y)34とすると、隣
接画素はx軸方向に左右に(x−1、y)31、(x+
1、y)37となり、y軸方向に上下に(x、y−1)
33、(x、y+1)35となる。他の座標も同様に決
定することができる。ここで、本発明のアルゴリズムと
して、基準画素の座標をT(x、y)、該座標での輝度
値をP(x、y)としたとき、座標T(x、y)と隣接
する座標T(x、y−1)の輝度値P(x、y−1)が
P(x、y)より暗い場合(つまり、暗いところから明
るいところに変化した場合)、その座標点の輝度値を基
準座標の輝度値と隣接画素の輝度値の差分とする。ま
た、この逆の場合、座標T(x、y)と隣接する座標T
(x、y−1)の輝度値P(x、y−1)がP(x、
y)と等しいか、あるいは明るい場合(つまり、明るい
ところから暗いところに変化した場合)ゼロにする。こ
れにより、影の下側のエッジは出るが、上側のエッジは
出ないことになる。これを式で表すと、以下のように表
せる。 T(x、y)=P(x、y)−P(x、y−1):P
(x、y)>P(x、y−1) T(x、y)=0 :P
(x、y)≦P(x、y−1)
FIG. 4 is a diagram showing the pixel coordinates of a part of an image. Differentiating a moving image is calculating the rate of change of the object. Therefore, the edge can be detected by dividing the image into pixel units and observing the change before and after that pixel with respect to a certain reference pixel.
For example, when the coordinates of the reference pixel are (x, y) 34, the adjacent pixels are (x-1, y) 31 and (x +) on the left and right in the x-axis direction.
1, y) 37, up and down in the y-axis direction (x, y-1)
33, (x, y + 1) 35. Other coordinates can be determined as well. Here, as an algorithm of the present invention, when the coordinate of the reference pixel is T (x, y) and the brightness value at the coordinate is P (x, y), the coordinate T adjacent to the coordinate T (x, y). When the brightness value P (x, y-1) of (x, y-1) is darker than P (x, y) (that is, when a dark place changes to a bright place), the brightness value of the coordinate point is used as a reference. The difference between the brightness value of the coordinate and the brightness value of the adjacent pixel is used. In the opposite case, the coordinate T adjacent to the coordinate T (x, y)
The brightness value P (x, y-1) of (x, y-1) is P (x,
y) or equal to bright (that is, changing from bright to dark) to zero. As a result, the lower edge of the shadow appears, but the upper edge does not appear. If this is expressed by an equation, it can be expressed as follows. T (x, y) = P (x, y) -P (x, y-1): P
(X, y)> P (x, y-1) T (x, y) = 0: P
(X, y) ≤ P (x, y-1)

【0022】図5は、本発明の第1の実施形態に係る車
両感知方法を説明する図である。本実施形態は、複数車
線を並走する車両の影及び固定物の影を除去する方法で
ある。(a)は感知エリア内の車両と影の位置関係を表
す図であり、(b)は時間差分画像から投影像を生成す
る図であり、(c)は微分画像から投影像を生成する図
であり、(d)は(b)、(c)の投影像から車両領域
を検出する図である。図5(a)は感知エリア50内
に、建物や樹木等の固定物の影40の一部52と、車線
42上を矢印の方向に移動する車両51とその影43が
あり、影43の一部41が感知エリア50内に含まれて
いる。また、車線45に車両47が矢印の方向に移動
し、その一部と影49が感知エリア50内に含まれてい
る。このような状況の場合、車両と影を認識して車両の
みを検出する方法について、以下に説明する。図5
(a)の場合の感知エリア50内の画像から時間差分画
像を生成するには、図2、3で説明したように、図示し
ない1フレーム前の画像には固定物の影52は常に存在
するので、現在のフレーム画像から引き算することによ
り、影52と車両47の影49は消去される。しかし、
車両51の影41は消去されないので(図3の説明によ
り)残ってしまい、その結果、図5(b)(1)のよう
に車両62と影61が時間差分画像として得られる。そ
の画像のライン毎の輝度値の合計を演算して投影像を生
成する。その結果、図5(b)(2)のように影61は
x軸方向に輝度値のレベルを加算した画像が63であ
り、車両62に対する画像が64である。また、この処
理と並行して図5(a)の場合の感知エリア50内の画
像から微分画像を生成する。これは、図4で説明したよ
うに、各画素を図4の式に従って微分すると、画像が暗
から明に変化するエッジ部分が生成される。つまり、図
5(c)(3)のように、固定物のエッジ画像65と、
車両とその影のエッジ画像66が生成される。次に、図
5(c)(4)のように、図示しない1フレーム前の画
像には固定物の影52は常に存在するので、現在のフレ
ーム画像から引き算することにより、固定物のエッジ画
像65が消去され、車両とその影のエッジ画像68が残
る。次に、図5(c)(5)のように、その画像のライ
ン毎の輝度値の合計を演算して投影像を生成する。その
結果、車両とその影のエッジ画像68はx軸方向に輝度
値のレベルを加算した画像70として生成される。次
に、図5(b)(2)の画像と図5(c)(5)の画像
を同じ時間軸で画素の積をとると図5(d)(6)、
(7)の斜線部分の画像64、72が一致してその結果
図5(d)(8)のように車両領域の画像71が得られ
る。
FIG. 5 is a diagram illustrating a vehicle detection method according to the first embodiment of the present invention. The present embodiment is a method of removing the shadows of a vehicle running in parallel in multiple lanes and the shadows of fixed objects. (A) is a figure showing the positional relationship of a vehicle and a shadow in a sensing area, (b) is a figure which produces | generates a projection image from a time difference image, (c) is a figure which produces a projection image from a differential image. And (d) is a diagram for detecting the vehicle area from the projected images of (b) and (c). In FIG. 5A, a part 52 of the shadow 40 of a fixed object such as a building or a tree, a vehicle 51 moving in the direction of the arrow on the lane 42 and its shadow 43 are present in the sensing area 50. A part 41 is included in the sensing area 50. Further, the vehicle 47 moves in the lane 45 in the direction of the arrow, and a part thereof and a shadow 49 are included in the sensing area 50. In such a situation, a method of recognizing a vehicle and a shadow and detecting only the vehicle will be described below. Figure 5
In order to generate the time difference image from the image in the sensing area 50 in the case of (a), the shadow 52 of the fixed object always exists in the image one frame before (not shown), as described in FIGS. Therefore, the shadow 52 and the shadow 49 of the vehicle 47 are deleted by subtracting from the current frame image. But,
Since the shadow 41 of the vehicle 51 is not erased (due to the description of FIG. 3), the shadow 41 remains, and as a result, the vehicle 62 and the shadow 61 are obtained as a time difference image as shown in FIG. A projection image is generated by calculating the sum of the brightness values for each line of the image. As a result, as shown in FIGS. 5B and 5B, the shadow 61 is 63 in which the level of the brightness value is added in the x-axis direction, and 64 is in the image of the vehicle 62. Further, in parallel with this process, a differential image is generated from the image in the sensing area 50 in the case of FIG. This is because, as described with reference to FIG. 4, when each pixel is differentiated according to the equation of FIG. 4, an edge portion where the image changes from dark to light is generated. That is, as shown in FIGS. 5C and 5C, the edge image 65 of the fixed object,
An edge image 66 of the vehicle and its shadow is generated. Next, as shown in FIGS. 5 (c) and (4), since the shadow 52 of the fixed object is always present in the image one frame before (not shown), the edge image of the fixed object is subtracted by subtracting from the current frame image. 65 is erased, and an edge image 68 of the vehicle and its shadow remains. Next, as shown in FIGS. 5 (c) and (5), the total of the brightness values for each line of the image is calculated to generate a projected image. As a result, the edge image 68 of the vehicle and its shadow is generated as an image 70 in which the levels of the brightness values are added in the x-axis direction. Next, when the products of the images of FIGS. 5B and 2 and the images of FIGS. 5C and 5 are taken on the same time axis, the products of FIGS.
The images 64 and 72 in the shaded area in (7) coincide with each other, and as a result, the image 71 of the vehicle region is obtained as shown in FIGS.

【0023】以上のように、固定物が感知エリア50内
に常に存在する場合、移動車両の影41と同時に、この
固定物の影を除去する必要がある。その一つの方法とし
て感知エリア内の固定物の影が撮影される部分を強制的
に画像処理を行わないようにする方法がある。しかし、
この方法は、固定物の大きさや位置が変化した場合、対
応が困難となる。そこで、画像処理により除去できれば
好ましい。その方法として感知エリア内の画像を移動体
の進行方向に対して垂直に微分処理する方法が考えられ
る。そして、画像の輝度値が暗から明に変化した場合の
み、その輝度値の差分を輝度値とし、逆に明から暗に変
化した場合は、輝度値をゼロにすれば移動体の陰影のエ
ッジは除去され、固定物は常に微分されることになる。
そして、その画像を前記の時間差分処理を行うことによ
り、全てのフレームに撮影される固定物の微分画像は引
き算により除去される。
As described above, when the fixed object always exists in the sensing area 50, it is necessary to remove the shadow of the fixed object at the same time as the shadow 41 of the moving vehicle. As one of the methods, there is a method of forcibly preventing the image processing of the portion of the sensing area where the shadow of the fixed object is captured. But,
This method is difficult to handle when the size or position of the fixed object changes. Therefore, it is preferable that the image can be removed by image processing. As a method therefor, a method of differentiating the image in the sensing area perpendicularly to the traveling direction of the moving body can be considered. Then, only when the brightness value of the image changes from dark to bright, the difference between the brightness values is used as the brightness value. Conversely, when the brightness value changes from bright to dark, the brightness value is set to zero and the shadow edge of the moving object is set. Will be removed and the fixed matter will always be differentiated.
Then, the differential image of the fixed object captured in all the frames is removed by subtraction by performing the time difference processing on the image.

【0024】図6は、本発明の第2の実施形態に係る車
両感知方法を説明する図である。本実施形態は、複数車
線を逆走する車両の影を除去する方法である。(a)は
進入判定エリアと感知エリア内の車両と影の位置関係を
表す図であり、(b)は感知エリア内の時間差分画像か
ら投影像を生成する図であり、(c)は感知エリア内の
微分画像から投影像を生成する図であり、(d)はNフ
レーム前の進入判定エリア内の時間差分画像から投影像
を生成する図であり、(e)は(b)、(c)、(d)
の投影像から車両領域を検出する図である。図6(a)
は進入判定エリア93内に、反対車線83を矢印Aの方
向に移動する車両80の影81、車線85を矢印Bの方
向に移動する車両87とその影88、及び建物や樹木等
の固定物の影92があり、影92の一部が感知エリア9
4に含まれている。また車線86上を矢印Cの方向に移
動する車両90とその影91があり、影91の一部が感
知エリア94内に含まれている。このような状況の場
合、逆走する車両の影を認識して車両のみを検出する方
法について、以下に説明する。図6(a)の場合の感知
エリア94内の画像から時間差分画像を生成するには、
図2、3で説明したように、図示しない1フレーム前の
画像には固定物の影92が常に存在するので、現在のフ
レーム画像から引き算することにより、影92と車両8
7の影88は消去される。しかし、車両80の影82
と、車両90の影91は消去されないので(図3の説明
により)残ってしまい、その結果、図6(b)(1)の
ように車両96、影95、影97の画像が時間差分画像
として得られる。その画像のライン毎の輝度値の合計を
演算して投影像を生成する。その結果、図6(b)
(2)のように影95はx軸方向に輝度値のレベルを加
算した画像が98であり、車両96に対する画像が99
であり、影97に対する画像が200である。
FIG. 6 is a diagram for explaining a vehicle detection method according to the second embodiment of the present invention. The present embodiment is a method for removing the shadow of a vehicle traveling in reverse in multiple lanes. (A) is a figure showing the positional relationship of a vehicle and a shadow in an approach determination area and a sensing area, (b) is a figure which produces | generates a projection image from the time difference image in a sensing area, (c) is a sensing It is a figure which produces | generates a projection image from the differential image in an area, (d) is a figure which produces | generates a projection image from the time difference image in the entrance determination area N frame ago, (e) is (b), (. c), (d)
It is a figure which detects a vehicle area from the projection image of. Figure 6 (a)
Is a shadow 81 of a vehicle 80 moving in the opposite lane 83 in the direction of arrow A, a vehicle 87 moving in the direction of arrow B in the lane 85 and its shadow 88, and fixed objects such as buildings and trees in the entry determination area 93. There is a shadow 92, and part of the shadow 92 is the sensing area 9
Included in 4. Further, there is a vehicle 90 moving on the lane 86 in the direction of arrow C and its shadow 91, and a part of the shadow 91 is included in the sensing area 94. In such a situation, a method of recognizing a shadow of a vehicle traveling in reverse and detecting only the vehicle will be described below. To generate a time difference image from the image in the sensing area 94 in the case of FIG. 6A,
As described with reference to FIGS. 2 and 3, since the shadow 92 of the fixed object always exists in the image before one frame (not shown), the shadow 92 and the vehicle 8 can be subtracted from the current frame image.
The shadow 88 of 7 is erased. However, the shadow 82 of the vehicle 80
Then, the shadow 91 of the vehicle 90 is not erased (because of the description of FIG. 3) and remains, and as a result, the images of the vehicle 96, the shadow 95, and the shadow 97 are the time difference images as shown in FIG. Obtained as. A projection image is generated by calculating the sum of the brightness values for each line of the image. As a result, FIG. 6 (b)
As in (2), the shadow 95 is 98 in which the level of the brightness value is added in the x-axis direction, and 99 in the image for the vehicle 96.
And the image for shadow 97 is 200.

【0025】また、この処理と並行して図6(a)の場
合の感知エリア94内の画像から微分画像を生成する。
これは、図4で説明したように、各画素を図4の式に従
って微分すると、画像が暗から明に変化するエッジ部分
が生成される。つまり、図6(c)(3)のように、影
82のエッジ画像201、車両87と影88のエッジ画
像202、固定物の影92のエッジ画像203が生成さ
れる。次に、図6(c)(4)のように、図示しない1
フレーム前の画像には固定物の影92が常に存在するの
で、現在のフレーム画像から引き算することにより、固
定物のエッジ画像203が消去され、影82のエッジ画
像204と車両87と影88のエッジ画像205が残
る。次に、図6(c)(5)のように、その画像のライ
ン毎の輝度値の合計を演算して投影像を生成する。その
結果、x軸方向に輝度値のレベルを加算した画像とし
て、影82のエッジ画像204は投影画像206、車両
87と影88のエッジ画像205は投影画像207とし
て生成される。次に、本発明の特徴的な方法は、感知エ
リア94の手前に進入判定エリア93を設け、そのNフ
レーム前で車両80の画像が撮影されないフレームとの
時間差分画像を生成することである。具体的には、図6
(d)(6)のように、図示しないNフレーム前の画像
には車両80影81と、車両87と影88と、固定物の
影92が存在するので、Nフレーム前の車両から(N−
1)フレーム前の画像を引き算することにより、車両8
0影81と、車両87の影88と固定物の影92が消去
され、車両209のみが残る。次に、図6(d)(7)
のように、その画像のライン毎の輝度値の合計を演算し
て投影像210を生成する。以上で、夫々の投影像が得
られたので、次に、図6(b)(2)、(c)(5)、
(d)(7)の画像を同じ時間軸で画素の積をとると図
6(e)(8)、(9)、(10)の斜線部分の画像9
9、207、210が一致して、その結果図6(e)
(11)のように車両領域の画像211が得られる。
In parallel with this processing, a differential image is generated from the image in the sensing area 94 in the case of FIG. 6 (a).
This is because, as described with reference to FIG. 4, when each pixel is differentiated according to the equation of FIG. 4, an edge portion where the image changes from dark to light is generated. That is, as shown in FIGS. 6C and 6C, the edge image 201 of the shadow 82, the edge image 202 of the vehicle 87 and the shadow 88, and the edge image 203 of the shadow 92 of the fixed object are generated. Next, as shown in FIGS. 6 (c) and (4), not shown in FIG.
Since the shadow 92 of the fixed object always exists in the image before the frame, the edge image 203 of the fixed object is deleted by subtracting from the current frame image, and the edge image 204 of the shadow 82, the edge image 204 of the vehicle 87, and the shadow 88. The edge image 205 remains. Next, as shown in FIGS. 6 (c) and (5), the total of the brightness values for each line of the image is calculated to generate a projected image. As a result, the edge image 204 of the shadow 82 is generated as a projected image 206, and the edge images 205 of the vehicle 87 and the shadow 88 are generated as a projected image 207 as an image in which the levels of the brightness values are added in the x-axis direction. Next, a characteristic method of the present invention is to provide an entry determination area 93 in front of the sensing area 94 and generate a time difference image with a frame in which the image of the vehicle 80 is not captured N frames before. Specifically, FIG.
As shown in (d) and (6), the vehicle 80 shadow 81, the vehicle 87 and the shadow 88, and the fixed object shadow 92 exist in the image N frames before (not shown). −
1) By subtracting the image before the frame, the vehicle 8
The 0 shadow 81, the shadow 88 of the vehicle 87 and the shadow 92 of the fixed object are deleted, and only the vehicle 209 remains. Next, FIG. 6 (d) (7)
As described above, the total of the brightness values for each line of the image is calculated to generate the projected image 210. As described above, since the respective projected images are obtained, next, FIG. 6 (b) (2), (c) (5),
If the products of the images of (d) and (7) are taken on the same time axis, the image 9 of the shaded portions in (e), (8), (9), and (10) of FIG.
9, 207, 210 match, and as a result, FIG. 6 (e)
An image 211 of the vehicle area is obtained as in (11).

【0026】以上のように、移動体からその影を除去す
るためには、現在フレームの画像から1フレーム前の画
像を引き算し、画像の輝度値が負の場合はゼロとするこ
とにより可能である。つまり、進入判定エリアに進入し
た移動体とその影の画像(Nフレーム前の画像)から、
(N−1)フレーム前の画像を引き算すると移動体の輝
度値は正となり、影のみが負となるので消去することが
できる。しかし、このとき逆走する移動体がある場合、
逆走する移動体の影が感知エリアには存在してしまい、
その影も同時に時間差分画像として現れる。また、固定
物の影を除去するために感知エリア内の画像を微分し
て、その微分画像の時間差分画像を生成して除去してお
く。このような時間差分画像を論理演算可能なレベルに
変換するために、進入判定エリアの時間差分画像と感知
エリアの時間差分画像を、画像のライン毎の輝度値を加
算していき輝度値の投影像を夫々生成する。これにより
進入判定エリアの投影像には車両のみが現れ、感知エリ
アの投影像には逆走する移動体の影と車両の投影像が現
れ、微分画像には逆走する移動体の影と車両と車両の影
の投影像が現れる。これらを論理積することにより車両
部分の投影像が時間的に一致して論理積処理がなされて
出力される。また、本発明の車両感知方法は、所定のエ
リア内の画像から移動体の影を除去して車両を特定する
方法である。従って、車両感知領域内に所定のエリアが
1箇所あれば画像処理が可能であるので、システムのコ
ストを安くすることができる。また、撮像手段で撮影さ
れた画像は、一旦メモリに格納され、そのメモリから所
定の時間間隔で読み出され、その時間間隔は一般的には
1画面単位、つまりフレーム単位である。これにより、
メモリ容量は少なくとも1フレーム分以上あればよく、
少ないメモリ容量でシステムを構築することができる。
As described above, the shadow of a moving object can be removed by subtracting the image one frame before from the image of the current frame and setting the image brightness value to zero when the image brightness value is negative. is there. That is, from the image of the moving body that has entered the entry determination area and its shadow (the image N frames before),
When the image before the (N-1) th frame is subtracted, the luminance value of the moving body becomes positive and only the shadow becomes negative, so that it can be erased. However, if there is a moving body running in reverse at this time,
The shadow of the moving body running in the opposite direction exists in the sensing area,
The shadow also appears as a time difference image. Further, in order to remove the shadow of the fixed object, the image in the sensing area is differentiated, and a time difference image of the differential image is generated and removed. In order to convert such a time difference image into a level capable of logical operation, the brightness value for each line of the image is added to the time difference image of the entry determination area and the time difference image of the sensing area to project the brightness value. Generate images respectively. As a result, only the vehicle appears in the projected image of the entry determination area, the shadow of the moving object moving backward and the projected image of the vehicle appearing in the projected image of the sensing area, and the shadow of the moving object moving backward and the vehicle appearing in the differential image. And a projected image of the shadow of the vehicle appears. By logically multiplying these, the projected images of the vehicle portion are temporally coincident, and the logical product processing is performed and output. The vehicle detection method of the present invention is a method of identifying a vehicle by removing the shadow of a moving object from an image in a predetermined area. Therefore, image processing is possible if there is only one predetermined area in the vehicle detection area, and the system cost can be reduced. Further, the image taken by the image pickup means is temporarily stored in the memory and read out from the memory at a predetermined time interval, and the time interval is generally one screen unit, that is, a frame unit. This allows
The memory capacity should be at least one frame or more,
The system can be built with a small memory capacity.

【0027】[0027]

【発明の効果】以上記載のごとく請求項1、10の発明
によれば、画像処理のために差分画像生成手段、微分画
像生成手段、及び論理積演算手段を備えることにより、
移動体から車両のみを確実に検出することができる。ま
た請求項2は、前記差分画像生成手段により得られた時
間差分画像を前記投影像生成手段により第1の投影像を
生成すると共に、前記微分画像生成手段により得られた
微分画像から前記差分画像生成手段により時間差分画像
を生成後、該時間差分画像を前記投影像生成手段により
第2の投影像を生成し、前記第1の投影像と第2の投影
像を前記論理積演算手段により演算することにより、並
走する移動体の影と固定物の影を除去して車両のみを検
出することができる。また請求項3は、前記微分画像生
成手段は、前記画像情報の基準画素の座標をT(x、
y)、該座標での輝度値をP(x、y)としたとき、P
(x、y)>P(x、y−1)の場合、座標T(x、
y)の輝度値をP(x、y)−P(x、y−1)とし、
P(x、y)≦P(x、y−1)の場合、座標T(x、
y)の輝度値を0とすることにより、感知エリア内の画
像の明暗方向により微分画像を生成することができる。
また請求項4は、前記差分画像生成手段は、前記感知エ
リア内の前記移動体の現在フレームの画像の輝度値から
該現在フレームの一つ前のフレーム画像の輝度値を減算
し、該減算結果の画像輝度値から負の輝度値をゼロにす
ることにより、前記移動体に含まれる陰影部分を除去す
ることにより、移動体の影を除去することができる。ま
た請求項5は、前記微分画像生成手段により固定物の陰
影及び前記移動体の陰影を微分処理した微分画像の一フ
レーム前の微分画像から前記差分画像生成手段により時
間差分画像を生成することにより、固定物と並走する移
動体の陰影の画像を除去することができる。また請求項
6、11は、更に、進入判定エリア内に時間差分画像を
生成するエリアを設けることにより、予め逆走移動体の
影を除去することができる。また請求項7は、前記第1
の投影像、第2の投影像及び第3の投影像を前記論理積
演算手段により演算することにより前記画像情報から逆
走移動体の陰影部分を除去して車両のみを検出すること
ができる。また請求項8は、前記感知エリアは車両感知
領域内に1個所設定することにより前記移動体から車両
の特定を可能としたので、システムのコストを安くする
ことができる。また請求項9は、前記差分画像生成手段
及び前記微分画像生成手段は、所定の時間間隔で1フレ
ーム単位に前記格納手段に格納された画像情報を画像処
理するので、少ないメモリ容量でシステムを構築するこ
とができる。
As described above, according to the inventions of claims 1 and 10, by providing the difference image generating means, the differential image generating means, and the logical product calculating means for image processing,
Only the vehicle can be reliably detected from the moving body. According to claim 2, the time difference image obtained by the difference image generating means is generated by the projection image generating means as a first projection image, and the differential image is obtained from the differential image obtained by the differential image generating means. After the time difference image is generated by the generation means, the time difference image is generated by the projection image generation means to generate a second projection image, and the first projection image and the second projection image are calculated by the logical product calculation means. By doing so, it is possible to detect only the vehicle by removing the shadows of the moving bodies running in parallel and the shadows of the fixed object. Further, in claim 3, the differential image generating means sets the coordinates of the reference pixel of the image information to T (x,
y), where P (x, y) is the brightness value at the coordinates, P
If (x, y)> P (x, y-1), the coordinate T (x,
Let the luminance value of y) be P (x, y) -P (x, y-1),
If P (x, y) ≦ P (x, y−1), the coordinates T (x,
By setting the luminance value of y) to 0, a differential image can be generated according to the light-dark direction of the image in the sensing area.
According to a fourth aspect, the difference image generating means subtracts a luminance value of a frame image immediately before the current frame from a luminance value of an image of the current frame of the moving body in the sensing area, and the subtraction result By setting the negative luminance value to zero from the image luminance value of, the shadow of the moving body can be removed by removing the shadow portion included in the moving body. According to a fifth aspect of the present invention, the differential image generating unit generates a time difference image from a differential image of one frame before the differential image obtained by differentiating the shadow of the fixed object and the shadow of the moving body by the differential image generating unit. , It is possible to remove the image of the shadow of a moving object running in parallel with a fixed object. Further, according to claims 6 and 11, the shadow of the reverse running vehicle can be removed in advance by providing an area for generating the time difference image in the entry determination area. Further, claim 7 is the first
By calculating the projected image, the second projected image, and the third projected image by the logical product calculating means, it is possible to remove the shaded portion of the reverse traveling moving object from the image information and detect only the vehicle. Further, according to claim 8, since the vehicle can be identified from the moving body by setting one sensing area in the vehicle sensing area, the system cost can be reduced. According to a ninth aspect, the difference image generating means and the differential image generating means image-process the image information stored in the storage means in units of one frame at a predetermined time interval, so that the system can be constructed with a small memory capacity. can do.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施形態に係る画像式車両感知シス
テムの構成ブロック図である。
FIG. 1 is a configuration block diagram of an image type vehicle detection system according to an embodiment of the present invention.

【図2】(a)は車両とその影が感知エリアに進入する
直前の様子を模式的に描いた図、(b)は車両とその影
が一部感知エリアに進入した様子を模式的に描いた図、
(c)は時間差分処理された画像を模式的に描いた図で
ある。
FIG. 2 (a) is a diagram schematically illustrating a vehicle and its shadow just before entering a sensing area, and FIG. 2 (b) is a schematic view showing a vehicle and its shadow partially entering a sensing area. Drawing,
(C) is the figure which drew the image which carried out the time difference process typically.

【図3】(a)は車両の影が感知エリアから出ていく際
の様子を模式的に描いた図、(b)は車両の影が感知エ
リアから出た後の様子を模式的に描いた図、(c)は時
間差分処理された画像を模式的に描いた図である。
FIG. 3A is a diagram schematically illustrating a state where a vehicle shadow leaves the sensing area, and FIG. 3B is a diagram schematically illustrating a state after a vehicle shadow leaves the sensing area. FIG. 3C is a diagram schematically illustrating the image subjected to the time difference processing.

【図4】本発明のある画像の一部の画素座標を表す図で
ある。
FIG. 4 is a diagram showing pixel coordinates of a part of an image according to the present invention.

【図5】(a)乃至(d)は本発明の第1の実施形態に
係る車両感知方法を説明する図である。
5A to 5D are diagrams illustrating a vehicle detection method according to the first embodiment of the present invention.

【図6】(a)乃至(e)は本発明の第2の実施形態に
係る車両感知方法を説明する図である。
6A to 6E are diagrams illustrating a vehicle detection method according to a second embodiment of the present invention.

【図7】本発明の画像式車両感知システムの動作を説明
するフローチャートである。
FIG. 7 is a flowchart illustrating an operation of the image type vehicle detection system of the present invention.

【符号の説明】[Explanation of symbols]

100 撮像部、101 A/D変換部、102 多値
メモリ部、103、106、110 差分画像生成部、
104 微分画像生成部、105、108 投影値演算
部、107、109 AND処理部
100 image pickup unit, 101 A / D conversion unit, 102 multi-valued memory unit, 103, 106, 110 difference image generation unit,
104 differential image generation unit, 105, 108 projection value calculation unit, 107, 109 AND processing unit

───────────────────────────────────────────────────── フロントページの続き (72)発明者 北川 朝靖 埼玉県さいたま市上木崎1丁目13番8号 日本信号株式会社与野事業所内 Fターム(参考) 5B057 AA16 BA02 CA02 CA08 CA12 CA16 CB02 CB08 CB12 CB16 CC03 DA08 DB02 DB05 DB09 DC19 DC22 DC32 DC36 5C054 AA01 AA05 CA04 ED11 EH07 FC03 FC11 HA18 5H180 AA01 CC04 DD01 5L096 AA06 BA04 CA02 DA01 FA38 GA04 GA08 HA03    ─────────────────────────────────────────────────── ─── Continued front page    (72) Inventor Asahi Kitagawa             1-38 Kamikizaki, Saitama City, Saitama Prefecture             Nippon Signal Co., Ltd. Yono Office F-term (reference) 5B057 AA16 BA02 CA02 CA08 CA12                       CA16 CB02 CB08 CB12 CB16                       CC03 DA08 DB02 DB05 DB09                       DC19 DC22 DC32 DC36                 5C054 AA01 AA05 CA04 ED11 EH07                       FC03 FC11 HA18                 5H180 AA01 CC04 DD01                 5L096 AA06 BA04 CA02 DA01 FA38                       GA04 GA08 HA03

Claims (11)

【特許請求の範囲】[Claims] 【請求項1】 撮像手段により撮影された感知エリア内
の移動体を画像情報処理により車両として検出する画像
式車両感知システムにおいて、 前記撮像手段により撮影された感知エリア内の移動体及
び周辺の画像を格納する画像格納手段と、現在フレーム
の画像情報と該現在フレームの一つ前のフレーム画像情
報から時間差分画像を生成する差分画像生成手段と、前
記移動体の通行方向に対して垂直方向に微分処理する微
分画像生成手段と、前記差分画像生成手段からの出力画
像のライン毎の輝度値の合計を演算して投影像を生成す
る投影像生成手段と、複数の投影像生成手段からの投影
値を論理積処理する論理積演算手段と、を備えたことを
特徴とする画像式車両感知システム。
1. An image type vehicle detection system for detecting a moving body in a sensing area photographed by an image pickup means as a vehicle by image information processing, wherein an image of a moving body in the sensing area and its surroundings photographed by said image pickup means. An image storage unit for storing the image data, a difference image generation unit for generating a time difference image from the image information of the current frame and frame image information immediately before the current frame, and a direction perpendicular to the traveling direction of the moving body. Differential image generating means for performing differential processing, projection image generating means for calculating the sum of luminance values for each line of the output image from the differential image generating means to generate a projected image, and projection from a plurality of projection image generating means An image-type vehicle detection system, comprising: a logical product calculating means for logically processing values.
【請求項2】 前記差分画像生成手段により得られた時
間差分画像から前記投影像生成手段により第1の投影像
を生成すると共に、前記微分画像生成手段により得られ
た微分画像から前記差分画像生成手段により時間差分画
像を生成後、該時間差分画像を前記投影像生成手段によ
り第2の投影像を生成し、前記第1の投影像と第2の投
影像を前記論理積演算手段により演算することにより前
記画像情報から車両のみを検出することを特徴とする請
求項1に記載の画像式車両感知システム。
2. The differential image generation is performed from the differential image obtained by the differential image generating unit while the first projected image is generated by the projected image generating unit from the time differential image obtained by the differential image generating unit. After the time difference image is generated by the means, the time difference image is generated by the projection image generation means to generate a second projection image, and the first projection image and the second projection image are calculated by the logical product calculation means. The image type vehicle detection system according to claim 1, wherein only the vehicle is detected from the image information.
【請求項3】 前記微分画像生成手段は、前記画像情報
の基準画素の座標をT(x、y)、該座標での輝度値を
P(x、y)としたとき、P(x、y)>P(x、y−
1)の場合、座標T(x、y)の輝度値をP(x、y)
−P(x、y−1)とし、P(x、y)≦P(x、y−
1)の場合、座標T(x、y)の輝度値を0とすること
を特徴とする請求項1又は2に記載の画像式車両感知シ
ステム。
3. The differential image generation means, where T (x, y) is a coordinate of a reference pixel of the image information and P (x, y) is a brightness value at the coordinate, P (x, y) )> P (x, y-
In the case of 1), the brightness value of the coordinate T (x, y) is set to P (x, y).
-P (x, y-1), P (x, y) ≤ P (x, y-
In the case of 1), the luminance value of the coordinate T (x, y) is set to 0, and the image type vehicle detection system according to claim 1 or 2.
【請求項4】 前記差分画像生成手段は、前記感知エリ
ア内の現在フレームの画像の輝度値から該現在フレーム
の一つ前のフレーム画像の輝度値を減算し、該減算結果
の画像輝度値から負の輝度値をゼロにすることにより、
前記移動体に含まれる陰影部分を除去することを特徴と
する請求項1又は2に記載の画像式車両感知システム。
4. The difference image generating means subtracts a brightness value of a frame image immediately before the current frame from a brightness value of an image of a current frame in the sensing area, and subtracts the brightness value from the image brightness value of the subtraction result. By setting the negative luminance value to zero,
The image type vehicle detection system according to claim 1 or 2, wherein a shaded portion included in the moving body is removed.
【請求項5】 前記微分画像生成手段により固定物の陰
影及び前記移動体の陰影を微分処理した微分画像の一フ
レーム前の微分画像から前記差分画像生成手段により時
間差分画像を生成することにより前記固定物の陰影と前
記移動体の陰影を同時に除去することを特徴とする請求
項1乃至4の何れか一項に記載の画像式車両感知システ
ム。
5. The time difference image is generated by the difference image generating means from the differential image one frame before the differential image obtained by differentiating the shadow of the fixed object and the shadow of the moving body by the differential image generating means. The image type vehicle detection system according to any one of claims 1 to 4, wherein the shadow of a fixed object and the shadow of the moving body are removed at the same time.
【請求項6】 撮像手段により撮影された感知エリア内
の移動体を画像情報処理により車両として検出する画像
式車両感知システムにおいて、 前記撮像手段により撮影された進入判定エリア内の移動
体及び周辺の画像を格納する進入画像格納手段と、前記
移動体の進行方向に前記進入判定エリアに連続して設け
られた感知エリア内の移動体及び周辺の画像を格納する
感知画像格納手段と、現在フレームのN(Nは1以上の
整数)フレーム前の画像情報と前記現在フレームの(N
−1)フレーム前の画像情報から時間差分画像を生成す
る差分画像生成手段と、前記移動体の通行方向に対して
垂直方向に微分処理する微分画像生成手段と、前記差分
画像生成手段からの出力画像のライン毎の輝度値の合計
を演算して投影像を生成する投影像生成手段と、複数の
投影像生成手段からの投影値を論理積処理する論理積演
算手段と、を備えたことを特徴とする画像式車両感知シ
ステム。
6. An image type vehicle detection system for detecting a moving body in a sensing area photographed by an image pickup means as a vehicle by image information processing, comprising: An approach image storage means for storing an image, a sense image storage means for storing an image of the moving body and its surroundings in a sensing area continuously provided in the approach determination area in the traveling direction of the moving body, and a current frame Image information before N (N is an integer of 1 or more) frames and (N
-1) Difference image generating means for generating a time difference image from image information before the frame, differential image generating means for differentiating in the direction perpendicular to the passage direction of the moving body, and output from the difference image generating means A projection image generating unit that calculates a total of brightness values for each line of an image to generate a projection image, and a logical product calculating unit that performs a logical product process of the projection values from the plurality of projection image generating units are provided. Characteristic image type vehicle detection system.
【請求項7】 前記進入画像格納手段に格納された前記
進入判定エリア内の画像から前記差分画像生成手段によ
り第1の時間差分画像を生成し、該第1の時間差分画像
から前記投影像生成手段により第1の投影像を生成する
と共に、前記感知画像格納手段に格納された前記感知エ
リア内の画像から前記差分画像生成手段により第2の時
間差分画像を生成し、該第2の時間差分画像から前記投
影像生成手段により第2の投影像を生成し、前記微分画
像生成手段により得られた微分画像から前記差分画像生
成手段により第3の時間差分画像を生成後、該第3の時
間差分画像を前記投影像生成手段により第3の投影像を
生成し、前記第1の投影像、第2の投影像及び第3の投
影像を前記論理積演算手段により演算することにより前
記画像情報から逆走移動体の陰影部分を除去して車両の
みを検出することを特徴とする請求項6に記載の画像式
車両感知システム。
7. The first time difference image is generated by the difference image generating means from the image in the entrance determination area stored in the entrance image storing means, and the projection image is generated from the first time difference image. Means for generating a first projection image, and the difference image generating means for generating a second time difference image from the image in the sensing area stored in the sense image storing means, and the second time difference image. The second projection image is generated from the image by the projection image generation means, and the third time difference image is generated by the difference image generation means from the differential image obtained by the differential image generation means, and then the third time is generated. The image information is obtained by calculating a third projection image of the difference image by the projection image generation means, and calculating the first projection image, the second projection image and the third projection image by the logical product calculation means. Run backward from The image type vehicle detection system according to claim 6, wherein the shaded portion of the moving body is removed to detect only the vehicle.
【請求項8】 前記感知エリアを車両感知領域内に1個
所設定することにより前記移動体から車両の特定を可能
としたことを特徴とする請求項1乃至7の何れか一項に
記載の画像式車両感知システム。
8. The image according to claim 1, wherein a vehicle can be identified from the moving body by setting one sensing area in a vehicle sensing area. Vehicle detection system.
【請求項9】 前記差分画像生成手段及び前記微分画像
生成手段は、所定の時間間隔で1フレーム単位に前記格
納手段により格納された画像情報を画像処理することを
特徴とする請求項1乃至8の何れか一項に記載の画像式
車両感知システム。
9. The differential image generating means and the differential image generating means image-process the image information stored by the storing means in units of one frame at predetermined time intervals. The image type vehicle detection system according to any one of claims 1 to 5.
【請求項10】 撮影された感知エリア内の移動体を画
像情報処理により車両として検出する画像式車両感知方
法において、 撮影された感知エリア内の移動体及び周辺の画像を格納
するステップと、この格納された画像情報に基づいて現
在フレームと該現在フレームの一つ前のフレーム画像か
ら時間差分画像を生成するステップと、前記移動体の通
行方向に垂直な方向に微分処理するステップと、前記差
分画像生成ステップからの出力画像のライン毎の輝度値
の合計を演算して投影像を生成するステップと、複数の
投影像生成ステップからの投影値を論理積処理するステ
ップと、を備え、 前記差分画像生成ステップにより得られた時間差分画像
から前記投影像生成ステップにより第1の投影像を生成
すると共に、前記微分画像生成ステップにより得られた
微分画像から前記差分画像生成ステップにより時間差分
画像を生成後、該時間差分画像から前記投影像生成ステ
ップにより第2の投影像を生成し、前記第1の投影像と
第2の投影像を前記論理積演算ステップにより演算する
ことにより前記画像情報から車両のみを検出するたこと
を特徴とする画像式車両感知方法。
10. An image type vehicle detection method for detecting a moving body in a photographed sensing area as a vehicle by image information processing, and a step of storing images of the moving body and its surroundings in the photographed sensing area, A step of generating a time difference image from the current frame and a frame image immediately before the current frame based on the stored image information; a step of differentiating in a direction perpendicular to the traveling direction of the moving body; The step of calculating a sum of the brightness values for each line of the output image from the image generation step to generate a projection image; and the step of performing a logical product process of the projection values from the plurality of projection image generation steps, wherein the difference The first projection image is generated by the projection image generation step from the time difference image obtained by the image generation step, and the differential image generation step is performed. After the time difference image is generated from the obtained differential image by the difference image generating step, the second projection image is generated from the time difference image by the projection image generating step, and the first projection image and the second projection image are generated. An image type vehicle detection method, wherein only a vehicle is detected from the image information by calculating a projected image in the logical product calculating step.
【請求項11】 撮影された感知エリア内の移動体を画
像情報処理により車両として検出する画像式車両感知方
法において、 進入判定エリア内の移動体及び周辺の画像を格納するス
テップと、前記移動体の進行方向に前記進入判定エリア
に連続して設けられた感知エリア内の移動体及び周辺の
画像を格納するステップと、現在フレームのN(Nは1
以上の整数)フレーム前の画像情報と前記現在フレーム
の(N−1)フレーム前の画像情報から時間差分画像を
生成するステップと、前記移動体の通行方向に対して垂
直方向に微分処理する微分画像生成ステップと、前記差
分画像生成ステップからの出力画像のライン毎の輝度値
の合計を演算して投影像を生成する投影像生成ステップ
と、複数の投影像生成ステップからの投影値を論理積処
理する論理積演算ステップと、を備え、 前記進入判定エリア内の画像から前記差分画像生成ステ
ップにより第1の時間差分画像を生成し、該第1の時間
差分画像から前記投影像生成ステップにより第1の投影
像を生成すると共に、前記感知エリア内の画像から前記
差分画像生成ステップにより第2の時間差分画像を生成
し、該第2の時間差分画像から前記投影像生成ステップ
により第2の投影像を生成し、前記微分画像生成ステッ
プにより得られた微分画像から前記差分画像生成ステッ
プにより第3の時間差分画像を生成後、該第3の時間差
分画像を前記投影像生成ステップにより第3の投影像を
生成し、前記第1の投影像、第2の投影像、及び第3の
投影像を前記論理積演算ステップにより演算することに
より前記画像情報から逆走移動体の陰影部分を除去して
車両のみを検出することを特徴とする画像式車両感知方
法。
11. An image-type vehicle detection method for detecting a captured moving body in a sensing area as a vehicle by image information processing, a step of storing images of the moving body in the entry determination area and the surrounding area, and the moving body. A step of storing images of the moving body and its surroundings in a sensing area continuously provided in the approach determination area in the traveling direction of N, and N of the current frame (N is 1
(The above integer) a step of generating a time difference image from the image information of the previous frame and the image information of the (N-1) th frame of the current frame, and a differentiation for performing a differential process in a direction perpendicular to the traveling direction of the moving body. The image generation step, the projection image generation step of calculating the sum of the brightness values for each line of the output image from the difference image generation step to generate a projection image, and the logical product of the projection values from the plurality of projection image generation steps AND processing step for processing, wherein a first time difference image is generated from the image in the entry determination area by the difference image generating step, and a first image is generated from the first time difference image by the projection image generating step. 1 is generated, a second time difference image is generated from the image in the sensing area by the difference image generating step, and a second time difference image is generated from the second time difference image. The second projection image is generated by the projection image generation step, the third time difference image is generated by the difference image generation step from the differential image obtained by the differential image generation step, and then the third time difference image is generated. From the image information by generating a third projection image by the projection image generation step, and calculating the first projection image, the second projection image, and the third projection image by the AND operation step. An image-based vehicle detection method comprising detecting only a vehicle by removing a shaded portion of a reverse traveling vehicle.
JP2002048568A 2002-02-25 2002-02-25 Image-type vehicle detection system and image-type vehicle detection method Expired - Fee Related JP3914447B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002048568A JP3914447B2 (en) 2002-02-25 2002-02-25 Image-type vehicle detection system and image-type vehicle detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002048568A JP3914447B2 (en) 2002-02-25 2002-02-25 Image-type vehicle detection system and image-type vehicle detection method

Publications (2)

Publication Number Publication Date
JP2003248895A true JP2003248895A (en) 2003-09-05
JP3914447B2 JP3914447B2 (en) 2007-05-16

Family

ID=28661334

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002048568A Expired - Fee Related JP3914447B2 (en) 2002-02-25 2002-02-25 Image-type vehicle detection system and image-type vehicle detection method

Country Status (1)

Country Link
JP (1) JP3914447B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001297397A (en) * 2000-04-17 2001-10-26 Nagoya Electric Works Co Ltd Method and device for counting vehicle
JP2013210826A (en) * 2012-03-30 2013-10-10 Nec Corp Information processing apparatus, drawing processing system, drawing processing method, and program
JP2014182433A (en) * 2013-03-18 2014-09-29 Toshiba Corp Road state comprehension apparatus
US8917169B2 (en) 1993-02-26 2014-12-23 Magna Electronics Inc. Vehicular vision system
US8993951B2 (en) 1996-03-25 2015-03-31 Magna Electronics Inc. Driver assistance system for a vehicle
US9008369B2 (en) 2004-04-15 2015-04-14 Magna Electronics Inc. Vision system for vehicle
CN104952256A (en) * 2015-06-25 2015-09-30 广东工业大学 Video information based method for detecting vehicles at intersection
US9436880B2 (en) 1999-08-12 2016-09-06 Magna Electronics Inc. Vehicle vision system
US9555803B2 (en) 2002-05-03 2017-01-31 Magna Electronics Inc. Driver assistance system for vehicle
US10071676B2 (en) 2006-08-11 2018-09-11 Magna Electronics Inc. Vision system for vehicle
CN111314675A (en) * 2020-04-15 2020-06-19 绍兴穆托汽车电子有限公司 AR intelligent projection system for intelligent transportation

Cited By (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8917169B2 (en) 1993-02-26 2014-12-23 Magna Electronics Inc. Vehicular vision system
US8993951B2 (en) 1996-03-25 2015-03-31 Magna Electronics Inc. Driver assistance system for a vehicle
US9436880B2 (en) 1999-08-12 2016-09-06 Magna Electronics Inc. Vehicle vision system
JP2001297397A (en) * 2000-04-17 2001-10-26 Nagoya Electric Works Co Ltd Method and device for counting vehicle
US9643605B2 (en) 2002-05-03 2017-05-09 Magna Electronics Inc. Vision system for vehicle
US11203340B2 (en) 2002-05-03 2021-12-21 Magna Electronics Inc. Vehicular vision system using side-viewing camera
US10683008B2 (en) 2002-05-03 2020-06-16 Magna Electronics Inc. Vehicular driving assist system using forward-viewing camera
US10351135B2 (en) 2002-05-03 2019-07-16 Magna Electronics Inc. Vehicular control system using cameras and radar sensor
US10118618B2 (en) 2002-05-03 2018-11-06 Magna Electronics Inc. Vehicular control system using cameras and radar sensor
US9834216B2 (en) 2002-05-03 2017-12-05 Magna Electronics Inc. Vehicular control system using cameras and radar sensor
US9555803B2 (en) 2002-05-03 2017-01-31 Magna Electronics Inc. Driver assistance system for vehicle
US9428192B2 (en) 2004-04-15 2016-08-30 Magna Electronics Inc. Vision system for vehicle
US10110860B1 (en) 2004-04-15 2018-10-23 Magna Electronics Inc. Vehicular control system
US9736435B2 (en) 2004-04-15 2017-08-15 Magna Electronics Inc. Vision system for vehicle
US9191634B2 (en) 2004-04-15 2015-11-17 Magna Electronics Inc. Vision system for vehicle
US9948904B2 (en) 2004-04-15 2018-04-17 Magna Electronics Inc. Vision system for vehicle
US10015452B1 (en) 2004-04-15 2018-07-03 Magna Electronics Inc. Vehicular control system
US9609289B2 (en) 2004-04-15 2017-03-28 Magna Electronics Inc. Vision system for vehicle
US10735695B2 (en) 2004-04-15 2020-08-04 Magna Electronics Inc. Vehicular control system with traffic lane detection
US11847836B2 (en) 2004-04-15 2023-12-19 Magna Electronics Inc. Vehicular control system with road curvature determination
US10187615B1 (en) 2004-04-15 2019-01-22 Magna Electronics Inc. Vehicular control system
US10306190B1 (en) 2004-04-15 2019-05-28 Magna Electronics Inc. Vehicular control system
US9008369B2 (en) 2004-04-15 2015-04-14 Magna Electronics Inc. Vision system for vehicle
US10462426B2 (en) 2004-04-15 2019-10-29 Magna Electronics Inc. Vehicular control system
US11503253B2 (en) 2004-04-15 2022-11-15 Magna Electronics Inc. Vehicular control system with traffic lane detection
US10071676B2 (en) 2006-08-11 2018-09-11 Magna Electronics Inc. Vision system for vehicle
US10787116B2 (en) 2006-08-11 2020-09-29 Magna Electronics Inc. Adaptive forward lighting system for vehicle comprising a control that adjusts the headlamp beam in response to processing of image data captured by a camera
US11148583B2 (en) 2006-08-11 2021-10-19 Magna Electronics Inc. Vehicular forward viewing image capture system
US11396257B2 (en) 2006-08-11 2022-07-26 Magna Electronics Inc. Vehicular forward viewing image capture system
US11623559B2 (en) 2006-08-11 2023-04-11 Magna Electronics Inc. Vehicular forward viewing image capture system
US11951900B2 (en) 2006-08-11 2024-04-09 Magna Electronics Inc. Vehicular forward viewing image capture system
JP2013210826A (en) * 2012-03-30 2013-10-10 Nec Corp Information processing apparatus, drawing processing system, drawing processing method, and program
JP2014182433A (en) * 2013-03-18 2014-09-29 Toshiba Corp Road state comprehension apparatus
CN104952256A (en) * 2015-06-25 2015-09-30 广东工业大学 Video information based method for detecting vehicles at intersection
CN111314675A (en) * 2020-04-15 2020-06-19 绍兴穆托汽车电子有限公司 AR intelligent projection system for intelligent transportation

Also Published As

Publication number Publication date
JP3914447B2 (en) 2007-05-16

Similar Documents

Publication Publication Date Title
KR100377067B1 (en) Method and apparatus for detecting object movement within an image sequence
JP4157620B2 (en) Moving object detection apparatus and method
JP2002074368A (en) Moving object recognizing and tracking device
JP2003346278A (en) Apparatus and method for measuring queue length of vehicles
JP2006031365A (en) Traffic lane recognition image processing apparatus
JP7018607B2 (en) Moving object detection device and moving object detection method
CN112036210A (en) Method and device for detecting obstacle, storage medium and mobile robot
JP4156084B2 (en) Moving object tracking device
JP3914447B2 (en) Image-type vehicle detection system and image-type vehicle detection method
JP4674179B2 (en) Shadow recognition method and shadow boundary extraction method
WO2013002047A1 (en) Trolley wire abrasion measuring apparatus using image process
JP3800785B2 (en) White line recognition device
JP2003162798A (en) Device and program for monitoring obstacle
JP2020013206A (en) Device for detecting two-wheeled vehicle from moving image/camera, program, and system
JP5353531B2 (en) Vehicle light recognition device and program
JP2010061375A (en) Apparatus and program for recognizing object
JP3853574B2 (en) Moving object detection system
CN107066929B (en) Hierarchical recognition method for parking events of expressway tunnel integrating multiple characteristics
JP2004086417A (en) Method and device for detecting pedestrian on zebra crossing
JP2829934B2 (en) Mobile vehicle environment recognition device
CN110388985B (en) Method for determining color of street sign and image processing system
JP2010136207A (en) System for detecting and displaying pedestrian
KR101865958B1 (en) Method and apparatus for recognizing speed limit signs
JPH0757200A (en) Method and device for recognizing travel course
JP4119041B2 (en) Vehicle detection apparatus using color information

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040930

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060901

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060911

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070123

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070202

R150 Certificate of patent or registration of utility model

Ref document number: 3914447

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110209

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110209

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120209

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130209

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees