JP2000048298A - Vehicle detector - Google Patents

Vehicle detector

Info

Publication number
JP2000048298A
JP2000048298A JP10216758A JP21675898A JP2000048298A JP 2000048298 A JP2000048298 A JP 2000048298A JP 10216758 A JP10216758 A JP 10216758A JP 21675898 A JP21675898 A JP 21675898A JP 2000048298 A JP2000048298 A JP 2000048298A
Authority
JP
Japan
Prior art keywords
vehicle
detecting
image
moving area
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10216758A
Other languages
Japanese (ja)
Inventor
Kenji Kitamura
村 健 児 北
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP10216758A priority Critical patent/JP2000048298A/en
Publication of JP2000048298A publication Critical patent/JP2000048298A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To exactly detect the position of a vehicle without being affected by any external factor such as the shadow of a car body caused by sunlight or head light reflection from a road surface on a rainy day at nighttime. SOLUTION: Based on a signal inputted from an image input means 11, a moving area detecting part 131 detects a moving area as a vehicle candidate area and a moving area dividing part 132 divides the detected moving area into areas and detects a feature point coordinate for each divided area. Based on a signal inputted from a side signal input means 12, a moving area detecting part 141 detects a moving area as a vehicle candidate area and a moving area dividing part 142 divides the detected moving area into areas and detects a feature point coordinate for each divided area. The coordinates of these feature points are transformed into real space coordinates by a coordinate transforming part 151 and a vehicle position detecting part 152 merges plural pieces of transformed information and detects the vehicle on the real space. An acceleration detecting part 153 detects the speed and acceleration of the vehicle and a vehicle factor detecting part 154 detects car width, car length and car height.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、テレビカメラ等の
画像入力装置から入力された画像データを処理すること
によって道路を走行する車両を検出し、台数や位置、速
度を算出する画像処理式の車両検出装置に関するもので
ある。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing type image processing method for detecting vehicles running on a road by processing image data input from an image input device such as a television camera and calculating the number, position and speed of the vehicles. The present invention relates to a vehicle detection device.

【0002】[0002]

【従来の技術】従来、実用化されている交通管制システ
ムでは、送出した超音波の反射で車両を検出する超音波
式車両感知器、或いは道路に埋設したループコイルの誘
導起電力で車両を検出するループ式車両感知器等の車両
感知器によって走行車両を検出し、この情報をもとに交
通信号機の制御を行い、交通管制を行う方式が用いられ
ていた。これらの車両感知器は、基本的には走行してい
る車両の台数や速度を計測し、その情報を用いて車両の
流れ全体を(例えば交通信号機制御という形で)制御す
るというものである。
2. Description of the Related Art Conventionally, in a traffic control system put into practical use, an ultrasonic vehicle sensor for detecting a vehicle by reflection of transmitted ultrasonic waves, or a vehicle is detected by an induced electromotive force of a loop coil embedded in a road. A method has been used in which a traveling vehicle is detected by a vehicle sensor such as a loop-type vehicle sensor, and a traffic signal is controlled based on this information to perform traffic control. These vehicle sensors basically measure the number and speed of running vehicles and use the information to control the overall flow of the vehicles (for example, in the form of traffic signal control).

【0003】近年、これら車両感知器に代わり、テレビ
カメラで車両の走行する道路を撮影し、この映像を処理
して車両を検出する画像処理方式の車両感知器が実用化
されてきている。超音波式やループ式車両感知器が、設
置場所において計測(いわゆる点計測)された情報を組
み合わせてマクロな情報としているのに対し、画像処理
式感知器は、テレビカメラ一台で比較的広い範囲を撮像
し、その領域全体で車両を検出することが可能であるた
め(いわゆる面計測)、従来の車両感知器では検出でき
なかった、より詳細な情報、例えば事故の発生を検出す
ることが可能となった(特開平8−22592号公報ま
たは特開平6−76195号公報参照)。
In recent years, instead of these vehicle detectors, image processing type vehicle detectors have been put to practical use in which a road on which the vehicle is traveling is photographed by a television camera and the image is processed to detect the vehicle. While ultrasonic and loop-type vehicle sensors combine information measured at the installation location (so-called point measurement) into macroscopic information, image processing-type sensors are relatively wide with a single TV camera. Since it is possible to image a range and detect a vehicle in the entire area (so-called surface measurement), it is possible to detect more detailed information, for example, occurrence of an accident, which cannot be detected by a conventional vehicle sensor. This has become possible (see JP-A-8-22592 or JP-A-6-76195).

【0004】このような画像処理式による車両検出装置
(以下、画像処理式車両検出装置と記す)の多くは、1
台のカメラを道路上もしくは路側帯上にに設置し、その
画像を処理して車両を検出するものである。近年では、
2台のテレビカメラを数10センチメートル程度離して道
路上もしくは路側帯上に設置し、これら2台の映像を処
理して車両を検出するステレオ画像処理式車両検出装置
も考案されている。
Many of such image processing type vehicle detection devices (hereinafter, referred to as image processing type vehicle detection devices) include one
One camera is installed on a road or a roadside zone, and the image is processed to detect a vehicle. in recent years,
A stereo image processing type vehicle detection device has been devised in which two television cameras are installed on a road or a roadside zone at a distance of about several tens of centimeters, and the two images are processed to detect a vehicle.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、前述の
画像処理式車両検出装置には、いくつかの課題が存在し
ていた。1台のカメラを用いる画像処理式車両検出装置
における課題の第1は、太陽光によって発生する車体の
影や、夜間雨天時のヘッドライト光路面反射の影響の除
去、第2はテレビカメラに近く位置する車両によって隠
蔽された遠方車両の検出である。第1の課題については
色々と研究はなされているが、1台のカメラでこの問題
の解決を図るのはかなり困難であり、特効的な手法が確
立されたとは言い難い。一方、第2の課題は、隠蔽車両
の検出はカメラ1台では原理的に不可能であり、その車
両が過去に検出された際に、そのときの位置および速度
の情報を用いて現在の位置を推定する方法が考えられる
が、この方法で十分な精度が得られるとは言い難い。こ
のように、これらの課題に対してテレビカメラ1台で解
決を図るというのは現状では極めて困難である。
However, the image processing type vehicle detection device described above has several problems. The first problem in the image processing type vehicle detection device using one camera is to remove the influence of the shadow of the vehicle body caused by sunlight and the reflection of the headlight light path on night rainy weather. This is the detection of a distant vehicle concealed by the vehicle located. Although various studies have been made on the first problem, it is quite difficult to solve this problem with a single camera, and it is hard to say that a specific method has been established. On the other hand, the second problem is that detection of a concealed vehicle is impossible in principle with one camera, and when the vehicle is detected in the past, the current position and speed information are used using the position and speed information at that time. Can be estimated, but it is hard to say that this method provides sufficient accuracy. Thus, it is extremely difficult at present to try to solve these problems with one television camera.

【0006】一方、第1の課題の解決策を図るべく考案
されたものがステレオ画像処理式車両検出装置である。
この装置では、三角測量の原理で画像から距離情報の検
出が可能であるため、これによって影や反射光等の路面
上に発生するノイズ成分の除去が可能である。しかしな
がら、この方式の場合、2台のカメラ間において対象物
体や路面等の同一部分を対応付けることが必要になる。
この対応付けの精度が高くなければ、十分な距離計測精
度を確保することはできないが、2台のテレビカメラ間
距離が大きくなる程、2台のカメラ画像の相違は大きく
なり、対応付け問題は難しくなる。したがって、対応付
けの精度を高くするためには、2台のテレビカメラ間の
距離を余り大きくすることはできない。しかしながら、
カメラ間距離が短いと、三角測量原理による距離計測精
度は低下するため、ある程度2台のカメラは離して設置
しないと十分な距離精度は確保できない。
On the other hand, what is devised to solve the first problem is a stereo image processing type vehicle detection device.
In this device, since distance information can be detected from an image based on the principle of triangulation, noise components such as shadows and reflected light generated on the road surface can be removed. However, in the case of this method, it is necessary to associate the same part such as a target object or a road surface between two cameras.
If the accuracy of this association is not high, sufficient distance measurement accuracy cannot be ensured. However, as the distance between the two TV cameras increases, the difference between the two camera images increases, and the association problem is raised. It becomes difficult. Therefore, in order to increase the accuracy of the association, the distance between the two television cameras cannot be made too large. However,
If the distance between the cameras is short, the distance measurement accuracy based on the principle of triangulation will decrease, and sufficient distance accuracy cannot be ensured unless two cameras are set apart from each other to some extent.

【0007】このように、ステレオ画像処理における2
台のカメラ間距離の設定問題は、相反する難しい性質を
有しており、これがこの方式で高い精度を得ることを困
難にしている。また、上述の対応付けは、対象とする部
分においてそのテクスチャまたは色等が特徴を有してい
なければ対応付けすることができず、本方式を適用する
ことはできない。道路面上においては、通常、特徴を有
する部分は白線程度であり、対応付け処理が適用できる
領域には限界がある。
As described above, in stereo image processing, 2
The problem of setting the distance between the cameras has conflicting and difficult properties, which makes it difficult to obtain high accuracy with this method. In addition, the above-described association cannot be performed unless the texture, color, or the like has a feature in the target portion, and the present method cannot be applied. On a road surface, a characteristic portion is generally a white line, and there is a limit to an area to which the association processing can be applied.

【0008】以上のように、上記第1の課題の解決策を
図るべく考案されたステレオ画像処理方式においても課
題は残り、第2のの課題については、ステレオ画像処理
方式においても1台のカメラの場合と問題は同じであ
り、それについての十分な解決策はない。
As described above, the problem still remains in the stereo image processing system devised to solve the first problem, and the second problem is that one camera is used in the stereo image processing method. The problem is the same as in, and there is not enough solution for it.

【0009】本発明は、上記従来の課題を解決するもの
であり、1台のカメラもしくはステレオカメラによる画
像処理車両検出装置で課題とされた車体の影やヘッドラ
イト路面反射光の影響を除去し、手前の車両に隠蔽され
た車両をも検出を可能とすることのできる車両検出装置
を提供することを目的とするものである。また、上述の
従来の画像処理式車両検出装置では十分な検出精度が得
られなかった車幅、車長および車高を走行車両諸元情報
として高精度に検出することのできる車両検出装置を提
供することを目的とするものである。
The present invention solves the above-mentioned conventional problems, and eliminates the effects of the shadows of the vehicle body and the reflected lights of the headlights on the road surface, which are problems in the image processing vehicle detection apparatus using one camera or a stereo camera. It is another object of the present invention to provide a vehicle detection device capable of detecting a vehicle concealed by a preceding vehicle. Further, the present invention provides a vehicle detection device that can accurately detect a vehicle width, a vehicle length and a vehicle height as running vehicle specification information, for which sufficient detection accuracy was not obtained with the above-described conventional image processing type vehicle detection device. It is intended to do so.

【0010】[0010]

【課題を解決するための手段】上記目的を達成するため
に、本発明の車両検出装置は、1つ以上の画像入力手段
と、1つ以上の側方信号入力手段と、動領域検出手段、
側方検出手段および車両検出手段によって構成したもの
である。画像入力手段は、車両の走行する道路を真上も
しくは斜め上高所から撮像し、画像を入力する。側方信
号入力手段は、車両の走行する道路の路側帯もしくは中
央分離帯またはその両方に設置され、車両存在信号を入
力する。動領域検出手段は、画像入力手段によって入力
された画像より動き領域を検出し、車両候補領域とす
る。側方検出手段は、車両信号入力手段によって入力さ
れた車両信号を処理して、車両存在情報として検出す
る。車両検出手段は、上述の車両候補領域情報および車
両存在情報を統合して走行車両領域を決定し検出する。
In order to achieve the above object, a vehicle detection apparatus according to the present invention comprises at least one image input means, at least one side signal input means, a moving area detection means,
It is constituted by side detection means and vehicle detection means. The image input means captures an image of a road on which the vehicle travels from directly above or from an obliquely high place, and inputs an image. The side signal input means is provided on a road side zone and / or a median strip of a road on which the vehicle runs, and inputs a vehicle presence signal. The moving area detecting means detects a moving area from the image input by the image input means and sets the detected moving area as a vehicle candidate area. The side detection means processes the vehicle signal input by the vehicle signal input means and detects it as vehicle presence information. The vehicle detecting means determines and detects the traveling vehicle region by integrating the above-mentioned vehicle candidate region information and vehicle presence information.

【0011】[0011]

【発明の実施の形態】本発明の請求項1に記載の発明
は、車両の走行する道路を真上もしくは斜め上高所から
撮像し、画像を入力する画像入力手段と、車両の走行す
る道路の路側帯もしくは中央分離帯部またはその両方の
側方に設置され、車両存在信号を入力する側方信号入力
手段と、画像入力手段によって入力された画像情報から
動き領域を車両候補領域として検出する動領域検出手段
と、側方信号入力手段によって入力された車両信号から
車両存在情報を検出する側方検出手段と、これらの車両
候補領域情報および車両存在情報を統合して走行車両領
域を決定し検出する車両検出手段とを備えたものであ
り、画像入力手段によって入力された画像を基に検出さ
れた車両候補領域情報と、側方信号入力手段によって入
力された車両信号を基に検出された車両存在情報を用い
て、対象車両を精度良く検出することができるという作
用を有する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention according to claim 1 of the present invention is directed to an image input means for picking up an image of a road on which a vehicle travels from directly above or from an obliquely high place and inputting an image, and a road on which the vehicle travels. And a side signal input unit for inputting a vehicle presence signal, and a motion region is detected as a vehicle candidate region from image information input by the image input unit. Moving area detection means, side detection means for detecting vehicle presence information from a vehicle signal input by the side signal input means, and integrating these vehicle candidate area information and vehicle presence information to determine a traveling vehicle area. Vehicle detection means for detecting the vehicle candidate area information detected based on the image input by the image input means and the vehicle signal input by the side signal input means. Using the detected vehicle presence information was, an effect that a target vehicle can be accurately detected.

【0012】本発明の請求項2に記載の発明は、画像入
力手段および側方信号入力手段が、それぞれ1以上の可
視光撮像カメラである請求項1記載の車両検出装置であ
り、画像情報を確実に得ることができるという作用を有
する。
According to a second aspect of the present invention, there is provided the vehicle detecting apparatus according to the first aspect, wherein each of the image input means and the side signal input means is at least one visible light imaging camera. It has the effect that it can be obtained reliably.

【0013】本発明の請求項3に記載の発明は、動領域
検出手段および側方検出手段が、それぞれ画像入力手段
および側方信号入力手段からの画像信号を基にフレーム
差分処理によって動領域を検出することを特徴とする請
求項2記載の車両検出装置であり、動領域を確実に検出
することができるという作用を有する。
According to a third aspect of the present invention, the moving area detecting means and the side detecting means determine the moving area by frame difference processing based on the image signals from the image input means and the side signal input means, respectively. The vehicle detection device according to claim 2, wherein the detection is performed, and has an operation of reliably detecting a moving area.

【0014】本発明の請求項4に記載の発明は、動領域
検出手段および側方検出手段が、それぞれ検出した動領
域を分割して特徴点を検出することを特徴とする請求項
3記載の車両検出装置であり、動領域検出手段における
車両候補領域および側方検出手段における車両存在情報
を確実に得ることができるという作用を有する。
According to a fourth aspect of the present invention, the moving area detecting means and the lateral detecting means divide each of the detected moving areas to detect a feature point. The vehicle detection device has an operation of reliably obtaining a vehicle candidate area in a moving area detection unit and vehicle presence information in a side detection unit.

【0015】本発明の請求項5に記載の発明は、車両検
出手段が、検出車両の走行速度および加速度を検出する
ことを特徴とする請求項4記載の車両検出装置であり、
上述の車両候補領域情報と車両存在情報を用いることに
より、対象車両の速度および加速度を精度良く検出する
ことができるという作用を有する。
According to a fifth aspect of the present invention, there is provided the vehicle detecting apparatus according to the fourth aspect, wherein the vehicle detecting means detects a traveling speed and an acceleration of the detected vehicle.
By using the above-described vehicle candidate area information and the vehicle presence information, the speed and acceleration of the target vehicle can be accurately detected.

【0016】本発明の請求項6に記載の発明は、車両検
出手段が、検出車両の車幅、車長および車高を車両諸元
情報として検出することを特徴とする請求項4記載の車
両検出装置であり、上述の車両候補領域情報と車両存在
情報を用いることにより、対象車両の車幅、車長および
車高を車両諸元情報として精度良く検出することができ
るという作用を有する。
According to a sixth aspect of the present invention, in the vehicle according to the fourth aspect, the vehicle detecting means detects a vehicle width, a vehicle length and a vehicle height of the detected vehicle as vehicle specification information. The detection device has an effect that the vehicle width, the vehicle length, and the vehicle height of the target vehicle can be accurately detected as vehicle specification information by using the above-described vehicle candidate region information and vehicle presence information.

【0017】(実施の形態)以下、本発明における実施
の形態について、図1、図2を用いて説明する。図1に
おいて、11は画像入力手段であり、車両の走行する道
路を真上もしくは斜め上高所から撮像し、画像を入力す
る。12は側方信号入力手段であり、車両の走行する道
路の路側帯および中央分離帯部の側方から撮像し、画像
を車両存在信号として入力する。13は動領域検出手段
であり、画像入力手段11によって入力された画像から
動き領域を車両候補領域として検出する動領域検出部1
31と、動領域検出部131によって検出された動領域
を領域分割し、各分割領域毎に特徴点座標を検出する動
領域分割部132から構成される。14は側方検出手段
であり、側方信号入力手段12によって画像として入力
された車両存在信号から動き領域を車両候補領域として
検出する動領域検出部141と、動領域検出部141に
よって検出された動領域を領域分割し、各分割領域毎に
特徴点座標を検出する動領域分割部142から構成され
る。15は車両検出手段であり、動領域検出手段13お
よび側方検出手段14によって検出された情報につい
て、その画像座標を実空間座標に座標変換する座標変換
部151と、座標変換部151において変換された複数
の動領域検出手段13および側方検出手段14の結果を
統合し、実空間上において車両を検出する車両位置検出
部152と、車両位置検出部152の車両位置情報を時
系列に処理し、車両の速度および加速度を検出する速度
加速度検出部153と、車両位置検出部152の結果か
ら車両の車幅、車長および車高を車両諸元情報として検
出する車両諸元検出部154から構成される。
(Embodiment) An embodiment of the present invention will be described below with reference to FIGS. In FIG. 1, reference numeral 11 denotes an image input unit which captures an image of a road on which a vehicle travels from directly above or from an obliquely high place, and inputs an image. Reference numeral 12 denotes a side signal input unit which captures an image from a side of a road side zone and a center separation zone of a road on which the vehicle runs, and inputs an image as a vehicle presence signal. Reference numeral 13 denotes a moving area detecting unit, which detects a moving area from the image input by the image input unit 11 as a vehicle candidate area.
31 and a moving region dividing unit 132 that divides the moving region detected by the moving region detecting unit 131 and detects feature point coordinates for each divided region. Reference numeral 14 denotes a side detection unit which detects a moving region as a vehicle candidate region from a vehicle presence signal input as an image by the side signal input unit 12 and a moving region detecting unit 141 which detects the moving region. The moving region is divided into regions, and the moving region dividing unit 142 is configured to detect feature point coordinates for each divided region. Numeral 15 denotes a vehicle detecting means. The information detected by the moving area detecting means 13 and the side detecting means 14 is converted by the coordinate converting part 151 for converting the image coordinates into real space coordinates, and converted by the coordinate converting part 151. The results of the plurality of moving region detection means 13 and the side detection means 14 are integrated, and a vehicle position detection unit 152 for detecting a vehicle in a real space and vehicle position information of the vehicle position detection unit 152 are processed in time series. A speed / acceleration detector 153 for detecting the speed and acceleration of the vehicle, and a vehicle specification detector 154 for detecting the vehicle width, length and height of the vehicle as vehicle specification information from the result of the vehicle position detector 152. Is done.

【0018】画像入力手段11および車両信号入力手段
12は、1つ以上で構成することができる。図2に示す
ように、画像入力手段11は、車両の走行する道路を真
上もしくは斜め上高所から撮像するように設置される。
本来は複数の車線が存在する道路に対し、各車線毎にそ
の上に設置されるのが望ましいが、保守性や設置コス
ト、または都市美観の観点から路側帯および中央分離帯
に柱を建て、その上に設置して斜め上高所から撮像する
方法とする。撮像方向としては車両の前方および後方の
2通りが考えられるが、本実施の形態においては前方か
ら撮像するものとする。
The image input means 11 and the vehicle signal input means 12 can be constituted by one or more. As shown in FIG. 2, the image input unit 11 is installed so as to capture an image of the road on which the vehicle travels from directly above or from an obliquely high place.
Originally, it is desirable that a road with multiple lanes be installed on each lane, but from the viewpoint of maintainability and installation costs, or urban aesthetics, pillars should be built on the roadside zone and median strip, It is a method of installing it on it and taking an image from an obliquely high place. There are two possible imaging directions: forward and rear of the vehicle, but in the present embodiment, it is assumed that the image is captured from the front.

【0019】一方、側方信号入力手段12は、画像入力
手段11が設置された設置場所の前方Lmの地点の道路
の路側帯および中央分離帯部に設置される。側方信号入
力手段12は側方から車両を検出するものであるため、
光学式車両検知器や超音波式車両検知器を用いることも
可能であるが、本実施の形態においては画像入力による
方法とする。したがって画像入力手段11および車両信
号入力手段12は、通常のITVカメラとして用いられ
る可視光撮像カメラを用いる。また、本実施の形態にお
いては、車両の車高を計測するため、車高の異なる普通
車両と大型車両それぞれに対応するために、側方信号入
力手段12を路側帯側および中央分離帯側にそれぞれ2
台ずつ縦方向に並べて設置する。光学式車両検知器を用
いる場合は、各光センサは点計測しかできないので、必
要な計測精度が得られるだけ縦方向に複数個並べること
が必要になる。
On the other hand, the side signal input means 12 is installed in the road side zone and the center divider of the road at a point Lm ahead of the installation location where the image input means 11 is installed. Since the side signal input means 12 detects the vehicle from the side,
Although it is possible to use an optical vehicle detector or an ultrasonic vehicle detector, a method based on image input is used in the present embodiment. Therefore, as the image input means 11 and the vehicle signal input means 12, a visible light imaging camera used as a normal ITV camera is used. Further, in the present embodiment, in order to measure the vehicle height of the vehicle, the side signal input means 12 is provided on the road side band side and the central separation band side in order to correspond to each of a normal vehicle and a large vehicle having different vehicle heights. 2 each
It is installed side by side in the vertical direction. When an optical vehicle detector is used, since each optical sensor can only perform point measurement, it is necessary to arrange a plurality of optical sensors in the vertical direction as far as necessary measurement accuracy can be obtained.

【0020】次ぎに、本実施の形態の動作について説明
する。画像入力手段11および側方信号入力手段12に
より得られた画像情報は、動領域検出手段13および側
方検出手段14において処理される。入力された画像は
8ビット256階調のディジタルデータに変換される。
動領域検出手段13における動領域検出部131および
側方検出手段14における動領域検出部141は、この
データを処理し、対象領域内に存在する走行中の車両を
動物体領域として検出する。動領域の検出方法として
は、フレーム累積差分処理を用いる。フレーム差分処理
の場合、その検出領域の大きさは対象物体の撮像画面上
における移動速度に依存し、停止状態となった場合は動
領域検出は不可能となる。また、テクスチャが一様の領
域は検出することはできず、対象物体の輪郭部分を検出
する傾向がある。そこでフレーム差分処理をNフレーム
(Nは正の整数)に渡って行い、その結果の論理和演算
を行って動領域を検出する。以上がフレーム累積差分処
理である。フレーム累積差分処理によって検出された累
積差分データは、膨張・収縮処理、穴埋め処理、ノイズ
除去処理がなされて画素毎に抽出された動領域の安定化
が図られ、最後にラベリング処理によって外接長方形で
動領域がラベル付けされる。以上が動領域の検出方法で
ある。
Next, the operation of this embodiment will be described. Image information obtained by the image input unit 11 and the side signal input unit 12 is processed by the moving area detection unit 13 and the side detection unit 14. The input image is converted into digital data of 8 bits and 256 gradations.
The moving area detecting section 131 in the moving area detecting section 13 and the moving area detecting section 141 in the side detecting section 14 process this data and detect a running vehicle existing in the target area as a moving object area. As a moving area detection method, frame accumulation difference processing is used. In the case of the frame difference processing, the size of the detection area depends on the moving speed of the target object on the imaging screen, and when the object is stopped, the detection of the moving area becomes impossible. Also, a region having a uniform texture cannot be detected, and there is a tendency to detect a contour portion of the target object. Therefore, the frame difference processing is performed over N frames (N is a positive integer), and a logical sum operation of the result is performed to detect a moving region. The above is the frame accumulation difference processing. The cumulative difference data detected by the frame cumulative difference processing is subjected to dilation / shrinkage processing, fill-in-the-blank processing, and noise removal processing to stabilize the moving region extracted for each pixel. Finally, labeling processing is performed to form a circumscribed rectangle. The moving area is labeled. The above is the method of detecting the moving area.

【0021】次に、動領域検出手段13における動領域
分割部132および側方検出手段14における動領域分
割部142は、動領域情報をもとに動領域を領域分割
し、その特徴点を検出する。そこで領域分割および特徴
点検出方法について説明する。なお、動領域がM個検出
された場合、以下の処理はM回繰り返される。画像の領
域分割にはいくつかの方法があるが、ここでは公知の濃
度ヒストグラムによる領域分割方法を用いる。その他
に、テクスチャ解析による領域分割方法を用いても良
く、画像が色情報を有する場合は色情報を用いても良
い。
Next, the moving area dividing unit 132 in the moving area detecting means 13 and the moving area dividing unit 142 in the side detecting means 14 divide the moving area based on the moving area information and detect the characteristic points. I do. Therefore, a method of dividing an area and detecting a feature point will be described. When M moving regions are detected, the following processing is repeated M times. There are several methods for dividing an image into regions. Here, a known region dividing method based on a density histogram is used. Alternatively, a region division method based on texture analysis may be used, and when an image has color information, color information may be used.

【0022】動領域をその動領域が有する明度をもとに
N個(Nは1以上の整数)に領域分割する。256階調
ある画像データについて、K階調毎にヒストグラム作成
処理を行い、K階調に圧縮されたヒストグラムを作成す
る。Kは8または16に設定する。ヒストグラム作成
後、その谷点を検出し、それを領域分割閾値とする。但
し、予め最小分割領域面積比率R(%)を設定してお
き、上述の領域分割閾値によって分割した面積が動領域
全体のR%未満となった場合は、その閾値による分割は
行わないことにする。こうして動領域の領域分割閾値が
決定すると、これをもとに動領域を分割するが、領域分
割の際にノイズ成分が発生するためこれを除去するフィ
ルタ処理を行う。動領域内の各画素毎に5×5マスク領
域を設定し、その領域内において各画素の属するグルー
プの最大度数となるものを着目画素が属するグループと
設定する。この処理により、1もしくは数画素発生した
ノイズ成分は、その近傍5×5画素によって正しくグル
ープ化される。
The moving region is divided into N (N is an integer of 1 or more) regions based on the brightness of the moving region. For image data having 256 tones, a histogram creation process is performed for each of K tones, and a histogram compressed to K tones is created. K is set to 8 or 16. After the histogram is created, the valley point is detected, and the detected valley point is used as a region division threshold. However, if the minimum division region area ratio R (%) is set in advance, and the area divided by the above-mentioned region division threshold is less than R% of the entire moving region, division by the threshold is not performed. I do. When the region division threshold of the moving region is determined in this manner, the moving region is divided based on the threshold. However, since noise components are generated at the time of region division, a filtering process for removing the noise component is performed. A 5 × 5 mask area is set for each pixel in the moving area, and the one having the maximum frequency of the group to which each pixel belongs in the area is set as the group to which the target pixel belongs. By this processing, noise components generated by one or several pixels are correctly grouped by 5 × 5 pixels in the vicinity.

【0023】以上により領域分割処理が終了すると、動
領域内に存在するN個の分割領域に対してそれぞれ特徴
点を設定する。動領域検出手段13における動領域分割
部132は、各分割領域における画像座標上の最下点を
検出してその画像座標を特徴点座標とする。一方、側方
検出手段14における動領域分割部142は、側方信号
入力手段12が道路を路側帯側から撮像している場合
は、各分割領域における画像座標上の最左点を検出し、
側方信号入力手段12が道路を中央分離帯側から撮像し
ている場合は、各分割領域における画像座標上の最右点
を検出して、その画像座標を特徴点座標とする。これら
の処理により走行車両を検出した場合は、車両の先端部
が特徴点の一つとして検出される。以上が動領域分割お
よび特徴点検出処理である。
When the region division processing is completed as described above, feature points are set for each of the N divided regions existing in the moving region. The moving area dividing unit 132 in the moving area detecting means 13 detects the lowest point on the image coordinates in each divided area and sets the image coordinates as feature point coordinates. On the other hand, when the side signal input unit 12 captures an image of the road from the roadside zone, the moving region dividing unit 142 in the side detection unit 14 detects the leftmost point on the image coordinates in each divided region,
When the side signal input unit 12 captures an image of the road from the median strip side, the rightmost point on the image coordinates in each divided area is detected, and the image coordinates are used as feature point coordinates. When a traveling vehicle is detected by these processes, the leading end of the vehicle is detected as one of the characteristic points. The above is the processing of dividing the moving area and detecting the feature points.

【0024】動領域検出手段13および側方検出手段1
4によって検出された情報は、車両検出手段15の座標
変換部151へ送られ、画像座標から実空間座標へと座
標変換が行われる。動領域検出手段13の画像座標を変
換する実空間座標は、路面を平面として設定される2次
元座標系であり、高さ成分は存在しない。動領域検出手
段13における変換式は下記式(1)の形式を取り、画
像入力手段11の撮像条件に基づいて予め座標変換部1
51に設定しておく。 X = fx(x,y) = (Ax・x+Bx・y+Cx)/(Dx・x+Ex・y+Fx) Y = fy(x,y) = (Ay・x+By・y+Cy)/(Dy・x+Ey・y+Fy) ・・・(1) ここでx、yは画像座標、X、Yは実空間座標である。
Moving area detecting means 13 and side detecting means 1
The information detected by 4 is sent to the coordinate conversion unit 151 of the vehicle detection means 15, and the coordinate conversion is performed from the image coordinates to the real space coordinates. The real space coordinates for converting the image coordinates of the moving area detecting means 13 are a two-dimensional coordinate system set with the road surface as a plane, and have no height component. The conversion equation in the moving area detection means 13 takes the form of the following equation (1), and the coordinate conversion section 1 is set in advance based on the imaging conditions of the image input means 11.
51 is set. X = fx (x, y) = (Ax.x + Bx.y + Cx) / (Dx.x + Ex.y + Fx) Y = fy (x, y) = (Ay.x + By.y + Cy) / (Dy.x + Ey.y + Fy) (1) Here, x and y are image coordinates, and X and Y are real space coordinates.

【0025】変換式の係数は、画像入力手段11によっ
て対象領域を撮像し、その路面に複数個の座標計測点を
設定し、その座標計測点の画像上座標および実空間座標
を検出して回帰分析法等を用いて予め決定しておく。し
たがって、画像座標と路面における実空間座標は一対一
に対応する。
The coefficients of the conversion formula are obtained by imaging the target area by the image input means 11, setting a plurality of coordinate measurement points on the road surface, detecting the coordinates of the coordinate measurement points on the image and the real space coordinates, and regressing. It is determined in advance using an analysis method or the like. Therefore, the image coordinates and the real space coordinates on the road surface correspond one to one.

【0026】一方、側方信号入力手段12は、光軸を路
面に平行に設置し、動領域検出手段13同様画像座標か
ら実空間座標へと座標変換が行われる。この実空間座標
は、対象としている車線の中央に存在して路面に垂直な
平面として設定される2次元座標系であり、進行方向に
対する横方向成分は存在しない。側方検出手段14にお
ける変換式は下記式(2)の形式を取り、側方信号入力
手段12の設置条件に基づいて予め座標変換部151に
設定しておく。 Y = gx(x,y) = (Gx・x+Hx・y+Kx)/(Lx・x+Mx・y+Nx) Z = gy(x,y) = (Gy・x+Hy・y+Ky)/(Ly・x+My・y+Ny) ・・・(2) ここでx、yは画像座標、Y、Zは実空間座標である。
変換式の係数の設定方法は、動領域検出手段13のとき
と同様に行う。
On the other hand, the side signal input means 12 has its optical axis set parallel to the road surface, and performs coordinate conversion from image coordinates to real space coordinates as in the moving area detection means 13. The real space coordinates are a two-dimensional coordinate system that exists in the center of the target lane and is set as a plane perpendicular to the road surface, and has no lateral component with respect to the traveling direction. The conversion formula in the side detection means 14 takes the form of the following equation (2), and is set in the coordinate conversion unit 151 in advance based on the installation conditions of the side signal input means 12. Y = gx (x, y) = (Gx.x + Hx.y + Kx) / (Lx.x + Mx.y + Nx) Z = gy (x, y) = (Gy.x + Hy.y + Ky) / (Ly.x + My.y + Ny) (2) Here, x and y are image coordinates, and Y and Z are real space coordinates.
The method of setting the coefficients of the conversion equation is the same as that of the moving area detecting means 13.

【0027】こうして、座標変換部151において路面
および路面に垂直な平面の2つの実空間座標に変換され
た動領域検出手段13および側方検出手段14によって
検出された情報は、車両位置検出部152によって統合
処理がなされ、車両位置が検出される。統合処理は上述
の特徴点座標を用いて行い、2つの実空間座標において
共通する進行方向成分(Y成分)の最も近い2特徴点を
同一特徴点と認識し、更にこの特徴点の高さ成分(Z成
分)情報により、予め設定しておいた高さ判定閾値Hth
以上の高さを有する特徴点を、車両部分の特徴点として
認識する。この処理を全特徴点に対して行い、検出され
た特徴点の中から車両に相当する部分のみを検出し、こ
れをグループ化して車両とする。ここで前述の通り、本
実施の形態では、車両の車高を計測する際、車高の異な
る普通車両と大型車両それぞれに対応するために、側方
信号入力手段12を路側帯側および中央分離帯側にそれ
ぞれ2台ずつ縦方向に並べて設置している。したがっ
て、同じ側に縦に並んでいる2台の側方信号入力手段1
2の情報は、実空間座標上において一つの情報に統合さ
れる。車両位置検出部152はこの統合処理も行う。
The information detected by the moving area detecting means 13 and the side detecting means 14, which are converted into the two real space coordinates of the road surface and the plane perpendicular to the road surface by the coordinate converting section 151, are transmitted to the vehicle position detecting section 152. Performs an integration process, and the vehicle position is detected. The integration process is performed using the above-mentioned feature point coordinates, and two closest feature points of the traveling direction component (Y component) common to the two real space coordinates are recognized as the same feature point, and the height component of this feature point is further recognized. A height determination threshold value Hth preset according to (Z component) information
The feature point having the above height is recognized as the feature point of the vehicle portion. This process is performed on all the feature points, and only the portion corresponding to the vehicle is detected from the detected feature points, and these are grouped into a vehicle. As described above, in the present embodiment, when measuring the vehicle height, the side signal input means 12 is connected to the road side belt side and the center separation in order to correspond to a normal vehicle and a large vehicle having different vehicle heights. Two units are installed vertically on the band side. Therefore, the two side signal input means 1 vertically arranged on the same side
The two pieces of information are integrated into one piece of information on the real space coordinates. The vehicle position detector 152 also performs this integration processing.

【0028】ここで、対象とする道路が複数の車線を有
する場合、側方信号入力手段12に近い車線を走行する
車両に隠蔽された車両信号を入力することができない場
合が存在する。このときも、高所から撮像している画像
入力手段11においては、その隠蔽車両を撮像すること
はできている。したがって車両位置検出部152は、上
記統合処理において側方検出手段14からの情報が不足
している場合は、動領域検出手段13からの情報のみに
よって車両を検出することもある。この側方信号入力手
段12における車両隠蔽の発生の有無は、動領域検出手
段13からの情報によって車両位置検出部152が判断
する。その際には、それ以前において動領域検出手段1
3と側方検出手段14との情報統合処理によって車両と
して検出されなかった領域に関する情報(影や路面反射
の発生の有無およびその長さ)を活用する。
Here, when the target road has a plurality of lanes, there is a case where it is impossible to input a vehicle signal hidden by a vehicle running in a lane close to the side signal input means 12. At this time, the concealed vehicle can be imaged by the image input means 11 which images from a high place. Therefore, when the information from the side detection unit 14 is insufficient in the integration processing, the vehicle position detection unit 152 may detect the vehicle based only on the information from the moving area detection unit 13. The presence or absence of vehicle concealment in the side signal input unit 12 is determined by the vehicle position detection unit 152 based on information from the moving area detection unit 13. In that case, before that, the moving area detecting means 1
The information on the area not detected as a vehicle by the information integration process between the side 3 and the side detection means 14 (whether or not a shadow or road surface reflection has occurred and its length) is used.

【0029】車両位置検出部152によって車両の実空
間上における位置情報が検出されると、その情報をもと
に速度加速度検出部153は、車両の速度および加速度
を検出し、車両諸元検出部154は、車両の車幅、車長
および車高を検出する。ここで車両の速度算出の際に
は、2画像間において車両移動距離を計測し速度を算出
したのでは十分な精度は得られないので、Nフレームに
渡ってN個のデータをサンプルして各々の車両位置を検
出し、これらの結果から回帰分析を用いて速度を算出す
る方法によって速度計測精度の向上を図る。また車両諸
元値計測においても、Nフレームに渡って計測した結果
をもとにヒストグラムを作成し、その最大度数となった
計測値を検出して、計測結果とする。
When the position information of the vehicle in the real space is detected by the vehicle position detector 152, the speed / acceleration detector 153 detects the speed and acceleration of the vehicle based on the information, and the vehicle specification detector 154 detects the width, length and height of the vehicle. Here, when calculating the speed of the vehicle, sufficient accuracy cannot be obtained by measuring the moving distance of the vehicle between the two images and calculating the speed, so that N data are sampled over N frames and each is sampled. The speed measurement accuracy is improved by a method of detecting the vehicle position of the vehicle and calculating the speed from these results using regression analysis. Also in the vehicle specification value measurement, a histogram is created based on the results measured over N frames, and the measurement value having the maximum frequency is detected to be the measurement result.

【0030】以上のように、本実施の形態によれば、従
来の画像処理車両検出装置で課題とされた車体の影やヘ
ッドライト路面反射光の影響を除去し、車両を正確に検
出することができる。また、テレビカメラに近く位置す
る車両によって隠蔽された遠方車両についても、複数の
検出情報を統合することによって車両検出することがで
きる。
As described above, according to the present embodiment, it is possible to accurately detect a vehicle by eliminating the influence of the shadow of the vehicle body and the reflected light of the headlight road surface, which are problems in the conventional image processing vehicle detection device. Can be. Also, a distant vehicle concealed by a vehicle located near the television camera can be detected by integrating a plurality of pieces of detection information.

【0031】[0031]

【発明の効果】以上のように、本発明は、高所撮像画像
および側方信号から車両情報をそれぞれ検出し、その情
報を統合することによって車両を正確に検出することが
可能であり、優れた車両検出装置を実現することができ
るという効果を有する。また、この車両検出情報をもと
に車両の速度、加速度という走行情報や、車幅、車長お
よび車高といった車両諸元情報をも正確に検出すること
が可能であり、車両挙動認識や車両種別分類をも実現す
る高度な車両検出装置を実現することができるという効
果を有する。
As described above, according to the present invention, it is possible to accurately detect a vehicle by detecting vehicle information from a high place image and a side signal and integrating the information. There is an effect that the vehicle detection device can be realized. Further, based on the vehicle detection information, it is possible to accurately detect traveling information such as vehicle speed and acceleration, and vehicle specification information such as vehicle width, vehicle length and vehicle height. There is an effect that an advanced vehicle detection device that also realizes classification can be realized.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の形態における車両検出装置の基
本構成を示すブロック図
FIG. 1 is a block diagram showing a basic configuration of a vehicle detection device according to an embodiment of the present invention.

【図2】本発明の実施の形態における画像入力手段およ
び側方信号入力手段の設置例を示す模式図
FIG. 2 is a schematic diagram showing an example of installation of image input means and side signal input means in the embodiment of the present invention.

【符号の説明】[Explanation of symbols]

11 画像入力手段 12 側方信号入力手段 13 動領域検出手段 14 側方検出手段 15 車両検出手段 21 画像入力手段 22 側方信号入力手段 131 動領域検出部 132 動領域分割部 141 動領域検出部 142 動領域分割部 151 座標変換部 152 車両位置検出部 153 速度加速度検出部 154 車両諸元検出部 DESCRIPTION OF SYMBOLS 11 Image input means 12 Side signal input means 13 Moving area detecting means 14 Side detecting means 15 Vehicle detecting means 21 Image input means 22 Side signal input means 131 Moving area detecting section 132 Moving area dividing section 141 Moving area detecting section 142 Moving area division unit 151 Coordinate conversion unit 152 Vehicle position detection unit 153 Speed acceleration detection unit 154 Vehicle specification detection unit

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 2F065 AA00 AA03 AA23 AA24 BB05 BB15 CC11 DD12 FF04 JJ03 JJ05 JJ08 JJ09 JJ19 QQ00 QQ01 QQ03 QQ13 QQ17 QQ24 QQ25 QQ27 QQ28 QQ31 QQ32 QQ33 QQ34 QQ43 2F112 AD10 BA01 BA20 CA05 FA03 FA07 FA21 FA31 FA32 FA33 FA41 5B057 AA06 BA02 DA02 DA07 DA20 DC30 5H180 AA01 CC04 DD02 DD03  ──────────────────────────────────────────────────続 き Continuing on the front page F term (reference) 2F065 AA00 AA03 AA23 AA24 BB05 BB15 CC11 DD12 FF04 JJ03 JJ05 JJ08 JJ09 JJ19 QQ00 QQ01 QQ03 QQ13 QQ17 QQ24 QQ25 QQ27 QQ28 QQ31 QQ32 QQ33 FAQFA FA03 FAQ30 FA32 FA33 FA41 5B057 AA06 BA02 DA02 DA07 DA20 DC30 5H180 AA01 CC04 DD02 DD03

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 車両の走行する道路を真上もしくは斜め
上高所から撮像し、画像を入力する画像入力手段と、車
両の走行する道路の路側帯もしくは中央分離帯部または
その両方の側方に設置され、車両存在信号を入力する側
方信号入力手段と、画像入力手段によって入力された画
像から動き領域を車両候補領域として検出する動領域検
出手段と、側方信号入力手段によって入力された車両存
在信号から車両存在情報を検出する側方検出手段と、こ
れらの車両候補領域情報および車両存在情報を統合して
走行車両領域を決定し検出する車両検出手段とを備えた
ことを特徴とする車両検出装置。
1. An image input means for taking an image of a road on which a vehicle travels from directly above or at an obliquely high position and inputting an image, and a road side zone or a center separation zone of the road on which the vehicle travels or both sides thereof Installed in the vehicle, a side signal input unit for inputting a vehicle presence signal, a moving region detecting unit for detecting a moving region from the image input by the image input unit as a vehicle candidate region, and a side signal input unit. Side detection means for detecting vehicle presence information from a vehicle presence signal; and vehicle detection means for determining and detecting a traveling vehicle area by integrating the vehicle candidate area information and the vehicle presence information. Vehicle detection device.
【請求項2】 画像入力手段および側方信号入力手段
が、それぞれ1以上の可視光撮像カメラである請求項1
記載の車両検出装置。
2. The image input means and the side signal input means are each one or more visible light imaging cameras.
The vehicle detection device according to any one of the preceding claims.
【請求項3】 動領域検出手段および側方検出手段が、
それぞれ画像入力手段および側方信号入力手段からの画
像信号を基にフレーム差分処理によって動領域を検出す
ることを特徴とする請求項2記載の車両検出装置。
3. The moving area detecting means and the side detecting means,
3. The vehicle detection device according to claim 2, wherein a moving area is detected by frame difference processing based on image signals from the image input means and the side signal input means.
【請求項4】 動領域検出手段および側方検出手段が、
それぞれ検出した動領域を分割して特徴点を検出するこ
とを特徴とする請求項3記載の車両検出装置。
4. The moving area detecting means and the side detecting means,
4. The vehicle detection device according to claim 3, wherein each detected moving region is divided to detect a feature point.
【請求項5】 車両検出手段が、検出された特徴点に基
づいて検出車両の走行速度および加速度を検出すること
を特徴とする請求項4記載の車両検出装置。
5. The vehicle detecting device according to claim 4, wherein the vehicle detecting means detects a traveling speed and an acceleration of the detected vehicle based on the detected characteristic points.
【請求項6】 車両検出手段が、検出された特徴点に基
づいて検出車両の車幅、車長および車高を車両諸元情報
として検出することを特徴とする請求項4記載の車両検
出装置。
6. The vehicle detecting device according to claim 4, wherein the vehicle detecting means detects the vehicle width, the vehicle length, and the vehicle height of the detected vehicle as vehicle specification information based on the detected characteristic points. .
JP10216758A 1998-07-31 1998-07-31 Vehicle detector Pending JP2000048298A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10216758A JP2000048298A (en) 1998-07-31 1998-07-31 Vehicle detector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10216758A JP2000048298A (en) 1998-07-31 1998-07-31 Vehicle detector

Publications (1)

Publication Number Publication Date
JP2000048298A true JP2000048298A (en) 2000-02-18

Family

ID=16693459

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10216758A Pending JP2000048298A (en) 1998-07-31 1998-07-31 Vehicle detector

Country Status (1)

Country Link
JP (1) JP2000048298A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2916888A1 (en) * 2007-05-29 2008-12-05 Valeo Vision Sa Vehicle driving assisting device for use in automobile filed, has analyzing unit associated to correction unit that corrects real position of potential target by comparing primary information and information provided by locating unit
JP2009169716A (en) * 2008-01-17 2009-07-30 Meidensha Corp Degree of risk inspection device for container vehicle
KR100979726B1 (en) 2008-08-29 2010-09-02 (주)제이티 Method of image vehicle detection using feature of moving object
WO2014132490A1 (en) * 2013-02-26 2014-09-04 三菱重工業株式会社 Vehicle specifications measurement processing device, vehicle specifications measuring method, and recording medium
WO2020171355A1 (en) * 2019-02-18 2020-08-27 주식회사 솔로에너지 Electric energy generating system capable of performing hybrid power generation through superheated steam pyrolyzed using induced current

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2916888A1 (en) * 2007-05-29 2008-12-05 Valeo Vision Sa Vehicle driving assisting device for use in automobile filed, has analyzing unit associated to correction unit that corrects real position of potential target by comparing primary information and information provided by locating unit
JP2009169716A (en) * 2008-01-17 2009-07-30 Meidensha Corp Degree of risk inspection device for container vehicle
KR100979726B1 (en) 2008-08-29 2010-09-02 (주)제이티 Method of image vehicle detection using feature of moving object
WO2014132490A1 (en) * 2013-02-26 2014-09-04 三菱重工業株式会社 Vehicle specifications measurement processing device, vehicle specifications measuring method, and recording medium
JP2014164601A (en) * 2013-02-26 2014-09-08 Mitsubishi Heavy Ind Ltd Vehicle specification measurement processing apparatus, vehicle specification measurement method, and program
WO2020171355A1 (en) * 2019-02-18 2020-08-27 주식회사 솔로에너지 Electric energy generating system capable of performing hybrid power generation through superheated steam pyrolyzed using induced current

Similar Documents

Publication Publication Date Title
KR100377067B1 (en) Method and apparatus for detecting object movement within an image sequence
US7899211B2 (en) Object detecting system and object detecting method
EP2282295B1 (en) Object recognizing device and object recognizing method
US7583816B2 (en) Device for detecting a road traveling lane using an edge histogram
WO2019026785A1 (en) Attached object detection device, and vehicle system provided with same
US20070084655A1 (en) Device for detecting a road traveling lane
KR20030080285A (en) Apparatus and method for queue length of vehicle to measure
JP2002074368A (en) Moving object recognizing and tracking device
CN107516423B (en) Video-based vehicle driving direction detection method
JP2012160165A (en) Baseline band video monitoring system and method
JP3912869B2 (en) Traffic flow measuring device
JP2004086417A (en) Method and device for detecting pedestrian on zebra crossing
JP3853574B2 (en) Moving object detection system
JP2000048298A (en) Vehicle detector
JP2841640B2 (en) Traffic flow measurement device
JPH0997335A (en) Vehicle recognition device and traffic flow measuring instrument
JP2946620B2 (en) Automatic number reading device with speed measurement function
JP4334744B2 (en) Traffic flow measuring device
JPH11219493A (en) Method for processing traffic information
JP2998166B2 (en) Automatic car number reading device with speed measurement function
JP2001006089A (en) Vehicle detector using color information
CN111914610B (en) Three-dimensional object detection device and three-dimensional object detection method
JPH03286398A (en) Image processing type traffic flow measuring instrument
KR100284596B1 (en) How to measure waiting length at intersection
KR960016355B1 (en) Method and apparatus for detecting traffic information

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070404

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070410

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070807