JP6362945B2 - In-vehicle image processing device - Google Patents
In-vehicle image processing device Download PDFInfo
- Publication number
- JP6362945B2 JP6362945B2 JP2014148860A JP2014148860A JP6362945B2 JP 6362945 B2 JP6362945 B2 JP 6362945B2 JP 2014148860 A JP2014148860 A JP 2014148860A JP 2014148860 A JP2014148860 A JP 2014148860A JP 6362945 B2 JP6362945 B2 JP 6362945B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- vehicle
- detected
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Studio Devices (AREA)
Description
本発明は、例えば路面に描かれた白線等の対象物を画像処理により検出する車載画像処理装置に関するものである。 The present invention relates to an in-vehicle image processing apparatus that detects an object such as a white line drawn on a road surface by image processing.
近年、車両に搭載されたカメラで車両の周辺を撮像し、撮像画像の画像処理により路面に引かれた白線を検出して、検出された白線(または、検出された白線から構成される駐車枠、白線を含む路面標示)と車両との位置関係から、警報や制御を行う装置が研究開発されている。 In recent years, a camera mounted on a vehicle captures the periphery of the vehicle, detects a white line drawn on the road surface by image processing of the captured image, and detects the detected white line (or a parking frame composed of the detected white line Devices that perform alarms and control are being researched and developed based on the positional relationship between vehicles and road markings including white lines).
車室外にカメラを搭載するシステムでは、カメラが風雨に晒された状態で使用されるため、カメラのレンズに水滴や汚れ等の異物が付着する可能性が高い。異物がレンズに付着すると、画像に移り込んでしまい、本来ならば検知できるタイミングで白線を検知できず、警報や制御が遅れる恐れがある。そして、従来からレンズが汚れたことを検知して報知する技術が提案されている(例えば特許文献1)。 In a system in which a camera is mounted outside the passenger compartment, the camera is used in a state where it is exposed to wind and rain. If foreign matter adheres to the lens, it moves to the image, and the white line cannot be detected at a timing that would otherwise be detected, possibly leading to delays in alarms and control. Conventionally, a technique for detecting and notifying that a lens is dirty has been proposed (for example, Patent Document 1).
特許文献1に記載された車載カメラ用異物付着判定装置は、ある時刻で装置が検知した白線の位置と車両情報を用いて計算した次の時刻での白線の位置と、実際に次の時刻で検知した白線の位置を比較して、その比較結果からレンズへの異物の付着を判定していた。
The in-vehicle camera foreign matter adhesion determination device described in
しかしながら、特許文献1に開示された発明は異なる時刻で撮像して得た白線情報を用いるため、処理周期と車両運動によっては適切なタイミングで警報と制御を行えない課題がある。そして、上記した課題は、白線の検知のみに限られず、歩行者や自動車などの対象物の検知に対しても同様に存在するものである。
However, since the invention disclosed in
本発明は、上記課題に鑑みてなされたものであり、その目的とするところは、撮像部への異物の付着を迅速に判定することができる車載画像処理装置を提供することである。 The present invention has been made in view of the above problems, and an object of the present invention is to provide an in-vehicle image processing apparatus that can quickly determine the adhesion of a foreign substance to an imaging unit.
上記課題を解決する本発明の車載画像処理装置は、撮像部で撮像した画像を画像処理することにより対象物を検出する車載画像処理装置であって、所定のタイミングで撮像された今回画像から対象物を検出する対象物検出部と、該対象物が前記今回画像よりも前のタイミングで撮像された前回画像では検出されておらず、前記今回画像で初めて検出された新規対象物であるか否かを判定する新規対象物判定部と、前記前回画像の撮像時における前記新規対象物の位置を推定し、該推定位置が前記前回画像内に位置している場合に、前記撮像部の光学系に付着物が付着していると判定する付着物判定部と、を有することを特徴としている。 An in-vehicle image processing apparatus of the present invention that solves the above-described problem is an in-vehicle image processing apparatus that detects an object by performing image processing on an image captured by an imaging unit, and is based on a current image captured at a predetermined timing. An object detection unit for detecting an object, and whether or not the object is a new object detected for the first time in the current image but not detected in the previous image captured at a timing before the current image A new object determination unit for determining whether or not the position of the new object at the time of capturing the previous image is estimated, and when the estimated position is located in the previous image, the optical system of the image capturing unit And an adhering matter determination unit that determines that adhering matter is attached to the surface.
本発明によれば、撮像部の光学系に付着物が付着しているか否かを迅速に判定することができる。なお、上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。 ADVANTAGE OF THE INVENTION According to this invention, it can be determined rapidly whether the deposit | attachment has adhered to the optical system of the imaging part. Problems, configurations, and effects other than those described above will be clarified by the following description of the embodiments.
<第1実施形態>
次に、本発明の第1実施形態について以下に図面を用いて説明する。
車載画像処理装置は、車両に搭載されており、撮像部により車両から外部を撮像した画像を画像処理することにより対象物を検出するものであり、より詳しくは、撮像装置で異なる時間で撮像した複数の画像から撮像装置のレンズへの付着物を検出するものである。検出結果は、例えば車両の走行制御や運転者への警報等に用いられる。車載画像処理装置は、撮像部の光学系に付着物があるかどうかを判定して、その判定結果をもとに警報あるいは制御を行う。
<First Embodiment>
Next, a first embodiment of the present invention will be described below with reference to the drawings.
The in-vehicle image processing apparatus is mounted on a vehicle and detects an object by performing image processing on an image captured from the vehicle by an imaging unit. More specifically, the in-vehicle image processing apparatus captures images at different times with the imaging apparatus. It detects an adhering matter to the lens of the imaging device from a plurality of images. The detection result is used, for example, for vehicle travel control or warning to the driver. The in-vehicle image processing apparatus determines whether there is an adhering substance in the optical system of the imaging unit, and performs an alarm or control based on the determination result.
図1は、本実施形態における車載画像処理装置の全体構成を説明するシステム図である。
車載画像処理装置は、図1に示すように、撮像部101と、センサ部102と、演算部103と、警報部104と、制御部105と、記憶部106を備えている。
FIG. 1 is a system diagram illustrating the overall configuration of the in-vehicle image processing apparatus according to the present embodiment.
As shown in FIG. 1, the in-vehicle image processing apparatus includes an
撮像部101は、光学系(レンズ)や撮像素子などを有するカメラであり、不図示の光学系が光軸方向の光を集め、撮像素子が光の強度に合わせてデジタル信号に変換することにより、画像を出力する。撮像部101は、例えば車両後部に取り付けられて、車両の後方下部を撮像するバックカメラとして用いられる。センサ部102は、車両の変位を検出するためのセンサとして、車速センサや操舵角センサ、ジャイロなどを有しており、操舵角や、速度及び角速度を計測する。
The
演算部103は、CPU(central processing unit、中央演算処理装置)及びメモリなどのハードウエアと、ハードウエアにより実行されるソフトウエアプログラムとから構成される。演算部103は、その内部機能として、画像取得部111、センサ出力取得部115、対象物検出部113、対象物トラッキング部114、新規対象物判定部117、遮蔽領域判定部118、付着物判定部119、警報判定部120、制御判定部121と、を備えている。
The
画像取得部111は、撮像部101から画像を取得する。センサ出力取得部115は、センサ部102から出力される車両の操舵角や速度及び角速度の車両情報を取得する。対象物検出部113は、撮像部101で撮像された画像に対してエッジ抽出や二値化などの画像処理を行い、対象物を検出して、その画像上の位置を算出する。例えば図3に示すように、車両301を駐車枠302に入れることを想定して、対象物として駐車枠302の左右の白線303、304を検出する。対象物検出部113は、撮像部101で所定の時間間隔で撮像された各画像に対してそれぞれ対象物を検出する処理を行う。
The
対象物トラッキング部114は、センサ出力取得部115からの車両情報をもとに、車両の方位及び位置の変位を算出する。これにより、対象物に対する車両の相対的な変位を算出することができる。そして、所定のタイミングで撮像された今回画像から検出した対象物が、今回画像よりも前のタイミングで撮像された前回画像でも検出されているか否かを変位に基づいて判定する。具体的には、今回画像における対象物の位置、車両の変位、撮像部101のカメラパラメータに基づいて、前回画像の撮像時における対象物の位置を推定し、推定位置として算出する。ここで、カメラパラメータは、焦点距離、画素ピッチ、レンズ歪、車両におけるカメラの取付位置及び姿勢である。
The
そして、前回画像における対象物の推定位置と前回画像における対象物の実測位置との差が所定の閾値以内である場合に、前回画像における対象物が今回画像における対象物に対応しており、今回画像における対象物が前回画像でも検出されていたと判定する。そして、今回画像における対象物を前回画像でも検出されている検出済対象物であると判定する。 If the difference between the estimated position of the target object in the previous image and the actual measured position of the target object in the previous image is within a predetermined threshold, the target object in the previous image corresponds to the target object in the current image, It is determined that the object in the image was also detected in the previous image. And it determines with the target object in this image being the detected target object also detected in the last image.
新規対象物判定部117は、対象物トラッキング部114により前回画像において今回画像の白線に対応するものがないと判定された場合、すなわち、今回画像で検出された対象物が前回画像では検出されていないと判定された場合に、対象物が新規対象物であると判定する。
When the
遮蔽領域判定部118は、新規対象物判定部117により今回画像に新規対象物があると判定された場合、新規対象物の今回画像における位置、車両の変位、撮像部101のカメラパラメータをもとに、前回画像の撮像時における新規対象物の位置を推定し、その推定位置が前回画像内に位置しているか否かを判定する。そして、推定位置が前回画像内に位置している場合、前回画像における新規対象物を少なくとも覆う領域を遮蔽領域として設定する。この遮蔽領域は、記憶部106の遮蔽領域記憶部131に記憶される。付着物判定部119は、遮蔽領域判定部118により遮蔽領域が設定されている場合に、撮像部101の光学系に付着物が付着していると判定する。
When the new
また、遮蔽領域判定部118は、対象物トラッキング部114により今回画像から検出された対象物が前回画像でも検出されている検出済対象物であると判定された場合に、前回画像内における検出済対象物の検出位置が遮蔽領域内に位置しているか否かを判定する。そして、遮蔽領域内に位置していると判定したときは、撮像部の光学系から付着物が消失したと判定して、遮蔽領域の設定を解除する。
In addition, when the
警報判定部120は、付着物判定部119により、撮像部101の光学系に付着物が付着していると判定された場合に、警報部104に対して、画像処理の結果に基づく警報機能を停止させる。一方、付着物判定部119により、撮像部101の光学系に付着物が付着していないと判定された場合に、対象物検出部113により検出した対象物の位置に基づいて、警報を出すかどうかを判定する警報判定処理を行う。警報部104は、警報判定部120で警報を停止すると判定された場合、「警報を停止する」という文字あるいは音声を、車内のディスプレイやスピーカから出力させる。そして、警報判定部120で警報を出すと判定された場合、運転手に注意を喚起するための文字あるいは音声を、車内のディスプレイやスピーカから出力させる。
The
制御判定部121は、付着物判定部119により、撮像部101の光学系に付着物が付着していると判定された場合に、制御部105に対して、画像処理の結果に基づく制御機能を停止すると判定する。一方、付着物判定部119により、撮像部101の光学系に付着物が付着していないと判定された場合に、対象物検出部113により検出した対象物の位置に基づいて、制御量を算出する処理を行う。制御部105は、制御判定部121で制御を停止すると判定された場合、制御を中止する。そして、制御すると判定された場合、制御量に基づいて車両制御を行う。
When the adhering
次に、上記構成を有する車載用画像認識装置の動作手順について図2を用いて説明する。
まず、撮像部101により画像が出力され(S201)、センサ部102により車両の操舵角や速度及び角速度が計測される(S202)。そして、撮像部101から出力された画像が画像取得部111で取得される(S203)、センサ部102で計測された速度及び角速度がセンサ出力取得部115で取得される(S204)。
Next, the operation procedure of the in-vehicle image recognition apparatus having the above configuration will be described with reference to FIG.
First, an image is output by the imaging unit 101 (S201), and the steering angle, speed, and angular velocity of the vehicle are measured by the sensor unit 102 (S202). Then, the image output from the
次に、対象物検出部113により、今回画像から対象物を検出する処理が行われる(S205)。例えば白線を対象物として検出する場合には、画像取得部111で取得した画像でエッジ抽出を行い、立ち上がりエッジ及び立下りエッジで囲まれた領域を抽出する。また、画像で二値化処理を行い、輝度が閾値以上である領域を抽出する。そして、上記の2つの領域が重なる領域を白線として抽出する。抽出された画像上の白線の領域は、対象物トラッキング部114に送られる。
Next, the
そして、対象物トラッキング部114により、対象物のトラッキングが行われる(ステップS206)。対象物トラッキング部114は、対象物検出部113から今回画像における対象物の領域の情報を受け取る。そして、センサ出力取得部115から車両の操舵角や速度及び角速度等の車両情報を受け取り、これらの車両情報をもとに、前回画像の撮像時から今回画像の撮像時までの間における車両の方位変位及び位置変位を算出する。
Then, the
そして、今回画像の撮像時における対象物の位置と、今回画像の撮像時から前回画像の撮像時までの間における車両の方位変位及び位置変位と、撮像部のカメラパラメータをもとに、今回画像の撮像時から前回画像の撮像時までの間における対象物の位置の変位を算出するとともに、前回画像の撮像時における対象物の位置を推定する。
そして、前回画像の撮像時における対象物の推定位置と、前回画像の撮像時における対象物の実際の検出位置である実測値との差が所定の閾値以内であるか否かを判定する。そして、所定の閾値以内である場合に、前回画像の対象物は今回画像の対象物に対応していると判定し、閾値よりも大きい場合に、前回画像の対象物は今回画像の対象物に対応していないと判定する。
Then, based on the position of the object at the time of capturing the current image, the azimuth and position displacement of the vehicle between the time of capturing the current image and the time of capturing the previous image, and the camera parameters of the imaging unit, The displacement of the position of the target object between the time of imaging and the time of capturing the previous image is calculated, and the position of the target object at the time of capturing the previous image is estimated.
Then, it is determined whether or not the difference between the estimated position of the object at the time of capturing the previous image and the actual measurement value that is the actual detection position of the object at the time of capturing the previous image is within a predetermined threshold. If it is within a predetermined threshold value, it is determined that the object of the previous image corresponds to the object of the current image. If the object is larger than the threshold value, the object of the previous image becomes the object of the current image. It is determined that it is not compatible.
例えば、図4に示すように、前回画像401と今回画像411に写っている白線403、404と白線413、414は対応している、すなわち、前回画像401で撮像されている白線403、404と今回画像411で撮像されている白線413、414は、同じ白線であると判定される。前回画像と今回画像で認識された白線の対応関係は、新規対象物判定部117に送られる。
For example, as shown in FIG. 4, the
そして、新規対象物判定部117により、新規対象物の判定が行われる(ステップS207)。新規対象物判定部117は、前回画像と今回画像の画像処理で認識された対象物の対応関係を対象物トラッキング部114から受け取る。そして、対象物の対応関係の情報をもとに、前回画像には対応する対象物がなく、今回画像の画像処理で新たに認識された対象物を新規対象物であると判定する。
Then, the new
例えば、図5に示すように、今回画像511に写っている白線513は、前回の処理における画像501に写っていないため、新規の白線であると判定される。新規の白線がある場合、遮蔽領域判定部118及び付着物判定部119に対して新規の白線の位置を示す情報を送る。なお、図5の前回画像501では、光学系に付着した水滴506によって白線503がかくれている状態が示されている。
For example, as shown in FIG. 5, the
そして、遮蔽領域判定部118により、遮蔽領域の判定が行われる(ステップS208)。遮蔽領域判定部118は、新規対象物がある場合、新規対象物判定部117から新規対象物の位置を受け取り、そして、対象物トラッキング部114から前回画像と今回画像との間における車両の方位変位及び位置変位を受け取る。そして、それらの情報及びカメラパラメータをもとに、前回画像の撮像時における新規対象物の位置を推定し、推定位置として算出する。
Then, the shielding
前回画像の撮像時における新規対象物の推定位置が前回画像上にある場合、推定位置における新規対象物を少なくとも覆う領域を遮蔽領域515として設定し、その設定した遮蔽領域の位置を示す情報を付着物判定部119と遮蔽領域記憶部131に送る。
When the estimated position of the new object at the time of capturing the previous image is on the previous image, an area covering at least the new object at the estimated position is set as the
例えば、図5に示すように、前回画像の撮像時における白線503(新規対象物)の推定位置を完全に覆う領域が遮蔽領域505として設定される。新規の白線がない場合には、遮蔽領域を設定する処理は実施しない。
For example, as shown in FIG. 5, an area that completely covers the estimated position of the white line 503 (new object) at the time of capturing the previous image is set as the
そして、付着物判定部119により、付着物の判定が行われる(ステップS209)。付着物判定部119は、遮蔽領域判定部118から遮蔽領域の位置の情報を送られた場合、その情報を受け取り、遮蔽領域の位置に対応する光学系の対応位置に付着物が付着していると判定する。遮蔽領域505の情報は、警報判定部120及び制御判定部121に送る。
Then, the adhering
また、付着物の判定では、対象物トラッキング部114から対応関係がある前回画像と今回画像における白線の位置を受け取り、対応関係がある前回画像と今回画像における対象物の位置から所定の距離以内に、過去に判定した遮蔽領域がある場合、その遮蔽領域から付着物が消失したと判定する。例えば、図6に示すように、今回画像611から検出された白線613が、前回画像601でも検出されている検出済の白線603(検出済対象物)である場合には、前回画像601内における検出済の白線603の検出位置が遮蔽領域605内に位置しているか否かを判定し、遮蔽領域605内に位置していると判定したときは、その遮蔽領域605には付着物がなくなったと判定し、今回画像611における遮蔽領域615の設定を解除する。
Further, in the determination of the attached matter, the position of the white line in the previous image and the current image having a correspondence relationship is received from the
警報の判定(ステップS210)では、警報判定部120は、付着物判定部119から付着物の情報を受け取る。例えば、画像上に付着物が付着しているとの情報を受け取った場合には、警報機能を停止すると判定して、警報機能を停止する信号を警報部104に送る。一方、画像上に付着物が付着していないとの情報を受け取った場合には、対象物検出部113からの白線の位置と所定の位置との距離をもとに、警報を出すかどうかを判定して、警報の出力結果を警報部104に送る。
In the alarm determination (step S <b> 210), the
制御の判定(ステップS211)では、制御判定部121は、付着物判定部119から付着物の領域の情報を受け取る。例えば、画像上に付着物が付着しているとの情報を受け取った場合には、制御機能を停止すると判定して、警報機能を停止する信号を制御部105に送る。一方、画像上に付着物が付着していないとの情報を受け取った場合には、対象物検出部113からの白線の位置をもとに、制御部105の制御量を算出して、制御量を制御部105に送る。
In the control determination (step S <b> 211), the
警報部104は、警報判定部120から警報機能を停止する信号を受け取った場合、「警報を停止する」という文字あるいは音声を出力し、警報判定部120から警報を出すという信号を受け取った場合、運転手に注意を喚起するための文字あるいは音声を出力する(ステップS212)。
When the
制御部105は、制御判定部121から制御量を受け取り、制御量をもとに車両制御を行い、制御判定部121から制御を停止するという信号を受け取った場合に、車両制御を中止する(ステップ213)。
The
本実施形態の車載用画像認識装置によれば、今回画像から検出した対象物が前回画像では検出されていない新規対象物である場合に、前回画像の撮像時における新規対象物の位置を推定し、その推定した新規対象物の推定位置が前回画像内に位置しているときは、撮像部の光学系に付着物が付着していると判定するので、撮像部の光学系に水滴や空気中の浮遊物などの付着物が付着した時点で、付着ありと判定することができる。したがって、付着物の付着を即座に判定でき、警報及び制御の誤動作及び未動作を防ぐことができる。 According to the in-vehicle image recognition apparatus of the present embodiment, when the object detected from the current image is a new object that has not been detected in the previous image, the position of the new object at the time of capturing the previous image is estimated. When the estimated position of the estimated new object is located in the previous image, it is determined that the deposit is attached to the optical system of the imaging unit. It is possible to determine that there is an attachment at the time when an attached matter such as a suspended matter is attached. Therefore, it is possible to immediately determine the adhesion of the deposit, and prevent malfunctions and non-operations of the alarm and control.
例えば撮像部101についた付着物が水滴である場合、像が歪み、前回画像における白線の位置の推定位置と実測値との差が大きくなり、対象物トラッキング部114が、前回画像と今回画像との間の白線の位置に対応関係がないと判定することにより、新規の白線と認識して、付着物があると判定できる。
For example, when the attached matter attached to the
本実施形態の車載用画像認識装置によれば、今回画像から検出された対象物が、前回画像でも検出されている検出済対象物である場合に、前回画像内における検出済対象物の検出位置が遮蔽領域内に位置しているか否かを判定し、遮蔽領域内に位置していると判定したときは、遮蔽領域の設定を解除するので、撮像部の光学系から水滴や空気中の浮遊物などの付着物が消失したことを判定できる。これにより、警報及び制御ができない中止状態から即座に動作させることができる。 According to the in-vehicle image recognition device of the present embodiment, when the object detected from the current image is the detected object detected in the previous image, the detection position of the detected object in the previous image. Is determined to be located in the shielding area, and if it is determined to be located in the shielding area, the setting of the shielding area is canceled. It can be determined that the attached matter such as an object has disappeared. Thereby, it can be made to operate immediately from the stop state which cannot perform an alarm and control.
なお、上述の実施例では、撮像部101が単眼カメラである場合を例に説明したが、撮像部101の数は一つに限定されるものではなく、複数であってもよい。例えば、撮像部101を車両に複数設置して、画像取得部111、対象物検出部113、対象物トラッキング部114、新規対象物判定部117、遮蔽領域判定部118が複数の画像についてステップ203〜208を実施することにより、より広い領域の情報をもとに警報及び制御を実施することができる。
In the above-described embodiment, the case where the
<第2実施形態>
次に、本発明の第2実施形態について図7から図13を用いて説明する。
なお、第1実施形態と同様の構成要素については同様の符号を付することでその詳細な説明を省略する。
Second Embodiment
Next, a second embodiment of the present invention will be described with reference to FIGS.
In addition, the same code | symbol is attached | subjected about the component similar to 1st Embodiment, and the detailed description is abbreviate | omitted.
本実施形態において特徴的なことは、画像取得部111により取得した画像の中から、対象物検出部113によって対象物を検出可能な処理領域を選択する処理領域選択部112と、処理領域選択部112によって選択された処理領域内で新規対象物の判定を行う新規対象物判定領域を決定する新規対象物判定領域決定部116を設けたことである。
What is characteristic in the present embodiment is that a processing
撮像部101は、認識する対象物の種類によって異なる露光枠を用いて基準となる光強度を決定する。例えば、路面上の物体を認識対象物とする場合、路面部分に矩形の露光枠を設けて、その露光枠内の光の平均強度(明るさの平均値)を求め、その光の平均強度を基準値としてデジタル信号に変換する。センサ部102は、撮像部101で決定された光強度を露光値として取得し、センサ出力取得部115に出力することができる。
The
実際の制御では、図8のフローチャートに示すように、ステップS204でセンサ出力を取得した後、ステップS224で、対象物の処理領域を選択する処理が行われる。処理領域選択部112は、露光値及び画像内輝度の分布から、対象物を認識可能な処理領域を選択する。より詳しくは、センサ出力取得部115が取得したカメラ情報(露光値及び画像内輝度の分布を含む)と、認識する対象物の種類と、カメラからの距離とに基づいて、対象物検出部113が対象物を検出可能な処理領域を選択する。
In actual control, as shown in the flowchart of FIG. 8, after acquiring the sensor output in step S204, processing for selecting the processing region of the object is performed in step S224. The processing
処理領域選択部112がないと、例えば前回処理において画像の露光値が極端に低く、対象物検出部113が対象物を検出できず、今回処理において画像の露光値が通常の範囲となって対象物を検出できた場合に、新規対象物判定部117によって付着物があると誤って判断されるおそれがある。
Without the processing
これに対して、本実施形態では処理領域選択部112を設けて処理領域の選択を行っているので、例えば露光値等の問題によって前回処理では対象物を検出できなかったが、今回処理で対象物が検出できた場合でも、異物が付着したとの誤判断を防ぐことができる。
On the other hand, in the present embodiment, the processing
図9は、処理領域選択部により処理領域を選択する方法を説明する図である。
例えば、図9(a)に示す前回画像901のように、画像全体が暗い場合、対象物902を検出可能な処理領域はなく、処理領域は一つも選択されていない。そして、図9(b)に示す今回画像911のように、画像全体が明るくなった場合でも、処理領域が一つも選択されていないので、対象物検出部113は、対象物912を新規対象物として検出しない。したがって、新規対象物判定部117の誤判断を防ぐことができる。
FIG. 9 is a diagram for explaining a method of selecting a processing region by the processing region selection unit.
For example, when the entire image is dark as in the
新規対象物判定領域決定部116は、処理領域選択部112によって選択された処理領域と、センサ出力取得部115によって取得された車両情報に基づいて新規対象物判定領域を決定する。
The new object determination
新規対象物判定領域決定部116は、処理領域選択部112が選択した処理領域のうち、所定の領域を新規対象物判定領域として決定し、その決定した新規対象物判定領域内で新規対象物判定部117により新規対象物の判定が行われる。新規対象物判定領域の決定は、自車の移動、自車周囲の人などの動体の移動によって決定される。
The new object determination
実際の制御では、図8のフローチャートに示すように、ステップS205で対象物を検出し、ステップS206で対象物のトラッキングを行い、ステップS226で、新規対象物の判定領域を決定する処理がなされる。 In the actual control, as shown in the flowchart of FIG. 8, the object is detected in step S205, the object is tracked in step S206, and the determination area of the new object is determined in step S226. .
図10は、車両とその周囲環境を表す他の一例を示す模式図、図11は、新規対象物の判定範囲が車両の移動に応じて変更される例を示す図である。 FIG. 10 is a schematic diagram illustrating another example of the vehicle and its surrounding environment, and FIG. 11 is a diagram illustrating an example in which the determination range of the new object is changed according to the movement of the vehicle.
図10に示すように車両301が後退しながら駐車枠302に進入しようとしている場合、T1秒の位置では、図11(a)に示すように、駐車枠302の白線303、304に対して、車両301が斜めに配置されている。そして、車両301の旋回によりその後のT2秒の位置では、図11(b)に示すように、駐車枠302の白線303、304に対して車両301は略平行に配置される。
As shown in FIG. 10, when the
画像1001は、車両301の旋回に応じて画像1011に回転するので、例えば新規対象物判定領域1002の位置が車両301に対して固定されていると、図10(b)に示すように画像1011内に障害物1021が入ってきた場合に、障害物1021を新規対象物として誤って認識するおそれがある。
Since the
これに対して、新規対象物判定領域決定部116は、新規対象物判定領域1012を車両301に対して固定せず、車両301の動きに応じて変化させている。本実施形態では、最初に駐車枠302を認識した時点で新規対象物判定領域1002を決定し、その後の車両301の移動にかかわらず、図11(b)に示すように、新規対象物判定領域1012として路面に対する位置を固定している。したがって、車両301の移動によって、処理領域1011内に侵入してきた障害物1021を、新規対象物であると誤って判定するのを抑制できる。
On the other hand, the new object determination
図12は、車両301が進入する駐車枠302内に人などの動体が存在する状態を示す図、図13は、図12に示す車両のカメラで撮像した画像を模式的に示す図である。
FIG. 12 is a diagram illustrating a state in which a moving body such as a person is present in the
図12に示すように、車両301の進路上に動体1201が存在する場合、図13に示すように、動体1201の位置は、新規対象物判定領域1012から除外される。新規対象物判定部117は、新規対象物判定領域1012から動体1201を除外した領域について新規対象物の判定処理を行う。
As shown in FIG. 12, when the moving
以上、本発明の実施形態について詳述したが、本発明は、前記の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の精神を逸脱しない範囲で、種々の設計変更を行うことができるものである。例えば、前記した実施の形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能であり、また、ある実施形態の構成に他の実施形態の構成を加えることも可能である。さらに、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。 Although the embodiments of the present invention have been described in detail above, the present invention is not limited to the above-described embodiments, and various designs can be made without departing from the spirit of the present invention described in the claims. It can be changed. For example, the above-described embodiment has been described in detail for easy understanding of the present invention, and is not necessarily limited to one having all the configurations described. Further, a part of the configuration of an embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of an embodiment. Furthermore, it is possible to add, delete, and replace other configurations for a part of the configuration of each embodiment.
101 撮像部
102 センサ部
103 演算部
104 警報部
105 制御部
106 記憶部
111 画像取得部
112 処理領域選択部
113 対象物検出部
114 対象物トラッキング部
115 センサ出力取得部
116 新規対象物判定領域決定部
117 新規対象物判定部
118 遮蔽領域判定部
119 付着物判定部
120 警報判定部
121 制御判定部
DESCRIPTION OF
Claims (7)
所定のタイミングで撮像された今回画像から対象物を検出する対象物検出部と、
該対象物が前記今回画像よりも前のタイミングで撮像された前回画像では検出されておらず、前記今回画像で初めて検出された新規対象物であるか否かを判定する新規対象物判定部と、
前記前回画像の撮像時における前記新規対象物の位置を推定し、該推定位置が前記前回画像内に位置している場合に、前記前回画像における前記新規対象物を覆う領域を遮蔽領域として判定する遮蔽領域判定部と、
該遮蔽領域判定部により前記遮蔽領域が設定されている場合に、前記撮像部の光学系に付着物が付着していると判定する付着物判定部と、を有することを特徴とする車載画像処理装置。 An in-vehicle image processing device that detects an object by performing image processing on an image captured by an imaging unit,
An object detection unit for detecting an object from the current image captured at a predetermined timing;
A new object determination unit that determines whether or not the object is a new object that has not been detected in the previous image captured at a timing earlier than the current image and is detected for the first time in the current image; ,
The position of the new object at the time of capturing the previous image is estimated, and when the estimated position is located in the previous image, an area covering the new object in the previous image is determined as a shielding area. A shielding area determination unit;
An in-vehicle image processing comprising: an adhering matter determining unit that determines that an adhering matter is attached to the optical system of the imaging unit when the shielding region is set by the shielding region determining unit. apparatus.
該処理領域選択部によって選択された処理領域内で新規対象物の判定を行う新規対象物判定領域を決定する新規対象物判定領域決定部と、を有することを特徴とする請求項1に記載の車載画像処理装置。 A processing region selection unit that selects a processing region in which an object can be detected by the target object detection unit from an image;
The new object determination region determination unit that determines a new object determination region for determining a new object within the processing region selected by the processing region selection unit. In-vehicle image processing device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014148860A JP6362945B2 (en) | 2014-07-22 | 2014-07-22 | In-vehicle image processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014148860A JP6362945B2 (en) | 2014-07-22 | 2014-07-22 | In-vehicle image processing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016022845A JP2016022845A (en) | 2016-02-08 |
JP6362945B2 true JP6362945B2 (en) | 2018-07-25 |
Family
ID=55270022
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014148860A Active JP6362945B2 (en) | 2014-07-22 | 2014-07-22 | In-vehicle image processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6362945B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6606473B2 (en) * | 2016-07-27 | 2019-11-13 | 京セラ株式会社 | Image processing apparatus, image processing method, imaging apparatus, and moving body |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3675231B2 (en) * | 1999-06-14 | 2005-07-27 | 三菱自動車工業株式会社 | Hydrous substance adhesion detection device |
JP5680436B2 (en) * | 2011-02-15 | 2015-03-04 | アルパイン株式会社 | Foreign matter adhesion determination device for in-vehicle camera lens |
-
2014
- 2014-07-22 JP JP2014148860A patent/JP6362945B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016022845A (en) | 2016-02-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6120395B2 (en) | In-vehicle device | |
US8582809B2 (en) | Method and device for detecting an interfering object in a camera image | |
JP6246014B2 (en) | Exterior recognition system, vehicle, and camera dirt detection method | |
JP4248558B2 (en) | Road marking line detection device | |
US8175331B2 (en) | Vehicle surroundings monitoring apparatus, method, and program | |
JP4733756B2 (en) | Vehicle periphery monitoring device | |
JP5576937B2 (en) | Vehicle periphery monitoring device | |
WO2019026785A1 (en) | Attached object detection device, and vehicle system provided with same | |
JP2008060874A (en) | On-vehicle camera and stain detector for on-vehicle camera | |
JP4528283B2 (en) | Vehicle periphery monitoring device | |
US9001204B2 (en) | Vehicle peripheral monitoring device | |
US9286512B2 (en) | Method for detecting pedestrians based on far infrared ray camera at night | |
WO2013121357A1 (en) | Time to collision using a camera | |
US10791252B2 (en) | Image monitoring device, image monitoring method, and recording medium | |
JP5680436B2 (en) | Foreign matter adhesion determination device for in-vehicle camera lens | |
US8373754B2 (en) | Method and system for evaluating brightness values in sensor images of image-evaluating adaptive cruise control systems | |
EP3073465A1 (en) | Animal detection system for a vehicle | |
JP4864953B2 (en) | Vehicle periphery monitoring device | |
JP2007018451A (en) | Road boundary line detecting device | |
JP6362945B2 (en) | In-vehicle image processing device | |
JP4765113B2 (en) | Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program, and vehicle periphery monitoring method | |
JP6087240B2 (en) | Vehicle periphery monitoring device | |
JP4176558B2 (en) | Vehicle periphery display device | |
JP2014013452A (en) | Image processor | |
JP4975776B2 (en) | Vehicle periphery monitoring device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170426 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180130 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180130 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180308 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180619 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180627 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6362945 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |