JP6362945B2 - 車載画像処理装置 - Google Patents

車載画像処理装置 Download PDF

Info

Publication number
JP6362945B2
JP6362945B2 JP2014148860A JP2014148860A JP6362945B2 JP 6362945 B2 JP6362945 B2 JP 6362945B2 JP 2014148860 A JP2014148860 A JP 2014148860A JP 2014148860 A JP2014148860 A JP 2014148860A JP 6362945 B2 JP6362945 B2 JP 6362945B2
Authority
JP
Japan
Prior art keywords
image
unit
vehicle
detected
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014148860A
Other languages
English (en)
Other versions
JP2016022845A (ja
Inventor
玲 宇田川
玲 宇田川
健人 緒方
健人 緒方
將裕 清原
將裕 清原
健 志磨
健 志磨
彰二 村松
彰二 村松
聡史 鈴木
聡史 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2014148860A priority Critical patent/JP6362945B2/ja
Publication of JP2016022845A publication Critical patent/JP2016022845A/ja
Application granted granted Critical
Publication of JP6362945B2 publication Critical patent/JP6362945B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Description

本発明は、例えば路面に描かれた白線等の対象物を画像処理により検出する車載画像処理装置に関するものである。
近年、車両に搭載されたカメラで車両の周辺を撮像し、撮像画像の画像処理により路面に引かれた白線を検出して、検出された白線(または、検出された白線から構成される駐車枠、白線を含む路面標示)と車両との位置関係から、警報や制御を行う装置が研究開発されている。
車室外にカメラを搭載するシステムでは、カメラが風雨に晒された状態で使用されるため、カメラのレンズに水滴や汚れ等の異物が付着する可能性が高い。異物がレンズに付着すると、画像に移り込んでしまい、本来ならば検知できるタイミングで白線を検知できず、警報や制御が遅れる恐れがある。そして、従来からレンズが汚れたことを検知して報知する技術が提案されている(例えば特許文献1)。
特開2012−166705号公報
特許文献1に記載された車載カメラ用異物付着判定装置は、ある時刻で装置が検知した白線の位置と車両情報を用いて計算した次の時刻での白線の位置と、実際に次の時刻で検知した白線の位置を比較して、その比較結果からレンズへの異物の付着を判定していた。
しかしながら、特許文献1に開示された発明は異なる時刻で撮像して得た白線情報を用いるため、処理周期と車両運動によっては適切なタイミングで警報と制御を行えない課題がある。そして、上記した課題は、白線の検知のみに限られず、歩行者や自動車などの対象物の検知に対しても同様に存在するものである。
本発明は、上記課題に鑑みてなされたものであり、その目的とするところは、撮像部への異物の付着を迅速に判定することができる車載画像処理装置を提供することである。
上記課題を解決する本発明の車載画像処理装置は、撮像部で撮像した画像を画像処理することにより対象物を検出する車載画像処理装置であって、所定のタイミングで撮像された今回画像から対象物を検出する対象物検出部と、該対象物が前記今回画像よりも前のタイミングで撮像された前回画像では検出されておらず、前記今回画像で初めて検出された新規対象物であるか否かを判定する新規対象物判定部と、前記前回画像の撮像時における前記新規対象物の位置を推定し、該推定位置が前記前回画像内に位置している場合に、前記撮像部の光学系に付着物が付着していると判定する付着物判定部と、を有することを特徴としている。
本発明によれば、撮像部の光学系に付着物が付着しているか否かを迅速に判定することができる。なお、上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
第1実施形態における車載画像処理装置の全体構成を説明するシステム図。 第1実施形態における車載画像処理の内容を説明するフローチャート。 車両とその周囲環境を表す一例を示す模式図。 レンズに異物が付着していない場合の画像を示す模式図。 レンズに異物が付着している場合の画像を示す模式図。 レンズに付着していた異物が消失した場合の画像を示す模式図。 第2実施形態における車載画像処理装置の全体構成を説明するシステム図。 第2実施形態における車載画像処理の内容を説明するフローチャート。 処理領域選択画像の一例を示す図。 車両とその周囲環境を表す他の一例を示す模式図。 新規対象物の判定範囲が車両の移動に応じて変更される例を示す図。 対象物の処理領域内に動体が存在する状態の一例を示す図。 図12に示す車両のカメラで撮像した画像を模式的に示す図。
<第1実施形態>
次に、本発明の第1実施形態について以下に図面を用いて説明する。
車載画像処理装置は、車両に搭載されており、撮像部により車両から外部を撮像した画像を画像処理することにより対象物を検出するものであり、より詳しくは、撮像装置で異なる時間で撮像した複数の画像から撮像装置のレンズへの付着物を検出するものである。検出結果は、例えば車両の走行制御や運転者への警報等に用いられる。車載画像処理装置は、撮像部の光学系に付着物があるかどうかを判定して、その判定結果をもとに警報あるいは制御を行う。
図1は、本実施形態における車載画像処理装置の全体構成を説明するシステム図である。
車載画像処理装置は、図1に示すように、撮像部101と、センサ部102と、演算部103と、警報部104と、制御部105と、記憶部106を備えている。
撮像部101は、光学系(レンズ)や撮像素子などを有するカメラであり、不図示の光学系が光軸方向の光を集め、撮像素子が光の強度に合わせてデジタル信号に変換することにより、画像を出力する。撮像部101は、例えば車両後部に取り付けられて、車両の後方下部を撮像するバックカメラとして用いられる。センサ部102は、車両の変位を検出するためのセンサとして、車速センサや操舵角センサ、ジャイロなどを有しており、操舵角や、速度及び角速度を計測する。
演算部103は、CPU(central processing unit、中央演算処理装置)及びメモリなどのハードウエアと、ハードウエアにより実行されるソフトウエアプログラムとから構成される。演算部103は、その内部機能として、画像取得部111、センサ出力取得部115、対象物検出部113、対象物トラッキング部114、新規対象物判定部117、遮蔽領域判定部118、付着物判定部119、警報判定部120、制御判定部121と、を備えている。
画像取得部111は、撮像部101から画像を取得する。センサ出力取得部115は、センサ部102から出力される車両の操舵角や速度及び角速度の車両情報を取得する。対象物検出部113は、撮像部101で撮像された画像に対してエッジ抽出や二値化などの画像処理を行い、対象物を検出して、その画像上の位置を算出する。例えば図3に示すように、車両301を駐車枠302に入れることを想定して、対象物として駐車枠302の左右の白線303、304を検出する。対象物検出部113は、撮像部101で所定の時間間隔で撮像された各画像に対してそれぞれ対象物を検出する処理を行う。
対象物トラッキング部114は、センサ出力取得部115からの車両情報をもとに、車両の方位及び位置の変位を算出する。これにより、対象物に対する車両の相対的な変位を算出することができる。そして、所定のタイミングで撮像された今回画像から検出した対象物が、今回画像よりも前のタイミングで撮像された前回画像でも検出されているか否かを変位に基づいて判定する。具体的には、今回画像における対象物の位置、車両の変位、撮像部101のカメラパラメータに基づいて、前回画像の撮像時における対象物の位置を推定し、推定位置として算出する。ここで、カメラパラメータは、焦点距離、画素ピッチ、レンズ歪、車両におけるカメラの取付位置及び姿勢である。
そして、前回画像における対象物の推定位置と前回画像における対象物の実測位置との差が所定の閾値以内である場合に、前回画像における対象物が今回画像における対象物に対応しており、今回画像における対象物が前回画像でも検出されていたと判定する。そして、今回画像における対象物を前回画像でも検出されている検出済対象物であると判定する。
新規対象物判定部117は、対象物トラッキング部114により前回画像において今回画像の白線に対応するものがないと判定された場合、すなわち、今回画像で検出された対象物が前回画像では検出されていないと判定された場合に、対象物が新規対象物であると判定する。
遮蔽領域判定部118は、新規対象物判定部117により今回画像に新規対象物があると判定された場合、新規対象物の今回画像における位置、車両の変位、撮像部101のカメラパラメータをもとに、前回画像の撮像時における新規対象物の位置を推定し、その推定位置が前回画像内に位置しているか否かを判定する。そして、推定位置が前回画像内に位置している場合、前回画像における新規対象物を少なくとも覆う領域を遮蔽領域として設定する。この遮蔽領域は、記憶部106の遮蔽領域記憶部131に記憶される。付着物判定部119は、遮蔽領域判定部118により遮蔽領域が設定されている場合に、撮像部101の光学系に付着物が付着していると判定する。
また、遮蔽領域判定部118は、対象物トラッキング部114により今回画像から検出された対象物が前回画像でも検出されている検出済対象物であると判定された場合に、前回画像内における検出済対象物の検出位置が遮蔽領域内に位置しているか否かを判定する。そして、遮蔽領域内に位置していると判定したときは、撮像部の光学系から付着物が消失したと判定して、遮蔽領域の設定を解除する。
警報判定部120は、付着物判定部119により、撮像部101の光学系に付着物が付着していると判定された場合に、警報部104に対して、画像処理の結果に基づく警報機能を停止させる。一方、付着物判定部119により、撮像部101の光学系に付着物が付着していないと判定された場合に、対象物検出部113により検出した対象物の位置に基づいて、警報を出すかどうかを判定する警報判定処理を行う。警報部104は、警報判定部120で警報を停止すると判定された場合、「警報を停止する」という文字あるいは音声を、車内のディスプレイやスピーカから出力させる。そして、警報判定部120で警報を出すと判定された場合、運転手に注意を喚起するための文字あるいは音声を、車内のディスプレイやスピーカから出力させる。
制御判定部121は、付着物判定部119により、撮像部101の光学系に付着物が付着していると判定された場合に、制御部105に対して、画像処理の結果に基づく制御機能を停止すると判定する。一方、付着物判定部119により、撮像部101の光学系に付着物が付着していないと判定された場合に、対象物検出部113により検出した対象物の位置に基づいて、制御量を算出する処理を行う。制御部105は、制御判定部121で制御を停止すると判定された場合、制御を中止する。そして、制御すると判定された場合、制御量に基づいて車両制御を行う。
次に、上記構成を有する車載用画像認識装置の動作手順について図2を用いて説明する。
まず、撮像部101により画像が出力され(S201)、センサ部102により車両の操舵角や速度及び角速度が計測される(S202)。そして、撮像部101から出力された画像が画像取得部111で取得される(S203)、センサ部102で計測された速度及び角速度がセンサ出力取得部115で取得される(S204)。
次に、対象物検出部113により、今回画像から対象物を検出する処理が行われる(S205)。例えば白線を対象物として検出する場合には、画像取得部111で取得した画像でエッジ抽出を行い、立ち上がりエッジ及び立下りエッジで囲まれた領域を抽出する。また、画像で二値化処理を行い、輝度が閾値以上である領域を抽出する。そして、上記の2つの領域が重なる領域を白線として抽出する。抽出された画像上の白線の領域は、対象物トラッキング部114に送られる。
そして、対象物トラッキング部114により、対象物のトラッキングが行われる(ステップS206)。対象物トラッキング部114は、対象物検出部113から今回画像における対象物の領域の情報を受け取る。そして、センサ出力取得部115から車両の操舵角や速度及び角速度等の車両情報を受け取り、これらの車両情報をもとに、前回画像の撮像時から今回画像の撮像時までの間における車両の方位変位及び位置変位を算出する。
そして、今回画像の撮像時における対象物の位置と、今回画像の撮像時から前回画像の撮像時までの間における車両の方位変位及び位置変位と、撮像部のカメラパラメータをもとに、今回画像の撮像時から前回画像の撮像時までの間における対象物の位置の変位を算出するとともに、前回画像の撮像時における対象物の位置を推定する。
そして、前回画像の撮像時における対象物の推定位置と、前回画像の撮像時における対象物の実際の検出位置である実測値との差が所定の閾値以内であるか否かを判定する。そして、所定の閾値以内である場合に、前回画像の対象物は今回画像の対象物に対応していると判定し、閾値よりも大きい場合に、前回画像の対象物は今回画像の対象物に対応していないと判定する。
例えば、図4に示すように、前回画像401と今回画像411に写っている白線403、404と白線413、414は対応している、すなわち、前回画像401で撮像されている白線403、404と今回画像411で撮像されている白線413、414は、同じ白線であると判定される。前回画像と今回画像で認識された白線の対応関係は、新規対象物判定部117に送られる。
そして、新規対象物判定部117により、新規対象物の判定が行われる(ステップS207)。新規対象物判定部117は、前回画像と今回画像の画像処理で認識された対象物の対応関係を対象物トラッキング部114から受け取る。そして、対象物の対応関係の情報をもとに、前回画像には対応する対象物がなく、今回画像の画像処理で新たに認識された対象物を新規対象物であると判定する。
例えば、図5に示すように、今回画像511に写っている白線513は、前回の処理における画像501に写っていないため、新規の白線であると判定される。新規の白線がある場合、遮蔽領域判定部118及び付着物判定部119に対して新規の白線の位置を示す情報を送る。なお、図5の前回画像501では、光学系に付着した水滴506によって白線503がかくれている状態が示されている。
そして、遮蔽領域判定部118により、遮蔽領域の判定が行われる(ステップS208)。遮蔽領域判定部118は、新規対象物がある場合、新規対象物判定部117から新規対象物の位置を受け取り、そして、対象物トラッキング部114から前回画像と今回画像との間における車両の方位変位及び位置変位を受け取る。そして、それらの情報及びカメラパラメータをもとに、前回画像の撮像時における新規対象物の位置を推定し、推定位置として算出する。
前回画像の撮像時における新規対象物の推定位置が前回画像上にある場合、推定位置における新規対象物を少なくとも覆う領域を遮蔽領域515として設定し、その設定した遮蔽領域の位置を示す情報を付着物判定部119と遮蔽領域記憶部131に送る。
例えば、図5に示すように、前回画像の撮像時における白線503(新規対象物)の推定位置を完全に覆う領域が遮蔽領域505として設定される。新規の白線がない場合には、遮蔽領域を設定する処理は実施しない。
そして、付着物判定部119により、付着物の判定が行われる(ステップS209)。付着物判定部119は、遮蔽領域判定部118から遮蔽領域の位置の情報を送られた場合、その情報を受け取り、遮蔽領域の位置に対応する光学系の対応位置に付着物が付着していると判定する。遮蔽領域505の情報は、警報判定部120及び制御判定部121に送る。
また、付着物の判定では、対象物トラッキング部114から対応関係がある前回画像と今回画像における白線の位置を受け取り、対応関係がある前回画像と今回画像における対象物の位置から所定の距離以内に、過去に判定した遮蔽領域がある場合、その遮蔽領域から付着物が消失したと判定する。例えば、図6に示すように、今回画像611から検出された白線613が、前回画像601でも検出されている検出済の白線603(検出済対象物)である場合には、前回画像601内における検出済の白線603の検出位置が遮蔽領域605内に位置しているか否かを判定し、遮蔽領域605内に位置していると判定したときは、その遮蔽領域605には付着物がなくなったと判定し、今回画像611における遮蔽領域615の設定を解除する。
警報の判定(ステップS210)では、警報判定部120は、付着物判定部119から付着物の情報を受け取る。例えば、画像上に付着物が付着しているとの情報を受け取った場合には、警報機能を停止すると判定して、警報機能を停止する信号を警報部104に送る。一方、画像上に付着物が付着していないとの情報を受け取った場合には、対象物検出部113からの白線の位置と所定の位置との距離をもとに、警報を出すかどうかを判定して、警報の出力結果を警報部104に送る。
制御の判定(ステップS211)では、制御判定部121は、付着物判定部119から付着物の領域の情報を受け取る。例えば、画像上に付着物が付着しているとの情報を受け取った場合には、制御機能を停止すると判定して、警報機能を停止する信号を制御部105に送る。一方、画像上に付着物が付着していないとの情報を受け取った場合には、対象物検出部113からの白線の位置をもとに、制御部105の制御量を算出して、制御量を制御部105に送る。
警報部104は、警報判定部120から警報機能を停止する信号を受け取った場合、「警報を停止する」という文字あるいは音声を出力し、警報判定部120から警報を出すという信号を受け取った場合、運転手に注意を喚起するための文字あるいは音声を出力する(ステップS212)。
制御部105は、制御判定部121から制御量を受け取り、制御量をもとに車両制御を行い、制御判定部121から制御を停止するという信号を受け取った場合に、車両制御を中止する(ステップ213)。
本実施形態の車載用画像認識装置によれば、今回画像から検出した対象物が前回画像では検出されていない新規対象物である場合に、前回画像の撮像時における新規対象物の位置を推定し、その推定した新規対象物の推定位置が前回画像内に位置しているときは、撮像部の光学系に付着物が付着していると判定するので、撮像部の光学系に水滴や空気中の浮遊物などの付着物が付着した時点で、付着ありと判定することができる。したがって、付着物の付着を即座に判定でき、警報及び制御の誤動作及び未動作を防ぐことができる。
例えば撮像部101についた付着物が水滴である場合、像が歪み、前回画像における白線の位置の推定位置と実測値との差が大きくなり、対象物トラッキング部114が、前回画像と今回画像との間の白線の位置に対応関係がないと判定することにより、新規の白線と認識して、付着物があると判定できる。
本実施形態の車載用画像認識装置によれば、今回画像から検出された対象物が、前回画像でも検出されている検出済対象物である場合に、前回画像内における検出済対象物の検出位置が遮蔽領域内に位置しているか否かを判定し、遮蔽領域内に位置していると判定したときは、遮蔽領域の設定を解除するので、撮像部の光学系から水滴や空気中の浮遊物などの付着物が消失したことを判定できる。これにより、警報及び制御ができない中止状態から即座に動作させることができる。
なお、上述の実施例では、撮像部101が単眼カメラである場合を例に説明したが、撮像部101の数は一つに限定されるものではなく、複数であってもよい。例えば、撮像部101を車両に複数設置して、画像取得部111、対象物検出部113、対象物トラッキング部114、新規対象物判定部117、遮蔽領域判定部118が複数の画像についてステップ203〜208を実施することにより、より広い領域の情報をもとに警報及び制御を実施することができる。
<第2実施形態>
次に、本発明の第2実施形態について図7から図13を用いて説明する。
なお、第1実施形態と同様の構成要素については同様の符号を付することでその詳細な説明を省略する。
本実施形態において特徴的なことは、画像取得部111により取得した画像の中から、対象物検出部113によって対象物を検出可能な処理領域を選択する処理領域選択部112と、処理領域選択部112によって選択された処理領域内で新規対象物の判定を行う新規対象物判定領域を決定する新規対象物判定領域決定部116を設けたことである。
撮像部101は、認識する対象物の種類によって異なる露光枠を用いて基準となる光強度を決定する。例えば、路面上の物体を認識対象物とする場合、路面部分に矩形の露光枠を設けて、その露光枠内の光の平均強度(明るさの平均値)を求め、その光の平均強度を基準値としてデジタル信号に変換する。センサ部102は、撮像部101で決定された光強度を露光値として取得し、センサ出力取得部115に出力することができる。
実際の制御では、図8のフローチャートに示すように、ステップS204でセンサ出力を取得した後、ステップS224で、対象物の処理領域を選択する処理が行われる。処理領域選択部112は、露光値及び画像内輝度の分布から、対象物を認識可能な処理領域を選択する。より詳しくは、センサ出力取得部115が取得したカメラ情報(露光値及び画像内輝度の分布を含む)と、認識する対象物の種類と、カメラからの距離とに基づいて、対象物検出部113が対象物を検出可能な処理領域を選択する。
処理領域選択部112がないと、例えば前回処理において画像の露光値が極端に低く、対象物検出部113が対象物を検出できず、今回処理において画像の露光値が通常の範囲となって対象物を検出できた場合に、新規対象物判定部117によって付着物があると誤って判断されるおそれがある。
これに対して、本実施形態では処理領域選択部112を設けて処理領域の選択を行っているので、例えば露光値等の問題によって前回処理では対象物を検出できなかったが、今回処理で対象物が検出できた場合でも、異物が付着したとの誤判断を防ぐことができる。
図9は、処理領域選択部により処理領域を選択する方法を説明する図である。
例えば、図9(a)に示す前回画像901のように、画像全体が暗い場合、対象物902を検出可能な処理領域はなく、処理領域は一つも選択されていない。そして、図9(b)に示す今回画像911のように、画像全体が明るくなった場合でも、処理領域が一つも選択されていないので、対象物検出部113は、対象物912を新規対象物として検出しない。したがって、新規対象物判定部117の誤判断を防ぐことができる。
新規対象物判定領域決定部116は、処理領域選択部112によって選択された処理領域と、センサ出力取得部115によって取得された車両情報に基づいて新規対象物判定領域を決定する。
新規対象物判定領域決定部116は、処理領域選択部112が選択した処理領域のうち、所定の領域を新規対象物判定領域として決定し、その決定した新規対象物判定領域内で新規対象物判定部117により新規対象物の判定が行われる。新規対象物判定領域の決定は、自車の移動、自車周囲の人などの動体の移動によって決定される。
実際の制御では、図8のフローチャートに示すように、ステップS205で対象物を検出し、ステップS206で対象物のトラッキングを行い、ステップS226で、新規対象物の判定領域を決定する処理がなされる。
図10は、車両とその周囲環境を表す他の一例を示す模式図、図11は、新規対象物の判定範囲が車両の移動に応じて変更される例を示す図である。
図10に示すように車両301が後退しながら駐車枠302に進入しようとしている場合、T1秒の位置では、図11(a)に示すように、駐車枠302の白線303、304に対して、車両301が斜めに配置されている。そして、車両301の旋回によりその後のT2秒の位置では、図11(b)に示すように、駐車枠302の白線303、304に対して車両301は略平行に配置される。
画像1001は、車両301の旋回に応じて画像1011に回転するので、例えば新規対象物判定領域1002の位置が車両301に対して固定されていると、図10(b)に示すように画像1011内に障害物1021が入ってきた場合に、障害物1021を新規対象物として誤って認識するおそれがある。
これに対して、新規対象物判定領域決定部116は、新規対象物判定領域1012を車両301に対して固定せず、車両301の動きに応じて変化させている。本実施形態では、最初に駐車枠302を認識した時点で新規対象物判定領域1002を決定し、その後の車両301の移動にかかわらず、図11(b)に示すように、新規対象物判定領域1012として路面に対する位置を固定している。したがって、車両301の移動によって、処理領域1011内に侵入してきた障害物1021を、新規対象物であると誤って判定するのを抑制できる。
図12は、車両301が進入する駐車枠302内に人などの動体が存在する状態を示す図、図13は、図12に示す車両のカメラで撮像した画像を模式的に示す図である。
図12に示すように、車両301の進路上に動体1201が存在する場合、図13に示すように、動体1201の位置は、新規対象物判定領域1012から除外される。新規対象物判定部117は、新規対象物判定領域1012から動体1201を除外した領域について新規対象物の判定処理を行う。
以上、本発明の実施形態について詳述したが、本発明は、前記の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の精神を逸脱しない範囲で、種々の設計変更を行うことができるものである。例えば、前記した実施の形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能であり、また、ある実施形態の構成に他の実施形態の構成を加えることも可能である。さらに、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
101 撮像部
102 センサ部
103 演算部
104 警報部
105 制御部
106 記憶部
111 画像取得部
112 処理領域選択部
113 対象物検出部
114 対象物トラッキング部
115 センサ出力取得部
116 新規対象物判定領域決定部
117 新規対象物判定部
118 遮蔽領域判定部
119 付着物判定部
120 警報判定部
121 制御判定部

Claims (7)

  1. 撮像部で撮像した画像を画像処理することにより対象物を検出する車載画像処理装置であって、
    所定のタイミングで撮像された今回画像から対象物を検出する対象物検出部と、
    該対象物が前記今回画像よりも前のタイミングで撮像された前回画像では検出されておらず、前記今回画像で初めて検出された新規対象物であるか否かを判定する新規対象物判定部と、
    前記前回画像の撮像時における前記新規対象物の位置を推定し、該推定位置が前記前回画像内に位置している場合に、前記前回画像における前記新規対象物を覆う領域を遮蔽領域として判定する遮蔽領域判定部と、
    該遮蔽領域判定部により前記遮蔽領域が設定されている場合に、前記撮像部の光学系に付着物が付着していると判定する付着物判定部と、を有することを特徴とする車載画像処理装置。
  2. 画像の中から前記対象物検出部によって対象物を検出可能な処理領域を選択する処理領域選択部と、
    該処理領域選択部によって選択された処理領域内で新規対象物の判定を行う新規対象物判定領域を決定する新規対象物判定領域決定部と、を有することを特徴とする請求項1に記載の車載画像処理装置。
  3. 前記処理領域選択部は、露光値及び画像内輝度分布に基づいて前記処理領域を選択することを特徴とする請求項2に記載の車載画像処理装置。
  4. 前記遮蔽領域判定部は、前記今回画像から検出された対象物が、前記前回画像でも検出されている検出済対象物である場合に、前記前回画像内における前記検出済対象物の検出位置が前記遮蔽領域内に位置しているか否かを判定し、該遮蔽領域内に位置していると判定したときは、前記遮蔽領域の設定を解除することを特徴とする請求項1から請求項3のいずれか一項に記載の車載画像処理装置。
  5. 前記撮像部の光学系に付着物が付着していると判定した場合に、画像処理の結果に基づく警報機能を停止させ、前記撮像部の光学系に付着物が付着していないと判定した場合に、前記今回画像から検出された対象物の位置に基づいて、警報を出すかどうかを判定する警報判定部を有することを特徴とする請求項1から請求項4のいずれか一項に記載の車載画像処理装置。
  6. 前記撮像部の光学系に付着物が付着していると判定した場合に、画像処理の結果に基づく制御機能を停止させ、前記撮像部の光学系に付着物が付着していないと判定した場合に、前記今回画像から検出された対象物の位置に基づいて、制御量を算出する制御部を有することを特徴とする請求項1から請求項5のいずれか一項に記載の車載画像処理装置。
  7. 前記対象物が路面標示であることを特徴とする請求項1から請求項6のいずれか一項に記載の車載画像処理装置。
JP2014148860A 2014-07-22 2014-07-22 車載画像処理装置 Active JP6362945B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014148860A JP6362945B2 (ja) 2014-07-22 2014-07-22 車載画像処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014148860A JP6362945B2 (ja) 2014-07-22 2014-07-22 車載画像処理装置

Publications (2)

Publication Number Publication Date
JP2016022845A JP2016022845A (ja) 2016-02-08
JP6362945B2 true JP6362945B2 (ja) 2018-07-25

Family

ID=55270022

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014148860A Active JP6362945B2 (ja) 2014-07-22 2014-07-22 車載画像処理装置

Country Status (1)

Country Link
JP (1) JP6362945B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6606473B2 (ja) * 2016-07-27 2019-11-13 京セラ株式会社 画像処理装置、画像処理方法、撮像装置、及び移動体

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3675231B2 (ja) * 1999-06-14 2005-07-27 三菱自動車工業株式会社 含水物付着検出装置
JP5680436B2 (ja) * 2011-02-15 2015-03-04 アルパイン株式会社 車載カメラレンズ用異物付着判定装置

Also Published As

Publication number Publication date
JP2016022845A (ja) 2016-02-08

Similar Documents

Publication Publication Date Title
JP6120395B2 (ja) 車載装置
US8582809B2 (en) Method and device for detecting an interfering object in a camera image
JP6246014B2 (ja) 外界認識システム、車両、及びカメラの汚れ検出方法
US8175331B2 (en) Vehicle surroundings monitoring apparatus, method, and program
JP4733756B2 (ja) 車両周辺監視装置
JP5576937B2 (ja) 車両の周辺監視装置
WO2019026785A1 (ja) 付着物検出装置、および、それを備えた車両システム
JP2008060874A (ja) 車載カメラ及び車載カメラ用付着物検出装置
JP4528283B2 (ja) 車両周辺監視装置
JP2007257449A (ja) 道路区画線検出装置
US9001204B2 (en) Vehicle peripheral monitoring device
JP2010097561A (ja) 車両周辺監視装置
US9286512B2 (en) Method for detecting pedestrians based on far infrared ray camera at night
EP2815383A1 (en) Time to collision using a camera
US10791252B2 (en) Image monitoring device, image monitoring method, and recording medium
US8373754B2 (en) Method and system for evaluating brightness values in sensor images of image-evaluating adaptive cruise control systems
EP3073465A1 (en) Animal detection system for a vehicle
JP4864953B2 (ja) 車両周辺監視装置
JP2007018451A (ja) 道路区画線検出装置
JP6362945B2 (ja) 車載画像処理装置
JP4765113B2 (ja) 車両周辺監視装置、車両、車両周辺監視用プログラム、車両周辺監視方法
JP6087240B2 (ja) 車両周辺監視装置
JP4176558B2 (ja) 車両周辺表示装置
JP2014013452A (ja) 画像処理装置
JP4975776B2 (ja) 車両周辺監視装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180308

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180619

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180627

R150 Certificate of patent or registration of utility model

Ref document number: 6362945

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150