JP6576887B2 - 車載装置 - Google Patents

車載装置 Download PDF

Info

Publication number
JP6576887B2
JP6576887B2 JP2016156627A JP2016156627A JP6576887B2 JP 6576887 B2 JP6576887 B2 JP 6576887B2 JP 2016156627 A JP2016156627 A JP 2016156627A JP 2016156627 A JP2016156627 A JP 2016156627A JP 6576887 B2 JP6576887 B2 JP 6576887B2
Authority
JP
Japan
Prior art keywords
unit
dirt
region
information
detection unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016156627A
Other languages
English (en)
Other versions
JP2018026671A (ja
Inventor
浩平 萬代
浩平 萬代
福田 大輔
大輔 福田
修造 金子
修造 金子
寛哲 安藤
寛哲 安藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2016156627A priority Critical patent/JP6576887B2/ja
Priority to CN201780047106.9A priority patent/CN109565536B/zh
Priority to PCT/JP2017/017746 priority patent/WO2018029925A1/ja
Priority to US16/324,316 priority patent/US10972639B2/en
Priority to EP17839000.1A priority patent/EP3499862B1/en
Publication of JP2018026671A publication Critical patent/JP2018026671A/ja
Application granted granted Critical
Publication of JP6576887B2 publication Critical patent/JP6576887B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
    • H04N23/811Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation by dust removal, e.g. from surfaces of the image sensor or processing of the image signal output by the electronic image sensor
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0006Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means to keep optical surfaces clean, e.g. by preventing or removing dirt, stains, contamination, condensation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/77Retouching; Inpainting; Scratch removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Mechanical Engineering (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Description

本発明は、車載装置に関する。
車両にカメラを搭載し、そのカメラから得られた画像に画像認識処理などを行い、車両の運転支援に用いる技術が知られている。カメラのレンズに水滴や泥などの異物が付着すると画像認識処理に悪影響を及ぼす。レンズへの付着物を検出する装置がたとえば特許文献1に開示されている。
特開2012−38048号公報
特許文献1に記載されている発明では、汚れ検出ができない場合は汚れが除去されたことを検出できない。
本発明の第1の態様による車載装置は、レンズを備えるカメラで撮影された画像を取得する画像取得部と、記憶部と、前記画像取得部が取得した画像に基づき前記レンズの汚れを検出して前記画像における汚れが存在する領域を示す汚れ領域情報を前記記憶部に格納する汚れ検出部と、前記レンズの汚れが除去された領域を示す汚れ除去情報を生成する汚れ除去情報生成部と、前記汚れ除去情報に基づいて前記汚れ領域情報を書き換える書換え部とを備える。
本発明によれば、汚れが除去された領域を示す汚れ除去情報に基づいて汚れ領域情報を書き換えることにより、汚れ検出ができない場合でも汚れの領域を精度良く認識することができる。
第1の実施の形態における車両のハードウエア構成図 第1の実施の形態における車載装置の制御ブロック図 付着物領域情報の一例を示す図 状態切替条件テーブルの一例を示す図 泥領域を示す図 付着物消去記憶部により書き換えられた泥領域を示す図 水滴検出部の処理を表すフローチャート 泥検出部の処理を表すフローチャート 付着物消去管理部の処理を表すフローチャート 第2の実施の形態における車載装置の制御ブロック図 消去関係テーブルの一例を示す図 第3の実施の形態における車載装置の制御ブロック図 付着物消去検出部の動作を表すフローチャート 第3の実施の形態の変形例1における付着物消去検出部の動作を表すフローチャート 第4の実施の形態における車載装置の制御ブロック図 ワイパーが動作する場合の清掃領域の一例を示す図 白濁検出を説明する図 水滴検出を説明する図
(第1の実施の形態)
以下、図1〜図8を参照して、本発明に係る車載装置の第1の実施の形態を説明する。
(ハードウエア構成)
図1は、車両1のハードウエア構成図である。車両1は、カメラ2と、車両監視部3と、車載装置4と、報知部5とを備える。
カメラ2は、外向きに車両1に設置され、車両1の周辺の路面を撮影範囲に含む。カメラ2は所定の時間間隔ごとに撮影し、撮影して得られた画像(以下、撮影画像)を車載装置4に出力する。カメラ2はレンズを備え、レンズが泥や水滴により汚れると撮影画像の汚れに対応する領域が影響を受ける。
車両監視部3は、車両1の走行状態に関する情報を取得する。車両監視部3は、舵角監視部31と車速監視部32とを備える。舵角監視部31は、たとえば角度センサであり、車両1の舵角情報を取得する。車速監視部32は、たとえばロータリエンコーダであり、車両1の走行速度、すなわち車速を取得する。車両監視部3は、取得した舵角や車速などの車両情報を車載装置4に出力する。
車載装置4は、演算処理部41と画像取得部42とを備える。演算処理部41は、CPUとRAMとROMとを備え、CPUはROMに格納されたプログラムをRAMに展開して実行することにより、後述する処理を行う。画像取得部42は、カメラ2から撮影画像を取得して演算処理部41に出力する。演算処理部41は入力された撮影画像をRAMに記憶し、記憶した撮影画像に所定の画像処理を行う。たとえば、撮影画像から人物形状を検出する歩行者検出や、車両を検出する車両検出、撮影画像に映り込むレンズの付着物を検出する付着物検出などの処理である。これらの画像処理の出力はRAMに適宜記憶される。そして演算処理部41はこれらの画像処理の出力に基づいて報知部5を制御する。
報知部5は、車両の乗員へ報知を行う。報知部5は、警報出力部51と状態表示部52とを備える。警報出力部51は、音および光の少なくとも一方を用いて車両の乗員に対して警報を発報する装置であり、たとえば警報ランプや警報ブザーである。警報出力部51の動作は、車載装置4の演算処理部41によって制御される。たとえば、演算処理部41が付着物検出処理によってカメラ2のレンズの付着物を検出した場合に、警報ブザーを発報して車両の乗員にカメラ2のレンズを清掃するように警告することができる。状態表示部52は、ディスプレイなどの画面表示装置であり、車両の乗員に対して視覚的な情報を出力する。状態表示部52の動作は、車載装置4の演算処理部41によって制御される。たとえば状態表示部52は、CPUの動作指令に基づき、演算処理部41が歩行者検出処理によって検出した撮影画像上の歩行者の位置をカメラ2の撮影画像に合成して表示させる。
(制御ブロック)
図2は、第1の実施の形態による演算処理部41の制御ブロック図である。演算処理部41は、ROMに格納されたプログラムをCPUが実行することにより、付着物検出部6と付着物領域記憶部7と付着物消去監視部8と付着物領域統合部9と制御信号出力部10と付着物検出制御部11と付着物消去管理部12として機能する。
付着物検出部6は、カメラ2が出力する撮影画像を用いてカメラ2のレンズへの付着物を検出する。付着物検出部6は、水滴を検出する水滴検出部61と、泥を検出する泥検出部62とを備える。水滴検出部61および泥検出部62はそれぞれ、付着物検出制御部11の動作指令に基づき動作する。換言すると、水滴検出部61および泥検出部62はそれぞれ、付着物検出制御部11の動作指令に基づき、稼働状態と停止状態とに切り替えられる。
水滴検出部61は、レンズに付着した水滴を検出し、撮影画像において水滴が付着している領域(以下、水滴領域)を示す情報(以下、水滴領域情報)を付着物領域記憶部7に出力する。水滴検出部61の具体的な動作は後述する。
泥検出部62は、レンズに付着した泥を検出し、撮影画像において泥が付着している領域(以下、泥領域)を示す情報(以下、泥領域情報)を付着物領域記憶部7に出力する。以下では、水滴領域と泥領域とをあわせて「付着物領域」と呼ぶ。また以下では、水滴領域情報と泥領域情報とをあわせて「付着物領域情報」と呼ぶ。泥検出部62の具体的な動作は後述する。
付着物領域記憶部7は、付着物検出部6から入力される付着物領域情報を記憶する。付着物領域記憶部7は、水滴検出部61に対応する水滴領域記憶部71と、泥検出部62に対応する泥領域記憶部72とを備える。水滴領域記憶部71は、水滴検出部61から入力される付着物の情報、すなわち水滴領域情報を記憶する。泥領域記憶部72は、泥検出部62から入力される付着物情報、すなわち泥領域情報を記憶する。
水滴検出部61と泥検出部62の動作がそれぞれ停止している場合には、水滴領域記憶部71と泥領域記憶部72にはそれぞれ付着物領域情報が入力されず、最後に記憶された付着物情報が保持され続ける。
図3は、付着物領域記憶部7で記憶される付着物領域情報の一例を示す図である。撮影画像を格子状に区切った検出面131において、付着物が検出された領域14が示されている。付着物が検出された領域14は、付着物領域情報により特定される領域である。
付着物消去監視部8は、付着物領域記憶部7の各記憶部が記憶する付着物領域情報を監視し、カメラ2のレンズの付着物が除去された領域を検出する。付着物消去監視部8は、付着物の除去が検出された領域を示す情報(以下、付着物消去領域情報)を付着物消去管理部12に出力する。付着物消去監視部8は、付着物領域記憶部7の各記憶部に対応した監視部、すなわち水滴消去監視部81と泥消去監視部82とを備える。水滴消去監視部81は、水滴領域記憶部71に記憶される水滴領域情報を監視し、水滴領域情報の時間変化から水滴が消失した領域(以下、水滴消失領域)を検出する。そして水滴消去監視部81は、水滴消失領域を示す情報(以下、水滴消失領域情報)を出力する。
泥消去監視部82は、泥領域記憶部72に記憶される泥領域情報を監視し、泥領域情報の時間変化から泥が消失した領域(以下、泥消失領域)を検出する。そして泥消去監視部82は、泥消失領域を示す情報(以下、泥消失領域情報)を出力する。
付着物検出制御部11は、水滴検出部61および泥検出部62の動作を切り替える条件が記載された状態切替テーブル17を備える。付着物検出制御部11は、状態切替テーブル17に記載された条件に該当すると判断すると次の2つの動作を行う。第1の動作は、付着物検出部6への動作を切り替える指令、すなわち稼働状態への切り替えを示す動作指令、または停止状態への切り替えを示す動作指令の出力である。第2の動作は、付着物消去管理部12への付着物検出部6の動作状態の情報の出力である。後述するように、状態切替テーブル17に記載される条件は車両1の車速が含まれる。
図4は、状態切替テーブル17の一例を示す図である。状態切替テーブル17は、処理名171の列と、状態172の列と、状態切替条件173の列とから構成される。処理名171の列には制御対象の処理が記載され、「水滴検出」は水滴検出部61が制御対象であり、「泥検出」は泥検出部62が制御対象であることを示す。状態172の列には切り替え後の状態が記載され、「停止」は停止状態に切り替えられ、「稼働」は稼働状態に切り替えられることを示す。状態切替条件173の列には切り替え条件が記載される。たとえば図4の2行目は、車両1の車速が時速2kmを超過したら水滴検出部61を停止させることを示している。なお付着物検出制御部11は、昼夜の判断において、車両1または車載装置4に備えられる不図示の時計を参照してもよいし、カメラ2が検出した照度や撮影画像の平均輝度を利用してもよい。また昼夜を判断する基準となる時刻は季節ごとに異なってもよい。
図2に戻って車載装置4の制御ブロック図の説明を続ける。
付着物消去管理部12は、付着物検出制御部11から入力される付着物検出部6の動作状態に基づき、停止状態にある検出部に対応する付着物領域記憶部7の付着物領域情報を、付着物消失領域情報を用いて書き換える。たとえば、水滴検出部61が稼働状態にあり泥検出部62が停止状態にある場合は、停止状態にある泥検出部62に対応する泥領域記憶部72に格納される泥領域情報を、付着物消失領域情報を用いて書き換える。すなわちこの場合は、泥領域情報を水滴消失領域情報を用いて書き換える。図3、図5、図6を用いて付着物領域情報の書き換えを具体的に説明する。
図5は、停止状態にある泥検出部62により従前に検出された泥領域151,152を示す図である。泥領域151,152は、撮影画像を格子状に区切った検出面132上の領域として表される。
図6は、付着物消去管理部12により書き換えられた泥領域情報により示される泥領域を示す図である。図6は、以下のような処理を経て生成される。
まず、泥検出部62が撮影画像から泥領域を検出し、泥領域情報を付着物領域記憶部7に出力する。この泥領域情報を図示したのが図5の領域151および領域152である。次に付着物検出制御部11により泥検出部62が停止状態に切り替えられる。そして、水滴消去監視部81が図3に示す領域14を水滴消失領域として検出する。すると付着物消去管理部12は、図5に示す泥領域151および領域152から水滴消失領域である領域14を除外する。これにより、図5に示す泥領域151は図6において泥領域151Aに書き換えられ、書き換えられなかった泥領域152とともに新たな泥領域情報として付着物領域記憶部7に出力される。
図2に戻って車載装置4の制御ブロック図の説明を続ける。
付着物領域統合部9は、付着物領域記憶部7から水滴領域情報および泥領域情報を取得する。付着物領域統合部9は、取得した情報に含まれる水滴領域および泥領域を統合して統合付着物領域とし、統合付着物領域を示す情報である統合付着物領域情報を制御信号出力部10に出力する。
制御信号出力部10は、入力された統合付着物領域情報に基づいて報知部5を駆動する制御信号を生成し、報知部5に出力する。たとえば制御信号出力部10は、統合付着物領域情報により示される統合付着物領域の面積が、あらかじめ定められた面積よりも広い場合に特定の制御信号を生成する。この特定の制御信号は、報知部5がカメラ2のレンズ付着物を払拭するよう車両の乗員に警報を発報するための制御信号である。
(水滴検出処理)
図7は、水滴検出部61の処理を表すフローチャートである。以下に説明する各ステップの実行主体は演算処理部41のCPUである。ステップS181では、CPUはカメラ2が出力した撮影画像に対してエッジ抽出処理を行い、エッジ画像を生成する。エッジ抽出処理には、画像中の変化量を抽出する様々な手段を用いることができる。たとえば、PrewittフィルタやSobelフィルタを用いることができる。続くステップS182では、CPUはステップS181で生成されたエッジ画像の中からエッジ強度が弱くぼけた画素を抽出する。CPUは、エッジ画像に含まれるエッジ強度が所定の閾値Th1以上閾値Th2以下のエッジを抽出する。続くステップS183では、CPUは、ステップS182の抽出結果を所定の回数Nだけ画素ごとに累積させる。続くステップS184では、CPUは、ステップS183で累積させたエッジ強度が所定の閾値Th3以上となる画素を特定し、その画素を示す情報を水滴領域情報として付着物領域記憶部7に出力する。
(泥検出処理)
図8は、泥検出部62の処理を表すフローチャートである。以下に説明する各ステップの実行主体は演算処理部41のCPUである。ステップS191では、CPUは、カメラ2が出力した撮影画像に対して輝度が所定の閾値Th4以下の画素を抽出する。続くステップS192では、CPUは、ステップS191の抽出結果を所定の回数Mだけ画素ごとに累積させる。続くステップS193では、CPUは、ステップS192で累積させた輝度値が所定の閾値Th5以上の画素を示す情報を、泥領域情報として付着物領域記憶部7に出力する。
(付着物消去管理部の動作)
図9は、付着物消去管理部12の処理を表すフローチャートである。以下に説明する各ステップの実行主体は演算処理部41のCPUである。
ステップS161では、CPUは、付着物消去管理部12が水滴消去監視部81から水滴消失領域情報を受信したか否かを判断する。水滴消失領域情報を受信したと判断する場合はステップS162に進み、水滴消失領域情報を受信していないと判断する場合はステップS164に進む。ステップS162では、CPUは、付着物検出制御部11の出力に基づき泥検出部62が停止状態にあるか否かを判断する。この判断は、付着物検出制御部11が出力する付着物検出部6の動作状態の情報に基づき行われる。泥検出部62が停止状態にあると判断する場合はステップS163に進み、泥検出部62が停止状態にない、すなわち泥検出部62が稼働状態にあると判断する場合はステップS164に進む。ステップS163では、CPUは、水滴消失領域情報に基づき泥領域情報を書き換えてステップS164に進む。
ステップS164では、CPUは、付着物消去管理部12が泥消去監視部82から泥消失領域情報を受信したか否かを判断する。泥消失領域情報を受信したと判断する場合はステップS165に進み、水滴消失領域情報を受信していないと判断する場合は図9に示す処理を終了する。ステップS165では、CPUは、付着物検出制御部11の出力に基づき水滴検出部61が停止状態にあるか否かを判断する。水滴検出部61が停止状態にあると判断する場合はステップS166に進み、水滴検出部61が停止状態にない、すなわち水滴検出部61が稼働状態にあると判断する場合は図9に示す処理を終了する。ステップS166では、CPUは、泥消失領域情報に基づき水滴領域情報を書き換えて図9に示す処理を終了する。
上述した第1の実施の形態によれば、次の作用効果が得られる。
(1)車載装置4は、レンズを備えるカメラ2で撮影された画像を取得する画像取得部42と、記憶部、すなわち演算処理部41と、画像取得部42が取得した画像に基づきレンズの汚れを検出して画像における汚れが存在する領域を示す汚れ領域情報を記憶部に格納する汚れ検出部、すなわち付着物検出部6と、レンズの汚れが除去された領域を示す汚れ除去情報を生成する汚れ除去情報生成部、すなわち付着物消去監視部8と、汚れ除去情報に基づいて汚れ領域情報を書き換える書換え部、すなわち付着物消去管理部12と、を備える。
車載装置4をこのように構成したので、汚れ検出部により汚れ検出ができない状態であっても、汚れ除去情報に基づいて汚れ領域情報を書き換えることができる。たとえば昼間に車速が時速1km未満であるために泥検出部62が動作できない場合でも、水滴検出部61の検出結果を利用する水滴消去監視部81が出力する付着物消去領域情報、すなわち汚れ除去情報に基づき泥領域記憶部72を書き換えることができる。
(2)水滴検出部61および泥検出部62は、ある時は汚れ検出部として動作し、ある時は汚れ除去情報生成部の一部として動作する。すなわち、汚れ検出部、および汚れ除去情報生成部は、それぞれ異なるアルゴリズムが用いられる。たとえば、泥検出部62の動作が停止しており、水滴検出部61の検出結果に基づき水滴消去監視部81が付着物消去領域情報を出力し、これに基づき付着物消去管理部12が泥領域記憶部72を書き換える場合は、泥検出部62が汚れ検出部であり水滴検出部61が汚れ除去情報生成部の一部である。
このように、汚れ検出部と汚れ除去情報生成部は異なるアルゴリズムにより動作するので、汚れ検出部のアルゴリズムでは汚れの検出が不可能な場合、すなわち汚れ検出部のアルゴリズムでは汚れが除去されたことの検出が不可能な場合であっても、汚れ除去情報生成部により汚れ除去情報を生成することができる。
(3)汚れ除去情報生成部、すなわち付着物消去監視部8は、汚れ検出部により検出可能な汚れとは異なる種類の汚れを検出する異種汚れ検出部の検出結果に基づき汚れ除去情報を生成する。
車載装置4は、2種類の汚れ検出部を備え、一方の汚れ検出部が検出した汚れ検出領域を、他方の汚れ検出部の検出結果を利用した汚れ除去情報により書き換えることができる。
(4)汚れ検出部、たとえば泥検出部62は泥を検出し、異種汚れ検出部、たとえば水滴検出部61は水滴を検出する。
そのため、泥検出部62が検出した泥領域を水滴検出部61の検出結果を利用した泥消失領域を利用して書き換えることができる。
(5)書換え部、すなわち付着物消去管理部12は、汚れ検出部、すなわち水滴検出部61または泥検出部62が動作していない場合に、動作していない汚れ検出部が出力した汚れ領域情報、すなわち水滴領域情報または泥領域情報を汚れ除去情報に基づいて書き換える。そのため、動作している一方の付着物検出部6の検出結果を用いて、動作していない他方の付着物検出部6が検出した汚れ領域を書き換えることができる。
(6)車載装置4は、カメラ2を搭載する車両1の車速と汚れ検出部の動作の有無との対応を示す状態切替テーブル17と、車両監視部3から入力される車両1の車速および状態切替テーブル17に基づき汚れ検出部を動作または停止させる動作切り替え部、すなわち付着物検出制御部11を備える。書換え部、すなわち付着物消去管理部12は、車両1の動作状態および状態切替テーブル17に基づき付着物検出部6の動作の有無を判断する。
そのため付着物消去管理部12は、水滴領域情報と泥領域情報のいずれを書き換えるかを判断できる。
以上で説明した実施の形態は、以下のように変形してもよい。
(第1の実施の形態の変形例1)
車両1の車両監視部3、および車載装置4の付着物検出制御部11を省略してもよい。この場合は付着物消去管理部12は、水滴検出部61および泥検出部62の稼働状態に関わらず、付着物消去領域情報に基づき、水滴領域記憶部71および泥領域記憶部72の付着物領域情報を書き換える。
(第1の実施の形態の変形例2)
付着物検出制御部11は、状態切替テーブル17を参照する代わりに、車両1の乗員が操作可能な手動スイッチの状態を参照して、水滴検出部61および泥検出部62の動作を制御してもよい。
(第1の実施の形態の変形例3)
車載装置4は、水滴消去監視部81および泥消去監視部82のいずれか一方を備えなくてもよい。すなわち付着物消去監視部8は、水滴検出部61および泥検出部62のいずれか一方の検出結果のみを用いて付着物消去領域情報を生成してもよい。
なお付着物消去監視部8は、水滴消去監視部81を備えることが好ましい。
(第2の実施の形態)
図10〜図11を参照して、本発明に係る車載装置の第2の実施の形態を説明する。以下の説明では、第1の実施の形態と同じ構成要素には同じ符号を付して相違点を主に説明する。特に説明しない点については、第1の実施の形態と同じである。本実施の形態では、主に、画像認識の結果に基づき付着物消去領域情報が生成される点、およびいずれの生成手法による付着物消去領域情報を用いて付着物領域記憶部7を書き換えるかが条件により変化する点で第1の実施の形態と異なる。
第2の実施の形態における車両1および車載装置4のハードウエア構成は第1の実施の形態と同様である。演算処理部41のROMに格納されるプログラムが第1の実施の形態と異なる。
(制御ブロック)
図10は、本発明の第2の実施の形態における車載装置4の制御ブロック図である。演算処理部41は、画像認識部20と、画像認識領域記憶部21と、付着物検出部6と、付着物領域記憶部7と、付着物消去監視部8と、付着物領域統合部9と、制御信号出力部10と、付着物消去管理部12として機能する。
図10に示す制御ブロック図の第1の実施の形態における制御ブロック図との相違点は、画像認識部20および画像認識領域記憶部21が追加されている点と、画像認識領域記憶部21および車両監視部3の出力が付着物消去管理部12に入力されている点である。なお図10では車両監視部3と付着物検出制御部11とを接続する線が省略されているが、第1の実施の形態と同様に車両監視部3の出力が付着物検出制御部11に入力される。また付着物検出制御部11が状態切替テーブル17を備える点も第1の実施の形態と同様である。以下では、これらの相違点を説明する。
画像認識部20は、撮影画像から歩行者を検出する歩行者検出部201と、撮影画像から車両を検出する車両検出部202とを備える。歩行者検出部201が検出した歩行者の撮影画像上の領域、および車両検出部202が検出した車両の撮影画像上の領域を、以下では「画像認識領域」と呼ぶ。
歩行者検出部201および車両検出部202は、既知の画像処理手法を用いて撮影画像から歩行者および車両を検出する。この画像処理にはたとえば、画像からHog特徴量を抽出して歩行者や車両の特徴量と合致する領域を抽出する手法や、深層学習を用いて歩行者や車両を検出する手法を用いることができる。歩行者検出部201および車両検出部202は、検出した物体の撮影画像上の位置、形状、サイズなどの画像認識領域の情報を画像認識情報として画像認識領域記憶部21に出力する。
画像認識領域記憶部21は、歩行者領域記憶部211と車両領域記憶部212とを備える。歩行者領域記憶部211には、歩行者検出部201から入力される最新の画像認識情報が記憶される。車両領域記憶部212には、車両検出部202から入力される最新の画像認識情報が記憶される。画像認識部20の動作が停止している場合には、画像認識領域記憶部21は画像認識情報を消去する。従前に出力された画像認識情報を保持すると、現在は歩行者や車両を認識していないにもかかわらず、現在もそれらを認識しているとの誤った判断を生じさせるからである。
付着物消去管理部12には、付着物消去監視部8が検出した付着物消去領域情報の他に、画像認識領域記憶部21に記憶される画像認識情報と、車両監視部3から車速などの車両の動作状況が入力される。
付着物消去管理部12は、消去関係テーブル22を備える。付着物消去管理部12は、消去関係テーブル22に基づいて、付着物領域記憶部7に格納される水滴領域情報および泥領域情報を書き換える。消去関係テーブル22は、時間帯、および車両監視部3から入力される車両の動作状況に基づき、付着物検出部6および画像認識部20のそれぞれの処理結果により書き換えられる対象となる情報を特定するテーブルである。なお消去関係テーブル22は、付着物消去管理部12が動作する条件を示しているともいえる。
図11は、消去関係テーブル22の一例を示す図である。消去関係テーブル22は、時間帯221の列と、車速222の列と、処理名223の列と、消去領域反映対象224の列とから構成される。時間帯221の列には、時刻の区分を表す情報、たとえば昼または夜が記載される。車速222の列には、車両1の車速の条件が記載される。処理名223の列には、付着物検出部6および画像認識部20のいずれかの検出部の名称が記載される。消去領域反映対象224の列には、書き換え対象となる記憶領域、すなわち水滴領域記憶部71および泥領域記憶部72のいずれかが記載される。
たとえば、図11の消去関係テーブル22の2行目によれば、昼に車速20km/hで走行している場合、泥領域記憶部72に記憶されている泥領域のうち、水滴消去監視部81で検出した水滴消去領域に対応する領域の泥は除去されたものと見做し、当該領域に泥が付着されているという泥領域情報を泥領域記憶部72から消去することを示している。なお、この例では消去領域反映対象の変更条件として時間帯221と車速222を用いているが、これらに限定されない。他にも付着物検出部6の各検出部の動作状態などを使用することができる。
消去関係テーブル22を適切に設定することで、図4の状態切替条件に該当して現在は停止している付着物検出部が停止前の稼働中に記憶した付着物領域を、図4の状態切替条件に該当して現在稼働している別の付着物検出部が検出した付着物の消去領域で消去することができる。また、消去関係テーブル22には、付着物の種類に応じた払拭関係を反映することも可能である。たとえば、水滴は泥をはじめとする多くの付着物を浮かして洗い流すため、水滴検出処理で得られた水滴消去領域を他の汚れ検出処理で得た汚れ領域の消去に使用し易いが、泥は他の付着物と混合しやすい性質をもち、泥検出処理で得られた泥消去領域を他の汚れ検出処理で得た汚れ領域の消去に使用しにくい。
上述した第2の実施の形態によれば、第1の実施の形態の(1)〜(5)の作用効果に加えて次の作用効果が得られる。
(1)車載装置4の汚れ検出部、すなわち付着物検出部6は、検出する汚れの種類が異なる水滴検出部61と泥検出部62とを含む。水滴検出部61は検出した汚れを水滴領域情報として記憶部に格納し、泥検出部62は検出した汚れを泥領域情報として記憶部に格納する。車載装置4は、水滴領域情報に基づき水滴消失領域情報を生成する水滴消去監視部81と、泥領域情報に基づき泥消失領域情報を生成する泥消去監視部82と、水滴領域情報が書き換られる条件および泥領域情報が書き換られる条件が記載された消去関係テーブル22が格納されるテーブル記憶部、すなわち演算処理部41とを備える。書換え部、すなわち付着物消去管理部12は、消去関係テーブル22に記載された条件および水滴消失領域情報に基づき泥領域情報を書き換え、消去関係テーブル22に記載された条件および泥消失領域情報に基づき水滴領域情報を書き換える。
そのため、水滴領域情報および泥領域情報のそれぞれを、泥検出部62および水滴検出部61のそれぞれの検出結果に基づき書き換えることができる。
(2)消去関係テーブル22に記載される、水滴領域情報が書き換られる条件および泥領域情報が書き換られる条件には、少なくともカメラ2を搭載する車両1の速度が含まれる。
そのため、車両1の速度に応じて書き換え対象となる付着物領域を変更することができる。
(3)車載装置4は、カメラ2の撮影画像から物体を認識し物体が認識された領域をレンズの汚れが除去された領域とする汚れ除去情報を生成する画像認識部20を備える。
そのため、画像認識部20の認識結果を用いて、付着物領域情報を書き換えることができる。
(4)車載装置4は、付着物消去管理部12が動作する条件を示す消去関係テーブル22が格納されるテーブル記憶部、すなわち演算処理部41を備える。消去関係テーブル22には、カメラ2を搭載する車両1の速度が少なくとも含まれる。付着物消去管理部12は、車両1の速度、および消去関係テーブル22に基づき動作する。
そのため車載装置4は、車両1の速度、および消去関係テーブル22に基づき、画像認識部20の認識結果や付着物検出部6の検出結果を用いて付着物領域情報を書き換えることができる。
以上で説明した第2の実施の形態は、以下のように変形して実行できる。
(第2の実施の形態の変形例1)
車載装置4は、画像認識部20、および画像認識領域記憶部21を備えなくてもよい。この場合、第1の実施の形態との相違点は、付着物消去管理部12が、付着物検出部6の動作状態ではなく消去関係テーブル22に基づいて、付着物領域記憶部7に格納される付着物領域情報を書き換える点である。同様に、車載装置4において、付着物消去監視部8を省略することができる。この場合、付着物消去管理部12は、消去関係テーブル22に基づいて、付着物領域記憶部7に記載されている付着物領域情報から、画像認識領域記憶部21から入力された画像認識情報の領域を消去する。
(第2の実施の形態の変形例2)
付着物消去管理部12は、消去関係テーブル22の車速222の列を参照しなくてもよい。さらに付着物消去管理部12は、消去関係テーブル22の時間帯の列も参照しなくてもよい。これらの場合は、消去関係テーブル22は付着物消去管理部12から参照されない列を含まなくてもよい。
(第2の実施の形態の変形例3)
付着物検出部6、および画像認識部20のそれぞれにおいて、検出結果の確からしさ、すなわち確度は異なる。さらにそれぞれの検出結果においても、画素ごとに確度は異なる。そこで、付着物検出部6、付着物消去監視部8、画像認識部20のそれぞれの出力に検出結果の確度を追加する。そして、付着物消去管理部12が、付着物領域記憶部7に記憶された付着物情報を消去する際に、確度を考慮してもよい。
付着物検出部6の水滴検出部61は、図7のステップS184において累積値がTh3以上である画素を水滴領域としたが、その累積値を用いて確度を決定することができる。水滴検出部61は、累積値の値が大きいほど確度を高く、すなわちより確からしい検出結果であると設定する。
付着物検出部6の泥検出部62は、図8のステップS193において累積値がTh5以上である画素を泥領域としたが、その累積値を用いて確度を決定することができる。泥検出部62は、累積値が大きいほど確度を高く、すなわちより確からしい検出結果であると設定する。
付着物消去監視部8の水滴消去監視部81は、ある画素の水滴が消失したと判断した際に、消去前にその画素に設定されていた確度を、その画素において水滴が消失した確度と設定する。泥消去監視部82も同様に、ある画素の泥が消失したと判断した際に、消去前にその画素に設定されていた確度を、その画素において泥が消失した確度と設定する。
画像認識部20の各検出部は、検出した画像認識領域に、その検出の確からしさを確度情報として付与し、画像認識領域記憶部21の各記憶部に記憶させ、これを付着物消去管理部12に入力する。付着物消去管理部12は、画像認識領域のそれぞれに確度に応じた正の重みを付与し、付着物消去領域のそれぞれに確度に応じた負の重みを付与する。そして付着物消去管理部12は、重みの和が所定の値以下となった領域を抽出し、前述のように消去関係テーブル22に基づき、抽出した領域を付着物領域記憶部7から消去する。
この変形例によれば、次の作用効果が得られる。
(1)汚れ除去情報には汚れが除去された確からしさを示す確度情報が領域ごとに付加されており、付着物消去管理部12は、確度情報に基づき汚れ領域情報を書き換える。
そのため、確度を考慮して汚れ領域情報を書き換えることができる。
(第2の実施の形態の変形例4)
画像認識部20はカメラ2の撮影画像から何らかの物体を検出できればよく、検出対象の種類や数は上記の構成に限定されない。たとえば画像認識部20は歩行者検出部201のみを備えてもよいし、歩行者や車両以外に信号機やガードレールを検出する検出部を備えてもよい。
(第3の実施の形態)
図12〜図13を参照して、本発明に係る車載装置の第3の実施の形態を説明する。以下の説明では、第2の実施の形態と同じ構成要素には同じ符号を付して相違点を主に説明する。特に説明しない点については、第2の実施の形態と同じである。本実施の形態では、主に、特定の汚れの種類に限定せず付着物の消去点を検出する付着物検出部を備える点で、第2の実施の形態と異なる。
第3の実施の形態における車両1および車載装置4のハードウエア構成は第2の実施の形態と同様である。演算処理部41のROMに格納されるプログラムが第2の実施の形態と異なる。
(制御ブロック)
図12は、本発明の第3の実施の形態における車載装置4の制御ブロック図である。演算処理部41は、付着物消去検出部23と、付着物検出部6と、付着物領域記憶部7と、付着物消去監視部8と、付着物領域統合部9と、制御信号出力部10と、付着物消去管理部12とを備える。
第2の実施の形態における制御ブロック図との相違点は、画像認識部20および画像認識領域記憶部21が削除されている点と、付着物消去検出部23が追加されている点と、付着物消去検出部23の出力が付着物消去管理部12に入力されている点である。なお図12では車両監視部3と付着物検出制御部11とを接続する線が省略されているが、第2の実施の形態と同様に車両監視部3の出力が付着物検出制御部11に入力される。また付着物検出制御部11が状態切替テーブル17を備える点も第2の実施の形態と同様である。以下では、これらの相違点を説明する。
付着物消去検出部23は、カメラ2から入力される撮影画像から付着物が除去された領域を検出する。付着物消去検出部23はたとえば、カメラ2から入力される撮影画像の時間変化を利用して付着物が除去された領域(以下、付着物消去検出領域)を検出し、その領域を示す付着物消去検出領域情報を付着物消去管理部12に出力する。
付着物消去管理部12は、車両監視部3から入力される車両1の動作状況と消去関係テーブル22を参照し、付着物消去監視部8から入力される付着物消去領域情報と付着物消去検出部23から入力される付着物消去検出領域情報に基づき付着物領域記憶部7の水滴領域および泥領域を書き換える。すなわち、本実施の形態では付着物消去領域情報と付着物消去検出領域情報とが汚れ除去情報である。
付着物消去管理部12が参照する消去関係テーブル22において、付着物消去検出部23の消去領域反映対象224は、水滴検出と泥検出の両方に設定される。すなわち、付着物消去検出部23が出力する付着物消去検出領域情報に基づき、水滴領域情報と泥領域情報の両方が書き換えられる。
(付着物消去検出部23のフローチャート)
図13は、付着物消去検出部23の動作を表すフローチャートである。以下に説明する各ステップの実行主体は演算処理部41のCPUである。ステップ241では、CPUは、カメラ2が出力した撮影画像を長時間蓄積して変化のない領域を付着物が付着していると推定し無変化領域として抽出する。なお、本ステップの処理は、カメラ2のレンズへの付着物を検出することを目的とした処理であり、付着物検出部6の処理結果を用いることもできる。
続くステップ242では、CPUは、カメラ2が出力した連続する2枚の撮影画像の画素ごとの差分、たとえば輝度差を評価する。CPUは、差分があらかじめ定めた閾値よりも大きな画素の集合を瞬時変化領域として抽出する。本ステップにおける瞬時変化領域の抽出は以下のことを意図している。すなわち、カメラ2の撮影周期が十分短ければ、連続する2枚の撮影画像にはほとんど変化がないため、通常、ステップ242の処理で差分領域は抽出されない。しかし、カメラ2のレンズに付着物が付着した瞬間、または付着物が除去された瞬間には、付着物が付着した位置に大きな変化が生じ、その領域が瞬時変化領域として抽出される。
続くステップ243では、CPUは、ステップ242において抽出された瞬時変化領域に含まれ、かつステップ241において無変化領域として抽出されていた領域を付着物消去検出領域として出力する。
上述した第3の実施の形態によれば、第1の実施の形態の(1)〜(5)の作用効果、および第2の実施の形態の(1)、(2)、(4)の作用効果に加えて次の作用効果が得られる。
(1)車載装置4は、撮影画像から、長時間変化のない無変化領域と、カメラ2が連続して撮影することにより得られた2枚の撮影画像において輝度差が予め定めた値より大きい瞬時変化領域とを検出し、瞬時変化領域のうち無変化領域に含まれる領域を、レンズの汚れが除去された領域とする汚れ除去情報を生成する瞬間変化検出部、すなわち付着物消去検出部23を備える。
そのため、動作が簡便な付着物消去検出部23の出力を用いて、付着物領域情報を書き換えることができる。
以上で説明した第3の実施の形態は、以下のように変形して実行できる。
(第3の実施の形態の変形例1)
第3の実施の形態では、付着物消去検出部23は付着物が除去された領域を検出した。換言すると、最新の撮影画像において付着物が検出されない領域であって、さらに従前の撮影画像においては付着物が検出されていた領域を検出した。しかし、従前の付着物の有無を考慮せず、付着物が検出されない領域(以下、非付着物領域)を検出してもよい。付着物消去検出部23による非付着物領域の検出は、たとえば、カメラ2から出力される撮影画像が車両の走行に応じて変化することを利用して検出することができる。
図14は、本変形例における付着物消去検出部23の動作を表すフローチャートである。以下に説明するフローチャートの各ステップの実行主体は、演算処理部41のCPUである。ステップ251では、CPUはカメラ2が出力した撮影画像を一定時間蓄積する。続くステップ252では、CPUはステップ251で蓄積した連続する複数枚の撮影画像のそれぞれを複数の領域に分割し、その領域ごとに輝度の分散値、すなわち時間的な輝度のばらつきの大きさを出力する。複数の領域とはたとえば、撮影画像を縦方向および横方向にそれぞれ10等分した合計100個の領域である。続くステップ253では、CPUはステップ252の出力を参照し、輝度の分散値があらかじめ定めた閾値Th6以上となる領域を非付着物領域として出力する。付着物のない領域であれば車両1の走行に応じて撮影画像におけるその領域の輝度が変化するからである。
上述した変形例によれば、次の作用効果が得られる。
(1)車載装置4は、撮影画像から付着物のない領域を検出し、検出した領域に基づき汚れ除去情報を生成する非付着物検出部、すなわち付着物消去検出部23を備える。
車載装置4は従前に付着物が存在していたか否かを判断しないため、より簡便に汚れ除去情報を生成することができる。
(第3の実施の形態の変形例2)
車載装置4は、第2の実施の形態における画像認識部20と画像認識領域記憶部21とを付着物消去検出部23として備えてもよい。この場合は、画像認識部20が撮影画像から検出した物体の領域、すなわち画像認識領域を非付着物領域として付着物消去管理部12に出力する。画像認識領域を非付着物領域として出力する理由は、以下のとおりである。すなわち、画像認識領域は画像認識部20によって物体が検出された領域なので、画像認識領域には付着物がないと推測できるからである。
(第4の実施の形態)
図15〜図16を参照して、本発明に係る車載装置の第4の実施の形態を説明する。以下の説明では、第2の実施の形態と同じ構成要素には同じ符号を付して相違点を主に説明する。特に説明しない点については、第2の実施の形態と同じである。本実施の形態では、主に、レンズが清掃された領域を付着物が消去された領域として扱う点で、第2の実施の形態と異なる。
第4の実施の形態における車載装置4のハードウエア構成は第2の実施の形態と同様である。演算処理部41のROMに格納されるプログラムが第2の実施の形態と異なる。車両1のハードウエア構成は、第2の実施の形態における構成に加えて、カメラ2の撮影画像を利用するプログラム(以下、画像利用プログラム)、たとえば撮影画像から白線を検出し車両1を制御するプログラムを実行する不図示の装置を備える。
(制御ブロック)
図15は、本発明の第4の実施の形態による車載装置4の制御ブロック図である。演算処理部41はROMに格納されたプログラムをCPUが実行することにより、レンズ清掃制御部26と付着物検出部6と付着物領域記憶部7と付着物消去監視部8と付着物領域統合部9と制御信号出力部10と付着物消去管理部12として機能する。車両1は、カメラ2のレンズを清掃するレンズ清掃部27を備える。レンズ清掃部27は、レンズの付着物をこすり落とす(払拭する)ワイパー271と、レンズに洗浄液を吹きかけてレンズの付着物を洗い流すウォッシャー272とを備える。レンズ清掃部27は、後述するレンズ清掃制御部26の清掃動作指令に基づき動作する。
図15に示す制御ブロック図の第2の実施の形態における制御ブロック図との相違点は、以下の5つである。すなわち、車両1がレンズ清掃部27を備える点、画像認識部20および画像認識領域記憶部21が削除されている点、車載装置4がレンズ清掃制御部26を備える点、レンズ清掃制御部26の出力が付着物消去管理部12に入力されている点、および制御信号出力部10の出力がレンズ清掃制御部26に入力されている点である。なお図15では車両監視部3と付着物検出制御部11とを接続する線が省略されているが、第2の実施の形態と同様に車両監視部3の出力が付着物検出制御部11に入力される。また付着物検出制御部11が状態切替テーブル17を備える点も第2の実施の形態と同様である。以下、これらの相違点について説明する。
制御信号出力部10は、付着物領域統合部9から入力された統合付着物領域に基づき、カメラ2の撮影画像が前述の画像利用プログラムに適合するか否かを判断する。制御信号出力部10は、撮影画像が画像利用プログラムに適合しないと判断すると、レンズ清掃制御部26に制御動作指令を出力する。
制御信号出力部10による撮影画像が画像利用プログラムに適合するか否かの判断は、たとえば、統合付着物領域が撮影画像に占める面積の割合や、統合付着物領域の撮影画像中の位置に基づいてなされる。制御信号出力部10がレンズ清掃制御部26に出力する制御動作指令は、常にワイパー271とウォッシャー272の両方を動作させる制御動作指令でもよいし、統合付着物領域に基づきワイパー271やウォッシャー272の一方のみを動作させる制御動作指令でもよい。
また制御信号出力部10は、カメラ2のレンズの付着物の種類に応じて作動させるレンズ清掃部27の機能を切り替えてもよい。たとえば制御信号出力部10は、水滴が付着していると判断する場合にはワイパー271を動作させる制御動作指令を出力する。また制御信号出力部10は、泥が付着していると判断する場合にはワイパー271に加えて泥を浮かすためにウォッシャー272を作動させる制御動作指令を出力する。
レンズ清掃制御部26は、制御信号出力部10から制御動作指令を受信すると、レンズ清掃部27に清掃動作指令を出力するとともに、付着物消去管理部12に清掃領域情報を出力する。清掃領域情報とは、レンズ清掃部27がカメラ2のレンズを清掃することにより付着物が除去される撮影画像上の領域(以下、清掃領域)を示す情報である。たとえばワイパー271が動作する場合はワイパー271が付着物をこすり落とす領域が清掃領域となり、ウォッシャー272が動作する場合は撮影画像の全域が清掃領域となる。
図16は、ワイパー271が動作する場合の清掃領域の一例を示す図である。清掃領域28は、撮影画像を格子状に区切った検出面133において、ワイパー271が動作する領域である。図15に戻りレンズ清掃制御部26の説明を続ける。
清掃領域情報は、レンズ清掃制御部26にあらかじめ記憶されている。レンズ清掃制御部26が出力する清掃動作指令および清掃領域情報は、受信する制御動作指令に対応するものである。たとえば、ワイパー271のみを動作させる制御動作指令を受信すると、ワイパー271のみを動作させる清掃動作指令およびワイパー271のみが作動した場合の清掃領域情報を出力する。
付着物消去管理部12は、車両監視部3から入力される車両1の動作状況と消去関係テーブル22を参照し、付着物消去監視部8から入力される付着物消去領域情報とレンズ清掃制御部26から入力される清掃領域情報に基づき付着物領域記憶部7の水滴領域および泥領域を書き換える。すなわち、本実施の形態では付着物消去領域情報と清掃領域情報とが汚れ除去情報である。
付着物消去管理部12が参照する消去関係テーブル22には、レンズ清掃制御部26が制御するレンズ清掃部27の機能ごとに消去領域反映対象224が記載される。たとえば、ワイパー271は、水滴を払い落とすことができるがレンズが濡れていなければ泥を取り除くことは難しいため、消去関係テーブル22におけるワイパー271の消去領域反映対象224は原則として水滴検出のみである。また、ウォッシャー272は、水滴と泥を洗い流すことができるため、ウォッシャー272の消去領域反映対象224は水滴検出および泥検出である。
またレンズ清掃制御部26は、カメラ2のレンズの付着物の種類に応じて、作動させるレンズ清掃部27の機能を切り替えることが好ましい。たとえば、水滴が付着している場合にはワイパー271を作動させ、泥が付着している場合にはウォッシャー272およびワイパー271を作動させる。この場合、制御信号出力部10が、付着物領域統合部9から入力される統合付着物領域に基づいて、カメラ2のレンズの付着物の程度と種類をレンズ清掃制御部26に入力する。
上述した第4の実施の形態によれば、第1の実施の形態の(1)〜(5)の作用効果、および第2の実施の形態の(1)、(2)、(4)の作用効果に加えて次の作用効果が得られる。
(1)車載装置4は、レンズ清掃部27の清掃動作に基づき、清掃動作の対象範囲が汚れが除去された領域として汚れ除去情報を生成するレンズ清掃制御部26を備える。
そのため、車載装置4はレンズ清掃部27へ動作指令を出力するとともに、動作指令により動作するワイパー271または/およびウォッシャー272により清掃される領域を汚れが除去された領域とする汚れ除去情報を生成できる。
以上で説明した第4の実施の形態は、以下のように変形して実行できる。
(第4の実施の形態の変形例1)
レンズ清掃制御部26は、付着物が実際に除去されていることを確認できないため、レンズ清掃部27が稼働しても付着物清掃領域に付着物が残留している可能性がある。そのため、レンズ清掃制御部26は、付着物清掃領域を付着物消去管理部12に入力しなくてもよい。その代わりにレンズ清掃制御部26は、レンズ清掃部27を作動させる前後で付着物消去監視部8の実行間隔を短くする、すなわち処理を高速化させることで、レンズ清掃部27の動作による付着物の除去が確実に検出されるようにする。もしくは、レンズ清掃制御部26は、レンズ清掃部27を動作させた時のみ付着物消去監視部8を動作させることで、付着物消去監視部8の処理による演算処理部41の負荷を低減してもよい。ただしレンズ清掃部27を動作させた時のみ付着物消去監視部8を動作させる場合は、レンズ清掃部27の動作に起因せず付着物が除去されたことを検出し逃してしまうため、カメラ2のレンズの付着物が自然に除去されない状況下で適用することが好ましい。
(第4の実施の形態の変形例2)
第4の実施の形態の変形例1において、レンズ清掃制御部26は、動作させるレンズ清掃部27の機能に応じて付着物消去監視部8の各監視部のいずれかを動作させるか、またはいずれの動作を高速化させるか、が定められたテーブルを備えてもよい。このテーブルでは、ワイパー271の動作には水滴消去監視部81が対応し、ウォッシャー272の動作には水滴消去監視部81および泥消去監視部82が対応する。たとえば、ワイパー271を動作させる場合は水滴が除去されるため、水滴消去監視部81を動作させる、または水滴消去監視部81の動作を高速化させる。
(第4の実施の形態の変形例3)
車両1は不図示の手動スイッチをさらに備え、乗員による手動スイッチの操作に基づき制御動作指令がレンズ清掃制御部26に出力されてもよい。
以上で説明した第1〜第4の実施の形態は、以下のように変形して実行できる。
(変形例1)
付着物検出部6は、水滴検出部61と泥検出部62とから構成されたが、他の種類の汚れを検出する検出部、たとえば白濁検出部をさらに備えてもよい。また、第1の実施の形態では少なくともいずれか2つの汚れ検出部、たとえば水滴検出部61と白濁検出部を備えればよく、第2〜第4の実施の形態では少なくとも1つの汚れ検出部を備えればよい。
白濁検出部は、たとえば以下のように汚れの1つである白濁を検出する。
図17を用いて白濁検出部の動作について説明する。図17に示されるように、白濁検出部は、撮影画像中に地平線が写り込む予定の位置に左上検知領域941と上検知領域942と右上検知領域943とを設定する。上検知領域942は、路面に互いに平行に設けられた2本のレーンマークの消失点が含まれるような位置に設定される。図17では、2本のレーンマーク946の消失点947が上検知領域942の内側に含まれている。左上検知領域941は上検知領域942よりも左側に設定され、右上検知領域943は上検知領域942よりも右側に設定される。また、白濁検出部は、撮影画像中にレーンマークが写る予定の位置に左下検知領域944と右下検知領域945とを設定する。
白濁検出部は、左上検知領域941と上検知領域942と右上検知領域943と左下検知領域944と右下検知領域945のそれぞれの領域内の画素に対して、水平方向のエッジ検出処理を行う。左上検知領域941と上検知領域942と右上検知領域943に対するエッジ検出では、地平線などのエッジが検出される。また、左下検知領域944と右下検知領域945とに対するエッジ検出では、レーンマーク946などのエッジが検出される。白濁検出部は、各検知領域941〜945に含まれる各画素についてそれぞれエッジ強度を算出する。そして、白濁検出部は、各検知領域941〜945ごとにエッジ強度の平均値AE2を算出して、その平均値AE2が所定の閾値ε未満か否かを判定する。白濁検出部は、エッジ強度の平均値AE2が閾値ε未満の検知領域は白濁していると判断する。
さらに白濁検出部は、以下のように白濁の確からしさ、すなわち確度を算出できる。
白濁検出部は、各検知領域941〜945の中でエッジ強度の平均値AE2が閾値ε未満の検知領域の個数、すなわち白濁していると検知された検知領域の個数N2を算出する。その後、白濁検出部は、各検知領域941〜945が白濁していると継続的に判断された時間t2を算出する。そして、白濁検出部は、各検知領域941〜945の時間t2の総和を検知領域の個数、すなわち、5個で除して平均継続時間t3を算出する。白濁検出部は、この平均継続時間t3を、白濁検出部の検知結果の確度R2に変換する。たとえば、白濁検出部は、ある所定期間TTHR3をあらかじめ設定して、R2=t3/TTHR3を算出する。確度R2は、白濁の平均継続時間t3が長ければ長いほど、確度が高く白濁していることを表す。また、t3自体が5個の検知領域941〜945の平均白濁継続時間であるため、5個の検知領域941〜945の全ての継続時間が長くなるほど、白濁の確度も上がる。確度R2は、0から1の数値で表現し、TTHR3<t3の場合には、全て1として表現し、確度が高く白濁している様子を示す数値とする。
(変形例2)
水滴検出部61は、以下のように水滴を検出してもよい。
図18(a)および(b)を用いて水滴検出部61の動作について説明する。図18(a)に示されるように、水滴検出部61は、撮影画像930の画像領域を複数のブロックB(x,y)に分割する。各ブロックB(x,y)には、撮影画像の複数の画素が含まれている。
水滴検出部61は、各ブロックB(x,y)ごとに水滴の付着時間を表すスコアS1(x,y)を算出する。スコアS1(x,y)は、初期値がゼロであって、以下に説明する判定によりそのブロックB(x,y)内に水滴が付着していると判定されるたびに所定値増加される。
水滴検出部61による各画素ごとのスコア計算は以下のとおりである。図18(b)は、任意の画素931を着目点とした図である。水滴検出部61は、その着目点931から上方向、右上方向、右下方向、左上方向、左下方向にそれぞれ所定距離、たとえば3画素離れた画素を内部参照点932に設定して、それらの5方向にさらに所定距離、たとえば3画素離れた画素を外部参照点933に設定する。次に、水滴検出部61は、各内部参照点932と各外部参照点933のそれぞれについて、輝度を算出する。
水滴の中心部は、縁部よりもレンズ効果で明るい可能性が高い。そこで、水滴検出部61は、5方向の各々について、内部参照点932の輝度が外部参照点933の輝度よりも高いか否かを判定する。換言すると、水滴検出部61は、着目点931が水滴の中心部であるか否かを判定する。水滴検出部61は、各方向の内部参照点932の輝度が同方向の外部参照点933の輝度よりも高い場合、その着目点931が属するB(x,y)のスコアS1(x,y)を所定値、たとえば、1だけ増加させる。
水滴検出部61は、スコアS1(x,y)が所定値以上のブロックを水滴が検出された領域と判断する。水滴検出部61はさらに、以下のように水滴検出の確度を算出することができる。
水滴検出部61は、撮影画像中の全画素について上述の判定を行った後、各ブロックB(x,y)のスコアS1(x,y)を初期化してからの経過時間t1を算出する。そして、水滴検出部61は、各ブロックB(x,y)のスコアS1(x,y)をその経過時間t1で除して、スコアS1(x,y)の時間平均S1(x,y)/t1を算出する。水滴検出部61は、全ブロックB(x,y)の時間平均S1(x,y)/t1の総和を算出して、それを撮影画像930中の全ブロック数で除してスコア平均AS1を算出する。
レンズに水滴が継続的に付着していると、フレームごとにスコア平均AS1が増加する。換言すると、スコア平均AS1が大きい場合、レンズに水滴が長時間付着している確率が高い。水滴検出部61は、このスコア平均AS1を利用して、水滴検出部61の検知結果の確度R1を生成する。水滴の場合には、雨が付着し易いような走行状況においてもレンズ上の水が流れ落ちる等の影響によりスコアS1(x,y)の上下変動が見受けられる。このため、現在のレンズ上の水滴の付着量はスコア平均AS1を利用する。確度R1については、雨滴の場合には、泥や白濁の場合と違い、どうしてもレンズ状態の変化が激しく、雨天であったとしても一時的にスコアS1(x,y)が低下することがある。そこで、スコア平均AS1がある一定値TAS1を超えていた時間のカウントCS1を利用する。水滴検出部61は、ある所定期間スコア平均AS1が一定値TAS1を下回ったとしても時間のカウントCS1を保留し、所定期間以上に下回った際には、スコアS1(x,y)を減算させる。水滴検出部61は、閾値AS1THRを決定し、確度R1=CS1/AS1THRを算出する。水滴検出部61は、時間のカウントCS1がAS1THRを超えた場合には確度R1を1で表現する。確度R1が1に近いほど、検知された水滴の付着が信頼できる。
(変形例3)
泥検出部62は、以下のように泥を検出してもよい。
泥検出部62は、前述の図18(a)に示されるように、撮影画像930の画像領域を複数のブロックB(x,y)に分割する。泥検出部62は、以下のように各ブロックB(x,y)ごとに初期値がゼロであるスコアS4(x,y)の値を算出する。
次に、泥検出部62は、撮影画像930の各画素の輝度を検出する。そして、泥検出部62は、各ブロックB(x,y)ごとにそのブロックB(x,y)に含まれる各画素の輝度の総和I(x,y)を算出する。泥検出部62は、現フレームの撮影画像について算出したI(x,y)と前フレームの撮影画像について同様に算出したIt−1(x,y)との差ΔI(x,y)を各ブロックB(x,y)ごとに算出する。
泥検出部62は、このΔI(x,y)が小さく、更にI(x,y)が周囲のブロックと比較して小さなブロックB(x,y)を検出して、そのブロックB(x,y)に対応するスコアS4(x,y)を所定値、たとえば、1増加させる。
泥検出部62は、スコアS4(x,y)が所定値以上のブロックを泥が検出された領域と判断する。泥検出部62はさらに、以下のように泥検出の確度を算出することができる。
泥検出部62は、撮影画像中の全画素について上述の判定を行った後、各ブロックB(x,y)のスコアS4(x,y)のある所定期間t5の間におけるスコア積算値を取得する。そして、泥検出部62は、各ブロックB(x,y)のスコアS4(x,y)を、その所定期間t5で除して、スコアS4(x,y)の時間平均S4(x,y)/t5を算出する。泥検出部62は、全ブロックB(x,y)の時間平均S4(x,y)/t5の総和を算出して、それを撮影画像930中の全ブロック数で除してスコア平均ARS4を算出する。スコア平均ARS4は、ある所定期間中にレンズに付着した泥の量に近い意味合いを持つ。そのため、泥検出部62は、ΔI(x,y)の所定期間t5における平均値と、周囲の光源環境から予測した画面上での輝度変化量の予測値とを求め、AS4=ΔI(x,y)の所定期間t5における平均値/輝度変化量の予測値を求め、これを透過率とする。
レンズに泥が継続的に付着していると、順次に撮像されたフレームごとにスコア平均ARS4が増加する。換言すると、スコア平均ARS4が大きい場合、レンズに多くの泥が付着している確率が高い。また、確度としては、スコアAS4が、閾値TAS4より大きくなった時間を利用する。泥検出部62は、閾値AS4THRを決定し、確度R4=TAS4/AS4THRを算出する。泥検出部62は、TAS4がAS4THRを超えた場合には確度R4を1で表現する。確度R4が1に近いほど、検知された泥の付着が信頼できる。
(変形例4)
車両1は、車両の走行を制御する車両制御部をさらに備えてもよい。たとえば、車両操作部は、車両のアクセルやブレーキ、ハンドルの角度を制御する機能などを有する。そして制御信号出力部10は、付着物領域統合部9から入力された統合付着物領域に基づいて制御信号を生成し、車両操作部に入力する。たとえば、統合付着物領域が撮影画像における所定の割合に相当する面積よりも大きい場合には、カメラ2の撮影画像を用いた周囲環境の認識性能が低いと判断し、車速が一定以下になるように、もしくは停車するようにアクセルやブレーキを制御する。
(変形例5)
車載装置4は、カメラ2の撮影画像を用いてレーンマークや歩行者などの物体を検出する画像処理を行う物体認識部を備え、制御信号出力部10が以下に示す付加的な処理を行ってもよい。
撮影画像においてカメラ2のレンズの付着物が映る付着物領域は被写体を隠すため、付着物領域では物体検出が正しく行えない。そこで、制御信号出力部10が付着物領域統合部9から入力された統合付着物領域をマスク画像として生成し、物体認識部に入力する。物体認識部は入力されたマスク画像が示す統合付着物領域をカメラ2の撮影画像から除外し、レーンマークや歩行者などの物体を検出するための画像処理を行う。
もしくは制御信号出力部10は、付着物領域統合部9から入力された統合付着物領域に基づき、カメラ2の撮影画像が物体認識部の画像処理に対して十分な品質に満たないと判断した場合に、物体認識部にフェール信号を出力する。たとえば、制御信号出力部10は、統合付着物領域の大きさが閾値を超えた場合にフェール信号を出力する。物体認識部はフェール信号を受けている間、画像処理を停止する。また、制御信号出力部10は物体認識部の画像処理が停止していることを報知部5に伝達してもよい。
(変形例6)
付着物消去管理部12は、付着物領域記憶部7に記憶された付着物領域情報から、汚れ除去情報が示す領域を消去する際に、次の条件を満たす場合に付着物領域をすべて削除するように付着物領域情報を書き換えてもよい。すなわち、汚れ除去情報が示す領域が付着物領域の所定の割合以上の面積の場合、たとえば汚れ除去情報が示す領域が付着物領域の80%以上の場合である。
本変形例によれば次の作用効果が得られる。
(1)書換え部、すなわち付着物消去管理部12は、汚れ除去情報と汚れ領域情報との関係が所定の条件を満たすと、レンズの汚れがすべて除去されたとして付着物領域をすべて削除するように付着物領域情報を書き換える。そのため、付着物領域が疎らに点在する状況を防止することができる。
(変形例7)
上述したいずれの実施の形態でも、カメラ2のレンズへの付着物を対象としたが、カメラ2が車室内に設置される場合には、カメラ2の前方のウィンドウの付着物を対象としてもよい。この場合、レンズ清掃部27は前方のウィンドウの付着物を除去する装置とする。
(変形例8)
第2〜第4の実施の形態では付着物検出制御部11を備えなくてもよい。その場合は、水滴検出部61および泥検出部62は常時稼働する。本変形例8によれば、水滴検出部61および泥検出部62が稼働中であっても水滴領域情報や泥領域情報を付着物消去管理部12が書き換えて、統合付着物領域を迅速に更新できる利点を有する。
(変形例9)
車載装置4は、水滴検出部61または泥検出部62が付着物を検出しなかった領域の情報を付着物消去領域情報として付着物消去管理部12に出力してもよい。具体的には、水滴検出部61が付着物を検出しなかった領域、および泥検出部62が付着物を検出しなかった領域、すなわち付着物領域記憶部7の各記憶部に記憶されない領域を付着物消去領域として付着物消去管理部12に入力する。
(変形例10)
車両監視部3の車速監視部32は、不図示のGPS受信機から得られる位置情報、および不図示の地図情報から車両1が駐車場に居ると判断する場合は、車速をおおよそゼロとして出力してもよい。この場合は車両1が駐車場に侵入すると、車速がおおよそゼロとして付着物検出制御部11に出力され、状態切り替えテーブル17の記述に従って泥検出部62の動作が停止される。
以上説明した本発明の実施の形態や変形例はあくまで例示に過ぎず、発明の特徴が損なわれない限り本発明はこれらの内容に限定されない。また、以上で説明した実施の形態や変形例は発明の特徴が損なわれない限り組み合わせて実行してもよい。たとえば、第2の実施の形態に含まれる画像認識部20や画像認識領域記憶部21の機能を、第1の実施の形態にある車載装置4に組み込むことができる。
プログラムは不図示のROMに格納されるとしたが、車載装置4が不図示の入出力インタフェースを備え、入出力インタフェースと車載装置4が利用可能な媒体を介して、他の装置からプログラムが読み込まれてもよい。ここで媒体とは、たとえば入出力インタフェースに着脱可能な記憶媒体、または通信媒体、すなわち有線、無線、光などのネットワーク、または当該ネットワークを伝搬する搬送波やディジタル信号、を指す。また、プログラムにより実現される機能の一部または全部がハードウエア回路やFPGAにより実現されてもよい。
1 … 車両
2 … カメラ
4 … 車載装置
6 … 付着物検出部
61 … 水滴検出部
62 … 泥検出部
7 … 付着物領域記憶部
71 … 水滴領域記憶部
72 … 泥領域記憶部
8 … 付着物消去監視部
81 … 水滴消去監視部
82 … 泥消去監視部
11 … 付着物検出制御部
12 … 付着物消去管理部
17 … 状態切替テーブル
20 … 画像認識部
201 … 歩行者検出部
202 … 車両検出部
22 … 消去関係テーブル
23 … 付着物消去検出部
26 … レンズ清掃制御部
41 … 演算処理部
42 … 画像取得部

Claims (15)

  1. レンズを備えるカメラで撮影された画像を取得する画像取得部と、
    記憶部と、
    前記画像取得部が取得した画像に基づき前記レンズの汚れを検出して前記画像における汚れが存在する領域を示す汚れ領域情報を前記記憶部に格納する汚れ検出部と、
    前記レンズの汚れが除去された領域を示す汚れ除去情報を生成する汚れ除去情報生成部と、
    前記汚れ除去情報に基づいて前記汚れ領域情報を書き換える書換え部と、を備える車載装置。
  2. 請求項1に記載の車載装置において、
    前記汚れ検出部、および前記汚れ除去情報生成部は、それぞれ異なるアルゴリズムを用いる車載装置。
  3. 請求項1に記載の車載装置において、
    前記汚れ除去情報生成部は、前記汚れ検出部により検出可能な汚れとは異なる種類の汚れを検出する異種汚れ検出部の検出結果に基づき前記汚れ除去情報を生成する車載装置。
  4. 請求項3に記載の車載装置において、
    前記汚れ検出部は泥を検出し、前記異種汚れ検出部は水滴を検出する車載装置。
  5. 請求項1に記載の車載装置において、
    前記汚れ検出部は、検出する汚れの種類が異なる第1汚れ検出部と第2汚れ検出部とを含み、
    前記第1汚れ検出部は検出した汚れを第1汚れ領域情報として前記記憶部に格納し、
    前記第2汚れ検出部は検出した汚れを第2汚れ領域情報として前記記憶部に格納し、
    前記第1汚れ領域情報に基づき第1汚れ除去情報を生成する第1監視部と、
    前記第2汚れ領域情報に基づき第2汚れ除去情報を生成する第2監視部と、
    前記第1汚れ領域情報が書き換られる条件および前記第2汚れ領域情報が書き換られる条件が記載された消去関係テーブルが格納されるテーブル記憶部と、をさらに備え、
    前記書換え部は、前記消去関係テーブルに記載された条件および前記第1汚れ除去情報に基づき前記第2汚れ領域情報を書き換え、前記消去関係テーブルに記載された条件および前記第2汚れ除去情報に基づき前記第1汚れ領域情報を書き換える車載装置。
  6. 請求項5に記載の車載装置において、
    前記消去関係テーブルに記載される、前記第1汚れ領域情報が書き換られる条件および前記第2汚れ領域情報が書き換られる条件は、少なくとも前記カメラを搭載する車両の速度が含まれる車載装置。
  7. 請求項1に記載の車載装置において、
    前記レンズの清掃動作に基づき、前記清掃動作の対象範囲が汚れが除去された領域として前記汚れ除去情報を生成するレンズ清掃制御部をさらに備える車載装置。
  8. 請求項1に記載の車載装置において、
    前記画像から付着物のない領域を検出し、前記検出した領域に基づき前記汚れ除去情報を生成する非付着物検出部をさらに備える車載装置。
  9. 請求項1に記載の車載装置において、
    前記画像から物体を認識し物体が認識された領域を前記レンズの汚れが除去された領域とする汚れ除去情報を生成する物体認識部をさらに備える車載装置。
  10. 請求項1に記載の車載装置において、
    前記画像から、長時間変化のない無変化領域と、連続して得られた前記画像において輝度差が予め定められた値よりも大きい瞬時変化領域とを検出し、前記瞬時変化領域のうち前記無変化領域に含まれる領域を、前記レンズの汚れが除去された領域とする汚れ除去情報を生成する瞬時変化検出部をさらに備える車載装置。
  11. 請求項1に記載の車載装置において、
    前記書換え部は、前記汚れ検出部が動作していない場合に前記汚れ除去情報に基づいて前記汚れ領域情報を書き換える車載装置。
  12. 請求項11に記載の車載装置において、
    前記カメラを搭載する車両の動作状態と前記汚れ検出部の動作の有無との対応を示す状態切替テーブルと、
    前記車両の動作状態および前記状態切替テーブルに基づき前記汚れ検出部を動作または停止させる動作切り替え部とをさらに備え、
    前記書換え部は、前記車両の動作状態および前記状態切替テーブルに基づき前記汚れ検出部の動作の有無を判断する車載装置。
  13. 請求項1に記載の車載装置において、
    前記書換え部が動作する条件を示す消去関係テーブルが格納されるテーブル記憶部をさらに備え、
    前記消去関係テーブルには、前記カメラを搭載する車両の動作状況が少なくとも含まれ、
    前記書換え部は、前記車両の動作状況、および前記消去関係テーブルに基づき動作する車載装置。
  14. 請求項1に記載の車載装置において、
    前記書換え部は、前記汚れ除去情報と前記汚れ領域情報との関係が所定の条件を満たすと、前記レンズの汚れがすべて除去されたとして前記汚れ領域情報を書き換える車載装置。
  15. 請求項1に記載の車載装置において、
    前記汚れ除去情報には汚れが除去された確からしさを示す確度情報が領域ごとに付加されており、
    前記書換え部は、前記確度情報に基づき前記汚れ領域情報を書き換える車載装置。

JP2016156627A 2016-08-09 2016-08-09 車載装置 Expired - Fee Related JP6576887B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2016156627A JP6576887B2 (ja) 2016-08-09 2016-08-09 車載装置
CN201780047106.9A CN109565536B (zh) 2016-08-09 2017-05-10 车载装置
PCT/JP2017/017746 WO2018029925A1 (ja) 2016-08-09 2017-05-10 車載装置
US16/324,316 US10972639B2 (en) 2016-08-09 2017-05-10 In-vehicle device
EP17839000.1A EP3499862B1 (en) 2016-08-09 2017-05-10 Vehicle-mounted device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016156627A JP6576887B2 (ja) 2016-08-09 2016-08-09 車載装置

Publications (2)

Publication Number Publication Date
JP2018026671A JP2018026671A (ja) 2018-02-15
JP6576887B2 true JP6576887B2 (ja) 2019-09-18

Family

ID=61162066

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016156627A Expired - Fee Related JP6576887B2 (ja) 2016-08-09 2016-08-09 車載装置

Country Status (5)

Country Link
US (1) US10972639B2 (ja)
EP (1) EP3499862B1 (ja)
JP (1) JP6576887B2 (ja)
CN (1) CN109565536B (ja)
WO (1) WO2018029925A1 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6832224B2 (ja) * 2017-04-28 2021-02-24 株式会社デンソーテン 付着物検出装置および付着物検出方法
JP2019018661A (ja) * 2017-07-13 2019-02-07 株式会社デンソーテン 付着物除去装置および付着物除去方法
JP7055624B2 (ja) * 2017-12-01 2022-04-18 ソニー・オリンパスメディカルソリューションズ株式会社 医療用撮像装置
US10752218B2 (en) * 2018-02-22 2020-08-25 Ford Global Technologies, Llc Camera with cleaning system
JP6973298B2 (ja) * 2018-05-31 2021-11-24 トヨタ自動車株式会社 物体監視装置
JP7200572B2 (ja) 2018-09-27 2023-01-10 株式会社アイシン 付着物検出装置
JP7271908B2 (ja) * 2018-11-08 2023-05-12 株式会社アイシン 周辺監視装置
JP7265693B2 (ja) * 2018-12-28 2023-04-27 株式会社デンソーテン 付着物検出装置、および付着物検出方法
JP2020138569A (ja) * 2019-02-26 2020-09-03 アイシン精機株式会社 周辺監視装置
US10771665B1 (en) * 2019-02-27 2020-09-08 Ford Global Technologies, Llc Determination of illuminator obstruction by known optical properties
JP7251425B2 (ja) * 2019-09-20 2023-04-04 株式会社デンソーテン 付着物検出装置および付着物検出方法
JP2021050932A (ja) * 2019-09-20 2021-04-01 株式会社デンソーテン 付着物検出装置、および付着物検出方法
JP7188336B2 (ja) * 2019-09-20 2022-12-13 株式会社デンソーテン 付着物検出装置、および付着物検出方法
JP7319597B2 (ja) * 2020-09-23 2023-08-02 トヨタ自動車株式会社 車両運転支援装置
US20230274554A1 (en) * 2022-02-28 2023-08-31 Continental Autonomous Mobility US, LLC System and method for vehicle image correction

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4678860B2 (ja) * 2006-01-24 2011-04-27 キヤノン株式会社 撮像装置及びその制御方法とプログラム
JP2012038048A (ja) 2010-08-06 2012-02-23 Alpine Electronics Inc 車両用障害物検出装置
WO2014007153A1 (ja) * 2012-07-03 2014-01-09 クラリオン株式会社 車両周囲監視装置
JP6251169B2 (ja) 2012-07-03 2017-12-20 クラリオン株式会社 車載装置、制御装置
JP6120395B2 (ja) * 2012-07-03 2017-04-26 クラリオン株式会社 車載装置
US9922258B2 (en) * 2012-11-27 2018-03-20 Clarion Co., Ltd. On-vehicle image processing apparatus
CN105009561A (zh) * 2013-02-18 2015-10-28 松下知识产权经营株式会社 摄像装置的异物信息检测装置以及异物信息检测方法
JP6231345B2 (ja) * 2013-10-18 2017-11-15 クラリオン株式会社 車両用発進支援装置
EP3149656B1 (en) * 2014-05-27 2020-01-15 Robert Bosch GmbH Detection, identification, and mitigation of lens contamination for vehicle mounted camera systems
JP6374238B2 (ja) * 2014-07-01 2018-08-15 クラリオン株式会社 車載装置

Also Published As

Publication number Publication date
CN109565536B (zh) 2020-11-17
US20190174029A1 (en) 2019-06-06
US10972639B2 (en) 2021-04-06
JP2018026671A (ja) 2018-02-15
EP3499862A1 (en) 2019-06-19
EP3499862B1 (en) 2021-07-28
CN109565536A (zh) 2019-04-02
EP3499862A4 (en) 2020-03-04
WO2018029925A1 (ja) 2018-02-15

Similar Documents

Publication Publication Date Title
JP6576887B2 (ja) 車載装置
JP6117634B2 (ja) レンズ付着物検知装置、レンズ付着物検知方法、および、車両システム
US9956941B2 (en) On-board device controlling accumulation removing units
JP5925314B2 (ja) 車両周囲監視装置
JP6174975B2 (ja) 周囲環境認識装置
JP6055224B2 (ja) レンズ洗浄装置
JP6772113B2 (ja) 付着物検出装置、および、それを備えた車両システム
US9205810B2 (en) Method of fog and raindrop detection on a windscreen and driving assistance device
US20140241589A1 (en) Method and apparatus for the detection of visibility impairment of a pane
US20150334385A1 (en) Vehicle-mounted environment recognition device
JP5902049B2 (ja) レンズ白濁状態診断装置
JP2014013454A (ja) 車載用環境認識装置
US9230189B2 (en) Method of raindrop detection on a vehicle windscreen and driving assistance device

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20170315

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170921

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190813

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190821

R150 Certificate of patent or registration of utility model

Ref document number: 6576887

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees