JP7271908B2 - 周辺監視装置 - Google Patents

周辺監視装置 Download PDF

Info

Publication number
JP7271908B2
JP7271908B2 JP2018210710A JP2018210710A JP7271908B2 JP 7271908 B2 JP7271908 B2 JP 7271908B2 JP 2018210710 A JP2018210710 A JP 2018210710A JP 2018210710 A JP2018210710 A JP 2018210710A JP 7271908 B2 JP7271908 B2 JP 7271908B2
Authority
JP
Japan
Prior art keywords
image
dirt
vehicle
captured
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018210710A
Other languages
English (en)
Other versions
JP2020077251A (ja
Inventor
嘉人 小久保
恵久 末次
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Aisin Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd, Aisin Corp filed Critical Aisin Seiki Co Ltd
Priority to JP2018210710A priority Critical patent/JP7271908B2/ja
Priority to US16/676,584 priority patent/US11393223B2/en
Publication of JP2020077251A publication Critical patent/JP2020077251A/ja
Application granted granted Critical
Publication of JP7271908B2 publication Critical patent/JP7271908B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/72Data preparation, e.g. statistical preprocessing of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明の実施形態は、周辺監視装置に関する。
従来、車両に設置された撮像部(カメラ)により撮像された撮像画像データに基づく撮像画像を表示装置に表示させて車両の周辺の状況を運転者等に認識させたり、その撮像画像データに基づいて障害物の有無検出や接近検出等を実行したりするシステムがある。このようなシステムにおいて、撮像部の撮像面(例えばレンズ)に雨滴や埃、泥はね等の汚れが付着している場合、撮像画像に汚れが写り込み、適切な画像表示ができなかったり、その撮像画像を用いた適切な画像処理や検出処理ができなかったりする場合がある。そこで、撮像画像に対して画像処理を施して、汚れを取り除かれたかのような復元画像を生成して表示したり、他の処理に利用したりするシステムが提案されている。
特開2017-92622号公報
しかしながら、特許文献1のシステムの復元画像は、1枚の撮像画像から復元された画像であり、その復元画像は、実世界の環境状況とは、必ずしも一致しない場合がある。例えば、汚れ部分にしか写ってない物体(汚れで隠蔽された物体)が存在した場合、復元画像に、その物体は再現されず、復元画像の信頼性が低下してしまう場合があった。その結果、例えば、復元画像を周辺情報として表示装置に表示して利用者に提供する場合、正確な情報が提示しきれない場合がある。また、復元画像(データ)を車両周囲の周辺監視(例えば、例えば障害物検出等)に利用する場合、監視信頼性が低下してしまう場合があった。したがって、より実世界の環境状況に近い復元画像を生成できる周辺監視装置が提供できれば、提供情報の品質向上、周辺監視精度の向上が図れて有意義である。
本発明の実施形態にかかる周辺監視装置は、例えば、車両に備えられて上記車両の周囲を撮像可能な撮像部で上記車両が移動している際に時系列的に撮像される複数の撮像画像を取得する取得部と、上記複数の撮像画像のうち最新の最新撮像画像に汚れが存在する場合に、学習用汚れが存在しない第1の学習用画像と、当該第1の学習用画像に上記学習用汚れが存在する、複数の第1の学習用汚れ画像と、の関係を機械学習した結果としての第1の学習済みモデルに、上記取得部によって時系列的に撮像された上記複数の撮像画像を入力して、第1復元画像を上記最新撮像画像において上記汚れにより隠蔽された領域を復元させた復元画像として生成する復元処理部と、を備える。この構成によれば、例えば、第1の学習済みモデルに、車両の移動中に撮像された時系列的に連続する複数の撮像画像を入力して復元画像を生成するので、最新撮像画像で汚れにより隠蔽されている領域でも時系列的に遡った過去の撮像画像では、汚れで隠蔽されていな可能性が高まる。その結果、最新撮像画像の汚れ領域の復元性を向上して、より実世界の環境状況に近い復元画像を生成することができる。
本発明の実施形態にかかる周辺監視装置の上記復元処理部は、例えば、上記第1の学習済みモデルに、上記学習用汚れが存在する、複数の第2の学習用汚れ画像を入力して生成した上記復元画像と、当該復元画像を復元する際に利用した複数の上記第2の学習用汚れ画像のうち最新の最新学習用汚れ画像との関係を、機械学習した結果としての第2の学習済みモデルに、上記第1復元画像と、上記最新撮像画像とを入力して、第2復元画像を上記復元画像として復元してもよい。この構成によれば、例えば、第1の学習済みモデルを用いて一度復元した第1復元画像と、第1復元画像を生成した際に利用した複数の撮像画像のうちの最新撮像画像とを用いて、第2学習済みモデルを用いて再度、復元処理を実行して第2復元画像を生成する。その結果、第2復元画像に最新の周囲状況を反映させることができて、第2復元画像の画像品質の向上ができる。
本発明の実施形態にかかる周辺監視装置の上記復元処理部は、例えば、上記最新撮像画像に存在する上記汚れの大きさを示す汚れ情報を取得し、上記汚れ情報が示す汚れの大きさが、所定の閾値以上の場合、復元処理を非実行としてもよい。この構成によれば、例えば、汚れの大きさが大きすぎる場合、汚れで隠蔽された領域が復元しきれない、不正確な復元画像を提供してしまうことを回避することができる。
本発明の実施形態にかかる周辺監視装置の上記復元処理部は、例えば、上記取得部が上記撮像画像を取得したときの上記車両の速度情報を取得し、上記速度情報の示す車速に応じて、上記閾値を変更してもよい。この構成によれば、例えば、汚れの大きさが大きい場合でも車両の移動速度が高い場合、時系列的に遡った過去画像に最新撮像画像において汚れで隠蔽されている領域が写っている可能性が増加する。逆に、汚れの大きさが小さい場合でも車両の移動速度が低い場合、時系列的に遡った過去画像を参照しても最新撮像画像において汚れで隠蔽されている領域が隠蔽されたままの可能性が増加する。したがって、車速に応じて、閾値を変更することで、復元処理の実行の可否をより適切に判定することができる。
図1は、実施形態にかかる周辺監視装置を搭載可能な車両の一例を示す模式的な平面図である。 図2は、実施形態にかかる周辺監視装置を含む車両制御システムの構成の例示的なブロック図である。 図3は、実施形態にかかる周辺監視装置(周辺監視部)をCPUで実現する場合の構成を例示的に示すブロック図である。 図4は、実施形態にかかる周辺監視装置における第1学習済みモデルの学習イメージを示す例示的かつ模式的な説明図である。 図5は、実施形態にかかる周辺監視装置における第2学習済みモデルの学習イメージを示す例示的かつ模式的な説明図である。 図6は、実施形態にかかる周辺監視装置において復元画像を生成する復元処理のイメージを示す例示的かつ模式的な説明図である。 図7は、実施形態にかかる周辺監視装置における、復元画像の復元処理の流れの一例を示すフローチャートである。
以下、本発明の例示的な実施形態が開示される。以下に示される実施形態の構成、ならびに当該構成によってもたらされる作用、結果、および効果は、一例である。本発明は、以下の実施形態に開示される構成以外によっても実現可能であるとともに、基本的な構成に基づく種々の効果や、派生的な効果のうち、少なくとも一つを得ることが可能である。
本実施形態の周辺監視装置は、例えば、車両に搭載された撮像部のレンズに汚れが付着して、撮像画像に汚れが写り込んでいた場合、この汚れを取り除いたかのような画像、つまり汚れが存在しない状態を復元した復元画像を生成する。そして、復元画像を用いることで、周辺監視装置における周辺監視機能を向上する。
図1は、本実施形態の周辺監視装置が搭載される車両10の模式的な平面図である。車両10は、例えば、内燃機関(エンジン、図示されず)を駆動源とする自動車(内燃機関自動車)であってもよいし、電動機(モータ、図示されず)を駆動源とする自動車(電気自動車、燃料電池自動車等)であってもよいし、それらの双方を駆動源とする自動車(ハイブリッド自動車)であってもよい。また、車両10は、種々の変速装置を搭載することができるし、内燃機関や電動機を駆動するのに必要な種々の装置(システム、部品等)を搭載することができる。また、車両10における車輪12(前輪12F、後輪12R)の駆動に関わる装置の方式、個数、及び、レイアウト等は、種々に設定することができる。
図1に例示されるように、車両10には、複数の撮像部14として、例えば四つの撮像部14a~14dが設けられている。撮像部14は、例えば、CCD(Charge Coupled Device)やCIS(CMOS image sensor)等の撮像素子を内蔵するデジタルカメラである。撮像部14は、所定のフレームレートで動画データ(撮像画像データ)を出力することができる。撮像部14は、それぞれ、広角レンズまたは魚眼レンズを有し、水平方向には例えば140°~220°の範囲を撮影することができる。また、例えば、車両10の外周部に配置される撮像部14(14a~14d)の光軸は斜め下方に向けて設定されている場合もある。よって、撮像部14(14a~14d)は、車両10が移動可能な路面や路面に付されたマーク(矢印や区画線、駐車スペースを示す駐車枠、車線分離線等)や物体(障害物として、例えば、歩行者、他車両等)を含む車両10の外部の周辺環境を逐次撮影し、撮像画像データとして出力する。
撮像部14aは、例えば、車両10の前側、すなわち車両前後方向の前方側で車幅方向のほぼ中央の端部、例えばフロントバンパ10aやフロントグリル等に設けられて、車両10の前端部(例えばフロントバンパ10a)を含む前方画像を撮像可能である。また、撮像部14bは、例えば、車両10の後側、すなわち車両前後方向の後方側で車幅方向のほぼ中央の端部、例えばリヤバンパ10bの上方位置に設けられて、車両10の後端部(例えばリヤバンパ10b)を含む後方領域を撮像可能である。また、撮像部14cは、例えば、車両10の右側の端部、例えば右側のドアミラー10cに設けられて、車両10の右側方を中心とする領域(例えば右前方から右後方の領域)を含む右側方画像を撮像可能である。撮像部14dは、例えば、車両10の左側の端部、例えば左側のドアミラー10dに設けられて、車両10の左側方を中心とする領域(例えば左前方から左後方の領域)を含む左側方画像を撮像可能である。
例えば、撮像部14a~14dで得られた各撮像画像データは、それぞれ演算処理や画像処理を実行することで、車両10の周囲それぞれの方向における画像を表示したり周辺監視を実行したりすることができる。また、各撮像画像データに基づいて、演算処理や画像処理を実行することで、より広い視野角の画像を生成したり、車両10を上方や前方、側方等から見た仮想的な画像(俯瞰画像(平面画像)や側方視画像、正面視画像等)を生成して表示したり、周辺監視を実行したりすることができる。
各撮像部14で撮像された撮像画像データは、上述したように、車両10の周囲の状況を運転者等の利用者に提供するために、車室内の表示装置に表示される。また、撮像画像データは、各種検出や検知を行う処理装置(処理部)に提供され、車両10を制御するために利用することができる。
図2は、車両10に搭載される周辺監視装置を含む車両制御システム100の構成の例示的なブロック図である。車両10の車室内には、表示装置16や、音声出力装置18が設けられている。表示装置16は、例えば、LCD(liquid crystal display)や、OELD(organic electroluminescent display)等である。音声出力装置18は、例えば、スピーカである。また、表示装置16は、例えば、タッチパネル等、透明な操作入力部20で覆われている。使用者(例えば、運転者)は、操作入力部20を介して表示装置16の表示画面に表示される画像を視認することができる。また、利用者は、表示装置16の表示画面に表示される画像に対応した位置で、手指等で操作入力部20を触れたり押したり動かしたりして操作することで、操作入力を実行することができる。これら表示装置16や、音声出力装置18、操作入力部20等は、例えば、車両10のダッシュボードの車幅方向すなわち左右方向の例えば中央部に位置されたモニタ装置22に設けられている。モニタ装置22は、スイッチや、ダイヤル、ジョイスティック、押しボタン等の不図示の操作入力部を有することができる。モニタ装置22は、例えば、ナビゲーションシステムやオーディオシステムと兼用されうる。
また、図2に例示されるように、車両制御システム100(周辺監視装置を含む)は、撮像部14(14a~14d)やモニタ装置22に加え、ECU24(electronic control unit)、車輪速センサ26、舵角センサ28、情報取得部30等が含まれる。車両制御システム100において、ECU24やモニタ装置22、車輪速センサ26、舵角センサ28、情報取得部30等は、電気通信回線としての車内ネットワーク32を介して電気的に接続されている。車内ネットワーク32は、例えば、CAN(controller area network)として構成されている。ECU24は、車内ネットワーク32を通じて制御信号を送ることで、各種システムの制御が実行できる。また、ECU24は、車内ネットワーク32を介して、操作入力部20や各種スイッチの操作信号等、車輪速センサ26、舵角センサ28等の各種センサの検出信号等、情報取得部30が取得可能な位置情報等の情報を、受け取ることができる。なお、車内ネットワーク32には、車両10を走行させるための種々のシステム(操舵システム、ブレーキシステム、駆動システム等)や種々のセンサが接続されているが、図2において、本実施形態の周辺監視装置で必須ではない構成は図示を省略するとともに、その説明を省略する。
ECU24は、撮像部14から取得した撮像画像データに基づいて生成した周辺画像等や音声に関するデータをモニタ装置22へ送信する。ECU24は、例えば、CPU24a(central processing unit)や、ROM24b(read only memory)、RAM24c(random access memory)、表示制御部24d、音声制御部24e、SSD24f(solid state drive、フラッシュメモリ)等を有している。
CPU24aは、ROM24b等の不揮発性の記憶装置に記憶された(インストールされた)プログラムを読み出し、当該プログラムに従って演算処理を実行する。ROM24bは、各プログラム及びプログラムの実行に必要なパラメータ、撮像画像を複製する際に利用する、予め複数のデータを用いて学習させた学習済みモデル等を記憶する。RAM24cは、CPU24aが復元画像の復元処理を実行する際のワークエリアとして使用されるとともに、CPU24aでの演算で用いられる各種のデータ(撮像部14で逐次(時系列的に)撮像される撮像画像データ等)の一時的な格納エリアとして利用される。また、表示制御部24dは、ECU24での演算処理のうち、主として、表示装置16で表示される画像データの合成等を実行する。また、音声制御部24eは、ECU24での演算処理のうち、主として、音声出力装置18で出力される音声データの処理を実行する。SSD24fは、書き換え可能な不揮発性の記憶部であって、ECU24の電源がオフされた場合にあってもデータを記憶することができる。なお、CPU24aや、ROM24b、RAM24c等は、同一パッケージ内に集積されうる。また、ECU24は、CPU24aに替えて、DSP(digital signal processor)等の他の論理演算プロセッサや論理回路等が用いられる構成であってもよい。また、SSD24fに替えてHDD(hard disk drive)が設けられてもよいし、SSD24fやHDDは、ECU24とは別に設けられてもよい。
車輪速センサ26は、車輪12の回転量や単位時間当たりの回転数を検出するセンサである。車輪速センサ26は、各車輪12に配置され、各車輪12で検出した回転数を示す車輪速パルス数をセンサ値として出力する。車輪速センサ26は、例えば、ホール素子などを用いて構成されうる。CPU24aは、車輪速センサ26から取得した検出値に基づいて車両10の車速や加速度等を演算し、各種制御を実行する。CPU24aは、各車輪速センサ26の検出値に基づいて車両10の車速を算出する場合、四輪のうち最も小さな検出値の車輪12の速度に基づき車両10の車速を決定し、各種制御を実行する。なお、車輪速センサ26は、図示を省略したブレーキシステムに設けられている場合もある。その場合、CPU24aは、車輪速センサ26の検出値をブレーキシステムを介して取得してもよい。
舵角センサ28は、例えば、ステアリングホイール等の操舵部の操舵量を検出するセンサである。舵角センサ28は、例えば、ホール素子などを用いて構成される。CPU24aは、運転者による操舵部の操舵量や、例えば駐車支援を実行する際の自動操舵時の前輪12Fの操舵量等を、舵角センサ28から取得して各種制御を実行する。
情報取得部30は、GPS(Global Positioning System)とうから送信されるGPS信号を受信することで車両10の現在の位置を取得したり、外部の情報センタ等が送信する気象情報等を取得したりすることが可能で、取得した情報を各種制御に利用する。なお、車両10の位置情報や外部情報等は、モニタ装置22がナビゲーションシステムを供える場合、ナビゲーションシステム側で取得してもよい。
本実施形態では、ECU24は、ハードウェアとソフトウェア(制御プログラム)が協働することにより、撮像部14で撮像された撮像画像に汚れが存在する場合、その撮像画像から汚れを取り除いたかのような画像、つまり、汚れが存在しない状態を復元した「復元画像」の生成処理(復元処理)を司る。図3は、ECU24に含まれるCPU24aにおいて、実施形態にかかる周辺監視装置(周辺監視部34)が実現される場合の構成を例示的に示すブロック図である。
周辺監視部34は、撮像画像に存在する汚れを取り除いたかのような復元画像を生成する復元処理機能を実現するための各種モジュールを含む。例えば、周辺監視部34は、受付部36、画像取得部38、汚れ情報取得部40、速度取得部42、復元処理部44、報知部46、出力部48等を含む。これらのモジュールは、専用のハードウェアとして構成されてもよい。なお、後述するが復元処理部44で実行するディープラーニング等を用いた処理では膨大な並列計算が必要とされため、例えばGPU(Graphics Processing Unit)やFPGA(Field-Programmable Gate Array)等を活用してもよい。周辺監視部34には、実際に周辺監視処理として、障害物検出や白線検出等を実行するためのモジュールが含まれるが、図3においては、復元処理に必要なモジュール以外は、図示を省略するとともに、その説明を省略する。また、復元処理部44は、第1復元処理部44a、第2復元処理部44b、復元実行判定部44c等の詳細モジュールを含み、復元実行判定部44cは、さらに、閾値変更部44c1を含む。
ROM24bは、CPU24aで実行される各種プログラムの他、予め機械学習によって構築された複数の学習済みモデルを格納する。ROM24bは、例えば、汚れ情報学習済みモデル格納部50、第1学習済みモデル格納部52、第2学習済みモデル格納部54等を含む。汚れ情報学習済みモデル格納部50は、撮像画像に汚れが存在するか否か、その撮像画像に汚れが存在する場合、汚れの位置や大きさ等の汚れ情報を取得する場合に利用する汚れ情報学習済みモデルを格納する。第1学習済みモデル格納部52は、復元処理部44で第1復元画像を生成する場合に利用する第1学習済みモデルを格納する。第2学習済みモデル格納部54は、第1学習済みモデルを用いて復元する第1復元画像の精度をさらに向上する場合に利用する第2学習済みモデルを格納する。なお、ROM24bは、この他、復元処理部44が復元処理を実行するか否かを判定する場合に参照する閾値を格納した閾値データ格納部55を備える。また、RAM24cは、復元処理部44で復元画像を生成する場合に利用する撮像画像として、時系列的に撮像された複数の撮像画像データを一時的に格納しておく、撮像画像格納部56を含む。
汚れ情報学習済みモデル格納部50に格納される汚れ情報学習済みモデルは、汚れ情報取得部40で利用される、復元対象の撮像画像における汚れ(例えば、雨滴等)の存在する確率をピクセル毎に算出するためのモデルである。汚れ情報学習済みモデルを構築する場合、例えば、汚れなしを示す値を「0」とし、汚れありを示す値を「1」とする。そして、学習用画像のピクセル毎に汚れである確からしさを「0~1」の間の評価値で示す。この評価値を用いた学習用画像に基づいて、例えば、ディープラーニング等の機械学習手法によって学習させることで、汚れ情報学習済みモデルを構築する。したがって、撮像部14で撮像した撮像画像(データ)を汚れ情報学習済みモデルに入力することで、評価値が「1」に近いピクセルの多さが判定され、汚れの位置や汚れの大きさ(領域の大きさ)が出力される。
第1学習済みモデル格納部52に格納される第1学習済みモデルは、第1復元処理部44aで利用されるモデルである。第1学習済みモデルは、車両10に備えられた撮像部14で車両10が移動している際に時系列的に撮像される複数の撮像画像のうち、最新撮像画像において汚れにより隠蔽された領域を復元させた第1復元画像を復元画像として生成する場合に利用される。第1学習済みモデルの構築概念を図4に示す。図4に示すように、第1学習済みモデル64は、学習用汚れ62(例えば、雨滴等)が存在しない第1学習用画像58と、この第1学習用画像58に学習用汚れ62を存在させた、複数の第1学習用汚れ画像60と、の関係を例えば、ディープラーニング等の機械学習手法によって学習させたモデルである。第1学習済みモデル64を用いた復元処理の詳細は後述する。
第2学習済みモデル格納部54に格納される第2学習済みモデルは、第2復元処理部44bで利用されるモデルである。第2学習済みモデルは、第1学習済みモデル64で生成した第1復元画像と、第1復元画像を生成する際に入力した複数の撮像画像のうち最新撮像画像とに基づいて、より復元精度の高い第2復元画像を復元画像として復元する際に利用される。第2学習済みモデルの構築概念を図5に示す。図5に示すように、第2学習済みモデル74は、第1学習済みモデル64に、学習用汚れが存在する、複数の第2学習用汚れ画像66を入力して生成した復元画像68(第1復元画像)と、当該復元画像68を復元する際に利用した複数の第2学習用汚れ画像66のうち最新の最新学習用汚れ画像66aとの関係を、例えば、ディープラーニング等の機械学習手法によって学習させたモデルである。第2学習済みモデル74は、第1学習済みモデル64によって生成される復元画像68において発生する、ぼやけや不連続等の不自然領域70を最新学習用汚れ画像66aで汚れ72の存在しない鮮明部分(エッジがきれいに出ている部分)の情報を用いて復元するものである。第2学習済みモデル74を用いた復元処理の詳細は後述する。
図3に戻り、受付部36は、復元画像の生成が要求される場合の要求信号を受け付ける。復元画像の生成は、例えば、車両10の走行中、撮像画像に汚れが検出された場合に自動的に実行されてもよい(自動復元モード)。また、車両10の利用者(例えば、運転者)が操作入力部20等を介して希望するタイミング(例えば、表示装置16に表示されている画像が汚れで見にくくなった場合等)に復元画像の生成を手動で実行させてもよい(手動復元モード)。受付部36は、復元画像の生成が自動的に要求される場合は、周辺監視部34側からの要求信号を受付け、復元画像の生成が手動で要求される場合は、操作入力部20等からの操作信号を車内ネットワーク32を介して受け付ける。
画像取得部38は、各撮像部14で撮像された撮像画像データをフレーム毎に取得し、RAM24cの撮像画像格納部56に格納する。画像取得部38は、車両10(ECU24)の電源がONの場合に撮像部14で撮像される撮像画像データを逐次取得することができる。画像取得部38は、各撮像部14(14a~14d)が撮像した撮像画像データを撮像部14毎に識別して取得し、撮像画像格納部56に格納する。したがって、撮像画像格納部56には、各撮像部14毎に時系列的に連続するフレームデータとして撮像画像データが格納される。撮像画像格納部56は、一定期間、例えば、3~5秒分の撮像画像データが格納可能で、逐次新しい撮像画像データを上書する。したがって、撮像画像格納部56は、最新撮像画像および最新撮像画像から時系列的に所定期間遡った複数の過去画像を復元処理部44に提供することができる。また、撮像画像格納部56が、撮像画像データを一定期間格納する場合の別の例として、例えば、撮像画像格納部56は、車両10が一定距離走行する間の撮像画像データを格納するようにしてもよい。
汚れ情報取得部40は、撮像画像に汚れが存在するか否か、および汚れが存在する場合は、その汚れの位置や大きさを、ROM24bの汚れ情報学習済みモデル格納部50から読み出した汚れ情報学習済みモデルに撮像画像を入力することで取得する。汚れ情報取得部40は、取得した汚れ情報を逐次復元処理部44に提供する。汚れが、例えば、泥はねや埃の付着の場合、車両10が走行する場合でも撮像部14のレンズ上で移動する可能性は低い。一方、汚れが雨滴等のように容易に移動したり変形したりするものの場合、車両10の走行時に受ける風圧等により撮像部14のレンズ上で汚れが移動したり、大きさが変化したりする可能性がある。そのため、汚れ情報取得部40は、少なくとも復元処理部44が復元処理を実行している間は、撮像画像毎に汚れ情報の取得を逐次実行する。
速度取得部42は、車輪速センサ26の検出値に基づき、車両10の現在の車速や加速度を取得する。速度取得部42は、車両10の車速を復元処理部44に提供し、復元処理部44において、復元処理を実行するか否かを判定する場合に利用される。
復元処理部44は、復元対象の撮像画像の復元を行う場合、第1復元処理部44aと第2復元処理部44bとを用いた二段階処理を実行する。図6は、復元処理部44において第1復元処理部44aと第2復元処理部44bとを用いて二段階で復元処理を実行する場合にイメージを示す例示的かつ模式的な説明図である。なお、図6は、復元対象の撮像画像として、撮像部14のうち撮像部14bで撮像した後方画像を復元する場合を一例として示している。
まず、第1復元処理部44aは、撮像部14(撮像部14b)で逐次撮像され、RAM24cの撮像画像格納部56に時系列的に格納された複数の撮像画像76を第1学習済みモデル64に入力する。この場合、撮像画像76に存在する汚れ78(例えば、雨滴)の位置や大きさに関する汚れ情報は、汚れ情報取得部40から提供される汚れ情報に基づいて認識可能であり、第1学習済みモデル64では、汚れ78の存在する可能性の高い領域に対して復元処理が順次実行されることになる。この場合、復元処理は、時系列的な複数の撮像画像76のうち最新の最新撮像画像76aに対して実行される。このとき、走行する車両10の撮像部14で撮像された、最新撮像画像76aより時系列的に過去の過去画像76bには、最新撮像画像76a上に存在する汚れ78で隠蔽された領域が、汚れ78で隠蔽されることなく写っている可能性がある。したがって、第1学習済みモデル64は、複数の過去画像76bの情報が入力されることにより、汚れ78で隠蔽された領域が高確率で復元された第1復元画像80の生成が可能となり、復元画像の品質を向上することができる。
ところで、第1学習済みモデル64は、前述したように、最新撮像画像76aに加え複数の過去画像76bを用いて第1復元画像80を生成するため、汚れ78が存在しない領域にも復元処理の影響がでて、第1復元画像80において、ぼやけたり、不連続になったりする不自然領域82が生じる場合がある。そこで、第2復元処理部44bは、第1学習済みモデル64によって生成された第1復元画像80と、この第1復元画像80を生成する際の使用した複数の撮像画像76のうち最新撮像画像76aとを第2学習済みモデル74に入力して第2復元画像84を生成する。この場合、第2復元画像84の復元の際に第1復元画像80に対して最もエッジが際立っている可能性の高い最新撮像画像76aを考慮させることにより、不自然領域82を修正したより鮮明な第2復元画像84を復元画像として生成することができる。
図3に戻り、復元処理部44は、復元実行判定部44cを備える。復元処理部44は、上述したように、最新撮像画像76aおよび過去画像76bを含む複数の撮像画像76を用いて復元処理を実行する。この場合、復元処理に利用できる過去画像76bは、最新撮像画像76aに写っているものが含まれるものに限られる。車両10が走行している場合、例えば、数秒前までに撮像された過去画像76bに限られる。このように、利用できる過去画像76bに制限がある状況では、最新撮像画像76aに存在する汚れ78が大きい場合、最新撮像画像76aおよび過去画像76bからなる複数の撮像画像76を用いて復元処理を実行しても十分な復元ができない場合がある。例えば、汚れ78が、所定の閾値で示す大きさを超えている場合、過去画像76bにおいても汚れ78で隠蔽され続いている物体が存在する可能がある。このような場合、最新撮像画像76aにおいて汚れ78が隠蔽している領域を十分に復元することができないため、復元処理部44による復元処理の実行は望ましくない。そこで、復元実行判定部44cは、復元条件が満たされない場合、復元処理を非実行としている。復元実行判定部44cは、汚れ情報取得部40が取得する汚れ情報に含まれる最新撮像画像76aの汚れの大きさと、所定の閾値と、の比較を行い、汚れの大きさが閾値以上の場合、十分な汚れ部分の復元が不可能であると判定し、第1復元処理部44a、第2復元処理部44bにおける復元処理を非実行とする。
なお、この場合、閾値は一定値としてもよいが、車両10の速度によって、復元ができる場合とできない場合が生じることがある。例えば、汚れ78の大きさが大きい場合でも車両10の移動速度が高い場合、最新撮像画像76aで隠蔽の原因になっている汚れ78が、過去画像76bでは最新撮像画像76aの隠蔽領域から離れた位置を隠蔽している可能性が高くなる。つまり、車両10の移動量が大きい場合、時系列的に遡った過去画像76bに、最新撮像画像76aにおいて汚れ78で隠蔽されている領域が写っている可能性が増加する。逆に、汚れ78の大きさが小さい場合でも車両10の移動速度が低い場合、最新撮像画像76aと過去画像76bとで汚れ78の移動量が小さい。そのため、時系列的に遡った過去画像76bを参照しても最新撮像画像76aにおいて汚れ78で隠蔽されている領域が隠蔽されたままの可能性が増加する。したがって、閾値変更部44c1は、車両10の車速と汚れ78との大きさに応じて、復元の可否を判定する場合の閾値を変更する。閾値変更部44c1は、車両10の車速と汚れ78の大きさと閾値とを関連付けた閾値マップをROM24bの閾値データ格納部55から読み出す。そして、閾値変更部44c1は、第1復元処理部44a、第2復元処理部44bにおける復元処理実行時に、速度取得部42から車両10の現在の車速を取得するとともに、汚れ情報取得部40が取得した汚れ情報から汚れ78の大きさを取得して、閾値マップを参照する。そして、閾値変更部44c1は、現在の状況において復元の可否を判定するための最も適した閾値を決定(変更)して、第1復元処理部44a、第2復元処理部44bに提供する。第1復元処理部44a、第2復元処理部44bでは、提供された閾値に基づき復元処理を実行するか否かの判定を行う。
報知部46は、復元処理が実行されている場合に、復元中であること利用者(例えば、運転者)に報知する。前述したように、復元処理は、自動復元モードで実施される場合と、手動復元モードで実施される場合がある。特に、自動復元モードで復元画像が生成されている場合、利用者が気づかないうちに、復元画像が表示装置16に表示されていたり、障害物検出等の周辺監視に利用されていたりする場合がある。したがって、復元画像の表示や復元画像に基づく制御が実行されていることを利用者に報知することで、復元画像を利用しつつも利用者に周辺確認の必要性を意識させて、復元画像を利用する場合の利用者の安心感の向上を行う。報知は、例えば、表示装置16上に文字メッセージやアイコン表示等で行ったり、表示装置16の表示態様(背景色や枠色の変更等)を復元処理の非実行時と異ならせたりすることで行うことができる。また、音声出力装置18を用いて音声報知を組み合わせて行ってもよい。なお、音声報知を行う場合は、過剰報知にならないように音声報知の回数を制限したり、徐々に音量を下げたりすることが望ましい。手動復元モードの場合、利用者は、復元処理の実行を認識しているので、基本的には、報知部46による報知は不要であるが、自動復元モード時と同様に報知を実行してもよい。
出力部48は、復元処理部44で生成された復元画像を表示制御部24dに出力し、表示装置16で表示させたり、他のモジュール、例えば、障害物検出モジュールや白線検出モジュール等に復元画像(データ)を提供し、それぞれの検出処理を実行させたりする。
なお、図3に示すブロック図は、機能毎に分類したモジュールで記載しているが、各機能を適宜統合したり、分割したりしてもよい。例えば、第1復元処理部44aと第2復元処理部44bの機能を一つの復元処理部で実行してもよい。
以上のように構成される周辺監視装置(周辺監視部34)による撮像画像の復元処理の流れの一例を図7のフローチャートを用いて説明する。なお、図7のフローチャートでは、復元する撮像画像として、例えば、撮像部14bが撮像した後方画像が選択されているものとする。
まず、車両10(ECU24)の電源がONされると、画像取得部38は、撮像部14を動作させ撮像画像の取得を開始し(S100)、逐次RAM24cの撮像画像格納部56の格納して行く。そして、汚れ情報取得部40は、撮像部14で撮像された撮像画像に対して、汚れ情報の取得を開始する(S102)。すなわち、撮像画像を、汚れ情報学習済みモデル格納部50から呼び出した汚れ情報学習済みモデルに順次入力して、汚れの有無および汚れが存在する場合、その汚れの大きさと位置を示す汚れ情報を取得する。
続いて、受付部36は、復元要求信号を受け付けているか否か確認する(S104のNo)。受付部36は、例えば、利用者が操作入力部20等を介して復元画像の生成を要求した場合、または汚れ情報取得部40が取得した汚れ情報に基づき汚れを検出した場合に、復元要求信号を受け付ける(S104のYes)。速度取得部42は、受付部36が復元要求信号を受け付けると、現在の車両10の車速の取得を開始する(S106)。そして、復元実行判定部44cは、現在の状況において、撮像画像を復元する復元開始条件が成立しているか否か判定する(S108)。具体的には、閾値変更部44c1は、汚れの大きさおよび車両10の車速に基づき、汚れによって隠蔽された領域の復元が可能か否かを判定する閾値を決定(変更)する。復元実行判定部44cは、復元対象の撮像画像の汚れの大きさが閾値変更部44c1で決定(変更)された閾値未満の場合、復元開始条件が成立したと判定し(S108のYes)、報知部46は、復元処理が手動復元モードで要求されたか否か判定する(S110)。復元処理が自動復元モードで要求された場合(S110のNo)、報知部46は、復元処理が自動で行われていることを利用者に報知する自動復元報知を実行する(S112)。例えば、表示装置16上で復元画像の表示を行うことを示すメッセージをROM24b等から読み出す。また、障害物検出モジュールや白線検出モジュール等に提供する復元実行フラグをONする。
続いて、復元処理部44は、RAM24cの撮像画像格納部56に格納した時系列の撮像画像から現時点における最新撮像画像76aおよび過去画像76bを含む時系列の複数の撮像画像76を取得する(S114)。続いて、復元実行判定部44cは最新撮像画像76aにおける汚れ78の大きさを汚れ情報取得部40から取得するとともに(S116)、速度取得部42から現在の車両10の車速を取得する(S118)。そして、閾値変更部44c1は、閾値データ格納部55から読み出した閾値マップを参照して、最新撮像画像76aの汚れ78で隠蔽された領域の復元が可能か否かを判定するための閾値を汚れ78の大きさおよび車速に基づき変更する(S120)。そして、復元実行判定部44cが最新撮像画像76aの復元が可能であると判定した場合(S122のYes)、つまり、復元条件が成立している場合、復元処理部44は、復元処理を実行する(S124)、つまり、第1復元処理部44aは、最新撮像画像76aおよび過去画像76bからなる時系列的に撮像された撮像画像76を、第1学習済みモデル格納部52から読み出した第1学習済みモデル64に入力し、第1復元画像80を生成する。続いて、第2復元処理部44bは、生成された第1復元画像80と第1復元画像80を生成する場合に用いた最新撮像画像76aとを、第2学習済みモデル格納部54から読み出した第2学習済みモデル74に入力し、第2復元画像84を生成する。そして、出力部48は、生成された第2復元画像84を表示装置16で表示する場合は、表示制御部24dに出力する。また、障害物検出処理や白線検出処理が実行中の場合は、障害物検出モジュールや白線検出モジュール等に第2復元画像84(復元画像データ)を出力する(S126)。
そして、復元実行判定部44cは、受付部36が復元処理の終了を示す終了要求信号を受け取ったり、車両10(ECU24)の電源がOFFされたりする、復元終了条件が成立しているか否か確認する(S128)。復元終了条件が成立している場合(S128のYse)、このフローを終了する。なお、この場合、周辺監視部34は、撮像部14で撮像した未復元の撮像画像を表示装置16に表示するようにするとともに、障害物検出モジュールや白線検出モジュール等に未復元の撮像画像データを提供する旨の通知(復元フラグのOFF)を行う。また、復元終了条件が成立していない場合(S128のNo)、S114に移行し、復元処理部44のよる復元処理を継続する。
また、S122において、汚れ78の大きさの変化や車速の変化により、最新撮像画像76aの汚れ78で隠蔽された領域の復元が十分に実行できないと判定された場合(S122のNo)、つまり、復元条件が不成立となって場合、復元不可であることを示すメッセージを表示装置16等を介して報知し(S130)、一旦このフローを終了する。また、S108において、復元開始条件が成立しない場合(S108のNo)、S130に移行して、復元不可報知を行い、このフローを一旦終了する。なお、図7に示すフローチャートは,一例であり、同様な撮像画像における汚れに隠蔽され領域の復元ができれば、処理の順番や内容を変更してもよい。
このように本実施形態の周辺監視装置(周辺監視部34)によれば、車両の移動中に撮像された時系列的な複数の撮像画像を学習済みモデルに入力して、復元画像を生成するので、より実世界の環境状況に近い復元画像が提供できる。その結果、周辺監視のための提供情報の品質向上、周辺監視精度の向上が図れる。
なお、上述した実施形態では、復元処理の実行の可否を汚れ78の大きさと車両10の車速により決定(変更)される閾値に基づいて判定したが、例えば、車両10の操舵角や加速度等を考慮して閾値を変更してもよい。例えば、舵角センサ28の検出値に基づき、車両10が方向を大きく変えていることが検出された場合を考える。この場合、汚れの大きさが大きい場合や車速が遅い場合でも、最新撮像画像76aで汚れ78により隠蔽されている領域でも時系列的に遡った過去画像76bでは、汚れ78で隠蔽されていな可能性が高まる。車両10が加速された場合も同様である。したがって、舵角情報や加速度情報を用いることにより、閾値の最適化が可能になり、より適切に復元処理を実行することができる。また、情報取得部30から取得可能な車両10の位置情報や車両10が存在する場所の天候情報を考慮して閾値を変更してもよい。例えば、激しい雨天で、撮像画像76上の雨滴の数が極端に多いと判定される場合、各汚れ(雨滴)の大きさが小さい場合でも、復元処理を非実行とするように閾値を変更してもよい。
また、上述した実施形態では、例えば、後方画像について、汚れが存在しないかのように復元した例を示したが、他の撮像画像、例えば、前方画像、右側方画像、左側方画像についても、同様な処理により復元処理を実行することが可能で、同様の効果を得ることができる。また、俯瞰画像等の合成画像に対しても本実施形態の復元処理が適用可能であり、同様の効果を得ることができる。この場合、復元対象の撮像画像や合成画像は、操作入力部20等により指定するようにしてもよいし、表示装置16に表示する画像や周辺監視で用いる画像データに応じて自動的に選択されるようにしてもよい。
本実施形態の周辺監視部34(CPU24a)で実行される復元処理のための周辺監視プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD-ROM、フレキシブルディスク(FD)、CD-R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。
さらに、周辺監視プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、本実施形態で実行される周辺監視プログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。
本発明の実施形態及び変形例を説明したが、これらの実施形態及び変形例は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
10…車両、14,14a,14b,14c,14d…撮像部、16…表示装置、24…ECU、24a…CPU、24b…ROM、24c…RAM、26…車輪速センサ、28…舵角センサ、30…情報取得部、34…周辺監視部、36…受付部、38…画像取得部、40…汚れ情報取得部、42…速度取得部、44…復元処理部、44a…第1復元処理部、44b…第2復元処理部、44c…復元実行判定部、44c1…閾値変更部、46…報知部、48…出力部、50…汚れ情報学習済みモデル格納部、52…第1学習済みモデル格納部、54…第2学習済みモデル格納部、55…閾値データ格納部、56…撮像画像格納部、58…第1学習用画像、60…第1学習用汚れ画像、62…学習用汚れ、64…第1学習済みモデル、66…第2学習用汚れ画像、66a…最新学習用汚れ画像、68…復元画像、70,82…不自然領域、72,78…汚れ、74…第2学習済みモデル、76…撮像画像、76a…最新撮像画像、76b…過去画像、80…第1復元画像、84…第2復元画像。

Claims (4)

  1. 車両に備えられて前記車両の周囲を撮像可能な撮像部で前記車両が移動している際に時系列的に撮像される複数の撮像画像を取得する取得部と、
    前記複数の撮像画像のうち最新の最新撮像画像に汚れが存在する場合に、学習用汚れが存在しない第1の学習用画像と、当該第1の学習用画像に前記学習用汚れが存在する、複数の第1の学習用汚れ画像と、の関係を機械学習した結果としての第1の学習済みモデルに、前記取得部によって時系列的に撮像された前記複数の撮像画像を入力して、第1復元画像を前記最新撮像画像において前記汚れにより隠蔽された領域を復元させた復元画像として生成する復元処理部と、
    を備える、周辺監視装置。
  2. 前記復元処理部は、前記第1の学習済みモデルに、前記学習用汚れが存在する、複数の第2の学習用汚れ画像を入力して生成した前記復元画像と、当該復元画像を復元する際に利用した複数の前記第2の学習用汚れ画像のうち最新の最新学習用汚れ画像との関係を、機械学習した結果としての第2の学習済みモデルに、前記第1復元画像と、前記最新撮像画像とを入力して、第2復元画像を前記復元画像として復元する、請求項1に記載の周辺監視装置。
  3. 前記復元処理部は、前記最新撮像画像に存在する前記汚れの大きさを示す汚れ情報を取得し、前記汚れ情報が示す汚れの大きさが、所定の閾値以上の場合、復元処理を非実行とする、請求項1または請求項2に記載の周辺監視装置。
  4. 前記復元処理部は、前記取得部が前記撮像画像を取得したときの前記車両の速度情報を取得し、前記速度情報の示す車速に応じて、前記閾値を変更する、請求項3に記載の周辺監視装置。
JP2018210710A 2018-11-08 2018-11-08 周辺監視装置 Active JP7271908B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018210710A JP7271908B2 (ja) 2018-11-08 2018-11-08 周辺監視装置
US16/676,584 US11393223B2 (en) 2018-11-08 2019-11-07 Periphery monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018210710A JP7271908B2 (ja) 2018-11-08 2018-11-08 周辺監視装置

Publications (2)

Publication Number Publication Date
JP2020077251A JP2020077251A (ja) 2020-05-21
JP7271908B2 true JP7271908B2 (ja) 2023-05-12

Family

ID=70552263

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018210710A Active JP7271908B2 (ja) 2018-11-08 2018-11-08 周辺監視装置

Country Status (2)

Country Link
US (1) US11393223B2 (ja)
JP (1) JP7271908B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7156225B2 (ja) * 2019-09-20 2022-10-19 株式会社デンソーテン 付着物検出装置および付着物検出方法
TWI767300B (zh) * 2020-08-18 2022-06-11 廣達電腦股份有限公司 運算裝置及視訊影像的雨滴去除方法
CN113177892A (zh) * 2021-04-29 2021-07-27 北京百度网讯科技有限公司 生成图像修复模型的方法、设备、介质及程序产品

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017092622A (ja) 2015-11-06 2017-05-25 クラリオン株式会社 画像処理システム
WO2018197984A1 (ja) 2017-04-28 2018-11-01 株式会社半導体エネルギー研究所 表示システムおよび移動体

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4326999B2 (ja) * 2003-08-12 2009-09-09 株式会社日立製作所 画像処理システム
JP5887219B2 (ja) * 2012-07-03 2016-03-16 クラリオン株式会社 車線逸脱警報装置
JP6117634B2 (ja) * 2012-07-03 2017-04-19 クラリオン株式会社 レンズ付着物検知装置、レンズ付着物検知方法、および、車両システム
US9445057B2 (en) * 2013-02-20 2016-09-13 Magna Electronics Inc. Vehicle vision system with dirt detection
EP2899692B1 (en) * 2014-01-28 2019-09-04 Honda Research Institute Europe GmbH Method, system, imaging device, movable device and program product for detecting static elements in video and image sources
JP6246014B2 (ja) * 2014-02-18 2017-12-13 クラリオン株式会社 外界認識システム、車両、及びカメラの汚れ検出方法
JP6576887B2 (ja) * 2016-08-09 2019-09-18 クラリオン株式会社 車載装置
US10339812B2 (en) * 2017-03-02 2019-07-02 Denso International America, Inc. Surrounding view camera blockage detection

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017092622A (ja) 2015-11-06 2017-05-25 クラリオン株式会社 画像処理システム
WO2018197984A1 (ja) 2017-04-28 2018-11-01 株式会社半導体エネルギー研究所 表示システムおよび移動体

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Bartosz Zielinski et al.,"Cascade context encoder for improved inpainting",[online],2018年03月11日,arXiv:1803.04033v1,<https://arxiv.org/pdf/1803.04033.pdf>
David Eigen et al.,"Restoring an Image Taken through a Window Covered with Dirt or Rain",2013 IEEE International Conference on Computer Vision,IEEE,2013年,pp.633-640,<https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=6751188>

Also Published As

Publication number Publication date
US20200151466A1 (en) 2020-05-14
US11393223B2 (en) 2022-07-19
JP2020077251A (ja) 2020-05-21

Similar Documents

Publication Publication Date Title
US9902323B2 (en) Periphery surveillance apparatus and program
JP4687411B2 (ja) 車両周辺画像処理装置及びプログラム
JP2016097896A (ja) 画像表示制御装置
JP7200572B2 (ja) 付着物検出装置
JP7271908B2 (ja) 周辺監視装置
JP2020043400A (ja) 周辺監視装置
US11383642B2 (en) Display control apparatus
WO2017122654A1 (ja) 運転支援装置及び運転支援方法
JP5680436B2 (ja) 車載カメラレンズ用異物付着判定装置
US11017245B2 (en) Parking assist apparatus
CN112581381A (zh) 周边监视装置以及周边监视方法
JP2016189576A (ja) 画像表示制御装置
JP2013244852A (ja) 駐車支援装置、駐車支援方法およびそのプログラム
WO2016072300A1 (ja) 車両周辺画像表示装置、車両周辺画像表示方法
US20200273153A1 (en) Surroundings monitoring apparatus
US20210042541A1 (en) Specific area detection device
JP7395913B2 (ja) 物体検知装置
JP2019153932A (ja) 汚れ報知装置
JP7454177B2 (ja) 周辺監視装置、およびプログラム
JP7137356B2 (ja) 車載用故障検出装置、及び故障検出方法
JP6965563B2 (ja) 周辺監視装置
JP2012174181A (ja) 立体物検知装置および立体物検知方法
JP3947117B2 (ja) 車両周辺画像処理システム
JP2021166021A (ja) 情報処理装置および情報処理プログラム
JP2022009331A (ja) 周辺監視装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210921

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230328

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230410

R150 Certificate of patent or registration of utility model

Ref document number: 7271908

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150