JP6257792B2 - カメラの被覆状態の認識方法、カメラシステム、及び自動車 - Google Patents

カメラの被覆状態の認識方法、カメラシステム、及び自動車 Download PDF

Info

Publication number
JP6257792B2
JP6257792B2 JP2016552682A JP2016552682A JP6257792B2 JP 6257792 B2 JP6257792 B2 JP 6257792B2 JP 2016552682 A JP2016552682 A JP 2016552682A JP 2016552682 A JP2016552682 A JP 2016552682A JP 6257792 B2 JP6257792 B2 JP 6257792B2
Authority
JP
Japan
Prior art keywords
image
camera
pixels
covered
luminance value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016552682A
Other languages
English (en)
Other versions
JP2016537934A (ja
Inventor
ロバート ヴォロス
ロバート ヴォロス
シアラン ヒューズ
シアラン ヒューズ
デブ ヤダブ
デブ ヤダブ
Original Assignee
アプリケーション・ソリューションズ・(エレクトロニクス・アンド・ヴィジョン)・リミテッド
カウナット エレクトロニックス リミテッド
カウナット エレクトロニックス リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アプリケーション・ソリューションズ・(エレクトロニクス・アンド・ヴィジョン)・リミテッド, カウナット エレクトロニックス リミテッド, カウナット エレクトロニックス リミテッド filed Critical アプリケーション・ソリューションズ・(エレクトロニクス・アンド・ヴィジョン)・リミテッド
Publication of JP2016537934A publication Critical patent/JP2016537934A/ja
Application granted granted Critical
Publication of JP6257792B2 publication Critical patent/JP6257792B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、自動車のカメラの被覆、すなわち覆われた状態を認識する方法に関する。それに加えて、本発明は、このような方法を実行するカメラシステムのほか、このようなカメラシステムを備える自動車に関する。
自動車用カメラシステムはすでに先行技術である。通常、これらは自動車に取り付けられ、自動車の周囲領域を撮影する少なくとも1つのカメラを含む。すると、このようなカメラは周囲領域の画像を提供し、この画像は電子コンピューティングデバイスによって処理可能である。すると、その画像に基づいて、コンピューティングデバイスは自動車における様々な機能を提供でき、それゆえ、自動車の運転において運転者を支援する。既知の機能は、撮影された画像を自動車内部のディスプレイ上に表示することである。他の機能によれば、例えば自動車の周囲にある障害物の検出も可能であり、それに応じで運転者に警告できる。
カメラのレンズが汚れ(泥、水滴、又はその他)によって遮蔽され、又は覆われて、撮影された画像により自動車の周囲領域ではなく、例えば黒い点しか提示されなくなる、という事態が起こりうる。その点で、レンズは水滴により覆われることがありえ、又はカメラの覆われた状態は汚れによっても生じることがある。一般に、ある状態は、カメラのレンズが汚れにより遮蔽されているというカメラの遮蔽状態により理解される。
先行技術から、カメラのこのような遮蔽状態を検出するのに役立つ方法がすでに知られている。それゆえ、例えば欧州特許第1 826 648 A2号には、カメラのレンズ上の水滴の認識を可能にする方法が記載されている。その一方で、そこでは、例えば霧や雨等の大気成分が画像処理装置によって検出できるようになされている。これは、画像の歪みのほか、フォーカスエラーに基づいて検出される。
本発明は、覆われた状態が、ハイパスフィルタによって処理された画像に基づいて検出されるような方法から始まっている。この種の方法は例えば、国際特許出願公開第2010/038223 A1号の文献から知られており、カメラのレンズの汚れ状態を検出するのに役立つ。撮影された画像シーケンスにハイパスフィルタ処理が行われ、画像中の所定の画像領域がハイパスフィルタにより検出可能である。比較的低い空間周波数の画像領域(エッジ又は隅部がまったく、又はほとんどない)が、レンズの汚れの可能性と解釈される。
欧州特許第1 826 648 A2号 国際特許出願公開第2010/038223 A1号
画像のハイパスフィルタ処理によるカメラの被覆状態の検出において、先行技術では2つの問題が生じている。
第1の問題は、カメラ−すなわちレンズ−が不透明な物体によって覆われ、そこを通じて、カメラにまったく光が入らないか、わずかな光しか入らない場合に生じる。カメラのレンズ上にこのような不透明な塊があると、イメージセンサは光をまったく検出せず、そのため、画素は基本的に黒い。したがって、画素の輝度値の平均は比較的低い。原則として、このような暗い画像には、特にイメージセンサのアナログ増幅器によるノイズ信号だけが含まれる。このノイズによって高周波数画像成分が生成され、これはアルゴリズムにより、カメラが覆われていると誤って解釈される。換言すれば、ノイズの結果として、画像内で高周波数成分が検出されうるという事実がもたらされ、それによって今度はカメラが覆われていないという仮定につながる。このように、不透明な物体によってアルゴリズムが失敗に終わる。
第2の問題は、カメラのレンズが、例えば水滴やその他の透明な物体により被覆されている場合に発生しうる。基本的に、このような透明な物体は画像のハイパスフィルタ処理により検出される。しかしながら、例外的な場合にはアルゴリズムが失敗に終わることがあり、すなわちこれはその場に非常に明るい光源がある場合である。この例外的場合において、光は透明な水滴を通ってカメラに入り、それが個別の画素の、いわゆる飽和の原因となる。このような飽和は、ある画素の輝度値が最大可能輝度値(デジタル範囲)に設定されることを示唆しており、それは、この画素の実際の輝度が最大可能値より高くなるからである。すなわち、画素の輝度値は通常、0〜255(8ビット)のデジタル数値範囲内である。しかしながら、それゆえ、この数値範囲より大きい輝度値を持つ画素が検出されると、この画素の輝度値は255の最大値に設定される。すると、この画素は「飽和画素」と呼ばれる。それゆえ、このような飽和画素が今度は被覆されたカメラ上で検出されると、画素の飽和の結果として、この画像領域内で比較的大きい輝度差が生じ、したがってエッジが検出されうるという事実がもたらされる。このようなエッジは高周波数画像部分を提示するため、カメラの被覆状態の認識は誤りであると推定される。
それゆえ、追加のソリューション、すなわち、これらの2つの状況の検出方法を見出すことが特に課題である。
本発明の目的は、自動車のカメラの被覆状態を認識するための、先行技術より改良された方法、カメラシステム、及び自動車を提供することである。
本発明によれば、この目的は、特許請求の範囲のそれぞれの独立項に記載の特徴を有する方法、カメラシステム、及び自動車によって達成される。本発明の有利な実施例は、従属項、説明、及び図面の主旨である。
本発明による方法は、自動車のカメラの被覆状態を認識するのに役立つ。自動車の周囲領域の画像がカメラによって提供される。すると、その画像の少なくとも1つの画像領域内の画素のそれぞれの輝度値が測定される。好ましくは、YUV色空間内のY値が輝度値として測定される。その後、この少なくとも1つの画像領域の中で、輝度値に関する所定の基準を満たす画素の数が測定される。換言すれば、所定の基準を満たす輝度値を有する画素の数が測定される。次に、この数に応じて、カメラが被覆されているか、被覆されていないかがチェックされる。
それゆえ、基準に応じて、例えば特に、カメラが不透明な物体により被覆されている状態のほか、飽和画素により高周波数画像部分が生じている状態等、様々な状態を検出できる。本発明による方法は例えば、画像のハイパスフィルタ処理により被覆状態を検出できるアルゴリズムの補足として使用できる。本発明による方法によって、カメラが不透明な物体により被覆されているか否かを明言できるようになり、及び/又は飽和画素により、ハイパスフィルタ処理に依存した被覆状態の検出が不可能となる。
特に、カメラは、人の目に見えるスペクトル範囲内の光の検出のために形成された画像撮影装置である。カメラは、CCDカメラ又はCMOSカメラとすることができる。好ましくは、カメラはビデオカメラであり、これは1秒間に複数の画像を提供できる。
好ましくは、特に、ある状態は、カメラのレンズが塊又は物体によって外から少なくとも部分的に被覆され、それゆえ遮蔽され、光がレンズのこの遮蔽領域を通ってカメラの内部にまったく入らないか、又は薄暗い光しか入ることができないという状態によって理解される。それゆえ、特に、汚れた状態及び/又は、水及び/又は氷により被覆された状態が被覆状態と理解される。
すでに説明したように、少なくとも1つの画像領域内の、所定の基準を満たす輝度値を有する画素の数が測定される。ある実施形態において、少なくとも2つの基準を輝度値について使用することができ、各基準について画素数を測定できる。その点で、各基準には被覆状態の異なる原因が関連付けられてもよい。それゆえ、いくつかの基準を提供することにより、様々な状況、例えば特に、カメラのレンズが不透明な物体により被覆されている第1の状況のほか、画像中の高周波数部分が飽和画素に起因している状況を検出できる。
それゆえ、カメラが不透明な、それゆえ光を通さない物体により少なくとも部分的に被覆されている第1の状態を第1の基準に関連付けることができる。それに加えて、又はその代わりに、第2の基準も規定でき、これはカメラが透明な物体によって少なくとも部分的に被覆されていると仮定される第2の状態に関連付けられる。この第2の状態においては、好ましくは、飽和画素が検出され、それによってハイパスフィルタによるカメラの被覆状態の検出が不可能となり、その結果、カメラは被覆されていると予防的に仮定できる。これらの2つの状態は、カメラの被覆状態を画像のハイパスフィルタ処理により検出できるアルゴリズムに対する、信頼性の高い補足となる。
以下に、2つの基準をより詳しく説明する。
ある実施形態において、画像領域内の輝度平均値が画素の輝度値から測定されるようになされている。第1の基準により、画像領域内の、輝度平均値より少なくとも所定の限界値だけ大きい輝度値を有する画素の第1の数を測定できる。すると、この第1の数に応じて、カメラが被覆されているか、被覆されていないかをチェックできる。換言すれば、画像領域内の、輝度平均値より大幅に大きい輝度値を有する画素の数が測定される。こうして画像領域の中の輝度ピークの数が測定され、この数に応じて、カメラが被覆されているか、被覆されていないかが判断される。この実施形態は、カメラが不透明な物体により被覆されている場合、画像が実質的にノイズだけで構成されていれば、輝度ピークの数又は、輝度値の大きい画素の数が全体として比較的少ないはずである、という事実を利用している。それゆえ、これが検出されると、その画像はノイズ信号だけであり、したがってカメラは不透明な物体により被覆されていると仮定できる。
したがって、カメラの被覆状態、特に不透明な物体により被覆されている状態は、画素の第1の数(輝度ピークの数)が所定の閾値より少ない場合に仮定される。それゆえ、カメラの被覆状態はそれほど苦労せずに、すなわちハイパスフィルタによる検出がノイズによって失敗するような場合でも検出できる。
不透明な物体によるカメラの被覆状態を仮定するために、その少なくとも1つの画像領域内の輝度平均値が所定の閾値より低いという追加の条件もまた規定できる。すなわち、それゆえ、輝度平均値が低ければ、画像はノイズだけであり、したがって、カメラは不透明な物体により被覆されていると仮定できる。
追加の条件を次のように定めることができる:画像を複数の画像領域に分割でき、各画像領域について、それぞれの画像領域内の第1の画素数、すなわち輝度平均値より少なくとも所定の限界値だけ大きい輝度値を有する画素の数の各々を測定できる。すると、第1の数が所定の閾値より小さい画像領域を全体領域へと合体することができる。カメラの被覆状態は、好ましいことに、この全体領域、特に中断部のない、したがって一体の全体領域が所定の閾値より大きい場合にのみ仮定される。この実施形態は、不透明な物体が通常、レンズの主要部分を覆うという前提に基づいている。それゆえ、この方法の妥当性を向上させることができる。
第2の基準によれば、画像領域内の、飽和によって最大可能輝度値に対応する輝度値を有する画素の第2の数を測定できる。すると、この飽和画素の数に応じて、カメラが被覆されているか、被覆されていないかをチェックできる。飽和画素の数を評価することにより、カメラが被覆状態であっても画像内に存在しうる高周波数画像部分を検出できる。すなわち、カメラが透明な物体(例えば水滴)により被覆され、自動車の周囲に明るい光源、例えば対向車のヘッドライトや街灯等があり、それが透明な物体を通してカメラも照らし、その結果、複数の画素を飽和させている状況を検出できる。この状況を検出でき、かつ、任意選択により、ハイパスフィルタによるカメラの被覆状態の実際の検出が飽和画素のせいで不可能であると仮定できる。ここで、予防措置として、カメラが被覆されていると仮定することができる。
特に、カメラの被覆状態は、第2の数、それゆえ画像領域内の飽和画素の数が所定の閾値より多い場合に仮定できる。すなわち、画像に高周波数部分があり、これがカメラの被覆状態の検出を不可能にしていると仮定できる。
それゆえ、飽和画素の数が閾値より多いことによって被覆状態が検出された場合、カメラが再び被覆されていないと分類されるのは、それぞれの画像の画像領域内の飽和画素の数が所定の画像シーケンスにわたって閾値より小さいままである場合のみである。特に、すると、ハイパスフィルタによるカメラの被覆状態の検出が再び可能であると、高い確率で仮定できる。
それゆえ、一般に、所定の基準を満たす輝度値を有する画素の数が測定される。この画素数に基づいて被覆状態が検出されなければ、その画像をハイパスフィルタによってフィルタ処理でき、フィルタ後の画像に基づいて、カメラが被覆されているか、被覆されていないかをチェックできる。本発明による方法はそれゆえ、カメラの被覆状態をハイパスフィルタで処理された画像に基づいて検出できるアルゴリズムと組み合わせることができる。それゆえ、カメラの被覆状態はあらゆる考えうる状況で検出できる。
ハイパスフィルタで処理された画像の評価に関して、以下の方法が実行されれば有利であることがわかっている。
画像をハイパスフィルタでフィルタ処理し、フィルタ処理後の画像が提供されるようにすることができる。フィルタ処理後の画像の中で走査窓が画定される。次に、フィルタ処理後の画像中の走査窓の複数の異なる位置について、その走査窓内で最大の値の画素をそれぞれ検出できる。すると、フィルタ処理後の画像の最大値に応じて被覆状態を認識できる。
したがって、ハイパスフィルタで処理された画像に対してさらにフィルタ処理を行うことが提案され、これはすなわち、最大値フィルタによるものであり、画像の画素の局所的な最大値(特に最大輝度値)の位置が走査窓を援用して特定される。換言すれば、ハイパスフィルタで処理された画像が走査窓を援用して「走査」され、走査窓の各位置において、最大値を持つ画素が捜索される。特に、この方法には、覆われた状態の認識が非常に安定な方法で実行できるという利点があり、それは、画像内の高周波数画像部分の位置の変化が覆われた状態の認識に影響を与えないからである。例えば、最大値を限界値と比較でき、この比較結果に基づいて、カメラのレンズが汚れによって覆われているか否かを判断できる。それゆえ、道路領域をカメラのレンズの実際の汚れから区別できる。
走査窓による画像の「走査」は例えば、フィルタ処理後の画像の中の走査窓の位置が、開始位置(例えば、その画像の1つの角)から始まり、すなわち最終位置(例えば、反対の角)まで段階的に変更されるように実行される。この走査は、1列ずつ、又は1行ずつ実行できる。その点で、走査窓の各位置について、最大値、特に最大輝度値を有する画素がそれぞれ検出される。走査窓の位置の段階的な変更幅は例えば1画素〜10画素の数値範囲とすることができる。
好ましくは、走査は走査窓によって、それぞれの重複領域が走査窓の隣接位置間にできるように実行される。それゆえ、走査窓の第1の位置で最大値を有する画素が検出されたら、走査窓の第2の隣の位置において、走査窓の第1の位置からの最大値を有する画素が重複領域内にあるか否かを調べることができる。この画素が重複領域内にある場合、走査窓の第2の位置の中では、現在の走査窓のうち、重複領域の外にある画素だけについて、その数値が走査窓の第1の位置からの最大値より大きいか否かを調べればよい。このような方法によれば演算時間が大幅に短縮され、なぜなら、必ずしも走査窓の画素のすべてを相互に比較しなくてもよく、重複領域の外にある画素だけでよいからである。それゆえ、走査窓の各位置について、最大値を持つ画素の位置を保存でき、それによって、走査窓の次の位置では、走査窓の前の位置からの最大値を有する画素が重複領域内にあるか否かを調べることができる。
上記のような最大値フィルタを用いた画像のフィルタ処理は、個々の画像の空間フィルタ処理を表している。これに時間成分も加えることができる。
カメラの覆われた状態を検出するには、ハイパスフィルタで処理されたカメラの画像の時間シーケンスを使用できる。このシーケンスの各画像について、走査窓の上記の複数の位置について最大値を有する画素をそれぞれ検出でき、それによって走査窓の複数の位置について最大値の時系列集合がそれぞれ提供される。その後、この時系列集合に応じてカメラの被覆状態を検出できる。それゆえ、最大値が経時的に評価されれば、カメラの遮蔽状態を特に安定に検出でき、この検出は、高周波数画像部分の位置の時間的な変化によるエラーの影響を受けない。
ハイパスフィルタで処理された画像の上記のシーケンスは好ましくは、カメラにより提供される画像のシーケンス全体のうちの小集合によって形成される。この小集合は、使用されるシーケンスの中の連続する2つの画像のそれぞれの撮影時点間の時間間隔及び/又はこれらの時点間で自動車が移動した距離が所定の基準を満たすように選択できる。それゆえ、実質的に同じ光景又は同じ周囲状況を示す2つの画像が処理されないようにすることができる。したがって、一方で、覆われた状態の検出における誤った判断を防止し、他方で、演算労力を最小限に減らすことができる。
その点で、上記の基準が、時点間の時間間隔が所定の数値より長いか、所定の数値範囲内であることを示唆していれば有利であることがわかる。これは、シーケンス全体のうちの、相互に所定の時間間隔内に撮影された2つの画像を覆われた状態の認識に使用できることを意味する。この時間間隔は例えば、0.5秒〜2秒の数値範囲とすることができる。この数値範囲は、一方で覆われた状態の認識の精度と認識の速度との好適な兼ね合いをとったものである。
それに加えて、又はその代わりに、上記の基準はまた、第1と第2の時点間に自動車が移動した距離が所定の数値より長い、例えば10mより長い、特に10m〜20mの数値範囲内、好ましくは13m〜16mの数値範囲内にあることも示唆できる。例えば、この数値を14mとすることができる。それによって、カメラの状態の検出における誤った判断が防止できる。
特に好ましくは、上記のような最大値の時系列集合が平滑化フィルタによってフィルタ処理され、平滑化された集合に基づいて覆われた状態が認識される。その点で、平滑化フィルタとして、例えば一次再帰型平滑化フィルタを使用できる。このような時系列集合の平滑化により、カメラの覆われた状態の検出は極めて安定するが、これは、最大値の大きな時間的変化が、交流電圧がコンデンサにより平滑化されるように、補償されるからである。
遮蔽状態の認識は、平滑化後の集合が限界値と比較されるように実行できる。覆われた状態は、その集合のうちの1つが限界値より低い場合に検出できる。それゆえ、集合のうちの1つが限界値より低い場合、これは高周波数画像部分が特定の画像領域内に存在せず、カメラのレンズが少なくともこの画像領域に関して覆われていることを示す。この場合、例えばカメラのレンズをクリーニングするべきであるとの警告メッセージを発生させることができる。
上記の限界値はまた、カメラの動作の中で、それゆえ「オンライン」で調節することもできる。この調節は特に、カメラによる光景の画像の輝度レベルに応じて行われる。それゆえ、限界値を自動車の環境内のそれぞれの現在の輝度状態に合わせて調整でき、カメラのレンズの汚れの検出を状況に応じて実行できる。
画像フレームの異なる画像セルに関して、相互に異なる限界値を定めることもできる。
画像に関しては、基本的に2つの異なる実施形態を提供できる。
一方で、画像の生データをハイパスフィルタの基礎として使用することができる。しかしながら、他方で、画像を前処理してから、その画像をハイパスフィルタで処理するようになすこともでき、ここでは、例えば所定のフィルタ処理が行われる。この点で、特に画像の部分的領域(いわゆる関心対象領域)が、画像のその部分的領域だけがハイパスフィルタの基礎として使用されるべく決定されるようになすことができる。それゆえ、一方で、演算労力を軽減させることができ、他方で、自動車自体のある領域がカメラの視界内にあるときの誤検出も防止できる。それに加えて、又はその代わりに、画像を縮小し、それゆえ、いわゆる「ダウンサンプリング」を行ってから、ハイパスフィルタに供給できる。換言すれば、生の画像に関して、ハイパスフィルタの基礎として使用される画素の数を減らすことができる。これはまた、画像処理における演算労力も軽減させる。
上述の方法により、カメラのレンズのある領域のみの局所的な汚れの検出も可能となる。この場合、カメラの視野は部分的にのみ覆われる。ある実施形態において、画像が複数の画像セルに分割され、各画像セルについて、カメラがその画像セルに関して覆われているか否かが判断されるようになすことができる。これらの画像セルはまた、上述の走査窓の位置に応じて画定することもできる。例えば、画像セルがそれぞれ上述の最大値の時系列集合に関連付けられるか、又は、複数のそのような集合がそれぞれ、個々の画像セルについて画定され、評価されるようになすことができる。それゆえ、それらの集合のうちの1つが所定の限界値より低い場合、これは、カメラのレンズが関連付けられた画像セルに関して覆われていると解釈できる。それゆえ、この方法の結果、どの画像セルに関してカメラが遮蔽されているかを一意的に示すマトリクスを出力できる。
他の実施形態において、被覆レベルと、それゆえ汚れのレベルが、少なくとも画像の1つの画像セルに関して、最大値に基づいて、特に平滑化された時系列集合に基づいて判断されるようになすことができる。その点で、被覆の程度はカメラの外からレンズを通してカメラの内部に入ることのできる光の強度に反比例する。その点で、関連する被覆レベルは特に、画像の各画像セルについてそれぞれ判断される。これは、画像セル内の、「覆われている」と分類された画素の数が測定され、この数に応じて被覆レベルが判断されるように実行できる。被覆レベルとは、例えば、それぞれの画像セルの中の画素の総数に対する「覆われている」と分類された画素の比と定義することができる。この場合、被覆レベルは0.0〜1.0の数値範囲内である。
本発明による自動車用カメラシステムは、自動車の周囲領域の画像を提供するためのカメラのほか、画像を処理するための電子コンピューティングデバイスを含む。コンピューティングデバイスは、本発明による方法を実行するようになされている。
本発明による自動車、特に乗用車は、本発明によるカメラシステムを含む。
本発明による方法に関して提供された好ましい実施形態とその利点は、本発明によるカメラシステム及び本発明による自動車に相応に当てはまる。
本発明のその他の特徴は、特許請求の範囲、図面、及び図面の説明から明らかとなる。説明の中で上述された特徴及び特徴の組み合わせの全部のほか、図面の説明の中で後述され、及び/又は図面のみに示される特徴及び特徴の組み合わせは、それぞれ明記されている組み合わせだけでなく、その他の組み合わせ、又はそれ以外に単独でも使用可能である。
ここで、好ましい実施形態に基づいて、また添付の図面を参照しながら、本発明をより詳しく説明する。
本発明のある実施形態によるカメラシステムを備える自動車の概略図である。 本発明のある実施形態による方法のフロー図である。 図2による方法において使用される画像の小集合を決定するための方法のフロー図である。 本発明のある実施形態による方法がより詳しく説明される、ある画像のある領域の概略図である。 例示的な最大値の連続集合と平滑化された連続集合を示す図である。 ある実施形態による方法がより詳しく説明される、複数の画像領域に分割された画像の概略図である。 本発明のある実施形態のよる方法のフロー図である。 本発明の他の実施形態による方法のフロー図である。
図1に示されている自動車1は、例えば乗用車である。自動車1は、自動車1の運転において運転者を支援するように形成されたカメラシステム2を含む。カメラシステム2は、電子コンピューティングデバイス3、すなわちデジタル信号プロセッサを有する。これに加えて、カメラシステム2は、自動車1上に分散させて配置された複数のカメラ4を有する。カメラ4の数及びカメラ4の配置は、図1において例示的に示されているにすぎない。実施形態に応じて、カメラ4の数と配置は異なっていてもよい。この実施形態において、あるカメラ4は、自動車1の前方領域に設置され、自動車1の前方の周囲領域を撮影し、あるカメラ4は後方領域に設置されて、自動車1の後方の周囲領域を撮影し、それに加えて、別々のカメラ4が2つの外部ミラーに組み込まれている。
カメラ4の撮影画像はコンピューティングデバイス3に通信され、それは次に、この画像を処理し、画像に基づいて、自動車1内の様々な機能を提供する。ここで、障害物認識は例示的に説明されているにすぎない。任意選択により、画像を表示装置上に表示することもできる。
任意選択により、コンピューティングデバイス3はまた、カメラ4のうちの1つに組み込むこともできる。また、各カメラ4にそれぞれ、コンピューティングデバイス3が組み込まれるようにすることも可能である。
コンピューティングデバイス3は、受け取った画像に基づいて、カメラ4の覆われた、又は遮蔽された状態を検出できる。後述の方法は1つのカメラ4に関してのみ説明されているが、この方法はその他のカメラ4にも相応に当てはまる。
この実施形態においては、基本的に、カメラ4の被覆状態を検出するために、カメラ4の画像の空間ハイパスフィルタ処理が実行され、ハイパスフィルタ処理された画像に応じて被覆状態が検出されるようになされている。しかしながら、この方法は2つの状況では機能せず、すなわち、一方で、カメラ4が不透明な物体により被覆された場合でも高周波数画像部分ができ、それゆえ画像が非常に暗くなる。すると、画像の輝度値はノイズ信号に対応し、輝度平均値は全体的に非常に低いが、ノイズによって高周波数画像が生じ、それによってハイパスフィルタによるカメラ4の被覆状態の検出が不可能となる。他方で、このような高周波数画像部分は、カメラ4が透明な物体によって被覆されているが、周囲に光源があり、それによって画素が飽和する場合でも発生する。
この実施形態においてはそれゆえ、全体で3種類のアルゴリズムが実行され、これは異なる状態の検出に役立ち、これらのアルゴリズムが実行される順序は基本的に任意とすることができる。第1のアルゴリズムは、カメラ4が不透明な物体により被覆されている状態を検出するのに役立つ。第2のアルゴリズムは、画素の飽和により、カメラが透明な物体で被覆されていると仮定される状態を検出するのに役立つ。第三のアルゴリズムは、カメラ4の被覆状態をハイパスフィルタによって検出するのに役立つ。この点で、第三のアルゴリズムをすべてに使用できるが、不透明な物体のほか、画素の飽和によって失敗に終わる。
ごく一般に、図6によれば、カメラ4の画像5は、同じサイズの複数の画像領域60、例えば8×5の画像領域60に分割できる。その点で、各画像領域60は、複数の画素を含む正方形の領域とすることができる。
不透明な物体により被覆されているカメラ4の状態を検出するのに役立つ第1のアルゴリズムを、図7によるフロー図に基づいてより詳しく説明する。第1のステップS70で、それぞれの輝度平均値BEが各画像領域60について別々に測定され、すなわちこれは、それぞれの画像領域60内の輝度値すべての平均である。次のステップS71で、コンピューティングデバイス3が、各画像領域60について、それぞれの画像領域60の中で、輝度平均値BEより少なくともそのそれぞれの画像領域60内の所定の限界値BVだけ大きい輝度値Bを有する画素の数を別々に測定する。この画素の数を第1の数N1と呼ぶ。
次のステップS72で、画素の第1の数N1が所定の閾値A1より小さい画像領域60にマーキングされる。次のステップS73で、マーキングされた画像領域60が全体画像領域へと合体される。その点で、いわゆる「4方向接続」を使用でき、その中では2つのマーキングされた画像領域60が、その画像領域60に共通のエッジがあれば全体画像領域へと合体される。図6において、マーキングされた3つの画像領域61が例示的に示されており、これらはステップ73により全体領域62へと合体される。したがって、隣接する画像領域60だけが全体領域62へと合体できる。
図7をさらに参照すると、次のステップS74で、全体領域62が所定の閾値より大きいか否かがチェックされる。この閾値は例えば、2又は3又は4又は5つの画像領域60とすることができる。すると、ステップS74によるこの条件が満たされれば、方法は次のステップS75に進み、ここでコンピューティングデバイス3がカメラ4の遮蔽状態を判断する。
ステップS72による追加条件として、それぞれの画像領域60内の輝度平均値BEが限界値より小さいか否かをチェックすることもできる。すなわち、その場合のみ、カメラ4が不透明な物体によって被覆されており、輝度値がノイズであると高い確率で判断できる。それゆえ、輝度平均値BEが所定の限界値より小さい画像領域60だけにマーキングできる。
しかしながら、ステップS74により、全体領域62が閾値より小さいと判断された場合、方法はステップS70に戻り、ここで別の画像5が撮影され、処理される。ステップS75からも、方法はステップS70に戻る。
次に、図8を参照しながら第2のアルゴリズムをさらに詳しく説明する。この方法はステップS80から始まり、そこで画像5の各画像領域60について飽和画素の数が測定される。この数を第2の数N2と呼ぶ。その点で、飽和画素とは、0〜255のデジタル範囲内の最大可能輝度値より大きい輝度値Bを有する画素である。それゆえ、最大可能値は例えば255である。ある画素の輝度値Bがこの最大値より大きい場合、この画素の輝度値Bは最大値に設定される。それゆえ、ステップS80により、飽和画素の数N2が測定される。各画像領域60に関して、それぞれの画像領域60の数N2が所定の閾値A2より大きいか否かもチェックされる。数N2がA2より大きい画像領域60は、ステップS80によって「飽和画像領域」に分類される。それゆえ、少なくとも1つ又は複数の「飽和画像領域」60が検出された場合、カメラ4は透明な物体によって被覆されると仮定される。
次に、各画像領域60についてカウンタCが規定される。このカウンタCは、それぞれの画像領域60が「飽和画像領域」に分類されている場合、正の所定の値にリセットされる。
それゆえ、ステップS81により、各画像領域60について、現在の画像5の中でこの画像領域60が「飽和画像領域」に分類されたか否かがチェックされる。それゆえ、これが当てはまる場合、ステップS82により、カウンタCは所定の正の値V、例えば5〜100の数値範囲に設定される。それゆえ、ステップS81により、それぞれの画像領域60が「飽和画像領域」に分類されなかったと判断された場合、この画像領域60のカウンタCは、特に「1」だけ減らされ、それゆえ減分される。この減少はステップS83で行われる。
次のステップS84で、コンピューティングデバイス3は、カウンタCがゼロと等しいか否かをチェックする。それゆえ、ある画像領域60のカウンタCがゼロと等しければ、ステップS85により、この画像領域60の分類が「飽和画像領域」から「純粋画像領域」へと変更される。すると、方法はステップS80に戻り、そこで別の画像が撮影され、評価される。それゆえ、ステップS84により現在評価されている画像領域60のカウンタCがゼロより大きいと判断されると、方法は再びステップS80に戻る。
カウンタCにより、被覆状態が検出された後、カメラ4が再び被覆されていないと分類されるのは、画像5の所定のシーケンスVについて第2の数N2が閾値A2より小さいままである場合のみであるようにすることが達成される。
図7及び8による上述のアルゴリズムに加えて、第三のアルゴリズムもまた実行でき、これは、空間的にハイパスフィルタで処理された画像5に応じたカメラ4の遮蔽状態の判断に役立つ。このアルゴリズムのフロー図は図2に示されている。
この方法はステップS1から始まり、ここで、画像がコンピューティングデバイス3によって受け取られる。この方法を実行するためには、必ずしもカメラ4の画像シーケンス全体のすべての画像が使用されなくてもよく、小集合だけでよい。それゆえ、カメラ4の画像シーケンス全体から、所定の基準を満たすシーケンスが抽出される。ここで、これらの基準について、図3を参照しながらより詳しく説明する。誤判断を防止するために、選択されたシーケンスのうち時間的に隣接する2つの画像の撮影時点間に、一方で特定の時間が経過し、他方で自動車1が所定の距離だけ移動したと仮定する。図2による方法の基礎として使用される適当な画像シーケンスを選択する方法は、図3のステップS700から始まり、ここで、第1の画像が第1の時点t1で選択される。それゆえ、第1の画像は第1の時点t1で提供される。次のステップ701で、自動車が第1の時点t1以降移動した道のりS、及びそれゆえ、距離が計算される。すると、次のステップS702で、移動距離Sが所定の限界値GSより大きいか否かが調べられる。限界値GSは例えば14mである。ステップS702で、移動距離Sが限界値GSより短いと判断されると、次のステップS703で、別の画像が待たれ、方法は再びステップS701に戻る。これに対して、それゆえ、ステップS702で移動距離Sが限界値GSより長いと判断されると、次のステップS704で、第1の時点t1からの期間Tが計算される。すると、次のステップS705で、この期間Tが所定の限界値GTより長いか否かが判断される。この限界値GTは、例えば1秒とすることができる。ステップS705による質問の答えが否定であれば、方法はステップS703を介してステップS701に戻る。しかしながら、第1の時点t1からの経過時間Tが限界値GTより長いと判断されると、次のステップS706において別の画像が第2の時点t2で選択され、これはその時点でカメラにより提供される。したがって、この別の画像は時点t2において提供される。図3による方法によれば、画像化された周囲状況は、時点t1とt2との間で変化し、誤検出を確実に防止できる。
再び図2を参照すると、その後、次のステップS2(任意)で個別の画像が前処理の基礎として使用される。この時、例えばさらに処理されることになる画像の関心対象領域を決定できる。それに加えて、又はその代わりに、画像のいわゆる「ダウンサンプリング」も実行でき、それによって画素の数が全体に減らされて、演算労力が軽減される。
次のステップS3において、個別の画像に対し、ハイパスフィルタHPFによるハイパスフィルタ処理が行われる。それゆえ、高周波数画像成分の位置が特定される。ここで、例えば3×3画素のサイズのいわゆるソーベル(Sobel)フィルタが使用される。しかしながら、別の適当なハイパスフィルタも使用できる。
ステップS4により、次に各画像が最大値フィルタMAXの基礎として使用され、その機能を、図4を参照しながらより詳しく説明する。図4において、カメラ4のある画像5のある領域が示されており、ここで、個別の画素が6で指示されている。複数のいわゆる標的画素7が各画像5について定義され、標的画素7の数は基本的に任意に選択できる。例えば、1つおきの画素6を標的画素7と定義でき、又は画素6の全部でも、標的画素7と定義することもできる。各画像5において、走査窓8が各標的画素7について画定される。換言すれば、各画像5の中で走査窓8が画定され、その位置は画像内で、走査窓8の各位置において標的画素7が走査窓8の中央に位置付けられるように段階的に変更される。したがって、標的画素7の密度によってもまた、走査窓8の変更幅が決まる。基本的に、走査窓8はどのような大きさにすることもできる。この実施形態においては、7×7画素の大きさが選択されている。走査窓8は例えば、左から右にラインごとに移動され、隣接する2つの位置I及びII(図4の破線と実線)について重複領域9が設けられており、その大きさは走査窓8の移動幅に依存する。
演算時間を短縮するために、任意選択により、2つの1次元走査窓8を2次元走査窓8の代わりに画定することもできる。すると、一方の1次元窓は列に沿った走査を担当し、もう一方の窓はラインごとの走査に使用される。
走査窓8の各位置I、IIにおいて、輝度値が最大の画素6がそれぞれ検出される。次に、標的画素7にこの最大値が置き換えられる。そこで演算時間を最小限に短縮するために、次のことが提案される。
走査窓8の各位置I、IIについて、一方で最大輝度値と、他方でこの最大値を有する画素6の位置もまた保存される。次に、走査窓8の現在の位置IIにおいて、前の位置Iからの最大値を持つ画素6が重複領域9の中にあるか否かが調べられる。すると、これが当てはまらず、かつ、この画素6が現在の走査窓8の外側領域10の中にあれば、現在の位置IIにおいて、走査窓8の画素6のすべてについて、どの画素6が最大値を有するか調べられる。しかしながら、前の位置Iからの最大値を持つ画素6が重複領域9の中にある場合はそれゆえ、現在の位置IIにおいて、走査窓8のうち、重複領域9の外の領域11の中のある画素6だけが調べられる。それゆえ、この領域11の中にある画素6だけが、それらの輝度値が前の位置Iからの最大値より大きいか否かの点で調べられる。このようにして、演算時間を大幅に、すなわち走査窓8全体の画素のすべてを常に調べなければならない実施形態と比較して短縮できる。
それによって、7×7の走査窓8では、必要な演算時間が40%短縮される。窓8を大きくすると、実際に、演算時間をさらに大きく短縮できる。それゆえ、18×18の走査窓8であれば、必要な演算時間は、すべての画素を検討するのに必要な演算時間のわずか約28%となる。
それゆえ、最大値フィルタMAXによるフィルタ処理の後、この画素7の周囲からの最大値がそれぞれ標的画素7の代わりに示される画像5が提供される。その点で、選択されたシーケンスの画像5のすべてにこのようなフィルタ処理が行われる。
図2をさらに参照すると、次のステップS5で、今度は時間成分が追加される。最大値の時系列集合が走査窓8の各位置I、IIについて、それゆえ各標的画素7について、すなわち複数の画像5にわたり測定される。したがって、現在の画像5の各最大値がそれぞれ時系列集合に追加され、それによって、最大値の複数の連続集合がある時間にわたって提供されて検討され、異なる時系列集合が各標的画素7に関連付けられる。
図5において、最大値の例示的な時系列集合12が時間tにわたり示されている。この時系列集合12は例えば、図4による標的画素7に関連付けられる。図2のステップS5において、各時系列集合12が、IIRフィルタである再帰型平滑化フィルタに供給される。この平滑化フィルタによって、集合12は、コンデンサによる場合と同様に平滑化され、平滑化された集合13が提供されるが、これが図4において例示的に示されている。例えば、平滑化フィルタは、プログラミング言語において以下のように実装できる。
if M ≧ CF, then:
CF = M;
else: if M < C, then:
CF = αM + (1-α)CF
ここで、Mは集合12の現在の数値を指し、CFは平滑化フィルタの現在の結果を示し、αは、フィルタの「強さ」を定め、数値0〜1の間とすることができるIIRフィルタ係数を表す。
このような平滑化後の集合13を今度は限界値THと比較でき、すなわち、次のステップS6(図2)による。この限界値THはまた、カメラ4の動作中に、例えば現在のノイズレベルR及び/又は光景の現在の輝度レベルHに応じて調節することもでき、これらのパラメータはステップS7で取得される。
カメラ4の覆われた状態は、平滑後の集合13が限界値Tより低い場合に検出される。
図2による方法の結果、特に、マトリクスMを出力でき、その大きさは画像セルの数によって定められ、それに従って、それぞれの画像セルに関してカメラ4が覆われているか否かが別々に判断される。すなわち、画像5を複数の画像セルに分割でき、各々が複数の標的画素7を含む。それゆえ、複数の平滑化された集合13はまた、各画像セルにも関連付けられる。したがって、画像5の各画像セルについて、カメラ4の被覆レベルを判断できる。例えば、これは、集合13が限界値THを下回る標的画素7の数が判断されるように構成できる。次に、この数をそれぞれの画像セル内の標的画素7の総数に関連付けることができ、すると、この比はそれぞれの画像セルに関するカメラ4の被覆レベルを示す。

Claims (11)

  1. 自動車(1)のカメラ(4)の被覆状態を認識する方法であって、
    自動車(1)の周囲領域の画像(5)をカメラ(4)によって提供するステップと、
    画像(5)の少なくとも1つの画像領域(60)内の画素(6)のそれぞれの輝度値(B)を測定するステップと、
    少なくとも1つの画像領域(60)の中で、輝度値(B)に関する所定の基準を満たす画素(6)の数(N1、N2)を測定するステップと、
    数(N1、N2)に応じてカメラ(4)が被覆されているか、被覆されていないかをチェックするステップと、
    を含み、
    画像領域(60)内の輝度平均値(BE)が画素(6)の輝度値(B)から判断され、第1の基準に応じて、画像領域(60)の中の、輝度平均値(BE)より少なくとも所定の限界値(BV)だけ大きい輝度値(B)を有する画素(6)の第1の数(N1)が測定され、第1の数(N1)に応じてカメラ(4)が被覆されているか、被覆されていないかがチェックされる、
    ことを特徴とする方法。
  2. 輝度値(B)について少なくとも2つの基準が使用され、各基準について、それぞれの基準を満たす輝度(B)を有する画素(6)の数(N1、N2)が測定され、各基準には被覆状態の異なる理由が関連付けられる、
    ことを特徴とする、請求項1に記載の方法。
  3. カメラ(4)が不透明な物体によって少なくとも部分的に被覆される第1の状態が第1の基準に関連付けられ、及び/又は
    カメラ(4)が透明な物体によって少なくとも部分的に被覆されていると仮定される第2の状態が第2の基準に関連付けられる、
    ことを特徴とする、請求項2に記載の方法。
  4. カメラ(4)の被覆状態は、第1の数(N1)が所定の閾値(A1)より小さい場合に仮定される、
    ことを特徴とする、請求項に記載の方法。
  5. 画像(5)は複数の画像領域(60)に分割され、各画像領域(60)について、それぞれの画像領域(60)の中の、輝度平均値(BE)より少なくとも所定の限界値(BV)だけ大きい輝度値(B)を有する画素(6)の第1の数(N1)がそれぞれ測定され、第1の数(N1)が所定の閾値(A1)より小さい画像領域(61)が全体領域(62)へと合体され、全体領域(62)が所定の閾値より大きい場合のみ、カメラ(4)の被覆状態が仮定される、
    ことを特徴とする、請求項に記載の方法。
  6. 第2の基準により、画像領域(60)の中の、飽和により最大可能輝度に対応する輝度値(B)を有する画素(6)の第2の数(N2)が測定され、第2の数(N2)に応じて、カメラ(4)が被覆されているか、被覆されていないかがチェックされる、
    ことを特徴とする、請求項1〜のいずれか1項に記載の方法。
  7. カメラ(4)の被覆状態は、第2の数(N2)が所定の閾値(A2)より大きい場合に仮定される、
    ことを特徴とする、請求項に記載の方法。
  8. 検出後、カメラ(4)の状態が再び被覆されていないと仮定されるのは、画像(5)の所定のシーケンス(V)にわたり、第2の数(N2)が閾値(A2)より小さいままである場合のみである、
    ことを特徴とする、請求項に記載の方法。
  9. 画素(6)の数(N1、N2)に基づいて被覆状態が検出されない場合、画像(5)はハイパスフィルタ(HPF)によってフィルタ処理され、フィルタ処理後の画像(5)に基づいて、カメラ(4)が被覆されているか、被覆されていないかがチェックされる、
    ことを特徴とする、請求項1〜のいずれか1項に記載の方法。
  10. 自動車(1)用のカメラシステム(2)であって、
    自動車(1)の周囲領域の画像(5)を提供するための少なくとも1つのカメラ(4)と、
    請求項1〜のいずれか1項に記載の方法を実行するようになされているコンピューティングデバイス(3)と、
    を備えることを特徴とするカメラシステム(2)。
  11. 請求項10に記載のカメラシステム(2)を備える自動車(1)。
JP2016552682A 2013-11-12 2014-11-06 カメラの被覆状態の認識方法、カメラシステム、及び自動車 Active JP6257792B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE201310019138 DE102013019138A1 (de) 2013-11-12 2013-11-12 Verfahren zum Erkennen eines verdeckten Zustands einer Kamera, Kamerasystem und Kraftfahrzeug
DE102013019138.6 2013-11-12
PCT/EP2014/073898 WO2015071162A1 (en) 2013-11-12 2014-11-06 Method for recognizing a covered state of a camera, camera system and motor vehicle

Publications (2)

Publication Number Publication Date
JP2016537934A JP2016537934A (ja) 2016-12-01
JP6257792B2 true JP6257792B2 (ja) 2018-01-10

Family

ID=51868229

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016552682A Active JP6257792B2 (ja) 2013-11-12 2014-11-06 カメラの被覆状態の認識方法、カメラシステム、及び自動車

Country Status (5)

Country Link
US (1) US20160284076A1 (ja)
EP (1) EP3069317B1 (ja)
JP (1) JP6257792B2 (ja)
DE (2) DE102013019138A1 (ja)
WO (1) WO2015071162A1 (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6176191B2 (ja) * 2014-06-19 2017-08-09 株式会社Jvcケンウッド 撮像装置及び赤外線画像生成方法
EP3113477B1 (en) * 2015-06-30 2017-08-02 Axis AB Monitoring camera
DE102015112682A1 (de) * 2015-08-03 2017-02-09 Connaught Electronics Ltd. Verfahren zum Betreiben eines Kamerasystems mit einer plenoptischen Kamera, Kamerasystem und Kraftfahrzeug
DE102016104044A1 (de) * 2016-03-07 2017-09-07 Connaught Electronics Ltd. Verfahren zum Erkennen einer Ablagerung auf einem optischen Element einer Kamera durch einen Merkmalsraum und eine Hyperebene, sowie Kamerasystem und Kraftfahrzeug
US10904409B2 (en) * 2016-07-27 2021-01-26 Kyocera Corporation Detection apparatus, imaging apparatus, moveable body, and detection method
DE102016118335A1 (de) 2016-09-28 2018-03-29 Connaught Electronics Ltd. Verfahren zum Erkennen einer Verschmutzung auf einer Linse einer Kamera eines Kraftfahrzeugs anhand von Helligkeitswerten in Bildern, Kamera sowie Kraftfahrzeug
US10936884B2 (en) * 2017-01-23 2021-03-02 Magna Electronics Inc. Vehicle vision system with object detection failsafe
DE102017203276B4 (de) * 2017-03-01 2022-10-06 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zur Ermittlung einer Trajektorie in Off-road-Szenarien
JP6832224B2 (ja) * 2017-04-28 2021-02-24 株式会社デンソーテン 付着物検出装置および付着物検出方法
JP6772113B2 (ja) * 2017-08-02 2020-10-21 クラリオン株式会社 付着物検出装置、および、それを備えた車両システム
JP7205386B2 (ja) * 2019-05-31 2023-01-17 株式会社リコー 撮像装置、画像処理方法、プログラム
CN110991222B (zh) * 2019-10-16 2023-12-08 京东科技信息技术有限公司 一种物体状态监测、母猪发情监测方法、装置及***
US11328428B2 (en) 2019-12-18 2022-05-10 Clarion Co., Ltd. Technologies for detection of occlusions on a camera
US11423639B2 (en) 2020-07-31 2022-08-23 Ford Global Technologies, Llc Hidden camera detection systems and methods
CN114079766B (zh) * 2020-08-10 2023-08-11 珠海格力电器股份有限公司 屏下摄像头遮挡提示方法、存储介质以及终端设备
DE102021112236A1 (de) 2021-05-11 2022-11-17 Zf Cv Systems Global Gmbh Bewegungserkennungs-Verfahren zur Erkennung einer Bewegung bei einem Fahrzeug, Monitorverfahren mittels dem ein Zustand eines Monitorsensors überprüfbar ist und Fahrzeug
WO2024099562A1 (de) 2022-11-10 2024-05-16 Zf Cv Systems Global Gmbh Bewegungserkennungs-verfahren zur erkennung einer bewegung bei einem fahrzeug, monitorverfahren mittels dem ein zustand eines monitorsensors überprüfbar ist und fahrzeug

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10148618A (ja) * 1996-11-15 1998-06-02 Mitsuba Corp 雨滴検出装置における異物検出方法
US6990255B2 (en) * 2001-09-19 2006-01-24 Romanik Philip B Image defect display system
DE10201520A1 (de) * 2002-01-17 2003-07-31 Bosch Gmbh Robert Verfahren und Vorrichtung zur Bildfehlererkennung b zw. -anzeige bei Bildaufnahmesystemen
US7505604B2 (en) * 2002-05-20 2009-03-17 Simmonds Precision Prodcuts, Inc. Method for detection and recognition of fog presence within an aircraft compartment using video images
EP1498721A1 (de) * 2003-07-15 2005-01-19 ELMOS Semiconductor AG Vorrichtung zur Erkennung von Nebel, insbesondere für ein Fahrzeug
DE102004020998A1 (de) * 2004-04-19 2005-11-03 Pilz Gmbh & Co. Kg Vorrichtung zum Überwachen eines Raumbereichs, insbesondere zum Absichern eines Gefahrenbereichs einer automatisiert arbeitenden Anlage
US7535501B1 (en) * 2004-10-12 2009-05-19 Lifetouch, Inc. Testing of digital cameras
JP4657869B2 (ja) * 2005-09-27 2011-03-23 シャープ株式会社 欠陥検出装置、イメージセンサデバイス、イメージセンサモジュール、画像処理装置、デジタル画像品質テスタ、欠陥検出方法、欠陥検出プログラム、およびコンピュータ読取可能な記録媒体
US8553088B2 (en) * 2005-11-23 2013-10-08 Mobileye Technologies Limited Systems and methods for detecting obstructions in a camera field of view
JP2007215151A (ja) * 2006-01-12 2007-08-23 Canon Inc 撮像装置及びその制御方法及びプログラム
JP2007208865A (ja) * 2006-02-06 2007-08-16 Clarion Co Ltd カメラ状態検知システム
JP5022609B2 (ja) 2006-02-27 2012-09-12 日立オートモティブシステムズ株式会社 撮像環境認識装置
JP4626632B2 (ja) * 2007-06-25 2011-02-09 株式会社日立製作所 映像監視システム
US8208043B2 (en) * 2008-05-09 2012-06-26 Aptina Imaging Corporation Lens cleaning warning system and method
US8208022B2 (en) * 2008-06-05 2012-06-26 Lg Electronics Inc. Apparatus and method for removing blooming of camera image
EP2351351B1 (en) 2008-10-01 2015-09-16 Connaught Electronics Limited A method and a system for detecting the presence of an impediment on a lens of an image capture device to light passing through the lens of an image capture device
JP2011232193A (ja) * 2010-04-28 2011-11-17 Denso Corp 雨滴検出方法およびそれを用いた雨滴検出装置
DE102010030616A1 (de) * 2010-06-28 2011-12-29 Robert Bosch Gmbh Verfahren und Vorrichtung zum Erkennen eines Störobjekts in einem Kamerabild
EP2721554A2 (de) * 2011-06-17 2014-04-23 Robert Bosch GmbH Verfahren und steuergerät zur erkennung einer wetterbedingung in einem umfeld eines fahrzeugs
JP5883732B2 (ja) * 2012-07-03 2016-03-15 クラリオン株式会社 環境認識装置
JP6117634B2 (ja) * 2012-07-03 2017-04-19 クラリオン株式会社 レンズ付着物検知装置、レンズ付着物検知方法、および、車両システム

Also Published As

Publication number Publication date
WO2015071162A1 (en) 2015-05-21
DE102013019138A1 (de) 2015-05-13
EP3069317A1 (en) 2016-09-21
JP2016537934A (ja) 2016-12-01
EP3069317B1 (en) 2018-07-04
US20160284076A1 (en) 2016-09-29
DE112014005160T5 (de) 2016-09-01

Similar Documents

Publication Publication Date Title
JP6257792B2 (ja) カメラの被覆状態の認識方法、カメラシステム、及び自動車
US7646889B2 (en) Rain sensor
JP5437855B2 (ja) 障害物検知装置およびそれを備えた障害物検知システム、並びに障害物検知方法
US11836989B2 (en) Vehicular vision system that determines distance to an object
US20160162743A1 (en) Vehicle vision system with situational fusion of sensor data
US11295145B2 (en) Object detection using vehicular vision system
JP5759950B2 (ja) 車載カメラ装置
JP6571424B2 (ja) 故障診断装置
WO2007111220A1 (ja) 道路区画線検出装置
US20160180158A1 (en) Vehicle vision system with pedestrian detection
US20200084356A1 (en) Image monitoring device, image monitoring method, and recording medium
WO2013008304A1 (ja) 瞼検出装置
JPH09113221A (ja) 車載用画像処理装置及びその画像処理方法
JP2006314061A (ja) 画像処理装置及びノイズ判定方法
JP4087600B2 (ja) 画像監視装置
US20090322879A1 (en) Method and device for the detection of defective pixels of an image recording sensor, preferably in a driver assistance system
KR20180061695A (ko) 휠 검출을 통한 차량 옆면 인식 방법 및 장치
US20230106188A1 (en) Vehicular vision system with object classification based on change in orientation of object
JP6362945B2 (ja) 車載画像処理装置
JP7525936B2 (ja) 確信度推定値を有する深度マップを提供するための方法およびシステム
US11182626B2 (en) Attached object detection apparatus
EP4304191A2 (en) Camera system, method for controlling the same, and computer program
CN110557558B (zh) 物体监视装置
KR20220167794A (ko) 깊이 맵에 신뢰도 추정치를 제공하는 방법 및 시스템
WO2014203658A1 (ja) 測距装置および測距方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160914

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171017

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171205

R150 Certificate of patent or registration of utility model

Ref document number: 6257792

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250