JP4321591B2 - 車載霧判定装置 - Google Patents

車載霧判定装置 Download PDF

Info

Publication number
JP4321591B2
JP4321591B2 JP2007003928A JP2007003928A JP4321591B2 JP 4321591 B2 JP4321591 B2 JP 4321591B2 JP 2007003928 A JP2007003928 A JP 2007003928A JP 2007003928 A JP2007003928 A JP 2007003928A JP 4321591 B2 JP4321591 B2 JP 4321591B2
Authority
JP
Japan
Prior art keywords
determination
image
fog
vehicle
luminance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007003928A
Other languages
English (en)
Other versions
JP2008170284A (ja
Inventor
直輝 川崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2007003928A priority Critical patent/JP4321591B2/ja
Priority to US12/008,408 priority patent/US8786697B2/en
Priority to DE102008003947A priority patent/DE102008003947A1/de
Publication of JP2008170284A publication Critical patent/JP2008170284A/ja
Application granted granted Critical
Publication of JP4321591B2 publication Critical patent/JP4321591B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/30Indexing codes relating to the vehicle environment
    • B60Q2300/31Atmospheric conditions
    • B60Q2300/312Adverse weather

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、車載カメラによって撮像された画像が、霧がかかった画像であるかどうかを判定する車載霧判定装置に関する。
車載カメラの撮像画像を処理して霧判定を行う装置が知られている(たとえば特許文献1)。特許文献1における霧判定の方法は、画像のぼけ具合に基づいており、霧である場合にはぼけた画像となるので、画像のぼけ具合を推定することにより霧判定を行っている。画像のぼけ具合の推定は、まず、画像全体に対して、微分演算によって、画素の明るさを意味する画素値のエッジ強度を画素毎に算出する。そして、そのエッジ強度に基づいて、画像のぼけ具合を推定している。画像がぼけているほどエッジ強度は全体的に小さくなることから、エッジ強度に基づいて画像のぼけ具合が推定できるのである。
また、カメラによって撮像された画像をデジタル化して周波数解析し、周波数分布から霧を判定する手法も知られている(たとえば、特許文献2)。この特許文献2に記載の方法は、周波数分布から人間の視覚感度が良好な領域を抽出して、その領域の強度に基づいて霧かどうかを判定している。そのため、画像の画角や解像度が変化しても判定精度が担保される点でエッジ強度による霧判定よりも優れている。
特許3444192号公報 特開2006−221467号公報
ところで、特許文献1では、エッジ強度を算出する画像範囲を、カメラによって撮像された画像の全範囲としている。また、特許文献2も、周波数解析する画像範囲を、カメラによって撮像された画像の全範囲としている。従って、画像内にランプが含まれていても、画像の全範囲を霧判定のための解析に用いることになる。しかし、ランプは霧であっても比較的はっきりと撮像されてしまう。また、ランプ以外の発光物やリフレクタなどの光の反射率が高い物体も、霧であっても比較的はっきりと撮像されてしまう。これら霧であっても比較的はっきりと撮像される物体が画像内に含まれている場合には、霧であるのに、霧でないと判定されてしまう可能性がある。
本発明は、この事情に基づいて成されたものであり、その目的とするところは、誤判定を低減することができる車載霧判定装置を提供することにある。
その目的を達成するための請求項1記載の発明は、車両に搭載される車載カメラにより撮像された画像が、霧がかかった画像であるかどうかを判定する車載霧判定装置であって、前記車載カメラによって撮像された画像の少なくとも一部を霧判定に用いる判定画像に決定する判定画像決定手段と、判定画像を周波数解析またはエッジ強度解析して、解析結果に基づいて霧判定を行う画像霧状態判定手段とを備えるとともに、前記判定画像決定手段によって決定された判定画像から、高輝度物が撮像されている高輝度物領域をマスクするマスク手段を備え、前記画像霧状態判定手段が霧判定を行うために解析する画像が、マスク手段によってマスクされた後の判定画像であり、前記マスク手段は、前記車両が走行している位置における実際の空の輝度を推定するとともに、前記判定画像を構成する各画素について、画素値と実際の輝度との間の予め設定された対応関係からその画素に対応する風景の実際の輝度を推定し、推定した実際の空の輝度と各画素の輝度との比較に基づいて、前記高輝度物が撮像されている高輝度物領域を決定することを特徴とする。
このように、高輝度物が撮像されている領域をマスクした後の判定画像を用いて霧判定を行えば、霧であるのに比較的はっきりと撮像されている箇所を解析してしまうことによって、霧であるのに霧でないと判定してしまうことを防止できる。
また、高輝度物は、空と同等または空以上の輝度を有していることから、このように、実際の空の輝度を推定するとともに、判定画像を構成する各画素の実際の輝度を推定し、両者を比較すれば、高輝度物が撮像されている高輝度物領域を決定することができるのである。
ここで、請求項5記載のように、マスク手段は、前記高輝度物として発光物が撮像されている領域をマスクすることが好ましい。発光物にはテールランプ、リアフォグランプ、路側の街灯などのランプがあり、これら発光物は特に輝度が高いことから、霧判定において除去することが好ましいのである。
請求項6記載の発明は、前記判定画像決定手段は、前記車載カメラによって撮像された
画像の一部のみを前記判定画像に決定することを特徴とする。
このようにすれば、画像霧状態判定手段において解析する画像面積が少なくなることから、解析のための演算負荷を少なくすることができる。その一方で、判定画像が小さくなるほど、その判定画像に高輝度物が含まれている場合に、判定画像全体に占める高輝度物が撮像されている範囲の割合が増加する可能性が高くなり、その結果、誤判定の恐れが高くなる。そこで、前述のようにして、高輝度物領域をマスクする意義が大きいのである。
前述の目的を達成するための請求項2記載の発明は、車両に搭載される車載カメラにより撮像された画像が、霧がかかった画像であるかどうかを判定する車載霧判定装置であって、前記車載カメラによって撮像された画像の少なくとも一部を霧判定に用いる判定画像に決定する判定画像決定手段と、判定画像を周波数解析またはエッジ強度解析して、解析結果に基づいて霧判定を行う画像霧状態判定手段とを備えるとともに、前記判定画像決定手段によって決定された判定画像から、高輝度物が撮像されている高輝度物領域をマスクするマスク手段を備え、前記画像霧状態判定手段が霧判定を行うために解析する画像が、マスク手段によってマスクされた後の判定画像であり、前記マスク手段は、前記車両への照度を推定するとともに、前記判定画像を構成する各画素について、画素値と実際の輝度との間の予め設定された対応関係からその画素に対応する風景の実際の輝度を推定し、推定した車両への照度と各画素の輝度との比較に基づいて、前記高輝度物が撮像されている高輝度物領域を決定することを特徴とする。
このように、高輝度物が撮像されている領域をマスクした後の判定画像を用いて霧判定を行えば、霧であるのに比較的はっきりと撮像されている箇所を解析してしまうことによって、霧であるのに霧でないと判定してしまうことを防止できる。
また、この請求項2は、実際の空の輝度を推定することに代えて、車両への照度を推定しており、その推定した照度を各画素の輝度と比較することによって高輝度物領域を決定している。このように空の輝度に代えて車両への照度を用いることができるのは、空の輝度が一様である場合、輝度と照度とは相互に換算が可能だからである。実際には、空の輝度は一様ではないけれども、空の輝度が一様でなくても、車両への照度は実際の空の輝度に対応して変化することから、実際の空の輝度に代えて車両への照度を用いることができるのである。
前述の目的を達成するための請求項3記載の発明は、車両に搭載される車載カメラにより撮像された画像が、霧がかかった画像であるかどうかを判定する車載霧判定装置であって、前記車載カメラによって撮像された画像の少なくとも一部を霧判定に用いる判定画像に決定する判定画像決定手段と、判定画像を周波数解析またはエッジ強度解析して、解析結果に基づいて霧判定を行う画像霧状態判定手段とを備えるとともに、前記判定画像決定手段によって決定された判定画像から、高輝度物が撮像されている高輝度物領域をマスクするマスク手段を備え、前記画像霧状態判定手段が霧判定を行うために解析する画像が、マスク手段によってマスクされた後の判定画像であり、前記マスク手段は、前記判定画像において空が撮像されている部分の画素値と、判定画像を構成する各画素の画素値との比較に基づいて、前記高輝度物が撮像されている高輝度物領域を決定することを特徴とする。
このように、高輝度物が撮像されている領域をマスクした後の判定画像を用いて霧判定を行えば、霧であるのに比較的はっきりと撮像されている箇所を解析してしまうことによって、霧であるのに霧でないと判定してしまうことを防止できる。
また、この請求項3は、判定画像において空が撮像されている部分の画素値を基準として高輝度物領域を決定するものである。
また、マスク手段は、高輝度物領域のみをマスクしてもよいが、請求項4のように、高輝度物領域を予め設定された関係に基づいて拡大した領域をマスクすることが好ましい。これによって高輝度物領域の周辺の領域もマスクすることになる。一般に、画像内においてランプなどが撮像されている場合には、ランプ部分の周囲も比較的高輝度となっている。すなわち、ランプ部分の境界において輝度が不連続に変化するのではなく、ランプ部分の外側で輝度が連続的に低下する領域が存在する。この領域の輝度も比較的高いことから、この領域が含まれていると霧判定の信頼性が低下してしまう。しかし、請求項7においては、高輝度物領域の周辺の領域もマスクすることになるので、より誤判定を抑制することができる。
以下、本発明の車載霧判定装置の実施の形態を、図面に基づいて説明する。図1は、本発明の車載霧判定装置として機能する画像処理ECU14を含む車載霧判定システム10の構成を示すブロック図である。
車載霧判定システム10は、車載カメラ12、画像処理ECU14、ヨーレートセンサ16、ステアリングセンサ18、ミリ波レーダ20、車速センサ22、コンライトセンサ23を備えており、それらが車内LAN24によって相互に接続されている。また、この車内LAN24には、運転支援制御ECU26およびライト制御ECU28も接続されている。
上記車載カメラ12は、レンズとCCDとを備えており、レンズによって集光された光をCCDによって検出する形式であり、グレースケールの画像を撮像する。この車載カメラ12の取り付け位置は、車両の内部、たとえば運転席近傍の天井とされており、車載カメラ12によって、車両前方の画像が連続的に撮像され、撮像された画像のデータは、画像処理ECU14において処理される。
画像処理ECU14は、図示しない内部にCPU、ROM、RAM等を備えたコンピュータであり、そのRAMには、車載カメラ12によって連続的に撮像される一定時間分の画像のデータが一時的に記憶される。そして、CPUは、ROMに記憶されたプログラムに従って、そのRAMに記憶された画像データに対して図2に示す処理を実行する。このCPUの処理については後述する。
ヨーレートセンサ16は車両のヨーレートを逐次検出し、ステアリングセンサ18は、ステアリングの操舵角を逐次検出する。また、ミリ波レーダ20は、車両前方に向けて所定周波数のミリ波を出力し、且つ、対象物からの反射波を受信する。コンライトセンサ23は、たとえば、ダッシュボード上面に設けられ、その設置位置に照射される照度(ルクス:lx)を検出する。
運転支援制御ECU26は、前方車両検出手段としても機能しており、上記ミリ波レーダ20によって受信された反射波に基づいて、前方車両(自車と同一車線において前方を走行している車両)の有無を連続的に判定し、前方車両を検出した場合にはその前方車両との間の距離、相対方位および相対速度を算出する。さらに、算出したそれらの情報に基づいて、車速制御などの運転支援制御を実行する。
ライト制御ECU28は、画像処理ECU14において霧であると判定された場合に、図示しないフォグランプの点灯・消灯の制御を実行する。
図2は、上記画像処理ECU14が霧判定において実行するメインルーチンを示すフローチャートである。図2に示す制御は、走行中に所定の周期で実行するものであり、この制御の実行中には、車載カメラ12によって車両前方の画像が連続的に撮像されている。図3、図4は、車載カメラ12によって撮像された画像例である。
図2に示すように、上記画像処理ECU14は、まず、判定画像抽出処理を実行する(ステップS100)。この処理は、請求項の判定画像決定手段に相当する処理であり、車載カメラ12によって撮像された画像から霧判定に用いる判定画像を抽出する。次いで、マスク手段に相当するマスク処理を実行して、判定画像からノイズ要因となる箇所をマスクする(ステップS200)。
その後、ステップS300において、後述する霧判定の信頼度を算出する。次いで、ステップS400において、判定画像の周波数解析演算を実行する。そして、ステップS500では、ステップS400の周波数解析結果に基づいて霧判定を行う。上記ステップS100、200、S300、S400、S500の処理は、それぞれ、図5、図6、図7、図8、図9に基づいて後に詳述する。
次に、図5に基づいて判定画像抽出処理を詳しく説明する。まず、ステップS110において、自車が走行している道路の道路形状を決定する。ここでの道路形状とは、自車から前方に延びる道路の曲がり具合(形状)を示す一本の線である。道路形状の決定は、たとえば、道路に設けられた白線を認識することによって行う。白線認識処理としては、公知の種々の手法を用いることができるが、たとえば、車載カメラ12によって撮像された画像を二値化処理し、二値化処理後の画像から白色部分を抽出することによって白線を認識する。なお、ここにおける白線は、通常の白線認識処理と同様に、白線のみでなく黄線も含むものである。
上記白線認識処理によって自車が走行している車線の両側の白線が認識できた場合には、その2本の白線の幅方向平均線(すなわち車線の幅方向中央線)を道路形状に決定する。ただし、自車が走行している車線の左右いずれか一方の白線をそのまま道路形状としてもよいし、車線が複数ある場合には道路全体の幅方向中心線を道路形状としてもよい。
また、運転支援制御ECU26では前方車両との間の距離、相対方位が算出されているので、白線認識に代えて、または白線が認識できない場合において、運転支援制御ECU26において算出されている前方車両との間の距離および相対方位に基づいて道路形状を決定してもよい。
この場合には、まず、運転支援制御ECU26において算出されている前方車両との間の距離および相対方位に基づいてその前方車両の画像内における位置を決定し、次いで、ステアリングセンサ18からの信号に基づいて操舵角を検出する。そして、道路形状を示す線の自車側の端点として予め定められている画像内の所定点(たとえば、画像内におけるボンネットの境界線の車両幅方向中心点)と画像内における前方車両の位置とを、上記操舵角を曲率半径とする円弧で連結することによって、道路形状を決定する。
また、操舵角のみから道路形状を決定してもよい。この場合には、まず、ステアリングセンサ18からの信号に基づいて操舵角を検出する。次いで、道路形状を示す線の自車側の端点として予め定められている画像内の所定点において、接線が車両前後方向に対して平行となるような円弧を、道路形状を示す線に決定する。なお、道路形状の決定においては、操舵角に代えてヨーレートセンサ16からヨーレートを用いてもよい。
ステップS110において道路形状を決定したら、ステップS120に進んで、自車が走行している道路上において自車から所定の遠方距離にある画像内の遠方距離点を決定する。上記所定の遠方距離は、ここでは100mに設定されていることとするが、100mに限定されるものではなく、ある程度の濃さの霧の時に画像がぼやける程度に遠方であればよい。
なお、車載カメラ12は車両に固定されていることから、平坦な地面上のある地点までの実距離と、画像内においてその地点がどこに位置するかは予め決定することができる。従って、画像内において平坦な地面上で自車から100m先の地点が位置する100m線は予め決定することができる。この100m線は画像処理ECU14内のROMあるいは他の記憶装置に記憶されている。そして、その100m線とステップS110で決定した道路形状を示す線との交点を、自車が走行している道路上における遠方距離点(すなわち、ここでは100m先の点)に決定する。
続くステップS130では、上記ステップS120で決定した遠方距離点を基準として遠方道路領域の外枠OFを決定する。図3、図4に示されている遠方道路領域の外枠OFは長方形状であって、ステップS130で決定した遠方距離点が外枠OFの下辺の中心となるようにして設定したものである。この外枠OFの大きさは、車載カメラ12によって撮像される画像全体の大きさに対して十分小さ大きさに設定されている。
なお、図3、図4の例にとは異なり、上記遠方距離点が遠方道路領域の中心となるように外枠OFの位置を決定してもよい。また、道路形状を、走行車線の幅方向中心線としているか、道路全体の幅方向中心線としているか、走行車線の左右いずれかの白線としているかによって、遠方道路領域の外枠OFに対する遠方距離点の位置を変更してもよい。たとえば、道路形状(を示す線)を走行車線の右側白線としている場合には、遠方道路領域の外枠OFの下辺の右から1/4の点が遠方距離点となるように外枠OFの位置を決定してもよい。
そして、続くステップS140では、ステップS130で決定した遠方道路領域の外枠OF内を判定画像として抽出する。
次に、図6に基づいてマスク処理を詳しく説明する。まず、ステップS210では、図2のステップS100で抽出した判定画像内に車両部分があるか否かを判断する。この判断を行うのは、他車両は風景よりも自車に対して近距離に位置し、近距離に位置する他車両が判定画像に含まれていると霧判定が困難となることから、そのような近距離に位置する車両を判定画像から除去するためである。
従って、ステップS210では、運転支援制御ECU26によって前方車両の存在が検出されているかをまず判断する。そして、前方車両の存在が検出されている場合には、運転支援制御ECU26によって特定されている前方車両の位置および相対距離に基づいて車両が含まれると考えられる画像処理範囲を決定し、その画像処理範囲に対して、たとえば輝度変化に基づいて車両輪郭線を決定する等の公知の画像処理を実行することにより車両部分CRを決定する。そして、その決定した車両部分CRの一部または全部が図2のステップS100で抽出した判定画像と重なっているかを判断する。図3、図4には、このようにして決定した車両部分CRの一例を示してある。図3、図4の場合、いずれも、車両部分CRの一部が判定画像と重なっている。
上記ステップS210が否定判断である場合には、直接、ステップS230へ進む。一方、ステップS210が肯定判断である場合にはステップS220に進む。ステップS220では、ステップS100で抽出した判定画像内において車両部分CRとなっている領域を除去する。
ステップS220を実行した場合、または、ステップS210が否定判断であった場合には、次に、高輝度物を判定画像から除去するために、ステップS230乃至S280を実行する。ここで、高輝度物とは、空の輝度と同等程度またはそれ以上の輝度を有するものであり、高輝度物は、霧であっても、比較的鮮明に撮像されることから、霧判定においてノイズ要因となるので、判定画像から除去するのである。
まず、ステップS230において、自車が走行している位置における実際の空の輝度(カンデラ/平方メートル(cd/m))を推定する。実際の空の輝度を推定する方法としては、車載カメラ12によって撮像された画像を用いる方法と、コンライトセンサ23によって検出される照度を用いる方法とがあり、2つの方法のうち、予め定められたいずれか一方の方法を用いる。
まず、前者の方法について具体的に説明する。撮像画像内に空が撮像されている場合には、空の撮像位置は常に画像上部であることから、たとえば、車載カメラ12によって撮像された画像の上部の所定範囲を空画像範囲として予め設定しておき、まず、その空画像範囲内の各ピクセルの画素値の平均値を算出する。そして、この平均値と、画素値と実際の輝度との間の予め設定された対応関係から、実際の空の輝度を推定する。
ここで、上記対応関係について説明する。前述のように、車載カメラ12はグレースケールの画像を撮像していることから、上記画素値は明るさを表す値である。そのため、画素値とその画素に対応する実際の領域の輝度とは相関関係があるので、画素値と実際の輝度との間の対応関係(式またはマップ)は予め設定しておくことができるのである。なお、車載カメラ12の露出状態(たとえばシャッタースピードおよびデジタルゲインの値)によって画素値と実際の輝度との対応関係は異なることから、上記対応関係は、露出状態別に設定されているか、露出状態をパラーメータとして持つ関係とされる。
また、上記空画像範囲内の画素値のうち、上位所定割合(たとえば30%)の平均画素値を用いて実際の空の輝度を推定してもよい。上記空画像範囲内には、森や大きな建造物など、空以外のものであって、空よりも輝度の低いものが含まれていることがあり、その場合には、それらのものを除去した後の画素値の平均値を用いて空輝度を推定することが好ましいからである。画像処理によって、それらのものを認識して除去してもよいが、上位所定割合のみを用いて空輝度を推定することにより、簡易に、空よりも輝度の低いものを除去することができる。なお、上位所定割合は、あまり小さくすることは好ましくない。その理由は、空画像範囲にランプなど空よりも輝度の高いものが含まれていることもあり、空輝度の推定に用いる画素数が少なくなると、それら空よりも輝度の高いものの影響を大きく受けてしまうからである。
次に、コンライトセンサ23によって検出される照度を用いる方法を説明する。一般的に、空が明るいときには日射量が多いことが多い。そこで、コンライトセンサ23によって検出される照度を用いる場合には、照度から空輝度を推定する関係を予め設定しておき、その関係と、コンライトセンサ23によって実際に検出される照度とから、実際の空の輝度を推定する。
続くステップS240では、画素値と実際の輝度との間の上記対応関係と、判定画像(ステップS220を実行した場合には車両部分CRを除去した後の判定画像)の各画素の画素値とから、判定画像を構成する各画素について、その画素に対応する風景の実際の輝度(cd/m)を推定する。
続くステップS250では、ステップS230で推定した実際の空輝度に基づいて高輝度物判定値を決定する。前述のように、高輝度物とは、空の輝度と同等程度またはそれ以上の輝度を有するものである。従って、高輝度物判定値は、たとえば0.9など、1以下において1に近い予め定められた係数を空輝度に乗じた値とする。上記高輝度物には、ランプなどの発光物、および、リフレクタなど光の反射率が高い物体があり、これら高輝度物は霧判定においてノイズ要因となってしまうものである。
続くステップS260では、ステップS250で決定した高輝度物判定値と、ステップS240で推定した各画素の輝度とを比較し、高輝度物判定値よりも高い輝度の画素によって定まる領域を高輝度物領域に決定する。
続くステップS270では、上記ステップS260で決定した高輝度物領域を上下左右全方向に拡張した範囲を除去領域HBRに決定する。図3、4にこのようにして決定した除去領域HBRの一例を示してある。なお、ここでは、高輝度物領域の大きさが大きいほど、拡張率を大きく設定している。ただし、拡張率を高輝度物領域の大きさによらず、一定倍率としてもよい。続くステップS280では、ステップS270で決定した除去領域を判定画像から除去する。
このようにしてマスク処理(除去処理)を実行した後は、図2のステップS300の信頼度算出処理を実行する。次に、この信頼度算出処理の内容を図7に基づいて説明する。まず、ステップS310において、マスク処理後の判定画像の一次細分化度を決定する。この一次細分化度とは、ステップS200のマスク処理を実行することによって、周波数解析演算(S400)に用いる各入力信号内に生じた不連続箇所の数nである。
より具体的に説明すると、周波数解析演算(S400)では、判定画像内における縦または横の一ライン(すなわち水平座標が同一の画素群または垂直座標が同一の画素群)が一つの入力信号であるので、それぞれの入力信号について、不連続箇所の数nを一次細分化度として決定する。
図10は、図4に示した画像において、マスク処理後の判定画像の形状を示す図である。図10においては、マスク処理後の判定画像を実線で示している。この図10において、横一ラインずつが入力信号である場合、図10に示すように、上部は不連続箇所の数n=0、中央部分はn=2、下部はn=1である。
続くステップS320では、ステップS310で算出した全部の一次細分化度のうちで、予め設定された判定値(ここではn=2)以上の値となっている一次細分化度の割合を、全体細分化度として算出する。
そして、続くステップS330では、全体細分化度と信頼度との間の予め設定された関係を用いて、上記ステップS320で算出した全体細分化度から、第1信頼度を決定する。図11は、上記全体細分化度と信頼度との間の関係の一例を示す図である。
図11に示すように、上記関係は、全体細分化度が所定の基準値ST1以下では、信頼度は100%であり、その基準値ST1以上では、全体細分化度が大きくなるほど信頼度が低下する関係である。また、信頼度は、全体細分化度の比較的少ない変化量で、100%から0%に近い値まで急激に低下している。全体細分化度と信頼度との関係が図11のようになっているのは、本実施形態では周波数解析結果に基づいて霧判定を行うが、周波数解析は、その特性として、各入力信号の長さがある程度長くないと信頼性のある解析結果が得られず、各入力信号に不連続点が多いほど信頼性が低下するからである。
ステップS340では、判定画像の全体の面積(すなわちマスク処理前の面積)に対してマスク処理によって除去された面積の割合を、マスク割合指標として算出する。このようにしてマスク割合指標を算出する場合、マスク割合指標が大きな値になるほど、マスク処理によって除去された面積の割合が多いことになる。本実施形態では、このようにしてマスク割合指標を算出するものとして以下の説明を続けるが、これとは逆に、判定画像の全体の面積に対して、マスク処理によって除去された後の判定画像の面積(すなわちマスク処理されていない面積)の割合をマスク割合指標としてもよい。この場合には、マスク割合指標が大きな値になるほど、マスク処理されていない面積の割合が多いことになる。
ステップS350では、マスク割合指標と信頼度との間の予め設定された関係を用いて、上記ステップS340で算出したマスク割合指標から、第2信頼度を決定する。図12は、上記マスク割合指標と信頼度との間の関係の一例を示す図である。
図12に示すように、上記関係は、マスク割合指標が所定の基準値ST2以下では信頼度は100%であり、その基準値ST2以上では、マスク割合指標が大きい値となるほど信頼度が低下する関係である。また、信頼度は、全体細分化度の比較的少ない変化量で、100%から0%に近い値まで急激に低下している。マスク割合指標と信頼度との関係が図12のようになっているのは、周波数解析結果に基づいて信頼性のある霧判定を行うには、周波数解析する画像の大きさ(すなわち全信号量)がある程度の大きさ以上であることが必要だからであり、マスク割合指標がST2よりも大きい場合には、信号量が不十分と判断できるからである。
ステップS360では、ステップS330で決定した第1信頼度と、ステップS350で決定した第2信頼度との積を、最終信頼度として算出する。
このようにして最終信頼度を算出したら、図2のステップS400の周波数解析演算を実行し、次いで、ステップS500の霧判定処理を実行する。これらステップ400乃至S500が画像霧状態判定手段に相当する処理である。次に、ステップS400の周波数解析演算の内容を図8に基づいて説明する。
まず、ステップS410では、マスク処理後の判定画像を構成する各ライン(すなわち入力信号)の中で、予め設定された条件を満たすラインを周波数解析に使用できる使用可能ラインに決定する。上記条件は、ここでは、ステップS310で算出した一次細分化度が0または1、且つ、マスクによって除去された割合が所定割合以下という条件である。
そして、続くステップS420では、まず、ステップS410で決定した各使用可能ラインに対して高速フーリエ変換処理を行い、次いで、全部の変換結果を合算して合計パワースペクトルを求める。この合計パワースペクトルは、周波数解析した信号内に、どの周波数成分がどの程度含まれているかを示すものであり、横軸を周波数、縦軸をパワーとする二次元グラフとして表せる。
この時点での横軸の単位は、サイクル/画素(cycle per pixel :以下、cppとする)であり、人間の視覚とは無関係であるので、続くステップ430において、これを人間の視覚感度が反映される単位であるサイクル/度(cycle per degree:以下、cpdとする)に換算する。
具体的には、cpp単位における周波数をsとすると、cpd単位の周波数tは下記式1から得られる。
(式1) t=s/(判定画像1ラインの画素数×1画素当たりの画角)
式1において、1画素当たりの画角は、式2に基づいて予め設定されている。
(式2) 1画素当たりの画角=(180/π)×tan−1(CCDの水平サイズ/レンズの焦点距離)
ステップS430を実行した後は図2のステップS500の霧判定処理を実行する。次に、この霧判定処理の内容を図9に基づいて説明する。まず、ステップS510では、人間の視覚感度が良好な領域である1.5cpdから18cpdまでのパワースペクトルの合計値を算出する。なお、この合計値に代えて、1.5cpdから18cpdまでの一部の範囲または一点(たとえば、6.0cpd)のパワースペクトルを用いて、次のステップS520の霧判定を行ってもよい。
続くステップS520では、上記パワースペクトルと比較するために予め設定された判定基準値と、ステップS510で算出したパワースペクトルの合計値とを比較する。そして、パワースペクトルの合計値が判定基準値よりも低い場合には、霧がかかった画像であると判定し、パワースペクトルの合計値が判定基準値以上である場合には、霧がかかった画像でないと判定する。
そして、続くステップS530では、ステップS520の判定結果を、ステップS360で算出した最終信頼度とともに、最終的な霧判定を行う装置へ出力する。上記ステップS520の判定結果は、画像が霧がかかったものであるか否かを判定しているだけであり、走行中の環境が霧であるか否かを判定するものではない。最終的な霧判定を行う装置において、この画像処理ECU14を含む複数の霧判定装置の判定結果が統合されて、最終的な霧判定が行われる。
ただし、上記ステップS520の判定結果をそのまま用いて、走行中の環境が霧であるか否かを判定してもよい。この場合には、ステップS520の判定結果を、たとえば、前述の運転支援制御ECU26やライト制御ECU28など、走行中の環境が霧であるか否かで制御が異なる装置に直接出力する。
以上、説明した本実施形態によれば、遠方道路領域を判定画像として抽出し(S100)、その抽出した判定画像から、高輝度物が撮像されている領域を除去し(S200)、その除去後の判定画像を用いて周波数解析を行い(S400)、その解析結果に基づいて霧判定を行っている(S500)。従って、霧であるのに比較的はっきりと撮像されている箇所を解析してしまうことを防止できることから、霧であるのに霧でないと判定してしまうことを防止できる。
次に、本発明の第2実施形態を説明する。第2実施形態は、機械的構成は第1実施形態と同様であり、制御が第1実施形態と異なるのみである。図13は、第2実施形態の画像処理ECU14が霧判定において実行するメインルーチンを示すフローチャートである。図13の処理において、図2と異なる点は、図2のステップS300に代えて、ステップS600乃至630を実行する点である。その他のステップS100、S200、S400、S500は図2と同じ処理であるので、説明を省略する。
ステップS600では、図7のステップS310、S320と同様にして、一次細分化度および全体細分化度を算出する。続くステップS610では、ステップS600で算出した全体細分化度が予め設定された基準値ST3よりも大きいか否かを判断する。この判断が肯定判断である場合には、霧判定を実行することなく処理を終了する。一方、否定判断である場合にはステップS620に進む。なお、上記基準値ST3は、第1実施形態の基準値ST1と同じか、それよりも小さい値に設定される。
ステップS620では、図7のステップS340と同様にしてマスク割合指標を算出する。そして、ステップS630において、ステップS620で算出したマスク割合指標が予め設定された基準値ST4よりも大きいか否かを判断する。この判断が肯定判断である場合にも、霧判定を実行することなく処理を終了する。一方、否定判断である場合にはステップS400以下を実行して霧判定を行う。なお、上記基準値ST4は、第1実施形態の基準値ST2と同じか、それよりも小さい値に設定される。
以上、本発明の実施形態を説明したが、本発明は上述の実施形態に限定されるものではなく、次の実施形態も本発明の技術的範囲に含まれ、さらに、下記以外にも要旨を逸脱しない範囲内で種々変更して実施することができる。
たとえば、前述の実施形態では、周波数解析結果に基づいて霧判定を行っていたが、周波数解析に代えて、エッジ強度解析を行い、その解析結果に基づいて霧判定を行ってもよい。エッジ強度解析とは画像のエッジ強度を求める手法であり、エッジ強度は、各画素の画素値を水平方向または垂直方向に連続的に微分処理することにより得られる。なお、エッジ強度解析においては、マスク割合は信頼度に影響を与えるが、細分化度は信頼度に影響を与ない。従って、第1実施形態において、周波数解析に代えてエッジ強度解析を用いる場合には、図7のステップS310乃至S330(細分化度に関する処理)は実行する必要はなく、ステップS350においてマスク割合指標から算出した信頼度をそのまま最終信頼度として決定する。また、第2実施形態において周波数解析に代えてエッジッ強度解析を用いる場合には、ステップS600乃至S610を実行せず、ステップS200の次に、ステップS620を実行する。
また、周波数解析として、高速フーリエ変換処理を行っていたが、ウェーブレット変換など、他の公知の周波数解析を用いてもよい。
また、前述の実施形態では、細分化度およびマスク割合指標を算出して、それら細分化度およびマスク割合指標に基づいて、信頼度の決定、または、霧判定の中止判定を行っていたが、いずれか一方のみに基づいて、信頼度の決定、または、霧判定の中止判定を行ってもよい。
また、前述の実施形態では、全部の一次細分化度のうちで、予め設定された判定値以上となっている細分化度の割合を全体細分化度としていたが、予め設定された判定値以上となっている細分化度の数を全体細分化度としてもよい。
また、前述の実施形態では、判定画像の全体の面積に対してマスク処理によって除去された面積の割合をマスク割合指標としていたが、判定画像の全体の面積に対してマスク処理後に残った面積の割合をマスク割合指標としてもよい。また、マスク割合指標として、周波数解析に用いる全部の入力信号のうち、マスクされた部分がある入力信号の割合(またはマスクされた部分がない入力信号の割合)を用いてもよい。マスクされた部分がある入力信号とは、入力信号を構成する画素群の中でマスクによって除去された画素がないものをいう。
また、前述の実施形態では、車載カメラ12によって撮像された画像から、遠方道路領域を判定画像として抽出していたが、車載カメラ12によって撮像された画像の全部を判定画像としてもよい。また、自車から中距離程度の物体が撮像されている中距離領域を判定画像として抽出してもよい。この中距離領域を判定画像として用いる場合、中距離は遠方道路領域よりもぼやけにくいことから、非常に濃い霧であるかどうかが判定できることになる。
また、判定画像として抽出する領域の形状は両方形状である必要はなく、円形等他の形状であってもよい。
また、前述の実施形態では、高輝度物領域を除去するために、実際の空の輝度(cd/m)を推定するとともに(S230)、各画素の輝度(cd/m)を推定し(S240)、それら輝度同士を比較していたが、実際の空の輝度(cd/m)に変えて、各画素の輝度(cd/m)と比較する比較対象として、コンライトセンサ23の照度をそのまま、あるいは、予め設定された係数を乗じて用いてもよい。この場合、比較する数値の単位系が互いに異なることになるが、周知の通り、光源(本実施形態では空)の輝度が一様である場合、輝度と照度とは相互に換算が可能である。従って、各画素の輝度(cd/m)とコンライトセンサ23の照度とを比較してもよいのである。
また、前述の実施形態において、実際の空の輝度(cd/m)を推定する方法として、車載カメラ12によって撮像された画像を用いる方法を説明した。この方法においては、画素値と実際の輝度との間の予め設定された対応関係を用いることになる。一方、各画素の輝度(cd/m)も、同じ対応関係を用いて推定している。そこで、判定画像内における空の画素値と、判定画像を構成する各画素の画素値とを比較して、高輝度物領域を決定してもよい。また、車載カメラ12のダイナミックレンジが狭く、一般的な空の輝度で最大値となってしまう場合には、空が撮像されている部分の画素値を予め最大画素値と設定してもよい。この場合、単純に、各画素の画素値が最大値であることをもって、その画素を高輝度物領域とすることになる。
本発明の車載霧判定装置として機能する画像処理ECU14を含む車載霧判定システム100の構成を示すブロック図である。 画像処理ECU14が霧判定において実行するメインルーチンを示すフローチャートである。 車載カメラ12によって撮像された画像例である。 車載カメラ12によって撮像された画像例である。 図2のステップS100の判定画像抽出処理を詳しく示すフローチャートである。 図2のステップS200のマスク処理を詳しく示すフローチャートである。 図2のステップS300の信頼度算出処理を詳しく示すフローチャートである。 図2のステップS400の周波数解析演算を詳しく示すフローチャートである。 図2のステップS500の霧判定処理を詳しく示すフローチャートである。 図4に示した画像において、マスク処理後の判定画像の形状を示す図である。 全体細分化度と信頼度との間の関係の一例を示す図である。 マスク割合指標と信頼度との間の関係の一例を示す図である。 第2実施形態の画像処理ECU14が霧判定において実行するメインルーチンを示すフローチャートである。
符号の説明
10:車載霧判定システム、 12:車載カメラ、 14:画像処理ECU(車載霧判定装置)、 16:ヨーレートセンサ、 18:ステアリングセンサ、 20:ミリ波レーダ、 22:車速センサ、 23:コンライトセンサ、 24:車内LAN、 26:運転支援制御ECU、 28:ライト制御ECU
S100:判定画像決定手段、 S200:マスク手段、 S400〜500:画像霧状態判定手段

Claims (6)

  1. 車両に搭載される車載カメラにより撮像された画像が、霧がかかった画像であるかどうかを判定する車載霧判定装置であって、
    前記車載カメラによって撮像された画像の少なくとも一部を霧判定に用いる判定画像に決定する判定画像決定手段と、
    判定画像を周波数解析またはエッジ強度解析して、解析結果に基づいて霧判定を行う画像霧状態判定手段とを備えるとともに、
    前記判定画像決定手段によって決定された判定画像から、高輝度物が撮像されている高輝度物領域をマスクするマスク手段を備え、
    前記画像霧状態判定手段が霧判定を行うために解析する画像が、マスク手段によってマスクされた後の判定画像であり、
    前記マスク手段は、前記車両が走行している位置における実際の空の輝度を推定するとともに、前記判定画像を構成する各画素について、画素値と実際の輝度との間の予め設定された対応関係からその画素に対応する風景の実際の輝度を推定し、推定した実際の空の輝度と各画素の輝度との比較に基づいて、前記高輝度物が撮像されている高輝度物領域を決定することを特徴とする車載霧判定装置。
  2. 車両に搭載される車載カメラにより撮像された画像が、霧がかかった画像であるかどうかを判定する車載霧判定装置であって、
    前記車載カメラによって撮像された画像の少なくとも一部を霧判定に用いる判定画像に決定する判定画像決定手段と、
    判定画像を周波数解析またはエッジ強度解析して、解析結果に基づいて霧判定を行う画像霧状態判定手段とを備えるとともに、
    前記判定画像決定手段によって決定された判定画像から、高輝度物が撮像されている高輝度物領域をマスクするマスク手段を備え、
    前記画像霧状態判定手段が霧判定を行うために解析する画像が、マスク手段によってマスクされた後の判定画像であり、
    前記マスク手段は、前記車両への照度を推定するとともに、前記判定画像を構成する各画素について、画素値と実際の輝度との間の予め設定された対応関係からその画素に対応する風景の実際の輝度を推定し、推定した車両への照度と各画素の輝度との比較に基づいて、前記高輝度物が撮像されている高輝度物領域を決定することを特徴とする車載霧判定装置。
  3. 車両に搭載される車載カメラにより撮像された画像が、霧がかかった画像であるかどうかを判定する車載霧判定装置であって、
    前記車載カメラによって撮像された画像の少なくとも一部を霧判定に用いる判定画像に決定する判定画像決定手段と、
    判定画像を周波数解析またはエッジ強度解析して、解析結果に基づいて霧判定を行う画像霧状態判定手段とを備えるとともに、
    前記判定画像決定手段によって決定された判定画像から、高輝度物が撮像されている高輝度物領域をマスクするマスク手段を備え、
    前記画像霧状態判定手段が霧判定を行うために解析する画像が、マスク手段によってマスクされた後の判定画像であり、
    前記マスク手段は、前記判定画像において空が撮像されている部分の画素値と、判定画像を構成する各画素の画素値との比較に基づいて、前記高輝度物が撮像されている高輝度物領域を決定することを特徴とする車載霧判定装置。
  4. 請求項1乃至3のいずれか1項において、前記マスク手段は、前記高輝度物領域を予め設定された関係に基づいて拡大した領域をマスクすることを特徴とする車載霧判定装置。
  5. 請求項1乃至4のいずれか1項において、前記マスク手段は前記高輝度物として発光物が撮像されている領域をマスクすることを特徴とする車載霧判定装置。
  6. 請求項1乃至5のいずれか1項において、
    前記判定画像決定手段は、前記車載カメラによって撮像された画像の一部のみを前記判定画像に決定することを特徴とする車載霧判定装置。
JP2007003928A 2007-01-11 2007-01-11 車載霧判定装置 Expired - Fee Related JP4321591B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2007003928A JP4321591B2 (ja) 2007-01-11 2007-01-11 車載霧判定装置
US12/008,408 US8786697B2 (en) 2007-01-11 2008-01-10 Apparatus for determining the presence of fog using image obtained by vehicle-mounted imaging device
DE102008003947A DE102008003947A1 (de) 2007-01-11 2008-01-11 Vorrichtung zum Bestimmen des Vorhandenseins von Nebel unter Verwendung einer Abbildung, die durch eine in ein Fahrzeug eingebaute Abbildungsvorrichtung erzielt wird

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007003928A JP4321591B2 (ja) 2007-01-11 2007-01-11 車載霧判定装置

Publications (2)

Publication Number Publication Date
JP2008170284A JP2008170284A (ja) 2008-07-24
JP4321591B2 true JP4321591B2 (ja) 2009-08-26

Family

ID=39531037

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007003928A Expired - Fee Related JP4321591B2 (ja) 2007-01-11 2007-01-11 車載霧判定装置

Country Status (3)

Country Link
US (1) US8786697B2 (ja)
JP (1) JP4321591B2 (ja)
DE (1) DE102008003947A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160050741A (ko) * 2014-10-30 2016-05-11 현대모비스 주식회사 차량 경보 장치

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2902556B1 (fr) * 2006-06-15 2008-08-15 Valeo Vision Sa Procede de determination d'une distance de visibilite pour un conducteur d'un vehicule.
TWI310354B (en) * 2007-03-22 2009-06-01 Lite On Technology Corp Alarm system for a vehicle
JP2010055194A (ja) * 2008-08-26 2010-03-11 Sony Corp 画像処理装置および方法、学習装置および方法、並びにプログラム
FR2936194B1 (fr) * 2008-09-23 2011-08-05 Valeo Vision Sas Procede d'ajustement de l'eclairage des projecteurs pour vehicule automobile.
KR101154552B1 (ko) 2009-12-04 2012-06-08 서강대학교산학협력단 전방 카메라를 이용한 차량의 기후 상황 감지 방법
JP2011150600A (ja) * 2010-01-22 2011-08-04 Fujitsu Ltd 画像評価装置、画像評価方法、及び画像評価プログラム
DE102010002488A1 (de) * 2010-03-02 2011-09-08 Robert Bosch Gmbh Verfahren und Vorrichtung zur Nebelerkennung mittels Spektroskopie
DE102010020537A1 (de) 2010-05-14 2011-11-17 H&S Robotic Solutions GbR (vertretungsberechtigter Gesellschafter: Bernd-Helge Schäfer, 67661 Kaiserslautern) Wasserdetektor
JP5462098B2 (ja) * 2010-07-26 2014-04-02 有限会社アストロン 気象測定装置
DE102011017644A1 (de) * 2011-04-28 2012-10-31 Robert Bosch Gmbh Verfahren zur Steuerung einer Scheinwerferanlage eines Fahrzeugs und Vorrichtung zur Ansteuerung einer Scheinwerferanlage eines Fahrzeugs
JP5962193B2 (ja) 2012-05-09 2016-08-03 株式会社デンソー 車両光源検出装置および車両光源検出プログラム
US9467687B2 (en) * 2012-07-03 2016-10-11 Clarion Co., Ltd. Vehicle-mounted environment recognition device
JP5754470B2 (ja) * 2012-12-20 2015-07-29 株式会社デンソー 路面形状推定装置
US9126534B2 (en) * 2013-03-14 2015-09-08 Ford Global Technologies, Llc Automated camera wash for vehicles
SG11201508430SA (en) * 2013-04-12 2015-11-27 Agency Science Tech & Res Method and system for processing an input image
EP3027469A4 (en) 2013-07-31 2017-04-05 SenseDriver Technologies, LLC Vehicle use portable heads-up display
WO2015031478A1 (en) 2013-08-28 2015-03-05 Gentex Corporation Imaging system and method for fog detection
EP3083337A4 (en) 2013-12-20 2018-02-21 SenseDriver Technologies, LLC Method and apparatus for in-vehicular communications
JP6087858B2 (ja) * 2014-03-24 2017-03-01 株式会社日本自動車部品総合研究所 走行区画線認識装置及び走行区画線認識プログラム
US9734425B2 (en) 2015-02-11 2017-08-15 Qualcomm Incorporated Environmental scene condition detection
US9846927B2 (en) * 2014-05-20 2017-12-19 Qualcomm Incorporated Systems and methods for haziness detection
US10402143B2 (en) 2015-01-27 2019-09-03 Sensedriver Technologies, Llc Image projection medium and display projection system using same
JP6657925B2 (ja) * 2015-06-04 2020-03-04 ソニー株式会社 車載カメラ・システム並びに画像処理装置
US9751454B2 (en) * 2016-01-29 2017-09-05 Toyota Motor Engineering & Manufacturing North America, Inc. Control of vehicle exterior lights based on vehicle location and/or planned route information
US9858675B2 (en) 2016-02-11 2018-01-02 Adobe Systems Incorporated Object segmentation, including sky segmentation
US10548683B2 (en) 2016-02-18 2020-02-04 Kic Ventures, Llc Surgical procedure handheld electronic display device and method of using same
US10691957B2 (en) * 2018-02-12 2020-06-23 ITS Plus, Inc. Method for increasing the accuracy of traffic cameras using optical masking technology
US11124173B2 (en) * 2018-07-17 2021-09-21 Jaguar Land Rover Limited Method and apparatus for outputting a control signal
US11092480B2 (en) * 2018-09-27 2021-08-17 International Business Machines Corporation Light obstruction sensor
CN113077422B (zh) * 2021-03-22 2023-08-15 浙江大华技术股份有限公司 起雾图像检测方法、模型训练方法及装置

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE59509929D1 (de) 1994-07-06 2002-01-24 Volkswagen Ag Verfahren zur Ermittlung der Sichtweite, insbesondere für die Bewegung eines Kraftfahrzeuges
JPH08285498A (ja) 1995-04-18 1996-11-01 Mitsubishi Electric Corp 飛しょう体の誘導装置
JPH0951484A (ja) 1995-08-08 1997-02-18 Mazda Motor Corp 電子カメラの光量制御装置
WO1997016926A1 (en) * 1995-10-31 1997-05-09 Sarnoff Corporation Method and apparatus for determining ambient conditions from an image sequence
US6493465B2 (en) * 1996-02-21 2002-12-10 Canon Kabushiki Kaisha Matching point extracting method and apparatus therefor
US6587573B1 (en) * 2000-03-20 2003-07-01 Gentex Corporation System for controlling exterior vehicle lights
DE29811086U1 (de) 1997-08-22 1998-09-17 Leopold Kostal GmbH & Co KG, 58507 Lüdenscheid Einrichtung zum Erfassen von sich auf die Sichtqualität zum Führen eines Kraftfahrzeuges auswirkenden Einflüssen
JP3444192B2 (ja) 1998-05-21 2003-09-08 日産自動車株式会社 撮像環境推定装置
US7016045B2 (en) * 1999-03-12 2006-03-21 Regents Of The University Of Minnesota Video camera-based visibility measurement system
JP2002268116A (ja) 2001-03-13 2002-09-18 Ricoh Co Ltd 自動露出制御装置およびそのプログラムを組み込んだ外部記憶媒体
FR2835911B1 (fr) 2002-02-14 2004-05-07 France Etat Ponts Chaussees Procede de determination de la distance de visisbilite et procede de determination de la presence d'un brouillard
FR2847367B1 (fr) 2002-11-19 2005-01-14 Valeo Vision Procede et dispositif de determination de la distance de visibilite du conducteur d'un vehicule
JP4198608B2 (ja) * 2004-01-15 2008-12-17 株式会社東芝 補間画像生成方法および装置
JP4701383B2 (ja) 2005-02-10 2011-06-15 国立大学法人北海道大学 視界不良評価方法および視界不良評価装置
FR2884637B1 (fr) * 2005-04-19 2007-06-29 Valeo Vision Sa Procede de detection de brouillard nocturne et systeme de mise en oeuvre de ce procede
JP4506573B2 (ja) 2005-06-15 2010-07-21 株式会社デンソー 車載霧判定装置
JP4506582B2 (ja) 2005-06-24 2010-07-21 富士ゼロックス株式会社 電子写真感光体、画像形成装置及びプロセスカートリッジ
US20110043603A1 (en) * 2006-01-18 2011-02-24 Technion Research & Development Foundation Ltd. System And Method For Dehazing
JP5022609B2 (ja) * 2006-02-27 2012-09-12 日立オートモティブシステムズ株式会社 撮像環境認識装置
US7633383B2 (en) * 2006-08-16 2009-12-15 International Business Machines Corporation Systems and arrangements for providing situational awareness to an operator of a vehicle
US7693629B2 (en) * 2006-11-14 2010-04-06 Denso Corporation Onboard fog determining apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160050741A (ko) * 2014-10-30 2016-05-11 현대모비스 주식회사 차량 경보 장치

Also Published As

Publication number Publication date
JP2008170284A (ja) 2008-07-24
DE102008003947A1 (de) 2008-07-24
US8786697B2 (en) 2014-07-22
US20080169912A1 (en) 2008-07-17

Similar Documents

Publication Publication Date Title
JP4321591B2 (ja) 車載霧判定装置
JP4241834B2 (ja) 車載霧判定装置
JP4784452B2 (ja) 車載霧判定装置
US6690011B2 (en) Infrared image-processing apparatus
EP1837803A2 (en) Headlight, taillight and streetlight detection
JP5065172B2 (ja) 車両灯火判定装置及びプログラム
JP4506573B2 (ja) 車載霧判定装置
US9269006B2 (en) Imaging apparatus, vehicle system, and image-processing method for image magnification and expansion
JP2007057331A (ja) 車載霧判定装置
WO2016125377A1 (ja) 画像処理装置、および車両システム
JP2014215877A (ja) 物体検出装置
JP2007300181A (ja) 周辺認識装置、周辺認識方法、プログラム
JP2000030197A (ja) 温体検出装置
WO2016129301A1 (ja) 車両用進入可否判定装置
US11055542B2 (en) Crosswalk marking estimating device
JP4486997B2 (ja) 車両周辺監視装置
CN110073410B (zh) 跟踪场景中的对象的方法
JP5353531B2 (ja) 車両灯火認識装置及びプログラム
JP2006080752A (ja) カメラ用露光制御装置および制御方法
JP2020066246A (ja) 路面状態推定装置
JP5310162B2 (ja) 車両灯火判定装置
EP4303850A1 (en) Object detection method and object detection device
JP3532896B2 (ja) スミア検出方法及びこのスミア検出方法を用いた画像処理装置
JP4871941B2 (ja) 車両周辺監視装置
US20230394844A1 (en) System for avoiding accidents caused by wild animals crossing at dusk and at night

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080507

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081209

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090303

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090402

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090512

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090525

R150 Certificate of patent or registration of utility model

Ref document number: 4321591

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120612

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120612

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130612

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140612

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees