JP2005043324A - 路面損傷状態点検方法及び路面損傷位置の特定方法 - Google Patents
路面損傷状態点検方法及び路面損傷位置の特定方法 Download PDFInfo
- Publication number
- JP2005043324A JP2005043324A JP2003280255A JP2003280255A JP2005043324A JP 2005043324 A JP2005043324 A JP 2005043324A JP 2003280255 A JP2003280255 A JP 2003280255A JP 2003280255 A JP2003280255 A JP 2003280255A JP 2005043324 A JP2005043324 A JP 2005043324A
- Authority
- JP
- Japan
- Prior art keywords
- road surface
- damage
- inspection
- lane
- shadow
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
- Image Processing (AREA)
Abstract
【課題】 路面を走行しながら路面の損傷部分を自動的に、しかも正確に検出することが可能となる路面損傷状態点検方法を提供する。
【解決手段】 点検車両を走行させながら路面の損傷状態を点検する路面損傷状態点検方法であって、路面に投影される点検車両の影を除去する自車影判別除去工程S5と、ペイントされた表示案内を含む白色部分を撮像画像から除去する白色判別除去工程S3と、撮像画像内から点検中の車線領域外の領域を除去する車線判別除去工程S4と、ジョイント部分を撮像画像から除去するジョイント判別除去工程S6と、舗装路面の汚れを前記撮像画像から除去する路面汚れ判別除去工程S12と、周辺構造物の影を除去する構造物影判別除去工程S7とを有する。
【選択図】 図1
【解決手段】 点検車両を走行させながら路面の損傷状態を点検する路面損傷状態点検方法であって、路面に投影される点検車両の影を除去する自車影判別除去工程S5と、ペイントされた表示案内を含む白色部分を撮像画像から除去する白色判別除去工程S3と、撮像画像内から点検中の車線領域外の領域を除去する車線判別除去工程S4と、ジョイント部分を撮像画像から除去するジョイント判別除去工程S6と、舗装路面の汚れを前記撮像画像から除去する路面汚れ判別除去工程S12と、周辺構造物の影を除去する構造物影判別除去工程S7とを有する。
【選択図】 図1
Description
本発明は、走行する車両から路面の撮像画像を逐次取り込んで所要の画像処理を行うことにより、路面の損傷状態を点検する路面損傷状態点検方法、及び路面の点検の実施と同時に、若しくはその後に、路面損傷箇所である損傷発見位置を特定する路面損傷位置の特定方法に関する。
従来、路上点検は点検員が目視による巡視を行うことが多いため、路面の損傷の有無などを確認するための巡視作業は、通常、その作業内容を熟知した点検員が行うことが多い。従って、このような点検作業の際に、例えば熟練した点検員の要員数が少ないような場合には、点検員の交代を効率よく行うといった人的な努力などにより、目視による路面損傷の点検作業を遂行していた。
ところで、このような路面点検を実際の路上で行う場合には、通常、車両からの巡視(目視)によって行っているため、例えば高速道路においても、走行する車両から目視点検できるように車両を低速で走行させて行っていたが、危険性を伴うばかりか、点検作業に長時間を要している。
そこで、点検員の目視による点検方法ではなく、自動検測車に据え付けたカメラで路面を逐次撮影しながら路面損傷状態の点検を少人数で、かつ、安全に、しかもスピーディに行うことができる路面巡視装置などの開発も検討されている(例えば、特許文献1参照。)。
また、このような路面などの具体的な損傷状態について、例えば、ひび割れなどを自動的に検測するための具体的な実現手段として、検査対象である被写体の表面を撮像するとともに、適宜の数学的な処理などを伴う画像処理方法などによってひび割れ部分を検出することができるひび割れ検出装置も提案されている(例えば、特許文献2参照。)。
さらに、例えば、車体に搭載の光源から路面に向けて扇形のファンビーム光線を照射し、その光線の軌跡を撮影してそのデータをデータ処理装置にかけ、路面横断凹凸の演算を行う構成の凹凸測定装置も提案されている(例えば、特許文献3参照。)。
特開平8−86645号公報(第2頁右欄上段、段落[0002])
特開平3−160349号公報(第3頁、右欄上段〜左欄下段)
特公平7−49942号公報(第2頁左欄、中段)
しかしながら、前述した特許文献2及び特許文献3に記載の装置にあっては、天候の条件によっては影を損傷として誤認識したり、路上の汚れなどを損傷として誤認識したりする虞がある。
こういった事情から、これらの非損傷データを排除して損傷部分を具体的に、かつ、正確に自動検出することができる路面の点検検出方法の開発が強く求められている。
そこで、本発明は、上記した事情に鑑み、路面を走行しながら路面の損傷部分を自動的に、しかも正確に検出することが可能となる路面損傷状態点検方法、及び、走行中に検出した路面上の損傷位置について、走行路線内で特定することができる路面損傷位置の特定方法を提供することを目的とするものである。
本発明の路面損傷状態点検方法は、点検車両を路面上で走行させながら前記走行中の路面をカメラで撮像し、その撮像画像から前記路面の損傷状態を点検する路面損傷状態点検方法であって、
前記撮像画像から前記路面に投影される少なくとも前記点検車両に積載した点検装置の影を除去する自車影判別除去工程と、
前記路面上のペイントされた表示案内を含む白色部分を前記撮像画像から除去する白色判別除去工程と、
前記撮像画像内から前記路面内の点検中の車線領域に隣接する他の車線領域を除去する車線判別除去工程と、
前記走行する路面のうち橋梁部分と一般の舗装路面部分とをつなぐジョイント部分を、前記撮像画像から除去するジョイント判別除去工程と、
前記路面の汚れを前記撮像画像から除去する路面汚れ判別除去工程と、
前記路面に投影された周辺構造物の影を除去する構造物影判別除去工程と
を有することを特徴としている。
前記撮像画像から前記路面に投影される少なくとも前記点検車両に積載した点検装置の影を除去する自車影判別除去工程と、
前記路面上のペイントされた表示案内を含む白色部分を前記撮像画像から除去する白色判別除去工程と、
前記撮像画像内から前記路面内の点検中の車線領域に隣接する他の車線領域を除去する車線判別除去工程と、
前記走行する路面のうち橋梁部分と一般の舗装路面部分とをつなぐジョイント部分を、前記撮像画像から除去するジョイント判別除去工程と、
前記路面の汚れを前記撮像画像から除去する路面汚れ判別除去工程と、
前記路面に投影された周辺構造物の影を除去する構造物影判別除去工程と
を有することを特徴としている。
これにより、路面を走行しながら路面の損傷部分を自動的に、しかも正確に検出することが可能となる。
また、本発明の路面損傷状態点検方法は、前記自車影判別除去工程は、前記路面に投影される前記点検装置の影、又は前記路面に投影される前記点検車及び前記点検装置の影からなる自車影に対応して形成した自車影マスクを用いて、前記撮像画像から前記自車影を除去することを特徴としている。
本発明の路面損傷状態点検方法は、前記車線判別除去工程は、少なくとも前記路面の白線に対応する領域を撮像画像の濃淡から判別して形成した車線マスクを用いて、前記撮像画像から前記白線よりも外側領域を除去することを特徴としている。
また、本発明の路面損傷状態点検方法は、前記ジョイント判別除去工程は、前記ジョイント部分に対応する領域を撮像画像のエッジ画像により判別して形成したジョイントマスクを用いて、前記撮像画像から前記ジョイントを除去することを特徴としている。
本発明の路面損傷状態点検方法は、前記路面汚れ判別除去工程は、前記路面の汚れに対応する領域を、前記撮像画像の濃淡のコントラストから形成したヒストグラムを判別手段として用いて抽出し、前記撮像画像から除去することを特徴としている。
また、本発明の路面損傷状態点検方法は、前記構造物影判別除去工程は、前記撮像画像から前記構造物影の輪郭部分での空間微分値の平均と標準偏差とを用いた所定の判別式により形成した構造物影マスクを用いて、前記撮像画像から前記構造物影を除去することを特徴している。
本発明の路面損傷位置の特定方法は、点検すべき高速道路の特定路線全体に亙って点検車両を走行しながら走行路面の損傷箇所を検出していく点検作業と同時に、若しくはその後に、前記損傷箇所である損傷発見位置を特定する路面損傷位置の特定方法であって、
前記特定路線が、下り車線又は登り車線走行の場合、路線変更の場合、渡り車線で走行するときのいずれについても、
ビーコンIDの設置位置から前記損傷発見位置までの距離を所定の演算式から導出し、
前記ビーコンIDの設置位置のキロポストと、前記ビーコンIDの設置位置から前記損傷発見位置までの距離とから、前記損傷発見位置のキロポスト値を求め、
前記ビーコンIDの設置してある前記点検中の路線のピアテーブルにより、前記損傷発見位置の前記キロポスト値に最近接するキロポストのピアを前記損傷発見位置として特定する
ことを特徴としている。
前記特定路線が、下り車線又は登り車線走行の場合、路線変更の場合、渡り車線で走行するときのいずれについても、
ビーコンIDの設置位置から前記損傷発見位置までの距離を所定の演算式から導出し、
前記ビーコンIDの設置位置のキロポストと、前記ビーコンIDの設置位置から前記損傷発見位置までの距離とから、前記損傷発見位置のキロポスト値を求め、
前記ビーコンIDの設置してある前記点検中の路線のピアテーブルにより、前記損傷発見位置の前記キロポスト値に最近接するキロポストのピアを前記損傷発見位置として特定する
ことを特徴としている。
また、本発明の路面損傷位置の特定方法は、点検すべき高速道路の下り車線又は上り車線で点検車を走行させながら走行路面の損傷箇所を検出していく点検作業と同時に、若しくはその後に、前記高速道路の下り車線又は上り車線の基準位置から前記損傷箇所である損傷発見位置までの距離を特定する路面損傷位置の特定方法であって、
前記損傷箇所を発見時のパルスカウンタの値及び車速係数より、予め登録されているビーコンIDの設置位置から損傷発見位置までの距離D0を算出し、
前記ビーコンIDの設置位置のキロポストと、前記ビーコンIDの設置位置から前記損傷発見位置までの距離との2つのデータを用いて前記損傷発見位置のキロポスト値を求め、
前記ビーコンIDの設置してある前記点検中の路線のピアテーブルにより、前記損傷発見位置の前記キロポスト値に最も近接するキロポストのピアを前記損傷発見位置として特定し、
前記特定したキロポストのピアと前記損傷箇所が撮像された画像とのデータをメモリに格納する
ことを特徴としている。
前記損傷箇所を発見時のパルスカウンタの値及び車速係数より、予め登録されているビーコンIDの設置位置から損傷発見位置までの距離D0を算出し、
前記ビーコンIDの設置位置のキロポストと、前記ビーコンIDの設置位置から前記損傷発見位置までの距離との2つのデータを用いて前記損傷発見位置のキロポスト値を求め、
前記ビーコンIDの設置してある前記点検中の路線のピアテーブルにより、前記損傷発見位置の前記キロポスト値に最も近接するキロポストのピアを前記損傷発見位置として特定し、
前記特定したキロポストのピアと前記損傷箇所が撮像された画像とのデータをメモリに格納する
ことを特徴としている。
また、本発明の路面損傷位置の特定方法は、点検すべき高速道路の路線を分岐点から変更させて点検車両を走行させながら走行路面の損傷箇所を検出していく点検作業と同時に、若しくはその後に、前記高速道路の下り車線又は上り車線の基準位置から前記損傷箇所である損傷発見位置までの距離を特定する路面損傷位置の特定方法であって、
前記損傷箇所を発見時のパルスカウンタの値及び車速係数より、予め登録されているビーコンIDの設置位置から前記損傷発見位置までの距離D0を算出し、
前記ビーコンIDの設置位置から前記分岐点までの距離D1を求めた後、前記距離D0と前記距離D1の大小関係に分けて前記損傷発見位置のキロポスト値を算出し、
前記ビーコンIDの設置してある前記点検中の路線のピアテーブルにより、前記損傷発見位置の前記キロポスト値に最も近接するキロポストのピアを損傷発見位置として特定し、
前記特定したキロポストのピアと前記損傷箇所が撮像された画像とのデータをメモリに格納する
ことを特徴としている。
前記損傷箇所を発見時のパルスカウンタの値及び車速係数より、予め登録されているビーコンIDの設置位置から前記損傷発見位置までの距離D0を算出し、
前記ビーコンIDの設置位置から前記分岐点までの距離D1を求めた後、前記距離D0と前記距離D1の大小関係に分けて前記損傷発見位置のキロポスト値を算出し、
前記ビーコンIDの設置してある前記点検中の路線のピアテーブルにより、前記損傷発見位置の前記キロポスト値に最も近接するキロポストのピアを損傷発見位置として特定し、
前記特定したキロポストのピアと前記損傷箇所が撮像された画像とのデータをメモリに格納する
ことを特徴としている。
また、本発明の路面損傷位置の特定方法は、点検すべき高速道路の渡り車線を通りながら点検車両を走行させて走行路面の損傷箇所を検出していく点検作業と同時に、若しくはその後に、前記高速道路の基準位置から前記損傷箇所である損傷発見位置までの距離を特定する路面損傷位置の特定方法であって、
前記損傷箇所を発見時のパルスカウンタの値及び車速係数より、予め登録されているビーコンIDの設置位置から前記損傷発見位置までの距離D0を算出し、
前記渡り線の長さをLWと前記ビーコンIDの設置位置から分岐点までの距離D1とを求めた後、前記距離D0、前記距離D1、前記LWの大小関係に分けて損傷発見位置のキロポスト値を算出し、
前記ビーコンIDの設置してある前記点検中の路線のピアテーブルにより、前記損傷発見位置のキロポスト値に最も近接するキロポストのピアを前記損傷発見位置として特定し、
前記特定したキロポストのピアと前記損傷箇所が撮像された画像とのデータをメモリに格納する
ことを特徴としている。
前記損傷箇所を発見時のパルスカウンタの値及び車速係数より、予め登録されているビーコンIDの設置位置から前記損傷発見位置までの距離D0を算出し、
前記渡り線の長さをLWと前記ビーコンIDの設置位置から分岐点までの距離D1とを求めた後、前記距離D0、前記距離D1、前記LWの大小関係に分けて損傷発見位置のキロポスト値を算出し、
前記ビーコンIDの設置してある前記点検中の路線のピアテーブルにより、前記損傷発見位置のキロポスト値に最も近接するキロポストのピアを前記損傷発見位置として特定し、
前記特定したキロポストのピアと前記損傷箇所が撮像された画像とのデータをメモリに格納する
ことを特徴としている。
本発明は、路面上で点検車両を走行させながら路面をカメラで撮像し、その撮像画像から路面の損傷状態を点検する路面損傷状態点検方法であって、路面に投影される点検車両の影を除去する自車影判別除去工程と、路面上のペイントされた表示案内を含む白色部分を撮像画像から除去する白色判別除去工程と、撮像画像内から路面の点検中の車線領域に隣接する他の車線領域を除去する車線判別除去工程と、橋梁部分と一般の舗装路面とをつなぐ境界部分に設けたジョイント部分を撮像画像から除去するジョイント判別除去工程と、撮像画像の濃淡についてのコントラストにより、ヒストグラムを用いて舗装路面の汚れを撮像画像から除去する路面汚れ判別除去工程と、点検しようとする路面に投影された周辺構造物の影を除去する構造物影判別除去工程とを有するものである。
従って、本発明によれば、路面を走行しながら、特に高速道路を高速走行しながらでも、路面の損傷部分を自動的に、しかも正確に検出することができる。
以下、この発明に係る実施の形態について、添付図面を参照しながら詳細に説明する。
[第1の実施の形態]
<A.舗装路面損傷状態点検方法について>
図1は、この発明の第1の実施の形態に係る舗装路面損傷状態点検方法を示すフローチャートであり、この舗装路面損傷状態点検方法では、舗装路面状態点検用のアームを取り付けた点検車両1を高速道路上で高速走行させながら、この点検車両1に積載された点検装置2を用いて、舗装路面の表面状態をカメラで撮像し、その撮像画像から舗装路面の損傷状態を確認していくようになっており、具体的には、第1ステップ(S1)〜第12ステップ(S12)で構成されている。
[第1の実施の形態]
<A.舗装路面損傷状態点検方法について>
図1は、この発明の第1の実施の形態に係る舗装路面損傷状態点検方法を示すフローチャートであり、この舗装路面損傷状態点検方法では、舗装路面状態点検用のアームを取り付けた点検車両1を高速道路上で高速走行させながら、この点検車両1に積載された点検装置2を用いて、舗装路面の表面状態をカメラで撮像し、その撮像画像から舗装路面の損傷状態を確認していくようになっており、具体的には、第1ステップ(S1)〜第12ステップ(S12)で構成されている。
ここで、本実施の形態の舗装路面損傷状態点検方法を具体的に説明するのに先立ち、最初に、舗装路面損傷状態点検方法に用いる点検装置2について、図2を参照しながら説明する。
この点検装置2は、舗装路面損傷状態点検方法に用いる点検車両1に備えており、具体的には、この点検車両1の車体10の上部(ルーフ部分)の左右両側から立ち上げて設置した略門型状のガントリー21と、このガントリー21の左右上部の両端部に設置した一対のレーザ用撮像カメラ22と、車体10上部の中央にガントリー21よりも低く起立させて設けた直立アーム23に固定する1台の可視画像用カメラ24と、車体10上部で直立アーム23とガントリー21の両縦アーム部21Aとの間に設けた一対のレーザヘッド25と、車体10の一対のサイドミラー26と、画像データ処理装置3(図3参照)などとを備えている。
画像データ処理装置3は、高速走行しながら撮像された舗装路面の画像データに対して、本発明の舗装路面損傷状態点検方法に基づく画像処理を行い、舗装路面の損傷の有無及び損傷状態などを検出するものである。この画像データ処理装置3は、図3に示すように、大略構成として、前述した左右のレーザ用撮像カメラ22と、可視画像用カメラ(CCD)24と、左右のレーザ用撮像カメラ22でそれぞれ取り込んだ路面についての各原画像を前述した所定の画像処理を行うための画像処理装置31と、制御装置(CPU)32と、各画像処理データを格納・保存するための記憶装置(メモリ)33とを備えている。
このうち、各画像処理装置31には、ビデオキャプチャ部31Aと、レーザ画像処理部31Bと、入出力(I/O)部31Cとを備えている。
さらに、本実施の形態では、この路面の損傷部分の画像処理による検出動作ととともに、この損傷部分を検出した場合には、走行中の路線での損傷場所の特定も、後述する本発明の損傷位置の特定方法を用いて同時に算出するようになっている。このため、この画像データ処理装置3には、制御装置32の内部に図示外のカウンタを設けており、点検車両1側に設置した図示外の車速パルス装置からのパルス信号を入力するとともに、点検車両1に設けたアンテナ5を介してVICSモニタ装置(Vehicle Information and Communication System;道路交通情報通信システム)4から出力されるVICS信号による情報も入力するように構成されている。
(I)第1ステップ(S1)について:
第1ステップ(S1)は、点検装置2のレーザ用撮像カメラ22で取り込んだ(二次元の白黒画像)撮像画像に対して所定の画像処理を行って正規化させるものである(画像正規化工程)。
第1ステップ(S1)は、点検装置2のレーザ用撮像カメラ22で取り込んだ(二次元の白黒画像)撮像画像に対して所定の画像処理を行って正規化させるものである(画像正規化工程)。
この画像正規化工程では、前述のレーザ用撮像カメラ22で取り込んだ撮像画像(例えば、図4(A)参照)が、路面に対して傾斜した状態で撮影されているため、近傍にある画像と遠方にある画像とでは、実質的には縦横の距離の関係が大きく異なることから、同図(B)に示すように、縦横の寸法比が同じ又はそれに近い関係となるように、適宜の手段で画像処理を行う。
このようにして、矩形状の画面全体において、先方(画面上部)ほど撮像画像が広がった広角の画像データから、正規化のための画像処理及び必要な画角変換などを行うことにより、路面状態を垂直上方から撮影したときの画像と実質的に同等の画像データが得られるようになる。
なお、この正規化された画像データでは、所定の画面において、横方向が路面の幅方向に平行な方向を示すとともに、縦方向が道路の長さ方向を示すようになるので、その後の数学的処理を考慮して、画面の縦横直交する方向にデカルト座標(O−XY)を設定する(図4(B)参照)。
また、この画像正規化工程では、レーザ用撮像カメラ22(図2参照)で画像を取り込む際に、図示外の撮像レンズなどが、固有に有する各種の収差、例えば歪曲収差などを生じているような場合には、この正規化作業に先立ち、適宜の方法によりこれらの収差をできるだけ補正しておくことが好ましい。
なお、この第1ステップ(S1)においては、屋外における路面撮影であるため、日光の入射加減などにより、サンプリングした画像データが暗すぎたり明るすぎたりするのを回避するため、換言すれば、安定した良好な原画像を得るため、必要に応じて公知手段による適宜の処理を行うようにしてもよい。
(II)第2ステップ(S2)について:
次に、第2ステップ(S2)では、舗装路面の損傷部分を含む損傷候補のデータを捜し出す(抽出する)ため、第1ステップ(S1)で形成した正規化された画像データに対して、例えば一定方向に走査を行いながら、公知の空間微分処理などを行ってエッジ検出を行うとともに、予め決定された閾値を用いて二値化処理を行うことにより、画像データ内において鋭角的なピークを描く白黒境界領域の輪郭を抽出する(輪郭抽出工程)。
次に、第2ステップ(S2)では、舗装路面の損傷部分を含む損傷候補のデータを捜し出す(抽出する)ため、第1ステップ(S1)で形成した正規化された画像データに対して、例えば一定方向に走査を行いながら、公知の空間微分処理などを行ってエッジ検出を行うとともに、予め決定された閾値を用いて二値化処理を行うことにより、画像データ内において鋭角的なピークを描く白黒境界領域の輪郭を抽出する(輪郭抽出工程)。
この輪郭抽出工程では、エッジ検出方法として、例えば、一次又は二次微分法、ソーベル法、ロバーツ法、プレウィット法、ラプアシアン法などが知られている。また、二値化閾値の決定方法には、モード法、判別分析法、P−タイル法などが知られている。
このようにして抽出された輪郭データから生成される線で囲まれる領域から、後述する「ジョイントマスク」などを生成することができる。
(III)第3ステップ(S3)について:
第3ステップ(S3)では、第2ステップ(S2)において、正規化させた画像データから輪郭抽出された(損傷候補のデータが含まれた)データの中から、点検対象となる車線の路面部分のみの画像データを取り出す(抽出する)ため、ペイントされた路面上の表示案内部分に相当する部分の白色マスクM1(以下、これを「ペイントマスク」とよぶ)を作成する(ペイントマスク作成工程)。なお、このとき、画像データの角隅部分(即ち、図5において、左右下側角隅部分)などには空白部分が発生するのでこれを除去する。
第3ステップ(S3)では、第2ステップ(S2)において、正規化させた画像データから輪郭抽出された(損傷候補のデータが含まれた)データの中から、点検対象となる車線の路面部分のみの画像データを取り出す(抽出する)ため、ペイントされた路面上の表示案内部分に相当する部分の白色マスクM1(以下、これを「ペイントマスク」とよぶ)を作成する(ペイントマスク作成工程)。なお、このとき、画像データの角隅部分(即ち、図5において、左右下側角隅部分)などには空白部分が発生するのでこれを除去する。
即ち、前述の第1ステップ(S1)では、矩形状の画面全体に撮像画像が広がった画像データ(図4(A)参照)から、正規化のための画像処理を行うことにより、路面状態を垂直上方から撮影したときの画像と実質的に同等の画像データが得られるようになる(図4(B)参照)。
ところが、この画面内では、手元(下)側の画像は縮小され遠方(上)側の画像は拡大されることになるので、元々矩形状に撮影してあった画像データから得られる全体画像は略逆台形状をなす形状となり(図5参照)、前述したように、矩形状の画面全体に対して四隅(角隅)部分が欠けた画像となっている。このように、この正規化された画像データには、例えば、路面以外の欠損画像データや、損傷部分以外の不要な画像データも含まれている。
そこで、この第3ステップ(S3)では、第1ステップS1による画像正規化処理後に発生している画像データ内の四隅部分の画像が欠けた何も撮影されていない白色の欠損画像エリア(非路面データ領域)の部分(図5参照)や、路面上にペイントされた表示(文字や数字)或いは安全上の案内などの白色エリア(表示案内データ領域)などの部分を、損傷候補の画像データから除去するために、これらの白色部分に相当する「ペイントマスク」M1(図5の白色に相当する部分)を作成する。
なお、この損傷候補の画像データにおいて、特にサイズの小さな白色部分は、(最終的な検出対象である)損傷データである可能性も残っているので、これらの白色部分だけは除去しないようにしている。
(IV)第4ステップ(S4)について:
第4ステップ(S4)は、損傷候補の画像データについて、検査・点検しようとする所望の走行中の車線内だけに撮像画像を制限するための工程であり、走行車線を規制する白線部分を検出して「ペイントマスク」M2(図5参照)を作成するとともに、その白線部分から外部側領域を除去する(図6参照)。
第4ステップ(S4)は、損傷候補の画像データについて、検査・点検しようとする所望の走行中の車線内だけに撮像画像を制限するための工程であり、走行車線を規制する白線部分を検出して「ペイントマスク」M2(図5参照)を作成するとともに、その白線部分から外部側領域を除去する(図6参照)。
即ち、この車線マスク形成工程(S4)では、例えば図5において、「ペイントマスク」M2を用いることにより、所定の長さを超えて縦方向に平行に伸びる矩形状の領域を車線表示用の白線と判断し、この白線領域から左又は右のエリア全体を路面点検の対象としない車線外領域と判別させるようになっている。従って、これにより、図6に示すように、路面損傷状態を検出する車線を1車線だけに絞った画像データとして抽出することができるようになっている。
なお、この白線領域の左右何れが車線外領域であるかの判別は、例えば、画面内において白線領域が1本だけと判断された場合、この白線領域の部分よりも画面の左右縁部までの水平距離が短い方を車線外領域と判断することができる。
一方、画面内において白線領域が2本あると判断された場合、それぞれの白線領域の部分よりも画面の左右縁部までの領域を全て車線外領域と判断するようにすることができる。
一方、画面内において白線領域が2本あると判断された場合、それぞれの白線領域の部分よりも画面の左右縁部までの領域を全て車線外領域と判断するようにすることができる。
(V)第5ステップ(S5)について:
第5ステップ(S5)では、路面を点検する点検車両1の車体10自身の車体の影、この車体10から突出している前述した点検装置2のカメラやレーザ及びこれらの取り付けている各種のアームなどの影を損傷候補のデータから除去するために、「自車影マスク」M3(図13(B)参照)を作成する(自車影マスク作成工程)。
第5ステップ(S5)では、路面を点検する点検車両1の車体10自身の車体の影、この車体10から突出している前述した点検装置2のカメラやレーザ及びこれらの取り付けている各種のアームなどの影を損傷候補のデータから除去するために、「自車影マスク」M3(図13(B)参照)を作成する(自車影マスク作成工程)。
本実施の形態の第5ステップ(S5)は、具体的に説明すると、図7に示すように、横アーム検索工程(S51)、縦アーム検索工程(S52)、マスクデータ作成工程(S53)の3工程で構成されている。
(i)横アーム検索工程(S51)について:
この横アーム検索工程(S51)は、撮像された画面上で水平(X)方向に直線的に伸びる特徴を有する横アーム21B(図2参照)検索を行って横アーム21Bの位置を特定するものであり、具体的には図8に示すように、第51−01工程(S51−01)〜第51−13工程(S51−13)で構成されている。
この横アーム検索工程(S51)は、撮像された画面上で水平(X)方向に直線的に伸びる特徴を有する横アーム21B(図2参照)検索を行って横アーム21Bの位置を特定するものであり、具体的には図8に示すように、第51−01工程(S51−01)〜第51−13工程(S51−13)で構成されている。
(1)第51−01工程(S51−01)では、白黒画像データの中から黒二値化レベル(閾値)を自動設定する。
(2)第51−02工程(S51−02)では、第51−01工程(S51−01)で設定した閾値を基準として、二値化処理を行う。
(3)第51−03工程(S51−03)では、水平プロファイル処理を行って、「水平プロファイル」を形成する(図9(A)参照)。
(4)第51−04工程(S51−04)では、横アーム21Bに相当すると思われるデータ候補を抽出する(二値化プロファイル)(図9(B)参照)。
また、図8において、これら第51−01工程(S51−01)から第51−04工程(S51−04)での処理とほぼ同時に、次の第51−05工程(S51−05)から第51−09工程(S51−09)が行われる。
即ち、
(5)第51−05工程(S51−05)では、水平(X成分)方向について一般的な微分処理を行い、ソーベル(Sobel)オペレータにより、水平方向に伸びるエッジ部分を検出する。
(5)第51−05工程(S51−05)では、水平(X成分)方向について一般的な微分処理を行い、ソーベル(Sobel)オペレータにより、水平方向に伸びるエッジ部分を検出する。
(6)第51−06工程(S51−06)では、「多値(微分)プロファイル」を行い、その微分結果に対して「多値水平プロファイル」を生成する。
(7)第51−07工程(S51−07)では、第51−03工程(S51−03)で生成した二値化結果の水平プロファイルと、第51−06工程(51−06)で生成した微分結果の多値水平プロファイルとのプロファイル合成を行い、暗くて影の輪郭のある部分を検出する。
(8)第51−08工程(S51−08)では、横アーム21Bに相当すると思われるデータ候補を抽出する(合成プロファイル)。
(9)第51−09工程(S51−09)では、この後、横アーム21Bに相当するデータであるか否かを判定するために、第51−04工程(S51−04)で得られた横アーム21Bについての候補データと、第51−04工程(S51−04)で得られた横アーム21Bについての候補データとを重合するとともに、その重合部分のデータを抽出する。
次に、
(10)第51−10工程(S51−10)では、第51−09工程(S51−09)で検出した重合部分のデータが横アームであると判定(確定)した場合には、その確定した横アームのデータから、「横アーム座標」を算出・確定する(図9(C)参照)。
(10)第51−10工程(S51−10)では、第51−09工程(S51−09)で検出した重合部分のデータが横アームであると判定(確定)した場合には、その確定した横アームのデータから、「横アーム座標」を算出・確定する(図9(C)参照)。
一方、
(11)第51−11工程(S51−11)では、第51−10工程(S51−10)において、第51−09工程(S51−09)で検出した重合部分のデータが横アームでないと判定(確定)した場合には、第51−12工程(S51−12)へ移行する。
(11)第51−11工程(S51−11)では、第51−10工程(S51−10)において、第51−09工程(S51−09)で検出した重合部分のデータが横アームでないと判定(確定)した場合には、第51−12工程(S51−12)へ移行する。
従って、
(12)第51−12工程(S51−12)では、自車影なしとの判断を行う。
(12)第51−12工程(S51−12)では、自車影なしとの判断を行う。
(13)そして、第51−13工程(S51−13)では、自車影マスクの生成を中止する。
これにより、横アーム検索工程(S51)は終了する。
(ii)縦アーム検索工程(S52)について:
この縦アーム検索工程(S52)は、点検装置2の構造上、横アーム21Bがあると判断した場合にのみ行うものであり、横アーム検索工程(S51)での第51−10工程(S51−10)(図8参照)において、横アーム21B(図2参照)の存在が確定され、かつ、その特定された横アーム座標に基づいて「縦アーム座標」を特定するものである。
この縦アーム検索工程(S52)は、点検装置2の構造上、横アーム21Bがあると判断した場合にのみ行うものであり、横アーム検索工程(S51)での第51−10工程(S51−10)(図8参照)において、横アーム21B(図2参照)の存在が確定され、かつ、その特定された横アーム座標に基づいて「縦アーム座標」を特定するものである。
即ち、この縦アーム検索工程S52では、画面上で垂直(Y)方向に直線的に伸びる特徴を有する左右一対の縦アーム21Aの検索を行って縦アーム21Aの位置を特定するものであり、具体的には図10に示すように、第52−01工程(S52−01)〜第52−20工程(S52−20)で構成されている。
(1)第52−01工程(S52−01)では、横アーム検索工程(S51)で得られた横アーム21B座標に基づき、この座標よりも下側領域に対して(縦アームの長さ分だけ)縦プロファイル処理を行い、「縦プロファイル」を作成する。
(2)第52−02工程(S52−02)では、この作成された縦プロファイルのデータから、公知の方法により、縦アーム候補を抽出する。
(3)第52−03工程(S52−03)では、後述する第52−05工程(S52−05)で得られた検索エリア内において、縦アーム候補を限定する(図11(A)参照)。
(4)第52−04工程(S52−04)では、同様にして、他方の縦アーム21Aについても、縦アーム候補を抽出するとともに、縦アーム候補を限定する。これにより、左右の縦アームの検索を行う。
(5)第52−05工程(S52−05)では、左右の縦アーム候補から共に縦アーム21Aであると確定できるか否かを判定する。そして、ここで、その左右の縦アームを共に確定できたと判定される場合には、次に第52−06工程(S52−06)へ移行する。一方、左右の縦アームを共に確定できたとは判定されない場合には、後述する第52−10工程(S52−10)へ移行する。
(6)そして、第52−06工程(S52−06)では、第52−05工程(S52−05)で確定された左右縦アームの間隔が所定の範囲に収まっているか否かを判断する。そして、所定の範囲に収まっている、妥当であると判断された場合には、次に、第52−07工程(S52−07)へ移行する。また、妥当でないと判断された場合には、後述する第52−13工程(S52−13)へ移行する。
(7)第52−07工程(S52−07)では、中アーム23(図2参照)の検索を行う。例えば、横アーム検索工程S51で確定した横アーム21Bの座標から、この座標近辺の領域に対して「垂直プロファイル」を作成する。
(8)第52−08工程(S52−08)では、第52−07工程(S52−07)で形成した垂直プロファイルから、中アーム23を確定してその座標を算出する(図11(B)参照)。
そして、このように、中アーム23を確定できた場合には、次に第52−09工程(S52−09)へ移行する。一方、この中アーム23を確定できなかったときには、後述する第52−16工程(S52−16)へ移行する。
(9)第52−09工程(S52−09)では、以上の各工程処理を経て、縦アーム21Aの座標が確定するので、縦アームの検索工程が終了する。
また、この縦アーム検索工程では、第52−01工程(S52−01)へ移行するのと同時に、第52−10工程(S52−10)以下の工程も同時に行われる。
即ち、
(10)第52−10工程(S52−10)では、横アーム検索工程(S51)で得られた横アーム21B座標に基づき、この座標の周辺において特定画素数の範囲に対して、縦プロファイル処理を行い、縦プロファイルを作成する。
(10)第52−10工程(S52−10)では、横アーム検索工程(S51)で得られた横アーム21B座標に基づき、この座標の周辺において特定画素数の範囲に対して、縦プロファイル処理を行い、縦プロファイルを作成する。
(11)第52−11工程(S52−11)では、縦アーム検索エリアを作成する。
(12)第52−12工程(S52−12)では、第52−11工程(SB11)において縦アーム検索エリアを実際に作成することができたか否かを判断する。そして、縦アーム検索エリアを作成できたと判断された場合には、その縦アーム検索エリアについてのデータを前述したB3工程(SB3)での処理に用いる。他方、縦アーム検索エリアを作成できなかったと判断された場合、次の第52−13工程(S52−13)へ移行する。
(13)第52−13工程(S52−13)では、第52−12工程(S52−12)で縦アーム検索エリアを作成できなかったと判断されたので、自車影がないと判断する。
(14)従って、第52−14工程(S52−14)では、自車影マスクM3の作成を中止する。
また、第52−05工程(S52−05)において左右の縦アーム21Aを共に確定できたとは判定されない場合には、次に、第52−15工程(S52−15)以下の工程へ移行する。
即ち、
(15)第52−15工程(S52−15)では、第52−05工程(S52−05)において左右の縦アーム21Aを共に確定できたとは判定されない場合に相当するので、いずれか一方の縦アーム21Aだけ確定していることが判明している。従って、縦アーム検索処理中の画像データにおいて、左または右の縦アームに対して、つまり、左右いずれか一方の確定してある縦アーム21Aの座標から、所定のアーム間隔離れたエリア内で、中アーム23の検索を行う。
(15)第52−15工程(S52−15)では、第52−05工程(S52−05)において左右の縦アーム21Aを共に確定できたとは判定されない場合に相当するので、いずれか一方の縦アーム21Aだけ確定していることが判明している。従って、縦アーム検索処理中の画像データにおいて、左または右の縦アームに対して、つまり、左右いずれか一方の確定してある縦アーム21Aの座標から、所定のアーム間隔離れたエリア内で、中アーム23の検索を行う。
(16)第52−16工程(S52−16)では、中アーム23が確定したか否かを判定する。そして、中アーム23が確定していると判定した場合には、第52−09工程(S52−09)に移行し、縦アーム座標の確定作業が完了する。一方、中アーム23が確定していないと判定した場合には、第52−17工程(S52−17)に移行する。
(17)第52−17工程(S52−17)では、既に確定していた一方の縦アーム21Aの座標を利用し、この座標位置から所定のアーム間隔分の距離座標のところを、中アーム23として確定する。
そして、次に、前述した第52−09工程(S52−09)へ移行し、以上の各工程処理を経て、縦アーム21Aの座標が確定するので、縦アームの検索工程が終了する。
また、第52−06工程(S52−06)において、左右の縦アーム21Aの間隔が所定の範囲に収まっていないと判断された場合には、次に、第52−18工程(S52−18)以下の工程へ移行する。
即ち、
(18)第52−18工程(S52−18)では、横アーム検索工程S51で得られた横アーム21B座標に基づき、この座標の周辺において、例えば横アーム21Bの周辺の所定の画素数のエリアにおいて、縦プロファイル処理を行い、縦プロファイルを作成する。
(18)第52−18工程(S52−18)では、横アーム検索工程S51で得られた横アーム21B座標に基づき、この座標の周辺において、例えば横アーム21Bの周辺の所定の画素数のエリアにおいて、縦プロファイル処理を行い、縦プロファイルを作成する。
(19)第52−19工程(S52−19)では、第52−18工程(S52−18)で形成した縦プロファイルの値が大きい方を、左側または右側の縦アーム21Aとして固定し、次に、前述した第52−15工程(S52−15)へ移行する。
また、前述したように、第52−08工程(S52−08)で中アーム23が確定できなかったときには、第52−20工程(S52−20)へ移行する。
(20)この第52−20工程(S52−20)では、確定していた左右の縦アーム21Aの各座標の中点を中アーム23の座標として固定する。
そして、次に、前述した第52−09工程(S52−09)へ移行し、以上の各工程処理を経て、縦アーム21Aの座標が確定するので、縦アームの検索工程が終了する。
(iii)自車影マスク作成工程(S53)について:
この自車影マスク作成工程(S53)は、図12に示すように、第53−01工程(S53−01)及び第53−02工程(S53−02)で構成されている。
この自車影マスク作成工程(S53)は、図12に示すように、第53−01工程(S53−01)及び第53−02工程(S53−02)で構成されている。
(1)第53−01工程(S53−01)では、図7に示す横アーム検索工程(S51)と、縦アーム検索工程(S52)で確定した横アーム座標(又は中アーム座標でもよいし、双方の座標を用いてもよい)を用いて、自車影の基準位置座標P(Xb,Yb)を確定する(図13(A)参照)。
即ち、図14において、例えば横アーム座標の中央位置を基準として、点検装置2の各構成部分(以下、これらをブロックとよぶ)について、所定のテーブル(これは、予め設定されていてもよいし、太陽高度などの各種環境要素などから逐次設定し直しても良い)からそれぞれのブロック毎のマスク領域(X,Y)を決定する。
(2)第53−02工程(S53−02)では、前工程(S51)で確定した自車影基準データに基づき、構成部材(構成ブロック)ごとに予め決定された位置計算テーブルから、各マスク領域、つまり自車影マスクM3を作成する(図13(B)参照)。
例えば図14において、確定している横アーム座標の基準位置座標P(Xb,Yb)と、この位置計算テーブルとにより、左レーザ用カメラのマスクブロック(X,Y)は、
X1<X<X2,Y1<Y<Y2
・・・(1)
ただし、位置計算テーブルから、例えば
X1=Xb−A,X2=Xb−B
Y1=Yb−C,Y2=Yb−D
A〜D;定数
を満たす領域となる。
X1<X<X2,Y1<Y<Y2
・・・(1)
ただし、位置計算テーブルから、例えば
X1=Xb−A,X2=Xb−B
Y1=Yb−C,Y2=Yb−D
A〜D;定数
を満たす領域となる。
他のマスクブロックについても、同様にして、領域が決定されこれらを全て集合させたものが、求める自車影マスクM3となる。
(VI)第6ステップS6について:
第6ステップS6では、道路と橋梁部分との繋ぎ目などにおいて道路の幅方向に沿って互い違いに正対状態で形成されている(連続的に繰返し設けてある)三角形や四角形などの金属継ぎ目(以下、これを「ジョイント」とよぶ)などを検出して画像データから除去するため、「ジョイントマスク」M4(図16(C)参照)を形成するものである(ジョイントマスク形成工程)。
第6ステップS6では、道路と橋梁部分との繋ぎ目などにおいて道路の幅方向に沿って互い違いに正対状態で形成されている(連続的に繰返し設けてある)三角形や四角形などの金属継ぎ目(以下、これを「ジョイント」とよぶ)などを検出して画像データから除去するため、「ジョイントマスク」M4(図16(C)参照)を形成するものである(ジョイントマスク形成工程)。
特に、本発明では、点検装置2の一部を構成するカメラの取り付け向きの精度やレンズの歪曲収差などのために、実際の領域よりも広範囲な領域をジョイント領域と判断して除去する虞がある。特にこのような場合には、ジョイント領域の近傍に発生している路面の損傷部分も同時にジョイント領域と判断してその損傷部分を見逃す、といったトラブルが発生するおそれがある。
そこで、この第6ステップS6では、このような損傷部分の漏れが生じることを防止するようになっているものである。
本実施形態の第6ステップS6では、図15に示すように、大きく分けて、3つの工程、つまり、ジョイント判別前処理工程(S61)と、ジョイント判別工程(S62)と、ジョイントマスク形成工程(S63)とで構成されている。
(i)ジョイント判別前処理工程(S61)について:
ジョイント判別前処理工程(S61)では、ジョイント判定を行うのに先立ち、撮像画像に対して正規化させた画像データを形成し、換言すれば、レンズの収差を補正するとともに、路面に対して真上から見たときの画像データへが各変換を施すといったジョイント判別前処理行う(ジョイント判別前処理工程)。
ジョイント判別前処理工程(S61)では、ジョイント判定を行うのに先立ち、撮像画像に対して正規化させた画像データを形成し、換言すれば、レンズの収差を補正するとともに、路面に対して真上から見たときの画像データへが各変換を施すといったジョイント判別前処理行う(ジョイント判別前処理工程)。
そして、本実施の形態の第6ステップ(S6)は、図15に示すように、具体的に説明すると、第61−1工程(S61−1)〜第61−8工程(S61−8)の8工程で構成されている。
(1)第61−1工程(S61−1)では、画角に対して画像データを正規化する(図16(A)参照)。この正規化処理については、前述の第1ステップS1における画像正規化方法と同様に行うことができる。
(2)第61−2工程(S61−2)では、ノイズ除去処理を行う。このノイズ除去処理方法としては、公知の平滑化処理などが知られているが、この平滑化処理方法には、例えば適宜のマトリクス演算子などを用いて演算処理することにより、画素中の孤立的な輝度(濃度)のばらつきをスムージングさせ、撮像データ中からノイズを除去することができる。
(3)第61−3工程(S61−3)では、平滑化画像データに対して微分処理を行う。なお、この微分処理の方法としては、前述の第2ステップS2における微分処理と同様であり、例えば、前述のソーベル(Sobel)フィルタにより行うことができる。従って、第2ステップS2のときのデータを一部利用することも可能である。
(4)第61−4工程(S61−4)では、第61−3工程(S61−3)で得られた微分処理画像に対して、公知の方法により、予め設定された閾値などを用いて二値化処理を行う。
(5)第61−5工程(S61−5)では、第61−4工程(S61−4)で得られた二値化処理画像から水平プロファイルを形成する(図16(B)参照)。
(6)第61−6工程(S61−6)では、第61−4工程(S61−4)で得られた水平プロファイルからプロファイル形状、つまり突起部を検出し、ジョイント部を決定する。
この場合、特に、画像処理画面におけるジョイント部の高さ方向(Y座標)の幅(W)決定にあたっては、図16(C)において、次式
W=Y1−Y2
ただし、Y1;水平プロファイルの上端部
Y2;水平プロファイルの下端部
・・・(2)
による。
W=Y1−Y2
ただし、Y1;水平プロファイルの上端部
Y2;水平プロファイルの下端部
・・・(2)
による。
(7)第61−7工程(S61−7)では、第61−4工程(S61−4)で得られたジョイント部(ジョイント領域)において、輝度値に関するヒストグラムを形成する。
(8)第61−8工程(S61−8)では、第61−4工程(S61−4)で得られたジョイント部(ジョイント領域)において、単位画素ごとに尖度を算出する。
このようにして、ジョイント判別のための輝度尖度の相関グラフを形成したところで、ジョイント判別前処理工程(S61)が終了する。
(ii)ジョイント判別工程(S62)について:
このジョイント判別工程(S62)では、微分処理により得られた水平プロファイルに基づいてジョイント領域を生成するため、例えば構造物影などにより路面上で横(水平)方向に広がる影がある場合、その影をジョイントとしてご認識し易いことから、ジョイントとそれ以外のものとを区別するため、後述するジョイント判別式を作成して使用している。
このジョイント判別工程(S62)では、微分処理により得られた水平プロファイルに基づいてジョイント領域を生成するため、例えば構造物影などにより路面上で横(水平)方向に広がる影がある場合、その影をジョイントとしてご認識し易いことから、ジョイントとそれ以外のものとを区別するため、後述するジョイント判別式を作成して使用している。
即ち、このジョイント判別工程(S62)では、ジョイント判別前処理工程(S61)において、ジョイント判別のため形成したジョイント部の幅(W)と輝度尖度/プロファイルピーク数(Kpp)とに関する相関関係を示す図17の相関図から、次のジョイント判別式
(a)ジョイント部の場合:
Kpp≦(W/E)+K1 ・・・(α)
(b)照明などの影の場合:
Kpp>(W/E)+K1,Kpp≦(W/F)+K2
・・・(β)
(c)その他の場合:
Kpp>(W/F)+K2 ・・・(γ)
ただし、1/E,1/F;固有の傾き(定数)
K1,K2;切片(定数)
を満たすことにより、ジョイント部を数学的方法により他と判別することができる。
(a)ジョイント部の場合:
Kpp≦(W/E)+K1 ・・・(α)
(b)照明などの影の場合:
Kpp>(W/E)+K1,Kpp≦(W/F)+K2
・・・(β)
(c)その他の場合:
Kpp>(W/F)+K2 ・・・(γ)
ただし、1/E,1/F;固有の傾き(定数)
K1,K2;切片(定数)
を満たすことにより、ジョイント部を数学的方法により他と判別することができる。
従って、ジョイント判別前処理工程(S61)において形成した2値化画像データにおいて、ジョイント判別工程(S62)のジョイント判別式により、ジョイント部の幅(W)を一義的に決定することができる。しかも、このジョイント部の幅(W)は従来ご認識していたような広めの幅に設定する虞がなく、正確なジョイントマスクM4を形成することができる。
即ち、このジョイント判別工程(S62)では、画像処理データの各画面において、ジョイント部の候補である各水平プロファイルの高さ方向(Y座標)の幅(W)を前述したジョイント判別式(α)〜(γ)により判別し、(α)式を満足する場合には、次にジョイントマスク形成工程(S63)へ移行するとともに、これ以外の(β)式又は(γ)式を満足する場合には、第6ステップ(S6)、つまりジョイントマスク形成工程を終了する。
(iii)ジョイントマスク形成工程(S62)について:
このジョイントマスク形成工程(S62)では、前述した(α)式を満足する水平プロファイルの高さ方向(Y座標)の幅(W)に合わせて横方向全体に亙って切り出した矩形領域を、ジョイントマスクM4として形成する(図16(C)参照)。
このジョイントマスク形成工程(S62)では、前述した(α)式を満足する水平プロファイルの高さ方向(Y座標)の幅(W)に合わせて横方向全体に亙って切り出した矩形領域を、ジョイントマスクM4として形成する(図16(C)参照)。
(VII)第7ステップS7について:
第7ステップS7では、点検しようとする道路の周辺構造物の影を除去するため、構造物影マスクを形成するものである(構造物影マスク形成工程)。
第7ステップS7では、点検しようとする道路の周辺構造物の影を除去するため、構造物影マスクを形成するものである(構造物影マスク形成工程)。
そして、本実施の形態の第7ステップS7は、具体的に説明すると、図18に示すように、第71工程(S71)から第73工程(S73)で構成されている。
(1)第71工程(S71)では、第1ステップS1で説明と同様にして画角変換された原画像について、公知の手段、例えば積分演算などにより平滑化処理を行うことにより、(母集団)集団から外れてランダムに散在したノイズの除去処理を行い、平滑化画像データ(図19(A)参照)を形成する(ノイズの除去処理工程)。
(2)第72工程(S72)では、第71工程(S71)でノイズの除去処理がなされた画像データに対して、公知の手段で等濃度線(等高線)画像データを作成する(等濃度線(等高線)画像作成工程)。
(3)第3工程(S73)では、第72工程(S72)で作成された等濃度線(等高線)画像データに対して、4近傍の膨張処理を施してデータの拡大を行う(4近傍膨張処理工程)。これにより、図19(B)に示すような構造物影マスクを形成する。
(VIII)第8ステップS8について:
次に、この第8ステップS8では、前述した各工程で形成した各マスク、即ち、ペイントマスク、自車影マスク、車線マスク、ジョイントマスクを用いて、路面のペイント領域、自車影領域、車線外領域、ジョイント領域などのノイズ(一次ノイズ)を判別(抽出)して除去する(一次ノイズ除去工程)。
次に、この第8ステップS8では、前述した各工程で形成した各マスク、即ち、ペイントマスク、自車影マスク、車線マスク、ジョイントマスクを用いて、路面のペイント領域、自車影領域、車線外領域、ジョイント領域などのノイズ(一次ノイズ)を判別(抽出)して除去する(一次ノイズ除去工程)。
この1次ノイズの判定・除去の方法については、具体的には、例えば図20に示すように、次の第81工程(S81)から第83工程(S83)で構成されている。
(1)第81工程(S81)では、逐次撮像していくと共に記憶媒体へ取り込んでいく現画像データに対して、画像データの正規化、空間微分などの適宜の画像処理を行うことにより、原画像データにおける輪郭線を抽出する。
(2)第82工程(S82)では、そして、この抽出した輪郭線データと、前述した各固有形状を呈する各マスク(M1〜M4)とをつき合わせて照合させ、それぞれのパターンに一致するか否かを判断する。そして、一致すると判断した場合には、次に第83工程へ移行する。一方、一致しないと判断した場合には、この一次ノイズ(ペイント領域・自車影領域・車線外領域・ジョイント領域など)除去工程を終了する。
(3)第83工程(S83)では、原画像データの中から、第82工程(S82)でマスク(M1〜M4)と一致すると判断されたマスク領域に対応する輪郭線を除去する。これにより、ペイント領域・自車影領域・車線外領域・ジョイント領域(一次ノイズ)が除去された画像データが得られるので、これで、この一次ノイズ(ペイント領域・自車影領域・車線外領域・ジョイント領域など)除去工程を終了する。
(IX)第9ステップS9について:
前述したように、以上の第8ステップS8までの工程では、原画像データの中から、ペイント領域・自車影領域・車線外領域・ジョイント領域についてのデータ(1次ノイズ)が除去された。
前述したように、以上の第8ステップS8までの工程では、原画像データの中から、ペイント領域・自車影領域・車線外領域・ジョイント領域についてのデータ(1次ノイズ)が除去された。
そこで、この第9ステップ(S9)から第12ステップ(S12)では、これらのデータ(ノイズ)が除去された、換言すれば、1次ノイズを除去した画像データ(以下、「1次処理済画像データ」とよぶ)に対して、路面損傷データと誤認識する虞のある構造物影及び路面汚れについてのデータ(以下、「2次ノイズ」とよぶ)を判別して、この2次ノイズを1次処理済画像データから除去することにより、最終的な損傷データを得ることができる。
このように、第1ステップ(S1)〜第8ステップ(S8)までの工程において、逐次撮像する路面の原画像データから、前述の1次ノイズを除去した1次処理画像データを形成してきたので、この第9ステップ(S9)では、
(i)初めに、この1次処理済画像データについて、画面内に各種形状の画像データが何か残っているか否かを判別する。
(i)初めに、この1次処理済画像データについて、画面内に各種形状の画像データが何か残っているか否かを判別する。
(ii)そして、次に、画像データが何か残っているようであれば、これの画像データから後述の「損傷候補抽出マスク」を形成して以下の工程へ移行する(損傷候補抽出マスク作成工程)。なお、通常、この損傷候補抽出マスクは、個々の画像データによって特徴が全く異なる固有のパターン形状を有するものである。
(iii)一方、何も残っていないと判断された場合には、その画像データはその後の画像処理を行わず、「路面上に損傷はない」との判断を行う。
(X)第10ステップ(S10)について:
次に、この第10ステップ(S10)(図1参照)では、第9ステップ(S9)において形成した損傷候補抽出マスクのデータについて、微分画像2値化処理を行って、例えば、第2工程(S2)と同様にして、画像データ内において鋭角的なピークを描く白黒境界領域の輪郭を抽出する(微分画像2値化工程)。
次に、この第10ステップ(S10)(図1参照)では、第9ステップ(S9)において形成した損傷候補抽出マスクのデータについて、微分画像2値化処理を行って、例えば、第2工程(S2)と同様にして、画像データ内において鋭角的なピークを描く白黒境界領域の輪郭を抽出する(微分画像2値化工程)。
(XI)第11ステップ(S11)について:
第11ステップ(S11)(図1参照)では、損傷候補を含む画像データに対して、損傷候補領域プロファイルを形成する(損傷候補領域プロファイル作成工程)。
第11ステップ(S11)(図1参照)では、損傷候補を含む画像データに対して、損傷候補領域プロファイルを形成する(損傷候補領域プロファイル作成工程)。
例えば、第6工程(S6)のジョイント判別前処理工程(S61)のように、損傷候補を含む画像データに対して、(i)画角変換処理、(ii)ノイズ除去処理、(iii)微分処理などの複数の画像処理作業を経て、「損傷候補領域プロファイル」を作成する。
(XII)第12ステップ(S12)について:
次に、前述の第9ステップ(S9)から第11ステップ(S11)により、1次ノイズ除去後の画像データから損傷候補領域プロファイルを形成し、この形成した損傷候補領域プロファイルの形状から、路面損傷データと誤認識する虞のある構造物影及び路面汚れについてのデータ(以下、これを「2次ノイズ」とよぶ)を判別して、この2次ノイズを1次ノイズ除去後の画像データから除去することにより、最終的に求めている路面上の損傷データを得る(2次ノイズ除去処理工程)。
次に、前述の第9ステップ(S9)から第11ステップ(S11)により、1次ノイズ除去後の画像データから損傷候補領域プロファイルを形成し、この形成した損傷候補領域プロファイルの形状から、路面損傷データと誤認識する虞のある構造物影及び路面汚れについてのデータ(以下、これを「2次ノイズ」とよぶ)を判別して、この2次ノイズを1次ノイズ除去後の画像データから除去することにより、最終的に求めている路面上の損傷データを得る(2次ノイズ除去処理工程)。
従って、この第12ステップ(S12)では、図21に示すように、第12−1工程(S12−1)〜第12−3(S12−3)工程で構成されている。
(i)第12−1(S12−1)工程について:
この第12−1(S12−1)工程では、第11ステップ(S11)で得られた損傷候補プロファイルのデータに対して、構造物影があるか否かを判定する。そして、この構造物影があると判断した場合には、その構造物影を除去する。
この第12−1(S12−1)工程では、第11ステップ(S11)で得られた損傷候補プロファイルのデータに対して、構造物影があるか否かを判定する。そして、この構造物影があると判断した場合には、その構造物影を除去する。
この第12ステップ(S12)で行う構造物影除去判定では、ノイズの原因の一つである照明柱の影などの道路周辺の不要な影を除去するものであるが、このような構造物の影には、以下のような特徴がある。
即ち、この第12−1ステップ(S12−1)では、ノイズの原因の一つである照明柱の影などの道路周辺の不要な影を除去するものであるが、このような構造物の影には、以下のような特徴がある。
(a)影を作り出している構造物は、通常、路面に対して比較的遠い位置に存在するので、影の輪郭がぼやける傾向がある。このため、構造物影の輪郭のエッジ強度は比較的小さくなる。
(b)影の輪郭に強いエッジ成分が存在しないため、輪郭のエッジ強度のばらつきも小さくなる。
そこで、この第12−1工程(S12−1)では、後述する図22に示すように、第12−11工程(S12−11)〜第12−15工程(S12−15)で構成されている。
即ち、この第12−1工程(S12−1)では、構造物影の輪郭のエッジ強度と、損傷の輪郭のエッジ強度との分布(微分標準偏差)に関する相関図を作成するとともに、この相関関係から構造物影と損傷との輪郭の違いについての特徴を求める。そして、この相関から係る特徴に基づき、構造物影の輪郭を分離抽出するための構造物影判定用の判別式を導出し、この判別式を用いて構造物影の判定を行う。
例えば、照明柱など道路近傍の構造物などの影の輪郭と、実際の路面上の損傷部分の輪郭との双方について、輪郭部分での空間微分値の平均(AVEEDGE)と標準偏差(σEDGE)に関して、図23に示すような分布を確認することができる。
そして、この図23の相関図から、損傷候補から構造物影だけを分離するための判別式、
σEDGE≦(AVEEDGE/m)+G ・・・(3)
σEDGE;輪郭部分の微分標準偏差
AVEEDGE;輪郭部分の微分平均
1/m;傾き(定数)
G;定数(切片)
を得ることができる。
σEDGE≦(AVEEDGE/m)+G ・・・(3)
σEDGE;輪郭部分の微分標準偏差
AVEEDGE;輪郭部分の微分平均
1/m;傾き(定数)
G;定数(切片)
を得ることができる。
次に、図22を参照しながら、ここでの処理工程について詳細に説明する。
(1)第12−11工程(S12−11)では、第11ステップS11において得られた損傷候補を含む画像データについての微分画像データに対して、第7ステップS7で形成した(各画像データによってパターン形状が異なる)固有の構造物影マスクを用いて、この構造物マスクの輪郭外領域での微分成分を除去する。
(2)第12−12工程(S12−12)では、構造物マスク上での微分値に関するヒストグラムを形成する。
(3)第12−13工程(S12−13)では、前述した構造物影分離判別式(3)を用いて構造物影を分離・除去するために、第1212工程(S1212)で作成されたヒストグラムにより、平均微分値(AVEEDGE)及び微分標準偏差(σEDGE)を算出する。
(4)第12−14工程(S12−14)では、前述した構造物影分離判別式(3)を用いて構造物影の有無を数学的に判別する。そして、構造物影が存在すると判断された場合には、次に第12−15工程(S12−15)へ移行する一方、構造物影が存在すると判断された場合には、ここで、構造物影の判別・除去工程を終了する。
(5)第12−15工程(S12−15)では、構造物影があると判断された領域について、1次ノイズ除去済画像データから除去することにより、求める2次ノイズ除去作業の前半段階が完了する。
(ii)第12−2(S12−2)工程について:
損傷候補プロファイルのデータ(1次ノイズ除去済画像データ)に対して、第12−1工程(S12−1)では、構造物影があると判断された領域について除去したものであるが、この第12−2(S12−2)工程では、その後に、路面汚れがあるか否かを判定する。そして、この路面汚れがあると判断した場合には、その路面汚れを除去するものである。
損傷候補プロファイルのデータ(1次ノイズ除去済画像データ)に対して、第12−1工程(S12−1)では、構造物影があると判断された領域について除去したものであるが、この第12−2(S12−2)工程では、その後に、路面汚れがあるか否かを判定する。そして、この路面汚れがあると判断した場合には、その路面汚れを除去するものである。
ところで、路面上の(ペイントを含む)汚れと路面上の損傷とを判別するための対象となる要素について、本発明者により、路面の汚れ(ペイント)および一部の(不特定な)影が、損傷候補領域の輝度のコントラスト値によって判別可能である、との知見を得た。
即ち、これについては、図24に示すように、損傷候補領域の外接矩形内の輝度のコントラスト値(CNT)と、微分の標準偏差(σ)との分布図により、相関性が確認されている。
なお、この図24などでは、2次元プロットの方が、ヒストグラムの作成よりも容易であり、かつ、各種要素量間の相関性などを確認しやすいため、2次元プロットによる解析を用いている。
これにより、その輝度のコントラストによる路面汚れ(ペイント)・影の判別については、損傷候補領域の外接矩形内の輝度のコントラスト値(CNT)と、微分の標準偏差(σ)との2つのパラタメータを用いて、以下の路面汚れ判別式
(a)CNT≧k1の場合、 ・・・路面汚れ(ペイント)
(b)k2≦CNT≦k1の場合、
(c)CNT≦k2の場合
ただし、CNT;コントラスト値
k1;固有定数
k2;固有定数
を得ることができる。
(a)CNT≧k1の場合、 ・・・路面汚れ(ペイント)
(b)k2≦CNT≦k1の場合、
(c)CNT≦k2の場合
ただし、CNT;コントラスト値
k1;固有定数
k2;固有定数
を得ることができる。
従って、この路面汚れ判別式において、除去すべき対象である路面汚れ(ペイント)を特定する第1式、及び除去すべき対象である不特定部分の影を特定する第3式、
k2≦CNT≦k1
CNT≦k2
・・・(4)
から、路面汚れや不特定な影などの領域をノイズとして特定し、損傷候補データから除去することができる。
k2≦CNT≦k1
CNT≦k2
・・・(4)
から、路面汚れや不特定な影などの領域をノイズとして特定し、損傷候補データから除去することができる。
なお、この路面汚れ判定除去工程では、路面上の汚れと損傷との判別を行うため、損傷候補周辺に対して図26に示すような3種類の領域(A・B・C)を定義し、各領域に対する輝度値に対して分散分析を行なったところ、正規化距離の絶対値が大きい特徴量ほど、路面上での損傷と汚れとの分布が離れているとの知見が得られ、路面上での損傷と汚れを分離できることが分かった。
また、ここで、周囲のアスファルトに比べて黒っぽくなる油汚れなどの黒汚れと、逆に白っぽくなる白汚れとは区別して取り扱うことにした。
ここで、正規化距離とは、損傷の標準偏差を1とした場合の、路面上での汚れの各特徴量の平均と路面上での損傷の平均との差であり、次式
正規化距離=(汚れの平均−損傷の平均)/損傷の標準偏差
・・・(5)
から求めることができる。
正規化距離=(汚れの平均−損傷の平均)/損傷の標準偏差
・・・(5)
から求めることができる。
さらに、分散分析の結果、路面上での損傷と汚れとで分布が比較的離れている特徴量を選択し、特徴量相互の相関分析を行なったところ、相関の絶対値が1.0に近い2つの特徴量は、お互いに同じような傾向を示すことがわかったため、どちらか一方を除外してもかまわない。
そこで、図21における第12−2工程(S12−2)の具体的な処理方法については、図25に示すように、第12−21工程(S12−21)〜第12−25工程(S12−25)で構成している。
(1)この第12−21工程(S12−21)では、第12−1工程(S12−1)で得られた構造物影がない(除去された)画像(損傷候補)データに対して、例えば、前述した第6ステップ(S6)での第6−12工程(S6−12)のように、平滑化処理を施して、ノイズの除去を行う(ノイズ除去処理工程)。
(2)この第12−22工程(S12−22)では、第12−21工程(S12−21)でノイズの除去処理が施された画像(損傷候補)データに対して、損傷検出領域内でのヒストグラムを作成する(損傷領域内ヒストグラム作成工程)。
(3)次に、この第12−23工程(S12−23)では、第12−22工程(S12−22)で形成された画像(損傷候補)データに対する損傷検出領域内でのヒストグラムにより、コントラスト値(CNT)を算出する。
(4)この第12−24工程(S12−24)では、各領域でのコントラスト値(CNT)により、前述した路面汚れ判別式(4)から、求める路面汚れを判別する。そして、路面汚れと判別された領域については、次に、第12−25工程(S12−25)へ移行する。
一方、路面汚れと判別されなかった領域については、ここで第12−2工程(S12−2)が終了する。
従って、ここまでの処理により、2次除去処理が施された、換言すれば、路面汚れ及び影がない、画像データが得られる。
(5)この第12−25工程(S12−25)では、前述した路面汚れ判別式(4)から路面汚れと判別された領域について、画像(損傷候補)データからその路面汚れが除去される。従って、ここまでの処理により、2次ノイズの除去処理が施された、換言すれば、路面汚れ及び影がない、画像データが得られる。
(iii)第12−3(S12−3)工程について:
図22における第12−3(S12−3)工程では、これまでの1次、2次のノイズ除去処理によって、路面のペイント領域、自車影領域、車線外領域、ジョイント領域を除去し、さらに路面汚れ及び影を除去した画像データが得られることになる。
図22における第12−3(S12−3)工程では、これまでの1次、2次のノイズ除去処理によって、路面のペイント領域、自車影領域、車線外領域、ジョイント領域を除去し、さらに路面汚れ及び影を除去した画像データが得られることになる。
従って、これまでの工程で得られた画像データ、つまり図1における第1ステップ(S1)から第12ステップ(S12)までを経て得られた画像データが、最終的に求めている真の路面損傷データを含んだ画像データとなる。
このようにして、一連の路面損傷データの作成処理が終了する。
なお、本発明の第3ステップS3〜第7ステップS7の各工程については、特に本実施の形態のような順序に行う必要はなく、適宜の順序で行ってもよい。
[第2の実施の形態]
<B.損傷場所の特定方法>
次に、本発明の第2の実施の形態に係る路面損傷位置の特定方法について説明する。
[第2の実施の形態]
<B.損傷場所の特定方法>
次に、本発明の第2の実施の形態に係る路面損傷位置の特定方法について説明する。
本実施の形態に係る路面損傷位置の特定方法は、点検すべき高速道路の特定路線全体に亙って点検車を高速走行させながら、前述した舗装路面損傷状態点検方法によって損傷箇所を発見していくものであり、最終的に、基準点から損傷位置までの距離を特定するようになっている。
即ち、本実施の形態に係る路面損傷位置の特定方法は、(I)下り車線走行の場合、(II)上り車線走行の場合、(III)路線変更の場合、(IV)渡り車線での走行の場合の都合3種類の走行場所のいずれについても、図27に示すように、第1ステップS1〜第3ステップS3で構成されている。
そこで、本実施の形態では、この(I)〜(IV)のそれぞれのステップについて、詳細に分けて説明する。
(I)<下り車線走行の場合>
この場合、図28に示すように、同一路線上を下り(上り)方向に走行しているので、キロポスト(高速道路の中央分離帯に立っている緑色の数字の書かれた「立て札」;所定の基準点を起点として一定間隔で設置)が増加(減少)しているため、以下のような方法で損傷発見位置を特定する。
この場合、図28に示すように、同一路線上を下り(上り)方向に走行しているので、キロポスト(高速道路の中央分離帯に立っている緑色の数字の書かれた「立て札」;所定の基準点を起点として一定間隔で設置)が増加(減少)しているため、以下のような方法で損傷発見位置を特定する。
(1)第1ステップS1:
適宜のファイルを作成し、そのファイルのヘッダに登録されている損傷発見時のパルスカウンタの値及び車速係数より、同ヘッダに登録されているビーコンID(準マイクロ波を利用した電波ビーコンにより送信される現在位置情報区分ID)から損傷発見位置までの距離D0を、次式
D0=PLUSEH/SCFCH[km] ・・・(6)
ただし、PLUSEH;ファイルのヘッダに登録されているパル スカウンタ値(各損傷発見時のパルスカウンタ値)
SCFCH;ファイルのヘッダに登録されている車速係 数[PLUSE/km]
に基づいて算出する。
適宜のファイルを作成し、そのファイルのヘッダに登録されている損傷発見時のパルスカウンタの値及び車速係数より、同ヘッダに登録されているビーコンID(準マイクロ波を利用した電波ビーコンにより送信される現在位置情報区分ID)から損傷発見位置までの距離D0を、次式
D0=PLUSEH/SCFCH[km] ・・・(6)
ただし、PLUSEH;ファイルのヘッダに登録されているパル スカウンタ値(各損傷発見時のパルスカウンタ値)
SCFCH;ファイルのヘッダに登録されている車速係 数[PLUSE/km]
に基づいて算出する。
(2)第2ステップS2:
ファイルのヘッダに登録されているビーコンIDのキロポストKpRと、ビーコンIDから損傷発見位置までの距離(前述の(6)式から得られる)D0との2つのデータを用いて、次式
KpD=KpR+D0[km] ・・・(7)
ただし、KpD;損傷発見位置のキロポスト
により、損傷発見位置のキロポストKpDを求める。
ファイルのヘッダに登録されているビーコンIDのキロポストKpRと、ビーコンIDから損傷発見位置までの距離(前述の(6)式から得られる)D0との2つのデータを用いて、次式
KpD=KpR+D0[km] ・・・(7)
ただし、KpD;損傷発見位置のキロポスト
により、損傷発見位置のキロポストKpDを求める。
(3)第3ステップS3:
ファイルのヘッダに登録されているビーコンIDの設置してある路線のピアテーブル(データベース)により、次式
KpP≦KpD ・・・(8)
ただし、KpP;損傷発見位置に近接するピアのキロポスト
を満たすピア(橋脚番号)を抽出する。そして、損傷発見位置のキロポストKpDに最も近接するキロポストKpPのピアを損傷発見位置として特定し、これに対応する損傷データが撮像された画像とともにメモリに格納する。
ファイルのヘッダに登録されているビーコンIDの設置してある路線のピアテーブル(データベース)により、次式
KpP≦KpD ・・・(8)
ただし、KpP;損傷発見位置に近接するピアのキロポスト
を満たすピア(橋脚番号)を抽出する。そして、損傷発見位置のキロポストKpDに最も近接するキロポストKpPのピアを損傷発見位置として特定し、これに対応する損傷データが撮像された画像とともにメモリに格納する。
(II)<上り車線走行の場合>
なお、上り車線走行時には、図29に示すように、同一路線上を上り方向に走行しているので、キロポストが減少している。このため、この下り車線走行の場合における第1ステップS1から第3ステップS3のうち、第2ステップS2において、(7)式のみが、次式のように
KpD=KpR−D0[km] ・・・(9)
異なるだけであり、他は下り車線走行の場合と同様の方法を用いることにより、損傷発見位置のキロポストKpDを算出することができる。
なお、上り車線走行時には、図29に示すように、同一路線上を上り方向に走行しているので、キロポストが減少している。このため、この下り車線走行の場合における第1ステップS1から第3ステップS3のうち、第2ステップS2において、(7)式のみが、次式のように
KpD=KpR−D0[km] ・・・(9)
異なるだけであり、他は下り車線走行の場合と同様の方法を用いることにより、損傷発見位置のキロポストKpDを算出することができる。
(III)<路線変更の場合>
この場合、図30に示すように、路線変更(A→B)があるので、以下のような方法で損傷発見位置を特定することができる。
この場合、図30に示すように、路線変更(A→B)があるので、以下のような方法で損傷発見位置を特定することができる。
(1)第1ステップS1:
(I)、(II)の場合と同様に、ファイルのヘッダに登録されているビーコンIDから損傷発見位置までの距離D0を、前述した式
D0=PLUSEH/SCFCH[km] ・・・(6)
によって求める。
(I)、(II)の場合と同様に、ファイルのヘッダに登録されているビーコンIDから損傷発見位置までの距離D0を、前述した式
D0=PLUSEH/SCFCH[km] ・・・(6)
によって求める。
(2)第2ステップS2:
次に、ファイルのヘッダに登録されているビーコンIDから分岐点までの距離D1を次式
D1=KpB−KpR[km] ・・・(10)
ただし、KpB;分岐でのキロポスト
KpR;損傷発見位置に近接するピアのキロポスト
から求め、その後、以下のように損傷発見位置のキロポストKpDを算出する。
次に、ファイルのヘッダに登録されているビーコンIDから分岐点までの距離D1を次式
D1=KpB−KpR[km] ・・・(10)
ただし、KpB;分岐でのキロポスト
KpR;損傷発見位置に近接するピアのキロポスト
から求め、その後、以下のように損傷発見位置のキロポストKpDを算出する。
なお、このとき、以下の2つの場合で、路面損傷位置の特定方法が異なる。
(i)D0<D1の場合
この場合には、発見された損傷は、路線を変更する前の(A)路線上に存在するので、例えば、下りの車線を走行していた場合には前述した(I)の場合の下り車線での方法により、上り車線を走行していた場合には(II)の場合の上り車線での方法により、損傷発見位置のキロポストKpDを算出することができる。
この場合には、発見された損傷は、路線を変更する前の(A)路線上に存在するので、例えば、下りの車線を走行していた場合には前述した(I)の場合の下り車線での方法により、上り車線を走行していた場合には(II)の場合の上り車線での方法により、損傷発見位置のキロポストKpDを算出することができる。
(ii)D0>D1の場合
(a)この場合には、損傷場所は、路線の変更後の(B)路線上に存在するので、先ず次受信ビーコンから損傷発見位置までの距離D2を次式、
D2=(PLUSEL−PLUSEH)× SCFCH[km] ・・・(11)
から求める。
(a)この場合には、損傷場所は、路線の変更後の(B)路線上に存在するので、先ず次受信ビーコンから損傷発見位置までの距離D2を次式、
D2=(PLUSEL−PLUSEH)× SCFCH[km] ・・・(11)
から求める。
(b)次に、次受信ビーコンのキロポストKpLとD2とより、次式
KpD=KpL−D2[km] ・・・(12)
ただし、KpL;次受信ビーコンのキロポスト
D2;次受信ビーコンIDから損傷発見位置までの距離
から、損傷発見位置のキロポストKpDを算出する。
KpD=KpL−D2[km] ・・・(12)
ただし、KpL;次受信ビーコンのキロポスト
D2;次受信ビーコンIDから損傷発見位置までの距離
から、損傷発見位置のキロポストKpDを算出する。
(3)第3ステップS3:
最後に、前述した(I)下り車線走行の場合の(3)第3ステップS3と同様にして、ファイルのヘッダに登録されているビーコンIDの設置してある路線のピアテーブル(データベース)により、
KpP≦KpD ・・・(13)
を満たすピアを抽出する。そして、損傷発見位置のキロポストKpDに最も近接するキロポストKpPのピアを損傷発見位置として特定し、これに対応する損傷データが撮像された画像とともにメモリに格納する。
最後に、前述した(I)下り車線走行の場合の(3)第3ステップS3と同様にして、ファイルのヘッダに登録されているビーコンIDの設置してある路線のピアテーブル(データベース)により、
KpP≦KpD ・・・(13)
を満たすピアを抽出する。そして、損傷発見位置のキロポストKpDに最も近接するキロポストKpPのピアを損傷発見位置として特定し、これに対応する損傷データが撮像された画像とともにメモリに格納する。
(IV)<渡り線での走行の場合(路線変更のため)>
この場合、図31に示すように、路線変更(A→C→B)があるので、以下のような方法で損傷発見位置を特定することができる。
この場合、図31に示すように、路線変更(A→C→B)があるので、以下のような方法で損傷発見位置を特定することができる。
(1)第1ステップS1:
(I)、(II)での上下車線の場合と同様に、ファイルのヘッダに登録されているビーコンIDから損傷発見位置までの距離D0を、前述した式
D0=PLUSEH/SCFCH[km] ・・・(6)
によって求める。
(I)、(II)での上下車線の場合と同様に、ファイルのヘッダに登録されているビーコンIDから損傷発見位置までの距離D0を、前述した式
D0=PLUSEH/SCFCH[km] ・・・(6)
によって求める。
(2)第2ステップS2:
次に、(III)での路線変更の場合と同様に、ファイルのヘッダに登録されているビーコンIDから分岐点までの距離D1を求める。
次に、(III)での路線変更の場合と同様に、ファイルのヘッダに登録されているビーコンIDから分岐点までの距離D1を求める。
D1=KpB−KpR[km] ・・・(10)
このとき、以下の3つの場合で、損傷発見位置キロポストKpDの算出方法が異なる。
このとき、以下の3つの場合で、損傷発見位置キロポストKpDの算出方法が異なる。
(i)D0<D1の場合
この場合には、発見された損傷は、路線を変更する前の(A)路線上に存在するので、例えば、下りの車線を走行していた場合には前述した(I)の場合の下り車線での方法により、上り車線を走行していた場合には(II)の場合の上り車線での方法により、損傷発見位置のキロポストKpDを算出する。
この場合には、発見された損傷は、路線を変更する前の(A)路線上に存在するので、例えば、下りの車線を走行していた場合には前述した(I)の場合の下り車線での方法により、上り車線を走行していた場合には(II)の場合の上り車線での方法により、損傷発見位置のキロポストKpDを算出する。
(ii)一方、渡り線の長さをLWとして、次式を
D1≦D0≦D1+LW
満たしている場合であれば、損傷は渡り線上にあるので、渡り線の開始地点から損傷発見位置までの距離(キロポストに対応する)D3を求める。
D1≦D0≦D1+LW
満たしている場合であれば、損傷は渡り線上にあるので、渡り線の開始地点から損傷発見位置までの距離(キロポストに対応する)D3を求める。
D3=D0−D1[km] ・・・(14)
(iii)他方、渡り線の長さをLWとしたときに、次式を
D0≧D1+LW
満たしている場合であれば、損傷は渡り線を通過した後の路線(B)上に存在するから、
(a)先ず次受信ビーコンから損傷発見位置までの距離D2を次式
D2=(PLUSEL−PLUSEH)× SCFCH[km] ・・・(11)
ただし、PLUSEL;次受信ビーコン受信時のパルスカウンタ値
によって求める。
(iii)他方、渡り線の長さをLWとしたときに、次式を
D0≧D1+LW
満たしている場合であれば、損傷は渡り線を通過した後の路線(B)上に存在するから、
(a)先ず次受信ビーコンから損傷発見位置までの距離D2を次式
D2=(PLUSEL−PLUSEH)× SCFCH[km] ・・・(11)
ただし、PLUSEL;次受信ビーコン受信時のパルスカウンタ値
によって求める。
(b)次に、次受信ビーコンのキロポストKpLとD2により、損傷発見位置のキロポストKpDを、次式から
KpD=KpL−D2 ・・・(12)
算出する。
KpD=KpL−D2 ・・・(12)
算出する。
(3)第3ステップS3:
第2ステップS2での(i),(iii)のケースの場合には、最後に、(I)下り車線走行の場合の(3)ステップと同様にして、ファイルのヘッダに登録されているビーコンIDの設置してある路線のピアテーブル(データベース)により、
KpP≦KpD ・・・(15)
を満たすピアを抽出する。そして、損傷発見位置のキロポストKpDに最も近接するキロポストKpPのピアを損傷発見位置として特定し、これに対応する損傷データが撮像された画像とともにメモリに格納する。
第2ステップS2での(i),(iii)のケースの場合には、最後に、(I)下り車線走行の場合の(3)ステップと同様にして、ファイルのヘッダに登録されているビーコンIDの設置してある路線のピアテーブル(データベース)により、
KpP≦KpD ・・・(15)
を満たすピアを抽出する。そして、損傷発見位置のキロポストKpDに最も近接するキロポストKpPのピアを損傷発見位置として特定し、これに対応する損傷データが撮像された画像とともにメモリに格納する。
他方、第2ステップS2での(ii)の場合には、渡り線のピアテーブル(データベース)により、
KpP≧D3 ・・・(16)
となるピアを抽出し、損傷発見位置までの距離D3に最も近接するキロポストKpPのピアを損傷発見位置として特定する。
KpP≧D3 ・・・(16)
となるピアを抽出し、損傷発見位置までの距離D3に最も近接するキロポストKpPのピアを損傷発見位置として特定する。
なお、本発明は上述した実施形態に何ら限定されるものではなく、その要旨を逸脱しない範囲において種々の形態で実施し得るものである。
本発明の路面損傷状態点検方法及び路面損傷位置の特定方法は、路面を走行しながら、特に高速道路を高速走行しながらでも、路面の損傷部分を自動的に、しかも正確に検出することができる効果を有し、走行する車両から路面の撮像画像を逐次取り込んで所要の画像処理を行うことにより、路面の損傷状態を点検する路面損傷状態点検方法、及び路面の点検の実施と同時に、若しくはその後に、路面損傷箇所である損傷発見位置を特定する路面損傷位置の特定方法に等に有用である。
1 点検車両
10 車体
2 点検装置
21 (略門型状の)ガントリー
21A 縦アーム部
22 レーザ用撮像カメラ
23 直立アーム
24 可視画像用カメラ
25 レーザヘッド
26 ミラー
3 画像データ処理装置
31 画像処理装置
31A ビデオキャプチャ部
31B レーザ画像処理部
31C 入出力(I/O)部
32 制御装置
33 記憶装置(メモリ)
M1 ペイントマスク(白色マスク)
M2 ペイントマスク(車線マスク)
M3 自車影マスク
M4 ジョイントマスク
P 自車影の基準位置座標
10 車体
2 点検装置
21 (略門型状の)ガントリー
21A 縦アーム部
22 レーザ用撮像カメラ
23 直立アーム
24 可視画像用カメラ
25 レーザヘッド
26 ミラー
3 画像データ処理装置
31 画像処理装置
31A ビデオキャプチャ部
31B レーザ画像処理部
31C 入出力(I/O)部
32 制御装置
33 記憶装置(メモリ)
M1 ペイントマスク(白色マスク)
M2 ペイントマスク(車線マスク)
M3 自車影マスク
M4 ジョイントマスク
P 自車影の基準位置座標
Claims (10)
- 点検車両を路面上で走行させながら前記走行中の路面をカメラで撮像し、その撮像画像から前記路面の損傷状態を点検する路面損傷状態点検方法であって、
前記撮像画像から前記路面に投影される少なくとも前記点検車両に積載した点検装置の影を除去する自車影判別除去工程と、
前記路面上のペイントされた表示案内を含む白色部分を前記撮像画像から除去する白色判別除去工程と、
前記撮像画像内から前記路面内の点検中の車線領域に隣接する他の車線領域を除去する車線判別除去工程と、
前記走行する路面のうち橋梁部分と一般の舗装路面部分とをつなぐジョイント部分を、前記撮像画像から除去するジョイント判別除去工程と、
前記路面の汚れを前記撮像画像から除去する路面汚れ判別除去工程と、
前記路面に投影された周辺構造物の影を除去する構造物影判別除去工程と
を有することを特徴とする路面損傷状態点検方法。 - 前記自車影判別除去工程は、前記路面に投影される前記点検装置の影、又は前記路面に投影される前記点検車及び前記点検装置の影からなる自車影に対応して形成した自車影マスクを用いて、前記撮像画像から前記自車影を除去することを特徴とする請求項1に記載の路面損傷状態点検方法。
- 前記車線判別除去工程は、少なくとも前記路面の白線に対応する領域を撮像画像の濃淡から判別して形成した車線マスクを用いて、前記撮像画像から前記白線よりも外側領域を除去することを特徴とする請求項1又は2に記載の路面損傷状態点検方法。
- 前記ジョイント判別除去工程は、前記ジョイント部分に対応する領域を撮像画像のエッジ画像により判別して形成したジョイントマスクを用いて、前記撮像画像から前記ジョイントを除去することを特徴とする請求項1〜3のいずれか1項に記載の路面損傷状態点検方法。
- 前記路面汚れ判別除去工程は、前記路面の汚れに対応する領域を、前記撮像画像の濃淡のコントラストから形成したヒストグラムを判別手段として用いて抽出し、前記撮像画像から除去することを特徴とする請求項1〜4のいずれか1項に記載の路面損傷状態点検方法。
- 前記構造物影判別除去工程は、前記撮像画像から前記構造物影の輪郭部分での空間微分値の平均と標準偏差とを用いた所定の判別式により形成した構造物影マスクを用いて、前記撮像画像から前記構造物影を除去することを特徴とする請求項1〜5のいずれか1項に記載の路面損傷状態点検方法。
- 点検すべき高速道路の特定路線全体に亙って点検車両を走行させながら走行路面の損傷箇所を検出していく点検作業と同時に、若しくはその後に、前記損傷箇所である損傷発見位置を特定する路面損傷位置の特定方法であって、
前記特定路線が、下り車線又は上り車線走行の場合、路線変更の場合、渡り車線で走行するときのいずれについても、
ビーコンIDの設置位置から前記損傷発見位置までの距離を所定の演算式から導出し、
前記ビーコンIDの設置位置のキロポストと、前記ビーコンIDの設置位置から前記損傷発見位置までの距離とから、前記損傷発見位置のキロポスト値を求め、
前記ビーコンIDの設置してある前記点検中の路線のピアテーブルにより、前記損傷発見位置の前記キロポスト値に最も近接するキロポストのピアを前記損傷発見位置として特定する
ことを特徴とする路面損傷位置の特定方法。 - 点検すべき高速道路の下り車線又は上り車線で点検車を走行させながら走行路面の損傷箇所を検出していく点検作業と同時に、若しくはその後に、前記高速道路の下り車線又は上り車線の基準位置から前記損傷箇所である損傷発見位置までの距離を特定する路面損傷位置の特定方法であって、
前記損傷箇所を発見時のパルスカウンタの値及び車速係数より、予め登録されているビーコンIDの設置位置から損傷発見位置までの距離を算出し、
前記ビーコンIDの設置位置のキロポストと、前記ビーコンIDの設置位置から前記損傷発見位置までの前記距離との2つのデータを用いて前記損傷発見位置のキロポスト値を求め、
前記ビーコンIDの設置してある前記点検中の路線のピアテーブルにより、前記損傷発見位置の前記キロポスト値に最も近接するキロポストのピアを前記損傷発見位置として特定し、
前記特定したキロポストのピアと前記損傷箇所が撮像された画像とのデータをメモリに格納する
ことを特徴とする路面損傷位置の特定方法。 - 点検すべき高速道路の路線を分岐点から変更させて点検車両を走行させながら走行路面の損傷箇所を検出していく点検作業と同時に、若しくはその後に、前記高速道路の下り車線又は上り車線の基準位置から前記損傷箇所である損傷発見位置までの距離を特定する路面損傷位置の特定方法であって、
前記損傷箇所を発見時のパルスカウンタの値及び車速係数より、予め登録されているビーコンIDの設置位置から前記損傷発見位置までの距離D0を算出し、
前記ビーコンIDの設置位置から前記分岐点までの距離D1を求めた後、前記距離D0と前記距離D1の大小関係に分けて前記損傷発見位置のキロポスト値を算出し、
前記ビーコンIDの設置してある前記点検中の路線のピアテーブルにより、前記損傷発見位置の前記キロポスト値に最も近接するキロポストのピアを損傷発見位置として特定し、
前記特定したキロポストのピアと前記損傷箇所が撮像された画像とのデータをメモリに格納する
ことを特徴とする路面損傷位置の特定方法。 - 点検すべき高速道路の渡り車線を通りながら点検車両を走行させて走行路面の損傷箇所を検出していく点検作業と同時に、若しくはその後に、前記高速道路の基準位置から前記損傷箇所である損傷発見位置までの距離を特定する路面損傷位置の特定方法であって、
前記損傷箇所を発見時のパルスカウンタの値及び車速係数より、予め登録されているビーコンIDの設置位置から前記損傷発見位置までの距離D0を算出し、
前記渡り線の長さをLWと前記ビーコンIDの設置位置から分岐点までの距離D1とを求めた後、前記距離D0、前記距離D1、前記LWの大小関係に分けて損傷発見位置のキロポスト値を算出し、
前記ビーコンIDの設置してある前記点検中の路線のピアテーブルにより、前記損傷発見位置の前記キロポスト値に最も近接するキロポストのピアを前記損傷発見位置として特定し、
前記特定したキロポストのピアと前記損傷箇所が撮像された画像とのデータをメモリに格納する
ことを特徴とする路面損傷位置の特定方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003280255A JP2005043324A (ja) | 2003-07-25 | 2003-07-25 | 路面損傷状態点検方法及び路面損傷位置の特定方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003280255A JP2005043324A (ja) | 2003-07-25 | 2003-07-25 | 路面損傷状態点検方法及び路面損傷位置の特定方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005043324A true JP2005043324A (ja) | 2005-02-17 |
Family
ID=34266134
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003280255A Pending JP2005043324A (ja) | 2003-07-25 | 2003-07-25 | 路面損傷状態点検方法及び路面損傷位置の特定方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005043324A (ja) |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006252269A (ja) * | 2005-03-11 | 2006-09-21 | Aisin Seiki Co Ltd | 広域画像生成装置及びこれを用いた車両の周辺監視装置並びに広域画像生成方法 |
JP2007265281A (ja) * | 2006-03-29 | 2007-10-11 | Denso It Laboratory Inc | 自影判定方法 |
JP2007300559A (ja) * | 2006-05-02 | 2007-11-15 | Alpine Electronics Inc | 車両周辺画像提供装置及び車両周辺画像における影補正方法 |
JP2013167494A (ja) * | 2012-02-14 | 2013-08-29 | Fujitsu Ltd | 構造物点検支援方法、構造物点検支援プログラム及び構造物点検支援装置 |
CN103955923A (zh) * | 2014-04-18 | 2014-07-30 | 南京理工大学 | 一种快速的基于图像的路面病害检测方法 |
CN104700427A (zh) * | 2015-04-03 | 2015-06-10 | 电子科技大学 | 一种基于sar图像的道路损毁信息提取方法 |
JP2015210602A (ja) * | 2014-04-24 | 2015-11-24 | 日立建機株式会社 | 作業機械の周囲監視装置 |
JP2016218762A (ja) * | 2015-05-20 | 2016-12-22 | 株式会社東芝 | 画像処理装置、方法及びプログラム |
JP6259959B1 (ja) * | 2016-09-30 | 2018-01-10 | 株式会社オプティム | ドローン制御システム、ドローン制御方法及びプログラム |
JP2018036769A (ja) * | 2016-08-30 | 2018-03-08 | 株式会社トプコン | 画像処理装置、画像処理方法および画像処理用プログラム |
KR101870084B1 (ko) * | 2017-07-10 | 2018-06-22 | 극동대학교 산학협력단 | 그림자의 수직경계선을 이용한 원격탐사영상의 그림자 제거방법 |
JP2019045922A (ja) * | 2017-08-30 | 2019-03-22 | 株式会社ネクスコ・エンジニアリング北海道 | 変状箇所検出装置、変状箇所検出プログラムおよび変状箇所検出方法 |
JP2019057221A (ja) * | 2017-09-22 | 2019-04-11 | エヌ・ティ・ティ・コムウェア株式会社 | 情報処理装置、情報処理システム、情報処理方法、及び情報処理プログラム |
JP2020038171A (ja) * | 2018-09-05 | 2020-03-12 | 株式会社リコー | 移動計測装置および計測装置 |
CN112083000A (zh) * | 2020-08-12 | 2020-12-15 | 中国电力科学研究院有限公司 | 一种变电站设备外观缺陷的智能识别方法及*** |
WO2021225084A1 (ja) * | 2020-05-07 | 2021-11-11 | 富士フイルム株式会社 | 損傷評価装置、方法及びプログラム |
CN114387291A (zh) * | 2022-03-22 | 2022-04-22 | 中大检测(湖南)股份有限公司 | 公路状况检测图像中基准网格的自动筛选方法及*** |
-
2003
- 2003-07-25 JP JP2003280255A patent/JP2005043324A/ja active Pending
Cited By (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006252269A (ja) * | 2005-03-11 | 2006-09-21 | Aisin Seiki Co Ltd | 広域画像生成装置及びこれを用いた車両の周辺監視装置並びに広域画像生成方法 |
JP2007265281A (ja) * | 2006-03-29 | 2007-10-11 | Denso It Laboratory Inc | 自影判定方法 |
JP4625418B2 (ja) * | 2006-03-29 | 2011-02-02 | 株式会社デンソーアイティーラボラトリ | 自影判定方法 |
JP2007300559A (ja) * | 2006-05-02 | 2007-11-15 | Alpine Electronics Inc | 車両周辺画像提供装置及び車両周辺画像における影補正方法 |
JP2013167494A (ja) * | 2012-02-14 | 2013-08-29 | Fujitsu Ltd | 構造物点検支援方法、構造物点検支援プログラム及び構造物点検支援装置 |
CN103955923B (zh) * | 2014-04-18 | 2017-03-01 | 南京理工大学 | 一种快速的基于图像的路面病害检测方法 |
CN103955923A (zh) * | 2014-04-18 | 2014-07-30 | 南京理工大学 | 一种快速的基于图像的路面病害检测方法 |
JP2015210602A (ja) * | 2014-04-24 | 2015-11-24 | 日立建機株式会社 | 作業機械の周囲監視装置 |
CN104700427B (zh) * | 2015-04-03 | 2018-03-09 | 电子科技大学 | 一种基于sar图像的道路损毁信息提取方法 |
CN104700427A (zh) * | 2015-04-03 | 2015-06-10 | 电子科技大学 | 一种基于sar图像的道路损毁信息提取方法 |
JP2016218762A (ja) * | 2015-05-20 | 2016-12-22 | 株式会社東芝 | 画像処理装置、方法及びプログラム |
JP2018036769A (ja) * | 2016-08-30 | 2018-03-08 | 株式会社トプコン | 画像処理装置、画像処理方法および画像処理用プログラム |
US10472062B2 (en) | 2016-09-30 | 2019-11-12 | Optim Corporation | System, method, and program for controlling drone |
JP6259959B1 (ja) * | 2016-09-30 | 2018-01-10 | 株式会社オプティム | ドローン制御システム、ドローン制御方法及びプログラム |
WO2018061176A1 (ja) * | 2016-09-30 | 2018-04-05 | 株式会社オプティム | ドローン制御システム、ドローン制御方法及びプログラム |
KR101870084B1 (ko) * | 2017-07-10 | 2018-06-22 | 극동대학교 산학협력단 | 그림자의 수직경계선을 이용한 원격탐사영상의 그림자 제거방법 |
JP2019045922A (ja) * | 2017-08-30 | 2019-03-22 | 株式会社ネクスコ・エンジニアリング北海道 | 変状箇所検出装置、変状箇所検出プログラムおよび変状箇所検出方法 |
JP2019057221A (ja) * | 2017-09-22 | 2019-04-11 | エヌ・ティ・ティ・コムウェア株式会社 | 情報処理装置、情報処理システム、情報処理方法、及び情報処理プログラム |
JP7243088B2 (ja) | 2018-09-05 | 2023-03-22 | 株式会社リコー | 移動計測装置および計測装置 |
JP2020038171A (ja) * | 2018-09-05 | 2020-03-12 | 株式会社リコー | 移動計測装置および計測装置 |
WO2021225084A1 (ja) * | 2020-05-07 | 2021-11-11 | 富士フイルム株式会社 | 損傷評価装置、方法及びプログラム |
JPWO2021225084A1 (ja) * | 2020-05-07 | 2021-11-11 | ||
JP7429774B2 (ja) | 2020-05-07 | 2024-02-08 | 富士フイルム株式会社 | 損傷評価装置、方法及びプログラム |
CN112083000A (zh) * | 2020-08-12 | 2020-12-15 | 中国电力科学研究院有限公司 | 一种变电站设备外观缺陷的智能识别方法及*** |
CN112083000B (zh) * | 2020-08-12 | 2022-12-02 | 中国电力科学研究院有限公司 | 一种变电站设备外观缺陷的智能识别方法及*** |
CN114387291A (zh) * | 2022-03-22 | 2022-04-22 | 中大检测(湖南)股份有限公司 | 公路状况检测图像中基准网格的自动筛选方法及*** |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2005043324A (ja) | 路面損傷状態点検方法及び路面損傷位置の特定方法 | |
KR100317789B1 (ko) | 국지적위치파악장치및그방법 | |
CN110555361B (zh) | 车道分类的图像处理方法 | |
JP4930046B2 (ja) | 路面判別方法および路面判別装置 | |
US6028948A (en) | Surface anomaly-detection and analysis method | |
US20060078197A1 (en) | Image processing apparatus | |
KR102078908B1 (ko) | 무인 차량을 이용한 자동화 차선 도색 시스템 | |
JP2003228711A (ja) | レーンマーク認識方法 | |
JP6084552B2 (ja) | 路面オルソ画像の生成装置および生成方法 | |
CN110390256B (zh) | 一种沥青路面裂缝提取方法 | |
CN109635737A (zh) | 基于道路标记线视觉识别辅助车辆导航定位方法 | |
CN112036210A (zh) | 一种检测障碍物的方法、装置、存储介质和移动机器人 | |
CN110674732A (zh) | 一种融合多元数据的沥青路面车辙三维尺寸自动检测及定位方法 | |
CN115035141A (zh) | 基于图像处理的隧道裂缝远程监测与预警方法 | |
JP2002228423A (ja) | タイヤ検出方法および装置 | |
JPH11175880A (ja) | 車輌高さ計測装置およびこの装置を用いた車輌監視システム | |
JP2005275500A (ja) | 消失点決定方法 | |
JP2002150302A (ja) | 路面認識装置 | |
JP4293653B2 (ja) | 外観検査方法 | |
JPS63142478A (ja) | 白線検出装置 | |
JPH07128059A (ja) | 車両位置検出装置 | |
Foucher et al. | Evaluation of a Road Sign Pre-detection System by Image Analysis. | |
JP3436224B2 (ja) | 車両端検出装置 | |
JPH0827841B2 (ja) | 外観検査方法 | |
JPH07302346A (ja) | 路面の白線検出方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20060424 |