JP6797607B2 - 画像処理装置、画像処理方法および画像処理用プログラム - Google Patents

画像処理装置、画像処理方法および画像処理用プログラム Download PDF

Info

Publication number
JP6797607B2
JP6797607B2 JP2016167990A JP2016167990A JP6797607B2 JP 6797607 B2 JP6797607 B2 JP 6797607B2 JP 2016167990 A JP2016167990 A JP 2016167990A JP 2016167990 A JP2016167990 A JP 2016167990A JP 6797607 B2 JP6797607 B2 JP 6797607B2
Authority
JP
Japan
Prior art keywords
point cloud
shadow
image
coordinate system
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016167990A
Other languages
English (en)
Other versions
JP2018036769A (ja
Inventor
陽 佐々木
陽 佐々木
忠之 伊藤
忠之 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
Original Assignee
Topcon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Topcon Corp filed Critical Topcon Corp
Priority to JP2016167990A priority Critical patent/JP6797607B2/ja
Publication of JP2018036769A publication Critical patent/JP2018036769A/ja
Application granted granted Critical
Publication of JP6797607B2 publication Critical patent/JP6797607B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像内に写り込む影の位置を特定する技術に関する。
例えば、道路を動画または静止画像で撮影し、その撮影画像をソフトウェアにより解析することで、道路のヒビ割れ、劣化等の検査を行う技術がある(例えば、特許文献1を参照)。
特開2011−179874号公報
ところで、上記の技術において、太陽光が当たることによる建物の影およびその縁(影と影でない部分の境界部分)が画像解析に障害となる問題がある。まず、影の部分は、明度が低いので、画像解析の分解能や精度が低下する。そこが影の部分であることが判っていれば、影の部分の解析に適した画像の調整や解析を行うことで精度を確保した解析が行なえる。しかしながら、そこが影かどうかをソフトウェアで判定することは困難である。人が視認することで、影かどうかを判定することは可能であるが、人が視認しての作業を行うのは、作業量が増え、画像解析技術を用いる意味が低下する。
また、影の縁の部分を道路面に形成されたヒビ割れと誤検出する問題がある。この問題も人の目で確認すれば誤検出を避けられるが、それでは画像解析技術を用いる意味が低下する。ソフトウェア処理による画像解析を行うのは、極力人が行う作業を少なくし、作業を効率化する点にある。よって、人が見て判断する作業を極力少なくすることが望まれる。
このような背景において、本発明は、撮影した画像中における太陽光に起因する影の位置を特定する技術を提供することを目的とする。
請求項1に記載の発明は、カメラが撮影した対象物の画像の画像データを取得する画像データ取得部と、レーザスキャナが取得した点群データを取得する点群データ取得部と、太陽の位置に基づき、前記太陽から対象物に前記点群データを投影した影領域点群を算出する影領域点群算出部と、前記影領域点群を前記画像に投影する影領域点群投影部と、前記点群データに基づき架空線を検出する架空線検出部とを備え、前記影領域点群算出部は、前記検出された架空線の影となる部分の点群を算出し、前記架空線検出部において、前記架空線の点群に基づき、前記架空線が連続して存在する位置を予想する処理が行われることを特徴とする画像処理装置である。
請求項2に記載の発明は、請求項1に記載の発明において、前記レーザスキャナが取得した前記点群データの地上座標系への座標変換、および前記地上座標系で記述された前記点群データをカメラ座標系に座標変換する座標変換部を更に備え、前記影領域点群の算出は、前記地上座標系で行われることを特徴とする。ここで、レーザスキャナが取得した点群データの地上座標系への座標変換は、レーザスキャナが扱う座標系(スキャナ座標系)から直接地上座標系への座標変換を行う場合と、スキャナ座標系からIMU座標系等の他の座標系への座標変換を行った後で、地上座標系に座標変換する場合の両方を含む。
請求項3に記載の発明は、請求項1または2に記載の発明において、前記画像において、位置による画素の輝度値の違いに基づき前記影領域点群の周囲に影領域を拡張する影領域拡張部を備えることを特徴とする。
請求項4に記載の発明は、請求項に記載の発明において、前記画像における前記画像に投影された前記影領域のコントラストを調整するコントラスト調整部を備えることを特徴とする。
請求項5に記載の発明は、請求項3に記載の発明において、前記拡張された影領域に基づき、前記画像中の影の境界線を特定する影境界線特定部を備えることを特徴とする。
請求項6に記載の発明は、請求項5に記載の発明において、前記画像中から撮影対象のひび割れ部分を検出するひび割れ部分検出部と、前記画像中における前記境界部分の位置に基づき、前記ひび割れ部分検出部が検出したひび割れ部分の誤検出を判定する誤検出判定部とを備えることを特徴とする。
請求項に記載の発明は、カメラが撮影した対象物の画像の画像データを取得する画像データ取得ステップと、レーザスキャナが取得した点群データを取得する点群データ取得ステップと、太陽の位置に基づき、前記太陽から前記対象物に前記点群データを投影した影領域点群を算出する影領域点群算出ステップと、前記影領域点群を前記画像に投影する影領域点群投影ステップと、前記点群データに基づき架空線を検出する架空線検出ステップとを有し、前記影領域点群算出ステップにおいて、前記検出された架空線の影となる部分の点群を算出し、前記架空線検出ステップにおいて、前記架空線の点群に基づき、前記架空線が連続して存在する位置を予想する処理が行われることを特徴とする画像処理方法。
請求項に記載の発明は、コンピュータに読み取らせて実行させるプログラムであって、
コンピュータをカメラが撮影した対象物の画像の画像データを取得する画像データ取得部と、レーザスキャナが取得した点群データを取得する点群データ取得部と、太陽の位置に基づき、前記太陽から前記対象物に前記点群データを投影した影領域点群を算出する影領域点群算出部と、前記影領域点群を前記画像に投影する影領域点群投影部と、前記点群データに基づき架空線を検出する架空線検出部として機能させ、前記影領域点群算出部は、前記検出された架空線の影となる部分の点群を算出し、前記架空線検出部において、前記架空線の点群に基づき、前記架空線が連続して存在する位置を予想する処理が行われることを特徴とする画像処理用プログラムである。
本発明によれば、撮影した画像中における太陽光に起因する影の位置を特定する技術が得られる。
実施形態の概念図である。 実施形態の原理の説明図である。 実施形態のブロック図である。 処理の手順の一例を示すフローチャートである。 影領域点群を説明する説明図である。 影領域点群を投影したカメラ画像のイメージ図である。
(全体の概要)
図1には、車両100が示されている。車両100は、レーザスキャナ101、カメラ102、IMU(慣性計測装置:Inertial Measurement Unit)103、GNSS装置104、記憶装置105を備えている。レーザスキャナ101は、周囲環境のレーザスキャンを行い、点群データを取得する。レーザスキャナ101としては、特開2010−151682号公報、特開2008―268004号公報、米国特許8767190号公報の記載されている技術を利用できる。
カメラ102は、特定の時間間隔で画像の撮影を行い、撮影した画像の画像データを得る。カメラ102として動画を撮影するタイプのものを用いることもできる。この場合、フレーム画像を撮影画像として用いる。IMU103は、3軸加速度、3軸角速度、3軸地磁気の9軸モーションセンサを搭載し、姿勢や傾きの変化を計測する。GNSS装置104は、GPS衛星等の航法衛星からの航法信号を受信し、それに基づき位置の計測を行う。また、GNSS装置104は、航法衛星からの航法信号に基づき精度の高い時刻情報を出力する時計機能を備えている。
記憶装置105は、ハードディスク装置や半導体メモリにより構成されたデータ記憶装置である。記憶装置105は、レーザスキャナ101が取得する点群データ、カメラ102が撮影した画像の画像データ、IMU103が計測した姿勢や傾きの変化のデータ、GNSS装置104が計測した位置と時刻のデータを互いに関連付けした状態で記憶する。レーザスキャナ101、カメラ102、IMU103およびGNSS装置104の車両100に対する外部標定要素(姿勢と位置)は予め計測されており既知である。
(原理の説明)
図1のシステムは、コンクリートで舗装された路面のひび割れを画像解析により検出するために用いられる。この例では、太陽光が当たらない影の影響でひび割れの誤検出が生じる問題を低減する技術を説明する。
本明細書における影とは、太陽光が建物等に当たることで形成される太陽光が直接当たらない部分のことをいう。図2に示すように、建物の影が路面に映ると、線状の境界ラインが生じる。この境界ラインが路面のひび割れとして誤検出される。この例では、建物の三次元位置をレーザスキャンにより把握し、その三次元情報(点群データ)から太陽光が当たらない影となる領域を算出する。特定の時刻における太陽の天球上における位置は、天文データや計算式から精密に求まるので、幾何的な計算により、路面に映りこむ影の位置を求めることができる。
そして、路面における影の位置をカメラ102が撮影した画像中に投影することで、画像中のどこに影が映っているのかが判る画像データを作成し、ひび割れの誤検出を判定できるようにする。また、予め画像中の影の部分を特定できるので、その部分のコントラストを調整することで、影となった部分にあるひび割れの検出精度を高めることができる。
(画像処理部の構成)
図3に画像処理装置のブロック図を示す。図3には、画像処理装置200が示されている。画像処理装置200は、コンピュータとしての基本機能を有する。画像処理装置200は、画像解析により路面のひび割れを検出する装置であり、特に図2に示す原理を用いて画像中の影の部分を特定し、更に影の存在による路面のひび割れ検出の精度低下を抑える処理を行う。
画像処理装置200は、画像データ取得部201、点群データ取得部202、座標変換部203、影領域点群算出部204、影領域点群投影部205、影領域拡張部206、影領域特定部207、コントラスト調整部208、影境界線特定部209、ひび割れ部分検出部210、誤検出判定部211、架空線検出部212、記憶部213および車両位置特定部214を備えている。
上述した画像処理装置200が備える機能部は、ソフトウェア的に構成されていてもよいし、専用の演算回路によって構成されていてもよい。また、ソフトウェア的に構成された機能部と、専用の演算回路によって構成された機能部が混在していてもよい。例えば、図示する各機能部は、CPU(Central Processing Unit)、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)などのPLD(Programmable Logic Device)などの電子回路により構成される。
各機能部を専用のハードウェアで構成するのか、CPUにおけるプログラムの実行によりソフトウェア的に構成するのかは、要求される演算速度、コスト、消費電力等を勘案して決定される。例えば、特定の機能部をFPGAで構成すれば、処理速度の上では優位であるが高コストとなる。他方で、CPUでプログラムを実行することで特定の機能部を実現する構成は、ハードウェア資源を節約できるので、コスト的に優位となる。しかしながら、CPUで機能部を実現する場合、処理速度は、専用のハードウェアに比較して見劣りする。また、CPUで機能部を実現する場合、複雑な演算に対応できない場合もあり得る。なお、機能部を専用のハードウェアで構成することとソフトウェア的に構成することは、上述した違いはあるが、特定の機能を実現するという観点からは、等価である。
この例において、画像処理装置200は、ワークステーション等の大容量のデータを高速で処理できるコンピュータにより構成されている。勿論、処理能力に問題がなければ、市販のパーソナルコンピュータを用いて画像処理装置200を構成することもできる。また、画像処理装置200の機能を複数のコンピュータで分散して処理するシステムとする構成も可能である。
画像データ取得部201は、カメラ102が撮影した画像の画像データを取得する。画像データは、特定の時間間隔で撮影された静止画または動画を構成するフレーム画像のデータである。点群データ取得部202は、レーザスキャナ101が取得した点群データを取得する。点群データは、三次元座標を取得した点の集まりとしてスキャン対象を捉えたデータである。
座標変換部203は、点群データを記述する座標系に係り、スキャナ座標系からIMU座標系への座標変換、IMU座標系から地上座標系への座標変換、地上座標系からIMU座標系への座標変換、IMU座標系からカメラ座標系への座標変換を行う。スキャナ座標系は、レーザスキャナ101を原点する座標系である。IMU座標系は、IMU103を原点とする座標系である。地上座標系は、地上に固定された座標系である。カメラ座標系は、カメラ102を原点とする座標系である。
スキャナ座標系、IMU座標系およびカメラ座標系は、車両100の移動に従って、その原点の位置と座標軸の向きが刻々と変化する。勿論、車両100が移動しなければ、座標の原点の移動はなく、車両100の向きに変化がなければ、座標系の座標軸の向きの変化もない。
スキャナ座標系からIMU座標系への座標変換は、レーザスキャナ101とIMU103の車両100に対する外部標定要素に基づいて行われる。より詳細にいうと、スキャナ座標系からIMU座標系への座標変換は、以下のようにして行われる。まず、ある特定の時刻tを考える。この時刻tにおけるスキャナ座標系とIMU座標系の相対関係は、レーザスキャナ101とIMU103の車両100に対する外部標定要素から判る。すなわち、時刻tにおけるスキャナ座標系を平行移動および回転させることで、スキャナ座標系をIMU座標系に変換できる。この際の変換係数は、レーザスキャナ101とIMU103の車両100に対する外部標定要素から得られる。よって、時刻tのスキャナ座標系における特定の点AのIMU座標系における座標値が計算できる。同様の処理を任意の時刻で行うことで、当該時刻におけるスキャナ座標系からIMU座標系への座標変換が行われる。
IMU座標系から地上座標系への変換は車両軌跡の情報を用いて行う。車両軌跡の情報は、IMU103とGNSS装置104から得られる。より詳細にいうと、IMU座標系から地上座標系への座標変換は、以下のようにして行われる。まず、ある特定の時刻tを考える。この時刻tにおけるIMU座標系と地上座標系の相対関係は、IMU103の車両100に対する外部標定要素および時刻tにおける車両100の位置と向きから得られる。なお、車両100の位置の情報はGNSS装置104から得られ、車両100の向きの情報はIMU103から得られる。この場合、時刻tにおけるIMU座標系を平行移動および回転させることで、IMU座標系を地上座標系に変換できる。
この際の変換係数は、IMU103の車両100に対する外部標定要素および時刻tにおける車両100の位置と向きから得られる。よって、時刻tのIMU座標系における特定の点Aの地上座標系における座標値が計算できる。そして上記の処理を時刻t、t、t・・・において行うことで、時刻t、t、t・・・の各時刻において取得された点(この点の集まりによって点群データが構成される)を地上座標系に変換できる。
なお、スキャナ座標系→IMU座標系→地上座標系の座標変換における時刻の間隔は、レーザスキャナ101のスキャン速度によって決まる。レーザスキャナ101のスキャン速度は、例えば、1kHz〜10kHz程度である。上記の時刻の間隔は、狭い(短い)程、精度が高くなるが、演算量は多くなる。
点群データの地上座標系からIMU座標系への変換は、以下のようにして行われる。この変換は、時刻T、T、T・・・と刻まれる各時刻において行われる。この際の時刻Tnは、カメラ102の撮影時刻である。カメラ102の撮影間隔は、例えば、0.1秒〜0.5秒程度である。勿論、これより短い時間間隔で撮影を行ってもよいが、演算に要する負担が増大する。
まず、IMU103の外部標定要素と時刻Tにおける車両の位置と向き(このデータは、IMU103から得られる)から時刻Tにおける地上座標系とIMU座標系の関係を得る。これにより、時刻Tにおける点群データの地上座標系からIMU座標系への座標変換が可能となり、時刻TにおけるIMU座標系で記述した点群データが得られる。この処理を他の時刻においても行うことで、撮影時刻TnでのIMU座標系における点群データが得られる。
点群データのIMU座標系からカメラ座標系への座標変換は、スキャナ座標系からIMU座標系への座標変換の場合と同様な原理により、カメラ102とIMU102の外部標定要素に基づいて行われる。なお、IMU座標系とカメラ座標系は、車両100と共に動くので、IMU座標系からカメラ座標系への座標変換は、時刻Tnを指定して行い、指定した時刻Tnにおけるものとして得る。
スキャナ座標系→IMU座標系→地上座標系と変換するのではなく、IMU座標系を介さず、スキャナ座標系→地上座標系と変換する形態も可能である。いずれの場合も結果として、スキャナ座標系から地上座標系への変換となる。また、地上座標系→IMU座標系→カメラ座標系と変換するのではなく、IMU座標系を介さず、地上座標系→カメラ座標系と変換する形態も可能である。この場合、結果として、地上座標系からカメラ座標系への変換となる。
スキャナ座標系は地上座標系内で車両の動きに応じて時々刻々と変化しているため、各点を地上座標系に変換することでひとつのまとまったデータ(点群)に出来、地上座標系の点群になってはじめて太陽方向から路面点群へビル点群(ビルの影を構成する影領域点群)を投影できる。そうして得られた地上座標系での影領域点群を撮影が行われた時刻TnのIMU座標系に変換し、それをカメラ座標系に変換してカメラの撮影画像上に投影する。この一旦地上座標系に変換する方法では、レーザスキャナ101のスキャンタイミングとカメラ102の撮影時刻が同期していなくても、点群データの取り扱いが容易に行える。このため、レーザスキャナ101とカメラ102の機種の選定や動作タイミングの設定の自由度が高く、低コストでシステムを構成できる。
以下、座標変換部203で行われる処理の一例を説明する。まず、点群データの座標系として、レーザスキャナ101を原点とする3次元座標系(第1の座標系:スキャナ座標系)を考える。他方で、カメラ102を原点とする3次元座標系(第2の座標系:カメラ座標系)を考える。ここで、レーザスキャナ101の外部標定要素(IMU103が扱う座標系における位置と向き)とカメラ102の外部標定要素(IMU103が扱う座標系における位置と向き)が既知であるとする。また、IMU103が扱う三次元座標系を第3の座標系(IMU座標系)とする。
レーザスキャナ101の外部標定要素が既知であるので、第1の座標系を回転および平行移動させることで、第1の座標系を第3の座標系(IMU座標系)に変換できる。更にレーザスキャナで取得した各点の取得時刻におけるIMU103の位置と姿勢が第4の座標系(地上座標系)において既知であれば、第4の座標系上で点群データを記述できるようになる。他方で、カメラ101の外部標定要素が既知であるので、第2の座標系を回転および平行移動させることで、第2の座標系を第3の座標系に変換できる。更に撮影時刻におけるIMU103の位置と姿勢が第4の座標系において既知であれば、当該時刻におけるカメラ102の位置と姿勢を第4の座標系(地上座標系)に変換できる。この結果、第4の座標系(地上座標系)上で例えばカメラ102の光軸の方向や画角(撮影視野)を記述することが可能となる。なお、数学的な操作により、地上座標系における点群を第2の座標系(カメラ座標系)に変換する操作は、当然可能である。
影領域点群算出部204は、太陽の位置に基づき、前記点群データが存在することで、太陽光が当たらない影となる領域の点群を影領域点群として算出する。この処理は、地上座標系上で行われる。この処理を地上座標系上で行うことで、点群データをまとまったデータとして扱うことができ、処理時間が短縮化され、また処理を行うハードウェアの負担が軽減される。太陽は動くので、影も動く。よって、影領域点群の算出は、特定の時間間隔で繰り返し行う。具体的には、カメラ102の撮影のタイミング(例えば、0.1秒毎)に同期させて、影領域点群の算出を行う。なお演算の負担を軽減するために、カメラ102の撮影のタイミングの複数回に一回の割合で影領域点群の算出を行う態様も可能である。例えば、撮影の間隔が0.1秒間隔である場合に、0.5秒経過毎に影領域点群の算出を行うような態様も可能である。
以下、影領域点群の算出を行う一例を説明する。例えば、路面上のある視点Aから太陽の方向を見た場合に、その方向に建物があり、太陽が直接見えない場合を考える。この場合、視点Aと太陽を結ぶ線上に建物を構成する点Bがあり、この点Bが当該視点からレーザスキャンを行った場合の点群の一つとして取得される。そして太陽を視点(原点)としてこの点Bを路面に投影した点が影領域点群の一つとなる。この投影点は、先の路面上の視点Aと一致する。図5には、レーザスキャンで得た点群と影領域点群の関係の一例が示されている。
影領域点群を算出する処理では、まず無限遠にある太陽を光源として、点群データ取得部202が取得した点群(レーザスキャナ101が計測した点群)を地上(路面)に投影する。この投影により、レーザスキャナ101が計測した点群各点に対応する地上への投影点の集まりが影投影点群として得られる。影投影点群は、点状の影により構成される点群である。
太陽の位置に関するデータやその計算プログラムは、例えば、NASAのジェット推進研究所のサイト等から入手したものを用いる。勿論、独自の計測値や計算プログラムを用いて太陽の位置を特定してもよい。例えば、理科年表等に太陽の位置に関するデータは記載されており、それに基づく計算方法や計算プログラムは多数公開されている。これらの情報に基づき、視点の位置と時刻が判れば、天球面上における太陽の位置は計算により正確に求めることができる。
以下、影領域点群を算出する処理の一例を説明する。まず、レーザスキャナ101で取得した各点について各点の取得時刻に基づきスキャナ座標系(上記第1の座標系)から地上座標系に変換することにより、地上座標系における点群データを生成する。次にカメラ102で取得した画像の取得時刻における第2の座標系(カメラ座標系)の原点の第4の座標系(地上座標系)における位置(カメラ102の位置)と当該時刻を太陽の位置を求めるデータテーブルやプログラムに入力し、当該時刻における太陽の天球面における位置、すなわち第4の座標系(地上座標系)における太陽光が降り注ぐ方向を求める。
次に、第4の座標系(地上座標系)における点群データにおいて、路面(地上面)の太陽光が当たらず、影が形成される点状の部分が算出される。この処理は、太陽を投影原点として、レーザスキャナ101が取得した点群を地上に投影する処理を行うことで実行される。例えば、太陽光線の光軸と地上面のある点との間に点群があれば、当該地上面上の点は影の部分となる。この影となる点の集まりが影領域点群となる。この処理を点群データ取得部202が得たすべての点群に対して行うことで、地上面の影となる領域を確定できる。図5にレーザスキャナがレーザスキャンによって取得した点群と、この点群を路面の投影することで得た影領域点群の例が示されている。
影領域点群投影部205は、座標変換部203で行われる座標変換の結果を用いて、影領域点群算出部204が算出した影領域点群をカメラ102が撮影した画像に投影する。この処理により、カメラ102が撮影した画像中で、レーザスキャナ101が計測した点群および地上座標系において求めた影領域点群がどのように見えるのかを視覚的に把握できるようになる。
以下、影領域点群投影部205で行われる処理の一例を説明する。まず、上述した第1〜第4の座標系間における座標変換の結果から、第4の座標系(地上座標系)上でカメラ102の光軸の方向や画角(撮影視野)を記述することが可能となる。他方で、上述した影領域点群は、第4の座標系(地上座標系)上で記述可能である。したがって、カメラ102の撮影範囲(撮影した画面)における影領域点群の位置は特定できる。すなわち、カメラ102の撮影範囲(撮影した画面)に影領域点群を投影し、当該撮影範囲の中に影領域点群を表示できる。
カメラ102が撮影した画像中に影領域点群を投影することで、点群データに基づいたどの部分が影になるのかに関する画像情報が、カメラ102が撮影した画像中に表示される。図6に影領域点群を投影したカメラ画像のイメージ図を示す。図6には、建物の影となる部分を構成する影領域点群が路面を撮影した画像中に投影された状態が示されている。図6の場合、太陽は画面の左上の方向にあり、太陽光が建物に遮られることで生成される影に対応する領域に影領域点群が形成される様子が示されている。影領域点群は、レーザスキャンで得た建物の点群データと計算上の太陽の位置に基づくもので、実際に影がどのように画像中に写っているのかは関係ない。よって、画面中で建物の影がどのように写っているのかに関わりなく、影領域点群により、撮影画面(カメラ画像)中における影の位置が特定される。
影領域拡張部206は、カメラ102が撮影した画像(カメラ画像)において、画像を構成する画素の輝度値に基づき、影領域点群の周囲に影領域を拡張する。一般に点群の点密度は、画像の画素に比較して粗い。影領域点群は、点状の影により構成される点群であるので、画像の画素に比較して密度は粗い。よって、影と影でない部分との境界の部分を高い精度で確定するには、影領域点群の隣接する領域に影領域を拡張する必要がある。この処理が影領域拡張部206で行われる。
以下、影領域拡張部206で行われる処理の一例を説明する。まず、影領域点群の縁の部分にある点(この点を着目点とする)を抽出する。次に、この点から周囲に向かって(放射方向に沿って)画像を構成する画素の輝度値を調べる。調べる範囲は、周囲360°で、隣接する着目点までの距離の2倍程度の範囲とする。
ここで、線状に並ぶ位置にある複数の画素の輝度値の変化の勾配を調べる。この勾配が閾値を超えた位置を影の境界点として取得する。例えば、直線状に並ぶ3画素の輝度値の勾配を調べた場合に、その勾配が最大の3画素の組の中央の画素部分を境界点として取得する。この境界点の取得を一つの着目点に関して1以上、更にそれを対象となる着目点の全ておいて行う。そして、得られた複数の境界点を結ぶことで、影領域の輪郭を確定する。なお、影領域の輪郭の内側は、影として塗りつぶす。
影特定部207は、影領域拡張部206での処理によって画定した影の部分(太陽光が当たらない地上面(路面)の部分)を特定する。コントラスト調整部208は、路面の影の部分のコントラストを調整する。具体的には、影であり暗い画像であることを前提に、コントラストを強調した表示となるようにコントラストを調整する。影の部分であり、暗い画像であること前提したコントラスト処理を行うことで、影の部分における路面のひび割れ部分の検出精度を高めることができる。
影境界線特定部209は、影領域拡張部206での処理によって画定した影の部分の縁(影と影でない部分との境界)を特定する。影の縁の部分は、線状であり、この線状の部分が路面のひび割れた部分であると誤検出される場合がある。この誤検出される可能性のある線状の影の縁の部分を予め特定しておくことで、最終的に得られるデータの信頼性を高めることができる。
ひび割れ部分検出部210は、画像解析により、カメラ102が撮影した画像中から路面のひび割れ部分を検出する。この処理は、通常の画像認識技術を用いて行われる。この技術としては、「従来技術」の欄で述べた特許文献1等に記載された技術を利用することができる。
誤検出判定部211は、影境界線特定部209で得られた影の境界線(影の縁)に基づき、ひび割れ部分検出部210が検出したひび割れ部分の正誤を判定する。この処理では、影の境界線の撮影画面中での位置と、ひび割れ部分検出部210が検出したひび割れ部分の撮影画面中での位置とを比較し、両者が一致または一致していると見なせる場合(誤差の範囲で一致と認められる場合)に、ひび割れ部分検出部210の検出が誤りであったと判定する。この処理により、検査データの信頼性を高めることができる。
架空線検出部212は、上空に設置された架空線を検出する。架空線としては、電線、電話線、光ファイバーケーブル、ケーブルTVの信号線、電柱の支線(ステー線)等が挙げられる。レーザスキャナ101のスキャン密度にもよるが、架空線は、その一部が点群データとして取得される場合がある。架空線は、上空にあるので、近接して他の建物等の点群は存在せず、孤立して線状に延在している。そこで、孤立した空間に離れた2以上の点群が検出された場合、それを結んで架空線として特定する。孤立して存在しているか否か、建物等から離れているか否かは、閾値を用いて判定する。また、上述したレーザスキャンデータから得られた架空線と推測される点群データの特定に、上空を画像撮影した画像のデータを利用することもできる。ただし、この場合も架空線の一部の検出が行われていなければならない。
架空線検出部212は、架空線の位置のデータを地上座標等の適当な座標系上において計算で求める。例えば、孤立した2点の点群が得られた場合、その2点を結ぶ架空線を設定してその直線または曲線の方程式を求め、その座標を取得する。すなわち、架空線は線状であり、スキャン光が当たらず、点群を取りこぼす場合がある。あるいは、架空線の一部しか点群データが取れない場合がある。この場合、架空線が線状に延在することに着目し、欠落した部分の点群を予想する。例えば、直線の方程式や緩いカーブを描く曲線の方程式を複数用意し、それらに部分的に得られた架空線の点群を代入することで、得られた点群にフィッティングする線の方程式を見出し、その線の方程式によって当該架空線の位置を特定する。この架空線の位置のデータは、影領域点群算出部204で行われる演算で利用され、架空線に対応した影領域点群が得られる。すなわち、架空線があることで生じる影に対応する影領域点群が得られる。
架空線の影は、線状であり、路面に投影された場合、路面のひび割れとして検出されやすい(画像解析処理では、識別が困難な場合が多々ある)。架空線に起因する影領域点群を得ることで、架空線に起因する誤検出を低減でき、得られる路面のひび割れに係るデータの信頼性を高めることができる。
記憶部213は、画像処理装置200で扱うデータや画像処理装置200を動作させるプログラムのデータが記憶される。また、演算に必要な基礎データ等が記憶部213に記憶される。
車両位置姿勢算出部214は、指定された時刻tにおける車両100の位置と姿勢を算出する。レーザスキャナ101とカメラ102の車両100に対する外部標定要素(位置と姿勢)は既知であるので、時刻tにおける車両の位置と姿勢が求まれば、時刻tにおけるレーザスキャナ101とカメラ102の位置と姿勢も求まる。
車両100の移動の軌跡は、GNSSデータおよびIMUデータにより刻々と記録されている。このデータから、指定された時刻tにおける車両100の位置と姿勢は、計算により求めることができる。この処理が車両位置特定部214で行われる。時刻tにおける車両100の位置を特定することで、時刻tにおける太陽の位置、スキャナ座標系の原点の位置、カメラ座標系の原点の位置が決まる。また、姿勢が求まることで、各座標系の向きが決まる。
(動作の一例)
図4に画像処理装置200で実行される処理の手順の一例を示す。図4の処理を実行するプログラムは、記憶部213または適当な記憶媒体に記憶され、そこから読み出されて実行される。当該プログラムは、適当な回線を介して、サーバや離れた場所にある記憶装置から取得することもできる。
図4の処理において、ステップS101〜S102の処理が車両100の側で行われ、ステップS103〜S112の処理が画像処理装置200で行われる。まず、車両を走行させながらカメラ102を用いて特定の時間間隔(例えば、0.1秒間隔)で路面の撮影を行う。この際、カメラ102の撮影に同期させて、レーザスキャナ101によるレーザスキャンを行い、周囲環境の点群データを得る。レーザスキャンでは、路面に影を形成する可能性のある建物および上空の架空線がスキャンされるようにスキャン範囲が設定される。画像データおよび点群データ、それらのデータを得た時刻、その時刻における車両の姿勢と位置(IMU103の姿勢と位置)は、関連付けされて記憶装置105に記憶される(ステップS101およびS102)。
一連のデータを得たら、記憶装置105から画像処理装置200にデータを移し、ステップS103以下の処理を実行する。まず、時刻tにおけるレーザスキャナ101とカメラ102の位置と姿勢を取得する(ステップS103)。ここで、位置と姿勢のデータは車両位置姿勢算出部214で算出される。このデータは、スキャナ座標系とカメラ座標系をIMU座標系に変換する際に利用される。次に、時刻tにおける太陽の位置を取得し(ステップS104)、時刻tにおける影領域点群を算出する(ステップS105)。この際、架空線の影に関しても影領域点群を算出する。
影領域点群を得たら、それを時刻tに撮影したカメラ画像上に投影する(ステップS106)。次に、時刻tにおけるカメラ画像上における影領域点群を拡張し(ステップS107)、当該カメラ画像中における影の領域を確定する(ステップS108)。
次に、影領域として確定した画像部分のコントラストを強調する調整を行う(ステップS109)。このコントラストの調整を行うことで、影となり暗い画像となった部分からのひび割れの検出精度が高まる。その後、路面のひび割れ部分を検出する画像解析処理が行われ(ステップS110)、その結果をステップS108で得た影領域の情報と比較することで、正誤判定が行われる(ステップS111)。正誤判定を行うことで、影の縁をひび割れとして認定する不都合が回避される。
以上の処理を時刻t、時刻t、時刻t・・・・において繰り返し行い、対象となる全てのカメラ画像に対して行う(ステップS112)。
図4の処理をリアルタイムに行うことも可能である。この場合、画像処理装置200を車両100に乗せ、車両を走行させながら、図4の処理を行う。
(優位性)
以上述べた技術では、点群データと太陽の位置を用いて、太陽光が建物等の影となって当たらない路面の領域を算出する。画像解析では、影の縁なのか路面のひび割れなのかの判定が困難であっても、予め影の部分が判っていれば、正誤判定処理により、影の縁の部分をひび割れ部分として認定する問題が回避される。また、影の部分は暗く、ひび割れの検出精度が低下するが、点群データから予め影の部分を得ていれば、その部分のコントラストを調整することで、ひび割れの検出精度を高めることができる。
また、電線等の架空線の影が路面に写りこむことで、架空線の影をひび割れと誤検出する問題が生じるが、点群データから予め架空線の影の部分の情報を得ていれば、その部分のデータを排除することで、架空線の影をひび割れとして認定する問題を避けることができる。
(その他)
本発明は、路面のひび割れの検出の場合に限定されず、コンクリートやモルタルで固められた斜面や崖におけるひび割れの検出、橋の橋脚におけるひび割れの検出等に利用することもできる。

Claims (8)

  1. カメラが撮影した対象物の画像の画像データを取得する画像データ取得部と、
    レーザスキャナが取得した点群データを取得する点群データ取得部と、
    太陽の位置に基づき、前記太陽から対象物に前記点群データを投影した影領域点群を算出する影領域点群算出部と、
    前記影領域点群を前記画像に投影する影領域点群投影部と、
    前記点群データに基づき架空線を検出する架空線検出部と
    を備え、
    前記影領域点群算出部は、前記検出された架空線の影となる部分の点群を算出し、
    前記架空線検出部において、前記架空線の点群に基づき、前記架空線が連続して存在する位置を予想する処理が行われることを特徴とする画像処理装置。
  2. 前記レーザスキャナが取得した前記点群データの地上座標系への座標変換、および前記地上座標系で記述された前記点群データをカメラ座標系に座標変換する座標変換部を更に備え、
    前記影領域点群の算出は、前記地上座標系で行われることを特徴とする請求項1に記載の画像処理装置。
  3. 前記画像において、位置による画素の輝度値の違いに基づき前記影領域点群の周囲に影領域を拡張する影領域拡張部を備えることを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記画像における前記画像に投影された前記影領域のコントラストを調整するコントラスト調整部を備えることを特徴とする請求項に記載の画像処理装置。
  5. 前記拡張された影領域に基づき、前記画像中の影の境界線を特定する影境界線特定部を備えることを特徴とする請求項3に記載の画像処理装置。
  6. 前記画像中から撮影対象のひび割れ部分を検出するひび割れ部分検出部と、
    前記画像中における前記境界部分の位置に基づき、前記ひび割れ部分検出部が検出したひび割れ部分の誤検出を判定する誤検出判定部と
    を備えることを特徴とする請求項5に記載の画像処理装置。
  7. カメラが撮影した対象物の画像の画像データを取得する画像データ取得ステップと、
    レーザスキャナが取得した点群データを取得する点群データ取得ステップと、
    太陽の位置に基づき、前記太陽から前記対象物に前記点群データを投影した影領域点群を算出する影領域点群算出ステップと、
    前記影領域点群を前記画像に投影する影領域点群投影ステップと、
    前記点群データに基づき架空線を検出する架空線検出ステップと
    を有し、
    前記影領域点群算出ステップにおいて、前記検出された架空線の影となる部分の点群を算出し、
    前記架空線検出ステップにおいて、前記架空線の点群に基づき、前記架空線が連続して存在する位置を予想する処理が行われることを特徴とする画像処理方法。
  8. コンピュータに読み取らせて実行させるプログラムであって、
    コンピュータを
    カメラが撮影した対象物の画像の画像データを取得する画像データ取得部と、
    レーザスキャナが取得した点群データを取得する点群データ取得部と、
    太陽の位置に基づき、前記太陽から前記対象物に前記点群データを投影した影領域点群を算出する影領域点群算出部と、
    前記影領域点群を前記画像に投影する影領域点群投影部と、
    前記点群データに基づき架空線を検出する架空線検出部として機能させ、
    前記影領域点群算出部は、前記検出された架空線の影となる部分の点群を算出し、
    前記架空線検出部において、前記架空線の点群に基づき、前記架空線が連続して存在する位置を予想する処理が行われることを特徴とする画像処理用プログラム。
JP2016167990A 2016-08-30 2016-08-30 画像処理装置、画像処理方法および画像処理用プログラム Active JP6797607B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016167990A JP6797607B2 (ja) 2016-08-30 2016-08-30 画像処理装置、画像処理方法および画像処理用プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016167990A JP6797607B2 (ja) 2016-08-30 2016-08-30 画像処理装置、画像処理方法および画像処理用プログラム

Publications (2)

Publication Number Publication Date
JP2018036769A JP2018036769A (ja) 2018-03-08
JP6797607B2 true JP6797607B2 (ja) 2020-12-09

Family

ID=61567559

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016167990A Active JP6797607B2 (ja) 2016-08-30 2016-08-30 画像処理装置、画像処理方法および画像処理用プログラム

Country Status (1)

Country Link
JP (1) JP6797607B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7243088B2 (ja) * 2018-09-05 2023-03-22 株式会社リコー 移動計測装置および計測装置
JP7311353B2 (ja) * 2018-09-21 2023-07-19 株式会社トプコン 測定装置及び測定装置の制御方法
JP2020061049A (ja) * 2018-10-12 2020-04-16 パイオニア株式会社 点群データ構造
JP7257770B2 (ja) * 2018-10-12 2023-04-14 パイオニア株式会社 情報処理装置
WO2021200038A1 (ja) * 2020-03-31 2021-10-07 日本電気株式会社 道路劣化診断装置、道路劣化診断方法、及び、記録媒体
CN115777116A (zh) * 2020-07-14 2023-03-10 索尼半导体解决方案公司 信息处理装置、信息处理方法和程序
CN113012039B (zh) * 2021-03-30 2023-04-07 北京市商汤科技开发有限公司 图像处理方法、装置、电子设备及存储介质

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005043324A (ja) * 2003-07-25 2005-02-17 Matsushita Electric Ind Co Ltd 路面損傷状態点検方法及び路面損傷位置の特定方法
JP2008269218A (ja) * 2007-04-19 2008-11-06 Mitsubishi Electric Corp 画像処理装置、画像処理方法および画像処理プログラム

Also Published As

Publication number Publication date
JP2018036769A (ja) 2018-03-08

Similar Documents

Publication Publication Date Title
JP6797607B2 (ja) 画像処理装置、画像処理方法および画像処理用プログラム
US10810734B2 (en) Computer aided rebar measurement and inspection system
US7733342B2 (en) Method of extracting 3D building information using shadow analysis
US8326021B2 (en) Measurement apparatus and control method
EP2615580B1 (en) Automatic scene calibration
CA2526105C (en) Image display method and image display apparatus
JP6733267B2 (ja) 情報処理プログラム、情報処理方法および情報処理装置
JP5586765B2 (ja) カメラキャリブレーション結果検証装置および方法
JPWO2018143263A1 (ja) 撮影制御装置、撮影制御方法及びプログラム
JP4132068B2 (ja) 画像処理装置及び三次元計測装置並びに画像処理装置用プログラム
US11915411B2 (en) Structure management device, structure management method, and structure management program
CN111595342A (zh) 一种可大规模部署的室内定位方法及***
JP6410231B2 (ja) 位置合わせ装置、位置合わせ方法及び位置合わせ用コンピュータプログラム
JP6922348B2 (ja) 情報処理装置、方法、及びプログラム
JP4361913B2 (ja) 動き量計算装置
JP2011209896A (ja) 障害物検知装置、障害物検知方法及び障害物検知プログラム
CN116228974A (zh) 三维模型构建方法、装置、计算机设备以及存储介质
JP5230354B2 (ja) 位置特定装置及び異動建物検出装置
KR101463906B1 (ko) 영상 부가정보를 이용한 위치보정 방법
KR100745105B1 (ko) 촬영 영상 표시 방법 및 촬영 영상 표시 장치
JP5409451B2 (ja) 3次元変化検出装置
JP2003346144A (ja) 建物外形抽出方法およびシステム
KR100586815B1 (ko) 3차원 위치 추적 시스템 및 방법
NAKAGAWA et al. Study on making city model with image and laser range data
TWI736960B (zh) 同步定位與建圖優化方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190628

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200812

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200827

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201021

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201118

R150 Certificate of patent or registration of utility model

Ref document number: 6797607

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250