JP2017211200A - カメラ校正装置及びカメラ校正方法 - Google Patents
カメラ校正装置及びカメラ校正方法 Download PDFInfo
- Publication number
- JP2017211200A JP2017211200A JP2016102591A JP2016102591A JP2017211200A JP 2017211200 A JP2017211200 A JP 2017211200A JP 2016102591 A JP2016102591 A JP 2016102591A JP 2016102591 A JP2016102591 A JP 2016102591A JP 2017211200 A JP2017211200 A JP 2017211200A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- camera calibration
- inclination
- vertical edge
- calibration device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Abstract
【課題】カメラの校正の処理を簡単に行う。【解決手段】ステップ2では、画像処理部は、車両に設置されたカメラから取得される撮像画像を歪み補正及び視点変換を行うことによって、対象画像を生成する処理を行う。ステップ3では、画像処理部は、生成した対象画像から信号機及び道路標識等が存在するか否か判定する処理を行う。ステップ3で肯定判定されると、ステップ4で、画像処理部は、信号機及び道路標識等の縦エッジを抽出し、抽出された縦エッジの傾きの角度を算出する。画像処理部は、当該角度に基づいて、車両に設置されているカメラの現在の取付け角度と、車両に設置されたカメラの初期の取付け角度とのずれを算出する。【選択図】図2
Description
本開示は、カメラを校正する技術に関する。
車両に設置されているカメラは、使用しているうちにカメラの取付け角度がずれてくることがある。このようなカメラのずれを校正する技術が知られている。例えば、路面に校正用ボードを設置し、その校正用ボードをカメラで撮像することによりカメラを校正する技術が知られている。しかし、この技術を用いてカメラを校正する場合、校正用ボードを路面等に置いてカメラを校正する必要があり、カメラの校正作業を自動化することができないという問題があった。そこで、この問題を解決するために、路面に描画されている区画線や道路標示等をカメラで撮像することによりカメラを校正する技術が開示されている(特許文献1参照)。
特許文献1に記載の例では、車両に設置されているカメラから取得される撮像画像中において、車線を区分する2本の白線を延長した交点である消失点を計算し、当該消失点と、車両の進行角度を検出する角度センサからの情報とを合わせて、カメラの校正を行っている。つまり、白線の情報と角度センサからの情報とが必要になる。このため、これらの情報に基づいて行われるカメラの校正の処理は複雑になっている。
本開示の一側面は、こうした問題にかんがみてなされたものであり、カメラの校正の処理を簡単に行うことを目的とする。
本開示の一態様は、カメラ校正装置(6)であって、抽出部(6、S1〜S4、S21〜S24、S41〜S46)と、傾き算出部(6、S4、S24、S47〜S49)と、ずれ算出部(6、S9、S10、S29、S30)と、を備える。抽出部は、車両に設置されたカメラ(2、3)から取得される撮像画像において、鉛直方向に延びる直線状の部分を有する物体の縦エッジを抽出する。傾き算出部は、抽出部によって抽出された縦エッジの傾きを算出する。ずれ算出部は、傾き算出部によって算出された縦エッジの傾きに基づいて、車両に設置されているカメラの現在の取付け角度と、車両に設置されたカメラの初期の取付け角度とのずれを算出するずれ算出処理を行う。
このようなカメラ校正装置によれば、縦エッジの傾きに基づいてカメラを校正することができる。そのため、本開示のカメラ校正装置は、例えば、車線境界線の情報と角度センサから得られた情報とが必要なカメラ校正装置とは異なり、角度センサからの情報を必要としない。したがって、本開示のカメラ校正装置を用いれば、カメラの校正の処理を簡単に行うことができる。
また、本開示の別の態様は、カメラ校正方法であって、車両に設置されたカメラ(2、3)から取得される撮像画像において、鉛直方向に延びる直線状の部分を有する物体の縦エッジを抽出し(6、S1〜S4、S21〜S24、S41〜S46)、抽出された縦エッジの傾きを算出し(6、S4、S24、S47〜S49)、算出された縦エッジの傾きに基づいて、車両に設置されているカメラの現在の取付け角度と、車両に設置されたカメラの初期の取付け角度とのずれを算出する(6、S9、S10、S29、S30)。
このようなカメラ校正方法によれば、先に説明したカメラ校正装置と同様の特徴を備えているため、カメラ校正装置と同様の作用、効果を奏し、カメラの校正の処理を簡単に行うことができる。
なお、この欄及び特許請求の範囲に記載した括弧内の符号は、一つの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、本開示の技術的範囲を限定するものではない。
以下、図面を参照しながら、本開示を実施するための形態を説明する。
[1.第1実施形態]
[1−1.カメラ校正システム1の構成]
カメラ校正システム1の構成を図1に基づき説明する。カメラ校正システム1は、車両に搭載される車載システムである。カメラ校正システム1を搭載する車両を以下では自車両とする。カメラ校正システム1は、フロントカメラ2と、リアカメラ3と、ECU4と、表示装置5と、を備える。なお、ECU4は、「Electronic Control Unit」の略であり、すなわち電子制御装置の略である。
[1.第1実施形態]
[1−1.カメラ校正システム1の構成]
カメラ校正システム1の構成を図1に基づき説明する。カメラ校正システム1は、車両に搭載される車載システムである。カメラ校正システム1を搭載する車両を以下では自車両とする。カメラ校正システム1は、フロントカメラ2と、リアカメラ3と、ECU4と、表示装置5と、を備える。なお、ECU4は、「Electronic Control Unit」の略であり、すなわち電子制御装置の略である。
フロントカメラ2は、フロントカメラ2の光軸が斜め下に向くように、自車両の前部に設置され、自車両の前方斜め下を撮像する。リアカメラ3は、リアカメラ3の光軸が斜め下に向くように、自車両の後部に設置され、自車両の後方斜め下を撮像する。フロントカメラ2及びリアカメラ3は、所定の時間間隔(例えば1/15秒間隔)で撮像を行う。また、フロントカメラ2及びリアカメラ3は、広角レンズを備える。そのため、フロントカメラ2及びリアカメラ3によって撮像された撮像画像は、撮像画像の中心部に比べ、周辺部ほど被写体の縮小度合が大きくなるような歪みを有する。
ECU4は、画像処理部6と、画像信号処理部7と、車載信号処理部8と、メモリ9と、電源回路10と、を備える。画像処理部6は、図示しないCPU、RAM、及びROM等、を有する周知のマイクロコンピュータを中心に構成される。画像処理部6の各種機能は、CPUが非遷移的実体的記録媒体に格納されたプログラムを実行することにより実現される。この例では、メモリ9が、プログラムを格納した非遷移的実体的記録媒体に該当する。また、このプログラムの実行により、プログラムに対応する方法が実行される。なお、画像処理部6を構成するマイクロコンピュータの数は1つでも複数でもよい。
画像信号処理部7は、フロントカメラ2及びリアカメラ3から入力された信号を画像処理部6へ出力するためのインターフェースである。車載信号処理部8は、自車両の車速を検出する車速センサから入力された車速信号を画像処理部6へ出力するためのインターフェースである。
メモリ9は、各種機能を実現するためのプログラムを記録する記録媒体である。メモリ9には、自車両に設置されたフロントカメラ2及びリアカメラ3の初期の取付け角度が設計値として記録されている。
電源回路10は、自車両の図示しないバッテリから入力した電圧を適当な電圧に変換し、ECU4の各部へ供給する。表示装置5は、画像を表示する周知の装置であり、表示された画像を車内の運転者等が視認できる位置に設置される。表示装置5は、例えば液晶ディスプレイ等である。
[1−2.カメラ校正システム1の第1カメラ校正処理]
次に、画像処理部6が実行する第1カメラ校正処理(換言すれば、カメラ校正方法)について、図2及び図3のフローチャートを用いて説明する。第1カメラ校正処理は、自車両のイグニッションスイッチがオンにされることにより開始され、所定時間(例えば1/15秒)ごとに繰り返し実行される。なお、以下に説明する第1カメラ校正処理は、フロントカメラ2から取得される撮像画像に基づいて処理される例を示すが、リアカメラ3から取得される撮像画像に基づいて処理される場合も同様の処理が行われる。
次に、画像処理部6が実行する第1カメラ校正処理(換言すれば、カメラ校正方法)について、図2及び図3のフローチャートを用いて説明する。第1カメラ校正処理は、自車両のイグニッションスイッチがオンにされることにより開始され、所定時間(例えば1/15秒)ごとに繰り返し実行される。なお、以下に説明する第1カメラ校正処理は、フロントカメラ2から取得される撮像画像に基づいて処理される例を示すが、リアカメラ3から取得される撮像画像に基づいて処理される場合も同様の処理が行われる。
ステップ1では、画像処理部6は、フロントカメラ2から撮像画像を取得する処理を行う。続くステップ2では、画像処理部6は、取得した撮像画像から対象画像52を生成する処理を行う。対象画像52の例を図8の(B)に示す。ステップ2では、具体的には、画像処理部6は、撮像画像に対して周知の歪み補正を行う。歪み補正された撮像画像51の例を図8の(A)に示す。そして、画像処理部6は、歪み補正された撮像画像51をフロントカメラ2のピッチ角(換言すれば伏角)が0度の視点の画像に変換する視点変換処理を、歪み補正された撮像画像51に対して実施することで、対象画像52を生成する。なお、視点変換処理は、自車両に設置されたフロントカメラ2の初期の設計値に基づいて処理が行われる。
続くステップ3では、画像処理部6は、生成した対象画像52に設定された水平線から上方の領域を左右に略等しく分けた左側の領域(以下、左側領域と称す。)及び右側の領域(以下、右側領域と称す。)のそれぞれに対して、信号機及び道路標識等が存在するか否かを判定する処理を行う。具体的には、画像処理部6は、メモリ9に予め記録されている信号機及び道路標識等のテンプレートを用いて対象画像52を解析するパターン認識を行い、信号機及び道路標識等が存在するか否かを判定する処理を行う。なお、水平線は、自車両に設置されたフロントカメラ2の初期の設計値に基づいて、対象画像52に設定されている。ステップ3で否定判定されると、再度、ステップ1に戻る。一方、ステップ3で肯定判定されると、ステップ4に進む。
ステップ4では、画像処理部6は、パターン認識された信号機及び道路標識等の縦エッジを抽出し、当該縦エッジの傾きの角度を算出し、更に当該角度のデータを蓄積する処理を行う。ステップ4での処理は、左側領域及び右側領域のそれぞれに対して行われる。ここで、縦エッジとは、鉛直方向に延びる直線状の部分を有する静止物体の当該直線状の部分を意味する。静止物体としては、例えば信号機、道路標識、及び建物等が挙げられる。なお、鉛直方向とは、厳密な意味での鉛直方向に限るものではなく、目的とする効果を奏するのであれば、厳密に鉛直方向でなくてもよい。具体的に、ステップ4では、画像処理部6は、信号機のランプを支える支持柱や一方通行を示す矢印等が表示された表示板を支える支持柱等を縦エッジとして抽出する。この抽出は公知のエッジ検出処理等によって行われる。画像処理部6は、抽出された縦エッジの両端点をそれぞれ開始点及び終了点とし、開始点及び終了点の対象画像52上における座標を算出する。画像処理部6は、この座標情報に基づいて縦エッジの傾きの角度を算出し、そのデータを蓄積する。
ステップ5では、画像処理部6は、ステップ4で抽出された縦エッジを含む左側領域の対象画像52の枚数及び右側領域の対象画像52の枚数がともに所定の枚数よりも多いか否かを判定する処理を行う。ここで否定判定されると、ステップ1に戻る。一方、ステップ5で肯定判定されると、ステップ6に進む。具体的には、例えば所定の枚数を100枚に設定すると、縦エッジを含む左側領域の対象画像が100枚を超え、縦エッジを含む右側領域の対象画像が100枚に達していない場合、画像処理部6は左側領域の処理をいったんストップする。右側領域については、ステップ1に戻り、縦エッジを含む右側領域の対象画像52が100枚よりも多くなるまで、画像処理部6はステップ1からステップ5の処理を行う。縦エッジを含む右側領域の対象画像52が100枚を超えたら、左側領域の処理及び右側領域の処理はステップ6に進む。
続くステップ6では、画像処理部6は、ステップ4で蓄積された角度の平均値を算出する処理を行う。この処理は、左側領域及び右側領域から抽出された縦エッジの傾きの角度に対して、それぞれ行われる。
続くステップ7では、画像処理部6は、直角(90度)から左側領域の縦エッジの角度の平均値を引いた値と直角(90度)から右側領域の縦エッジの角度の平均値を引いた値とを算出し、算出した値の絶対値の少なくとも一方が閾値TH1よりも大きい値であるか否かを判定する処理を行う。例えば、フロントカメラ2の現在の取付け角度がフロントカメラ2の初期の取付け角度とずれていない場合には、視点変換処理後の縦エッジの傾きの角度は理想的には90度となり、算出した値の絶対値は0となる。フロントカメラ2の現在の取付け角度とフロントカメラ2の初期の取付け角度とのずれが大きくなると、絶対値が大きくなる。
また、閾値TH1は、フロントカメラ2の校正が必要か否かの判定基準値である。ステップ7で否定判定された場合、つまり、絶対値が閾値TH1以下の値の場合、フロントカメラ2の現在の取付け角度と初期の取付け角度とのずれが小さいため、ステップ8の処理後、再度ステップ1からステップ7の処理が行われる。ステップ8では、画像処理部6は古いデータの順にデータを破棄する処理を行う。ステップ7で肯定判定された場合、つまり、絶対値が閾値TH1よりも大きい値の場合、フロントカメラ2の現在の取付け角度と初期の取付け角度とのずれが大きいため、フロントカメラ2の校正を必要とするステップ9以降の処理へ進む。
ステップ9では、画像処理部6は、左側領域から抽出された縦エッジの傾きの角度の平均値と右側領域から抽出された縦エッジの傾きの角度の平均値との差分の絶対値を算出し、当該絶対値が閾値TH2よりも大きい値であるか否かを判定する処理を行う。閾値TH2は、ロール及びピッチの両方のフロントカメラ2の校正が必要であるか否かの判定基準値である。ステップ9で肯定判定されるとステップ13に進む。ステップ13では、画像処理部6は、ロール及びピッチの両方のフロントカメラ2の校正が必要であるという警報を表示装置に表示する処理を行う。ステップ13の後、第1カメラ校正処理は終了する。
一方、ステップ9で、否定判定されるとステップ10に進む。ステップ10では、画像処理部6は、ステップ7で算出された左側領域及び右側領域の値の符号が同じか否かを判定する処理を行う。ここで、符号とは、ステップ7で算出された値の符号のことを意味し、マイナス(−)及びプラス(+)のことである。つまり、縦エッジの傾きの角度が0度以上90度未満の場合にはプラス、90度より大きく180度未満の場合にはマイナスである。
ステップ10で、否定判定されるとステップ11に進む。ステップ11では、画像処理部6は、ピッチのみのフロントカメラ2の校正が必要であるという警報を表示装置に表示する処理を行う。ステップ11の後、第1カメラ校正処理は終了する。
ステップ10で、肯定判定されるとステップ12に進む。ステップ12では、画像処理部6は、ロールのみのフロントカメラ2の校正が必要であるという警報を表示装置に表示する処理を行う。ステップ12の後、第1カメラ校正処理は終了する。
次に、フロントカメラ2の校正処理の具体的事例について、図4の(A)、(B)、(C)、(D)、(E)、(F)、(G)、(H)、及び(I)を用いて説明する。
左側領域及び右側領域から抽出された平均の縦エッジを図4の(A)、(B)、(C)、(D)、(E)、(F)、(G)、(H)、及び(I)の2本の線で示す。2本の線のうち左側にある線は左側領域から抽出された平均の縦エッジを示し、2本の線のうち右側にある線は右側領域から抽出された平均の縦エッジを示す。
左側領域及び右側領域から抽出された平均の縦エッジを図4の(A)、(B)、(C)、(D)、(E)、(F)、(G)、(H)、及び(I)の2本の線で示す。2本の線のうち左側にある線は左側領域から抽出された平均の縦エッジを示し、2本の線のうち右側にある線は右側領域から抽出された平均の縦エッジを示す。
図4の(A)に示すように、左側領域及び右側領域から抽出された平均の縦エッジの傾きが両方ともあまり傾いていない場合、つまり、ステップ7で否定判定される場合、フロントカメラ2の校正が必要であるという警報を表示装置に表示しない。
一方、図4の(B)〜(I)に示すように、左側領域及び右側領域から抽出された平均の縦エッジの傾きの少なくとも一方が一定の値よりも大きく傾いている場合、つまり、ステップ7で肯定判定される場合、フロントカメラ2の校正が必要であるという警報を表示装置に表示する。
図4の(B)及び(C)に示すように、左側領域から抽出された縦エッジの傾きの角度の平均値と右側領域から抽出された縦エッジの傾きの角度の平均値との差分の絶対値が閾値TH2以下の値であり、左側領域及び右側領域から抽出された縦エッジの傾きの角度の平均値の符号が異なる場合、ピッチのみのフロントカメラ2の校正が必要であるという警報を表示装置に表示する。
図4の(D)及び(E)に示すように、左側領域から抽出された縦エッジの傾きの角度の平均値と右側領域から抽出された縦エッジの傾きの角度の平均値との差分の絶対値が閾値TH2以下の値であり、左側領域及び右側領域から抽出された縦エッジの傾きの角度の平均値の符号が同じ場合、ロールのみのフロントカメラ2の校正が必要であるという警報を表示装置に表示する。
図4の(F)〜(I)に示すように、左側領域から抽出された縦エッジの傾きの平均値と右側領域から抽出された縦エッジの傾きの平均値との差分の絶対値が閾値TH2よりも大きい値である場合、ロール及びピッチの両方のフロントカメラ2の校正が必要であるという警報を表示装置に表示する処理を行う。
[1−3.効果]
以上詳述した第1実施形態によれば、以下の効果が得られる。
(1a)第1実施形態の画像処理部6は、縦エッジの傾きの角度に基づいてフロントカメラ2の校正を行う。そのため、画像処理部6は、例えば、車線境界線の情報と角度センサから得られた情報とが必要な画像処理部とは異なり、角度センサからの情報を必要としない。また、画像処理部6は、例えば、測定すべき道路を特定するために地図情報を必要とする画像処理部とは異なり、地図情報を必要としない。したがって、画像処理部6を用いれば、フロントカメラ2の校正の処理を簡単に行うことができる。
以上詳述した第1実施形態によれば、以下の効果が得られる。
(1a)第1実施形態の画像処理部6は、縦エッジの傾きの角度に基づいてフロントカメラ2の校正を行う。そのため、画像処理部6は、例えば、車線境界線の情報と角度センサから得られた情報とが必要な画像処理部とは異なり、角度センサからの情報を必要としない。また、画像処理部6は、例えば、測定すべき道路を特定するために地図情報を必要とする画像処理部とは異なり、地図情報を必要としない。したがって、画像処理部6を用いれば、フロントカメラ2の校正の処理を簡単に行うことができる。
(1b)第1実施形態の画像処理部6は、左側領域及び右側領域から縦エッジを抽出し、抽出された縦エッジのそれぞれの傾きを比較する処理を行う。そのため、必要とするフロントカメラ2の校正がロールなのか、ピッチなのかが分かる。
(1c)第1実施形態では、対象画像52の左側領域及び右側領域に対して処理がそれぞれ行われる。当該左側領域及び右側領域は、信号機及び道路標識等が存在する確率が高い領域である。そのため、例えば対象画像52全体に対して処理される場合に比べて、左側領域及び右側領域に対して処理される場合の方が、処理時間が低減され、さらに誤認識を抑制することができる。
(1d)第1実施形態の画像処理部6は、視点変換処理を行い、視点変換処理後の対象画像52から縦エッジを抽出する処理を行う。そのため、フロントカメラ2の光軸が斜め下に向くように自車両に設置されている場合でも、フロントカメラ2のピッチ角が0度になるように設置されている場合と同様に、フロントカメラ2の校正を行うことができる。
(1e)第1実施形態では、水平線が、自車両に設置されたフロントカメラ2の初期の設計値に基づいて、対象画像52に設定されている。そのため、例えば、車線境界線の情報と角度センサから得られた情報とが必要な画像処理部とは異なり、画像処理部6は角度センサからの情報を必要としないため、角度センサがなくても、フロントカメラ2を校正することができる。
(1f)第1実施形態の画像処理部6は、縦エッジの傾きの角度のデータを蓄積し、蓄積されたデータの平均値に基づいて、フロントカメラ2の校正の処理を行う。そのため、画像処理部6は、精度が高い情報に基づいてフロントカメラ2の校正の処理を行うことができる。
(1g)第1実施形態の画像処理部6は、絶対値が閾値TH1以下の値の場合、フロントカメラ2の現在の取付け角度と初期の取付け角度とのずれが小さいため、フロントカメラ2の校正を必要とする処理を行わない。そのため、処理負荷を低減することができる。
(1h)第1実施形態の画像処理部6は、ロール及びピッチのカメラ姿勢の校正が必要であるという警報を表示装置に表示する処理を行う。そのため、画像処理部6は、自車両に設置されているフロントカメラ2の現在の取付け角度と、自車両に設置されたフロントカメラ2の初期の取付け角度とがずれていることを、運転者に把握させることができる。
なお、第1実施形態では、画像処理部6がカメラ校正装置に相当し、平均値が統計値に相当する。また、左側領域から抽出された縦エッジの傾きが第1の傾きに相当し、右側領域から抽出された縦エッジの傾きが第2の傾きに相当する。また、S1〜S4が抽出部としての処理に相当し、S4が傾き算出部としての処理に相当し、S9、S10がずれ算出部としての処理に相当し、S4が蓄積部としての処理に相当し、S6が統計部としての処理に相当し、S11〜S13が表示処理部としての処理に相当する。
[2.第2実施形態]
[2−1.第1実施形態との相違点]
第2実施形態は、基本的な構成は第1実施形態と同様であるため、共通する構成については説明を省略し、相違点を中心に説明する。なお、第1実施形態と同じ符号は、同一の構成を示すものであって、先行する説明を参照する。
[2−1.第1実施形態との相違点]
第2実施形態は、基本的な構成は第1実施形態と同様であるため、共通する構成については説明を省略し、相違点を中心に説明する。なお、第1実施形態と同じ符号は、同一の構成を示すものであって、先行する説明を参照する。
[2−2.カメラ校正システム1の第2カメラ校正処理]
次に、第2実施形態の画像処理部6が、第1実施形態の第1カメラ校正処理(図2及び図3)に代えて実行する第2カメラ校正処理(換言すれば、カメラ校正方法)について、図5、図6及び図7のフローチャートを用いて説明する。第2カメラ校正処理は、自車両のイグニッションスイッチがオンにされることにより開始され、所定時間(例えば1/15秒)ごとに繰り返し実行される。なお、以下に説明する第2カメラ校正処理は、フロントカメラ2から取得される撮像画像に基づいて処理される例を示すが、リアカメラ3から取得される撮像画像に基づいて処理される場合も同様の処理が行われる。
次に、第2実施形態の画像処理部6が、第1実施形態の第1カメラ校正処理(図2及び図3)に代えて実行する第2カメラ校正処理(換言すれば、カメラ校正方法)について、図5、図6及び図7のフローチャートを用いて説明する。第2カメラ校正処理は、自車両のイグニッションスイッチがオンにされることにより開始され、所定時間(例えば1/15秒)ごとに繰り返し実行される。なお、以下に説明する第2カメラ校正処理は、フロントカメラ2から取得される撮像画像に基づいて処理される例を示すが、リアカメラ3から取得される撮像画像に基づいて処理される場合も同様の処理が行われる。
ステップ21では、画像処理部6は、前述したステップ1と同様の処理を実行する。続くステップ22では、画像処理部6は、前述したステップ2と同様の処理を実行する。
続くステップ23では、画像処理部6は、対象画像52の左探索領域53及び右探索領域54のそれぞれに対して、視認対象が存在するか否かを判定する処理を行う。具体的には、第2実施形態では、例えば信号機や道路標識等のように、視認される視認対象及び視認対象を支える支持柱を備える静止物体から、縦エッジを抽出する。静止物体が信号機の場合、信号機のランプ部分が視認対象に相当し、静止物体が道路標識の場合、一方通行を示す矢印等が表示された表示板部分が視認対象に相当する。左探索領域53及び右探索領域54の例を図8(B)に示す。対象画像52を上下に略等しく分けた上方の領域から、対象画像52を左右に等しく分ける所定領域と、対象画像52の一番上の所定領域とを除いた左側の領域及び右側の領域が、それぞれ左探索領域53及び右探索領域54として設定されている。具体的に、ステップ23では、画像処理部6は、メモリ9に予め記録されている道路標識の視認対象のテンプレートを用いて撮像画像を解析するパターン認識を行い、視認対象が存在するか否かを判定する処理を行う。
続くステップ23では、画像処理部6は、対象画像52の左探索領域53及び右探索領域54のそれぞれに対して、視認対象が存在するか否かを判定する処理を行う。具体的には、第2実施形態では、例えば信号機や道路標識等のように、視認される視認対象及び視認対象を支える支持柱を備える静止物体から、縦エッジを抽出する。静止物体が信号機の場合、信号機のランプ部分が視認対象に相当し、静止物体が道路標識の場合、一方通行を示す矢印等が表示された表示板部分が視認対象に相当する。左探索領域53及び右探索領域54の例を図8(B)に示す。対象画像52を上下に略等しく分けた上方の領域から、対象画像52を左右に等しく分ける所定領域と、対象画像52の一番上の所定領域とを除いた左側の領域及び右側の領域が、それぞれ左探索領域53及び右探索領域54として設定されている。具体的に、ステップ23では、画像処理部6は、メモリ9に予め記録されている道路標識の視認対象のテンプレートを用いて撮像画像を解析するパターン認識を行い、視認対象が存在するか否かを判定する処理を行う。
ステップ24では、画像処理部6は、視認対象に対してトラッキング処理を行う。この処理は、左探索領域53及び右探索領域54に対してそれぞれ行われる。
具体的には、1つ前の対象画像52及び最新の対象画像52において視認対象が連続して認識された際、1つ前の対象画像52から認識された過去の視認対象と最新の対象画像52から認識された最新の視認対象とを比較して、それらが同一の視認対象であるか否かを判定する。ここで、同一の視認対象とは、物体として同一であることを意味し、外形が同一であっても異なる地点に設置されている視認対象は含まれない。異なる視認対象とは、同一の視認対象以外の視認対象を意味する。そして、最新の視認対象が過去の視認対象と同一の視認対象であると判定された場合、最新の視認対象について、その支持柱の縦エッジが抽出され、当該縦エッジの座標情報が記録される。この処理は、同一の視認対象が対象画像52において認識されている間継続される。つまり、同一の視認対象がトラッキングされる。その間、当該視認対象の座標情報が蓄積される。その後、蓄積された座標情報の中から縦エッジの線分の長さが最大となる座標情報のデータが選択され、当該線分の傾きの角度を算出する処理が行われる。なお、1つの対象画像52中に複数の視認対象が存在する場合、トラッキングは視認対象単位で行われる。トラッキング処理の具体的な流れについて、図7のフローチャートを用いて説明する。
具体的には、1つ前の対象画像52及び最新の対象画像52において視認対象が連続して認識された際、1つ前の対象画像52から認識された過去の視認対象と最新の対象画像52から認識された最新の視認対象とを比較して、それらが同一の視認対象であるか否かを判定する。ここで、同一の視認対象とは、物体として同一であることを意味し、外形が同一であっても異なる地点に設置されている視認対象は含まれない。異なる視認対象とは、同一の視認対象以外の視認対象を意味する。そして、最新の視認対象が過去の視認対象と同一の視認対象であると判定された場合、最新の視認対象について、その支持柱の縦エッジが抽出され、当該縦エッジの座標情報が記録される。この処理は、同一の視認対象が対象画像52において認識されている間継続される。つまり、同一の視認対象がトラッキングされる。その間、当該視認対象の座標情報が蓄積される。その後、蓄積された座標情報の中から縦エッジの線分の長さが最大となる座標情報のデータが選択され、当該線分の傾きの角度を算出する処理が行われる。なお、1つの対象画像52中に複数の視認対象が存在する場合、トラッキングは視認対象単位で行われる。トラッキング処理の具体的な流れについて、図7のフローチャートを用いて説明する。
まず、ステップ41では、画像処理部6はトラッキングフラグがオンであるか否かを判定する処理を行う。トラッキングフラグは、トラッキング中の視認対象が対象画像52に存在するか否かをオン/オフで示すフラグである。なお、トラッキング処理の開始時には、トラッキングフラグがオフに設定される。
ステップ41で否定判定されると、ステップ42に進む。トラッキング処理が開始された直後はトラッキングフラグがオフであるため、ステップ42に進む。
ステップ42では、画像処理部6は、トラッキングフラグをオンにする処理を行う。ステップ42の後、ステップ43に進む。
ステップ42では、画像処理部6は、トラッキングフラグをオンにする処理を行う。ステップ42の後、ステップ43に進む。
ステップ43では、画像処理部6は対象画像52に存在する視認対象の位置情報をメモリ9に記録する。ステップ43の後、ステップ41に戻る。なお、このトラッキング処理では、ステップ41に戻るまでの一連の処理、つまり1サイクルの処理が、同一の対象画像52を処理対象として行われ、ステップ41に戻ることで、処理対象の対象画像52が次に撮像された対象画像52に順に切り替わる。すなわち、フロントカメラ2による撮像タイミングをT1,T2,T3,…と表現した場合、前述したステップ43までの処理は撮像タイミングT1の対象画像52を処理対象として行われ、ステップ41に戻ると、処理対象が撮像タイミングT2の対象画像52に切り替わる。その後、再び処理がステップ41に戻ると、処理対象が撮像タイミングT3の対象画像52に切り替わる。
ステップ41で肯定判定されると、ステップ44に進む。ステップ44では、画像処理部6は対象画像52に存在する視認対象の位置情報をメモリ9に記録する。ステップ44の後、ステップ45に進む。
ステップ45では、画像処理部6は、1サイクル前の過去の視認対象と最新の視認対象とが同一の視認対象であるか否かを判定する処理を行う。同一の視認対象であるか否かは、1サイクル前のステップ43又はステップ44で記録された過去の視認対象の位置情報と、現サイクルのステップ44で記録された視認対象の位置情報とを比較することにより判定される。すなわち、自車両の車速等に基づいて、対象画像52において同一の視認対象がどのように移動するかは推測できるため、過去の視認対象に基づき推測される位置に最新の視認対象が位置しているか否かを判定することで、同一の視認対象であるか否かを判定することができる。ステップ45で肯定判定されると、ステップ46に進む。
ステップ46では、画像処理部6は、最新の視認対象の支持柱を縦エッジとして抽出し、抽出した縦エッジの座標情報のデータを記録する処理を行う。具体的には、画像処理部6は、公知のエッジ検出処理等によって、対象画像52における最新の視認対象の支持柱が存在すると推測される部分から縦エッジを抽出する。画像処理部6は、抽出された縦エッジの両端点をそれぞれ開始点及び終了点とし、開始点及び終了点の撮像画像上における座標を算出し、座標情報をメモリ9に記録する処理を行う。ステップ46の後、ステップ48に進む。
ステップ48では、画像処理部6は、トラッキングフラグがオンであるか否かを判定する処理を行う。ステップ48で肯定判定されると、ステップ41に戻る。ステップ48で否定判定されると、後述するステップ49に進む。
一方、ステップ45で否定判定されると、ステップ47に進む。ステップ47では、画像処理部6は、トラッキングフラグをオフにする処理を行う。ステップ47の後、ステップ48に進み、ステップ48で否定判定されてステップ49に進む。
ステップ49では、画像処理部6は、ステップ46で蓄積された縦エッジの座標情報に基づき、線分の長さが最大となる縦エッジを選択し、当該縦エッジの傾きの角度を算出する処理を行う。算出された角度は、蓄積され、ステップ49以降の処理に使用される。ステップ49の後、ステップ25に進む。
ステップ25では、画像処理部6は、ステップ24で抽出された縦エッジを含む左探索領域53の対象画像52の枚数及び右探索領域54の対象画像52の枚数がともに所定の枚数よりも多いか否かを判定する処理を行う。
ステップ26では、画像処理部6は、ステップ49で蓄積された角度の最頻値区分の平均値を算出する処理を行う。この処理は、左探索領域53及び右探索領域54に対してそれぞれ行われる。具体的には、画像処理部6は、蓄積された角度の分布を例えば0.5度の所定の単位で階級区分し、階級区分された頻度分布中の最大頻度の区分である最頻値区分の平均値を算出する処理を行う。
ステップ27〜ステップ33では、画像処理部6は、第1実施形態の平均値の代わりに、最頻値区分の平均値を用いて前述したステップ7〜ステップ13と同様の処理を実行する。
[2−3.効果]
以上詳述した第2実施形態によれば、前述した第1実施形態の効果に加え、以下の効果が得られる。
以上詳述した第2実施形態によれば、前述した第1実施形態の効果に加え、以下の効果が得られる。
(2a)第2実施形態の画像処理部6は、縦エッジの線分の長さが最大となる座標情報を選択し、当該線分の傾きの角度を続く処理に用いる。つまり、信頼できるデータがそれ以降の処理に使用される。そのため、それ以降の処理の精度が高くなる。
また、第2実施形態の画像処理部6は、視認対象単位でトラッキング処理を行う。そのため、同一の視認対象から縦エッジの傾きの角度を1つ得ることができる。
なお、第2実施形態では、最頻値区分の平均値が統計値に相当する。また、左探索領域53から抽出された縦エッジの傾きが第1の傾きに相当し、右探索領域54から抽出された縦エッジの傾きが第2の傾きに相当する。また、S21〜S24、S41〜S46が抽出部としての処理に相当し、S24、S47〜S49が傾き算出部としての処理に相当し、S29、S30がずれ算出部としての処理に相当し、S24、S41〜S46が蓄積部としての処理に相当し、S26が統計値としての処理に相当し、S31〜S33が表示処理部としての処理に相当する。
なお、第2実施形態では、最頻値区分の平均値が統計値に相当する。また、左探索領域53から抽出された縦エッジの傾きが第1の傾きに相当し、右探索領域54から抽出された縦エッジの傾きが第2の傾きに相当する。また、S21〜S24、S41〜S46が抽出部としての処理に相当し、S24、S47〜S49が傾き算出部としての処理に相当し、S29、S30がずれ算出部としての処理に相当し、S24、S41〜S46が蓄積部としての処理に相当し、S26が統計値としての処理に相当し、S31〜S33が表示処理部としての処理に相当する。
[3.他の実施形態]
以上、本開示を実施するための形態について説明したが、本開示は上述の実施形態に限定されることなく、種々変形して実施することができる。
以上、本開示を実施するための形態について説明したが、本開示は上述の実施形態に限定されることなく、種々変形して実施することができる。
(3a)上記第1実施形態では、処理領域として、対象画像52に設定された水平線から上方の領域を左右に略等しく分けた領域の例を示したが、これに限定されるものではない。例えば、所定の伏角によって視点変換された画像の上方の領域を左右に略等しく分けた領域を処理領域としてもよい。所定の伏角は、例えば、車両搭載カメラの設計値の伏角の半分程度としてもよい。また、水平線にかかわらず対象画像全体から左右に略等しく分けた領域であってもよい。また、上記第1実施形態では、カメラの校正処理として、左側領域及び右側領域の2つの領域のそれぞれに対して処理が行われる例を示したが、これに限定されるものではない。カメラの校正処理は、対象画像全体及び対象画像の一部に対して処理が行われてもよい。対象画像の一部としては、例えば、対象画像を左右に分けずに、水平線から上方の領域等が挙げられる。
同様に、上記第2実施形態では、処理領域として、左探索領域53及び右探索領域54の例を示したが、これに限定されるものではない。また、上記第2実施形態では、カメラの校正処理として、左探索領域53及び右探索領域54の2つの領域のそれぞれに対して処理が行われる例を示したが、これに限定されるものではない。
(3b)上記第1実施形態及び上記第2実施形態では、メモリ9には、自車両に設置されたフロントカメラ2及びリアカメラ3の初期の取付け角度が設計値として記録されている例を示したが、これに限定されるものではない。例えば、自車両に設置されたフロントカメラ及びリアカメラの初期の取付け角度が設計値としてカメラ校正処理に使用されない場合は、メモリに当該初期の取付け角度が記録されていなくてもよい。
(3c)上記第2実施形態では、縦エッジの座標情報の選択として、縦エッジの線分の長さが最大となる座標情報を選択したが、これに限定されるものではない。縦エッジの座標情報の選択は、例えば、縦エッジの線分の長さが一定以上となる座標情報を選択してもよい。
(3d)上記第1実施形態では、統計値として平均値を例示したが、これに限定されるものではない。統計値としては、例えば、最頻値区分の平均値及び中央値等が挙げられる。また、上記第2実施形態では、統計値として最頻値区分の平均値を例示したが、これに限定されるものではない。統計値としては、例えば、平均値及び中央値等が挙げられる。
(3e)上記第1実施形態及び上記第2実施形態では、カメラの校正処理として、縦エッジの傾きの角度を蓄積し、蓄積したデータから統計学的に処理された値に基づいてフロントカメラ2の校正処理を行う例を示したが、これに限定されるものではない。カメラの校正処理としては、例えば、縦エッジの傾きの角度を蓄積せずに、当該角度が算出されるごとにカメラの校正処理を行ってもよい。
(3f)上記第1実施形態及び第2実施形態では、カメラの校正処理としては、算出した値の絶対値の少なくとも一方が閾値TH1よりも大きい値であるか否かを判定する処理を行う例を示したが、これに限定されるものではない。カメラの校正処理は、例えば、算出した値の絶対値の少なくとも一方が閾値TH1よりも大きい値であるか否かを判定する処理を行わずに、カメラの校正を必要とする処理を行ってもよい。
(3g)画像処理部6は、縦エッジの傾きの角度のデータを蓄積し、蓄積された複数のデータの分布が予め定められたばらつき具合よりもばらつく場合、カメラの校正を必要とする処理を行わなくてもよい。このような構成によれば、縦エッジの傾きの角度の検出が安定していない場合を排除することができる。
(3h)上記第1実施形態及び第2実施形態では、カメラの校正処理として、表示装置にフロントカメラ2の校正が必要であるという警報を表示する例を示したが、これに限定されるものではない。カメラの校正処理は、表示装置にカメラの校正が必要であるという警報を表示しなくてもよい。
(3i)上記第1実施形態及び上記第2実施形態では、縦エッジの傾きを算出する処理として、視点変換処理後の対象画像52から縦エッジを抽出し、抽出した縦エッジの傾きの角度を算出する処理を行う例を示したが、これに限定されるものではない。縦エッジの傾きを算出する処理は、視点変換処理前に縦エッジを抽出し、抽出した縦エッジの傾きの座標情報を算出し、当該座標情報を視点変換処理に基づいて修正することによって縦エッジの傾きの角度を算出してもよい。
(3j)上記第2実施形態では、視認対象として、信号機のランプ部分及び道路標識の表示板部分である例を示したが、これに限定されるものではない。視認対象は、例えば特定形状の物体等が挙げられる。
(3k)上記第1実施形態及び上記第2実施形態では、カメラとして、広角レンズを備えるフロントカメラ2及びリアカメラ3の例を示したが、これに限定されるものではない。カメラに広角レンズが備えられていない場合、歪み補正の処理を行わなくてもよい。
(3l)上記第1実施形態では、画像処理部6は、縦エッジの角度の平均値近傍の度数が蓄積したデータの一定割合以上になった場合、ステップ7の処理へ進んでもよい。上記第2実施形態では、画像処理部6は、縦エッジの角度の最頻値近傍の度数が蓄積したデータの一定割合以上になった場合、ステップ27の処理へ進んでもよい。
(3m)上記第1実施形態では、カメラの校正処理として、縦エッジを含む対象画像52が一定の枚数よりも多い場合、ステップ6へ進む例を示したが、これに限定されるものではない。カメラの校正処理として、例えば、ステップ5の代わりに、縦エッジの傾きの角度を蓄積する時間が一定時間以上経過したか否かを判定する処理を行ってもよい。この場合、肯定判定されるとステップ6に進み、否定判定されるとステップ1に戻る。また、カメラの校正処理として、例えば、ステップ5の処理を行わずに、ステップ6へ進んでもよい。
同様に、上記第2実施形態では、カメラの校正処理として、縦エッジを含む対象画像52が一定の枚数よりも多い場合、ステップ26へ進む例を示したが、これに限定されるものではない。
(3n)画像処理部6は、第1カメラ校正処理及び第2カメラ校正処理を終了した後、左右カメラ及びフロントカメラ2の共通領域の路面上の特徴点を利用して、左右カメラの校正の要否判定の処理を行ってもよい。同様に、画像処理部6は、第1カメラ校正処理及び第2カメラ校正処理を終了した後、左右カメラ及びリアカメラ3の共通領域の路面上の特徴点を利用して、左右カメラの校正の要否判定の処理を行ってもよい。
(3o)上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。なお、特許請求の範囲に記載した文言のみによって特定される技術思想に含まれるあらゆる態様が本発明の実施形態である。
(3p)上述した画像処理部6の他、当該画像処理部6を構成要素とするシステム、当該画像処理部6としてコンピュータを機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実体的記録媒体等、種々の形態で本開示を実現することもできる。
(3q)画像処理部は、CPUがプログラムを実行することで実現される機能の構成として、フローチャートの処理を実行する。画像処理部を構成するこれらの処理を実現する手法はソフトウェアに限るものではなく、その一部又は全部の要素を、論理回路やアナログ回路等を組み合わせたハードウェアを用いて実現してもよい。
1…カメラ校正システム、2…フロントカメラ、3…リアカメラ、4…ECU、5…表示装置、6…画像処理部、7…画像信号処理部、8…車載信号処理部、9…メモリ、10…電源回路、51…歪み補正された撮像画像、52…対象画像、53…左探索領域、54…右探索領域。
Claims (14)
- 車両に設置されたカメラ(2、3)から取得される撮像画像において、鉛直方向に延びる直線状の部分を有する物体の縦エッジを抽出する抽出部(6、S1〜S4、S21〜S24、S41〜S46)と、
前記抽出部によって抽出された前記縦エッジの傾きを算出する傾き算出部(6、S4、S24、S47〜S49)と、
前記傾き算出部によって算出された前記縦エッジの傾きに基づいて、前記車両に設置されている前記カメラの現在の取付け角度と、前記車両に設置された前記カメラの初期の取付け角度とのずれを算出するずれ算出処理を行うずれ算出部(6、S9、S10、S29、S30)と、
を備えるカメラ校正装置(6)。 - 請求項1に記載のカメラ校正装置であって、
前記抽出部は、前記撮像画像を左右に分けた左側の領域及び右側の領域のそれぞれから前記縦エッジを抽出し、
前記傾き算出部は、前記左側の領域から抽出された前記縦エッジの傾きである第1の傾きと前記右側の領域から抽出された前記縦エッジの傾きである第2の傾きとを算出し、
前記ずれ算出部は、前記傾き算出部によって算出された前記第1の傾き及び前記第2の傾きを比較することにより、前記ずれ算出処理を行う、カメラ校正装置。 - 請求項1又は請求項2に記載のカメラ校正装置であって、
前記抽出部は、前記撮像画像において設定された上方の領域から前記縦エッジを抽出し、
前記傾き算出部は、前記上方の領域から抽出された前記縦エッジの傾きを算出する、カメラ校正装置。 - 請求項1から請求項3までのいずれか1項に記載のカメラ校正装置であって、
前記抽出部は、前記撮像画像を、前記カメラのピッチ角が0度の視点の画像に変換する視点変換処理(6、S2、S22)を行い、前記視点変換処理後の画像から前記縦エッジを抽出する、カメラ校正装置。 - 請求項1から請求項4までのいずれか1項に記載のカメラ校正装置であって、
カメラ校正装置はメモリ(9)を更に備え、
前記車両に設置された前記カメラの初期の設計値がメモリに記録されている、カメラ校正装置。 - 請求項1から請求項5までのいずれか1項に記載のカメラ校正装置であって、
前記傾き算出部は、前記抽出部によって抽出された前記縦エッジの中から前記縦エッジの線分の長さが最大である前記縦エッジの傾きを算出する(6、S24、S49)、カメラ校正装置。 - 請求項1から請求項6までのいずれか1項に記載のカメラ校正装置であって、
前記傾き算出部によって算出された前記縦エッジの傾きのデータを蓄積する蓄積部(6、S4、S24、S41〜S46)と、
前記蓄積部によって蓄積された複数の前記データから統計学的に処理された値である統計値を算出する統計部(6、S6、S26)と、
を更に備え、
前記ずれ算出部は、前記統計部によって算出された前記統計値に基づいて、前記ずれ算出処理を行う、カメラ校正装置。 - 請求項7に記載のカメラ校正装置であって、
前記ずれ算出部は、前記統計部によって算出された前記統計値が予め定められた傾きの値よりも大きい値と判定した場合(6、S7のYES、S27のYES)に、前記ずれ算出処理を行う、カメラ校正装置。 - 請求項7又は請求項8に記載のカメラ校正装置であって、
前記ずれ算出部は、前記蓄積部によって蓄積された複数の前記データの分布が予め定められたばらつき具合よりもばらつく場合、前記ずれ算出処理を行わないカメラ校正装置。 - 請求項1から請求項9までのいずれか1項に記載のカメラ校正装置であって、
前記車両に設置されている前記カメラの現在の取付け角度が、前記車両に設置された前記カメラの初期の取付け角度に対してずれていることを表示装置(5)に表示する処理を行う表示処理部(6、S11〜S13、S31〜S33)を更に備える、カメラ校正装置。 - 請求項1から請求項10までのいずれか1項に記載のカメラ校正装置であって、
前記抽出部は、前記撮像画像において前記物体を認識した後、前記物体の前記縦エッジを抽出する(6、S1〜S4)、カメラ校正装置。 - 請求項1から請求項11までのいずれか1項に記載のカメラ校正装置であって、
前記物体は、視認される視認対象及び前記視認対象を支える支持柱を備え、
前記抽出部は、前記撮像画像において前記視認対象を認識した後、認識した前記視認対象が備える前記支持柱の前記縦エッジを抽出する(6、S21〜S24、S41〜S46)、カメラ校正装置。 - 請求項1から請求項12までのいずれか1項に記載のカメラ校正装置であって、
前記物体は信号機及び道路標識のうち少なくとも1つである、カメラ校正装置。 - 車両に設置されたカメラ(2、3)から取得される撮像画像において、鉛直方向に延びる直線状の部分を有する物体の縦エッジを抽出し(6、S1〜S4、S21〜S24、S41〜S46)、
抽出された前記縦エッジの傾きを算出し(6、S4、S24、S47〜S49)、
算出された前記縦エッジの傾きに基づいて、前記車両に設置されている前記カメラの現在の取付け角度と、前記車両に設置された前記カメラの初期の取付け角度とのずれを算出する(6、S9、S10、S29、S30)、カメラ校正方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016102591A JP2017211200A (ja) | 2016-05-23 | 2016-05-23 | カメラ校正装置及びカメラ校正方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016102591A JP2017211200A (ja) | 2016-05-23 | 2016-05-23 | カメラ校正装置及びカメラ校正方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017211200A true JP2017211200A (ja) | 2017-11-30 |
Family
ID=60475331
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016102591A Pending JP2017211200A (ja) | 2016-05-23 | 2016-05-23 | カメラ校正装置及びカメラ校正方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017211200A (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102024834B1 (ko) * | 2018-04-23 | 2019-09-24 | 주식회사 이알랩 | 차량에 설치된 카메라의 보정 장치 및 방법 |
JP2020060550A (ja) * | 2018-10-10 | 2020-04-16 | 株式会社デンソーテン | 異常検出装置、異常検出方法、姿勢推定装置、および、移動体制御システム |
EP3644280A1 (de) * | 2018-10-22 | 2020-04-29 | AVI Systems GmbH | Verfahren zur ausrichtung einer kamera nach ihren extrinsischen parametern |
US20210190958A1 (en) * | 2017-10-26 | 2021-06-24 | Pioneer Corporation | Control device, control method, program, and storage medium |
CN113866183A (zh) * | 2021-09-15 | 2021-12-31 | 北京首钢股份有限公司 | 一种带钢表面检测仪的故障检测方法及装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000000236A (ja) * | 1998-05-14 | 2000-01-07 | General Electric Co <Ge> | 高減衰性物体のためのア―ティファクト補正 |
JP2002163661A (ja) * | 2000-11-22 | 2002-06-07 | Nissan Motor Co Ltd | 白線検出装置 |
WO2004077820A1 (ja) * | 2003-02-25 | 2004-09-10 | Matsushita Electric Industrial Co. Ltd. | 画像撮像処理方法および画像撮像装置 |
JP2009276233A (ja) * | 2008-05-15 | 2009-11-26 | Toyota Central R&D Labs Inc | パラメータ計算装置、パラメータ計算システムおよびプログラム |
WO2014054223A1 (ja) * | 2012-10-02 | 2014-04-10 | 株式会社デンソー | キャリブレーション方法、及びキャリブレーション装置 |
US9201424B1 (en) * | 2013-08-27 | 2015-12-01 | Google Inc. | Camera calibration using structure from motion techniques |
-
2016
- 2016-05-23 JP JP2016102591A patent/JP2017211200A/ja active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000000236A (ja) * | 1998-05-14 | 2000-01-07 | General Electric Co <Ge> | 高減衰性物体のためのア―ティファクト補正 |
JP2002163661A (ja) * | 2000-11-22 | 2002-06-07 | Nissan Motor Co Ltd | 白線検出装置 |
WO2004077820A1 (ja) * | 2003-02-25 | 2004-09-10 | Matsushita Electric Industrial Co. Ltd. | 画像撮像処理方法および画像撮像装置 |
JP2009276233A (ja) * | 2008-05-15 | 2009-11-26 | Toyota Central R&D Labs Inc | パラメータ計算装置、パラメータ計算システムおよびプログラム |
WO2014054223A1 (ja) * | 2012-10-02 | 2014-04-10 | 株式会社デンソー | キャリブレーション方法、及びキャリブレーション装置 |
US9201424B1 (en) * | 2013-08-27 | 2015-12-01 | Google Inc. | Camera calibration using structure from motion techniques |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210190958A1 (en) * | 2017-10-26 | 2021-06-24 | Pioneer Corporation | Control device, control method, program, and storage medium |
JP2022051779A (ja) * | 2017-10-26 | 2022-04-01 | パイオニア株式会社 | 制御装置、制御方法、プログラム及び記憶媒体 |
US11796657B2 (en) * | 2017-10-26 | 2023-10-24 | Pioneer Corporation | Control device, control method, program, and storage medium |
KR102024834B1 (ko) * | 2018-04-23 | 2019-09-24 | 주식회사 이알랩 | 차량에 설치된 카메라의 보정 장치 및 방법 |
JP2020060550A (ja) * | 2018-10-10 | 2020-04-16 | 株式会社デンソーテン | 異常検出装置、異常検出方法、姿勢推定装置、および、移動体制御システム |
JP7270499B2 (ja) | 2018-10-10 | 2023-05-10 | 株式会社デンソーテン | 異常検出装置、異常検出方法、姿勢推定装置、および、移動体制御システム |
EP3644280A1 (de) * | 2018-10-22 | 2020-04-29 | AVI Systems GmbH | Verfahren zur ausrichtung einer kamera nach ihren extrinsischen parametern |
CN113866183A (zh) * | 2021-09-15 | 2021-12-31 | 北京首钢股份有限公司 | 一种带钢表面检测仪的故障检测方法及装置 |
CN113866183B (zh) * | 2021-09-15 | 2023-11-14 | 北京首钢股份有限公司 | 一种带钢表面检测仪的故障检测方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4631096B2 (ja) | 車両周辺監視装置 | |
JP5375958B2 (ja) | 画像処理装置および画像処理方法 | |
JP4733756B2 (ja) | 車両周辺監視装置 | |
JP2017211200A (ja) | カメラ校正装置及びカメラ校正方法 | |
JP4203512B2 (ja) | 車両周辺監視装置 | |
JP4832321B2 (ja) | カメラ姿勢推定装置、車両、およびカメラ姿勢推定方法 | |
JP5904925B2 (ja) | 車両周辺監視装置 | |
US20060115115A1 (en) | Vehicle surroundings monitoring apparatus | |
US9619895B2 (en) | Image processing method of vehicle camera and image processing apparatus using the same | |
JP5541412B2 (ja) | 走行支援装置及びその雨滴検出方法 | |
JP5480917B2 (ja) | 車両周辺監視装置 | |
JP4528283B2 (ja) | 車両周辺監視装置 | |
JP2008067086A (ja) | 車両検出装置、およびライト制御装置 | |
US20150302257A1 (en) | On-Vehicle Control Device | |
JPWO2012029382A1 (ja) | 車両周辺監視装置 | |
CN107392080B (zh) | 影像评估方法以及其电子装置 | |
JP6483360B2 (ja) | 対象物認識装置 | |
JP5353531B2 (ja) | 車両灯火認識装置及びプログラム | |
JP2014106739A (ja) | 車載画像処理装置 | |
JP6981850B2 (ja) | 運転支援システム | |
JP5407920B2 (ja) | 点灯色識別装置及びプログラム | |
JP6431299B2 (ja) | 車両周辺監視装置 | |
JP2016173711A (ja) | 走行区画線認識装置 | |
JP2007018451A (ja) | 道路区画線検出装置 | |
JP2018073049A (ja) | 画像認識装置、画像認識システム、及び画像認識方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180706 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190417 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190507 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20191112 |