JP2011239349A - Image processing apparatus and image processing program - Google Patents
Image processing apparatus and image processing program Download PDFInfo
- Publication number
- JP2011239349A JP2011239349A JP2010111389A JP2010111389A JP2011239349A JP 2011239349 A JP2011239349 A JP 2011239349A JP 2010111389 A JP2010111389 A JP 2010111389A JP 2010111389 A JP2010111389 A JP 2010111389A JP 2011239349 A JP2011239349 A JP 2011239349A
- Authority
- JP
- Japan
- Prior art keywords
- image
- data
- unit
- camera
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
Description
本発明は、画像処理装置および画像処理プログラムに関する。 The present invention relates to an image processing apparatus and an image processing program.
車両の上方の位置から車両全体を撮影したような俯瞰画像をモニタに表示することで、ドライバの運転操作を支援する画像変換装置が存在する。例えば、この画像変換装置は、車両の前後左右に設置された4台の車載カメラがそれぞれ撮影した4つの画像を合成することで俯瞰画像を生成する。 There is an image conversion device that supports a driver's driving operation by displaying a bird's-eye view image of the entire vehicle from a position above the vehicle on a monitor. For example, this image conversion device generates a bird's-eye view image by synthesizing four images taken by four in-vehicle cameras installed on the front, rear, left and right sides of the vehicle.
画像変換装置は、車載カメラの設置位置や設置角度などのカメラパラメータを利用して俯瞰画像を生成する。このため、カメラパラメータに誤差が生じると、各画像を合成する際にずれなどが発生してしまい、正確な俯瞰画像を生成することができない。パラメータに生じる誤差は、車両の走行中に何らかの原因で発生し得る。したがって、ドライバは、自動車ディーラーなどに車両を持って行き、カメラパラメータの誤差の修正を依頼する。 The image conversion apparatus generates a bird's-eye view image using camera parameters such as the installation position and installation angle of the in-vehicle camera. For this reason, if an error occurs in the camera parameters, a deviation or the like occurs when the images are combined, and an accurate overhead image cannot be generated. Errors that occur in the parameters can occur for some reason while the vehicle is running. Therefore, the driver takes the vehicle to an automobile dealer or the like and requests correction of camera parameter errors.
カメラパラメータの誤差を修正する技術には様々なものが存在する。例えば、車載カメラの撮影範囲が重なる領域に形状が既知のマーカを配置し、マーカの特徴点を用いてカメラパラメータの誤差を修正するという技術が存在する。また、路面上の特徴部分をマーカに見立ててカメラパラメータの誤差を修正するという技術も存在する。 There are various techniques for correcting camera parameter errors. For example, there is a technique in which a marker having a known shape is arranged in a region where the photographing ranges of an in-vehicle camera overlap, and a camera parameter error is corrected using a marker feature point. There is also a technique of correcting a camera parameter error by regarding a characteristic portion on the road surface as a marker.
しかしながら、上記従来技術では、カメラパラメータを修正する場合に車両を所定の場所に停止させることが前提条件となっており、車両の走行中にパラメータを修正することができないという問題があった。なお、かかる問題は、車両の車載カメラだけでなく、その他の移動体のカメラのパラメータを修正する場合にも同様に発生し得る。 However, in the above prior art, when the camera parameter is corrected, it is a precondition that the vehicle is stopped at a predetermined location, and there is a problem that the parameter cannot be corrected while the vehicle is traveling. Note that such a problem can occur in the same way when correcting parameters of not only the in-vehicle camera of the vehicle but also the camera of another moving body.
開示の技術は、上記に鑑みてなされたものであって、移動体の走行中にカメラのパラメータを修正することができる画像処理装置および画像処理プログラムを提供することを目的とする。 The disclosed technology has been made in view of the above, and an object thereof is to provide an image processing apparatus and an image processing program capable of correcting camera parameters while a mobile object is traveling.
本願の開示する画像処理装置は、対になるカメラの撮影範囲が重複する領域を示す重複領域の画像を異なる重複領域毎に取得する画像取得部と、所定の形状の対象物の画像と前記重複領域の画像とを比較して、前記重複領域の画像に含まれる前記対象物の画像を抽出し、抽出した対象物の画像を該画像を撮影したカメラと対応づけて記憶部に保存する対象物抽出部と、前記異なる重複領域毎に、前記対になるカメラがそれぞれ撮影した対象物の画像が前記記憶部に記憶された場合に、各対象物の特徴点の位置と所定の寸法とに基づいて、各特徴点の位置の誤差を算出する誤差算出部とを備えたことを要件とする。 An image processing device disclosed in the present application includes an image acquisition unit that acquires an image of an overlapping area that indicates an area in which shooting ranges of a pair of cameras overlap each other, and an overlap between an image of an object having a predetermined shape and the overlap An object in which the image of the object included in the image of the overlapping region is extracted by comparing with the image of the region, and the image of the extracted object is stored in the storage unit in association with the camera that captured the image When the image of the object photographed by the paired cameras is stored in the storage unit for each of the different overlapping areas, the extraction unit and the predetermined feature size of each object And an error calculation unit for calculating the error of the position of each feature point.
本願の開示する画像処理装置の一つの態様によれば、移動体の走行中にカメラのパラメータを修正することができるという効果を奏する。 According to one aspect of the image processing apparatus disclosed in the present application, there is an effect that the parameters of the camera can be corrected while the moving body is traveling.
以下に、本願の開示する画像処理装置および画像処理プログラムの実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。 Embodiments of an image processing apparatus and an image processing program disclosed in the present application will be described below in detail with reference to the drawings. Note that the present invention is not limited to the embodiments.
図1は、本実施例1にかかる画像処理装置の構成を示す図である。図1に示すように、この画像処理装置10は、画像取得部11、対象物抽出部12、記憶部13、誤差算出部14を有する。画像取得部11は、対になるカメラの撮影範囲が重複する領域を示す重複領域の画像を異なる重複領域毎に取得する。
FIG. 1 is a diagram illustrating the configuration of the image processing apparatus according to the first embodiment. As illustrated in FIG. 1, the
対象物抽出部12は、所定の形状の対象物の画像と重複領域の画像とを比較して、重複領域の画像に含まれる対象物の画像を抽出し、抽出した対象物の画像を該画像を撮影したカメラと対応づけて記憶部13に保存する。
The object extraction unit 12 compares the image of the object having a predetermined shape with the image of the overlapping area, extracts the image of the object included in the image of the overlapping area, and extracts the image of the extracted object as the image Is stored in the
記憶部13は、対象物の画像とこの画像を撮影したカメラとを対応づけて記憶する。誤差算出部14は、異なる重複領域毎に、対になるカメラがそれぞれ撮影した対象物の画像が記憶部13に記憶された場合に、各対象物の特徴点の位置と所定の寸法に基づいて、各特徴点の位置の誤差を算出する。
The
通常、車両に配置されたカメラのカメラパラメータを調整する場合には、重複領域に含まれる対象物の画像が、異なる重複領域毎に必要である。このため、従来技術では、車両を一旦停止させて、異なる重複領域毎に対象物をそれぞれ配置し、異なる重複領域毎の画像を取得していた。 Usually, when adjusting the camera parameters of a camera arranged in a vehicle, an image of an object included in the overlapping area is required for each different overlapping area. For this reason, in the prior art, the vehicle is temporarily stopped, the objects are arranged in different overlapping areas, and images for the different overlapping areas are acquired.
これに対して、上記画像処理装置10は、カメラが撮影した重複領域の画像に対象物が含まれている場合に、重複領域の画像を記憶部13に記憶しておき、記憶部13に異なる重複領域毎の対象物の画像が記憶されるのを待つ。そして、画像処理装置10は、記憶部13に異なる重複領域毎の対象物の画像が記憶された後に、各対象物の特徴点と所定の寸法とを比較して、各特徴点の位置の誤差を算出する。このような構成にすることで、画像処理装置10は、例えば、車両が走行中であっても、記憶部13に必要な対象物の画像を記憶することができる。また、各対象物の特徴点の位置の誤差を利用することで、カメラパラメータを調整することも可能である。このため、本実施例1にかかる画像処理装置10は、車両の走行中にカメラのパラメータを修正することができるという効果を奏する。
On the other hand, the
まず、車載カメラの配置位置およびオーバーラップ部分の一例について説明する。オーバーラップ部は、各車載カメラの撮影範囲が重複する部分を示す。図2は、車載カメラの配置位置とオーバーラップ部分を示す図である。図2に示すように、車両50の前後左右に車載カメラCF、CB、CL、CRが配置されている。具体的には、車両50の前側に車載カメラCFが配置され、車両50の後側に車載カメラCBが配置される。また、車両50の左側に車載カメラCLが配置され、車両50の右側に車載カメラCRが配置される。
First, an example of an arrangement position of an in-vehicle camera and an overlap portion will be described. An overlap part shows the part with which the imaging range of each vehicle-mounted camera overlaps. FIG. 2 is a diagram illustrating an arrangement position and an overlap portion of the in-vehicle camera. As shown in FIG. 2, vehicle-mounted cameras CF, CB, CL, and CR are disposed on the front, rear, left, and right sides of the
車載カメラCFの撮影範囲を50Fとし、車載カメラCBの撮影範囲を50Bとする。車載カメラCLの撮影範囲を50Lとし、車載カメラCRの撮影範囲を50Rとする。そして、車載カメラCFの撮影範囲50Fと車載カメラCRの撮影範囲50Rとのオーバーラップ部をAFRとし、車載カメラCRの撮影範囲50Rと車載カメラCBの撮影範囲50Bとのオーバーラップ部をARBとする。車載カメラCBの撮影範囲50Bと車載カメラCLの撮影範囲50Lとのオーバーラップ部分をABLとし、車載カメラCLの撮影範囲50Lと車載カメラCFの撮影範囲50Fとのオーバーラップ部分をALFとする。
The shooting range of the in-vehicle camera CF is 50F, and the shooting range of the in-vehicle camera CB is 50B. The shooting range of the in-vehicle camera CL is 50L, and the shooting range of the in-vehicle camera CR is 50R. An overlap portion between the
次に、本実施例2にかかるキャリブレーション装置の構成について説明する。このキャリブレーション装置は、例えば、車両50の内部に配置される。図3は、本実施例2にかかるキャリブレーション装置の構成を示す図である。図3に示すように、このキャリブレーション装置100は、記憶部110、画像入力部120、画像補正部130、キャリブレーション実行部140、画像合成部150、表示部160を有する。また、キャリブレーション装置100は、車載カメラCF、CR、CB、CLに接続される。
Next, the configuration of the calibration apparatus according to the second embodiment will be described. This calibration device is disposed inside the
記憶部110は、各種のデータを記憶する記憶部である。この記憶部110は、画像管理テーブル110a、キャリブレーションポイント110b、テンプレートデータ110c、対象物画像管理テーブル110d、カメラパラメータ110eを記憶する。
The
画像管理テーブル110aは、車載カメラCF、CR、CB、CLが撮影した画像データを記憶するテーブルである。図4は、画像管理テーブルのデータ構造の一例を示す図である。図4に示すように、この画像管理テーブル110aは、カメラ識別情報と画像データと撮影時間とを対応づけて記憶する。カメラ識別情報は、画像データを撮影した車載カメラを一意に識別する情報である。画像データは、各車載カメラが撮影した画像データである。撮影時間は、車載カメラが画像を撮影した時間である。図4では一例として、各車載カメラの撮影範囲の画像データを記憶する場合を示したが、撮影範囲のうち、オーバーラップ部分の画像データのみを記憶してもよい。 The image management table 110a is a table that stores image data captured by the in-vehicle cameras CF, CR, CB, and CL. FIG. 4 is a diagram illustrating an example of the data structure of the image management table. As shown in FIG. 4, the image management table 110a stores camera identification information, image data, and shooting time in association with each other. The camera identification information is information that uniquely identifies the in-vehicle camera that has captured the image data. The image data is image data taken by each in-vehicle camera. The shooting time is the time when the in-vehicle camera takes an image. As an example, FIG. 4 shows the case where the image data of the shooting range of each in-vehicle camera is stored. However, only the image data of the overlapping portion of the shooting range may be stored.
キャリブレーションポイント110bは、所定の座標情報を有する。この座標情報に対応する位置周辺には、交差点や道路標識、路上のマークなどが存在する。例えば、路上のマークには、前方に横断歩道ありの意味を持つ「ひし形」マークや、Uターン禁止の意味を持つ「バツ」マーク、進行方向を示す「矢印」マークが存在する。以下の説明において、交差点、道路標識、路上のマークをまとめて対象物と表記する。
The
テンプレートデータ110cは、対象物の形状データをそれぞれ記憶する。図5は、テンプレートデータのデータ構造の一例を示す図である。図5に示すように、このテンプレートデータ110cは、テンプレート識別情報と形状データと特徴点間の寸法とを対応づけて記憶する。テンプレート識別情報は、テンプレートを一意に識別する情報である。形状データは、テンプレートの形状を示すデータである。特徴点間の寸法は、テンプレートに含まれる特徴点間の寸法を示す。
The
テンプレートの特徴点は、テンプレートによって異なる。図6は、テンプレートの特徴点の一例を示す図である。図6に示すように、テンプレートAの形状が矢印の場合には、テンプレートAの特徴点は矢印の各端A1〜A5となる。テンプレートBの形状がバツ印の場合には、テンプレートBの特徴点はバツ印の各端B1〜B8となる。テンプレートCの形状がひし形の場合には、テンプレートCの特徴点はひし形の各端C1〜C4となる。 The feature point of a template changes with templates. FIG. 6 is a diagram illustrating an example of feature points of a template. As shown in FIG. 6, when the shape of the template A is an arrow, the feature points of the template A are the ends A1 to A5 of the arrow. When the shape of the template B is a cross mark, the feature points of the template B are the ends B1 to B8 of the cross mark. When the shape of the template C is a rhombus, the feature points of the template C are the ends C1 to C4 of the rhombus.
対象物画像管理テーブル110dは、オーバーラップ部分ALF、AFR、ARB、ABLに含まれる対象物の画像データを記憶する。カメラパラメータ110eは、車載カメラCF、CR、CB、CLの設置位置や設置角度などをそれぞれ記憶する。 The object image management table 110d stores image data of objects included in the overlap portions ALF, AFR, ARB, and ABL. The camera parameter 110e stores the installation position and installation angle of the in-vehicle cameras CF, CR, CB, and CL, respectively.
画像入力部120は、車載カメラCF、CR、CB、CLから画像データを取得し、取得した各画像データを画像補正部130に出力する処理部である。各画像データは、撮影範囲の画像の他に、画像を撮影した車載カメラを識別する情報や撮影時刻の情報を含んでいるものとする。
The
画像補正部130は、各画像データに対して、レンズの歪み補正などの画像補正を行う処理部である。画像補正部130は、画像補正を行った後に、各画像データを画像管理テーブル110aに記憶する。
The
キャリブレーション実行部140は、オーバーラップ部分ALF、AFR、ARB、ABLに対象物が含まれるたびに、対象物の画像データを対象物画像管理テーブル110dに登録する。そして、キャリブレーション実行部140は、オーバーラップ部分ALF、AFR、ARB、ABLに対応する対象物の画像データが全て揃った場合に、対象物の特徴点の誤差を算出する。キャリブレーション実行部140は、かかる誤差を利用してカメラパラメータ110eを調整する。キャリブレーション実行部140の処理の詳細は後述する。
The
画像合成部150は、車載カメラCF、CR、CB、CLが撮影した画像データを画像管理テーブル110aから取得し、カメラパラメータ110eに基づいて各画像データを合成することで、合成画像データを生成する処理部である。画像合成部150は、合成画像データを表示部160に出力する。
The
表示部160は、合成画像データをディスプレイなどの表示装置に表示させる処理部である。この合成画像データは、例えば、車両50を上方の位置から車両50全体を撮影したような俯瞰画像に対応する。
The
上記の画像入力部120、画像補正部130、キャリブレーション実行部140、画像合成部150、表示部160は、例えば、ASIC(Application Specific Integrated Circuit)や、FPGA(Field Programmable Gate Array)などの集積装置に対応する。また、上記処理部130、140、150、160は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等の電子回路に対応する。
The
上記の記憶部110は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子、またはハードディスク、光ディスクなどの記憶装置に対応する。
The
次に、図3に示したキャリブレーション実行部140の構成について説明する。図7は、キャリブレーション実行部の構成を示す図である。図7に示すように、このキャリブレーション実行部140は、位置データ取得部140a、誤差補正判定部140b、オブジェクト探索部140c、有効画像判定部140d、カメラパラメータ調整部140eを有する。
Next, the configuration of the
位置データ取得部140aは、車両50の位置データを取得し、位置データをオブジェクト探索部140cに出力する。この位置データは、車両50の位置座標を含む。位置データ取得部140aは、例えば、GPS(Global Positioning System)等の機能を利用して、車両50の位置座標を取得する。
The position
誤差補正判定部140bは、カメラパラメータ110eの調整を行うか否かを判定し、判定結果をカメラパラメータ調整部140eに出力する。例えば、誤差補正判定部140bは、外部の入力装置を介して、利用者からカメラパラメータの調整指示を受け付けた場合に、カメラパラメータ110eの調整を行うと判定する。また例えば、誤差補正判定部140bは、カメラパラメータを調整した前回のタイミングから経過した時間が、所定時間以上である場合に、カメラパラメータ110eの調整を行うと判定しても良い。この場合に、所定時間は、走行中の振動や季節の温度差によるボディの変化などのカメラパラメータに誤差を生じさせる原因を考慮して設定することが考えられる。
The error
オブジェクト探索部140cは、テンプレートデータ110cに記憶された対象物の形状データと、画像管理テーブル110aの各画像データとを比較して、対象物を含む画像データを抽出する。オブジェクト探索部140cは、対象物の画像データを対象物画像管理テーブル110dに記憶する。
The
ここで、オブジェクト探索部140cが対象物の画像データを抽出する処理の一例について説明する。オブジェクト探索部140cは、テンプレートデータ110cの形状データの向きや大きさを所定の割合で変化させながら、画像管理テーブル110aの各画像データとパターンマッチングを行う。そして、オブジェクト探索部140cは、形状データと一致する画像データを、対象物の画像データとして抽出する。
Here, an example of processing in which the
オブジェクト探索部140cは、対象物の画像データを抽出した場合には、対象物の画像データを対象物画像管理テーブル110dに登録する。なお、オブジェクト探索部140cは、対の車載カメラが撮影した対象物の画像データを対応づけて、対象物画像管理テーブル110dに登録する。
When the
ここでは一例として、車載カメラCF、CRの組、車載カメラCR、CBの組、車載カメラCB、CLの組、車載カメラCL、CRの組を対の車載カメラとする。また、車載カメラCF、CRがそれぞれ撮影した画像データの組をAFRデータとし、車載カメラCR、CBがそれぞれ撮影した画像データの組をARBデータとする。また、車載カメラCB、CLがそれぞれ撮影した画像データの組をABLデータとし、車載カメラCL、CFがそれぞれ撮影した画像データの組をALFデータとする。 Here, as an example, a pair of in-vehicle cameras CF and CR, a pair of in-vehicle cameras CR and CB, a pair of in-vehicle cameras CB and CL, and a pair of in-vehicle cameras CL and CR are taken as a pair of in-vehicle cameras. A set of image data captured by the in-vehicle cameras CF and CR is AFR data, and a set of image data captured by the in-vehicle cameras CR and CB is ARB data. In addition, a set of image data captured by the in-vehicle cameras CB and CL is ABL data, and a set of image data captured by the in-vehicle cameras CL and CF is ALF data.
図8、図9を用いて、オブジェクト探索部140cが各種画像データを対象物画像管理テーブル110dに登録する処理を説明する。図8は、各種画像データを抽出するタイミングを示す図である。図8の横軸は時間軸である。図8に示すように、オブジェクト探索部140cは、時間t1において、ARFデータ1を抽出し、時間t2において、ALFデータ1を抽出する。また、オブジェクト探索部140cは、時間t3において、AFRデータ2を抽出し、時間t4において、ARBデータ1、ABLデータ1を抽出する。
A process in which the
図9は、対象物画像管理テーブルのデータ構造の一例を示す図である。図9に示すように、対象物画像管理テーブル110dは、時間と、ALFデータ、AFRデータ、ARBデータ、ABLデータとを対応づけて記憶する。時間は、各種データを取得した時間を示す。 FIG. 9 is a diagram illustrating an example of the data structure of the object image management table. As shown in FIG. 9, the object image management table 110d stores time and ALF data, AFR data, ARB data, and ABL data in association with each other. The time indicates the time when various data are acquired.
オブジェクト探索部140cは、時間t1にAFRデータ1を抽出するので、時間t1のAFRデータに対応するデータ領域にAFRデータ1を登録する。オブジェクト探索部140cは、時間t2にALFデータ1を抽出するので、時間t2のALFデータに対応するデータ領域にALFデータ1を登録する。また、オブジェクト探索部140cは、AFRデータ1を、時間t2のAFRデータに対応するデータ領域に繰り越す。
Since the
オブジェクト探索部140cは、時間t3にAFRデータ2を抽出するので、時間t3のAFRデータに対応するデータ領域にAFRデータ2を登録する。また、オブジェクト探索部140cは、ALFデータ1を、時間t3のALFデータに対応するデータ領域に繰り越す。
Since the
オブジェクト探索部140cは、時間t4にARBデータ1、ABLデータ1を抽出する。このため、オブジェクト探索部140cは、時間t4のARBデータに対応するデータ領域にARBデータ1を登録する。また、オブジェクト探索部140cは、時間t4のABLデータに対応するデータ領域にABLデータ1を登録する。また、オブジェクト探索部140cは、ALFデータ1を、時間t4のALFデータに対応するデータ領域に繰り越す。オブジェクト探索部140cは、AFRデータ2を、時間t4のAFRデータに対応するデータ領域に繰り越す。上記のような処理をオブジェクト探索部140cが実行することで、オブジェクト探索部140cは、対象物の画像データを対象物画像管理テーブル110dに記憶する。
The
なお、オブジェクト探索部140cは、車両50の位置に応じて、対象物の画像データを対象物画像管理テーブル110dに登録する処理を制限してもよい。オブジェクト探索部140cは、位置データ取得部140aから取得する位置データと、キャリブレーションポイント110bとを比較する。そして、オブジェクト探索部140cは、車両50の位置が、キャリブレーションポイント110bの座標情報に含まれている場合には、対象物の画像データを対象物画像管理テーブル110dに登録する処理を継続する。このように車両50の位置が、キャリブレーションポイント110bの座標情報に含まれている場合には、周辺に対象物が存在する可能性が高いため、効率よく対象物の画像データを収集できる。
Note that the
これに対して、オブジェクト探索部140cは、車両50の位置が、キャリブレーションポイント110bの座標情報に含まれてない場合には、対象物の画像データを対象物画像管理テーブル110dに登録する処理を中断する。このように車両50の位置が、キャリブレーションポイント110bの座標情報に含まれてない場合には、周辺に対象物が存在する可能性が低いため、オブジェクト探索部140cにかかる負荷を軽減させることができる。
In contrast, when the position of the
また、オブジェクト探索部140cは、ALFデータ、AFRデータ、ARBデータ、ABLデータをはじめて取得した場合には、対象物が存在するしないにかかわらず、対象物画像管理テーブル110dに登録してもよい。また、図9に示した例では、オブジェクト探索部140cは、AFRデータ1を取得した後に、AFRデータ2を取得した場合に、AFRデータ1をAFRデータ2で上書きしているがこれに限定されるものではない。オブジェクト探索部140cは、最適なデータを選択して、データを対象物画像管理テーブル110dに登録してもよい。例えば、オブジェクト探索部140cは、各データのうち、対象物の特徴点を多く含んでいる方の画像を最適なデータと判定する。
Further, when the
図7の説明に戻る。有効画像判定部140dは、対象物画像管理テーブル110dを参照し、ALFデータ、AFRデータ、ARBデータ、ABLデータが揃ったか否かを判定する。有効画像判定部140dは、ALFデータ、AFRデータ、ARBデータ、ABLデータが揃ったと判定した場合には、最初に登録されたデータの登録時間から、最後に登録されたデータの登録時間までの時間がTC時間以内であるか否かを判定する。
Returning to the description of FIG. The valid
有効画像判定部140dは、最初に登録されたデータの登録時間から、最後に登録されたデータの登録時間までの時間がTC時間以内の場合には、ALFデータ、AFRデータ、ARBデータ、ABLデータを、カメラパラメータ調整部140eに出力する。
If the time from the registration time of the first registered data to the registration time of the last registered data is within TC time, the valid
図9に示す例では、時間t4にALFデータ、AFRデータ、ARBデータ、ABLデータが揃っている。このデータのうち、最初に登録されたデータはALFデータ1であり、登録時間はt2である。また、最後に登録されたデータはARBデータ1、ABLデータ1であり、登録時間はt4である。時間t2から時間t4までの時間がTC以内であるとする。この場合には、有効画像判定部140dは、ALFデータ1、AFRデータ2、ARBデータ1、ABLデータ1をカメラパラメータ調整部140eに出力する。
In the example shown in FIG. 9, ALF data, AFR data, ARB data, and ABL data are available at time t4. Of these data, the first registered data is ALF data 1, and the registration time is t2. The last registered data is ARB data 1 and ABL data 1, and the registration time is t4. It is assumed that the time from time t2 to time t4 is within TC. In this case, the valid
カメラパラメータ調整部140eは、異なる重複領域の対象物の画像を基にして、カメラパラメータ110eを調整する処理部である。この異なる重複領域の対象物の画像は、上記のALFデータ、AFRデータ、ARBデータ、ABLデータに対応する。また、カメラパラメータ調整部140eは、カメラパラメータ110eの調整を行う旨の判定結果を誤差補正判定部140bから通知されている場合に、カメラパラメータ110eの調整を行うものとする。
The camera
以下において、カメラパラメータ調整部140eの処理を具体的に説明する。まず、カメラパラメータ調整部140eは、対象物の特徴点の座標を算出する。そして、カメラパラメータ調整部140eは、各特徴点の座標の誤差を算出し、誤差が最大となる車載カメラを判定する。誤差が大きいほど、該当する車載カメラのカメラパラメータがずれていることを意味する。
Hereinafter, the processing of the camera
ここでは一例として、ALFデータを用いて説明する。このALFデータは上記のように、車載カメラCLが撮影した対象物の画像データと、車載カメラCFが撮影した対象物の画像データとを含んでおり、実空間上で各対象物は同一である。 Here, as an example, description will be made using ALF data. As described above, the ALF data includes the image data of the object photographed by the vehicle-mounted camera CL and the image data of the object photographed by the vehicle-mounted camera CF, and each object is the same in real space. .
図10は、カメラパラメータ調整部の処理を説明するための図である。図10の対象物DLは、車載カメラCLが撮影した対象物に対応し、対象物DFは、車載カメラCFが撮影した対象物に対応する。 FIG. 10 is a diagram for explaining processing of the camera parameter adjustment unit. The object DL in FIG. 10 corresponds to the object photographed by the vehicle-mounted camera CL, and the object DF corresponds to the object photographed by the vehicle-mounted camera CF.
カメラパラメータ調整部140eは、車載カメラCLが撮影した対象物DLの特徴点DL1〜DL4を、所定の位置を基準としたグローバル座標系の座標に変換する。また、カメラパラメータ調整部140eは、車載カメラCFが撮影した対象物DFの特徴点DF1〜DF4を、グローバル座標系の座標に変換する。例えば、カメラパラメータ調整部140eは、画像上の座標とグローバル座標系の座標とを対応付けた座標変換テーブルを用いて、特徴点の座標を求める。
The camera
カメラパラメータ調整部140eは、グローバル座標のDL1とDF1との誤差d1、DL2とDF2との誤差d2、DL3とDF3との誤差d3、DL4とDF4との誤差d4を算出し、d1、d2、d3、d4を平均化することで平均誤差を算出する。具体的に、平均誤差は
平均誤差=(d1+d2+d3+d4)/4
となる。
The camera
It becomes.
カメラパラメータ調整部140eは、上記処理と同様の処理をAFRデータ、ARBデータ、ABLデータに対して実行し、各データから平均誤差を算出する。以下では、ALFデータから求めた平均誤差をD1、AFRデータから求めた平均誤差をD2、ARBデータから求めた平均誤差をD3、ABLデータから求めた平均誤差をD4とする。
The camera
カメラパラメータ調整部140eは、各平均誤差の所定の組み合わせの和となるDC1〜DC4を算出し、算出結果に基づいて調整対象の車載カメラを判定する。具体的に、カメラパラメータ調整部140eは、DC1〜DC4を
DC1=D1+D2
DC2=D2+D3
DC3=D3+D4
DC4=D4+D1
により算出する。
The camera
DC2 = D2 + D3
DC3 = D3 + D4
DC4 = D4 + D1
Calculated by
カメラパラメータ調整部140eは、DC1〜DC4のうち最大のものを判定し、判定結果に基づいて調整対象の車載カメラを特定する。カメラパラメータ調整部140eは、DC1が最大となる場合には、車載カメラCFを調整対象の車載カメラとする。カメラパラメータ調整部140eは、DC2が最大となる場合には、車載カメラCRを調整対象の車載カメラとする。カメラパラメータ調整部140eは、DC3が最大となる場合には、車載カメラCBを調整対象の車載カメラとする。カメラパラメータ調整部140eは、DC4が最大となる場合には、車載カメラCLを調整対象の車載カメラとする。
The camera
続いて、カメラパラメータ調整部140eは、ALFデータ、AFRデータ、ARBデータ、ABLデータそれぞれについて、実際の特徴点間の寸法と、画像上から求めた対象物の特徴点間の寸法とのずれを示す評価関数fを作成する。この評価関数fの値は、カメラパラメータ110eの値に依存する。また、実際の特徴点間の寸法は、テンプレートデータ110cに登録されている。
Subsequently, the camera
カメラパラメータ調整部140eは、調整対象となるカメラパラメータの値を所定の割合で変化させていき、各評価関数fの総和が最小となるカメラパラメータの値を算出する。カメラパラメータ調整部140eは、算出したカメラパラメータの値により、カメラパラメータ110eを更新する。なお、カメラパラメータ調整部140eは、例えば、特開2009−294109に記載された技術を利用して、カメラパラメータの値を算出してもよい。
The camera
次に、本実施例2にかかるキャリブレーション装置100の処理手順について説明する。図11は、本実施例2にかかるキャリブレーション装置の処理手順を示すフローチャートである。図11に示す処理は、例えば、車載カメラCF、CR、CB、CLから画像データを取得したことを契機にして実行される。
Next, a processing procedure of the
図11に示すように、キャリブレーション装置100は、オーバーラップ上の画像データを取得し(ステップS101)、該当オーバーラップ部分において、初の画像データか否かを判定する(ステップS102)。キャリブレーション装置100は、該当オーバーラップ部分において、初の画像データではない場合には(ステップS102,No)、最適な画像データを判定し、最適な画像データを対象物画像管理テーブル110dに保存する(ステップS103)。キャリブレーション装置100は、最適な画像データを対象物画像管理テーブル110dに保存した後に、ステップS105に移行する。
As shown in FIG. 11, the
キャリブレーション装置100は、該当オーバーラップ部分において、初の画像データの場合には(ステップS102,Yes)、画像データを対象物画像管理テーブル110dに保存する(ステップS104)。
The
キャリブレーション装置100は、TC時間以内に画像データが全てそろっていない場合には(ステップS105,No)、再度ステップS101に移行する。一方、キャリブレーション装置100は、TC時間以内に画像データが全てそろった場合には(ステップS105,Yes)、カメラパラメータを調整するか否かを判定する(ステップS106)。
The
キャリブレーション装置100は、カメラパラメータを調整する場合には(ステップS106,Yes)、カメラパラメータ調整処理を実行する(ステップS107)。一方、キャリブレーション装置100は、カメラパラメータを調整しない場合には(ステップS106,No)、処理を終了する。
When adjusting the camera parameter (Yes in step S106), the
次に、図11のステップS107に示したカメラパラメータ調整処理の処理手順について説明する。図12は、カメラパラメータ調整処理の処理手順を示すフローチャートである。キャリブレーション実行部140は、D1〜D4を算出する(ステップS201)。
Next, the process procedure of the camera parameter adjustment process shown in step S107 of FIG. 11 will be described. FIG. 12 is a flowchart illustrating a processing procedure of camera parameter adjustment processing. The
キャリブレーション実行部140は、誤差が閾値未満の場合には(ステップS202,Yes)、カメラパラメータ調整処理を終了する。キャリブレーション実行部140は、誤差が閾値以上の場合には(ステップS202,No)、カメラ候補判定処理を実行する(ステップS203)。
If the error is less than the threshold (Yes in step S202), the
キャリブレーション実行部140は、調整候補の車載カメラと、前回調整したカメラとが同じ場合には(ステップS204,Yes)、カメラパラメータ調整処理を終了する。一方、キャリブレーション実行部140は、調整候補の車載カメラと、前回調整したカメラとが異なる場合には(ステップS204,No)、調整候補の車載カメラのカメラパラメータを算出する(ステップS205)。
The
キャリブレーション実行部140は、カメラパラメータ110eを調整する(ステップS206)。キャリブレーション実行部140は、調整前のカメラパラメータと調整後のカメラパラメータとの差分の絶対値が閾値未満の場合には(ステップS207,Yes)、カメラパラメータ調整処理を終了する。一方、キャリブレーション実行部140は、調整前のカメラパラメータと調整後のカメラパラメータとの差分の絶対値が閾値以上の場合には(ステップS207,No)、再度ステップS201に移行する。
The
次に、図12のステップS203に示した調整候補判定処理の処理手順について説明する。図13は、調整候補判定処理の処理手順を示すフローチャートである。キャリブレーション実行部140は、Nに車載カメラの台数を代入し(ステップS301)、誤差の最大値Dmaxを初期値に設定する(ステップS302)。
Next, the processing procedure of the adjustment candidate determination process shown in step S203 of FIG. 12 will be described. FIG. 13 is a flowchart illustrating the processing procedure of the adjustment candidate determination process. The
キャリブレーション実行部140は、iに1を代入し(ステップS303)、iの値がNの値より大きい場合には(ステップS304,Yes)、処理を終了する。一方、キャリブレーション実行部140は、iの値がNの値以下の場合には(ステップS304,No)、DmaxがDCi未満であるか否かを判定する(ステップS305)。
The
キャリブレーション実行部140は、Dmaxの値がDCiの値以上の場合には(ステップS305,No)、ステップS308に移行する。一方、キャリブレーション実行部140は、Dmaxの値がDCiの値未満の場合には(ステップS305,Yes)、DmaxにDCiの値を代入する(ステップS306)。
If the value of Dmax is greater than or equal to the value of DCi (No at Step S305), the
キャリブレーション実行部140は、DCiに対応する車載カメラを調整カメラ候補に設定する(ステップS307)。キャリブレーション実行部140は、iの値に1を加算した値をiに代入し(ステップS308)、再度ステップS304に移行する。
The
次に、キャリブレーション実行部140が画像データを対象物画像管理テーブル110dに登録する処理手順について説明する。図14は、画像データを対象物画像管理テーブルに登録する処理手順を示すフローチャートである。例えば、図14に示す処理は、キャリブレーション実行部140が車両の位置データを取得したことを契機にして実行される。
Next, a processing procedure in which the
図14に示すように、キャリブレーション実行部140は、位置データを取得し(ステップS401)、車両の位置がキャリブレーションポイントの付近であるか否かを判定する(ステップS402)。
As shown in FIG. 14, the
キャリブレーション実行部140は、車両の位置がキャリブレーションポイントの付近ではない場合には(ステップS402,No)、処理を終了する。一方、キャリブレーション実行部140は、車両の位置がキャリブレーションポイントの付近の場合には(ステップS402,Yes)、対の車載カメラによって撮影されたオーバーラップ部の画像データをそれぞれ取得する(ステップS403)。
When the position of the vehicle is not near the calibration point (No at Step S402), the
キャリブレーション実行部140は、画像データがテンプレートの形状データと一致しない場合には(ステップS404,No)、処理を終了する。一方、キャリブレーション実行部140は、画像データがテンプレートの形状データと一致する場合には(ステップS404,Yes)、画像データを対象物画像管理テーブルに保存する(ステップS405)。
If the image data does not match the shape data of the template (No at step S404), the
上述してきたように、キャリブレーション装置100は、車載カメラCF、CR、CB、CLが撮影した重複領域ALF、AFR、ARB、ABLの画像に対象物が含まれている場合に、重複領域の画像を対象物画像管理テーブル110dに登録しておく。また、キャリブレーション装置100は、対象物画像管理テーブル110dに、ALFデータ、AFRデータ、ALBデータ、ABLデータが揃った場合に、対象物の特徴点の誤差とテンプレートデータ110cとを基にして、カメラパラメータ110eを調整する。カメラパラメータ110eの調整で必要となる対象物画像管理テーブル110dのALFデータ、AFRデータ、ABLデータは、車両走行中に順次記憶することができる。このため、キャリブレーション装置100によれば、車両の走行中にカメラのパラメータを修正することができるという効果を奏する。
As described above, the
また、上記キャリブレーション装置100は、ALFデータ、AFRデータ、ARBデータ、ABLデータが、所定の時間幅TC内に撮影された場合に、かかるALFデータ、AFRデータ、ARBデータ、ABLデータを利用してカメラパラメータを調整する。このため、車載カメラの長期的な経年変化の影響を除外して、カメラパラメータを精度よく調整することができる。
The
なお、時間幅TCを長く設定すると、人の乗り降りが発生し、車載カメラの状態を一定に保つことができなくなる。このため、キャリブレーション装置100は、時間幅TCを短く設定することで、例えば、利用者が車両に乗り降りすることによる影響を除外して、カメラパラメータを精度よく調整することができる。
If the time width TC is set to be long, people get on and off, and the state of the in-vehicle camera cannot be kept constant. For this reason, the
また、上記キャリブレーション装置100は、評価関数を利用して、対象物の特徴点の誤差が最小となるようにカメラパラメータを調整する。このため、簡易な方法により、カメラパラメータを再調整することが可能となる。
Further, the
なお、本実施例2では、移動体の一例として、車両を用いて実施例の説明を行ったがこれに限定されるものではない。例えば、路面電車、自動二輪車等の車両を含む移動体にも同様にして本願発明を適用することができる。 In the second embodiment, the embodiment has been described using a vehicle as an example of the moving body, but the present invention is not limited to this. For example, the present invention can be similarly applied to a moving body including a vehicle such as a streetcar and a motorcycle.
ところで、図3に示したキャリブレーション装置100の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、キャリブレーション装置100の分散、統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
Incidentally, each component of the
例えば、キャリブレーション装置100に通信機能を持たせ、キャリブレーション実行部140の機能をネットワーク上のサーバ装置に持たせ、テンプレートデータ110c、対象物画像管理テーブル110dをサーバ装置に記憶させる。そして、キャリブレーション装置100は、各画像データをサーバ装置に送信し、カメラパラメータ110eの修正依頼を行ってもよい。
For example, the
キャリブレーション装置100は、既知のパーソナルコンピュータ、ワークステーション、携帯電話、PHS端末、移動体通信端末またはPDAなどの情報処理装置に、キャリブレーション装置100の各機能を搭載することによって実現することもできる。
The
図15は、実施例にかかるキャリブレーション装置を構成するコンピュータのハードウェア構成を示す図である。図15に示すように、このコンピュータ200は、各種演算処理を実行するCPU(Central Processing Unit)201と、ユーザからのデータの入力を受け付ける入力装置202と、モニタ203を有する。また、コンピュータ200は、記憶媒体からプログラム等を読取る媒体読み取り装置204と、ネットワークを介して他のコンピュータとの間でデータの授受を行うネットワークインターフェース装置205を有する。また、コンピュータ200は、画像を撮影する複数のカメラ206と、各種情報を一時記憶するRAM(Random Access Memory)207と、ハードディスク装置208を有する。各装置201〜208は、バス209に接続される。
FIG. 15 is a diagram illustrating a hardware configuration of a computer configuring the calibration apparatus according to the embodiment. As illustrated in FIG. 15, the
そして、ハードディスク装置208には、図3に示した画像補正部130、キャリブレーション実行部140に対応するキャリブレーションプログラム208aを記憶する。また、ハードディスク装置208は、図3に示した画像合成部150に対応する画像合成プログラム208bを記憶する。また、ハードディスク装置208は、各種データ208cを記憶する。この各種データ208cは、図3の各種データ110a〜110eに対応する。
The
CPU201がキャリブレーションプログラム208aをハードディスク装置208から読み出してRAM207に展開することにより、キャリブレーションプログラム208aは、キャリブレーションプロセス207aとして機能するようになる。CPU201が画像合成プログラム208bをハードディスク装置208から読み出してRAM207に展開することにより、画像合成プログラム208bは、画像合成プロセス207bとして機能するようになる。また、CPU201は、各種データ208cを読み出して、RAM207に格納する。
When the
キャリブレーションプロセス207aは、重複領域の画像データを利用して、各種データ207cに含まれるカメラパラメータを調整する。画像合成プロセス207bは、各種データ207cに含まれるカメラパラメータを基にして、各画像データを合成し、モニタに合成画像を表示させる。
The
なお、上記のキャリブレーションプログラム208a、画像合成プログラム208bは、必ずしもハードディスク装置208に格納されている必要はない。例えば、CD−ROM等の記憶媒体に記憶されたキャリブレーションプログラム208a、画像合成プログラム208bを、コンピュータ200が読み出して実行するようにしてもよい。また、公衆回線、インターネット、LAN(Local Area Network)、WAN(Wide Area Network)等にこのキャリブレーションプログラム208a、画像合成プログラム208bを記憶させておいてもよい。この場合、コンピュータ200がこれらからキャリブレーションプログラム208a、画像合成プログラム208bを読み出して実行するようにしてもよい。
Note that the
以上の各実施例を含む実施形態に関し、さらに以下の付記を開示する。 The following supplementary notes are further disclosed with respect to the embodiments including the above examples.
(付記1)対になるカメラの撮影範囲が重複する領域を示す重複領域の画像を、異なる重複領域毎に取得する画像取得部と、
所定の形状の対象物の画像と前記重複領域の画像とを比較して、前記重複領域の画像に含まれる前記対象物の画像を抽出し、抽出した対象物の画像を該画像を撮影したカメラと対応づけて記憶部に保存する対象物抽出部と、
前記異なる重複領域毎に、前記対になるカメラがそれぞれ撮影した対象物の画像が前記記憶部に記憶された場合に、各対象物の特徴点の位置と所定の寸法とに基づいて、各特徴点の位置の誤差を算出する誤差算出部と、
を備えたことを特徴とする画像処理装置。
(Additional remark 1) The image acquisition part which acquires the image of the duplication area | region which shows the area | region where the imaging range of the camera which becomes a pair overlaps for every different duplication area | region,
A camera that compares an image of an object having a predetermined shape with an image of the overlapping area, extracts an image of the object included in the image of the overlapping area, and captures the image of the extracted object An object extraction unit to be stored in the storage unit in association with
For each of the different overlapping areas, when an image of the object photographed by the pair of cameras is stored in the storage unit, each feature is based on the position of a feature point of each object and a predetermined size. An error calculation unit for calculating an error of the position of the point;
An image processing apparatus comprising:
(付記2)前記カメラの位置または角度を含むパラメータに基づいて、各カメラが撮影した画像を合成する画像合成部と、前記誤差算出部が算出した誤差に基づいて前記パラメータを調整するパラメータ調整部とを更に備えたことを特徴とする付記1に記載の画像処理装置。 (Additional remark 2) Based on the parameter containing the position or angle of the said camera, the image synthetic | combination part which synthesize | combines the image which each camera image | photographed, and the parameter adjustment part which adjusts the said parameter based on the error which the said error calculation part calculated The image processing apparatus according to appendix 1, further comprising:
(付記3)前記対象物抽出部は、前記対象物の画像を前記記憶部に保存する場合に、前記対象物の画像が撮影された時間を対応づけて記憶し、前記誤差算出部は、前記記憶部に記憶された異なる重複領域毎の対象物の画像の撮影時間の差が所定時間内の場合に、各特徴点の位置の誤差を算出すること特徴とする付記1または2に記載の画像処理装置。
(Additional remark 3) When the said object extraction part preserve | saves the image of the said object in the said memory | storage part, it matches and memorize | stores the time when the image of the said object was image | photographed, The said error calculation part is the said The image according to
(付記4)前記パラメータ調整部は、対のカメラに対応する対象物の特徴点の誤差の総和が最小となるように前記パラメータを調整することを特徴とする付記2または3に記載の画像処理装置。
(Additional remark 4) The said parameter adjustment part adjusts the said parameter so that the total of the error of the feature point of the target object corresponding to a pair of cameras may become the minimum, The image processing of
(付記5)コンピュータに、
対になるカメラの撮影範囲が重複する領域を示す重複領域の画像を、異なる重複領域毎に取得する画像取得手順と、
所定の形状の対象物の画像と前記重複領域の画像とを比較して、前記重複領域の画像に含まれる前記対象物の画像を抽出し、抽出した対象物の画像を該画像を撮影したカメラと対応づけて記憶部に保存する対象物抽出手順と、
前記異なる重複領域毎に、前記対になるカメラがそれぞれ撮影した対象物の画像が前記記憶部に記憶された場合に、各対象物の特徴点の位置と所定の寸法とに基づいて、各特徴点の位置の誤差を算出する誤差算出手順と、
を実行させることを特徴とする画像処理プログラム。
(Appendix 5)
An image acquisition procedure for acquiring an image of an overlapping area indicating an area where the shooting ranges of the paired cameras overlap, for each different overlapping area;
A camera that compares an image of an object having a predetermined shape with an image of the overlapping area, extracts an image of the object included in the image of the overlapping area, and captures the image of the extracted object And an object extraction procedure to be stored in the storage unit in association with
For each of the different overlapping areas, when an image of the object photographed by the pair of cameras is stored in the storage unit, each feature is based on the position of a feature point of each object and a predetermined size. An error calculation procedure for calculating the error of the point position;
An image processing program for executing
(付記6)前記カメラの位置または角度を含むパラメータに基づいて、各カメラが撮影した画像を合成する画像合成手順と、前記誤差算出手順が算出した誤差に基づいて前記パラメータを調整するパラメータ調整手順とを更にコンピュータに実行させることを特徴とする付記5に記載の画像処理プログラム。 (Appendix 6) An image composition procedure for compositing images captured by the cameras based on parameters including the position or angle of the camera, and a parameter adjustment procedure for adjusting the parameters based on the error calculated by the error calculation procedure The image processing program according to appendix 5, wherein the computer is further executed.
(付記7)前記対象物抽出手順は、前記対象物の画像を前記記憶部に保存する場合に、前記対象物の画像が撮影された時間を対応づけて記憶し、前記誤差算出手順は、前記記憶部に記憶された異なる重複領域毎の対象物の撮影時間の差が所定時間内の場合に、各特徴点の位置の誤差を算出すること特徴とする付記5または6に記載の画像処理プログラム。 (Supplementary note 7) When the object extraction procedure stores the image of the object in the storage unit, the object extraction procedure stores the time when the image of the object was captured in association with each other, and the error calculation procedure includes: The image processing program according to appendix 5 or 6, wherein an error in the position of each feature point is calculated when a difference in shooting time of the object for each different overlapping area stored in the storage unit is within a predetermined time. .
(付記8)前記パラメータ調整手順は、対のカメラに対応する対象物の特徴点の誤差の総和が最小となるように前記パラメータを調整することを特徴とする付記6または7に記載の画像処理プログラム。 (Supplementary note 8) The image processing according to supplementary note 6 or 7, wherein the parameter adjustment procedure adjusts the parameter so that a sum of errors of feature points of an object corresponding to a pair of cameras is minimized. program.
10 画像処理装置
11 画像取得部
12 対象物抽出部
13 記憶部
14 誤差算出部
DESCRIPTION OF
Claims (5)
所定の形状の対象物の画像と前記重複領域の画像とを比較して、前記重複領域の画像に含まれる前記対象物の画像を抽出し、抽出した対象物の画像を該画像を撮影したカメラと対応づけて記憶部に保存する対象物抽出部と、
前記異なる重複領域毎に、前記対になるカメラがそれぞれ撮影した対象物の画像が前記記憶部に記憶された場合に、各対象物の特徴点の位置と所定の寸法とに基づいて、各特徴点の位置の誤差を算出する誤差算出部と、
を備えたことを特徴とする画像処理装置。 An image acquisition unit that acquires an image of an overlapping area indicating an area where the shooting ranges of the paired cameras overlap, for each different overlapping area;
A camera that compares an image of an object having a predetermined shape with an image of the overlapping area, extracts an image of the object included in the image of the overlapping area, and captures the image of the extracted object An object extraction unit to be stored in the storage unit in association with
For each of the different overlapping areas, when an image of the object photographed by the pair of cameras is stored in the storage unit, each feature is based on the position of a feature point of each object and a predetermined size. An error calculation unit for calculating an error of the position of the point;
An image processing apparatus comprising:
対になるカメラの撮影範囲が重複する領域を示す重複領域の画像を、異なる重複領域毎に取得する画像取得手順と、
所定の形状の対象物の画像と前記重複領域の画像とを比較して、前記重複領域の画像に含まれる前記対象物の画像を抽出し、抽出した対象物の画像を該画像を撮影したカメラと対応づけて記憶部に保存する対象物抽出手順と、
前記異なる重複領域毎に、前記対になるカメラがそれぞれ撮影した対象物の画像が前記記憶部に記憶された場合に、各対象物の特徴点の位置と所定の寸法とに基づいて、各特徴点の位置の誤差を算出する誤差算出手順と、
を実行させることを特徴とする画像処理プログラム。 On the computer,
An image acquisition procedure for acquiring an image of an overlapping area indicating an area where the shooting ranges of the paired cameras overlap, for each different overlapping area;
A camera that compares an image of an object having a predetermined shape with an image of the overlapping area, extracts an image of the object included in the image of the overlapping area, and captures the image of the extracted object And an object extraction procedure to be stored in the storage unit in association with
For each of the different overlapping areas, when an image of the object photographed by the pair of cameras is stored in the storage unit, each feature is based on the position of a feature point of each object and a predetermined size. An error calculation procedure for calculating the error of the point position;
An image processing program for executing
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010111389A JP5552892B2 (en) | 2010-05-13 | 2010-05-13 | Image processing apparatus and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010111389A JP5552892B2 (en) | 2010-05-13 | 2010-05-13 | Image processing apparatus and image processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011239349A true JP2011239349A (en) | 2011-11-24 |
JP5552892B2 JP5552892B2 (en) | 2014-07-16 |
Family
ID=45326797
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010111389A Expired - Fee Related JP5552892B2 (en) | 2010-05-13 | 2010-05-13 | Image processing apparatus and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5552892B2 (en) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013129278A (en) * | 2011-12-21 | 2013-07-04 | Alpine Electronics Inc | Image display device, calibration method of imaging camera in image display device, and calibration program |
WO2015029934A1 (en) * | 2013-08-30 | 2015-03-05 | クラリオン株式会社 | Camera calibration device, camera calibration system, and camera calibration method |
JP2015070350A (en) * | 2013-09-27 | 2015-04-13 | 日産自動車株式会社 | Monitor image presentation system |
JP2015186026A (en) * | 2014-03-24 | 2015-10-22 | クラリオン株式会社 | Camera calibration device |
JP2015198374A (en) * | 2014-04-02 | 2015-11-09 | パナソニックIpマネジメント株式会社 | Calibration device, calibration method, camera having calibration function and program |
JP2016001378A (en) * | 2014-06-11 | 2016-01-07 | 株式会社デンソー | Calibration device of on-vehicle camera |
JP2016092814A (en) * | 2014-11-07 | 2016-05-23 | 研勤科技股▲分▼有限公司 | Drive recorder with 360-degree panoramic view |
WO2017126072A1 (en) * | 2016-01-21 | 2017-07-27 | 株式会社日立製作所 | Image recognition system, camera state estimation device and storage medium |
JP2017222258A (en) * | 2016-06-15 | 2017-12-21 | 株式会社Jvcケンウッド | Posture change determination device, overhead image generation device, overhead image generation system, posture change determination method, and program |
JP2018177004A (en) * | 2017-04-13 | 2018-11-15 | クラリオン株式会社 | Calibration device for on-vehicle camera |
JPWO2021033632A1 (en) * | 2019-08-20 | 2021-02-25 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3286306B2 (en) * | 1998-07-31 | 2002-05-27 | 松下電器産業株式会社 | Image generation device and image generation method |
JP2006148745A (en) * | 2004-11-24 | 2006-06-08 | Aisin Seiki Co Ltd | Camera calibration method and apparatus |
JP2008011174A (en) * | 2006-06-29 | 2008-01-17 | Hitachi Ltd | Calibration device of on-vehicle camera, program, and car navigation system |
JP2008131177A (en) * | 2006-11-17 | 2008-06-05 | Aisin Seiki Co Ltd | Correcting device for on-board camera, correcting method, and production method for vehicle using same correcting method |
JP2008187566A (en) * | 2007-01-31 | 2008-08-14 | Sanyo Electric Co Ltd | Camera calibration apparatus and method and vehicle |
JP2009288152A (en) * | 2008-05-30 | 2009-12-10 | Nippon Soken Inc | Calibration method of on-vehicle camera |
JP2009294109A (en) * | 2008-06-05 | 2009-12-17 | Fujitsu Ltd | Calibration apparatus |
-
2010
- 2010-05-13 JP JP2010111389A patent/JP5552892B2/en not_active Expired - Fee Related
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3286306B2 (en) * | 1998-07-31 | 2002-05-27 | 松下電器産業株式会社 | Image generation device and image generation method |
JP2006148745A (en) * | 2004-11-24 | 2006-06-08 | Aisin Seiki Co Ltd | Camera calibration method and apparatus |
JP2008011174A (en) * | 2006-06-29 | 2008-01-17 | Hitachi Ltd | Calibration device of on-vehicle camera, program, and car navigation system |
JP2008131177A (en) * | 2006-11-17 | 2008-06-05 | Aisin Seiki Co Ltd | Correcting device for on-board camera, correcting method, and production method for vehicle using same correcting method |
JP2008187566A (en) * | 2007-01-31 | 2008-08-14 | Sanyo Electric Co Ltd | Camera calibration apparatus and method and vehicle |
JP2009288152A (en) * | 2008-05-30 | 2009-12-10 | Nippon Soken Inc | Calibration method of on-vehicle camera |
JP2009294109A (en) * | 2008-06-05 | 2009-12-17 | Fujitsu Ltd | Calibration apparatus |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013129278A (en) * | 2011-12-21 | 2013-07-04 | Alpine Electronics Inc | Image display device, calibration method of imaging camera in image display device, and calibration program |
WO2015029934A1 (en) * | 2013-08-30 | 2015-03-05 | クラリオン株式会社 | Camera calibration device, camera calibration system, and camera calibration method |
JPWO2015029934A1 (en) * | 2013-08-30 | 2017-03-02 | クラリオン株式会社 | Camera calibration apparatus, camera calibration system, and camera calibration method |
JP2015070350A (en) * | 2013-09-27 | 2015-04-13 | 日産自動車株式会社 | Monitor image presentation system |
JP2015186026A (en) * | 2014-03-24 | 2015-10-22 | クラリオン株式会社 | Camera calibration device |
US10032274B2 (en) | 2014-04-02 | 2018-07-24 | Panasonic Intellectual Property Management Co., Ltd. | Calibration apparatus and calibration method |
JP2015198374A (en) * | 2014-04-02 | 2015-11-09 | パナソニックIpマネジメント株式会社 | Calibration device, calibration method, camera having calibration function and program |
JP2016001378A (en) * | 2014-06-11 | 2016-01-07 | 株式会社デンソー | Calibration device of on-vehicle camera |
JP2016092814A (en) * | 2014-11-07 | 2016-05-23 | 研勤科技股▲分▼有限公司 | Drive recorder with 360-degree panoramic view |
JPWO2017126072A1 (en) * | 2016-01-21 | 2018-01-25 | 株式会社日立製作所 | Image recognition system, camera state estimation device, and storage medium |
WO2017126072A1 (en) * | 2016-01-21 | 2017-07-27 | 株式会社日立製作所 | Image recognition system, camera state estimation device and storage medium |
JP2017222258A (en) * | 2016-06-15 | 2017-12-21 | 株式会社Jvcケンウッド | Posture change determination device, overhead image generation device, overhead image generation system, posture change determination method, and program |
JP2018177004A (en) * | 2017-04-13 | 2018-11-15 | クラリオン株式会社 | Calibration device for on-vehicle camera |
JPWO2021033632A1 (en) * | 2019-08-20 | 2021-02-25 | ||
WO2021033632A1 (en) * | 2019-08-20 | 2021-02-25 | 日立オートモティブシステムズ株式会社 | Vehicle control method and vehicle control device |
Also Published As
Publication number | Publication date |
---|---|
JP5552892B2 (en) | 2014-07-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5552892B2 (en) | Image processing apparatus and image processing program | |
JP5279875B2 (en) | Object display device, object display method, and object display program | |
JP6338021B2 (en) | Image processing apparatus, image processing method, and image processing program | |
US11164323B2 (en) | Method for obtaining image tracking points and device and storage medium thereof | |
US9270891B2 (en) | Estimation of panoramic camera orientation relative to a vehicle coordinate frame | |
CN112101305B (en) | Multi-path image processing method and device and electronic equipment | |
JP6701930B2 (en) | Authoring device, authoring method, and authoring program | |
CN110431835B (en) | Image synthesizing device, image synthesizing method, and recording medium | |
JP2012174116A (en) | Object display device, object display method and object display program | |
JP6759175B2 (en) | Information processing equipment and information processing system | |
KR20180022539A (en) | Method and apparatus of stitching for minimizing parallax using control points in overlapping region | |
JP2020500319A (en) | Map making device using machine learning and image processing | |
JP5369873B2 (en) | Judgment program and calibration device | |
JP6165422B2 (en) | Information processing system, information processing device, server, terminal device, information processing method, and program | |
JP2009140402A (en) | Information display device, information display method, information display program, and recording medium with recorded information display program | |
JP2019100924A (en) | Vehicle trajectory correction device | |
JP6040782B2 (en) | Image processing apparatus and program | |
KR20200057513A (en) | Vehicle location estimation apparatus and method | |
JP2009260475A (en) | Information processor, information processing method, and program | |
CN109034214B (en) | Method and apparatus for generating a mark | |
JPH08320990A (en) | Vehicle number reader | |
JP2008224323A (en) | Stereoscopic photograph measuring instrument, stereoscopic photograph measuring method, and stereoscopic photograph measuring program | |
CN112784633A (en) | Method and device for processing lane boundary, electronic equipment and storage medium | |
JP2009098867A (en) | Character string recognition method, computer program and storage medium | |
JP2003514286A (en) | Zernike / Pseudo Zernike Moment Extraction Method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130403 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140116 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140212 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140407 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140430 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140513 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5552892 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |