JP2011239349A - Image processing apparatus and image processing program - Google Patents

Image processing apparatus and image processing program Download PDF

Info

Publication number
JP2011239349A
JP2011239349A JP2010111389A JP2010111389A JP2011239349A JP 2011239349 A JP2011239349 A JP 2011239349A JP 2010111389 A JP2010111389 A JP 2010111389A JP 2010111389 A JP2010111389 A JP 2010111389A JP 2011239349 A JP2011239349 A JP 2011239349A
Authority
JP
Japan
Prior art keywords
image
data
unit
camera
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010111389A
Other languages
Japanese (ja)
Other versions
JP5552892B2 (en
Inventor
Sotaro Kaneko
宗太郎 金子
Tomohiko Izutsu
友彦 井筒
Toru Tsuruta
徹 鶴田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2010111389A priority Critical patent/JP5552892B2/en
Publication of JP2011239349A publication Critical patent/JP2011239349A/en
Application granted granted Critical
Publication of JP5552892B2 publication Critical patent/JP5552892B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To modify a parameter of a camera while a mobile object is running.SOLUTION: An image processing apparatus 10 has an image acquiring part 11, an object extracting part 12, a storing part 13, and an error calculating part 14. The image acquiring part 11 acquires an image of an overlap region indicating a region where photographing regions of paired cameras are overlapped, every for a different overlap region. The object extracting part 12 compares an image of an object having a predetermined shape with the image of the overlap region to extract the image of the object which is included in the image of the overlap region, and associates the extracted image of the object with the camera that photographed the image and stores the associated image in the storing part 13. When the images of the objects respectively photographed by the paired cameras are stored in the storing part 13 every for the different overlap region, the error calculating part 14 compares the position of a feature point of each object with the predetermined size, and calculates an error of the position of each feature point.

Description

本発明は、画像処理装置および画像処理プログラムに関する。   The present invention relates to an image processing apparatus and an image processing program.

車両の上方の位置から車両全体を撮影したような俯瞰画像をモニタに表示することで、ドライバの運転操作を支援する画像変換装置が存在する。例えば、この画像変換装置は、車両の前後左右に設置された4台の車載カメラがそれぞれ撮影した4つの画像を合成することで俯瞰画像を生成する。   There is an image conversion device that supports a driver's driving operation by displaying a bird's-eye view image of the entire vehicle from a position above the vehicle on a monitor. For example, this image conversion device generates a bird's-eye view image by synthesizing four images taken by four in-vehicle cameras installed on the front, rear, left and right sides of the vehicle.

画像変換装置は、車載カメラの設置位置や設置角度などのカメラパラメータを利用して俯瞰画像を生成する。このため、カメラパラメータに誤差が生じると、各画像を合成する際にずれなどが発生してしまい、正確な俯瞰画像を生成することができない。パラメータに生じる誤差は、車両の走行中に何らかの原因で発生し得る。したがって、ドライバは、自動車ディーラーなどに車両を持って行き、カメラパラメータの誤差の修正を依頼する。   The image conversion apparatus generates a bird's-eye view image using camera parameters such as the installation position and installation angle of the in-vehicle camera. For this reason, if an error occurs in the camera parameters, a deviation or the like occurs when the images are combined, and an accurate overhead image cannot be generated. Errors that occur in the parameters can occur for some reason while the vehicle is running. Therefore, the driver takes the vehicle to an automobile dealer or the like and requests correction of camera parameter errors.

カメラパラメータの誤差を修正する技術には様々なものが存在する。例えば、車載カメラの撮影範囲が重なる領域に形状が既知のマーカを配置し、マーカの特徴点を用いてカメラパラメータの誤差を修正するという技術が存在する。また、路面上の特徴部分をマーカに見立ててカメラパラメータの誤差を修正するという技術も存在する。   There are various techniques for correcting camera parameter errors. For example, there is a technique in which a marker having a known shape is arranged in a region where the photographing ranges of an in-vehicle camera overlap, and a camera parameter error is corrected using a marker feature point. There is also a technique of correcting a camera parameter error by regarding a characteristic portion on the road surface as a marker.

特開2008−148474号公報JP 2008-148474 A 特許第3286306号公報Japanese Patent No. 3286306 特開2008−187566号公報JP 2008-187466 A

しかしながら、上記従来技術では、カメラパラメータを修正する場合に車両を所定の場所に停止させることが前提条件となっており、車両の走行中にパラメータを修正することができないという問題があった。なお、かかる問題は、車両の車載カメラだけでなく、その他の移動体のカメラのパラメータを修正する場合にも同様に発生し得る。   However, in the above prior art, when the camera parameter is corrected, it is a precondition that the vehicle is stopped at a predetermined location, and there is a problem that the parameter cannot be corrected while the vehicle is traveling. Note that such a problem can occur in the same way when correcting parameters of not only the in-vehicle camera of the vehicle but also the camera of another moving body.

開示の技術は、上記に鑑みてなされたものであって、移動体の走行中にカメラのパラメータを修正することができる画像処理装置および画像処理プログラムを提供することを目的とする。   The disclosed technology has been made in view of the above, and an object thereof is to provide an image processing apparatus and an image processing program capable of correcting camera parameters while a mobile object is traveling.

本願の開示する画像処理装置は、対になるカメラの撮影範囲が重複する領域を示す重複領域の画像を異なる重複領域毎に取得する画像取得部と、所定の形状の対象物の画像と前記重複領域の画像とを比較して、前記重複領域の画像に含まれる前記対象物の画像を抽出し、抽出した対象物の画像を該画像を撮影したカメラと対応づけて記憶部に保存する対象物抽出部と、前記異なる重複領域毎に、前記対になるカメラがそれぞれ撮影した対象物の画像が前記記憶部に記憶された場合に、各対象物の特徴点の位置と所定の寸法とに基づいて、各特徴点の位置の誤差を算出する誤差算出部とを備えたことを要件とする。   An image processing device disclosed in the present application includes an image acquisition unit that acquires an image of an overlapping area that indicates an area in which shooting ranges of a pair of cameras overlap each other, and an overlap between an image of an object having a predetermined shape and the overlap An object in which the image of the object included in the image of the overlapping region is extracted by comparing with the image of the region, and the image of the extracted object is stored in the storage unit in association with the camera that captured the image When the image of the object photographed by the paired cameras is stored in the storage unit for each of the different overlapping areas, the extraction unit and the predetermined feature size of each object And an error calculation unit for calculating the error of the position of each feature point.

本願の開示する画像処理装置の一つの態様によれば、移動体の走行中にカメラのパラメータを修正することができるという効果を奏する。   According to one aspect of the image processing apparatus disclosed in the present application, there is an effect that the parameters of the camera can be corrected while the moving body is traveling.

図1は、本実施例1にかかる画像処理装置の構成を示す図である。FIG. 1 is a diagram illustrating the configuration of the image processing apparatus according to the first embodiment. 図2は、車載カメラの配置位置とオーバーラップ部分を示す図である。FIG. 2 is a diagram illustrating an arrangement position and an overlap portion of the in-vehicle camera. 図3は、本実施例2にかかるキャリブレーション装置の構成を示す図である。FIG. 3 is a diagram illustrating the configuration of the calibration apparatus according to the second embodiment. 図4は、画像管理テーブルのデータ構造の一例を示す図である。FIG. 4 is a diagram illustrating an example of the data structure of the image management table. 図5は、テンプレートデータのデータ構造の一例を示す図である。FIG. 5 is a diagram illustrating an example of a data structure of template data. 図6は、テンプレートの特徴点の一例を示す図である。FIG. 6 is a diagram illustrating an example of feature points of a template. 図7は、キャリブレーション実行部の構成を示す図である。FIG. 7 is a diagram illustrating a configuration of the calibration execution unit. 図8は、各種画像データを抽出するタイミングを示す図である。FIG. 8 is a diagram illustrating the timing of extracting various image data. 図9は、対象物画像管理テーブルのデータ構造の一例を示す図である。FIG. 9 is a diagram illustrating an example of the data structure of the object image management table. 図10は、カメラパラメータ調整部の処理を説明するための図である。FIG. 10 is a diagram for explaining processing of the camera parameter adjustment unit. 図11は、本実施例2にかかるキャリブレーション装置の処理手順を示すフローチャートである。FIG. 11 is a flowchart of a process procedure of the calibration apparatus according to the second embodiment. 図12は、カメラパラメータ調整処理の処理手順を示すフローチャートである。FIG. 12 is a flowchart illustrating a processing procedure of camera parameter adjustment processing. 図13は、調整候補判定処理の処理手順を示すフローチャートである。FIG. 13 is a flowchart illustrating the processing procedure of the adjustment candidate determination process. 図14は、画像データを対象物画像管理テーブルに登録する処理手順を示すフローチャートである。FIG. 14 is a flowchart showing a processing procedure for registering image data in the object image management table. 図15は、実施例にかかるキャリブレーション装置を構成するコンピュータのハードウェア構成を示す図である。FIG. 15 is a diagram illustrating a hardware configuration of a computer configuring the calibration apparatus according to the embodiment.

以下に、本願の開示する画像処理装置および画像処理プログラムの実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。   Embodiments of an image processing apparatus and an image processing program disclosed in the present application will be described below in detail with reference to the drawings. Note that the present invention is not limited to the embodiments.

図1は、本実施例1にかかる画像処理装置の構成を示す図である。図1に示すように、この画像処理装置10は、画像取得部11、対象物抽出部12、記憶部13、誤差算出部14を有する。画像取得部11は、対になるカメラの撮影範囲が重複する領域を示す重複領域の画像を異なる重複領域毎に取得する。   FIG. 1 is a diagram illustrating the configuration of the image processing apparatus according to the first embodiment. As illustrated in FIG. 1, the image processing apparatus 10 includes an image acquisition unit 11, an object extraction unit 12, a storage unit 13, and an error calculation unit 14. The image acquisition unit 11 acquires an image of an overlapping area indicating an area where the shooting ranges of the paired cameras overlap for each different overlapping area.

対象物抽出部12は、所定の形状の対象物の画像と重複領域の画像とを比較して、重複領域の画像に含まれる対象物の画像を抽出し、抽出した対象物の画像を該画像を撮影したカメラと対応づけて記憶部13に保存する。   The object extraction unit 12 compares the image of the object having a predetermined shape with the image of the overlapping area, extracts the image of the object included in the image of the overlapping area, and extracts the image of the extracted object as the image Is stored in the storage unit 13 in association with the camera that captured the image.

記憶部13は、対象物の画像とこの画像を撮影したカメラとを対応づけて記憶する。誤差算出部14は、異なる重複領域毎に、対になるカメラがそれぞれ撮影した対象物の画像が記憶部13に記憶された場合に、各対象物の特徴点の位置と所定の寸法に基づいて、各特徴点の位置の誤差を算出する。   The storage unit 13 stores the image of the target object and the camera that captured the image in association with each other. When the image of the target object captured by the paired camera is stored in the storage unit 13 for each different overlapping area, the error calculation unit 14 is based on the position of the feature point of each target object and a predetermined size. The error of the position of each feature point is calculated.

通常、車両に配置されたカメラのカメラパラメータを調整する場合には、重複領域に含まれる対象物の画像が、異なる重複領域毎に必要である。このため、従来技術では、車両を一旦停止させて、異なる重複領域毎に対象物をそれぞれ配置し、異なる重複領域毎の画像を取得していた。   Usually, when adjusting the camera parameters of a camera arranged in a vehicle, an image of an object included in the overlapping area is required for each different overlapping area. For this reason, in the prior art, the vehicle is temporarily stopped, the objects are arranged in different overlapping areas, and images for the different overlapping areas are acquired.

これに対して、上記画像処理装置10は、カメラが撮影した重複領域の画像に対象物が含まれている場合に、重複領域の画像を記憶部13に記憶しておき、記憶部13に異なる重複領域毎の対象物の画像が記憶されるのを待つ。そして、画像処理装置10は、記憶部13に異なる重複領域毎の対象物の画像が記憶された後に、各対象物の特徴点と所定の寸法とを比較して、各特徴点の位置の誤差を算出する。このような構成にすることで、画像処理装置10は、例えば、車両が走行中であっても、記憶部13に必要な対象物の画像を記憶することができる。また、各対象物の特徴点の位置の誤差を利用することで、カメラパラメータを調整することも可能である。このため、本実施例1にかかる画像処理装置10は、車両の走行中にカメラのパラメータを修正することができるという効果を奏する。   On the other hand, the image processing apparatus 10 stores the image of the overlapping area in the storage unit 13 and differs from the storage unit 13 when the object is included in the image of the overlapping area captured by the camera. It waits for the image of the object for each overlapping area to be stored. Then, after the image of the object for each different overlapping area is stored in the storage unit 13, the image processing apparatus 10 compares the feature point of each object with a predetermined size, and detects the error in the position of each feature point. Is calculated. With such a configuration, the image processing apparatus 10 can store an image of a necessary object in the storage unit 13 even when the vehicle is running, for example. Further, it is possible to adjust the camera parameters by using the error of the position of the feature point of each object. For this reason, the image processing apparatus 10 according to the first embodiment has an effect that the parameters of the camera can be corrected while the vehicle is traveling.

まず、車載カメラの配置位置およびオーバーラップ部分の一例について説明する。オーバーラップ部は、各車載カメラの撮影範囲が重複する部分を示す。図2は、車載カメラの配置位置とオーバーラップ部分を示す図である。図2に示すように、車両50の前後左右に車載カメラCF、CB、CL、CRが配置されている。具体的には、車両50の前側に車載カメラCFが配置され、車両50の後側に車載カメラCBが配置される。また、車両50の左側に車載カメラCLが配置され、車両50の右側に車載カメラCRが配置される。   First, an example of an arrangement position of an in-vehicle camera and an overlap portion will be described. An overlap part shows the part with which the imaging range of each vehicle-mounted camera overlaps. FIG. 2 is a diagram illustrating an arrangement position and an overlap portion of the in-vehicle camera. As shown in FIG. 2, vehicle-mounted cameras CF, CB, CL, and CR are disposed on the front, rear, left, and right sides of the vehicle 50. Specifically, the in-vehicle camera CF is disposed on the front side of the vehicle 50, and the in-vehicle camera CB is disposed on the rear side of the vehicle 50. In addition, the in-vehicle camera CL is disposed on the left side of the vehicle 50, and the in-vehicle camera CR is disposed on the right side of the vehicle 50.

車載カメラCFの撮影範囲を50Fとし、車載カメラCBの撮影範囲を50Bとする。車載カメラCLの撮影範囲を50Lとし、車載カメラCRの撮影範囲を50Rとする。そして、車載カメラCFの撮影範囲50Fと車載カメラCRの撮影範囲50Rとのオーバーラップ部をAFRとし、車載カメラCRの撮影範囲50Rと車載カメラCBの撮影範囲50Bとのオーバーラップ部をARBとする。車載カメラCBの撮影範囲50Bと車載カメラCLの撮影範囲50Lとのオーバーラップ部分をABLとし、車載カメラCLの撮影範囲50Lと車載カメラCFの撮影範囲50Fとのオーバーラップ部分をALFとする。   The shooting range of the in-vehicle camera CF is 50F, and the shooting range of the in-vehicle camera CB is 50B. The shooting range of the in-vehicle camera CL is 50L, and the shooting range of the in-vehicle camera CR is 50R. An overlap portion between the shooting range 50F of the in-vehicle camera CF and the shooting range 50R of the in-vehicle camera CR is AFR, and an overlap portion of the shooting range 50R of the in-vehicle camera CR and the shooting range 50B of the in-vehicle camera CB is ARB. . The overlap portion between the shooting range 50B of the in-vehicle camera CB and the shooting range 50L of the in-vehicle camera CL is ABL, and the overlap portion of the shooting range 50L of the in-vehicle camera CL and the shooting range 50F of the in-vehicle camera CF is ALF.

次に、本実施例2にかかるキャリブレーション装置の構成について説明する。このキャリブレーション装置は、例えば、車両50の内部に配置される。図3は、本実施例2にかかるキャリブレーション装置の構成を示す図である。図3に示すように、このキャリブレーション装置100は、記憶部110、画像入力部120、画像補正部130、キャリブレーション実行部140、画像合成部150、表示部160を有する。また、キャリブレーション装置100は、車載カメラCF、CR、CB、CLに接続される。   Next, the configuration of the calibration apparatus according to the second embodiment will be described. This calibration device is disposed inside the vehicle 50, for example. FIG. 3 is a diagram illustrating the configuration of the calibration apparatus according to the second embodiment. As illustrated in FIG. 3, the calibration apparatus 100 includes a storage unit 110, an image input unit 120, an image correction unit 130, a calibration execution unit 140, an image composition unit 150, and a display unit 160. The calibration device 100 is connected to the on-vehicle cameras CF, CR, CB, and CL.

記憶部110は、各種のデータを記憶する記憶部である。この記憶部110は、画像管理テーブル110a、キャリブレーションポイント110b、テンプレートデータ110c、対象物画像管理テーブル110d、カメラパラメータ110eを記憶する。   The storage unit 110 is a storage unit that stores various data. The storage unit 110 stores an image management table 110a, calibration points 110b, template data 110c, an object image management table 110d, and camera parameters 110e.

画像管理テーブル110aは、車載カメラCF、CR、CB、CLが撮影した画像データを記憶するテーブルである。図4は、画像管理テーブルのデータ構造の一例を示す図である。図4に示すように、この画像管理テーブル110aは、カメラ識別情報と画像データと撮影時間とを対応づけて記憶する。カメラ識別情報は、画像データを撮影した車載カメラを一意に識別する情報である。画像データは、各車載カメラが撮影した画像データである。撮影時間は、車載カメラが画像を撮影した時間である。図4では一例として、各車載カメラの撮影範囲の画像データを記憶する場合を示したが、撮影範囲のうち、オーバーラップ部分の画像データのみを記憶してもよい。   The image management table 110a is a table that stores image data captured by the in-vehicle cameras CF, CR, CB, and CL. FIG. 4 is a diagram illustrating an example of the data structure of the image management table. As shown in FIG. 4, the image management table 110a stores camera identification information, image data, and shooting time in association with each other. The camera identification information is information that uniquely identifies the in-vehicle camera that has captured the image data. The image data is image data taken by each in-vehicle camera. The shooting time is the time when the in-vehicle camera takes an image. As an example, FIG. 4 shows the case where the image data of the shooting range of each in-vehicle camera is stored. However, only the image data of the overlapping portion of the shooting range may be stored.

キャリブレーションポイント110bは、所定の座標情報を有する。この座標情報に対応する位置周辺には、交差点や道路標識、路上のマークなどが存在する。例えば、路上のマークには、前方に横断歩道ありの意味を持つ「ひし形」マークや、Uターン禁止の意味を持つ「バツ」マーク、進行方向を示す「矢印」マークが存在する。以下の説明において、交差点、道路標識、路上のマークをまとめて対象物と表記する。   The calibration point 110b has predetermined coordinate information. There are intersections, road signs, road marks, and the like around the position corresponding to the coordinate information. For example, a mark on the road includes a “diamond” mark having a meaning of having a pedestrian crossing ahead, a “cross” mark having a meaning of prohibiting a U-turn, and an “arrow” mark indicating a traveling direction. In the following description, intersections, road signs, and road marks are collectively referred to as objects.

テンプレートデータ110cは、対象物の形状データをそれぞれ記憶する。図5は、テンプレートデータのデータ構造の一例を示す図である。図5に示すように、このテンプレートデータ110cは、テンプレート識別情報と形状データと特徴点間の寸法とを対応づけて記憶する。テンプレート識別情報は、テンプレートを一意に識別する情報である。形状データは、テンプレートの形状を示すデータである。特徴点間の寸法は、テンプレートに含まれる特徴点間の寸法を示す。   The template data 110c stores shape data of the object. FIG. 5 is a diagram illustrating an example of a data structure of template data. As shown in FIG. 5, the template data 110c stores template identification information, shape data, and dimensions between feature points in association with each other. The template identification information is information that uniquely identifies the template. The shape data is data indicating the shape of the template. The dimension between the feature points indicates the dimension between the feature points included in the template.

テンプレートの特徴点は、テンプレートによって異なる。図6は、テンプレートの特徴点の一例を示す図である。図6に示すように、テンプレートAの形状が矢印の場合には、テンプレートAの特徴点は矢印の各端A1〜A5となる。テンプレートBの形状がバツ印の場合には、テンプレートBの特徴点はバツ印の各端B1〜B8となる。テンプレートCの形状がひし形の場合には、テンプレートCの特徴点はひし形の各端C1〜C4となる。   The feature point of a template changes with templates. FIG. 6 is a diagram illustrating an example of feature points of a template. As shown in FIG. 6, when the shape of the template A is an arrow, the feature points of the template A are the ends A1 to A5 of the arrow. When the shape of the template B is a cross mark, the feature points of the template B are the ends B1 to B8 of the cross mark. When the shape of the template C is a rhombus, the feature points of the template C are the ends C1 to C4 of the rhombus.

対象物画像管理テーブル110dは、オーバーラップ部分ALF、AFR、ARB、ABLに含まれる対象物の画像データを記憶する。カメラパラメータ110eは、車載カメラCF、CR、CB、CLの設置位置や設置角度などをそれぞれ記憶する。   The object image management table 110d stores image data of objects included in the overlap portions ALF, AFR, ARB, and ABL. The camera parameter 110e stores the installation position and installation angle of the in-vehicle cameras CF, CR, CB, and CL, respectively.

画像入力部120は、車載カメラCF、CR、CB、CLから画像データを取得し、取得した各画像データを画像補正部130に出力する処理部である。各画像データは、撮影範囲の画像の他に、画像を撮影した車載カメラを識別する情報や撮影時刻の情報を含んでいるものとする。   The image input unit 120 is a processing unit that acquires image data from the in-vehicle cameras CF, CR, CB, and CL, and outputs each acquired image data to the image correction unit 130. It is assumed that each image data includes information for identifying an in-vehicle camera that has captured the image and information on the shooting time in addition to the image of the shooting range.

画像補正部130は、各画像データに対して、レンズの歪み補正などの画像補正を行う処理部である。画像補正部130は、画像補正を行った後に、各画像データを画像管理テーブル110aに記憶する。   The image correction unit 130 is a processing unit that performs image correction such as lens distortion correction on each image data. The image correction unit 130 stores each image data in the image management table 110a after performing the image correction.

キャリブレーション実行部140は、オーバーラップ部分ALF、AFR、ARB、ABLに対象物が含まれるたびに、対象物の画像データを対象物画像管理テーブル110dに登録する。そして、キャリブレーション実行部140は、オーバーラップ部分ALF、AFR、ARB、ABLに対応する対象物の画像データが全て揃った場合に、対象物の特徴点の誤差を算出する。キャリブレーション実行部140は、かかる誤差を利用してカメラパラメータ110eを調整する。キャリブレーション実行部140の処理の詳細は後述する。   The calibration execution unit 140 registers the image data of the object in the object image management table 110d every time the object is included in the overlap portions ALF, AFR, ARB, and ABL. And the calibration execution part 140 calculates the error of the feature point of a target object, when all the image data of the target object corresponding to overlap part ALF, AFR, ARB, and ABL are gathered. The calibration execution unit 140 adjusts the camera parameter 110e using this error. Details of the processing of the calibration execution unit 140 will be described later.

画像合成部150は、車載カメラCF、CR、CB、CLが撮影した画像データを画像管理テーブル110aから取得し、カメラパラメータ110eに基づいて各画像データを合成することで、合成画像データを生成する処理部である。画像合成部150は、合成画像データを表示部160に出力する。   The image composition unit 150 obtains image data taken by the in-vehicle cameras CF, CR, CB, and CL from the image management table 110a, and synthesizes each image data based on the camera parameters 110e, thereby generating composite image data. It is a processing unit. The image composition unit 150 outputs the composite image data to the display unit 160.

表示部160は、合成画像データをディスプレイなどの表示装置に表示させる処理部である。この合成画像データは、例えば、車両50を上方の位置から車両50全体を撮影したような俯瞰画像に対応する。   The display unit 160 is a processing unit that displays the composite image data on a display device such as a display. This composite image data corresponds to, for example, a bird's-eye view image of the vehicle 50 taken from the upper position.

上記の画像入力部120、画像補正部130、キャリブレーション実行部140、画像合成部150、表示部160は、例えば、ASIC(Application Specific Integrated Circuit)や、FPGA(Field Programmable Gate Array)などの集積装置に対応する。また、上記処理部130、140、150、160は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等の電子回路に対応する。   The image input unit 120, the image correction unit 130, the calibration execution unit 140, the image synthesis unit 150, and the display unit 160 are integrated devices such as an ASIC (Application Specific Integrated Circuit) and an FPGA (Field Programmable Gate Array). Corresponding to The processing units 130, 140, 150, and 160 correspond to electronic circuits such as a CPU (Central Processing Unit) and an MPU (Micro Processing Unit).

上記の記憶部110は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子、またはハードディスク、光ディスクなどの記憶装置に対応する。   The storage unit 110 corresponds to, for example, a semiconductor memory device such as a random access memory (RAM), a read only memory (ROM), or a flash memory, or a storage device such as a hard disk or an optical disk.

次に、図3に示したキャリブレーション実行部140の構成について説明する。図7は、キャリブレーション実行部の構成を示す図である。図7に示すように、このキャリブレーション実行部140は、位置データ取得部140a、誤差補正判定部140b、オブジェクト探索部140c、有効画像判定部140d、カメラパラメータ調整部140eを有する。   Next, the configuration of the calibration execution unit 140 shown in FIG. 3 will be described. FIG. 7 is a diagram illustrating a configuration of the calibration execution unit. As shown in FIG. 7, the calibration execution unit 140 includes a position data acquisition unit 140a, an error correction determination unit 140b, an object search unit 140c, an effective image determination unit 140d, and a camera parameter adjustment unit 140e.

位置データ取得部140aは、車両50の位置データを取得し、位置データをオブジェクト探索部140cに出力する。この位置データは、車両50の位置座標を含む。位置データ取得部140aは、例えば、GPS(Global Positioning System)等の機能を利用して、車両50の位置座標を取得する。   The position data acquisition unit 140a acquires the position data of the vehicle 50 and outputs the position data to the object search unit 140c. This position data includes the position coordinates of the vehicle 50. The position data acquisition unit 140a acquires the position coordinates of the vehicle 50 by using a function such as GPS (Global Positioning System).

誤差補正判定部140bは、カメラパラメータ110eの調整を行うか否かを判定し、判定結果をカメラパラメータ調整部140eに出力する。例えば、誤差補正判定部140bは、外部の入力装置を介して、利用者からカメラパラメータの調整指示を受け付けた場合に、カメラパラメータ110eの調整を行うと判定する。また例えば、誤差補正判定部140bは、カメラパラメータを調整した前回のタイミングから経過した時間が、所定時間以上である場合に、カメラパラメータ110eの調整を行うと判定しても良い。この場合に、所定時間は、走行中の振動や季節の温度差によるボディの変化などのカメラパラメータに誤差を生じさせる原因を考慮して設定することが考えられる。   The error correction determination unit 140b determines whether to adjust the camera parameter 110e, and outputs the determination result to the camera parameter adjustment unit 140e. For example, the error correction determination unit 140b determines to adjust the camera parameter 110e when an adjustment instruction for the camera parameter is received from a user via an external input device. Further, for example, the error correction determination unit 140b may determine to adjust the camera parameter 110e when the time elapsed from the previous timing of adjusting the camera parameter is equal to or longer than a predetermined time. In this case, it is conceivable that the predetermined time is set in consideration of causes that cause errors in camera parameters such as vibration during traveling and changes in the body due to seasonal temperature differences.

オブジェクト探索部140cは、テンプレートデータ110cに記憶された対象物の形状データと、画像管理テーブル110aの各画像データとを比較して、対象物を含む画像データを抽出する。オブジェクト探索部140cは、対象物の画像データを対象物画像管理テーブル110dに記憶する。   The object search unit 140c compares the shape data of the object stored in the template data 110c with each image data in the image management table 110a, and extracts image data including the object. The object search unit 140c stores the image data of the object in the object image management table 110d.

ここで、オブジェクト探索部140cが対象物の画像データを抽出する処理の一例について説明する。オブジェクト探索部140cは、テンプレートデータ110cの形状データの向きや大きさを所定の割合で変化させながら、画像管理テーブル110aの各画像データとパターンマッチングを行う。そして、オブジェクト探索部140cは、形状データと一致する画像データを、対象物の画像データとして抽出する。   Here, an example of processing in which the object search unit 140c extracts image data of a target object will be described. The object search unit 140c performs pattern matching with each image data in the image management table 110a while changing the direction and size of the shape data of the template data 110c at a predetermined rate. Then, the object search unit 140c extracts image data that matches the shape data as the image data of the object.

オブジェクト探索部140cは、対象物の画像データを抽出した場合には、対象物の画像データを対象物画像管理テーブル110dに登録する。なお、オブジェクト探索部140cは、対の車載カメラが撮影した対象物の画像データを対応づけて、対象物画像管理テーブル110dに登録する。   When the object search unit 140c extracts the image data of the object, the object search unit 140c registers the image data of the object in the object image management table 110d. Note that the object search unit 140c associates the image data of the target object captured by the pair of vehicle-mounted cameras and registers them in the target object image management table 110d.

ここでは一例として、車載カメラCF、CRの組、車載カメラCR、CBの組、車載カメラCB、CLの組、車載カメラCL、CRの組を対の車載カメラとする。また、車載カメラCF、CRがそれぞれ撮影した画像データの組をAFRデータとし、車載カメラCR、CBがそれぞれ撮影した画像データの組をARBデータとする。また、車載カメラCB、CLがそれぞれ撮影した画像データの組をABLデータとし、車載カメラCL、CFがそれぞれ撮影した画像データの組をALFデータとする。   Here, as an example, a pair of in-vehicle cameras CF and CR, a pair of in-vehicle cameras CR and CB, a pair of in-vehicle cameras CB and CL, and a pair of in-vehicle cameras CL and CR are taken as a pair of in-vehicle cameras. A set of image data captured by the in-vehicle cameras CF and CR is AFR data, and a set of image data captured by the in-vehicle cameras CR and CB is ARB data. In addition, a set of image data captured by the in-vehicle cameras CB and CL is ABL data, and a set of image data captured by the in-vehicle cameras CL and CF is ALF data.

図8、図9を用いて、オブジェクト探索部140cが各種画像データを対象物画像管理テーブル110dに登録する処理を説明する。図8は、各種画像データを抽出するタイミングを示す図である。図8の横軸は時間軸である。図8に示すように、オブジェクト探索部140cは、時間t1において、ARFデータ1を抽出し、時間t2において、ALFデータ1を抽出する。また、オブジェクト探索部140cは、時間t3において、AFRデータ2を抽出し、時間t4において、ARBデータ1、ABLデータ1を抽出する。   A process in which the object search unit 140c registers various image data in the target object image management table 110d will be described with reference to FIGS. FIG. 8 is a diagram illustrating the timing of extracting various image data. The horizontal axis in FIG. 8 is the time axis. As shown in FIG. 8, the object search unit 140c extracts ARF data 1 at time t1, and extracts ALF data 1 at time t2. The object search unit 140c extracts AFR data 2 at time t3, and extracts ARB data 1 and ABL data 1 at time t4.

図9は、対象物画像管理テーブルのデータ構造の一例を示す図である。図9に示すように、対象物画像管理テーブル110dは、時間と、ALFデータ、AFRデータ、ARBデータ、ABLデータとを対応づけて記憶する。時間は、各種データを取得した時間を示す。   FIG. 9 is a diagram illustrating an example of the data structure of the object image management table. As shown in FIG. 9, the object image management table 110d stores time and ALF data, AFR data, ARB data, and ABL data in association with each other. The time indicates the time when various data are acquired.

オブジェクト探索部140cは、時間t1にAFRデータ1を抽出するので、時間t1のAFRデータに対応するデータ領域にAFRデータ1を登録する。オブジェクト探索部140cは、時間t2にALFデータ1を抽出するので、時間t2のALFデータに対応するデータ領域にALFデータ1を登録する。また、オブジェクト探索部140cは、AFRデータ1を、時間t2のAFRデータに対応するデータ領域に繰り越す。   Since the object search unit 140c extracts the AFR data 1 at time t1, the object search unit 140c registers the AFR data 1 in the data area corresponding to the AFR data at time t1. Since the object search unit 140c extracts ALF data 1 at time t2, ALF data 1 is registered in the data area corresponding to the ALF data at time t2. Further, the object search unit 140c carries over the AFR data 1 to the data area corresponding to the AFR data at time t2.

オブジェクト探索部140cは、時間t3にAFRデータ2を抽出するので、時間t3のAFRデータに対応するデータ領域にAFRデータ2を登録する。また、オブジェクト探索部140cは、ALFデータ1を、時間t3のALFデータに対応するデータ領域に繰り越す。   Since the object search unit 140c extracts the AFR data 2 at time t3, the AFR data 2 is registered in the data area corresponding to the AFR data at time t3. Further, the object search unit 140c carries the ALF data 1 to the data area corresponding to the ALF data at time t3.

オブジェクト探索部140cは、時間t4にARBデータ1、ABLデータ1を抽出する。このため、オブジェクト探索部140cは、時間t4のARBデータに対応するデータ領域にARBデータ1を登録する。また、オブジェクト探索部140cは、時間t4のABLデータに対応するデータ領域にABLデータ1を登録する。また、オブジェクト探索部140cは、ALFデータ1を、時間t4のALFデータに対応するデータ領域に繰り越す。オブジェクト探索部140cは、AFRデータ2を、時間t4のAFRデータに対応するデータ領域に繰り越す。上記のような処理をオブジェクト探索部140cが実行することで、オブジェクト探索部140cは、対象物の画像データを対象物画像管理テーブル110dに記憶する。   The object search unit 140c extracts ARB data 1 and ABL data 1 at time t4. Therefore, the object search unit 140c registers the ARB data 1 in the data area corresponding to the ARB data at time t4. The object search unit 140c registers ABL data 1 in the data area corresponding to the ABL data at time t4. Further, the object search unit 140c carries the ALF data 1 to the data area corresponding to the ALF data at time t4. The object search unit 140c carries the AFR data 2 to the data area corresponding to the AFR data at time t4. When the object search unit 140c executes the process as described above, the object search unit 140c stores the image data of the target in the target image management table 110d.

なお、オブジェクト探索部140cは、車両50の位置に応じて、対象物の画像データを対象物画像管理テーブル110dに登録する処理を制限してもよい。オブジェクト探索部140cは、位置データ取得部140aから取得する位置データと、キャリブレーションポイント110bとを比較する。そして、オブジェクト探索部140cは、車両50の位置が、キャリブレーションポイント110bの座標情報に含まれている場合には、対象物の画像データを対象物画像管理テーブル110dに登録する処理を継続する。このように車両50の位置が、キャリブレーションポイント110bの座標情報に含まれている場合には、周辺に対象物が存在する可能性が高いため、効率よく対象物の画像データを収集できる。   Note that the object search unit 140c may limit the process of registering the image data of the object in the object image management table 110d according to the position of the vehicle 50. The object search unit 140c compares the position data acquired from the position data acquisition unit 140a with the calibration point 110b. Then, when the position of the vehicle 50 is included in the coordinate information of the calibration point 110b, the object search unit 140c continues the process of registering the object image data in the object image management table 110d. As described above, when the position of the vehicle 50 is included in the coordinate information of the calibration point 110b, there is a high possibility that the object exists in the vicinity, and thus the image data of the object can be efficiently collected.

これに対して、オブジェクト探索部140cは、車両50の位置が、キャリブレーションポイント110bの座標情報に含まれてない場合には、対象物の画像データを対象物画像管理テーブル110dに登録する処理を中断する。このように車両50の位置が、キャリブレーションポイント110bの座標情報に含まれてない場合には、周辺に対象物が存在する可能性が低いため、オブジェクト探索部140cにかかる負荷を軽減させることができる。   In contrast, when the position of the vehicle 50 is not included in the coordinate information of the calibration point 110b, the object search unit 140c performs a process of registering the image data of the object in the object image management table 110d. Interrupt. As described above, when the position of the vehicle 50 is not included in the coordinate information of the calibration point 110b, there is a low possibility that an object exists in the vicinity, and thus the load on the object search unit 140c can be reduced. it can.

また、オブジェクト探索部140cは、ALFデータ、AFRデータ、ARBデータ、ABLデータをはじめて取得した場合には、対象物が存在するしないにかかわらず、対象物画像管理テーブル110dに登録してもよい。また、図9に示した例では、オブジェクト探索部140cは、AFRデータ1を取得した後に、AFRデータ2を取得した場合に、AFRデータ1をAFRデータ2で上書きしているがこれに限定されるものではない。オブジェクト探索部140cは、最適なデータを選択して、データを対象物画像管理テーブル110dに登録してもよい。例えば、オブジェクト探索部140cは、各データのうち、対象物の特徴点を多く含んでいる方の画像を最適なデータと判定する。   Further, when the object search unit 140c acquires ALF data, AFR data, ARB data, and ABL data for the first time, the object search unit 140c may register the object search unit 140c in the object image management table 110d regardless of whether the object exists. In the example shown in FIG. 9, when the object search unit 140c acquires the AFR data 2 after acquiring the AFR data 1, the AFR data 1 is overwritten with the AFR data 2. However, the present invention is not limited to this. It is not something. The object search unit 140c may select optimal data and register the data in the object image management table 110d. For example, the object search unit 140c determines that the image that includes many feature points of the target object among the data is the optimum data.

図7の説明に戻る。有効画像判定部140dは、対象物画像管理テーブル110dを参照し、ALFデータ、AFRデータ、ARBデータ、ABLデータが揃ったか否かを判定する。有効画像判定部140dは、ALFデータ、AFRデータ、ARBデータ、ABLデータが揃ったと判定した場合には、最初に登録されたデータの登録時間から、最後に登録されたデータの登録時間までの時間がTC時間以内であるか否かを判定する。   Returning to the description of FIG. The valid image determination unit 140d refers to the object image management table 110d and determines whether or not ALF data, AFR data, ARB data, and ABL data are prepared. When the valid image determination unit 140d determines that the ALF data, the AFR data, the ARB data, and the ABL data have been prepared, the time from the registration time of the first registered data to the registration time of the last registered data Is determined to be within TC time.

有効画像判定部140dは、最初に登録されたデータの登録時間から、最後に登録されたデータの登録時間までの時間がTC時間以内の場合には、ALFデータ、AFRデータ、ARBデータ、ABLデータを、カメラパラメータ調整部140eに出力する。   If the time from the registration time of the first registered data to the registration time of the last registered data is within TC time, the valid image determination unit 140d determines that the ALF data, AFR data, ARB data, and ABL data Is output to the camera parameter adjustment unit 140e.

図9に示す例では、時間t4にALFデータ、AFRデータ、ARBデータ、ABLデータが揃っている。このデータのうち、最初に登録されたデータはALFデータ1であり、登録時間はt2である。また、最後に登録されたデータはARBデータ1、ABLデータ1であり、登録時間はt4である。時間t2から時間t4までの時間がTC以内であるとする。この場合には、有効画像判定部140dは、ALFデータ1、AFRデータ2、ARBデータ1、ABLデータ1をカメラパラメータ調整部140eに出力する。   In the example shown in FIG. 9, ALF data, AFR data, ARB data, and ABL data are available at time t4. Of these data, the first registered data is ALF data 1, and the registration time is t2. The last registered data is ARB data 1 and ABL data 1, and the registration time is t4. It is assumed that the time from time t2 to time t4 is within TC. In this case, the valid image determination unit 140d outputs ALF data 1, AFR data 2, ARB data 1, and ABL data 1 to the camera parameter adjustment unit 140e.

カメラパラメータ調整部140eは、異なる重複領域の対象物の画像を基にして、カメラパラメータ110eを調整する処理部である。この異なる重複領域の対象物の画像は、上記のALFデータ、AFRデータ、ARBデータ、ABLデータに対応する。また、カメラパラメータ調整部140eは、カメラパラメータ110eの調整を行う旨の判定結果を誤差補正判定部140bから通知されている場合に、カメラパラメータ110eの調整を行うものとする。   The camera parameter adjustment unit 140e is a processing unit that adjusts the camera parameter 110e based on images of objects in different overlapping areas. The images of the objects in the different overlapping areas correspond to the above ALF data, AFR data, ARB data, and ABL data. The camera parameter adjustment unit 140e adjusts the camera parameter 110e when the determination result indicating that the camera parameter 110e is adjusted is notified from the error correction determination unit 140b.

以下において、カメラパラメータ調整部140eの処理を具体的に説明する。まず、カメラパラメータ調整部140eは、対象物の特徴点の座標を算出する。そして、カメラパラメータ調整部140eは、各特徴点の座標の誤差を算出し、誤差が最大となる車載カメラを判定する。誤差が大きいほど、該当する車載カメラのカメラパラメータがずれていることを意味する。   Hereinafter, the processing of the camera parameter adjustment unit 140e will be specifically described. First, the camera parameter adjustment unit 140e calculates the coordinates of the feature points of the object. Then, the camera parameter adjustment unit 140e calculates the error of the coordinates of each feature point, and determines the in-vehicle camera that maximizes the error. A larger error means that the camera parameter of the corresponding in-vehicle camera is shifted.

ここでは一例として、ALFデータを用いて説明する。このALFデータは上記のように、車載カメラCLが撮影した対象物の画像データと、車載カメラCFが撮影した対象物の画像データとを含んでおり、実空間上で各対象物は同一である。   Here, as an example, description will be made using ALF data. As described above, the ALF data includes the image data of the object photographed by the vehicle-mounted camera CL and the image data of the object photographed by the vehicle-mounted camera CF, and each object is the same in real space. .

図10は、カメラパラメータ調整部の処理を説明するための図である。図10の対象物DLは、車載カメラCLが撮影した対象物に対応し、対象物DFは、車載カメラCFが撮影した対象物に対応する。   FIG. 10 is a diagram for explaining processing of the camera parameter adjustment unit. The object DL in FIG. 10 corresponds to the object photographed by the vehicle-mounted camera CL, and the object DF corresponds to the object photographed by the vehicle-mounted camera CF.

カメラパラメータ調整部140eは、車載カメラCLが撮影した対象物DLの特徴点DL1〜DL4を、所定の位置を基準としたグローバル座標系の座標に変換する。また、カメラパラメータ調整部140eは、車載カメラCFが撮影した対象物DFの特徴点DF1〜DF4を、グローバル座標系の座標に変換する。例えば、カメラパラメータ調整部140eは、画像上の座標とグローバル座標系の座標とを対応付けた座標変換テーブルを用いて、特徴点の座標を求める。   The camera parameter adjustment unit 140e converts the feature points DL1 to DL4 of the object DL photographed by the in-vehicle camera CL into coordinates in the global coordinate system with a predetermined position as a reference. In addition, the camera parameter adjustment unit 140e converts the feature points DF1 to DF4 of the object DF photographed by the in-vehicle camera CF into coordinates in the global coordinate system. For example, the camera parameter adjustment unit 140e obtains the coordinates of the feature points using a coordinate conversion table that associates the coordinates on the image with the coordinates of the global coordinate system.

カメラパラメータ調整部140eは、グローバル座標のDL1とDF1との誤差d1、DL2とDF2との誤差d2、DL3とDF3との誤差d3、DL4とDF4との誤差d4を算出し、d1、d2、d3、d4を平均化することで平均誤差を算出する。具体的に、平均誤差は
平均誤差=(d1+d2+d3+d4)/4
となる。
The camera parameter adjustment unit 140e calculates an error d1 between DL1 and DF1 of global coordinates, an error d2 between DL2 and DF2, an error d3 between DL3 and DF3, and an error d4 between DL4 and DF4, and d1, d2, d3 , D4 is averaged to calculate an average error. Specifically, the average error is average error = (d1 + d2 + d3 + d4) / 4.
It becomes.

カメラパラメータ調整部140eは、上記処理と同様の処理をAFRデータ、ARBデータ、ABLデータに対して実行し、各データから平均誤差を算出する。以下では、ALFデータから求めた平均誤差をD1、AFRデータから求めた平均誤差をD2、ARBデータから求めた平均誤差をD3、ABLデータから求めた平均誤差をD4とする。   The camera parameter adjustment unit 140e performs the same process as the above process on the AFR data, ARB data, and ABL data, and calculates an average error from each data. Hereinafter, the average error obtained from the ALF data is D1, the average error obtained from the AFR data is D2, the average error obtained from the ARB data is D3, and the average error obtained from the ABL data is D4.

カメラパラメータ調整部140eは、各平均誤差の所定の組み合わせの和となるDC1〜DC4を算出し、算出結果に基づいて調整対象の車載カメラを判定する。具体的に、カメラパラメータ調整部140eは、DC1〜DC4を
DC1=D1+D2
DC2=D2+D3
DC3=D3+D4
DC4=D4+D1
により算出する。
The camera parameter adjustment unit 140e calculates DC1 to DC4 that are the sum of a predetermined combination of each average error, and determines the vehicle-mounted camera to be adjusted based on the calculation result. Specifically, the camera parameter adjustment unit 140e sets DC1 to DC4 to DC1 = D1 + D2.
DC2 = D2 + D3
DC3 = D3 + D4
DC4 = D4 + D1
Calculated by

カメラパラメータ調整部140eは、DC1〜DC4のうち最大のものを判定し、判定結果に基づいて調整対象の車載カメラを特定する。カメラパラメータ調整部140eは、DC1が最大となる場合には、車載カメラCFを調整対象の車載カメラとする。カメラパラメータ調整部140eは、DC2が最大となる場合には、車載カメラCRを調整対象の車載カメラとする。カメラパラメータ調整部140eは、DC3が最大となる場合には、車載カメラCBを調整対象の車載カメラとする。カメラパラメータ調整部140eは、DC4が最大となる場合には、車載カメラCLを調整対象の車載カメラとする。   The camera parameter adjustment unit 140e determines the largest one of DC1 to DC4, and identifies the vehicle-mounted camera to be adjusted based on the determination result. The camera parameter adjustment unit 140e sets the in-vehicle camera CF as the adjustment target in-vehicle camera when DC1 is maximum. The camera parameter adjustment unit 140e sets the in-vehicle camera CR as the in-vehicle camera to be adjusted when DC2 is maximum. The camera parameter adjustment unit 140e sets the vehicle-mounted camera CB as the vehicle-mounted camera to be adjusted when DC3 is maximized. The camera parameter adjustment unit 140e sets the vehicle-mounted camera CL as the vehicle-mounted camera to be adjusted when DC4 is maximized.

続いて、カメラパラメータ調整部140eは、ALFデータ、AFRデータ、ARBデータ、ABLデータそれぞれについて、実際の特徴点間の寸法と、画像上から求めた対象物の特徴点間の寸法とのずれを示す評価関数fを作成する。この評価関数fの値は、カメラパラメータ110eの値に依存する。また、実際の特徴点間の寸法は、テンプレートデータ110cに登録されている。   Subsequently, the camera parameter adjustment unit 140e calculates a deviation between the actual feature point dimension and the target feature point dimension obtained from the image for each of ALF data, AFR data, ARB data, and ABL data. The evaluation function f shown is created. The value of this evaluation function f depends on the value of the camera parameter 110e. The actual dimension between feature points is registered in the template data 110c.

カメラパラメータ調整部140eは、調整対象となるカメラパラメータの値を所定の割合で変化させていき、各評価関数fの総和が最小となるカメラパラメータの値を算出する。カメラパラメータ調整部140eは、算出したカメラパラメータの値により、カメラパラメータ110eを更新する。なお、カメラパラメータ調整部140eは、例えば、特開2009−294109に記載された技術を利用して、カメラパラメータの値を算出してもよい。   The camera parameter adjustment unit 140e changes the value of the camera parameter to be adjusted at a predetermined rate, and calculates the value of the camera parameter that minimizes the sum of the evaluation functions f. The camera parameter adjustment unit 140e updates the camera parameter 110e with the calculated camera parameter value. Note that the camera parameter adjustment unit 140e may calculate the value of the camera parameter using, for example, a technique described in Japanese Patent Application Laid-Open No. 2009-294109.

次に、本実施例2にかかるキャリブレーション装置100の処理手順について説明する。図11は、本実施例2にかかるキャリブレーション装置の処理手順を示すフローチャートである。図11に示す処理は、例えば、車載カメラCF、CR、CB、CLから画像データを取得したことを契機にして実行される。   Next, a processing procedure of the calibration apparatus 100 according to the second embodiment will be described. FIG. 11 is a flowchart of a process procedure of the calibration apparatus according to the second embodiment. The process shown in FIG. 11 is executed when the image data is acquired from the in-vehicle cameras CF, CR, CB, and CL, for example.

図11に示すように、キャリブレーション装置100は、オーバーラップ上の画像データを取得し(ステップS101)、該当オーバーラップ部分において、初の画像データか否かを判定する(ステップS102)。キャリブレーション装置100は、該当オーバーラップ部分において、初の画像データではない場合には(ステップS102,No)、最適な画像データを判定し、最適な画像データを対象物画像管理テーブル110dに保存する(ステップS103)。キャリブレーション装置100は、最適な画像データを対象物画像管理テーブル110dに保存した後に、ステップS105に移行する。   As shown in FIG. 11, the calibration apparatus 100 acquires image data on the overlap (step S101), and determines whether or not the overlapped image data is the first image data (step S102). The calibration device 100 determines the optimum image data in the overlap portion when it is not the first image data (No in step S102), and stores the optimum image data in the object image management table 110d. (Step S103). The calibration apparatus 100 stores optimal image data in the object image management table 110d, and then proceeds to step S105.

キャリブレーション装置100は、該当オーバーラップ部分において、初の画像データの場合には(ステップS102,Yes)、画像データを対象物画像管理テーブル110dに保存する(ステップS104)。   The calibration device 100 stores the image data in the object image management table 110d (step S104) when the image data is the first image data in the overlap portion (step S102, Yes).

キャリブレーション装置100は、TC時間以内に画像データが全てそろっていない場合には(ステップS105,No)、再度ステップS101に移行する。一方、キャリブレーション装置100は、TC時間以内に画像データが全てそろった場合には(ステップS105,Yes)、カメラパラメータを調整するか否かを判定する(ステップS106)。   The calibration device 100 proceeds to step S101 again when all the image data is not available within the TC time (No in step S105). On the other hand, the calibration apparatus 100 determines whether or not to adjust the camera parameters (step S106) when all the image data is available within the TC time (step S105, Yes).

キャリブレーション装置100は、カメラパラメータを調整する場合には(ステップS106,Yes)、カメラパラメータ調整処理を実行する(ステップS107)。一方、キャリブレーション装置100は、カメラパラメータを調整しない場合には(ステップS106,No)、処理を終了する。   When adjusting the camera parameter (Yes in step S106), the calibration apparatus 100 executes a camera parameter adjustment process (step S107). On the other hand, the calibration device 100 ends the process when the camera parameter is not adjusted (No in step S106).

次に、図11のステップS107に示したカメラパラメータ調整処理の処理手順について説明する。図12は、カメラパラメータ調整処理の処理手順を示すフローチャートである。キャリブレーション実行部140は、D1〜D4を算出する(ステップS201)。   Next, the process procedure of the camera parameter adjustment process shown in step S107 of FIG. 11 will be described. FIG. 12 is a flowchart illustrating a processing procedure of camera parameter adjustment processing. The calibration execution unit 140 calculates D1 to D4 (step S201).

キャリブレーション実行部140は、誤差が閾値未満の場合には(ステップS202,Yes)、カメラパラメータ調整処理を終了する。キャリブレーション実行部140は、誤差が閾値以上の場合には(ステップS202,No)、カメラ候補判定処理を実行する(ステップS203)。   If the error is less than the threshold (Yes in step S202), the calibration execution unit 140 ends the camera parameter adjustment process. If the error is greater than or equal to the threshold (No at Step S202), the calibration execution unit 140 executes camera candidate determination processing (Step S203).

キャリブレーション実行部140は、調整候補の車載カメラと、前回調整したカメラとが同じ場合には(ステップS204,Yes)、カメラパラメータ調整処理を終了する。一方、キャリブレーション実行部140は、調整候補の車載カメラと、前回調整したカメラとが異なる場合には(ステップS204,No)、調整候補の車載カメラのカメラパラメータを算出する(ステップS205)。   The calibration execution unit 140 ends the camera parameter adjustment process when the adjustment candidate in-vehicle camera and the previously adjusted camera are the same (Yes in step S204). On the other hand, when the adjustment candidate in-vehicle camera is different from the previously adjusted camera (No in step S204), the calibration execution unit 140 calculates camera parameters of the adjustment candidate in-vehicle camera (step S205).

キャリブレーション実行部140は、カメラパラメータ110eを調整する(ステップS206)。キャリブレーション実行部140は、調整前のカメラパラメータと調整後のカメラパラメータとの差分の絶対値が閾値未満の場合には(ステップS207,Yes)、カメラパラメータ調整処理を終了する。一方、キャリブレーション実行部140は、調整前のカメラパラメータと調整後のカメラパラメータとの差分の絶対値が閾値以上の場合には(ステップS207,No)、再度ステップS201に移行する。   The calibration execution unit 140 adjusts the camera parameter 110e (step S206). When the absolute value of the difference between the camera parameter before adjustment and the camera parameter after adjustment is less than the threshold (Yes in step S207), the calibration execution unit 140 ends the camera parameter adjustment process. On the other hand, if the absolute value of the difference between the camera parameter before adjustment and the camera parameter after adjustment is equal to or greater than the threshold (No in step S207), the calibration execution unit 140 proceeds to step S201 again.

次に、図12のステップS203に示した調整候補判定処理の処理手順について説明する。図13は、調整候補判定処理の処理手順を示すフローチャートである。キャリブレーション実行部140は、Nに車載カメラの台数を代入し(ステップS301)、誤差の最大値Dmaxを初期値に設定する(ステップS302)。   Next, the processing procedure of the adjustment candidate determination process shown in step S203 of FIG. 12 will be described. FIG. 13 is a flowchart illustrating the processing procedure of the adjustment candidate determination process. The calibration execution unit 140 substitutes the number of vehicle-mounted cameras for N (step S301), and sets the maximum error value Dmax to an initial value (step S302).

キャリブレーション実行部140は、iに1を代入し(ステップS303)、iの値がNの値より大きい場合には(ステップS304,Yes)、処理を終了する。一方、キャリブレーション実行部140は、iの値がNの値以下の場合には(ステップS304,No)、DmaxがDCi未満であるか否かを判定する(ステップS305)。   The calibration execution unit 140 substitutes 1 for i (step S303), and when the value of i is larger than the value of N (step S304, Yes), the process is terminated. On the other hand, when the value of i is equal to or smaller than the value of N (step S304, No), the calibration execution unit 140 determines whether Dmax is less than DCi (step S305).

キャリブレーション実行部140は、Dmaxの値がDCiの値以上の場合には(ステップS305,No)、ステップS308に移行する。一方、キャリブレーション実行部140は、Dmaxの値がDCiの値未満の場合には(ステップS305,Yes)、DmaxにDCiの値を代入する(ステップS306)。   If the value of Dmax is greater than or equal to the value of DCi (No at Step S305), the calibration execution unit 140 proceeds to Step S308. On the other hand, when the value of Dmax is less than the value of DCi (step S305, Yes), the calibration execution unit 140 substitutes the value of DCi for Dmax (step S306).

キャリブレーション実行部140は、DCiに対応する車載カメラを調整カメラ候補に設定する(ステップS307)。キャリブレーション実行部140は、iの値に1を加算した値をiに代入し(ステップS308)、再度ステップS304に移行する。   The calibration execution unit 140 sets a vehicle-mounted camera corresponding to DCi as an adjustment camera candidate (step S307). The calibration execution unit 140 substitutes a value obtained by adding 1 to the value of i for i (step S308), and proceeds to step S304 again.

次に、キャリブレーション実行部140が画像データを対象物画像管理テーブル110dに登録する処理手順について説明する。図14は、画像データを対象物画像管理テーブルに登録する処理手順を示すフローチャートである。例えば、図14に示す処理は、キャリブレーション実行部140が車両の位置データを取得したことを契機にして実行される。   Next, a processing procedure in which the calibration execution unit 140 registers image data in the object image management table 110d will be described. FIG. 14 is a flowchart showing a processing procedure for registering image data in the object image management table. For example, the process illustrated in FIG. 14 is executed when the calibration execution unit 140 acquires vehicle position data.

図14に示すように、キャリブレーション実行部140は、位置データを取得し(ステップS401)、車両の位置がキャリブレーションポイントの付近であるか否かを判定する(ステップS402)。   As shown in FIG. 14, the calibration execution unit 140 acquires position data (step S401), and determines whether or not the position of the vehicle is near the calibration point (step S402).

キャリブレーション実行部140は、車両の位置がキャリブレーションポイントの付近ではない場合には(ステップS402,No)、処理を終了する。一方、キャリブレーション実行部140は、車両の位置がキャリブレーションポイントの付近の場合には(ステップS402,Yes)、対の車載カメラによって撮影されたオーバーラップ部の画像データをそれぞれ取得する(ステップS403)。   When the position of the vehicle is not near the calibration point (No at Step S402), the calibration execution unit 140 ends the process. On the other hand, when the position of the vehicle is near the calibration point (step S402, Yes), the calibration execution unit 140 obtains the image data of the overlap portion captured by the pair of in-vehicle cameras (step S403). ).

キャリブレーション実行部140は、画像データがテンプレートの形状データと一致しない場合には(ステップS404,No)、処理を終了する。一方、キャリブレーション実行部140は、画像データがテンプレートの形状データと一致する場合には(ステップS404,Yes)、画像データを対象物画像管理テーブルに保存する(ステップS405)。   If the image data does not match the shape data of the template (No at step S404), the calibration execution unit 140 ends the process. On the other hand, if the image data matches the shape data of the template (step S404, Yes), the calibration execution unit 140 stores the image data in the object image management table (step S405).

上述してきたように、キャリブレーション装置100は、車載カメラCF、CR、CB、CLが撮影した重複領域ALF、AFR、ARB、ABLの画像に対象物が含まれている場合に、重複領域の画像を対象物画像管理テーブル110dに登録しておく。また、キャリブレーション装置100は、対象物画像管理テーブル110dに、ALFデータ、AFRデータ、ALBデータ、ABLデータが揃った場合に、対象物の特徴点の誤差とテンプレートデータ110cとを基にして、カメラパラメータ110eを調整する。カメラパラメータ110eの調整で必要となる対象物画像管理テーブル110dのALFデータ、AFRデータ、ABLデータは、車両走行中に順次記憶することができる。このため、キャリブレーション装置100によれば、車両の走行中にカメラのパラメータを修正することができるという効果を奏する。   As described above, the calibration apparatus 100 is configured to display an image of an overlapping area when an object is included in the images of the overlapping areas ALF, AFR, ARB, and ABL captured by the in-vehicle cameras CF, CR, CB, and CL. Are registered in the object image management table 110d. Further, the calibration apparatus 100, when ALF data, AFR data, ALB data, and ABL data are prepared in the object image management table 110d, based on the error of the feature point of the object and the template data 110c. Adjust the camera parameter 110e. The ALF data, AFR data, and ABL data of the object image management table 110d necessary for adjusting the camera parameter 110e can be sequentially stored while the vehicle is traveling. For this reason, according to the calibration apparatus 100, there exists an effect that the parameter of a camera can be corrected during driving | running | working of a vehicle.

また、上記キャリブレーション装置100は、ALFデータ、AFRデータ、ARBデータ、ABLデータが、所定の時間幅TC内に撮影された場合に、かかるALFデータ、AFRデータ、ARBデータ、ABLデータを利用してカメラパラメータを調整する。このため、車載カメラの長期的な経年変化の影響を除外して、カメラパラメータを精度よく調整することができる。   The calibration apparatus 100 uses the ALF data, AFR data, ARB data, and ABL data when ALF data, AFR data, ARB data, and ABL data are captured within a predetermined time width TC. Adjust the camera parameters. For this reason, it is possible to accurately adjust the camera parameters by excluding the influence of long-term aging of the in-vehicle camera.

なお、時間幅TCを長く設定すると、人の乗り降りが発生し、車載カメラの状態を一定に保つことができなくなる。このため、キャリブレーション装置100は、時間幅TCを短く設定することで、例えば、利用者が車両に乗り降りすることによる影響を除外して、カメラパラメータを精度よく調整することができる。   If the time width TC is set to be long, people get on and off, and the state of the in-vehicle camera cannot be kept constant. For this reason, the calibration apparatus 100 can adjust the camera parameters with high accuracy by setting the time width TC to be short, for example, by removing the influence of the user getting on and off the vehicle.

また、上記キャリブレーション装置100は、評価関数を利用して、対象物の特徴点の誤差が最小となるようにカメラパラメータを調整する。このため、簡易な方法により、カメラパラメータを再調整することが可能となる。   Further, the calibration apparatus 100 adjusts the camera parameters using the evaluation function so that the error of the feature point of the object is minimized. For this reason, it is possible to readjust the camera parameters by a simple method.

なお、本実施例2では、移動体の一例として、車両を用いて実施例の説明を行ったがこれに限定されるものではない。例えば、路面電車、自動二輪車等の車両を含む移動体にも同様にして本願発明を適用することができる。   In the second embodiment, the embodiment has been described using a vehicle as an example of the moving body, but the present invention is not limited to this. For example, the present invention can be similarly applied to a moving body including a vehicle such as a streetcar and a motorcycle.

ところで、図3に示したキャリブレーション装置100の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、キャリブレーション装置100の分散、統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。   Incidentally, each component of the calibration apparatus 100 shown in FIG. 3 is functionally conceptual and does not necessarily need to be physically configured as illustrated. That is, the specific form of distribution and integration of the calibration apparatus 100 is not limited to that shown in the figure, and all or a part thereof can be functionally or physically in arbitrary units according to various loads or usage conditions. It can be configured to be distributed and integrated.

例えば、キャリブレーション装置100に通信機能を持たせ、キャリブレーション実行部140の機能をネットワーク上のサーバ装置に持たせ、テンプレートデータ110c、対象物画像管理テーブル110dをサーバ装置に記憶させる。そして、キャリブレーション装置100は、各画像データをサーバ装置に送信し、カメラパラメータ110eの修正依頼を行ってもよい。   For example, the calibration apparatus 100 is provided with a communication function, the function of the calibration execution unit 140 is provided in a server apparatus on the network, and the template data 110c and the object image management table 110d are stored in the server apparatus. Then, the calibration apparatus 100 may transmit each image data to the server apparatus and make a correction request for the camera parameter 110e.

キャリブレーション装置100は、既知のパーソナルコンピュータ、ワークステーション、携帯電話、PHS端末、移動体通信端末またはPDAなどの情報処理装置に、キャリブレーション装置100の各機能を搭載することによって実現することもできる。   The calibration apparatus 100 can also be realized by mounting each function of the calibration apparatus 100 on an information processing apparatus such as a known personal computer, workstation, mobile phone, PHS terminal, mobile communication terminal, or PDA. .

図15は、実施例にかかるキャリブレーション装置を構成するコンピュータのハードウェア構成を示す図である。図15に示すように、このコンピュータ200は、各種演算処理を実行するCPU(Central Processing Unit)201と、ユーザからのデータの入力を受け付ける入力装置202と、モニタ203を有する。また、コンピュータ200は、記憶媒体からプログラム等を読取る媒体読み取り装置204と、ネットワークを介して他のコンピュータとの間でデータの授受を行うネットワークインターフェース装置205を有する。また、コンピュータ200は、画像を撮影する複数のカメラ206と、各種情報を一時記憶するRAM(Random Access Memory)207と、ハードディスク装置208を有する。各装置201〜208は、バス209に接続される。   FIG. 15 is a diagram illustrating a hardware configuration of a computer configuring the calibration apparatus according to the embodiment. As illustrated in FIG. 15, the computer 200 includes a CPU (Central Processing Unit) 201 that executes various arithmetic processes, an input device 202 that receives input of data from a user, and a monitor 203. The computer 200 includes a medium reading device 204 that reads a program and the like from a storage medium, and a network interface device 205 that exchanges data with other computers via a network. The computer 200 also includes a plurality of cameras 206 that capture images, a RAM (Random Access Memory) 207 that temporarily stores various types of information, and a hard disk device 208. Each device 201 to 208 is connected to a bus 209.

そして、ハードディスク装置208には、図3に示した画像補正部130、キャリブレーション実行部140に対応するキャリブレーションプログラム208aを記憶する。また、ハードディスク装置208は、図3に示した画像合成部150に対応する画像合成プログラム208bを記憶する。また、ハードディスク装置208は、各種データ208cを記憶する。この各種データ208cは、図3の各種データ110a〜110eに対応する。   The hard disk device 208 stores a calibration program 208a corresponding to the image correction unit 130 and the calibration execution unit 140 shown in FIG. The hard disk device 208 also stores an image composition program 208b corresponding to the image composition unit 150 shown in FIG. The hard disk device 208 stores various data 208c. The various data 208c corresponds to the various data 110a to 110e in FIG.

CPU201がキャリブレーションプログラム208aをハードディスク装置208から読み出してRAM207に展開することにより、キャリブレーションプログラム208aは、キャリブレーションプロセス207aとして機能するようになる。CPU201が画像合成プログラム208bをハードディスク装置208から読み出してRAM207に展開することにより、画像合成プログラム208bは、画像合成プロセス207bとして機能するようになる。また、CPU201は、各種データ208cを読み出して、RAM207に格納する。   When the CPU 201 reads the calibration program 208a from the hard disk device 208 and develops it in the RAM 207, the calibration program 208a functions as the calibration process 207a. When the CPU 201 reads the image composition program 208b from the hard disk device 208 and develops it in the RAM 207, the image composition program 208b functions as the image composition process 207b. Further, the CPU 201 reads out various data 208 c and stores it in the RAM 207.

キャリブレーションプロセス207aは、重複領域の画像データを利用して、各種データ207cに含まれるカメラパラメータを調整する。画像合成プロセス207bは、各種データ207cに含まれるカメラパラメータを基にして、各画像データを合成し、モニタに合成画像を表示させる。   The calibration process 207a adjusts camera parameters included in the various data 207c using the image data of the overlapping area. The image synthesis process 207b synthesizes each image data based on the camera parameters included in the various data 207c and displays the synthesized image on the monitor.

なお、上記のキャリブレーションプログラム208a、画像合成プログラム208bは、必ずしもハードディスク装置208に格納されている必要はない。例えば、CD−ROM等の記憶媒体に記憶されたキャリブレーションプログラム208a、画像合成プログラム208bを、コンピュータ200が読み出して実行するようにしてもよい。また、公衆回線、インターネット、LAN(Local Area Network)、WAN(Wide Area Network)等にこのキャリブレーションプログラム208a、画像合成プログラム208bを記憶させておいてもよい。この場合、コンピュータ200がこれらからキャリブレーションプログラム208a、画像合成プログラム208bを読み出して実行するようにしてもよい。   Note that the calibration program 208 a and the image composition program 208 b are not necessarily stored in the hard disk device 208. For example, the computer 200 may read and execute the calibration program 208a and the image composition program 208b stored in a storage medium such as a CD-ROM. Further, the calibration program 208a and the image composition program 208b may be stored in a public line, the Internet, a LAN (Local Area Network), a WAN (Wide Area Network), or the like. In this case, the computer 200 may read and execute the calibration program 208a and the image composition program 208b from these.

以上の各実施例を含む実施形態に関し、さらに以下の付記を開示する。   The following supplementary notes are further disclosed with respect to the embodiments including the above examples.

(付記1)対になるカメラの撮影範囲が重複する領域を示す重複領域の画像を、異なる重複領域毎に取得する画像取得部と、
所定の形状の対象物の画像と前記重複領域の画像とを比較して、前記重複領域の画像に含まれる前記対象物の画像を抽出し、抽出した対象物の画像を該画像を撮影したカメラと対応づけて記憶部に保存する対象物抽出部と、
前記異なる重複領域毎に、前記対になるカメラがそれぞれ撮影した対象物の画像が前記記憶部に記憶された場合に、各対象物の特徴点の位置と所定の寸法とに基づいて、各特徴点の位置の誤差を算出する誤差算出部と、
を備えたことを特徴とする画像処理装置。
(Additional remark 1) The image acquisition part which acquires the image of the duplication area | region which shows the area | region where the imaging range of the camera which becomes a pair overlaps for every different duplication area | region,
A camera that compares an image of an object having a predetermined shape with an image of the overlapping area, extracts an image of the object included in the image of the overlapping area, and captures the image of the extracted object An object extraction unit to be stored in the storage unit in association with
For each of the different overlapping areas, when an image of the object photographed by the pair of cameras is stored in the storage unit, each feature is based on the position of a feature point of each object and a predetermined size. An error calculation unit for calculating an error of the position of the point;
An image processing apparatus comprising:

(付記2)前記カメラの位置または角度を含むパラメータに基づいて、各カメラが撮影した画像を合成する画像合成部と、前記誤差算出部が算出した誤差に基づいて前記パラメータを調整するパラメータ調整部とを更に備えたことを特徴とする付記1に記載の画像処理装置。 (Additional remark 2) Based on the parameter containing the position or angle of the said camera, the image synthetic | combination part which synthesize | combines the image which each camera image | photographed, and the parameter adjustment part which adjusts the said parameter based on the error which the said error calculation part calculated The image processing apparatus according to appendix 1, further comprising:

(付記3)前記対象物抽出部は、前記対象物の画像を前記記憶部に保存する場合に、前記対象物の画像が撮影された時間を対応づけて記憶し、前記誤差算出部は、前記記憶部に記憶された異なる重複領域毎の対象物の画像の撮影時間の差が所定時間内の場合に、各特徴点の位置の誤差を算出すること特徴とする付記1または2に記載の画像処理装置。 (Additional remark 3) When the said object extraction part preserve | saves the image of the said object in the said memory | storage part, it matches and memorize | stores the time when the image of the said object was image | photographed, The said error calculation part is the said The image according to appendix 1 or 2, wherein an error of a position of each feature point is calculated when a difference in photographing time of the image of the object for each different overlapping area stored in the storage unit is within a predetermined time. Processing equipment.

(付記4)前記パラメータ調整部は、対のカメラに対応する対象物の特徴点の誤差の総和が最小となるように前記パラメータを調整することを特徴とする付記2または3に記載の画像処理装置。 (Additional remark 4) The said parameter adjustment part adjusts the said parameter so that the total of the error of the feature point of the target object corresponding to a pair of cameras may become the minimum, The image processing of Additional remark 2 or 3 characterized by the above-mentioned apparatus.

(付記5)コンピュータに、
対になるカメラの撮影範囲が重複する領域を示す重複領域の画像を、異なる重複領域毎に取得する画像取得手順と、
所定の形状の対象物の画像と前記重複領域の画像とを比較して、前記重複領域の画像に含まれる前記対象物の画像を抽出し、抽出した対象物の画像を該画像を撮影したカメラと対応づけて記憶部に保存する対象物抽出手順と、
前記異なる重複領域毎に、前記対になるカメラがそれぞれ撮影した対象物の画像が前記記憶部に記憶された場合に、各対象物の特徴点の位置と所定の寸法とに基づいて、各特徴点の位置の誤差を算出する誤差算出手順と、
を実行させることを特徴とする画像処理プログラム。
(Appendix 5)
An image acquisition procedure for acquiring an image of an overlapping area indicating an area where the shooting ranges of the paired cameras overlap, for each different overlapping area;
A camera that compares an image of an object having a predetermined shape with an image of the overlapping area, extracts an image of the object included in the image of the overlapping area, and captures the image of the extracted object And an object extraction procedure to be stored in the storage unit in association with
For each of the different overlapping areas, when an image of the object photographed by the pair of cameras is stored in the storage unit, each feature is based on the position of a feature point of each object and a predetermined size. An error calculation procedure for calculating the error of the point position;
An image processing program for executing

(付記6)前記カメラの位置または角度を含むパラメータに基づいて、各カメラが撮影した画像を合成する画像合成手順と、前記誤差算出手順が算出した誤差に基づいて前記パラメータを調整するパラメータ調整手順とを更にコンピュータに実行させることを特徴とする付記5に記載の画像処理プログラム。 (Appendix 6) An image composition procedure for compositing images captured by the cameras based on parameters including the position or angle of the camera, and a parameter adjustment procedure for adjusting the parameters based on the error calculated by the error calculation procedure The image processing program according to appendix 5, wherein the computer is further executed.

(付記7)前記対象物抽出手順は、前記対象物の画像を前記記憶部に保存する場合に、前記対象物の画像が撮影された時間を対応づけて記憶し、前記誤差算出手順は、前記記憶部に記憶された異なる重複領域毎の対象物の撮影時間の差が所定時間内の場合に、各特徴点の位置の誤差を算出すること特徴とする付記5または6に記載の画像処理プログラム。 (Supplementary note 7) When the object extraction procedure stores the image of the object in the storage unit, the object extraction procedure stores the time when the image of the object was captured in association with each other, and the error calculation procedure includes: The image processing program according to appendix 5 or 6, wherein an error in the position of each feature point is calculated when a difference in shooting time of the object for each different overlapping area stored in the storage unit is within a predetermined time. .

(付記8)前記パラメータ調整手順は、対のカメラに対応する対象物の特徴点の誤差の総和が最小となるように前記パラメータを調整することを特徴とする付記6または7に記載の画像処理プログラム。 (Supplementary note 8) The image processing according to supplementary note 6 or 7, wherein the parameter adjustment procedure adjusts the parameter so that a sum of errors of feature points of an object corresponding to a pair of cameras is minimized. program.

10 画像処理装置
11 画像取得部
12 対象物抽出部
13 記憶部
14 誤差算出部
DESCRIPTION OF SYMBOLS 10 Image processing apparatus 11 Image acquisition part 12 Object extraction part 13 Storage part 14 Error calculation part

Claims (5)

対になるカメラの撮影範囲が重複する領域を示す重複領域の画像を、異なる重複領域毎に取得する画像取得部と、
所定の形状の対象物の画像と前記重複領域の画像とを比較して、前記重複領域の画像に含まれる前記対象物の画像を抽出し、抽出した対象物の画像を該画像を撮影したカメラと対応づけて記憶部に保存する対象物抽出部と、
前記異なる重複領域毎に、前記対になるカメラがそれぞれ撮影した対象物の画像が前記記憶部に記憶された場合に、各対象物の特徴点の位置と所定の寸法とに基づいて、各特徴点の位置の誤差を算出する誤差算出部と、
を備えたことを特徴とする画像処理装置。
An image acquisition unit that acquires an image of an overlapping area indicating an area where the shooting ranges of the paired cameras overlap, for each different overlapping area;
A camera that compares an image of an object having a predetermined shape with an image of the overlapping area, extracts an image of the object included in the image of the overlapping area, and captures the image of the extracted object An object extraction unit to be stored in the storage unit in association with
For each of the different overlapping areas, when an image of the object photographed by the pair of cameras is stored in the storage unit, each feature is based on the position of a feature point of each object and a predetermined size. An error calculation unit for calculating an error of the position of the point;
An image processing apparatus comprising:
前記カメラの位置または角度を含むパラメータに基づいて、各カメラが撮影した画像を合成する画像合成部と、前記誤差算出部が算出した誤差に基づいて前記パラメータを調整するパラメータ調整部とを更に備えたことを特徴とする請求項1に記載の画像処理装置。   An image synthesis unit that synthesizes images captured by the cameras based on a parameter including the position or angle of the camera, and a parameter adjustment unit that adjusts the parameter based on the error calculated by the error calculation unit. The image processing apparatus according to claim 1. 前記対象物抽出部は、前記対象物の画像を前記記憶部に保存する場合に、前記対象物の画像が撮影された時間を対応づけて記憶し、前記誤差算出部は、前記記憶部に記憶された異なる重複領域毎の対象物の画像の撮影時間の差が所定時間内の場合に、各特徴点の位置の誤差を算出すること特徴とする請求項1または2に記載の画像処理装置。   When the object image is stored in the storage unit, the object extraction unit stores the time when the image of the object was captured in association with the object extraction unit, and the error calculation unit stores the image in the storage unit. 3. The image processing apparatus according to claim 1, wherein an error in the position of each feature point is calculated when a difference in imaging time of the image of the object for each different overlapping area is within a predetermined time. 前記パラメータ調整部は、対のカメラに対応する対象物の特徴点の誤差の総和が最小となるように前記パラメータを調整することを特徴とする請求項2または3に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the parameter adjustment unit adjusts the parameters so that a sum of errors of feature points of an object corresponding to a pair of cameras is minimized. コンピュータに、
対になるカメラの撮影範囲が重複する領域を示す重複領域の画像を、異なる重複領域毎に取得する画像取得手順と、
所定の形状の対象物の画像と前記重複領域の画像とを比較して、前記重複領域の画像に含まれる前記対象物の画像を抽出し、抽出した対象物の画像を該画像を撮影したカメラと対応づけて記憶部に保存する対象物抽出手順と、
前記異なる重複領域毎に、前記対になるカメラがそれぞれ撮影した対象物の画像が前記記憶部に記憶された場合に、各対象物の特徴点の位置と所定の寸法とに基づいて、各特徴点の位置の誤差を算出する誤差算出手順と、
を実行させることを特徴とする画像処理プログラム。
On the computer,
An image acquisition procedure for acquiring an image of an overlapping area indicating an area where the shooting ranges of the paired cameras overlap, for each different overlapping area;
A camera that compares an image of an object having a predetermined shape with an image of the overlapping area, extracts an image of the object included in the image of the overlapping area, and captures the image of the extracted object And an object extraction procedure to be stored in the storage unit in association with
For each of the different overlapping areas, when an image of the object photographed by the pair of cameras is stored in the storage unit, each feature is based on the position of a feature point of each object and a predetermined size. An error calculation procedure for calculating the error of the point position;
An image processing program for executing
JP2010111389A 2010-05-13 2010-05-13 Image processing apparatus and image processing program Expired - Fee Related JP5552892B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010111389A JP5552892B2 (en) 2010-05-13 2010-05-13 Image processing apparatus and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010111389A JP5552892B2 (en) 2010-05-13 2010-05-13 Image processing apparatus and image processing program

Publications (2)

Publication Number Publication Date
JP2011239349A true JP2011239349A (en) 2011-11-24
JP5552892B2 JP5552892B2 (en) 2014-07-16

Family

ID=45326797

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010111389A Expired - Fee Related JP5552892B2 (en) 2010-05-13 2010-05-13 Image processing apparatus and image processing program

Country Status (1)

Country Link
JP (1) JP5552892B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013129278A (en) * 2011-12-21 2013-07-04 Alpine Electronics Inc Image display device, calibration method of imaging camera in image display device, and calibration program
WO2015029934A1 (en) * 2013-08-30 2015-03-05 クラリオン株式会社 Camera calibration device, camera calibration system, and camera calibration method
JP2015070350A (en) * 2013-09-27 2015-04-13 日産自動車株式会社 Monitor image presentation system
JP2015186026A (en) * 2014-03-24 2015-10-22 クラリオン株式会社 Camera calibration device
JP2015198374A (en) * 2014-04-02 2015-11-09 パナソニックIpマネジメント株式会社 Calibration device, calibration method, camera having calibration function and program
JP2016001378A (en) * 2014-06-11 2016-01-07 株式会社デンソー Calibration device of on-vehicle camera
JP2016092814A (en) * 2014-11-07 2016-05-23 研勤科技股▲分▼有限公司 Drive recorder with 360-degree panoramic view
WO2017126072A1 (en) * 2016-01-21 2017-07-27 株式会社日立製作所 Image recognition system, camera state estimation device and storage medium
JP2017222258A (en) * 2016-06-15 2017-12-21 株式会社Jvcケンウッド Posture change determination device, overhead image generation device, overhead image generation system, posture change determination method, and program
JP2018177004A (en) * 2017-04-13 2018-11-15 クラリオン株式会社 Calibration device for on-vehicle camera
JPWO2021033632A1 (en) * 2019-08-20 2021-02-25

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3286306B2 (en) * 1998-07-31 2002-05-27 松下電器産業株式会社 Image generation device and image generation method
JP2006148745A (en) * 2004-11-24 2006-06-08 Aisin Seiki Co Ltd Camera calibration method and apparatus
JP2008011174A (en) * 2006-06-29 2008-01-17 Hitachi Ltd Calibration device of on-vehicle camera, program, and car navigation system
JP2008131177A (en) * 2006-11-17 2008-06-05 Aisin Seiki Co Ltd Correcting device for on-board camera, correcting method, and production method for vehicle using same correcting method
JP2008187566A (en) * 2007-01-31 2008-08-14 Sanyo Electric Co Ltd Camera calibration apparatus and method and vehicle
JP2009288152A (en) * 2008-05-30 2009-12-10 Nippon Soken Inc Calibration method of on-vehicle camera
JP2009294109A (en) * 2008-06-05 2009-12-17 Fujitsu Ltd Calibration apparatus

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3286306B2 (en) * 1998-07-31 2002-05-27 松下電器産業株式会社 Image generation device and image generation method
JP2006148745A (en) * 2004-11-24 2006-06-08 Aisin Seiki Co Ltd Camera calibration method and apparatus
JP2008011174A (en) * 2006-06-29 2008-01-17 Hitachi Ltd Calibration device of on-vehicle camera, program, and car navigation system
JP2008131177A (en) * 2006-11-17 2008-06-05 Aisin Seiki Co Ltd Correcting device for on-board camera, correcting method, and production method for vehicle using same correcting method
JP2008187566A (en) * 2007-01-31 2008-08-14 Sanyo Electric Co Ltd Camera calibration apparatus and method and vehicle
JP2009288152A (en) * 2008-05-30 2009-12-10 Nippon Soken Inc Calibration method of on-vehicle camera
JP2009294109A (en) * 2008-06-05 2009-12-17 Fujitsu Ltd Calibration apparatus

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013129278A (en) * 2011-12-21 2013-07-04 Alpine Electronics Inc Image display device, calibration method of imaging camera in image display device, and calibration program
WO2015029934A1 (en) * 2013-08-30 2015-03-05 クラリオン株式会社 Camera calibration device, camera calibration system, and camera calibration method
JPWO2015029934A1 (en) * 2013-08-30 2017-03-02 クラリオン株式会社 Camera calibration apparatus, camera calibration system, and camera calibration method
JP2015070350A (en) * 2013-09-27 2015-04-13 日産自動車株式会社 Monitor image presentation system
JP2015186026A (en) * 2014-03-24 2015-10-22 クラリオン株式会社 Camera calibration device
US10032274B2 (en) 2014-04-02 2018-07-24 Panasonic Intellectual Property Management Co., Ltd. Calibration apparatus and calibration method
JP2015198374A (en) * 2014-04-02 2015-11-09 パナソニックIpマネジメント株式会社 Calibration device, calibration method, camera having calibration function and program
JP2016001378A (en) * 2014-06-11 2016-01-07 株式会社デンソー Calibration device of on-vehicle camera
JP2016092814A (en) * 2014-11-07 2016-05-23 研勤科技股▲分▼有限公司 Drive recorder with 360-degree panoramic view
JPWO2017126072A1 (en) * 2016-01-21 2018-01-25 株式会社日立製作所 Image recognition system, camera state estimation device, and storage medium
WO2017126072A1 (en) * 2016-01-21 2017-07-27 株式会社日立製作所 Image recognition system, camera state estimation device and storage medium
JP2017222258A (en) * 2016-06-15 2017-12-21 株式会社Jvcケンウッド Posture change determination device, overhead image generation device, overhead image generation system, posture change determination method, and program
JP2018177004A (en) * 2017-04-13 2018-11-15 クラリオン株式会社 Calibration device for on-vehicle camera
JPWO2021033632A1 (en) * 2019-08-20 2021-02-25
WO2021033632A1 (en) * 2019-08-20 2021-02-25 日立オートモティブシステムズ株式会社 Vehicle control method and vehicle control device

Also Published As

Publication number Publication date
JP5552892B2 (en) 2014-07-16

Similar Documents

Publication Publication Date Title
JP5552892B2 (en) Image processing apparatus and image processing program
JP5279875B2 (en) Object display device, object display method, and object display program
JP6338021B2 (en) Image processing apparatus, image processing method, and image processing program
US11164323B2 (en) Method for obtaining image tracking points and device and storage medium thereof
US9270891B2 (en) Estimation of panoramic camera orientation relative to a vehicle coordinate frame
CN112101305B (en) Multi-path image processing method and device and electronic equipment
JP6701930B2 (en) Authoring device, authoring method, and authoring program
CN110431835B (en) Image synthesizing device, image synthesizing method, and recording medium
JP2012174116A (en) Object display device, object display method and object display program
JP6759175B2 (en) Information processing equipment and information processing system
KR20180022539A (en) Method and apparatus of stitching for minimizing parallax using control points in overlapping region
JP2020500319A (en) Map making device using machine learning and image processing
JP5369873B2 (en) Judgment program and calibration device
JP6165422B2 (en) Information processing system, information processing device, server, terminal device, information processing method, and program
JP2009140402A (en) Information display device, information display method, information display program, and recording medium with recorded information display program
JP2019100924A (en) Vehicle trajectory correction device
JP6040782B2 (en) Image processing apparatus and program
KR20200057513A (en) Vehicle location estimation apparatus and method
JP2009260475A (en) Information processor, information processing method, and program
CN109034214B (en) Method and apparatus for generating a mark
JPH08320990A (en) Vehicle number reader
JP2008224323A (en) Stereoscopic photograph measuring instrument, stereoscopic photograph measuring method, and stereoscopic photograph measuring program
CN112784633A (en) Method and device for processing lane boundary, electronic equipment and storage medium
JP2009098867A (en) Character string recognition method, computer program and storage medium
JP2003514286A (en) Zernike / Pseudo Zernike Moment Extraction Method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130403

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140212

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140407

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140430

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140513

R150 Certificate of patent or registration of utility model

Ref document number: 5552892

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees