JP5614100B2 - Image processing apparatus and moving body position estimation method - Google Patents
Image processing apparatus and moving body position estimation method Download PDFInfo
- Publication number
- JP5614100B2 JP5614100B2 JP2010118252A JP2010118252A JP5614100B2 JP 5614100 B2 JP5614100 B2 JP 5614100B2 JP 2010118252 A JP2010118252 A JP 2010118252A JP 2010118252 A JP2010118252 A JP 2010118252A JP 5614100 B2 JP5614100 B2 JP 5614100B2
- Authority
- JP
- Japan
- Prior art keywords
- feature information
- surface structure
- feature
- information
- visibility
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 23
- 238000003384 imaging method Methods 0.000 claims description 74
- 238000000605 extraction Methods 0.000 claims description 3
- 238000001514 detection method Methods 0.000 description 13
- 230000000875 corresponding effect Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Manipulator (AREA)
- Image Processing (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Description
本発明は、撮像した画像を処理する画像処理装置、及び、画像処理に基づいて移動体の位置を推定する移動***置推定方法に関する。 The present invention relates to an image processing apparatus that processes captured images, and a moving body position estimation method that estimates the position of a moving body based on image processing.
従来より、移動体の位置を推定する技術としては、下記の特許文献1に記載されたものが知られている。この特許文献1には、移動型ロボットの自己の位置を推定する方法が記載されている。この方法は、ロボットに搭載されたカメラの画像から画像特徴量を検出し、当該検出された画像特徴量と、地図情報として予め保存された画像特徴量との相関に基づいて、ロボットの位置を推定している。 Conventionally, what was described in the following patent document 1 is known as a technique of estimating the position of a moving body. This Patent Document 1 describes a method for estimating the position of a mobile robot. In this method, an image feature amount is detected from an image of a camera mounted on the robot, and the position of the robot is determined based on a correlation between the detected image feature amount and an image feature amount stored in advance as map information. Estimated.
しかしながら、上述した特許文献1に記載された方法では、相関がある画像特徴量として目印にしていた物体が、例えば障害物に隠れたために撮像されなくなった場合には、自己の位置を推定する精度が低下する問題があった。 However, in the method described in Patent Document 1 described above, when an object that has been marked as a correlated image feature amount is no longer imaged because it is hidden behind an obstacle, for example, the accuracy of estimating its own position There was a problem that decreased.
そこで、本発明は、上述した実情に鑑みて提案されたものであり、周囲の状況に関わらず自己の位置の推定精度を向上させることができる画像処理装置及び移動***置推定方法を提供することを目的とする。 Therefore, the present invention has been proposed in view of the above-described circumstances, and provides an image processing apparatus and a moving object position estimation method that can improve the estimation accuracy of its own position regardless of surrounding conditions. With the goal.
本発明は、移動体周囲の複数の特徴情報を含む領域の面構造を設定し、当該設定された面構造によって、移動体の位置から特徴情報が撮像不能である場合に、当該特徴情報を可視性がないと判定し、可視性がないと判定された特徴情報を除いて、移動体の位置を推定する。 The present invention sets a surface structure of a region including a plurality of feature information around a moving body, and when the feature information cannot be imaged from the position of the moving body by the set surface structure, the feature information is visible. The position of the moving object is estimated by removing the feature information that is determined not to be visible and that is determined not to be visible.
本発明によれば、可視性がない特徴情報を除いて移動体の位置を推定するので、障害物によって特徴情報が隠れるといった周囲の状況に関わらず自己の位置を推定でき、自己の位置の推定精度を向上させることができる。 According to the present invention, since the position of the moving object is estimated except for feature information that is not visible, it is possible to estimate its own position regardless of surrounding conditions such as feature information being hidden by an obstacle, and estimation of its own position. Accuracy can be improved.
以下、本発明の実施の形態について図面を参照して説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
本発明の第1実施形態として示す自己位置推定システムは、例えば図1に示すように構成される。この自己位置推定システムは、例えば、車両(以下、移動体とも言う)に搭載されている。 The self-position estimation system shown as the first embodiment of the present invention is configured, for example, as shown in FIG. This self-position estimation system is mounted on, for example, a vehicle (hereinafter also referred to as a moving body).
自己位置推定システムは、図1に示すように、画像処理装置1と、撮像カメラ2とを有する。
As shown in FIG. 1, the self-position estimation system includes an image processing device 1 and an
撮像カメラ2は、所定の方向を撮像するように移動体に取り付けられている。移動体の回転や移動に伴なって、その撮像方位が変化する撮像カメラ2は、撮像した撮像画像を画像処理装置1の画像内特徴量検出部14に供給する。撮像カメラ2は、移動体が移動しているときには、連続して画像を撮像し、連続して当該撮像画像を画像処理装置1に供給する。
The
画像処理装置1は、周囲地図記憶部11、地図内面構造設定部12、地図内特徴点可視性判断部13、画像内特徴量検出部14、自己位置推定部15を含む。なお、画像処理装置1は、実際にはROM、RAM、CPU等にて構成されているが、当該CPUがROMに格納された自己位置推定用のプログラムに従って処理をすることによって実現できる機能をブロックとして説明する。
The image processing apparatus 1 includes a surrounding map storage unit 11, a map inner surface
周囲地図記憶部11は、位置情報21と、当該位置情報21に対応付けられた特徴情報22とを含む周囲地図を記憶する(特徴記憶手段)。この特徴情報22は、自己位置を推定するために用いられる画像特徴量である。この画像特徴量としては、エッジ、コーナー、色分布が含まれる。周囲地図記憶部11は、移動体の位置の推定時に、位置情報21及び特徴情報22とを多数含む移動体周囲の地図を、後段の処理で利用できるようにメモリーに読み込む。
The surrounding map storage unit 11 stores a surrounding map including
周囲地図とは、画像によるトラッキングが可能なコーナーなどの画像特徴量の3次元配置であり、M(Ip, x, y, z)の集合である。Ipは特徴情報22としての部分画像、x,y,zは3次元の位置情報21である。周囲地図を取得する手法としては、移動体における異なる位置のカメラにより撮像された2以上の画像を用いたステレオマッチング手法、距離が計測できるLRFや投光式計測装置と撮像装置をあわせて使用し、トラッキング可能な特徴点までの距離を計測する方法、予め人工的に周囲環境を直接的に計測する方法が挙げられる。
The surrounding map is a three-dimensional arrangement of image feature amounts such as corners that can be tracked by an image, and is a set of M (Ip, x, y, z). Ip is a partial image as
画像内特徴量検出部14は、移動体に設けられた撮像カメラ2により撮像された撮像画像から、実特徴を抽出する(実特徴抽出手段)。この実特徴とは、移動体の周囲の状況に応じて画像内に含まれた画像特徴量としての部分画像である。この画像特徴量としては、エッジ、コーナー、色分布が含まれる。
The in-image feature
自己位置推定部15は、周囲地図記憶部11に記憶された特徴情報22及び位置情報21と、画像内特徴量検出部14により抽出された実特徴とに基づいて、移動体の位置を推定する(位置推定手段)。より具体的には、自己位置推定部15は、自己の位置として、撮像カメラ2の位置を推定する。
The self-
地図内面構造設定部12は、周囲地図記憶部11に記憶された複数の特徴情報22を用いて、当該複数の特徴情報22を含む領域の面構造を設定する(面構造設定手段)。地図内面構造設定部12は、周囲地図記憶部11に記憶された画像特徴量の部分集合に対して、面構造を設定する。この面構造は、面状の障害物が存在する箇所に現れる。例えば、面構造は、壁、他車両の存在する箇所に位置すると設定される。本実施形態における「面構造」は、複数の特徴情報22の位置関係が面状に離散しているときにおいて、当該位置関係から推定できる面を指しており、実在する面ではない。また、「面構造」は、特徴情報22が厳密に面状に配置されている場合のみならず、多少の幅を持たせて定義している。この点で、単に「面」とは異なる。
The map inner surface
具体的には、この地図内面構造設定部12は、図2に示すように、周囲地図記憶部11に、移動体の周囲の特徴情報22として、複数の特徴情報22a,22bが記憶されているとする。このとき、地図内面構造設定部12は、周囲地図記憶部11で得られた特徴情報22a,22bの位置情報21に基づいて、複数の特徴情報22aを含む部分集合と、複数の特徴情報22bを含む部分集合を検出する。地図内面構造設定部12は、当該部分集合の位置関係が、平面的な配置をしているかを判断する。地図内面構造設定部12は、当該部分集合の位置関係が平面的な配置をしていると判断した場合に、当該部分集合に対して面構造30を設定する。図2の例では、特徴情報22aが面構造30aという平面に配置されているので、複数の特徴情報22aを含む面構造30aを設定でき、特徴情報22bが面構造30bという平面的に配置されているので、複数の特徴情報22bを含む面構造30bを設定できる。図2のように、3次元空間において、直立した面構造30としては、壁、障害物、コーナー等が挙げられる。
Specifically, as shown in FIG. 2, the map inner surface
地図内特徴点可視性判断部13は、地図内面構造設定部12により面構造30と自己位置推定部15により推定されている移動体の位置との位置関係に基づいて、当該面構造30における特徴情報22の可視性を判断する(可視性判断手段)。地図内特徴点可視性判断部13は、当該移動体の位置から当該面構造30に含まれる特徴情報22が、撮像カメラ2によって撮像不能である場合に可視性がないと判定する。一方、地図内特徴点可視性判断部13は、当該面構造30に含まれる特徴情報22が、撮像カメラ2によって撮像可能である場合に可視性があると判定する。
The feature point
具体的には、図3に示すように、撮像カメラ2の撮像位置2aや画角等によって決定される撮像範囲に、特徴情報22a,22b,22cが周囲地図記憶部11に記憶されているとする。地図内面構造設定部12は、3つの特徴情報22bを含む面構造30を設定する。そして、地図内特徴点可視性判断部13は、面構造30に対して撮像カメラ2側に位置する特徴情報22a及び面構造30上の特徴情報22bを可視性があると判断する。一方、地図内面構造設定部12は、撮像カメラ2の撮像範囲であっても面構造30によって遮蔽される特徴情報22cを、可視性がないと判断する。
Specifically, as shown in FIG. 3, when the
また、図4に示すように、面構造30上の特徴情報22に対する撮像カメラ2の撮像方向と、面構造30の法線方向(面構造30の向き)との角度θが90度以上である場合には、特徴情報22を、可視性が無いものとする。
As shown in FIG. 4, the angle θ between the imaging direction of the
このような自己位置推定システムにおいて、自己位置推定部15は、地図内特徴点可視性判断部13によって可視性がないと判定された特徴情報22を除いて、移動体の位置を推定する。このために、自己位置推定部15は、地図内特徴点可視性判断部13により可視性があると判断された面構造30に含まれる特徴情報22のみを用いて、自己の位置を推定する。すなわち、自己位置推定部15は、可視性がある特徴情報22のみが地図内特徴点可視性判断部13から供給され、当該可視性がある特徴情報22と、画像内特徴量検出部14によって検出された実特徴とを比較する。そして、自己位置推定部15は、双方の特徴が合致する位置情報21を取得して、当該取得した位置情報21に基づいて、自己の位置を推定する。換言すれば、自己位置推定部15は、地図内特徴点可視性判断部13によって可視性がないと判定された特徴情報22を除いて、移動体の位置を推定する。
In such a self-position estimation system, the self-
このような自己位置推定システムは、移動体が移動しているときに、周囲地図記憶部11に記憶された位置情報21及び特徴情報22を含む周囲地図を読み込む。そして、地図内面構造設定部12及び地図内特徴点可視性判断部13によって、面構造30を定義して特徴情報22の可視性がない部分を排除し、自己の位置を推定する。
Such a self-position estimation system reads the surrounding map including the
つぎに、上述した自己位置推定システムにおいて、移動体が移動しているときに自己の位置を推定する具体的な処理手順について、図5を参照して説明する。 Next, a specific processing procedure for estimating the self position when the moving body is moving in the self-position estimation system described above will be described with reference to FIG.
先ずステップS1において、撮像カメラ2によって撮像画像を取得する。ステップS1は、移動体が移動しているときに所定時間毎に行われる。
First, in step S1, a captured image is acquired by the
ステップS2において、画像処理装置1により、周囲地図を取得する必要性があるか否かを判断する。本実施形態においては、既に周囲地図が周囲地図記憶部11に構築されており、移動体の位置の推定時に周囲地図記憶部11に記憶された周囲地図をすべて読み込むものとする。したがって、ステップS2において、移動体の移動開始時の最初の一回だけ周囲地図を取得する必要性があると判断することとなる。 In step S <b> 2, the image processing apparatus 1 determines whether it is necessary to acquire a surrounding map. In the present embodiment, it is assumed that the surrounding map is already built in the surrounding map storage unit 11 and all the surrounding maps stored in the surrounding map storage unit 11 are read when the position of the moving object is estimated. Therefore, in step S2, it is determined that it is necessary to acquire the surrounding map only once at the beginning of the movement of the moving body.
ステップS2にて肯定判定された後のステップS3において、周囲地図記憶部11は、予め記憶された周囲地図を読み出す。これにより、画像処理装置1は、周囲地図を取得する。周囲地図はファイル形式で保存されているとし、画像処理装置1は、周囲地図記憶部11を構成する記録媒体から計算メモリー内にロードする。 In step S3 after a positive determination is made in step S2, the surrounding map storage unit 11 reads out a surrounding map stored in advance. Thereby, the image processing apparatus 1 acquires a surrounding map. Assume that the surrounding map is stored in a file format, and the image processing apparatus 1 loads the surrounding map into the calculation memory from the recording medium constituting the surrounding map storage unit 11.
次のステップS4において、地図内面構造設定部12は、面構造30の設定を行う。このとき、地図内面構造設定部12は、特徴情報22の位置情報21に基づいて、特徴情報22を部分集合に分類(クラスタリング)する。そして、地図内面構造設定部12は、当該部分集合が平面的に分布している場合には面構造30を設定し、そうでない場合には、当該部分集合によって面構造30を設定しない。
In next step S <b> 4, the map inner surface
なお、クラスタリング手法にはさまざまな手法が存在するが、既存のあらゆるクラスタリング手法を採用できる。例えば、k-means手法、複数のカーネルを設定してそれらのパラメータを最尤推定で最適化する手法等が挙げられる。 There are various clustering methods, and any existing clustering method can be adopted. For example, a k-means method, a method of setting a plurality of kernels, and optimizing those parameters by maximum likelihood estimation may be used.
また、部分集合に含まれる複数の特徴情報22が平面状に分布しているか否かの判断は、例えば以下のように行う。先ず、各部分集合に対して、当該部分集合に含まれる特徴情報22(特徴点)が平面(x,y,z,w)T上に分布することを仮定して、平面パラメータx,y,z,wを設定する。その後、当該仮想平面(x,y,z,w)T上に特徴情報22が分布したと仮定したときの残差(residual error:eres)を、下記の式1を用いて求める。
式1において、nは部分集合内の特徴情報22の数であり、xtは周囲地図内の特徴情報22の位置情報21であり、x^iは、仮想平面(x,y,z,w)Tに対して位置情報xtから垂線を下ろしたときの接点である。また、関数d(x)は、各特徴情報22の位置情報21と接点x^iとの2点間距離を表す。
In Equation 1, n is the number of
式1を用いて得られる残差eresは、仮想平面(x,y,z,w)Tと、特徴情報22の位置情報21との差異(エラー)である。そして、当該差異と、所定のしきい値ethを比較して、当該差異がしきい値ethよりも小さい特徴情報22を、当該仮想平面(x,y,z,w)Tに含まれるとする。しきい値ethは、予め設定した値であり、仮想平面(x,y,z,w)Tに対して特徴情報22が分布する誤差の許容度を表す。
The residual e res obtained using Equation 1 is a difference (error) between the virtual plane (x, y, z, w) T and the
地図内面構造設定部12は、残差eresがしきい値ethよりも小さい場合には、仮想平面(x,y,z,w)Tに含まれる部分集合とする。一方、残差eresがしきい値ethよりも大きい場合には、当該特徴情報22が当該仮想平面(x,y,z,w)Tに含まれないとする。そして、地図内面構造設定部12は、仮想平面(x,y,z,w)Tを面構造30として設定でき、当該面構造30に含まれる特徴情報22を特定できる。ここで、面構造30の大きさは、分類した特徴情報22を仮想平面(x,y,z,w)Tに投影したとき、平面座標上で、x,yの最大値、最小値により定義される大きさであるとする。
Map inner surface
このように、地図内面構造設定部12は、複数の特徴情報22を当該複数の特徴情報22の位置情報21に基づいて部分集合に分類する。そして、当該部分集合に含まれる特徴情報22と、仮想平面との差異が所定のしきい値ethよりも小さい場合に、当該仮想平面に含まれる特徴情報22を含む領域を面構造30として設定することができる。
Thus, the map inner surface
一方、ステップS2にて否定判定がされた後又はステップS4の後のステップS5において、地図内特徴点可視性判断部13は、周囲地図内における特徴点(特徴情報22)の可視性を判断する。可視性がある場合とは、撮像カメラ2によって特徴情報22が撮像可能である場合である。
On the other hand, after a negative determination is made in step S2 or in step S5 after step S4, the in-map feature point
このとき、地図内特徴点可視性判断部13は、2つの判断要素を用いて、特徴情報22の可視性を判断する。第1の判断要素は、地図内特徴点可視性判断部13が、面構造30による特徴情報22の遮蔽に基づいて特徴情報22の可視性を判定する。第2の判断要素は、地図内特徴点可視性判断部13が、地図内面構造設定部12により設定された面構造30における法線方向と撮像カメラ2の撮像方向との角度に基づいて特徴情報22の可視性を判定する。
At this time, the feature point
具体的には、図3に示すように、面構造30による特徴情報22の遮蔽に基づいて、撮像カメラ2に対して面構造30の反対側に存在する特徴情報22を可視性がないと判定する。更に、図4に示すように、面構造30における法線方向と撮像カメラ2の撮像方向との角度θに基づいて、角度θが90度以上であるときには当該面構造30上の特徴情報22を可視性がないと判定する。
Specifically, as shown in FIG. 3, based on the shielding of the
また、面構造30の法線方向と、面構造30上の特徴情報22を撮像カメラ2から撮像する方向との差に応じて、特徴情報22を構成する部分画像の見え方が変化する。このため、撮像カメラ2の撮像方向と面構造30の法線方向との角度θが90度よりも小さい場合において、地図内特徴点可視性判断部13は、特徴情報22を構成する部分画像の外郭形状を、撮像カメラ2の位置に応じて変換することが望ましい。このとき、地図内特徴点可視性判断部13は、例えば、特徴情報22を構成する部分画像を、アフィン(Affine)変換により、下記の式4によって撮像カメラ2からの特徴情報22の見え方にあわせて変換する。そして、地図内特徴点可視性判断部13は、当該変換された特徴情報22を用いて、可視性を判断する。
Further, the appearance of the partial images constituting the
Ip’=AIp (式2)
ここで、Ipは、周囲地図内に含まれる特徴情報22を構成する部分画像、Ip’は撮像カメラ2の位置から観測した特徴情報22の部分画像であって、当該特徴情報22の変換後の画像である。
Ip ′ = AIp (Formula 2)
Here, Ip is a partial image constituting the
次のステップS6において、画像内特徴量検出部14は、ステップS5にて可視性があると判断された特徴情報22の撮像画像内での位置を検出する。このとき、画像内特徴量検出部14は、撮像カメラ2から撮像画像を取得する。画像内特徴量検出部14は、取得した撮像画像と、地図内特徴点可視性判断部13から供給された可視性のある特徴情報22とを比較する。画像内特徴量検出部14は、可視性のある特徴情報22に対応した実特徴が撮像画像に含まれている場合には、当該撮像画像中の特徴情報22とみなされる実特徴の画像位置を、当該特徴情報22の画像内位置として検出する。
In the next step S6, the in-image feature
撮像画像内の特徴情報22を探索する方法は、様々な方法が提案されている。例えば、一般的に知られている、下記の式3により表されるSAD(Sum of Absolute Difference)、式4により表されるSSD(Sum of Squared intensity Difference)による画像比較を、ラスタースキャンにより撮像画像の全体に対して行い、最も特徴情報22との一致度合いが高い撮像画像内の領域を検出位置とする。
上記の式3,4において、MLは撮像カメラ2により得られた撮像画像の部分画像であり、MRは周囲地図内特徴情報22である部分画像である。また、ラスタースキャンとは、撮像画像の左上から、真横に移動させて探索し、当該撮像画像の右端まで探索したら、一画素だけ下に下がる手順を繰り返しながら、撮像画像の全体を探索する順番である。
In formula 3 and 4 above, M L is the partial image of the captured image obtained by the
次のステップS7において、自己位置推定部15は、ステップS6にて検出された特徴情報22に対応した実特徴の撮像画像内での位置と、当該特徴情報22の周囲地図内での位置とから、撮像カメラ2の位置を推定する。この撮像カメラ2の位置を求める方法は、多く知られている。例えば、先ず、自己位置推定部15は、撮像カメラ2の位置を任意の値で仮置きする。この仮の撮像カメラ2の位置において、周囲地図上の特徴情報22を周囲地図上に投影したときの特徴情報22の位置と、実際に撮像画像内に含まれる特徴情報22の位置との差を求める。そして、当該差を、撮像カメラ2の位置をパラメータとして最小化する。この方法は、効率の観点から望ましい。
In the next step S7, the self-
以上のように、本発明の第1実施形態として示す自己位置推定システムによれば、既存の周囲の特徴情報22を読み込み、当該特徴情報22から面構造30を定義し、撮像カメラ2から可視性がない特徴情報22を排除して、自己の位置を推定することができる。したがって、この自己位置推定システムによれば、可視性がある特徴情報22のみを使用して位置を推定できるので、障害物によって特徴情報22が隠れるといった周囲の状況に関わらず、自己の位置の推定精度を向上させることができる。
As described above, according to the self-position estimation system shown as the first embodiment of the present invention, the existing surrounding
例えば、駐車車両などの障害物が多く存在する場合、特徴情報22が隠れると、自己位置の推定が継続不可能になってしまう可能性が高い。これに対し、自己位置推定システムによれば、面構造30によって隠れる特徴情報22を排除して自己の位置の推定するので、当該問題を回避して、自己の位置の推定をすることができる。
For example, when there are many obstacles such as parked vehicles, if the
また、この自己位置推定システムによれば、面構造30による遮蔽に基づいて特徴情報22の可視性を判定すると共に、面構造30の向きと撮像カメラ2の撮像方向との角度に基づいて特徴情報22の可視性を判定するので、撮像カメラ2から見えない特徴情報22を確実に排除できる。これにより、自己位置推定システムによれば、更に自己の位置の推定精度を高めることができる。
Further, according to this self-position estimation system, the visibility of the
更に、この自己位置推定システムによれば、面構造30上の特徴情報22については、当該面構造30の向きと、撮像カメラ2の撮像方向との角度に基づいて、当該特徴情報22としての画像を変換する。これにより、自己位置推定システムによれば、喩え周囲地図記憶部11に記憶されている特徴情報22と、撮像カメラ2によって撮像された撮像画像内の特徴情報22とが異なる形状であっても、周囲地図記憶部11に記憶されている特徴点の形状を変換して、精度よく撮像画像内の特徴情報22を検出できる。これにより、自己位置推定システムによれば、更に自己の位置の推定精度を高めることができる。
Furthermore, according to this self-position estimation system, the
更に、この自己位置推定システムによれば、複数の特徴情報22を当該位置情報21に基づいて部分集合に分類し、当該部分集合に含まれる特徴情報22と、仮想平面との差異が所定のしきい値よりも小さい場合に、当該仮想平面に含まれる特徴情報22を含む領域を面構造30として設定する。これにより、自己位置推定システムによれば、位置が近い特徴情報22のうちで平面状の位置関係にある複数の特徴情報22によって面構造30を設定でき、当該面構造30によって隠れる特徴情報22を精度良く排除できる。したがって、自己位置推定システムによれば、更に自己の位置の推定精度を高めることができる。
Furthermore, according to this self-position estimation system, a plurality of
[第2実施形態]
つぎに、第2実施形態に係る情報表示システムについて説明する。なお、上述の実施形態と同様の部分については同一符号を付することによりその詳細な説明を省略する。
[Second Embodiment]
Next, an information display system according to the second embodiment will be described. Note that parts similar to those in the above-described embodiment are denoted by the same reference numerals, and detailed description thereof is omitted.
第2実施形態として示す自己位置推定システムは、精度良く面構造30を設定する点で、第1実施形態とは異なる。
The self-position estimation system shown as the second embodiment is different from the first embodiment in that the
第2実施形態の自己位置推定システムにおける地図内面構造設定部12は、ステップS4において、面構造30を複数の分割面の集合に分割する。地図内特徴点可視性判断部13は、当該分割した複数の分割面における向きと撮像カメラ2の撮像方向との角度のみに基づいて、当該各分割面における特徴情報22の可視性を判定する。
In step S4, the map inner surface
このとき、地図内面構造設定部12は、当該分割した複数の分割面よりも、撮像カメラ2からら遠方に位置する特徴情報22が、撮像カメラ2によって撮像されている場合に、当該分割面を面構造30から取り除く。これにより、地図内面構造設定部12は、面構造30を適切に設定して、地図内特徴点可視性判断部13は、当該設定された面構造30に基づいて特徴情報22の可視性を判断する。
At this time, the map inner surface
第1実施形態においては、ステップS4にて分類した特徴情報22の集合に対し、単一の平面からなる面構造30を設定したが、特徴情報22の集合が実際に単一の平面により構成されている保証は無い。例えば図6に示すように、平面状に並んだ複数の物体40A,40Bが単一の面構造30として設定される可能性がある。この場合、複数の物体40A,40Bの間は何も無い空間であり、より遠方に存在する特徴情報22が撮像カメラ2によって撮像される可能性も考えられる。
In the first embodiment, the
このような問題に対し、第2実施形態の自己位置推定システムは、ステップS4において、地図内面構造設定部12によって、図7に示すように、面構造30を、複数の分割面30aの集合に分割する。このとき、地図内面構造設定部12は、図6のように設定された面構造30を、所定の大きさの分割面30aに分割する。この所定の大きさは、周囲地図に含まれる特徴情報22を含む程度の大きさであることが望ましい。具体的には、物体40A,40Bのエッジ成分が含まれる部分画像(特徴情報22)を含む程度の大きさを、分割面30aの大きさとする。そして、地図内面構造設定部12は、同一の法線ベクトルを有する分割された分割面30aの集合として面構造30の設定を行う。
For such a problem, the self-position estimation system according to the second embodiment, in step S4, the map inner surface
このステップS4の後のステップS5では、撮像カメラ2の撮像方向と分割面30aの法線方向との角度のみに基づいて可視性の判断を行う。すなわち、第1実施形態のステップS5においては、面構造30による遮蔽による特徴情報22の可視性の判断と、撮像方向と面構造30の法線方向との角度θによる可視性の判断を行っていたが、第2実施形態においては、当該角度θのみに基づいて可視性を判断する。
In step S5 after step S4, the visibility is determined based only on the angle between the imaging direction of the
次のステップS6において、画像内特徴量検出部14は、ステップS5で可視性があると判断された特徴情報22が、撮像カメラ2による撮像された撮像画像内に実特徴として含まれるかを判断し、当該実特徴の撮像画像内の位置を検出する。これにより、ステップS6においては、面構造30によって遮蔽される特徴情報22についても、撮像画像内での位置を検出する。画像内特徴量検出部14は、上述したように、SADやSSD等により十分小さい値が得られないときは、当該特徴情報22に対応した実特徴が撮像画像内では検出されなかったものとする。
In the next step S <b> 6, the in-image feature
このステップS6にて撮像画像内に実特徴として検出されない特徴情報22は、ステップS7での自己の位置の推定には使用しない。すなわち、ステップS6にて撮像画像内に実特徴として検出されない特徴情報22は、周囲地図上では面構造30に遮蔽されるものとなる。
The
これに対して、周囲地図上では面構造30によって遮蔽されると考えられる特徴情報22が、撮像画像内で実特徴として検出された場合は、当該特徴情報22を、ステップS7の自己の位置の推定に使用する。また、当該実特徴よりも撮像カメラ2に対して近い位置に設定された分割面30aを削除する。
On the other hand, when the
これにより、図8に示すように、実際には撮像カメラ2から撮像可能な物体40A上の領域40aと撮像カメラ2との間の分割面30aを削除して、物体40Aについての面構造30Aと、物体40Bについての面構造30Bとを設定できる。
As a result, as shown in FIG. 8, the divided
以上のように、本発明の第2実施形態として示す自己位置推定システムによれば、第1実施形態と同様に、既存の周囲の特徴情報22を読み込み、当該特徴情報22から面構造30を定義し、撮像カメラ2から可視性がない特徴情報22を排除して、自己の位置を推定することができる。したがって、この自己位置推定システムによれば、可視性がある特徴情報22のみを使用して位置を推定できるので、障害物によって特徴情報22が隠れるといった周囲の状況に関わらず、自己の位置の推定精度を向上させることができる。
As described above, according to the self-position estimation system shown as the second embodiment of the present invention, similar to the first embodiment, the existing surrounding
また、この自己位置推定システムによれば、面構造30を複数の分割面30aの集合に分割し、当該分割した複数の分割面30aにおける向きと撮像カメラ2の撮像方向との角度のみに基づいて、当該各分割面30aにおける特徴情報22の可視性を判定する。これにより、自己位置推定システムによれば、面構造30が誤って設定されており、当該面構造30の背後の特徴情報22が実特徴として撮像カメラ2から可視性がある場合に、当該特徴情報22を含めて自己の位置の推定ができる。したがって、自己位置推定システムによれば、更に自己の位置の推定精度を高めることができる。
Further, according to this self-position estimation system, the
更に、この自己位置推定システムによれば、面構造30を複数の分割面30aの集合に分割し、当該分割した複数の分割面30aよりも撮像カメラ2から遠方に位置する特徴情報22が撮像カメラ2によって撮像されている場合に、当該分割面30aを取り除く。これにより、自己位置推定システムは、面構造30を修正して、より現実に近い面構造30を設定でき、更に自己の位置の推定精度を高めることができる。
Furthermore, according to this self-position estimation system, the
なお上述した実施の形態においては、自己位置推定システムが、車両に搭載されているものとして説明したが、ロボットなどの移動体に搭載されても、同様の効果を有する。 In the above-described embodiment, the self-position estimation system has been described as being mounted on a vehicle. However, even when mounted on a moving body such as a robot, the same effect is obtained.
なお、上述の実施の形態は本発明の一例である。このため、本発明は、上述の実施形態に限定されることはなく、この実施の形態以外であっても、本発明に係る技術的思想を逸脱しない範囲であれば、設計等に応じて種々の変更が可能であることは勿論である。 The above-described embodiment is an example of the present invention. For this reason, the present invention is not limited to the above-described embodiment, and various modifications can be made depending on the design and the like as long as the technical idea according to the present invention is not deviated from this embodiment. Of course, it is possible to change.
1 画像処理装置
2 撮像カメラ
11 周囲地図記憶部
12 地図内面構造設定部
13 地図内特徴点可視性判断部
14 画像内特徴量検出部
15 自己位置推定部
21 位置情報
22 特徴情報
22a 特徴情報
30 面構造
DESCRIPTION OF SYMBOLS 1
Claims (5)
移動体に設けられた撮像手段により撮像された画像から実特徴を抽出する実特徴抽出手段と、
前記特徴記憶手段に記憶された特徴情報及び位置情報と前記実特徴抽出手段により抽出された実特徴とに基づいて、移動体の位置を推定する位置推定手段と、
前記特徴記憶手段に記憶された複数の特徴情報に対応した複数の位置情報に基づいて、当該複数の特徴情報を含む領域の面構造を設定する面構造設定手段と、
移動体の位置から特徴情報が撮像不能である場合に、当該特徴情報に可視性がないと判定する可視性判断手段とを備え、
前記面構造設定手段は、前記設定した面構造を複数の面の集合に分割し、
前記可視性判断手段は、前記分割した面の向きと前記撮像手段の撮像方向との角度のみに基づいて、当該各面における特徴情報の可視性を判定し、
前記位置推定手段は、前記可視性判断手段によって可視性がないと判定された特徴情報を除いて、前記移動体の位置を推定すること
を特徴とする画像処理装置。 Feature storage means for storing feature information and position information of the feature information;
Real feature extraction means for extracting real features from an image picked up by an image pickup means provided on the moving body;
Position estimation means for estimating the position of the moving body based on the feature information and position information stored in the feature storage means and the actual feature extracted by the actual feature extraction means;
A surface structure setting unit configured to set a surface structure of an area including the plurality of feature information based on a plurality of pieces of position information corresponding to the plurality of feature information stored in the feature storage unit;
Visibility determining means for determining that the feature information is not visible when the feature information cannot be captured from the position of the moving object,
The surface structure setting means divides the set surface structure into a set of a plurality of surfaces,
The visibility determining means determines the visibility of the feature information on each surface based only on the angle between the direction of the divided surface and the imaging direction of the imaging means,
The image processing apparatus according to claim 1, wherein the position estimating unit estimates the position of the moving body except for feature information determined to be invisible by the visibility determining unit.
前記取得された複数の特徴情報を含む領域の面構造を設定し、前記設定した面構造を複数の面の集合に分割し、
前記分割した面の向きと前記撮像手段の撮像方向との角度のみに基づいて、当該各面における特徴情報の可視性を判定し、前記移動体の位置から特徴情報が撮像不能である場合に、当該特徴情報を可視性がないと判定し、
前記移動体の周囲の特徴情報のうち前記可視性がないと判定された特徴情報を除いて、前記取得された特徴情報及び位置情報と前記自己の位置から撮像した撮像画像内の実特徴とに基づいて、移動体の位置を推定すること
を特徴とする移動***置推定方法。 Obtaining the feature information around the moving object stored in advance in the storage means and the position information of the feature information,
Setting the surface structure of the region including the plurality of acquired feature information , dividing the set surface structure into a set of a plurality of surfaces;
Based on only the angle between the direction of the divided surface and the imaging direction of the imaging means, the visibility of the feature information on each surface is determined, and when the feature information cannot be imaged from the position of the moving body, The feature information is determined not to be visible,
Excluding the feature information determined as having no visibility among the feature information around the moving object, the acquired feature information and position information and the actual feature in the captured image captured from the own position A mobile object position estimation method characterized by estimating the position of a mobile object based on the above.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010118252A JP5614100B2 (en) | 2010-05-24 | 2010-05-24 | Image processing apparatus and moving body position estimation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010118252A JP5614100B2 (en) | 2010-05-24 | 2010-05-24 | Image processing apparatus and moving body position estimation method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011248441A JP2011248441A (en) | 2011-12-08 |
JP5614100B2 true JP5614100B2 (en) | 2014-10-29 |
Family
ID=45413662
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010118252A Active JP5614100B2 (en) | 2010-05-24 | 2010-05-24 | Image processing apparatus and moving body position estimation method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5614100B2 (en) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001273523A (en) * | 2000-03-23 | 2001-10-05 | Hitachi Eng Co Ltd | Device and method for reducing three-dimensional data |
JP2003075148A (en) * | 2001-09-03 | 2003-03-12 | Techno Vanguard:Kk | Displacement measuring instrument using digital still camera |
JP2003266345A (en) * | 2002-03-18 | 2003-09-24 | Sony Corp | Path planning device, path planning method, path planning program, and moving robot device |
JP2007322351A (en) * | 2006-06-05 | 2007-12-13 | Mitsubishi Electric Corp | Three-dimensional object collating device |
JP4356778B2 (en) * | 2007-06-25 | 2009-11-04 | ソニー株式会社 | Image photographing apparatus, image photographing method, and computer program |
-
2010
- 2010-05-24 JP JP2010118252A patent/JP5614100B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2011248441A (en) | 2011-12-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8867790B2 (en) | Object detection device, object detection method, and program | |
JP6125188B2 (en) | Video processing method and apparatus | |
US9420265B2 (en) | Tracking poses of 3D camera using points and planes | |
EP2430588B1 (en) | Object recognition method, object recognition apparatus, and autonomous mobile robot | |
US8265425B2 (en) | Rectangular table detection using hybrid RGB and depth camera sensors | |
US7616807B2 (en) | System and method for using texture landmarks for improved markerless tracking in augmented reality applications | |
JP4341564B2 (en) | Object judgment device | |
EP3070430B1 (en) | Moving body position estimation device and moving body position estimation method | |
CN109472820B (en) | Monocular RGB-D camera real-time face reconstruction method and device | |
JP6021689B2 (en) | Vehicle specification measurement processing apparatus, vehicle specification measurement method, and program | |
JP4521235B2 (en) | Apparatus and method for extracting change of photographed image | |
US20100074473A1 (en) | System and method of extracting plane features | |
JP6172432B2 (en) | Subject identification device, subject identification method, and subject identification program | |
JP2010541065A (en) | 3D beverage container positioning device | |
CN110926330A (en) | Image processing apparatus, image processing method, and program | |
JP2018113021A (en) | Information processing apparatus and method for controlling the same, and program | |
JP5501084B2 (en) | Planar area detection apparatus and stereo camera system | |
CN108369739B (en) | Object detection device and object detection method | |
JP6410231B2 (en) | Alignment apparatus, alignment method, and computer program for alignment | |
JP6922348B2 (en) | Information processing equipment, methods, and programs | |
JP2010262576A (en) | Subject detecting apparatus and program | |
CN109074646B (en) | Image recognition device and image recognition program | |
JP5614100B2 (en) | Image processing apparatus and moving body position estimation method | |
JP7293100B2 (en) | camera system | |
JP2007257489A (en) | Image processor and image processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130327 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20131121 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140107 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140305 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140812 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140825 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5614100 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |