JP2007322357A - Program, apparatus and method for measuring distance - Google Patents

Program, apparatus and method for measuring distance Download PDF

Info

Publication number
JP2007322357A
JP2007322357A JP2006155856A JP2006155856A JP2007322357A JP 2007322357 A JP2007322357 A JP 2007322357A JP 2006155856 A JP2006155856 A JP 2006155856A JP 2006155856 A JP2006155856 A JP 2006155856A JP 2007322357 A JP2007322357 A JP 2007322357A
Authority
JP
Japan
Prior art keywords
distance
feature point
frame
search
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006155856A
Other languages
Japanese (ja)
Other versions
JP4899647B2 (en
Inventor
Tetsuyo Kato
徹洋 加藤
Toru Tsuruta
徹 鶴田
Takafumi Enami
隆文 枝並
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2006155856A priority Critical patent/JP4899647B2/en
Publication of JP2007322357A publication Critical patent/JP2007322357A/en
Application granted granted Critical
Publication of JP4899647B2 publication Critical patent/JP4899647B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of Optical Distance (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a program, an apparatus and a method for measuring a distance for improving accuracy in measurement of a distance between a moving vehicle and an obstacle. <P>SOLUTION: A computer carries out the method including an imaging step of continuously imaging a plurality of frames, detecting an imaging position posture and recording the frames and the imaging position posture, a frame determining step of extracting reference characteristic points of the obstacle included in a reference frame, a searching step of searching search characteristic points corresponding to the reference characteristic points in a search frame imaged at a time later than the reference frame, a distance calculating step of stereo-viewing based on the reference characteristic points, the search characteristic points and the imaging position posture to calculate the distance between a moving object and the characteristic points, and an error determining step of determining whether an error in the distance satisfies predetermined conditions for outputting the distance calculated by the distance calculating step when the error satisfies the conditions. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、移動体と障害物との距離を測定する距離測定プログラム、距離測定装置、距離測定方法に関するものである。   The present invention relates to a distance measurement program, a distance measurement device, and a distance measurement method for measuring the distance between a moving object and an obstacle.

移動車両に固定された単眼の撮像部を用いて、移動車両と障害物の間の距離を測定するステレオ視による距離測定方法について説明する。図13は、従来のステレオ視による距離測定方法の一例を示す平面図である。2地点において互いに異なる時間に撮像を行い、同一特徴点の対応関係から三角測量を行う。ここで、視差をx、撮像部の焦点距離をf、撮像地点間の距離をBL、焦点から特徴点までの距離をLとすると、これらの値の関係は次式で表される。   A stereo distance measurement method for measuring the distance between a moving vehicle and an obstacle using a monocular imaging unit fixed to the moving vehicle will be described. FIG. 13 is a plan view showing an example of a conventional distance measuring method using stereo vision. Images are taken at different times at two points, and triangulation is performed from the correspondence of the same feature points. Here, when the parallax is x, the focal length of the imaging unit is f, the distance between the imaging points is BL, and the distance from the focal point to the feature point is L, the relationship between these values is expressed by the following equation.

Figure 2007322357
Figure 2007322357

また、数1により、Lは、次式で表される。   In addition, L is expressed by the following equation according to Equation 1.

Figure 2007322357
Figure 2007322357

更に、数2により、視差の変化に伴うLの変化ΔLは、次式で表される。   Further, according to Equation 2, the change ΔL in L accompanying the change in parallax is expressed by the following equation.

Figure 2007322357
Figure 2007322357

ここで、fは撮像部固有の値であり、ここでは単眼の撮像部を用いる場合の考察であるため一定である。また、特徴点探索の情報源に画像を用いるため、量子化誤差Δxが生じる。Δxは撮像部の分解能と撮像素子サイズに依存する値であ
り、一定である。
Here, f is a value specific to the imaging unit, and here is constant because it is a consideration when a monocular imaging unit is used. Further, since an image is used as an information source for feature point search, a quantization error Δx occurs. Δx is a value that depends on the resolution of the imaging unit and the size of the imaging device, and is constant.

なお、本発明の関連ある従来技術として、移動車両に備えた単一のカメラで時系列の画像を撮像し、視差付けされた異なる地点での画像に基づき、立体物を検出し、移動車両から立体物への距離を算出する駐車支援装置がある(例えば、特許文献1参照)。また、移動車両の周辺を少なくとも2地点で撮像した画像に基づき3次元環境を構築し、移動車両の周辺に駐車可能な大きさ以上の領域があるか否かを判定する移動体周辺監視装置がある(例えば、特許文献2参照)。
特開2001−187553号公報 特開2004−114977号公報
As a related art related to the present invention, a time-series image is captured by a single camera provided in a moving vehicle, a three-dimensional object is detected based on images at different points with parallax, and the moving vehicle is detected. There is a parking assistance device that calculates a distance to a three-dimensional object (see, for example, Patent Document 1). In addition, a mobile object periphery monitoring device that constructs a three-dimensional environment based on images obtained by capturing the periphery of a moving vehicle at at least two points and determines whether or not there is a region larger than a size that can be parked around the moving vehicle. Yes (see, for example, Patent Document 2).
JP 2001-187553 A JP 2004-149977 A

図14は、従来のステレオ視による距離測定方法の問題点を示す表である。この表に示すように、数2により、2つの撮像地点間の距離BLが短い場合には視差xが小さくなるため、視差に占める誤差の割合(視差の相対誤差)が大きくなる。一方、2つの撮像地点間の距離BLが長い場合には視差xが大きくなるため、視差の相対誤差が小さくなる。しかし、使用する2枚の画像間における同一特徴点の探索範囲が広くなるため、局所解に陥りやすい。更に、視差が大きくなることにより、計算コストが増大するという問題がある。   FIG. 14 is a table showing problems of a conventional distance measuring method using stereo vision. As shown in this table, according to Equation 2, when the distance BL between the two imaging points is short, the parallax x becomes small, so that the ratio of error in the parallax (relative error in parallax) increases. On the other hand, when the distance BL between the two imaging points is long, the parallax x becomes large, and the relative error of the parallax becomes small. However, since the search range for the same feature point between the two images to be used is widened, it tends to fall into a local solution. Furthermore, there is a problem that the calculation cost increases due to the large parallax.

また、数3によれば、求める距離Lの誤差|ΔL|を小さくするにはBLを大
きくする必要があり、|ΔL|を一定とするには、Lに対して適切なBLを設定
する必要がある。
Further, according to Equation 3, it is necessary to increase BL in order to reduce the error | ΔL | of the distance L to be obtained, and to make | ΔL | constant, it is necessary to set an appropriate BL for L. There is.

また、特許文献1において、単一のカメラによって異なる2地点でのみ撮像された画像から視差を算出しているため、前述の通り、2地点のカメラ間の距離が短い場合には、算出される距離(視差)の相対誤差が大きくなる。一方、2地点のカメラ間の距離が長い場合には、特徴点探索範囲が広くなるため同一特徴点探索が局所解に陥りやすく距離(視差)の信頼性に欠ける。また、特許文献1では車両の移動データを用いて2枚の画像中の同一特徴点の位置を予想することにより、探索コストを削減しようとしている。しかし、当然、視差はわかっていないため、予想が外れる可能性も大きく、信頼性に欠ける。また、特許文献2において、特許文献1と同様、十分な視差が得られない場合についての対応を考慮していない。   Further, in Patent Document 1, since the parallax is calculated from images captured only at two different points by a single camera, as described above, the parallax is calculated when the distance between the two cameras is short. The relative error of distance (parallax) becomes large. On the other hand, when the distance between the two cameras is long, the feature point search range is widened, so that the same feature point search tends to fall into a local solution and the distance (parallax) is not reliable. Further, Patent Document 1 attempts to reduce the search cost by predicting the position of the same feature point in two images using vehicle movement data. However, of course, since the parallax is not known, there is a high possibility that the prediction will be lost, and the reliability is lacking. Further, in Patent Document 2, as in Patent Document 1, a case where a sufficient parallax cannot be obtained is not considered.

図15は、従来のステレオ視による駐車スペースの奥行き測定方法の一例を示す平面図である。この図は、駐車スペースrの奥行き(移動車両tから点pまでの距離Lpと移動車両tから点qまでの距離Lq)を、移動車両tに固定された撮像部sを用いて測定する方法を示している。また、ここでは、特許文献1や特許文献2のように十分な視差を得られない場合についての対応を考慮していない従来手法により、奥行きを算出する場合を考える。   FIG. 15 is a plan view showing an example of a conventional method for measuring the depth of a parking space by stereo vision. This figure shows a method for measuring the depth of the parking space r (the distance Lp from the moving vehicle t to the point p and the distance Lq from the moving vehicle t to the point q) using the imaging unit s fixed to the moving vehicle t. Is shown. Here, a case is considered where the depth is calculated by a conventional method that does not take into account the case where sufficient parallax cannot be obtained as in Patent Document 1 and Patent Document 2.

ここで、Lp=1.5[m]、Lq=6.5[m]、f=3.6e−3[m]、BL=1.0e−1[m]とする。また、撮像部sの分解能を640×480画素、撮像素子サイズを1/2インチとすると、Δx=0.8e−3/640と
なる。数3により、駐車スペースの奥行きLp、Lqのそれぞれの誤差|ΔLp
|、|ΔLq|は、次式で表される。
Here, it is assumed that Lp = 1.5 [m], Lq = 6.5 [m], f = 3.6e−3 [m], and BL = 1.0e−1 [m]. Further, if the resolution of the imaging unit s is 640 × 480 pixels and the imaging element size is 1/2 inch, Δx = 0.8e−3 / 640. According to Equation 3, each error | ΔLp of the depth Lp and Lq of the parking space
| And | ΔLq | are expressed by the following equations.

Figure 2007322357
Figure 2007322357

一般的に、駐車スペースは、図15の例のように凹凸がある形状(駐車スペースの両脇の壁と奥の壁との3方を囲まれた形状)である場合が多く、車両と測距特徴点との間の距離は一定ではない。このように凹凸がある形状の駐車スペースに従来手法を用いると、手前の測距特徴点pでは誤差が小さいが、奥の測距特徴点qでは誤差が非常に大きくなり、駐車の支援を実現することはできない。   In general, a parking space often has an uneven shape as shown in the example of FIG. 15 (a shape surrounded by three sides of the parking space on both sides and the back wall). The distance between the distance feature points is not constant. When the conventional method is used for a parking space with such an uneven shape, the error is small at the distance measurement feature point p in the foreground, but the error is very large at the distance measurement feature point q in the back, and parking assistance is realized. I can't do it.

撮像地点間の距離をより大きくすることにより誤差|ΔLp|と|ΔLq|を
ともに小さくすることができる。しかし、点pの測距では同一特徴点探索範囲が広くなるため対応点計算が局所解に陥りやすく距離(視差)の信頼性に欠けるという問題が起きる。このように従来手法を用いると、距離が一定ではない移動車両と測距のための特徴点との間の距離を高精度に算出することは困難である。
Both errors | ΔLp | and | ΔLq | can be reduced by increasing the distance between the imaging points. However, in the distance measurement of the point p, since the same feature point search range is widened, there is a problem that the corresponding point calculation tends to fall into a local solution and the reliability of the distance (parallax) is lacking. As described above, when the conventional method is used, it is difficult to calculate the distance between the moving vehicle whose distance is not constant and the feature point for distance measurement with high accuracy.

本発明は上述した問題点を解決するためになされたものであり、移動体と障害物との距離の測定の精度を向上させる距離測定プログラム、距離測定装置、距離測定方法を提供することを目的とする。   The present invention has been made to solve the above-described problems, and an object thereof is to provide a distance measurement program, a distance measurement device, and a distance measurement method that improve the accuracy of measurement of the distance between a moving object and an obstacle. And

上述した課題を解決するため、本発明は、移動体と障害物の間の距離の測定をコンピュータに実行させる距離測定プログラムであって、前記移動体に設けられた撮像部により連続して複数のフレームの撮像を行うと共に該撮像を行った位置と姿勢である撮像位置姿勢を検出し、前記フレームと撮像位置姿勢を対応付けて記録する撮像ステップと、前記撮像ステップにより撮像されたフレームに含まれる前記障害物の特徴点を抽出して該フレームを基準フレームおよび参照フレームとすると共に該特徴点を基準特徴点および参照特徴点とするフレーム決定ステップと、前記フレーム決定ステップにより決定された参照フレームより後の時刻に撮像されたフレームである探索フレームにおいて前記参照特徴点に対応する特徴点である探索特徴点を探索する探索ステップと、前記探索ステップにより決定された基準特徴点と前記探索ステップにより決定された探索特徴点と前記撮像ステップにより記録された撮像位置姿勢に基づいてステレオ視を実行し、前記移動体と特徴点の間の距離の算出を行う距離算出ステップと、前記距離算出ステップにより算出された距離の誤差が所定の条件を満たすか否かの判定を行い、該誤差が前記条件を満たす場合、前記距離算出ステップにより算出された距離を確定した距離として出力する誤差判定ステップとをコンピュータに実行させるものである。   In order to solve the above-described problem, the present invention is a distance measurement program that causes a computer to measure the distance between a moving body and an obstacle, and a plurality of images are continuously acquired by an imaging unit provided in the moving body. An imaging step of capturing an image of a frame, detecting an imaging position and orientation that is the position and orientation of the imaging, and recording the frame and the imaging position and orientation in association with each other; and included in the frame imaged by the imaging step Extracting feature points of the obstacle to make the frame a reference frame and a reference frame and using the feature points as a reference feature point and a reference feature point; and a reference frame determined by the frame determination step A search feature point that is a feature point corresponding to the reference feature point in a search frame that is a frame imaged at a later time A search step for searching; a reference feature point determined by the search step; a search feature point determined by the search step; and an imaging position and orientation recorded by the imaging step; A distance calculating step for calculating a distance between the feature point and a distance calculation step that determines whether or not an error in the distance calculated in the distance calculating step satisfies a predetermined condition. An error determination step for outputting the distance calculated in the distance calculation step as a fixed distance is executed by a computer.

この距離測定プログラムによれば、距離の誤差が所定の条件を満たす2つのフレームを用いてステレオ視を行うことにより、移動体と障害物との距離に関わらず測定の精度を向上させることができる。   According to this distance measurement program, the accuracy of measurement can be improved regardless of the distance between the moving object and the obstacle by performing stereo vision using two frames in which the error in the distance satisfies a predetermined condition. .

また、本発明に係る距離測定プログラムにおいて、更に、最後に算出された距離の誤差が前記条件を満たさない場合、最新の探索フレームを新たな参照フレームとすると共に最新の探索特徴点を新たな参照特徴点とするフレーム再決定ステップと、前記フレーム再決定ステップにより決定された参照フレームより後の時刻に撮像されたフレームを新たな探索フレームとし、該探索フレームにおいて前記参照特徴点に対応する探索特徴点を探索する再探索ステップと、前記再探索ステップにより決定された基準特徴点と前記再探索ステップにより決定された探索特徴点と前記撮像ステップにより記録された撮像位置姿勢に基づいてステレオ視を実行し、前記移動体と特徴点の間の距離の算出を行う距離再算出ステップと、前記距離再算出ステップにより算出された距離の誤差が前記条件を満たすか否かの判定を行い、該誤差が前記条件を満たすまで、前記フレーム再決定ステップと前記再探索ステップと前記距離再算出ステップとを繰り返し、該誤差が前記条件を満たす場合、最新の前記距離再算出ステップにより算出された距離を確定した距離として出力する誤差再判定ステップとをコンピュータに実行させることを特徴とするものである。   Further, in the distance measurement program according to the present invention, when the error of the distance calculated at the end does not satisfy the above condition, the latest search frame is set as a new reference frame and the latest search feature point is newly referenced. A frame re-determination step as a feature point, and a frame captured at a time later than the reference frame determined in the frame re-determination step as a new search frame, and a search feature corresponding to the reference feature point in the search frame A stereo search is performed based on a re-search step for searching for a point, a reference feature point determined by the re-search step, a search feature point determined by the re-search step, and an imaging position and orientation recorded by the imaging step A distance recalculation step for calculating a distance between the moving object and the feature point; and the distance recalculation step. Determining whether or not the error of the distance calculated by the above condition satisfies the condition, and repeating the frame re-determination step, the re-search step, and the distance re-calculation step until the error satisfies the condition, When the error satisfies the condition, the computer is caused to execute an error redetermination step of outputting the distance calculated by the latest distance recalculation step as a confirmed distance.

この距離測定プログラムによれば、移動体と障害物との距離に関わらず所定の探索範囲で特徴点の探索を行い、距離の誤差が所定の条件を満たすまで繰り返すことから、測定の精度を向上させることができる。   According to this distance measurement program, feature points are searched in a predetermined search range regardless of the distance between the moving object and the obstacle, and the error of the distance is repeated until the predetermined condition is satisfied, thereby improving the measurement accuracy. Can be made.

また、本発明に係る距離測定プログラムにおいて、前記条件は、前記距離の誤差が所定の閾値以下となることであることを特徴とするものである。   In the distance measurement program according to the present invention, the condition is that the error in the distance is a predetermined threshold value or less.

この距離測定プログラムによれば、移動体と障害物との距離に関わらず距離の誤差を所定の閾値以下に抑えることができる。   According to this distance measurement program, the distance error can be suppressed to a predetermined threshold value or less regardless of the distance between the moving object and the obstacle.

また、本発明の構成要素、または構成要素の任意の組合せを、方法、装置、システム、記録媒体、データ構造などに適用したものも本発明に含む。 Moreover, what applied the component of this invention, or arbitrary combinations of a component to a method, an apparatus, a system, a recording medium, a data structure, etc. is also contained in this invention.

本発明によれば、移動体と障害物との距離の測定の精度を向上させることができる。   ADVANTAGE OF THE INVENTION According to this invention, the precision of the measurement of the distance of a mobile body and an obstruction can be improved.

以下、本発明の実施の形態について図面を参照しつつ説明する。   Embodiments of the present invention will be described below with reference to the drawings.

本実施の形態においては、本発明の距離測定装置を適用した駐車支援装置について説明する。   In the present embodiment, a parking assistance device to which the distance measuring device of the present invention is applied will be described.

まず、本実施の形態に係る駐車支援装置の構成について説明する。   First, the structure of the parking assistance apparatus according to the present embodiment will be described.

図1は、実施の形態1に係る駐車支援装置の構成の一例を示すブロック図である。この駐車支援装置は、移動車両(移動体)に設けられるコンピュータまたはそれに接続された装置によって実現される。また、この駐車支援装置は、移動車両の位置と移動車両の運動を検出する車両状態検出部21と、移動車両の周辺を撮像し時間的に連続したフレーム(画像)を取得すると共に単眼の撮像部11(カメラ)と、撮像部11により撮像されたフレームとそのフレームが撮像された時点の車両状態検出部21により検出された位置である撮像地点(撮像位置)を記憶するメモリ12と、各フレームから特徴点を抽出する特徴点抽出部13と、特徴点に基づき移動車両と目標駐車スペース周辺の障害物との位置姿勢や前記目標駐車スペースの幅や奥行きを算出する距離算出部14と、距離算出部14(フレーム決定部、探索部、距離算出部、誤差判定部)が算出した移動車両と駐車スペース周辺の障害物との位置姿勢や目標駐車スペースの幅や奥行きとから目標駐車スペースの3次元モデルを生成する3次元モデル生成部15(障害物形状生成部)と、予め移動車両の外形寸法を記憶する車両外形寸法記憶部16と、3次元モデルと判定部から駐車可能かどうかを判定する判定部17(接触判定部)と、判定部17による判定結果などを表示することにより運転者に伝達する表示部18とを備えている。   FIG. 1 is a block diagram illustrating an example of the configuration of the parking assistance apparatus according to the first embodiment. This parking assistance device is realized by a computer provided in a moving vehicle (moving body) or a device connected thereto. In addition, the parking assist device captures a vehicle state detection unit 21 that detects the position of the moving vehicle and the movement of the moving vehicle, captures the periphery of the moving vehicle, acquires frames (images) continuous in time, and captures a single eye. Unit 11 (camera), a frame 12 captured by the imaging unit 11, and a memory 12 that stores an imaging point (imaging position) that is a position detected by the vehicle state detection unit 21 at the time when the frame was captured, A feature point extraction unit 13 that extracts a feature point from the frame; a distance calculation unit 14 that calculates the position and orientation of the moving vehicle and an obstacle around the target parking space based on the feature point, and the width and depth of the target parking space; Position and orientation of the moving vehicle calculated by the distance calculation unit 14 (frame determination unit, search unit, distance calculation unit, error determination unit) and obstacles around the parking space, width and depth of the target parking space A three-dimensional model generation unit 15 (obstacle shape generation unit) that generates a three-dimensional model of the target parking space, a vehicle outer dimension storage unit 16 that stores an outer dimension of the moving vehicle in advance, and a three-dimensional model and determination unit A determination unit 17 (contact determination unit) that determines whether or not parking is possible, and a display unit 18 that transmits a determination result by the determination unit 17 to the driver.

ここで、車両状態検出部21は、例えば、車速パルス、操舵角あるいはジャイロセンサ等を用いて、移動車両の位置姿勢を検出する。   Here, the vehicle state detection unit 21 detects the position and orientation of the moving vehicle using, for example, a vehicle speed pulse, a steering angle, or a gyro sensor.

次に、本実施の形態に係る駐車支援装置の動作について説明する。   Next, the operation of the parking assistance apparatus according to the present embodiment will be described.

図2は、実施の形態1に係る駐車支援装置の動作の一例を示すフローチャートである。まず、移動車両の運転者により本駐車判定装置が起動される(S111)。その後、運転者は、移動車両の駐車(車庫入れ駐車や縦列駐車など)動作を行う。図3は、実施の形態1に係る移動車両の車庫入れ駐車動作の一例を示す平面図である。図4は、実施の形態1に係る移動車両の縦列駐車動作の一例を示す平面図である。なお、移動車両は、図3、図4ともに、図に示す位置に到達した後、バックして駐車目標位置に駐車するものである。そして、その際に、移動車両の運転者は、後に説明する本装置の出力結果を参考にして、駐車操作を行うことになる。   FIG. 2 is a flowchart showing an example of the operation of the parking assistance apparatus according to the first embodiment. First, the parking determination apparatus is activated by the driver of the moving vehicle (S111). Thereafter, the driver performs a parking operation (such as garage parking or parallel parking) of the moving vehicle. FIG. 3 is a plan view showing an example of the garage parking operation of the moving vehicle according to the first embodiment. FIG. 4 is a plan view illustrating an example of parallel parking operation of the moving vehicle according to the first embodiment. 3 and 4, the moving vehicle is backed and parked at the parking target position after reaching the position shown in the figure. At that time, the driver of the moving vehicle performs the parking operation with reference to the output result of the present apparatus described later.

次に、移動車両が図3と図4に示すような状態となり、車両状態検出部21は、移動車両の車速が低速を示す所定の範囲になったか否かの判断を行う(S112)。移動車両が低速になっていない場合(S112,NO)、処理S112へ戻る。一方、移動車両が低速になると(S112,YES)、車両状態検出部21は、移動車両が目標駐車スペースを低速で通過(駐車のための準備行動)すると判断し、撮像部11で時系列として連続する複数のフレームを撮像し、撮像した複数のフレームをメモリ12に格納すると共に、車両状態検出部21は、フレームを撮像した時点の位置姿勢を示す撮像地点(撮像位置姿勢)をフレームに対応付けてメモリ12に格納する(S113)(撮像ステップ)。次に、特徴点抽出部13は、メモリ12に記憶された各フレームにおける特徴点を抽出し、特徴点の座標をメモリ12に格納する(S121)。   Next, the moving vehicle is in a state as shown in FIGS. 3 and 4, and the vehicle state detection unit 21 determines whether or not the vehicle speed of the moving vehicle is within a predetermined range indicating a low speed (S112). If the moving vehicle is not slow (S112, NO), the process returns to S112. On the other hand, when the moving vehicle becomes low speed (S112, YES), the vehicle state detection unit 21 determines that the moving vehicle passes through the target parking space at low speed (preparation action for parking), and the imaging unit 11 sets the time series. A plurality of consecutive frames are imaged, the captured frames are stored in the memory 12, and the vehicle state detection unit 21 corresponds to an imaging point (imaging position and orientation) indicating a position and orientation at the time of imaging the frame. Then, it is stored in the memory 12 (S113) (imaging step). Next, the feature point extraction unit 13 extracts feature points in each frame stored in the memory 12, and stores the coordinates of the feature points in the memory 12 (S121).

ここで、撮像部11が全てのフレームをメモリ12に格納するのではなく、特徴点抽出部13が抽出した特徴点の平面座標をメモリ12に格納するようにしても良い。これにより、メモリ12は、撮像部11で撮像したフレームを全て記憶する必要はなく、同一特徴点の対応関係を記憶しておけばよいため、メモリ12の容量を低減することができる。   Here, instead of the imaging unit 11 storing all the frames in the memory 12, the plane coordinates of the feature points extracted by the feature point extraction unit 13 may be stored in the memory 12. Thereby, the memory 12 does not need to store all the frames imaged by the imaging unit 11, and it is only necessary to store the correspondence relationship of the same feature points, so that the capacity of the memory 12 can be reduced.

次に、距離算出部14は、撮像時の移動車両の位置姿勢と複数のフレームの特徴点とに基づいて、移動車両と駐車スペース周辺の障害物との位置姿勢や目標駐車スペースの幅や奥行きを算出する(S122)。次に、3次元モデル生成部15は、距離算出部14が算出した移動車両と駐車スペース周辺の障害物との位置姿勢や目標駐車スペースの幅や奥行きから目標駐車スペースの3次元モデルを生成する(S123)(障害物形状生成ステップ)。次に、この結果と予め車両外形寸法記憶部16に格納された移動車両の外形とから判断部17において駐車可能かどうかを判定する(S131)(接触判定ステップ)。次に、表示部18は、この判定結果に従って駐車の可否を表示し、運転者に伝達する(S132)。   Next, the distance calculation unit 14 determines the position and orientation of the moving vehicle and obstacles around the parking space, the width and depth of the target parking space, based on the position and orientation of the moving vehicle at the time of imaging and the feature points of the plurality of frames. Is calculated (S122). Next, the three-dimensional model generation unit 15 generates a three-dimensional model of the target parking space from the position and orientation of the moving vehicle calculated by the distance calculation unit 14 and the obstacles around the parking space and the width and depth of the target parking space. (S123) (obstacle shape generation step). Next, it is determined whether or not parking is possible in the determination unit 17 from this result and the external shape of the moving vehicle stored in the vehicle external dimension storage unit 16 in advance (S131) (contact determination step). Next, the display unit 18 displays whether or not parking is possible according to the determination result, and transmits it to the driver (S132).

なお、本実施の形態において、表示部18(形状表示部)は、判定結果を表示するとしたが、3次元モデル生成部15により生成された3次元モデルを表示し(形状表示ステップ)ても良いし、更に、表示部18は、前記車両状態検出部21による車両の位置姿勢に従って、車両外形寸法記憶部16に格納された移動車両の外形を、3次元モデルに重ねて表示しても良い。   In the present embodiment, the display unit 18 (shape display unit) displays the determination result. However, the 3D model generated by the 3D model generation unit 15 may be displayed (shape display step). Further, the display unit 18 may display the outer shape of the moving vehicle stored in the vehicle outer dimension storage unit 16 on the three-dimensional model in accordance with the position and orientation of the vehicle by the vehicle state detection unit 21.

次に、距離算出部14の動作の詳細について説明する。   Next, details of the operation of the distance calculation unit 14 will be described.

図5は、実施の形態1に係る距離算出部14の動作の一例を示すフローチャートである。まず、距離算出部14は、特徴点番号n=1とし(S10)、メモリ12における特徴点と対応する撮像地点に基づいて、特徴点Pnが最初に出現する(撮像された)撮像地点をtkとし、その撮像地点で撮像されたフレームである出現開始位置フレーム(基準フレーム、参照フレーム)を第1の画像F0とする(S11)(フレーム決定ステップ)。また、時系列においてフレームF0に続くフレームをF1、F2、F3・・・とする。   FIG. 5 is a flowchart illustrating an example of the operation of the distance calculation unit 14 according to the first embodiment. First, the distance calculation unit 14 sets the feature point number n = 1 (S10), and based on the imaging point corresponding to the feature point in the memory 12, the imaging point where the feature point Pn first appears (captured) is tk. The appearance start position frame (base frame, reference frame) that is a frame imaged at the imaging point is set as the first image F0 (S11) (frame determination step). Also, frames subsequent to the frame F0 in the time series are F1, F2, F3.

ここで、距離算出部14の動作の説明のための駐車動作の具体例を示す。図6は、実施の形態1に係る駐車動作の一例を示す平面図である。この図は、凹凸のある目標駐車スペースへ移動車両が駐車する車庫入れ駐車動作を示す。ここで、画像が撮像された地点である撮像地点をt1、t2、t3、t4、・・・t8、t9とする。また、特徴点抽出部13により抽出された特徴点をP1、P2、P3、P4とする。図7は、実施の形態1に係る特徴点と撮像地点の関係の一例を示すグラフである。図6の例において、特徴点P1が撮像される撮像地点はt1〜t3、特徴点P2が撮像される撮像地点はt3〜t9、特徴点P3が撮像される撮像地点はt2〜t8、特徴点P4が撮像される撮像地点はt8〜t9である。   Here, the specific example of the parking operation for description of operation | movement of the distance calculation part 14 is shown. FIG. 6 is a plan view showing an example of the parking operation according to the first embodiment. This figure shows a garage parking operation in which a moving vehicle parks in an uneven target parking space. Here, imaging points, which are points where images are taken, are defined as t1, t2, t3, t4,... T8, t9. Further, the feature points extracted by the feature point extraction unit 13 are P1, P2, P3, and P4. FIG. 7 is a graph showing an example of the relationship between the feature points and the imaging points according to the first embodiment. In the example of FIG. 6, the imaging points where the feature point P1 is imaged are t1 to t3, the imaging points where the feature point P2 is imaged are t3 to t9, the imaging points where the feature point P3 is imaged are t2 to t8, and the feature points The imaging points where P4 is imaged are t8 to t9.

次に、距離算出部14は、フレーム番号m=1とし(S12)、第1の画像F0における特徴点(基準特徴点、参照特徴点)に対して第2の画像Fm(探索フレーム)における同一特徴点(探索特徴点)を探索し(探索ステップ、再探索ステップ)、第1の画像F0(基準フレーム)と第2の画像Fm(探索フレーム)における同一特徴点間(基準特徴点と探索特徴点の間)の距離Lm(視差Xm)を算出する(距離算出ステップ、距離再算出ステップ)(S13)。ここで、特徴点P1については撮像地点t1と撮像地点t2の画像から、特徴点P2については撮像地点t3と撮像地点t4の画像から、特徴点P3については撮像地点t2と撮像地点t3の画像から、特徴点P4については撮像地点t8と撮像地点t9の画像からそれぞれ距離Lm(視差Xm)を算出する。   Next, the distance calculation unit 14 sets the frame number m = 1 (S12), and is the same in the second image Fm (search frame) with respect to the feature points (standard feature point, reference feature point) in the first image F0. A feature point (search feature point) is searched (search step, re-search step), and between the same feature points (reference feature point and search feature) in the first image F0 (reference frame) and the second image Fm (search frame). A distance Lm (parallax Xm) between the points is calculated (distance calculation step, distance recalculation step) (S13). Here, for the feature point P1, from the images at the imaging points t1 and t2, for the feature point P2, from the images at the imaging points t3 and t4, and for the feature point P3 from the images at the imaging points t2 and t3. For the feature point P4, the distance Lm (parallax Xm) is calculated from the images at the imaging point t8 and the imaging point t9.

その後、距離算出部14は、数3より求まる距離の誤差|ΔL|が予め設定し
た閾値以下か否かを判断する(S14)(誤差判定ステップ、誤差再判定ステップ)。距離算出部14は、|ΔL|が上記閾値以下の場合(S14,YES)、
処理S16に進み、|ΔL|が上記閾値より大きい場合(S14,NO)、第2
の画像を新たな参照フレームとし、参照フレーム中で探索された特徴点を参照特徴点とし、m=m+1として第2の画像Fmを次の探索フレームとし、参照特徴点と同一特徴点(探索特徴点)を探索し(S15)、|ΔL|が上記閾値以下に
なるまで処理S13からのフローを繰り返す。
Thereafter, the distance calculation unit 14 determines whether or not the distance error | ΔL | obtained from Equation 3 is equal to or smaller than a preset threshold value (S14) (error determination step, error re-determination step). When | ΔL | is equal to or smaller than the threshold value (S14, YES), the distance calculation unit 14
When the process proceeds to step S16 and | ΔL | is larger than the threshold (S14, NO), the second
As a new reference frame, a feature point searched in the reference frame as a reference feature point, m = m + 1, the second image Fm as the next search frame, and the same feature point as the reference feature point (search feature) Point) is searched (S15), and the flow from step S13 is repeated until | ΔL |

図8は、実施の形態1に係る処理S13〜S15の動作の一例を示す図である。まず、距離算出部14は、異なる撮像地点で撮像された連続する複数枚(N枚)の画像のうち、撮像地点の距離が最も近い(視差が最も小さい)2枚の画像(F0とF1)における同一特徴点の距離L1(視差)を算出する。次に、距離算出部14は、数3における|ΔL|が所定の閾値より大きければ視差に占める誤
差の割合が下がるように、次に撮像地点間の距離が離れた2枚の画像(F0とF2)から同一特徴点間(基準特徴点と探索特徴点の間)の視差を算出する、という処理を|ΔL|が所定の閾値以下になるまで複数回(m回)繰り返す。その結
果、距離算出部14は、距離の測定に利用する第1の画像(F0)と第2の画像(Fm)とを決定し、これらの画像を利用して特徴点と車両との距離(Lm)を求める。また、駐車スペースは凹凸がある形状である場合が多いため、第1の画像と第2の画像は、測距対象とする特徴点ごとに選定する。
FIG. 8 is a diagram illustrating an example of operations of processes S13 to S15 according to the first embodiment. First, the distance calculation unit 14 has two images (F0 and F1) having the shortest distance between the imaging points (the smallest parallax) among a plurality of consecutive (N) images captured at different imaging points. The distance L1 (parallax) between the same feature points at is calculated. Next, the distance calculation unit 14 determines that two images (F0 and F0) that are next separated from each other are separated so that the error ratio in the parallax decreases if | ΔL | in Equation 3 is greater than a predetermined threshold. The process of calculating the parallax between the same feature points (between the reference feature points and the search feature points) from F2) is repeated a plurality of times (m times) until | ΔL | becomes a predetermined threshold value or less. As a result, the distance calculation unit 14 determines the first image (F0) and the second image (Fm) to be used for distance measurement, and uses these images to determine the distance between the feature point and the vehicle ( Lm). In addition, since the parking space often has an uneven shape, the first image and the second image are selected for each feature point to be measured.

ここで、従来技術の同一特徴点探索と本実施の形態の同一特徴点探索との違いについて説明する。   Here, the difference between the same feature point search of the prior art and the same feature point search of the present embodiment will be described.

図9は、従来の同一特徴点探索の一例を示す図である。この図は、第1の画像における特徴点と同一の特徴点を第2の画像において探索する場合を示す。第2の画像中の網掛け部は、同一特徴点の探索範囲であり、第1の画像における特徴点を中心に、一辺の長さが3xの正方形の探索範囲を設定する。このように、従来手法においては大きい視差を得ようとすると探索範囲が広くする必要があるため、誤認識する可能性のある特徴点が多くなり、同一特徴点探索が局所解に陥りやすい。   FIG. 9 is a diagram illustrating an example of a conventional identical feature point search. This figure shows a case where a feature point identical to the feature point in the first image is searched for in the second image. The shaded part in the second image is a search range for the same feature point, and a square search range with a side length of 3x is set around the feature point in the first image. As described above, in the conventional method, if a large parallax is to be obtained, the search range needs to be widened. Therefore, there are many feature points that may be erroneously recognized, and the same feature point search tends to fall into a local solution.

図10は、実施の形態1に係る同一特徴点探索の一例を示す図である。この図は、上から順に、フレームF0(参照フレーム)における特徴点(参照特徴点)と同一の特徴点(探索特徴点)を次のフレームF1(探索フレーム)において探索する場合、フレームF1(参照フレーム)における特徴点(参照特徴点)と同一の特徴点(探索特徴点)を次のフレームF2(探索フレーム)において探索する場合、フレームF2(参照フレーム)における特徴点(参照特徴点)と同一の特徴点(探索特徴点)を次のフレームF3(探索フレーム)において探索する場合を示す。各フレーム中の網掛け部は、同一特徴点の探索範囲であり、一つ前のフレームにおける特徴点を中心に、一辺の長さがxの正方形の探索範囲を設定する。結果として、3xの視差(基準特徴点と最新の探索特徴点の間の距離)を得ることができる。   FIG. 10 is a diagram illustrating an example of the same feature point search according to the first embodiment. In this figure, in order from the top, when searching for the same feature point (search feature point) as the feature point (reference feature point) in the frame F0 (reference frame) in the next frame F1 (search frame), the frame F1 (reference) When searching for the same feature point (search feature point) as the feature point (reference feature point) in the frame) in the next frame F2 (search frame), it is the same as the feature point (reference feature point) in the frame F2 (reference frame) This is a case where the feature point (search feature point) is searched in the next frame F3 (search frame). The shaded portion in each frame is a search range for the same feature point, and a square search range having a side length of x is set around the feature point in the previous frame. As a result, 3 × parallax (distance between the reference feature point and the latest search feature point) can be obtained.

つまり、同じ3xの視差を得るために、従来の同一特徴点探索である図9では、一辺が3xの探索範囲を設定するのに対して、本実施の形態の同一特徴点探索である図10では、一辺が小さいxの探索範囲を設定し、3回に分けて行うため、より小さい探索範囲で済むことになり、従来の課題を解決し、算出される距離(視差)の信頼性が高くなる。   That is, in order to obtain the same 3x parallax, in FIG. 9, which is a conventional search for the same feature point, a search range having a side of 3x is set, whereas in FIG. 10 which is the same feature point search of the present embodiment. Then, since the search range of x with a small side is set and divided into three times, a smaller search range is required, which solves the conventional problem and increases the reliability of the calculated distance (parallax). Become.

図11は、実施の形態1に係る駐車動作中に撮像された複数の画像と同一特徴点の視差の一例を示す図である。この図は、図6の例において、撮像地点t1、t2、t3、t4、t8、t9で撮像されたフレームのうち、特徴点P1,P2,P3,P4のそれぞれの視差を求めるために選択されるフレームの組を表す。上述した処理S13〜S15の動作により、距離算出部14は、特徴点毎に適切な視差を求めるのに最適なフレームの組を選択することができる。   FIG. 11 is a diagram illustrating an example of parallax with the same feature points as a plurality of images captured during the parking operation according to the first embodiment. This figure is selected in the example of FIG. 6 to obtain the respective parallaxes of the feature points P1, P2, P3, and P4 from the frames imaged at the imaging points t1, t2, t3, t4, t8, and t9. Represents a set of frames. The distance calculation unit 14 can select an optimal frame set for obtaining an appropriate parallax for each feature point by the operations of the processes S13 to S15 described above.

図6の例において、距離算出部14は、特徴点P1の距離測定に撮像地点t1と撮像地点t2の画像を利用すると視差が十分大きい(距離精度が高い)ため、処理S16に進む。また、距離算出部14は、特徴点P2の距離測定に撮像地点t3と撮像地点t4の画像を利用すると距離精度が低いため、処理S15へ進み、十分な視差が得られる撮像地点t3と撮像地点t9の画像を利用する。また、距離算出部14は、特徴点P3の距離測定に撮像地点t2と撮像地点t3の画像を利用すると距離精度が低いため、処理S15へ進み、十分な視差が得られる撮像地点t2と撮像地点t8の画像を利用する。また、距離算出部14は、特徴点P4の距離測定は撮像地点t8と撮像地点t9の画像で視差が十分大きい(距離精度が高い)ため、処理S16へ進む。   In the example of FIG. 6, the distance calculation unit 14 proceeds to the process S16 because the parallax is sufficiently large (distance accuracy is high) when the images of the imaging point t1 and the imaging point t2 are used for the distance measurement of the feature point P1. Further, the distance calculation unit 14 proceeds to the process S15 because the distance accuracy is low if the images of the imaging point t3 and the imaging point t4 are used for the distance measurement of the feature point P2, and the imaging point t3 and the imaging point where sufficient parallax can be obtained. The image at t9 is used. Further, the distance calculation unit 14 proceeds to step S15 because the distance accuracy is low when the images of the imaging point t2 and the imaging point t3 are used for the distance measurement of the feature point P3, and the imaging point t2 and the imaging point where sufficient parallax can be obtained. The image at t8 is used. The distance calculation unit 14 proceeds to the process S16 because the distance measurement of the feature point P4 is sufficiently large (distance accuracy is high) in the images of the imaging point t8 and the imaging point t9.

処理S16において、距離算出部14は、上述のようにして算出された距離Lmを移動車両と特徴点Pn間の距離として出力する。そして処理S17では撮像地点tk中の全ての特徴点に関して距離(視差)を算出したか否かを判断する(S17)。全てを算出した場合(S17,YES)、このフローは終了する。一方、全てを算出していない場合(S17,NO)、距離算出部14は、n=n+1とし(S18)、処理S11からのフローを繰り返す。   In process S16, the distance calculation unit 14 outputs the distance Lm calculated as described above as the distance between the moving vehicle and the feature point Pn. In step S17, it is determined whether distances (parallaxes) have been calculated for all feature points in the imaging point tk (S17). If all are calculated (S17, YES), this flow ends. On the other hand, if not all have been calculated (S17, NO), the distance calculation unit 14 sets n = n + 1 (S18), and repeats the flow from step S11.

本実施の形態によれば、移動車両に設けられた撮像部11により時系列に従って連続して撮像された複数枚の画像の中から、距離算出に十分な視差を持つ2枚の画像を、測距特徴点ごとに選定することを特徴としているため、距離が一定ではない車両と測距特徴点の間の測距を高精度に行うことが可能となり、算出される距離の信頼性も向上させることができる。   According to the present embodiment, two images having a parallax sufficient for distance calculation are measured from a plurality of images continuously captured in time series by the imaging unit 11 provided in the moving vehicle. Since each distance feature point is selected, the distance between the vehicle and the distance measurement feature point that is not constant can be measured with high accuracy, and the reliability of the calculated distance is improved. be able to.

実施の形態2.
本実施の形態においては、撮像部11のフレームレートを制御する駐車支援装置について説明する。
Embodiment 2. FIG.
In the present embodiment, a parking assistance device that controls the frame rate of the imaging unit 11 will be described.

まず、本実施の形態に係る駐車支援装置の構成について説明する。   First, the structure of the parking assistance apparatus according to the present embodiment will be described.

図12は、実施の形態2に係る駐車支援装置の構成の一例を示すブロック図である。この図において、図1と同一符号は図1に示された対象と同一又は相当物を示しており、ここでの説明を省略する。この図は、図1と比較すると、新たに撮像指示部22を備える。撮像指示部22は、車両状態検出部21により検出された移動車両の車速に応じて撮像部11のフレームレート(撮像タイミング)を設定し、撮像部11へ指示する。撮像部11は、撮像指示部22からの指示に応じて移動車両周辺を撮像する。   FIG. 12 is a block diagram illustrating an example of the configuration of the parking assistance apparatus according to the second embodiment. In this figure, the same reference numerals as those in FIG. 1 denote the same or corresponding parts as those in FIG. 1, and the description thereof is omitted here. Compared with FIG. 1, this figure newly includes an imaging instruction unit 22. The imaging instruction unit 22 sets the frame rate (imaging timing) of the imaging unit 11 according to the vehicle speed of the moving vehicle detected by the vehicle state detection unit 21 and instructs the imaging unit 11. The imaging unit 11 images the periphery of the moving vehicle in accordance with an instruction from the imaging instruction unit 22.

撮像指示部22は、撮像地点間の距離(例えばBL)を車速等に因らずある一定の値以上に保つようにフレームレートを制御する。または、撮像した連続する複数枚の画像のうち決定したフレームレートに対して不要な画像を間引く。   The imaging instruction unit 22 controls the frame rate so that the distance between the imaging points (for example, BL) is maintained at a certain value or more regardless of the vehicle speed or the like. Alternatively, unnecessary images are thinned out with respect to the determined frame rate among a plurality of consecutive captured images.

ここで、撮像指示部22による移動車両の車速と撮像部11のフレームレートの対応付けについて説明する。   Here, the association between the vehicle speed of the moving vehicle and the frame rate of the imaging unit 11 by the imaging instruction unit 22 will be described.

図13において、高い精度で算出する必要がある距離Lの最小値をLmin、その精度での視差xをxminとすると、撮像地点間の距離BLの最小値BLminは数1により、以下の式で表される。   In FIG. 13, if the minimum value of the distance L that needs to be calculated with high accuracy is Lmin, and the parallax x with that accuracy is xmin, the minimum value BLmin of the distance BL between the imaging points is expressed by the following equation (1). expressed.

Figure 2007322357
Figure 2007322357

したがって、BLminより短いBLを持つ画像(基準となるフレームからBLminより短い距離にある撮像地点で撮像された画像)は不要である。また、車速をv(m/s)、撮像部11のフレームレートをR(フレーム/s)とすると、この条件での取り得る最小の撮像地点間(1フレーム間)の距離Bminは、以下の式で表される。   Therefore, an image having a BL shorter than BLmin (an image taken at an imaging point at a distance shorter than BLmin from a reference frame) is unnecessary. Further, assuming that the vehicle speed is v (m / s) and the frame rate of the imaging unit 11 is R (frame / s), the minimum distance between imaging points (between one frame) that can be taken under this condition is as follows: It is expressed by a formula.

Figure 2007322357
Figure 2007322357

従って、nフレーム(nは1以上の整数)離れた撮像地点間の距離は、以下の式で表される。   Therefore, the distance between imaging points separated by n frames (n is an integer of 1 or more) is expressed by the following equation.

Figure 2007322357
Figure 2007322357

更に、数5と数7により以下の式が得られる。

Figure 2007322357
Furthermore, the following formulas are obtained from Formulas 5 and 7.
Figure 2007322357

従って、数8を満たす最小のnとなるようにnをコントロールさせればよい。つまり、数8を満たすようにフレームレートをR/n(フレーム/s)とするか、あるいはフレームレートR(フレーム/s)で撮像した時系列的に連続な複数枚の画像のうちのn=1,2,・・・n−1のフレームを間引き、視差算出に用いる撮像地点間の距離をv/R×nになるようにすればよい。   Therefore, it is only necessary to control n so that the minimum n satisfying Equation 8 is obtained. That is, the frame rate is set to R / n (frame / s) so as to satisfy Formula 8, or n = of a plurality of time-series continuous images captured at the frame rate R (frame / s). It suffices to thin out 1, 2,..., N-1 frames so that the distance between imaging points used for parallax calculation is v / R × n.

本実施の形態によれば、撮像指示部22が指示するフレームレートに応じて撮像部11が撮像することにより撮像地点間の距離をある値以上に保つようにできたり、あるいは、撮像指示部22の指示に応じて撮像した連続する複数枚の画像のうち必要な精度に対して不要な画像を間引いたりすることが出来る。   According to the present embodiment, the distance between the imaging points can be maintained at a certain value or more by imaging by the imaging unit 11 according to the frame rate instructed by the imaging instruction unit 22, or the imaging instruction unit 22 An unnecessary image can be thinned out with respect to a required accuracy among a plurality of consecutive images captured in response to the instruction.

また、本実施の形態に係る距離測定装置は、車載情報処理装置に容易に適用することができ、車載情報処理装置の性能をより高めることができる。ここで、車載情報処理装置には、例えばカーナビゲーションシステム、ECU(Electric Control Unit)等が含まれ得る。   Moreover, the distance measuring device according to the present embodiment can be easily applied to the in-vehicle information processing device, and the performance of the in-vehicle information processing device can be further improved. Here, the in-vehicle information processing apparatus may include, for example, a car navigation system, an ECU (Electric Control Unit), and the like.

更に、距離測定装置を構成するコンピュータにおいて上述した各ステップを実行させるプログラムを、距離測定プログラムとして提供することができる。上述したプログラムは、コンピュータにより読取り可能な記録媒体に記憶させることによって、距離測定装置を構成するコンピュータに実行させることが可能となる。ここで、上記コンピュータにより読取り可能な記録媒体としては、ROMやRAM等のコンピュータに内部実装される内部記憶装置、CD−ROMやフレキシブルディスク、DVDディスク、光磁気ディスク、ICカード等の可搬型記憶媒体や、コンピュータプログラムを保持するデータベース、或いは、他のコンピュータ並びにそのデータベースや、更に回線上の伝送媒体をも含むものである。   Furthermore, a program that causes a computer constituting the distance measuring apparatus to execute the above steps can be provided as a distance measuring program. The above-described program can be executed by a computer constituting the distance measuring device by storing the program in a computer-readable recording medium. Here, examples of the recording medium readable by the computer include an internal storage device such as a ROM and a RAM, a portable storage such as a CD-ROM, a flexible disk, a DVD disk, a magneto-optical disk, and an IC card. It includes a medium, a database holding a computer program, another computer and its database, and a transmission medium on a line.

(付記1) 移動体と障害物の間の距離の測定をコンピュータに実行させる距離測定プログラムであって、
前記移動体に設けられた撮像部により連続して複数のフレームの撮像を行うと共に該撮像を行った位置と姿勢である撮像位置姿勢を検出し、前記フレームと撮像位置姿勢を対応付けて記録する撮像ステップと、
前記撮像ステップにより撮像されたフレームに含まれる前記障害物の特徴点を抽出して該フレームを基準フレームおよび参照フレームとすると共に該特徴点を基準特徴点および参照特徴点とするフレーム決定ステップと、
前記フレーム決定ステップにより決定された参照フレームより後の時刻に撮像されたフレームである探索フレームにおいて前記参照特徴点に対応する特徴点である探索特徴点を探索する探索ステップと、
前記探索ステップにより決定された基準特徴点と前記探索ステップにより決定された探索特徴点と前記撮像ステップにより記録された撮像位置姿勢に基づいてステレオ視を実行し、前記移動体と特徴点の間の距離の算出を行う距離算出ステップと、
前記距離算出ステップにより算出された距離の誤差が所定の条件を満たすか否かの判定を行い、該誤差が前記条件を満たす場合、前記距離算出ステップにより算出された距離を確定した距離として出力する誤差判定ステップと
をコンピュータに実行させる距離測定プログラム。
(付記2) 付記1に記載の距離測定プログラムにおいて、
更に、最後に算出された距離の誤差が前記条件を満たさない場合、最新の探索フレームを新たな参照フレームとすると共に最新の探索特徴点を新たな参照特徴点とするフレーム再決定ステップと、
前記フレーム再決定ステップにより決定された参照フレームより後の時刻に撮像されたフレームを新たな探索フレームとし、該探索フレームにおいて前記参照特徴点に対応する探索特徴点を探索する再探索ステップと、
前記再探索ステップにより決定された基準特徴点と前記再探索ステップにより決定された探索特徴点と前記撮像ステップにより記録された撮像位置姿勢に基づいてステレオ視を実行し、前記移動体と特徴点の間の距離の算出を行う距離再算出ステップと、
前記距離再算出ステップにより算出された距離の誤差が前記条件を満たすか否かの判定を行い、該誤差が前記条件を満たすまで、前記フレーム再決定ステップと前記再探索ステップと前記距離再算出ステップとを繰り返し、該誤差が前記条件を満たす場合、最新の前記距離再算出ステップにより算出された距離を確定した距離として出力する誤差再判定ステップと
をコンピュータに実行させることを特徴とする距離測定プログラム。
(付記3) 付記1または付記2に記載の距離測定プログラムにおいて、
前記条件は、前記距離の誤差が所定の閾値以下となることであることを特徴とする距離測定プログラム。
(付記4) 付記3に記載の距離測定プログラムにおいて、
前記距離の誤差は、該距離、該距離の算出に用いた基準フレームが撮像された位置と該距離の算出に用いた探索フレームが撮像された位置と間の距離である撮像地点間距離、前記ステレオ視における視差の量子化誤差、前記撮像部の焦点距離を用いて算出されることを特徴とする距離測定プログラム。
(付記5) 付記1乃至付記4のいずれかに記載の距離測定プログラムにおいて、
更に、複数の特徴点について得られた前記確定した距離に基づいて、前記障害物の形状情報を生成する障害物形状生成ステップをコンピュータに実行させることを特徴とする距離測定プログラム。
(付記6) 付記5に記載の距離測定プログラムにおいて、
更に、前記障害物形状生成ステップにより生成された前記障害物の形状情報と、予め記録された前記移動体の外形情報と、前記移動体から検出される前記移動体の位置姿勢とに基づいて、前記障害物と前記移動体の位置関係を表示する形状表示ステップをコンピュータに実行させることを特徴とする距離測定プログラム。
(付記7) 付記5に記載の距離測定プログラムにおいて、
更に、前記障害物形状生成ステップにより生成された前記障害物の形状情報と、予め記録された前記移動体の外形情報とに基づいて、移動体が前記障害物に接触するか否かを判定し、判定結果を前記移動体の運転者に通知する接触判定ステップをコンピュータに実行させることを特徴とする距離測定プログラム。
(付記8) 付記1乃至付記7のいずれかに記載の距離測定プログラムにおいて、
前記撮像ステップは、前記移動体の位置と姿勢の変化に基づいて、前記フレームを撮像する位置の間隔を所定の値以上に保つことを特徴とする距離測定プログラム。
(付記9) 付記1乃至付記7のいずれかに記載の距離測定プログラムにおいて、
前記撮像ステップは、前記移動体の位置と姿勢の変化に基づいて、前記フレームが撮像された位置の間隔が所定の値以上となるように、前記フレームを間引くことを特徴とする距離測定プログラム。
(付記10) 移動体と障害物の間の距離の測定を行う距離測定装置であって、
前記移動体に設けられ、連続して複数のフレームの撮像を行うと共に該撮像を行った位置と姿勢である撮像位置姿勢を検出し、前記フレームと撮像位置姿勢を対応付けて記録する撮像部と、
前記撮像部により撮像されたフレームに含まれる前記障害物の特徴点を抽出して該フレームを基準フレームおよび参照フレームとすると共に該特徴点を基準特徴点および参照特徴点とするフレーム決定部と、
前記フレーム決定部により決定された参照フレームより後の時刻に撮像されたフレームである探索フレームにおいて前記参照特徴点に対応する特徴点である探索特徴点を探索する探索部と、
前記探索部により決定された基準特徴点と前記探索部により決定された探索特徴点と前記撮像部により記録された撮像位置姿勢に基づいてステレオ視を実行し、前記移動体と特徴点の間の距離の算出を行う距離算出部と、
前記距離算出部により算出された距離の誤差が所定の条件を満たすか否かの判定を行い、該誤差が前記条件を満たす場合、前記距離算出部により算出された距離を確定した距離として出力する誤差判定部と
を備える距離測定装置。
(付記11) 付記10に記載の距離測定装置において、
前記フレーム決定部は、最後に算出された距離の誤差が前記条件を満たさない場合、最新の探索フレームを新たな参照フレームとすると共に最新の探索特徴点を新たな参照特徴点とするフレーム再決定処理を行い、
前記探索部は、前記フレーム再決定処理により決定された参照フレームより後の時刻に撮像されたフレームを新たな探索フレームとし、該探索フレームにおいて前記参照特徴点に対応する探索特徴点を探索する再探索処理を行い、
前記距離算出部は、前記再探索処理により決定された基準特徴点と前記再探索処理により決定された探索特徴点と前記撮像部により記録された撮像位置姿勢に基づいてステレオ視を実行し、前記移動体と特徴点の間の距離の算出を行う距離再算出処理を行い、
前記誤差判定部は、前記距離再算出処理により算出された距離の誤差が前記条件を満たすか否かの判定を行い、該誤差が前記条件を満たすまで、前記フレーム再決定処理と前記再探索処理と前記距離再算出処理とを繰り返し、該誤差が前記条件を満たす場合、最新の前記距離再算出処理により算出された距離を確定した距離として出力することを特徴とする距離測定装置。
(付記12) 付記10または付記11に記載の距離測定装置において、
前記条件は、前記距離の誤差が所定の閾値以下となることであることを特徴とする距離測定装置。
(付記13) 付記12に記載の距離測定装置において、
前記距離の誤差は、該距離、該距離の算出に用いた基準フレームが撮像された位置と該距離の算出に用いた探索フレームが撮像された位置と間の距離である撮像地点間距離、前記ステレオ視における視差の量子化誤差、前記撮像部の焦点距離を用いて算出されることを特徴とする距離測定装置。
(付記14) 付記10乃至付記13のいずれかに記載の距離測定装置において、
更に、複数の特徴点について得られた前記確定した距離に基づいて、前記障害物の形状情報を生成する障害物形状生成部を備えることを特徴とする距離測定装置。
(付記15) 付記14に記載の距離測定装置において、
更に、前記障害物形状生成部により生成された前記障害物の形状情報と、予め記録された前記移動体の外形情報と、前記移動体から検出される前記移動体の位置姿勢とに基づいて、前記障害物と前記移動体の位置関係を表示する形状表示部を備えることを特徴とする距離測定装置。
(付記16) 付記14に記載の距離測定装置において、
更に、前記障害物形状生成部により生成された前記障害物の形状情報と、予め記録された前記移動体の外形情報とに基づいて、移動体が前記障害物に接触するか否かを判定し、判定結果を前記移動体の運転者に通知する接触判定部を備えることを特徴とする距離測定装置。
(付記17) 付記10乃至付記16のいずれかに記載の距離測定装置において、
前記撮像部は、前記移動体の位置と姿勢の変化に基づいて、前記フレームを撮像する位置の間隔を所定の値以上に保つことを特徴とする距離測定装置。
(付記18) 付記10乃至付記16のいずれかに記載の距離測定装置において、
前記撮像部は、前記移動体の位置と姿勢の変化に基づいて、前記フレームが撮像された位置の間隔が所定の値以上となるように、前記フレームを間引くことを特徴とする距離測定装置。
(付記19) 移動体と障害物の間の距離の測定を行う距離測定方法であって、
前記移動体に設けられた撮像部により連続して複数のフレームの撮像を行うと共に該撮像を行った位置と姿勢である撮像位置姿勢を検出し、前記フレームと撮像位置姿勢を対応付けて記録する撮像ステップと、
前記撮像ステップにより撮像されたフレームに含まれる前記障害物の特徴点を抽出して該フレームを基準フレームおよび参照フレームとすると共に該特徴点を基準特徴点および参照特徴点とするフレーム決定ステップと、
前記フレーム決定ステップにより決定された参照フレームより後の時刻に撮像されたフレームである探索フレームにおいて前記参照特徴点に対応する特徴点である探索特徴点を探索する探索ステップと、
前記探索ステップにより決定された基準特徴点と前記探索ステップにより決定された探索特徴点と前記撮像ステップにより記録された撮像位置姿勢に基づいてステレオ視を実行し、前記移動体と特徴点の間の距離の算出を行う距離算出ステップと、
前記距離算出ステップにより算出された距離の誤差が所定の条件を満たすか否かの判定を行い、該誤差が前記条件を満たす場合、前記距離算出ステップにより算出された距離を確定した距離として出力する誤差判定ステップと
を実行する距離測定方法。
(付記20) 付記19に記載の距離測定方法において、
更に、最後に算出された距離の誤差が前記条件を満たさない場合、最新の探索フレームを新たな参照フレームとすると共に最新の探索特徴点を新たな参照特徴点とするフレーム再決定ステップと、
前記フレーム再決定ステップにより決定された参照フレームより後の時刻に撮像されたフレームを新たな探索フレームとし、該探索フレームにおいて前記参照特徴点に対応する探索特徴点を探索する再探索ステップと、
前記再探索ステップにより決定された基準特徴点と前記再探索ステップにより決定された探索特徴点と前記撮像ステップにより記録された撮像位置姿勢に基づいてステレオ視を実行し、前記移動体と特徴点の間の距離の算出を行う距離再算出ステップと、
前記距離再算出ステップにより算出された距離の誤差が前記条件を満たすか否かの判定を行い、該誤差が前記条件を満たすまで、前記フレーム再決定ステップと前記再探索ステップと前記距離再算出ステップとを繰り返し、該誤差が前記条件を満たす場合、最新の前記距離再算出ステップにより算出された距離を確定した距離として出力する誤差再判定ステップと
を実行することを特徴とする距離測定方法。
(Supplementary note 1) A distance measurement program for causing a computer to measure the distance between a moving object and an obstacle,
The imaging unit provided in the moving body continuously captures a plurality of frames, detects an imaging position and orientation that is the position and orientation at which the imaging was performed, and records the frames and the imaging position and orientation in association with each other. Imaging step;
Extracting a feature point of the obstacle included in the frame imaged in the imaging step to make the frame a reference frame and a reference frame, and a frame determination step using the feature point as a reference feature point and a reference feature point;
A search step for searching for a search feature point that is a feature point corresponding to the reference feature point in a search frame that is a frame imaged at a time later than the reference frame determined by the frame determination step;
Stereo vision is executed based on the reference feature point determined by the search step, the search feature point determined by the search step, and the imaging position and orientation recorded by the imaging step, and between the moving object and the feature point A distance calculating step for calculating the distance;
It is determined whether or not the error in the distance calculated in the distance calculation step satisfies a predetermined condition. If the error satisfies the condition, the distance calculated in the distance calculation step is output as a fixed distance. A distance measurement program that causes a computer to execute an error determination step.
(Appendix 2) In the distance measurement program described in Appendix 1,
Further, when the error of the distance calculated at the end does not satisfy the condition, a frame re-determination step in which the latest search frame is a new reference frame and the latest search feature point is a new reference feature point;
Re-search step of searching for a search feature point corresponding to the reference feature point in the search frame, using a frame imaged at a time later than the reference frame determined in the frame re-determination step as a new search frame;
Stereo vision is executed based on the reference feature point determined by the re-search step, the search feature point determined by the re-search step, and the imaging position and orientation recorded by the imaging step, and the moving object and the feature point A distance recalculation step for calculating a distance between;
It is determined whether or not an error in the distance calculated in the distance recalculation step satisfies the condition, and the frame re-determination step, the re-search step, and the distance re-calculation step until the error satisfies the condition. When the error satisfies the above condition, an error re-determination step for outputting the distance calculated by the latest distance re-calculation step as a fixed distance is executed by the computer. .
(Appendix 3) In the distance measurement program described in Appendix 1 or Appendix 2,
The condition is that the distance error is a predetermined threshold value or less.
(Appendix 4) In the distance measurement program described in Appendix 3,
The error of the distance is the distance between the imaging points that is the distance between the position where the reference frame used for calculating the distance is imaged and the position where the search frame used for calculating the distance is imaged, A distance measurement program calculated using a quantization error of parallax in stereo vision and a focal length of the imaging unit.
(Supplementary note 5) In the distance measurement program according to any one of supplementary notes 1 to 4,
Furthermore, the distance measurement program which makes a computer perform the obstruction shape generation step which produces | generates the shape information of the said obstruction based on the said fixed distance acquired about several feature points.
(Appendix 6) In the distance measurement program described in Appendix 5,
Further, based on the shape information of the obstacle generated by the obstacle shape generation step, the external shape information of the mobile body recorded in advance, and the position and orientation of the mobile body detected from the mobile body, A distance measurement program for causing a computer to execute a shape display step for displaying a positional relationship between the obstacle and the moving body.
(Appendix 7) In the distance measurement program described in Appendix 5,
Further, it is determined whether or not the moving body contacts the obstacle based on the obstacle shape information generated by the obstacle shape generation step and the outer shape information of the moving body recorded in advance. A distance measurement program for causing a computer to execute a contact determination step of notifying a driver of the moving body of a determination result.
(Supplementary note 8) In the distance measurement program according to any one of supplementary notes 1 to 7,
The distance measurement program characterized in that the imaging step maintains an interval between positions where the frames are captured based on a change in the position and orientation of the moving body.
(Supplementary note 9) In the distance measurement program according to any one of supplementary notes 1 to 7,
The distance measurement program characterized in that the imaging step thins out the frames so that an interval between positions where the frames are imaged is equal to or greater than a predetermined value based on a change in position and posture of the moving body.
(Supplementary Note 10) A distance measuring device for measuring a distance between a moving object and an obstacle,
An imaging unit that is provided on the moving body and continuously captures images of a plurality of frames, detects an imaging position and orientation that is the position and orientation of the imaging, and records the frames and the imaging position and orientation in association with each other; ,
A frame determination unit that extracts feature points of the obstacle included in the frame imaged by the imaging unit and sets the frame as a reference frame and a reference frame, and uses the feature point as a reference feature point and a reference feature point;
A search unit that searches for a search feature point that is a feature point corresponding to the reference feature point in a search frame that is a frame imaged at a time later than the reference frame determined by the frame determination unit;
Stereo vision is executed based on the reference feature point determined by the search unit, the search feature point determined by the search unit, and the imaging position and orientation recorded by the imaging unit, and between the moving object and the feature point A distance calculation unit for calculating the distance;
It is determined whether or not an error in the distance calculated by the distance calculation unit satisfies a predetermined condition. If the error satisfies the condition, the distance calculated by the distance calculation unit is output as a fixed distance. A distance measuring device comprising an error determination unit.
(Supplementary note 11) In the distance measuring device according to supplementary note 10,
The frame determination unit, when the error of the distance calculated last does not satisfy the condition, frame re-determination using the latest search frame as a new reference frame and the latest search feature point as a new reference feature point Process,
The search unit sets, as a new search frame, a frame imaged at a time later than the reference frame determined by the frame redetermination process, and searches for a search feature point corresponding to the reference feature point in the search frame. Perform a search process,
The distance calculation unit performs stereo vision based on the reference feature point determined by the re-search process, the search feature point determined by the re-search process, and the imaging position and orientation recorded by the imaging unit, Perform a distance recalculation process to calculate the distance between the moving object and the feature point,
The error determination unit determines whether or not an error in the distance calculated by the distance recalculation process satisfies the condition, and the frame redetermination process and the re-search process until the error satisfies the condition. And the distance recalculation process are repeated, and if the error satisfies the condition, the distance calculated by the latest distance recalculation process is output as a fixed distance.
(Supplementary Note 12) In the distance measuring device according to Supplementary Note 10 or Supplementary Note 11,
The condition is that the distance error is not more than a predetermined threshold value.
(Supplementary note 13) In the distance measuring device according to supplementary note 12,
The error of the distance is the distance between the imaging points that is the distance between the position where the reference frame used for calculating the distance is imaged and the position where the search frame used for calculating the distance is imaged, A distance measuring device calculated using a quantization error of parallax in stereo vision and a focal length of the imaging unit.
(Supplementary Note 14) In the distance measuring device according to any one of Supplementary Notes 10 to 13,
The distance measuring device further includes an obstacle shape generation unit that generates shape information of the obstacle based on the determined distance obtained for a plurality of feature points.
(Supplementary Note 15) In the distance measuring device according to Supplementary Note 14,
Furthermore, based on the shape information of the obstacle generated by the obstacle shape generation unit, the external shape information of the mobile body recorded in advance, and the position and orientation of the mobile body detected from the mobile body, A distance measuring apparatus comprising a shape display unit for displaying a positional relationship between the obstacle and the moving body.
(Supplementary note 16) In the distance measuring device according to supplementary note 14,
Further, it is determined whether or not the moving body contacts the obstacle based on the obstacle shape information generated by the obstacle shape generating unit and the outer shape information of the moving body recorded in advance. A distance measurement device comprising a contact determination unit that notifies a determination result to a driver of the moving body.
(Supplementary Note 17) In the distance measuring device according to any one of Supplementary Notes 10 to 16,
The distance measuring apparatus according to claim 1, wherein the imaging unit maintains an interval between positions where the frame is imaged at a predetermined value or more based on a change in position and posture of the moving body.
(Supplementary note 18) In the distance measuring device according to any one of supplementary notes 10 to 16,
The distance measuring apparatus according to claim 1, wherein the imaging unit thins out the frames based on a change in the position and orientation of the moving body so that an interval between positions where the frames are captured is equal to or greater than a predetermined value.
(Supplementary note 19) A distance measuring method for measuring a distance between a moving object and an obstacle,
The imaging unit provided in the moving body continuously captures a plurality of frames, detects an imaging position and orientation that is the position and orientation at which the imaging was performed, and records the frames and the imaging position and orientation in association with each other. Imaging step;
Extracting a feature point of the obstacle included in the frame imaged in the imaging step to make the frame a reference frame and a reference frame, and a frame determination step using the feature point as a reference feature point and a reference feature point;
A search step for searching for a search feature point that is a feature point corresponding to the reference feature point in a search frame that is a frame imaged at a time later than the reference frame determined by the frame determination step;
Stereo vision is executed based on the reference feature point determined by the search step, the search feature point determined by the search step, and the imaging position and orientation recorded by the imaging step, and between the moving object and the feature point A distance calculating step for calculating the distance;
It is determined whether or not the error in the distance calculated in the distance calculation step satisfies a predetermined condition. If the error satisfies the condition, the distance calculated in the distance calculation step is output as a fixed distance. A distance measurement method that executes an error determination step.
(Supplementary note 20) In the distance measurement method according to supplementary note 19,
Further, when the error of the distance calculated at the end does not satisfy the condition, a frame re-determination step in which the latest search frame is a new reference frame and the latest search feature point is a new reference feature point;
Re-search step of searching for a search feature point corresponding to the reference feature point in the search frame, using a frame imaged at a time later than the reference frame determined in the frame re-determination step as a new search frame;
Stereo vision is executed based on the reference feature point determined by the re-search step, the search feature point determined by the re-search step, and the imaging position and orientation recorded by the imaging step, and the moving object and the feature point A distance recalculation step for calculating a distance between;
It is determined whether or not an error in the distance calculated in the distance recalculation step satisfies the condition, and the frame re-determination step, the re-search step, and the distance re-calculation step until the error satisfies the condition. When the error satisfies the above condition, an error re-determination step is executed to output the distance calculated by the latest distance re-calculation step as a fixed distance.

実施の形態1に係る駐車支援装置の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the parking assistance apparatus which concerns on Embodiment 1. FIG. 実施の形態1に係る駐車支援装置の動作の一例を示すフローチャートである。4 is a flowchart showing an example of the operation of the parking assistance device according to the first embodiment. 実施の形態1に係る移動車両の車庫入れ駐車動作の一例を示す平面図である。FIG. 6 is a plan view showing an example of a garage parking operation of the moving vehicle according to the first embodiment. 実施の形態1に係る移動車両の縦列駐車動作の一例を示す平面図である。6 is a plan view showing an example of parallel parking operation of the moving vehicle according to Embodiment 1. FIG. 実施の形態1に係る駐車動作の一例を示す平面図である。6 is a plan view illustrating an example of a parking operation according to Embodiment 1. FIG. 実施の形態1に係る特徴点と撮像地点の関係の一例を示すグラフである。4 is a graph illustrating an example of a relationship between feature points and imaging points according to the first embodiment. 実施の形態1に係る距離算出部14の動作の一例を示すフローチャートである。3 is a flowchart illustrating an example of an operation of a distance calculation unit 14 according to the first embodiment. 実施の形態1に係る処理S13〜S15の動作の一例を示す図である。It is a figure which shows an example of operation | movement of process S13-S15 which concerns on Embodiment 1. FIG. 従来の同一特徴点探索の一例を示す図である。It is a figure which shows an example of the conventional same feature point search. 実施の形態1に係る同一特徴点探索の一例を示す図である。6 is a diagram showing an example of the same feature point search according to Embodiment 1. FIG. 実施の形態1に係る駐車動作中に撮像された複数の画像と同一特徴点の視差の一例を示す平面図である。6 is a plan view showing an example of parallax of the same feature points as a plurality of images taken during the parking operation according to Embodiment 1. FIG. 実施の形態2に係る駐車支援装置の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the parking assistance apparatus which concerns on Embodiment 2. FIG. 従来のステレオ視による距離測定方法の一例を示す平面図である。It is a top view which shows an example of the distance measuring method by the conventional stereo vision. 従来のステレオ視における問題点を示す表である。It is a table | surface which shows the problem in the conventional stereo vision. 従来のステレオ視による駐車スペースの奥行き測定方法の一例を示す平面図である。It is a top view which shows an example of the depth measuring method of the parking space by the conventional stereo vision.

符号の説明Explanation of symbols

11 撮像部、12 メモリ、13 特徴点抽出部、14 距離算出部、15 3次元モデル生成部、16 外形寸法記憶部、17 判定部、18 表示部、21 車両状態検出部、22 撮像指示部。 DESCRIPTION OF SYMBOLS 11 Image pick-up part, 12 Memory, 13 Feature point extraction part, 14 Distance calculation part, 15 3D model production | generation part, 16 External dimension memory | storage part, 17 Determination part, 18 Display part, 21 Vehicle state detection part, 22 Imaging instruction | indication part

Claims (5)

移動体と障害物の間の距離の測定をコンピュータに実行させる距離測定プログラムであって、
前記移動体に設けられた撮像部により連続して複数のフレームの撮像を行うと共に該撮像を行った位置と姿勢である撮像位置姿勢を検出し、前記フレームと撮像位置姿勢を対応付けて記録する撮像ステップと、
前記撮像ステップにより撮像されたフレームに含まれる前記障害物の特徴点を抽出して該フレームを基準フレームおよび参照フレームとすると共に該特徴点を基準特徴点および参照特徴点とするフレーム決定ステップと、
前記フレーム決定ステップにより決定された参照フレームより後の時刻に撮像されたフレームである探索フレームにおいて前記参照特徴点に対応する特徴点である探索特徴点を探索する探索ステップと、
前記探索ステップにより決定された基準特徴点と前記探索ステップにより決定された探索特徴点と前記撮像ステップにより記録された撮像位置姿勢に基づいてステレオ視を実行し、前記移動体と特徴点の間の距離の算出を行う距離算出ステップと、
前記距離算出ステップにより算出された距離の誤差が所定の条件を満たすか否かの判定を行い、該誤差が前記条件を満たす場合、前記距離算出ステップにより算出された距離を確定した距離として出力する誤差判定ステップと
をコンピュータに実行させる距離測定プログラム。
A distance measurement program for causing a computer to measure a distance between a moving object and an obstacle,
The imaging unit provided in the moving body continuously captures a plurality of frames, detects an imaging position and orientation that is the position and orientation at which the imaging was performed, and records the frames and the imaging position and orientation in association with each other. Imaging step;
Extracting a feature point of the obstacle included in the frame imaged in the imaging step to make the frame a reference frame and a reference frame, and a frame determination step using the feature point as a reference feature point and a reference feature point;
A search step for searching for a search feature point that is a feature point corresponding to the reference feature point in a search frame that is a frame imaged at a time later than the reference frame determined by the frame determination step;
Stereo vision is executed based on the reference feature point determined by the search step, the search feature point determined by the search step, and the imaging position and orientation recorded by the imaging step, and between the moving object and the feature point A distance calculating step for calculating the distance;
It is determined whether or not the error in the distance calculated in the distance calculation step satisfies a predetermined condition. If the error satisfies the condition, the distance calculated in the distance calculation step is output as a fixed distance. A distance measurement program that causes a computer to execute an error determination step.
請求項1に記載の距離測定プログラムにおいて、
更に、最後に算出された距離の誤差が前記条件を満たさない場合、最新の探索フレームを新たな参照フレームとすると共に最新の探索特徴点を新たな参照特徴点とするフレーム再決定ステップと、
前記フレーム再決定ステップにより決定された参照フレームより後の時刻に撮像されたフレームを新たな探索フレームとし、該探索フレームにおいて前記参照特徴点に対応する探索特徴点を探索する再探索ステップと、
前記再探索ステップにより決定された基準特徴点と前記再探索ステップにより決定された探索特徴点と前記撮像ステップにより記録された撮像位置姿勢に基づいてステレオ視を実行し、前記移動体と特徴点の間の距離の算出を行う距離再算出ステップと、
前記距離再算出ステップにより算出された距離の誤差が前記条件を満たすか否かの判定を行い、該誤差が前記条件を満たすまで、前記フレーム再決定ステップと前記再探索ステップと前記距離再算出ステップとを繰り返し、該誤差が前記条件を満たす場合、最新の前記距離再算出ステップにより算出された距離を確定した距離として出力する誤差再判定ステップと
をコンピュータに実行させることを特徴とする距離測定プログラム。
The distance measurement program according to claim 1,
Further, when the error of the distance calculated at the end does not satisfy the condition, a frame re-determination step in which the latest search frame is a new reference frame and the latest search feature point is a new reference feature point;
Re-search step of searching for a search feature point corresponding to the reference feature point in the search frame, using a frame imaged at a time later than the reference frame determined in the frame re-determination step as a new search frame;
Stereo vision is executed based on the reference feature point determined by the re-search step, the search feature point determined by the re-search step, and the imaging position and orientation recorded by the imaging step, and the moving object and the feature point A distance recalculation step for calculating a distance between;
It is determined whether or not an error in the distance calculated in the distance recalculation step satisfies the condition, and the frame re-determination step, the re-search step, and the distance re-calculation step until the error satisfies the condition. When the error satisfies the above condition, an error re-determination step for outputting the distance calculated by the latest distance re-calculation step as a fixed distance is executed by the computer. .
請求項1または請求項2に記載の距離測定プログラムにおいて、
前記条件は、前記距離の誤差が所定の閾値以下となることであることを特徴とする距離測定プログラム。
In the distance measurement program according to claim 1 or 2,
The condition is that the distance error is a predetermined threshold value or less.
移動体と障害物の間の距離の測定を行う距離測定装置であって、
前記移動体に設けられ、連続して複数のフレームの撮像を行うと共に該撮像を行った位置と姿勢である撮像位置姿勢を検出し、前記フレームと撮像位置姿勢を対応付けて記録する撮像部と、
前記撮像部により撮像されたフレームに含まれる前記障害物の特徴点を抽出して該フレームを基準フレームおよび参照フレームとすると共に該特徴点を基準特徴点および参照特徴点とするフレーム決定部と、
前記フレーム決定部により決定された参照フレームより後の時刻に撮像されたフレームである探索フレームにおいて前記参照特徴点に対応する特徴点である探索特徴点を探索する探索部と、
前記探索部により決定された基準特徴点と前記探索部により決定された探索特徴点と前記撮像部により記録された撮像位置姿勢に基づいてステレオ視を実行し、前記移動体と特徴点の間の距離の算出を行う距離算出部と、
前記距離算出部により算出された距離の誤差が所定の条件を満たすか否かの判定を行い、該誤差が前記条件を満たす場合、前記距離算出部により算出された距離を確定した距離として出力する誤差判定部と
を備える距離測定装置。
A distance measuring device for measuring a distance between a moving object and an obstacle,
An imaging unit that is provided on the moving body and continuously captures images of a plurality of frames, detects an imaging position and orientation that is the position and orientation of the imaging, and records the frames and the imaging position and orientation in association with each other; ,
A frame determination unit that extracts feature points of the obstacle included in the frame imaged by the imaging unit and sets the frame as a reference frame and a reference frame, and uses the feature point as a reference feature point and a reference feature point;
A search unit that searches for a search feature point that is a feature point corresponding to the reference feature point in a search frame that is a frame imaged at a time later than the reference frame determined by the frame determination unit;
Stereo vision is executed based on the reference feature point determined by the search unit, the search feature point determined by the search unit, and the imaging position and orientation recorded by the imaging unit, and between the moving object and the feature point A distance calculation unit for calculating the distance;
It is determined whether or not an error in the distance calculated by the distance calculation unit satisfies a predetermined condition. If the error satisfies the condition, the distance calculated by the distance calculation unit is output as a fixed distance. A distance measuring device comprising an error determination unit.
移動体と障害物の間の距離の測定を行う距離測定方法であって、
前記移動体に設けられた撮像部により連続して複数のフレームの撮像を行うと共に該撮像を行った位置と姿勢である撮像位置姿勢を検出し、前記フレームと撮像位置姿勢を対応付けて記録する撮像ステップと、
前記撮像ステップにより撮像されたフレームに含まれる前記障害物の特徴点を抽出して該フレームを基準フレームおよび参照フレームとすると共に該特徴点を基準特徴点および参照特徴点とするフレーム決定ステップと、
前記フレーム決定ステップにより決定された参照フレームより後の時刻に撮像されたフレームである探索フレームにおいて前記参照特徴点に対応する特徴点である探索特徴点を探索する探索ステップと、
前記探索ステップにより決定された基準特徴点と前記探索ステップにより決定された探索特徴点と前記撮像ステップにより記録された撮像位置姿勢に基づいてステレオ視を実行し、前記移動体と特徴点の間の距離の算出を行う距離算出ステップと、
前記距離算出ステップにより算出された距離の誤差が所定の条件を満たすか否かの判定を行い、該誤差が前記条件を満たす場合、前記距離算出ステップにより算出された距離を確定した距離として出力する誤差判定ステップと
を実行する距離測定方法。
A distance measurement method for measuring a distance between a moving object and an obstacle,
The imaging unit provided in the moving body continuously captures a plurality of frames, detects an imaging position and orientation that is the position and orientation at which the imaging was performed, and records the frames and the imaging position and orientation in association with each other. Imaging step;
Extracting a feature point of the obstacle included in the frame imaged in the imaging step to make the frame a reference frame and a reference frame, and a frame determination step using the feature point as a reference feature point and a reference feature point;
A search step for searching for a search feature point that is a feature point corresponding to the reference feature point in a search frame that is a frame imaged at a time later than the reference frame determined by the frame determination step;
Stereo vision is executed based on the reference feature point determined by the search step, the search feature point determined by the search step, and the imaging position and orientation recorded by the imaging step, and between the moving object and the feature point A distance calculating step for calculating the distance;
It is determined whether or not the error in the distance calculated in the distance calculation step satisfies a predetermined condition. If the error satisfies the condition, the distance calculated in the distance calculation step is output as a fixed distance. A distance measurement method that executes an error determination step.
JP2006155856A 2006-06-05 2006-06-05 Distance measuring program, distance measuring device, distance measuring method Expired - Fee Related JP4899647B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006155856A JP4899647B2 (en) 2006-06-05 2006-06-05 Distance measuring program, distance measuring device, distance measuring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006155856A JP4899647B2 (en) 2006-06-05 2006-06-05 Distance measuring program, distance measuring device, distance measuring method

Publications (2)

Publication Number Publication Date
JP2007322357A true JP2007322357A (en) 2007-12-13
JP4899647B2 JP4899647B2 (en) 2012-03-21

Family

ID=38855305

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006155856A Expired - Fee Related JP4899647B2 (en) 2006-06-05 2006-06-05 Distance measuring program, distance measuring device, distance measuring method

Country Status (1)

Country Link
JP (1) JP4899647B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009157298A1 (en) * 2008-06-26 2009-12-30 アイシン精機株式会社 Parking assistance device, and parking guidance apparatus employing the same
JP2010210486A (en) * 2009-03-11 2010-09-24 Omron Corp Image processor, method and program
WO2010128640A1 (en) * 2009-05-07 2010-11-11 コニカミノルタホールディングス株式会社 Device for acquiring stereo image
JP2013024686A (en) * 2011-07-20 2013-02-04 Kokusai Kogyo Co Ltd Mobile mapping system, method for measuring route object using the same, and position specification program
EP2738740A1 (en) 2012-11-30 2014-06-04 Fujitsu Limited Image processing device and image processing method
WO2014174676A1 (en) * 2013-04-26 2014-10-30 トヨタ自動車 株式会社 Parking assist device
WO2014192061A1 (en) * 2013-05-27 2014-12-04 パイオニア株式会社 Image processing device, image processing method, and image processing program
WO2016006451A1 (en) * 2014-07-10 2016-01-14 オリンパス株式会社 Observation system
WO2018207782A1 (en) * 2017-05-09 2018-11-15 株式会社デンソー Parking space detection device
CN109171616A (en) * 2018-08-07 2019-01-11 重庆金山医疗器械有限公司 Obtain the system and method for 3D shape inside measured object
CN114638880A (en) * 2022-05-23 2022-06-17 中国科学技术大学先进技术研究院 Planar ranging method, monocular camera and computer readable storage medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004069583A (en) * 2002-08-08 2004-03-04 Nissan Motor Co Ltd Image processing device
JP2004114977A (en) * 2002-09-30 2004-04-15 Aisin Seiki Co Ltd Moving body periphery monitoring device
JP2005061931A (en) * 2003-08-11 2005-03-10 Nippon Telegr & Teleph Corp <Ntt> Three-dimensional shape recovery method, its apparatus, and three-dimensional shape recovery program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004069583A (en) * 2002-08-08 2004-03-04 Nissan Motor Co Ltd Image processing device
JP2004114977A (en) * 2002-09-30 2004-04-15 Aisin Seiki Co Ltd Moving body periphery monitoring device
JP2005061931A (en) * 2003-08-11 2005-03-10 Nippon Telegr & Teleph Corp <Ntt> Three-dimensional shape recovery method, its apparatus, and three-dimensional shape recovery program

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009157298A1 (en) * 2008-06-26 2009-12-30 アイシン精機株式会社 Parking assistance device, and parking guidance apparatus employing the same
JP2010210486A (en) * 2009-03-11 2010-09-24 Omron Corp Image processor, method and program
JP5652391B2 (en) * 2009-05-07 2015-01-14 コニカミノルタ株式会社 Stereo image acquisition device
WO2010128640A1 (en) * 2009-05-07 2010-11-11 コニカミノルタホールディングス株式会社 Device for acquiring stereo image
JPWO2010128640A1 (en) * 2009-05-07 2012-11-01 コニカミノルタホールディングス株式会社 Stereo image acquisition device
JP2013024686A (en) * 2011-07-20 2013-02-04 Kokusai Kogyo Co Ltd Mobile mapping system, method for measuring route object using the same, and position specification program
EP2738740A1 (en) 2012-11-30 2014-06-04 Fujitsu Limited Image processing device and image processing method
JP5975172B2 (en) * 2013-04-26 2016-08-23 トヨタ自動車株式会社 Parking assistance device
CN105121231A (en) * 2013-04-26 2015-12-02 丰田自动车株式会社 Parking assist device
WO2014174676A1 (en) * 2013-04-26 2014-10-30 トヨタ自動車 株式会社 Parking assist device
WO2014192061A1 (en) * 2013-05-27 2014-12-04 パイオニア株式会社 Image processing device, image processing method, and image processing program
WO2016006451A1 (en) * 2014-07-10 2016-01-14 オリンパス株式会社 Observation system
JP2016017921A (en) * 2014-07-10 2016-02-01 オリンパス株式会社 Observation system
CN106574831A (en) * 2014-07-10 2017-04-19 奥林巴斯株式会社 Observation system
US10485402B2 (en) 2014-07-10 2019-11-26 Olympus Corporation Observation system
WO2018207782A1 (en) * 2017-05-09 2018-11-15 株式会社デンソー Parking space detection device
JP2018190220A (en) * 2017-05-09 2018-11-29 株式会社デンソー Parking space detection device
CN109171616A (en) * 2018-08-07 2019-01-11 重庆金山医疗器械有限公司 Obtain the system and method for 3D shape inside measured object
CN114638880A (en) * 2022-05-23 2022-06-17 中国科学技术大学先进技术研究院 Planar ranging method, monocular camera and computer readable storage medium

Also Published As

Publication number Publication date
JP4899647B2 (en) 2012-03-21

Similar Documents

Publication Publication Date Title
JP4899647B2 (en) Distance measuring program, distance measuring device, distance measuring method
JP5782708B2 (en) Driving support device
JP5639874B2 (en) Driving assistance device
EP2085791A1 (en) Image processing device, image processing method, and program
JP6405778B2 (en) Object tracking method and object tracking apparatus
JP5968064B2 (en) Traveling lane recognition device and traveling lane recognition method
JP4702569B2 (en) Image processing apparatus for vehicle
US11143511B2 (en) On-vehicle processing device
JP6520740B2 (en) Object detection method, object detection device, and program
JP2014034251A (en) Vehicle traveling control device and method thereof
JP4660569B2 (en) Object detection apparatus and object detection method
JP2013020458A (en) On-vehicle object discrimination device
JP6129268B2 (en) Vehicle driving support system and driving support method
US11468691B2 (en) Traveling lane recognition apparatus and traveling lane recognition method
CN110945578A (en) Vehicle-mounted processing device
JP4052291B2 (en) Image processing apparatus for vehicle
JP2015225546A (en) Object detection device, drive support apparatus, object detection method, and object detection program
JP2007278813A (en) Vehicle-position positioning device
JP2002228734A (en) Peripheral object confirming device
JP2006318062A (en) Image processor, image processing method and image processing program
JP4553071B1 (en) 3D information display device and 3D information display method
KR20160125803A (en) Apparatus for defining an area in interest, apparatus for detecting object in an area in interest and method for defining an area in interest
JP2009014444A (en) Range finder
JP5903901B2 (en) Vehicle position calculation device
JP2006322892A (en) Three-dimensional position measuring device and three-dimensional position measuring program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090309

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110907

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110913

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111206

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111219

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150113

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees