JP6237874B2 - 自己位置算出装置及び自己位置算出方法 - Google Patents

自己位置算出装置及び自己位置算出方法 Download PDF

Info

Publication number
JP6237874B2
JP6237874B2 JP2016503895A JP2016503895A JP6237874B2 JP 6237874 B2 JP6237874 B2 JP 6237874B2 JP 2016503895 A JP2016503895 A JP 2016503895A JP 2016503895 A JP2016503895 A JP 2016503895A JP 6237874 B2 JP6237874 B2 JP 6237874B2
Authority
JP
Japan
Prior art keywords
vehicle
calculation
self
posture angle
feature points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016503895A
Other languages
English (en)
Other versions
JPWO2015125296A1 (ja
Inventor
山口 一郎
一郎 山口
西内 秀和
秀和 西内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Publication of JPWO2015125296A1 publication Critical patent/JPWO2015125296A1/ja
Application granted granted Critical
Publication of JP6237874B2 publication Critical patent/JP6237874B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)
  • Lighting Device Outwards From Vehicle And Optical Signal (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、自己位置算出装置及び自己位置算出方法に関するものである。
車両に搭載されたカメラにより撮像された車両の近傍の画像を取得し、画像の変化に基づいて車両の移動量を求める技術が知られている(特許文献1参照)。特許文献1では、車両の低速かつ微妙な移動においても精度よく移動量を求めるために、画像の中から特徴点を検出し、画像上の特徴点の位置を求め、特徴点の移動方向及び移動距離(移動量)から車両の移動量を求めている。
特開2008−175717号公報
しかし、特徴点の検出状態が悪い場合、特徴点の位置から車両の移動量を精度よく求めることは難しい。
本発明は上記課題に鑑みて成されたものであり、その目的は、特徴点の検出状態に係わらず、車両の現在位置を精度良く且つ安定して推定することができる自己位置算出装置及び自己位置算出方法を提供することである。
本発明の一態様に係わる自己位置算出装置は、車両周囲の路面にパターン光を投光する投光器と、パターン光が投光された領域を含む車両周囲の路面を撮像して画像を取得する撮像部とを備える。自己位置算出装置は、撮像部により取得された画像におけるパターン光の位置から、路面に対する車両の姿勢角を算出し、画像から検出された路面上の複数の特徴点の時間変化に基づいて、車両の姿勢変化量を算出する。そして、車両の初期位置および姿勢角に、姿勢変化量を加算してゆくことで、車両の現在位置および姿勢角を算出する。自己位置算出装置は、複数の特徴点の検出状態が第1基準を満たさず、悪い状態の場合、その時の車両の現在位置およびパターン光の位置から算出された車両の姿勢角を、車両の初期位置および姿勢角に設定し、姿勢変化量の加算を開始する。
図1は、第1実施形態に係わる自己位置算出装置の全体構成を示すブロック図である。 図2は、車両10への投光器11及びカメラ12の搭載例を示す外観図である。 図3(a)は、投光器11とカメラ12の間の基線長Lbと、各スポット光の画像上の座標(U、V)とから、各スポット光が照射された路面31上の位置を算出する様子を示す図であり、図3(b)は、パターン光32aが照射された領域とは異なる他の領域33から検出された特徴点の時間変化から、カメラ12の移動方向34を求める様子を示す模式図である。 図4(a)及び図4(b)は、カメラ12により取得された画像に対して二値化処理を施したパターン光32aの画像を示す図であり、図4(a)はパターン光32a全体を示し、図4(b)は1つのスポット光Sを拡大して示し、図4(c)はパターン光抽出部21により抽出された各スポット光Sの重心の位置Hを示す図である。 図5は、距離及び姿勢角の変化量を算出する方法を説明するための模式図である。 図6(a)は、時刻tに取得された第1フレーム(画像)38の一例を示す。図6(b)は、時刻tから時間Δtだけ経過した時刻(t+Δt)に取得された第2フレーム38’を示す。 図7は、前後フレーム間で対応関係が取れる特徴点の数に応じた特徴点Tの検出状態の判断結果を示すグラフである。 図8は、図1の自己位置算出装置を用いた自己位置算出方法の一例を示すフローチャートである。 図9は、図8のステップS09の詳細な手順を示すフローチャートである。 図10(a)及び図10(b)は、車両10のロール角及び車幅方向移動量の推定誤差の例を示すグラフである。 図11は、第2実施形態に係わる自己位置算出装置の全体構成を示すブロック図である。 図12は、第3実施形態に係わる自己位置算出装置の全体構成を示すブロック図である。
図面を参照して、実施形態を説明する。図面の記載において同一部分には同一符号を付して説明を省略する。
(第1実施形態)
(ハードウェア構成)
先ず、図1を参照して、第1実施形態に係わる自己位置算出装置のハードウェア構成を説明する。自己位置算出装置は、投光器11と、カメラ12と、エンジンコントロールユニット(ECU)13とを備える。投光器11は、車両に搭載され、車両周囲の路面にパターン光を投光する。カメラ12は、車両に搭載され、パターン光が投光された領域を含む車両周囲の路面を撮像して画像を取得する撮像部の一例である。ECU13は、投光器11を制御し、且つカメラ12により取得された画像から車両の移動量を推定する一連の情報処理サイクルを実行する制御部の一例である。
カメラ12は、固体撮像素子、例えばCCD及びCMOSを用いたデジタルカメラであって、画像処理が可能なデジタル画像を取得する。カメラ12の撮像対象は車両周囲の路面であって、車両周囲の路面には、車両の前部、後部、側部、車両底部の路面が含まれる。例えば、図2に示すように、カメラ12は、車両10の前部、具体的にはフロントバンパ上に搭載することができる。
車両10の前方の路面31上の特徴点(テクスチャ)及び投光器11により投光されたパターン光32bを撮像できるように、カメラ12が設置される高さ及び向きが調整され、且つ、カメラ12が備えるレンズのピント及び絞りが自動調整される。カメラ12は、所定の時間間隔をおいて繰り返し撮像を行い、一連の画像(フレーム)群を取得する。カメラ12により取得された画像データは、ECU13へ転送され、ECU13が備えるメモリに記憶される。
投光器11は、図2に示すように、カメラ12の撮像範囲内の路面31に向けて、正方形や長方形の格子像を含む所定の形状を有するパターン光32bを投光する。カメラ12は、路面31に照射されたパターン光を撮像する。投光器11は、例えば、レーザポインター及び回折格子を備える。レーザポインターから射出されたレーザ光を回折格子で回折することにより、投光器11は、図2〜図4に示すように、格子像、或いは行列状に配列された複数のスポット光Sからなるパターン光(32b、32a)を生成する。図3及び図4に示す例では、5×7のスポット光Sからなるパターン光32aを生成している。
図1に戻り、ECU13は、CPU、メモリ、及び入出力部を備えるマイクロコントローラからなり、予めインストールされたコンピュータプログラムを実行することにより、自己位置算出装置が備える複数の情報処理部を構成する。ECU13は、カメラ12により取得された画像から車両の現在位置を算出する一連の情報処理サイクルを、画像(フレーム)毎に繰り返し実行する。ECU13は、車両10にかかわる他の制御に用いるECUと兼用してもよい。
複数の情報処理部には、パターン光抽出部21と、姿勢角算出部22と、姿勢変化量算出部24と、自己位置算出部26と、パターン光制御部27と、検出状態判断部30と、算出状態判断部35と、が含まれる。姿勢変化量算出部24には、特徴点検出部23が含まれる。
パターン光抽出部21は、カメラ12により取得された画像をメモリから読み込み、画像からパターン光の位置を抽出する。図3(a)に示すように、例えば、投光器11が行列状に配列された複数のスポット光からなるパターン光32aを路面31に向けて投光し、路面31で反射されたパターン光32aをカメラ12で検出する。パターン光抽出部21は、カメラ12により取得された画像に対して二値化処理を施すことにより、図4(a)及び図4(b)に示すように、スポット光Sの画像のみを抽出する。パターン光抽出部21は、図4(c)に示すように、各スポット光Sの重心の位置H、即ちスポット光Sの画像上の座標(U、V)を算出することにより、パターン光32aの位置を抽出する。座標は、カメラ12の撮像素子の画素を単位とし、5×7のスポット光Sの場合、“j”は1以上35以下の自然数である。スポット光Sの画像上の座標(U、V)は、パターン光32aの位置を示すデータとしてメモリに記憶される。
姿勢角算出部22は、パターン光32aの位置を示すデータをメモリから読み込み、カメラ12により取得された画像におけるパターン光32aの位置から、路面31に対する車両10の距離及び姿勢角を算出する。例えば、図3(a)に示すように、投光器11とカメラ12の間の基線長Lbと、各スポット光の画像上の座標(U、V)とから、三角測量の原理を用いて、各スポット光が照射された路面31上の位置を、カメラ12に対する相対位置として算出する。そして、姿勢角算出部22は、カメラ12に対する各スポット光の相対位置から、パターン光32aが投光された路面31の平面式、即ち、路面31に対するカメラ12の距離及び姿勢角(法線ベクトル)を算出する。なお、車両10に対するカメラ12の搭載位置及び撮像方向は既知であるため、実施形態においては、路面31に対する車両10の距離及び姿勢角の一例として、路面31に対するカメラ12の距離及び姿勢角を算出する。以後、路面31に対するカメラ12の距離及び姿勢角を、「距離及び姿勢角」と略す。姿勢角算出部22により算出された距離及び姿勢角は、メモリに記憶される。
具体的には、カメラ12及び投光器11は車両10にそれぞれ固定されているため、パターン光32aの照射方向と、カメラ12と投光器11との距離(基線長Lb)は既知である。そこで、姿勢角算出部22は、三角測量の原理を用いて、各スポット光の画像上の座標(U、V)から各スポット光が照射された路面31上の位置を、カメラ12に対する相対位置(X,Y,Z)として求めることができる。
なお、カメラ12に対する各スポット光の相対位置(X,Y,Z)は同一平面上に存在しない場合が多い。なぜなら、路面31に表出するアスファルトの凹凸に応じて各スポット光の相対位置が変化するからである。そこで、最小二乗法を用いて、各スポット光との距離誤差の二乗和が最小となるような平面式を求めてもよい。
特徴点検出部23は、カメラ12により取得された画像をメモリから読み込み、メモリから読み込んだ画像から、路面31上の特徴点を検出する。特徴点検出部23は、路面31上の特徴点を検出するために、例えば、「D.G. Lowe,“Distinctive Image Features from Scale-Invariant Keypoints,” Int. J. Comput. Vis., vol.60, no.2, pp. 91-110, Nov. 200 」、或いは、「金澤 靖, 金谷健一, “コンピュータビジョンのための画像の特徴点抽出,” 信学誌, vol.87, no.12, pp.1043-1048, Dec. 2004」に記載の手法を用いることができる。
具体的には、特徴点検出部23は、例えば、ハリス(Harris)作用素又はSUSANオペレータを用いて、物体の頂点のように周囲に比べて輝度値が大きく変化する点を特徴点として検出する。或いは、特徴点検出部23は、SIFT(Scale-Invariant Feature Transform)特徴量を用いて、その周囲で輝度値がある規則性のもとで変化している点を特徴点として検出してもよい。そして、特徴点検出部23は、1つの画像から検出した特徴点の総数Nを計数し、各特徴点に識別番号(i(1≦i≦N))を付す。各特徴点の画像上の位置(U、V)は、ECU13内のメモリに記憶される。図6(a)及び図6(b)は、カメラ12により取得された画像から検出された特徴点Tの例を示す。各特徴点の画像上の位置(U、V)は、メモリに記憶される。
なお、実施形態において、路面31上の特徴点は、主に大きさが1cm以上2cm以下のアスファルト混合物の粒を想定している。この特徴点を検出するために、カメラ12の解像度はVGA(約30万画素)である。また、路面31に対するカメラ12の距離は、おおよそ70cmである。更に、カメラ12の撮像方向は、水平面から約45degだけ路面31に向けて傾斜させる。また、カメラ12により取得される画像をECU13に転送するときの輝度数値は、0〜255(0:最も暗い,255:最も明るい)の範囲内である。
姿勢変化量算出部24は、一定の情報処理サイクル毎に撮像されるフレームのうち、前回フレームに含まれる複数の特徴点の画像上の位置(U、V)をメモリから読み込み、更に、今回フレームに含まれる複数の特徴点の画像上の位置(U、V)をメモリから読み込む。そして、複数の特徴点の画像上での位置変化に基づいて、車両の姿勢変化量を求める。ここで、「車両の姿勢変化量」とは、路面31に対する「距離及び姿勢角」の変化量、及び路面上での「車両(カメラ12)の移動量」の双方を含んでいる。以下、距離及び姿勢角の変化量及び車両の移動量の算出方法について説明する。
図6(a)は、時刻tに取得された第1フレーム(画像)38の一例を示す。図5或いは図6(a)に示すように、第1フレーム38において、例えば3つの特徴点Te1、Te2、Te3の相対位置(X,Y,Z)がそれぞれ算出されている場合を考える。この場合、特徴点Te1、Te2、Te3によって特定される平面Gを路面と見なすことができる。よって、姿勢変化量算出部24は、相対位置(X,Y,Z)から、路面(平面G)に対するカメラ12の距離及び姿勢角(法線ベクトル)を求めることができる。更に、姿勢変化量算出部24は、既知のカメラモデルによって、各特徴点Te1、Te2、Te3の間の距離(l、l、l)及び夫々の特徴点Te1、Te2、Te3を結ぶ直線が成す角度を求めることができる。図5のカメラ12は、第1フレームにおけるカメラの位置を示す。
なお、カメラ12に対する相対位置を示す3次元座標(X,Y,Z)として、カメラ12の撮像方向をZ軸に設定し、撮像方向を法線とし且つカメラ12を含む平面内に、互いに直交するX軸及びY軸を設定する。一方、画像38上の座標として、水平方向及び垂直方向をそれぞれV軸及びU軸に設定する。
図6(b)は、時刻tから時間Δtだけ経過した時刻(t+Δt)に取得された第2フレームを示す。図5のカメラ12’は、第2フレーム38’を撮像したときのカメラの位置を示す。図5或いは図6(b)に示すように、第2フレーム38’において、カメラ12’が特徴点Te1、Te2、Te3を撮像し、特徴点検出部23が特徴点Te1、Te2、Te3を検出する。この場合、姿勢変化量算出部24は、時刻tにおける各特徴点Te1、Te2、Te3の相対位置(X,Y,Z)と、各特徴点の第2フレーム38’上の位置P(U、V)と、カメラ12のカメラモデルとから、時間Δtにおけるカメラ12の移動量(ΔL)だけでなく、距離及び姿勢角の変化量も算出することができる。例えば、以下の(1)〜(4)式からなる連立方程式を解くことにより、姿勢変化量算出部24は、カメラ12(車両)の移動量(ΔL)、及び距離及び姿勢角の変化量を算出することができる。なお、(1)式はカメラ12が歪みや光軸ずれのない理想的なピンホールカメラとしてモデル化したものであり、λiは定数、fは焦点距離である。カメラモデルのパラメータは、予めキャリブレーションをしておけばよい。
図3(b)は、カメラ12の撮像範囲のうち、パターン光32aが照射された領域とは異なる他の領域33から検出された特徴点の時間変化から、カメラ12の移動方向34を求める様子を模式的に示す。また、図6(a)及び図6(b)には、各特徴点Tの位置の変化方向及び変化量を示すベクトルDteを画像に重畳して示す。姿勢変化量算出部24は、時間Δtにおけるカメラ12の移動量(ΔL)だけでなく、距離及び姿勢角の変化量も同時に算出することができる。よって、姿勢変化量算出部24は、距離及び姿勢角の変化量を考慮して、6自由度の移動量(ΔL)を精度よく算出することができる。すなわち、車両10の旋回や加減速によるロール運動或いはピッチ運動によって距離や姿勢角が変化しても、移動量(ΔL)の推定誤差を抑制することができる。
なお、姿勢変化量算出部24は、相対位置が算出された特徴点すべてを用いるのではなく、特徴点同士の位置関係に基づいて最適な特徴点を選定してもよい。選定方法としては、例えば、エピポーラ幾何(エピ極線幾何,R.I. Hartley: “A linear method for reconstruction from lines and points,” Proc. 5th International Conference on Computer Vision, Cambridge, Massachusetts, pp.882-887(1995))を用いることができる。
前後フレーム間で特徴点を対応付けるには、例えば、検出した特徴点の周辺の小領域の画像をメモリに記録しておき、輝度や色情報の類似度から判断すればよい。具体的には、ECU13は、検出した特徴点を中心とする5×5(水平×垂直)画素分の画像をメモリに記録する。姿勢変化量算出部24は、例えば、輝度情報が20画素以上で誤差1%以下に収まっていれば、前後フレーム間で対応関係が取れる特徴点であると判断する。
このように、相対位置(X,Y,Z)が算出された特徴点Te1、Te2、Te3が、後のタイミングで取得された画像38’からも検出された場合に、姿勢変化量算出部24は、路面上の複数の特徴点の時間変化に基づいて、「車両の姿勢変化量」を算出することができる。
自己位置算出部26は、姿勢変化量算出部24で算出された「距離及び姿勢角の変化量」から距離及び姿勢角を算出する。更に、姿勢変化量算出部24で算出された「車両の移動量」から車両の現在位置を算出する。
具体的には、姿勢角算出部22(図1参照)にて算出された距離及び姿勢角が起点として設定された場合、この起点(距離及び姿勢角)に対して、姿勢変化量算出部24で算出された各フレーム毎の距離及び姿勢角の変化量を逐次加算する(積分演算する)ことにより、距離及び姿勢角を最新な数値に更新する。また、姿勢角算出部22にて距離及び姿勢角が算出された際の車両位置が起点(車両の初期位置)として設定され、この初期位置から車両の移動量を逐次加算する(積分演算する)ことにより、車両の現在位置を算出する。例えば、地図上の位置と照合された起点(車両の初期位置)を設定することで、地図上の車両の現在位置を逐次算出することができる。
このように、前後フレーム間で対応関係が取れる3点以上の特徴点を検出し続けることができれば、距離及び姿勢角の変化量を加算する処理(積分演算)を継続することにより、パターン光32aを用いることなく、距離や姿勢角を最新な数値に更新し続けることができる。ただし、最初の情報処理サイクルにおいては、パターン光32aを用いて算出された距離及び姿勢角、或いは所定の初期距離及び初期姿勢角を用いてもよい。つまり、積分演算の起点となる距離及び姿勢角は、パターン光32aを用いて算出しても、或いは、所定の初期値を用いても構わない。所定の初期距離及び初期姿勢角は、少なくとも車両10への乗員及び搭載物を考慮した距離及び姿勢角であることが望ましい。例えば、車両10のイグニションスイッチがオン状態であって、且つシフトポジションがパーキングから他のポジションへ移動した時に、パターン光32aを投光し、パターン光32aから算出された距離及び姿勢角を、所定の初期距離及び初期姿勢角として用いればよい。これにより、車両10の旋回や加減速によるロール運動或いはピッチ運動が発生していない時の距離や姿勢角を求めることができる。
なお、実施形態では、距離及び姿勢角の変化量を算出し、距離及び姿勢角の変化量を逐次加算することにより、距離及び姿勢角を最新な数値に更新した。しかし、路面31に対するカメラ12の姿勢角だけをその変化量の算出及び更新の対象としても構わない。この場合、路面31に対するカメラ12の距離は一定と仮定すればよい。これにより、姿勢角の変化量を考慮して、移動量(ΔL)の推定誤差を抑制しつつ、ECU13の演算負荷を軽減し、且つ演算速度を向上させることもできる。
検出状態判断部30は、特徴点検出部23による特徴点Tの検出状態が第1基準を満たさず悪い状態か否かを判断する。例えば、トンネル内のコンクリート路面のように、路面にアスファルト混合物の粒などの模様や凹凸が少ない場合、画像から検出できる特徴点が少なくなる。この場合、前後フレーム間で対応関係が取れる特徴点の継続的な検出が困難となり、距離及び姿勢角の更新精度が低下してしまう。
そこで、検出状態判断部30は、例えば、カメラ12に対する相対位置が算出された特徴点のうち、後の情報処理サイクルで取得された画像からも検出できた特徴点の数が、所定のしきい値(例えば、3つ)以下である場合に、特徴点の検出状態が第1基準を満たさず、悪い状態と判断する。すなわち、図7に示すように、前後フレーム間で対応付けが取れる4点以上の特徴点を検出できない場合、検出状態判断部30は、特徴点Tの検出状態が第1基準を満たさず、悪い状態と判断する。なお、図6に示すように、距離や姿勢角の変化量を求めるには、前後フレーム間で対応付けが取れる少なくとも3つの特徴点が必要である。なぜなら、平面Gを特定するには3つの特徴点が必要だからである。推定精度を高めるには更に多くの特徴点が必要であるため、所定のしきい値は、4、或いは5以上であることが望ましい。
自己位置算出部26は、特徴点の検出状態が第1基準を満たしていると検出状態判断部30が判断した場合、積分演算の起点を維持する。一方、特徴点の検出状態が第1基準を満たさず、悪い状態と検出状態判断部30が判断した場合、自己位置算出部26は、同じ情報処理サイクルにおいて、姿勢角算出部22(図1参照)が算出した距離及び姿勢角、及びその時の車両位置を新たな起点(車両の姿勢角及び初期位置)に設定し、当該起点から車両の姿勢変化量の加算を開始する。
なお、第1実施形態で、検出状態判断部30は、前後フレーム間で対応関係が取れる特徴点の数に基づいて、特徴点の検出状態を判断したが、1つの画像から検出された特徴点の総数Nに基づいて、特徴点の検出状態を判断してもよい。つまり、特徴点の総数Nが所定のしきい値(例えば9)以下である場合に、特徴点の検出状態が第1基準を満たさず、悪い状態と判断してもよい。検出された特徴点のうち対応付けができない特徴点があることを考慮し、所定のしきい値(3)の3倍の数(9)を、しきい値に設定すればよい。
算出状態判断部35は、姿勢角算出部22による距離及び姿勢角の算出状態が第2基準を満たさず、悪い状態か否かを判断する。例えば、路面31上の段差にパターン光が照射された場合、路面31上の段差はアスファルトの凹凸に比べて大きいため、距離及び姿勢角の算出精度が極端に低下してしまう。特徴点の検出状態が第1基準よりも悪く、且つ距離及び姿勢角の算出状態が第2基準を満たさず、悪い状態の場合、距離及び姿勢角、及びその変化量を精度よく検出する手段がなくなってしまう。
そこで、算出状態判断部35は、例えば、姿勢角算出部22によって算出される距離及び姿勢角の標準偏差が所定のしきい値よりも大きい場合、姿勢角算出部22による距離及び姿勢角の算出状態が第2基準を満たさず、悪い状態と判断する。また、35個のスポット光のうち検出できたスポット光の数が3点未満である場合、原理的に路面31の平面式を求めることができないため、姿勢角算出部22による距離及び姿勢角の算出状態が第2基準を満たさず、悪い状態と判断する。最小二乗法を用いて平面式を求める場合、各スポット光との距離誤差の最大値の絶対値がある閾値(例えば0.05m)以上になった場合に、姿勢角算出部22による距離及び姿勢角の算出状態が第2基準を満たさず、悪い状態と判断してもよい。
特徴点の検出状態が第1基準を満たさず、悪い状態と検出状態判断部30が判断し、且つ姿勢角算出部22による距離及び姿勢角の算出状態が第2基準を満たさず、悪い状態と算出状態判断部35が判断した場合、自己位置算出部26は、積分演算の起点として、前の情報処理サイクルにおける距離及び姿勢角、及び車両の現在位置を用いる。これにより、車両の移動量の算出誤差を抑制できる。
パターン光制御部27は、投光器11によるパターン光32aの投光を制御する。例えば、車両10のイグニションスイッチがオン状態となり、自己位置算出装置が起動すると同時に、パターン光制御部27は、パターン光32aの投光を開始する。その後、パターン光制御部27は、自己位置算出装置が停止するまで、パターン光32aを連続して投光する。或いは、所定の時間間隔をおいて、投光のオン/オフを繰り返してもよい。或いは、特徴点Tの検出状態が第1基準を満たさず、悪い状態と検出状態判断部30が判断した場合に限って、一時的にパターン光32aを投光してもよい。
(情報処理サイクル)
次に、カメラ12により取得された画像38から車両10の移動量を推定する自己位置算出方法の一例として、ECU13により繰り返し実行される情報処理サイクルを、図8及び図9を参照しながら説明する。図8のフローチャートに示す情報処理サイクルは、車両10のイグニションスイッチがオン状態となり、自己位置算出装置が起動すると同時に開始され、自己位置算出装置が停止するまで、繰り返し実行される。
図8のステップS01において、パターン光制御部27は、投光器11を制御して、車両周囲の路面31にパターン光32aを投光する。図8のフローチャートでは、パターン光32aを連続して投光する例を説明する。
ステップS03に進み、ECU13は、カメラ12を制御して、パターン光32aが投光された領域を含む車両周囲の路面31を撮像して画像38を取得する。ECU13は、カメラ12により取得された画像データを、メモリに記憶する。
なお、ECU13はカメラ12の絞りを自動制御できる。前の情報処理サイクルで取得した画像38の平均輝度から、輝度値の最大値と最小値の中間値になるようにカメラ12の絞りをフィードバック制御してもよい。また、パターン光32aが投光されている領域は輝度値が高いため、パターン光32aを抽出した部分を除いた領域から、平均輝度値を求めてもよい。
ステップS05に進み、先ず、パターン光抽出部21は、カメラ12により取得された画像38をメモリから読み込み、図4(c)に示すように、画像38からパターン光32aの位置を抽出する。パターン光抽出部21は、パターン光32aの位置を示すデータとして算出されたスポット光Sの画像上の座標(U、V)をメモリに記憶する。
ステップS05において、姿勢角算出部22は、パターン光32aの位置を示すデータをメモリから読み込み、パターン光32aの位置から、距離及び姿勢角を算出し、メモリに記憶する。
ステップS07に進み、ECU13は、画像38から特徴点を検出し、前後の情報処理サイクルの間で対応関係が取れる特徴点を抽出し、特徴点の画像上の位置(U、V)から、距離及び姿勢角の変化量、及び車両の移動量を算出する。
具体的に、先ず、特徴点検出部23は、カメラ12により取得された画像38をメモリから読み込み、画像38から路面31上の特徴点を検出し、各特徴点の画像上の位置(U、V)をメモリに記憶する。姿勢変化量算出部24は、各特徴点の画像上の位置(U、V)をメモリから読み込み、距離及び姿勢角と、特徴点の画像上の位置(U、V)とから、カメラ12に対する特徴点の相対位置(X,Y,Z)を算出する。なお、姿勢変化量算出部24は、前の情報処理サイクルのステップS09において設定された距離及び姿勢角を用いる。姿勢変化量算出部24は、カメラ12に対する特徴点の相対位置(X,Y,Z)を、メモリに記憶する。
そして、姿勢変化量算出部24は、特徴点の画像上の位置(U、V)と、前の情報処理サイクルのステップS07において算出された特徴点の相対位置(X,Y,Z)をメモリから読み込む。姿勢変化量算出部24は、前後の情報処理サイクルの間で対応関係が取れる特徴点の相対位置(X,Y,Z)及び画像上の位置(U、V)を用いて、距離及び姿勢角の変化量を算出する。更に、前回の情報処理サイクルにおける特徴点の相対位置(X,Y,Z)と今回の情報処理サイクルにおける特徴点の相対位置(X,Y,Z)とから、車両の移動量を算出する。ステップS07で算出された「距離及び姿勢角の変化量」及び「車両の移動量」は、ステップS11の処理で用いられる。
ステップS09に進み、ECU13は、特徴点の検出状態、及びパターン光による距離及び姿勢角の算出状態に応じて、積分演算の起点を、設定する。詳細は、図9を参照して、後述する。
ステップS11に進み、自己位置算出部26は、ステップS09の処理で設定された積分演算の起点、及びステップS07の処理で算出された車両の移動量から、車両の現在位置を算出する。
こうして、本実施形態に係る自己位置算出装置は、上記した一連の情報処理サイクルを繰り返し実行して車両10の移動量を積算することにより、車両10の現在位置を算出することができる。
図9のフローチャートを参照して、図8のステップS09の詳細な手順を説明する。ステップS900において、ECU13は、今回の情報処理サイクルが初回であるか否かを判断する。そして、初回である場合、即ち、前回の情報処理サイクルのデータが無い場合にはステップS905に処理を進め、初回でない場合にはステップS901に処理を進める。
ステップS901において、検出状態判断部30は、特徴点検出部23による特徴点Tの検出状態が第1基準を満たさず、悪い状態か否かを判断する。悪いと判断した場合(ステップS901でYES)、ステップS903へ進み、悪くなっていないと判断した場合(ステップS901でNO)、ステップS909へ進む。
ステップS909で、ECU13は、現在の設定されている積分演算の起点を維持する。
ステップS903で、算出状態判断部35は、姿勢角算出部22による距離及び姿勢角の算出状態が第2基準を満たさず、悪い状態か否かを判断する。たとえば、距離及び姿勢角の算出に成功しているか否かを判断する。成功していると判断した場合(ステップS903でYES)、ステップS905へ進み、成功していないと判断した場合(ステップS903でNO)、ステップS907へ進む。
ステップS905で、ECU13は、車両の現在位置を起点として設定し、更に、同じ情報処理サイクルのステップS05で算出された距離及び姿勢角を積分演算の起点として設定する。この距離及び姿勢角を起点として新たな積分演算が開始される。また、車両の現在位置を起点として新たに車両の移動量の積分演算を開始する。
ステップS907で、ECU13は、車両の現在位置を起点として設定し、更に、前回の情報処理サイクルで採用した距離及び姿勢角を積分演算の起点として設定する。この距離及び姿勢角を起点として新たな積分演算が開始される。また、車両の現在位置を起点として新たに車両の移動量の積分演算を開始する。その後、図8のステップS11に処理を進める。
以上説明したように、第1実施形態によれば、以下の作用効果が得られる。
特徴点の検出状態が悪いと、姿勢変化量算出部24による距離及び姿勢角の算出精度が低下するため、車両10の移動量の推定誤差が大きくなる。図10(a)及び図10(b)は、車両10のロール角(姿勢角の一例)及び移動量(車幅方向)の推定誤差の例を示すグラフであって、車両10が傾斜の無い平坦な路面上を一定の速度で直進している場合の、ロール角の推定値及び移動量の算出値の時間変化を示す。図中の「P」及び「P」は、特徴点の検出状態に係わらず、移動量算出の起点、及び距離及び姿勢角の積分演算の起点を維持する比較例を示す。「Q」及び「Q」は真値を示す。車両10は直進しているため、ロール角及び車幅方向の移動量の真値(Q、Q)は0のままである。しかし、時刻t〜t2の間、特徴点の検出状態が悪いコンクリート路面を走行したため、路面の平面式に誤差が発生して、ロール角に推定誤差が現れる。ロール角の誤差は、車幅方向の移動量の誤差として反映されてしまう。比較例は、特徴点の検出状態に応じて、移動量算出の起点、及びロール角の積分演算の起点をリセットしない。このため、車両10の移動量の誤差は拡大してしまう。
第1実施形態によれば、特徴点の検出状態が第1基準を満たさず、悪い状態の場合に、パターン光32aから算出された誤差の小さい距離及び姿勢角を起点として新たに積分演算を開始できる。よって、車両10の現在位置を精度良く且つ安定して推定することができる。
また、特徴点の検出状態が悪くなる路面には、例えば、特徴点の対象となる模様や凹凸が少ない路面が含まれる。模様や凹凸が少ない路面は平坦性が高いため、パターン光32aから算出された距離及び姿勢角に含まれるノイズ成分が少なくなる。一方、特徴点の検出状態が良い路面31では、アスファルトの凹凸によりパターン光の反射位置が安定しないため、パターン光32aから算出された距離及び姿勢角は多くのノイズ成分を含むことになる。第1実施形態によれば、特徴点の検出状態に応じて、特徴点を用いた距離及び姿勢角の更新とパターン光32aを用いた距離及び姿勢角の算出とを適切に使い分けて、距離及び姿勢角を精度良く且つ安定して求めることができる。
更に、路面31の照度の急激な変化によって画像38のコントラストが低下してしまい、特徴点の検出状態が悪く場合がある。第1実施形態によれば、特徴点の検出状態を直接判断することにより、照度計などのセンサを別途設ける必要が無くなり、コストが軽減され、装置の軽量化に寄与する。
姿勢変化量算出部24により対応付けが取れた特徴点の数が、所定のしきい値以下である場合、検出状態判断部30は、特徴点の検出状態が第1基準を満たさず、悪い状態と判断する(ステップS901でYES)。対応付けが取れる特徴点の数が減少すると、距離及び姿勢角の更新精度が低下する。この場合に、移動量算出の起点をパターン光32aから算出された距離及び姿勢角へリセットすることで、距離及び姿勢角の更新精度、及び車両10の移動量の算出精度の低下を抑制できる。
特徴点の検出状態が第1基準よりも悪くなり(S901でYES)、且つ距離及び姿勢角の算出状態が第2基準を満たさず、悪い状態の場合(ステップS903でNO)、移動量算出の起点を、前の情報処理サイクルにおける距離及び姿勢角へリセットする。つまり、複数の特徴点の検出状態が第1基準を満たさず、悪い状態と検出状態判断部30が判断する前の自己位置算出部26が算出していた距離及び姿勢角を用いる。これにより、車両10の移動量の推定誤差を抑制できる。
(第1変形例)
検出状態判断部30は、特徴点の数の代わりに、特徴点の分布に基づいて、特徴点Tの検出状態を判断してもよい。例えば、画像38から検出される特徴点の密度が所定のしきい密度以下である場合、検出状態判断部30は、特徴点の検出状態が第1基準を満たさず、悪い状態と判断してもよい。特徴点の密度が低下すれば、特徴点の総数Nも減少するため、対応関係が取れる特徴点の数も減少する。或いは、画像38を均等に分割した各領域から特徴点が検出されていない場合、検出状態判断部30は、特徴点の検出状態が第1基準を満たさず、悪い状態と判断してもよい。例えば、画像38を4等分して各領域から検出されているか否かを判断すればよい。
検出状態判断部30は画像38から検出される特徴点の密度に基づいて特徴点の検出状態を判断することにより、距離及び姿勢角の更新精度、及び車両10の移動量の算出精度の低下を抑制できる。
また更に、検出される特徴点の密度が低くなれば、特徴点間の距離が遠くなり、特徴点により構成される平面が路面31とかい離する可能性が高くなり、距離及び姿勢角を精度良く算出することが難しくなる。なぜなら、舗装路面は、排水のためにカント(傾斜)が設けられているため平坦ではないのが一般的だからである。また、検出できる特徴点の密度が低いということは、上述した通り、路面31の凹凸や模様の少ないということでもある。よって、この場合、パターン光32aから算出された距離及び姿勢角に含まれるノイズ成分が少なくなる。よって、特徴点の検出状態に応じて、特徴点を用いた距離及び姿勢角の更新とパターン光32aを用いた距離及び姿勢角の算出とを適切に使い分けて、距離及び姿勢角を精度良く且つ安定して求めることができる。
(第2変形例)
更に、検出状態判断部30は、カメラ12により取得された画像38の輝度平均値に基づいて、特徴点の検出状態を判断してもよい。例えば、画像38の輝度平均値が、上限値Bmaxより大きい、或いは下限値Bminより小さい場合、検出状態判断部30は、特徴点の検出状態が第1基準を満たさず、悪い状態と判断してもよい。即ち、非常に明るい、または暗いところでは特徴点の検出状態が悪いと判断する。例えば、上限値Bmax及び下限値Bminとしては、それぞれ200,50をそれぞれ設定すればよい。
(第3変形例)
図9のステップS907で、ECU13は、前回の情報処理サイクルで採用した距離及び姿勢角の代わりに、所定の初期距離及び初期姿勢角を積分演算の起点として設定してもよい。詳細には、特徴点の検出状態が第1基準を満たさず、悪い状態と検出状態判断部30が判断し、且つ姿勢角算出部22による距離及び姿勢角の算出状態が第2基準よりもを満たさず、悪い状態と算出状態判断部35が判断した場合、自己位置算出部26は、積分演算の起点として、少なくとも車両10への乗員及び搭載物を考慮した所定の初期距離及び初期姿勢角を設定してもよい。例えば、自己位置算出装置を起動した直後の情報処理サイクルのステップS05で算出した距離及び姿勢角を用いることができる。これにより、車両10の旋回や加減速によるロール運動或いはピッチ運動が発生していない時の距離や姿勢角を起点として、距離及び姿勢角の更新及び移動量の算出を行うことができる。
(第2実施形態)
図11に示すように、第2実施形態に係わる自己位置算出装置は、図1に比べて、ECU13が平面算出部36を更に構成する点で相違する。平面算出部36は、複数の特徴点の相対位置(X,Y,Z)から、図6に示す特徴点Te1、Te2、Te3を含む平面Gを算出する。平面算出部36による平面Gの算出精度が所定のしきい精度以下である場合に、検出状態判断部30は、特徴点の検出状態が第1基準を満たさず、悪い状態と判断する。その他の構成は、第1実施形態と同じであり、説明を省略する。
例えば、平面算出部36は、相対位置(X,Y,Z)が算出された特徴点が一直線上にある場合、平面Gの算出精度が所定のしきい精度以下であると判断する。具体的には、ハフ変換を用いて各特徴点の傾きと平面Gの中心からの距離の分布を算出する。検出できた特徴点のうちの90%の特徴点が、ある角度から−5deg以上+5deg以下の範囲であり、且つ平面Gの中心からの距離が−10画素以上+10画素以下の範囲内にあった場合に、特徴点が一直線上にあると判断する。なお、このハフ変換を行う際の座標は、画像上の位置(U,V)を用いる。
路面31にペイントされた、横断歩道及び区画線を含む道路標示があると、検出される特徴点が、特定の帯状又はライン状に偏って分布してしまう場合がある。この場合、特徴点が一直線上に配列してしまう可能性が高まり、特徴点が成す平面Gの算出精度が低下する。これは、特徴点の数や密度からは判断できない。第2実施形態によれば、特徴点が成す平面Gの算出精度に応じて、特徴点の検出状態を適切に判断することができる。
(第3実施形態)
図12に示すように、第3実施形態に係わる自己位置算出装置は、図1に比べて、車両周囲の照度の変化量を検出する照度検出部の一例としての照度センサ37を更に備える点で相違する。照度センサ37により検出された照度の変化量が所定のしきい照度以上である場合に、検出状態判断部30は、特徴点の検出状態が第1基準を満たさず、悪い状態と判断する。その他の構成は、第1実施形態と同じであり、説明を省略する。
車両周囲の照度の急激な変化に、カメラ12の絞り及びISO感度の自動調整が追従できない場合、カメラ12により取得される画像には、白とび或いは黒とびの現象が生じてしまう。この場合、特徴点を画像から検出することが難しくなり、特徴点の検出状態が悪化する。そこで、照度センサ37を車両の前方に、カメラ12及び投光器11と同様に搭載し、照度センサ37が検出した照度変化量に応じて、特徴点の検出状態を判断する。特徴点をカメラ12で検出できなくなることを事前に検知して、路面31に投光したパターン光32aから距離や姿勢角を算出する。これにより、特徴点の検出状態を適切に判断することができる。
上記のように、本発明の第1乃至第3の実施形態を記載したが、この開示の一部をなす論述及び図面はこの発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施の形態、実施例及び運用技術が明らかとなろう。
なお、図2は、カメラ12と投光器11を車両10の前面に取り付けた例を示したが、車両10の側方,後方,真下に向けて設置してもよい。また、本実施形態では車両10の一例として、四輪の乗用自動車を図2に示したが、オートバイ、貨物自動車、或いは例えば建設機械を運搬する特殊車両など、道路の路面或いは壁面上の特徴点を撮像することが可能な移動体(車両)すべてに適用可能である。
10 車両
11 投光器
12 カメラ(撮像部)
21 パターン光抽出部
22 姿勢角算出部
23 特徴点検出部
24 姿勢変化量算出部
26 自己位置算出部
30 検出状態判断部
31 路面
32a、32b パターン光
35 算出状態判断部
36 平面算出部
37 照度センサ(照度検出部)
Te 特徴点

Claims (8)

  1. 車両周囲の路面にパターン光を投光する投光器と、
    前記車両に搭載され、前記パターン光が投光された領域を含む車両周囲の路面を撮像して画像を取得する撮像部と、
    前記撮像部により取得された画像における前記パターン光の位置から、前記路面に対する車両の姿勢角を算出する姿勢角算出部と、
    前記撮像部により取得された画像から検出された前記路面上の複数の特徴点の時間変化に基づいて、前記車両の姿勢変化量を算出する姿勢変化量算出部と、
    前記車両の初期位置および姿勢角に、前記姿勢変化量を加算してゆくことで、前記車両の現在位置および姿勢角を算出する自己位置算出部と、
    前記姿勢角変化量算出部での前記複数の特徴点の検出状態を判断する検出状態判断部と、を備え、
    前記自己位置算出部は、前記複数の特徴点の検出状態が第1基準を満たさない場合、その時の前記車両の現在位置および前記姿勢角算出部による車両の姿勢角を、前記車両の初期位置および姿勢角に設定し、前記姿勢変化量の加算を開始する
    ことを特徴とする自己位置算出装置。
  2. 請求項1に記載の自己位置算出装置であって、
    前記検出状態判断部は、前記姿勢変化量算出部での前記複数の特徴点の数が、所定のしきい値以下である場合に、第1基準を満たさないと判断することを特徴とする自己位置算出装置。
  3. 請求項1に記載の自己位置算出装置であって、
    前記検出状態判断部は、前記画像から検出された前記特徴点の密度が所定のしきい密度以下である場合に、第1基準を満たさないと判断することを特徴とする自己位置算出装置。
  4. 請求項1に記載の自己位置算出装置であって、
    前記画像から検出された前記複数の特徴点の相対位置から、前記複数の特徴点を含む平面を算出する平面算出部を更に備え、
    前記平面算出部による前記平面の算出精度が所定のしきい精度以下である場合に、前記検出状態判断部は、第1基準を満たさないと判断することを特徴とする自己位置算出装置。
  5. 請求項1に記載の自己位置算出装置であって、
    車両周囲の照度の変化量を検出する照度検出部を更に備え、
    前記照度検出部により検出された前記照度の変化量が所定のしきい照度以上である場合に、前記検出状態判断部は、第1基準を満たさないと判断することを特徴とする自己位置算出装置。
  6. 請求項1〜5のいずれか一項に記載の自己位置算出装置であって、
    前記姿勢角算出部による前記姿勢角の算出状態を判断する算出状態判断部を更に備え、
    前記複数の特徴点の検出状態が第1基準を満たさないと前記検出状態判断部が判断し、且つ前記姿勢角の算出状態が第2基準を満たさないと前記算出状態判断部が判断した場合、前記自己位置算出部は、少なくとも前記車両への乗員及び搭載物を考慮した所定の初期姿勢角に対して、前記姿勢変化量の加算を開始する
    ことを特徴とする自己位置算出装置。
  7. 請求項1〜5のいずれか一項に記載の自己位置算出装置であって、
    前記姿勢角算出部による前記姿勢角の算出状態を判断する算出状態判断部を更に備え、
    前記複数の特徴点の検出状態が第1基準を満たさないと前記検出状態判断部が判断し、且つ前記姿勢角の算出状態が第2基準を満たさないと前記算出状態判断部が判断した場合に、前記自己位置算出部は、前記複数の特徴点の検出状態が第1基準を満たさないと前記検出状態判断部が判断する前に算出していた姿勢角に対して、前記姿勢変化量の加算を開始する
    ことを特徴とする自己位置算出装置。
  8. 車両に搭載された投光器から車両周囲の路面にパターン光を投光する手順と、
    前記車両に搭載された撮像部によって、前記パターン光が投光された領域を含む車両周囲の路面を撮像して画像を取得する手順と、
    前記車両の制御部が、前記画像における前記パターン光の位置から、前記路面に対する車両の姿勢角を算出する手順と、
    前記制御部が、前記画像から検出された前記路面上の複数の特徴点の時間変化に基づいて、前記車両の姿勢変化量を算出する姿勢角変化量算出手順と、
    前記制御部が、前記車両の初期位置および姿勢角に、前記姿勢変化量を加算してゆくことで、前記車両の現在位置および姿勢角を算出する自己位置算出手順と、
    前記制御部が、前記姿勢角変化量算出手順での前記複数の特徴点の検出状態を判断する手順と、を備え、
    前記自己位置算出手順では、前記複数の特徴点の検出状態が第1基準を満たさない場合、その時の前記車両の現在位置および前記パターン光の位置から算出された車両の姿勢角を、前記車両の初期位置および姿勢角に設定し、前記姿勢変化量の加算を開始する
    ことを特徴とする自己位置算出方法。
JP2016503895A 2014-02-24 2014-02-24 自己位置算出装置及び自己位置算出方法 Active JP6237874B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/054310 WO2015125296A1 (ja) 2014-02-24 2014-02-24 自己位置算出装置及び自己位置算出方法

Publications (2)

Publication Number Publication Date
JPWO2015125296A1 JPWO2015125296A1 (ja) 2017-03-30
JP6237874B2 true JP6237874B2 (ja) 2017-11-29

Family

ID=53877829

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016503895A Active JP6237874B2 (ja) 2014-02-24 2014-02-24 自己位置算出装置及び自己位置算出方法

Country Status (8)

Country Link
US (1) US10026196B2 (ja)
EP (1) EP3113145B1 (ja)
JP (1) JP6237874B2 (ja)
CN (1) CN105981086B (ja)
BR (1) BR112016018603B1 (ja)
MX (1) MX349023B (ja)
RU (1) RU2628553C1 (ja)
WO (1) WO2015125296A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6299319B2 (ja) * 2014-03-25 2018-03-28 日産自動車株式会社 自己位置算出装置及び自己位置算出方法
JP6269838B2 (ja) * 2014-08-04 2018-01-31 日産自動車株式会社 自己位置算出装置及び自己位置算出方法
WO2019127254A1 (zh) * 2017-12-28 2019-07-04 深圳配天智能技术研究院有限公司 一种车辆定位方法、装置及存储介质
WO2019172941A1 (en) * 2018-03-07 2019-09-12 Google Llc Methods and systems for determining geographic orientation based on imagery
CN110617821B (zh) 2018-06-19 2021-11-02 北京嘀嘀无限科技发展有限公司 定位方法、装置及存储介质
CN109064506B (zh) * 2018-07-04 2020-03-13 百度在线网络技术(北京)有限公司 高精度地图生成方法、装置及存储介质
KR20200046437A (ko) * 2018-10-24 2020-05-07 삼성전자주식회사 영상 및 맵 데이터 기반 측위 방법 및 장치
WO2021024290A1 (ja) * 2019-08-02 2021-02-11 日産自動車株式会社 画像処理装置及び画像処理方法
US20210206403A1 (en) * 2020-01-03 2021-07-08 Westinghouse Air Brake Technologies Corporation Systems and methods for vehicle orientation determination

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5155775A (en) * 1988-10-13 1992-10-13 Brown C David Structured illumination autonomous machine vision system
AU642638B2 (en) * 1989-12-11 1993-10-28 Caterpillar Inc. Integrated vehicle positioning and navigation system, apparatus and method
US5610815A (en) * 1989-12-11 1997-03-11 Caterpillar Inc. Integrated vehicle positioning and navigation system, apparatus and method
JPH06325298A (ja) * 1993-05-13 1994-11-25 Yazaki Corp 車両周辺監視装置
JP2004198212A (ja) 2002-12-18 2004-07-15 Aisin Seiki Co Ltd 移動体周辺監視装置
JP2004198211A (ja) * 2002-12-18 2004-07-15 Aisin Seiki Co Ltd 移動体周辺監視装置
AU2006327353B2 (en) * 2005-12-23 2011-11-24 Gcoder Systems Ab Positioning pattern
JP5151050B2 (ja) * 2006-03-23 2013-02-27 日産自動車株式会社 車両用環境認識装置及び車両用環境認識方法
JP4914726B2 (ja) 2007-01-19 2012-04-11 クラリオン株式会社 現在位置算出装置、現在位置算出方法
JP5092613B2 (ja) * 2007-08-06 2012-12-05 日産自動車株式会社 距離計測方法および装置、ならびに距離計測装置を備えた車両
JP5251419B2 (ja) * 2008-10-22 2013-07-31 日産自動車株式会社 距離計測装置および距離計測方法
US20120022739A1 (en) * 2010-07-20 2012-01-26 Gm Global Technology Operations, Inc. Robust vehicular lateral control with front and rear cameras
JP5472538B2 (ja) * 2011-06-14 2014-04-16 日産自動車株式会社 距離計測装置及び環境地図生成装置
JP5898475B2 (ja) * 2011-11-28 2016-04-06 クラリオン株式会社 車載カメラシステム及びその較正方法、及びその較正プログラム
JP2013147114A (ja) * 2012-01-18 2013-08-01 Toyota Motor Corp 周辺環境取得装置およびサスペンション制御装置
JP5992184B2 (ja) 2012-03-09 2016-09-14 株式会社トプコン 画像データ処理装置、画像データ処理方法および画像データ処理用のプログラム
CN104541128B (zh) * 2012-08-02 2017-10-17 丰田自动车株式会社 路面状态取得装置及悬架***
FR3014553A1 (fr) * 2013-12-11 2015-06-12 Parrot Procede de calibration angulaire de la position d'une camera video embarquee dans un vehicule automobile

Also Published As

Publication number Publication date
BR112016018603B1 (pt) 2022-01-04
WO2015125296A1 (ja) 2015-08-27
EP3113145A4 (en) 2017-03-08
US10026196B2 (en) 2018-07-17
RU2628553C1 (ru) 2017-08-18
MX2016010589A (es) 2016-10-26
US20170186186A1 (en) 2017-06-29
BR112016018603A8 (pt) 2020-06-23
BR112016018603A2 (ja) 2017-08-08
CN105981086B (zh) 2017-07-25
CN105981086A (zh) 2016-09-28
EP3113145B1 (en) 2019-11-27
MX349023B (es) 2017-07-07
EP3113145A1 (en) 2017-01-04
JPWO2015125296A1 (ja) 2017-03-30

Similar Documents

Publication Publication Date Title
JP6237874B2 (ja) 自己位置算出装置及び自己位置算出方法
JP6237876B2 (ja) 自己位置算出装置及び自己位置算出方法
JP6237875B2 (ja) 自己位置算出装置及び自己位置算出方法
JP6269838B2 (ja) 自己位置算出装置及び自己位置算出方法
JP6187672B2 (ja) 自己位置算出装置及び自己位置算出方法
JP6187671B2 (ja) 自己位置算出装置及び自己位置算出方法
JP6176387B2 (ja) 自己位置算出装置及び自己位置算出方法
JP2017004176A (ja) 路面標示検出装置及び路面標示検出方法
JP6547362B2 (ja) 自己位置算出装置及び自己位置算出方法
JP6398218B2 (ja) 自己位置算出装置及び自己位置算出方法
JP6398217B2 (ja) 自己位置算出装置及び自己位置算出方法
JP6299319B2 (ja) 自己位置算出装置及び自己位置算出方法
JP6492974B2 (ja) 自己位置算出装置及び自己位置算出方法
JP6369897B2 (ja) 自己位置算出装置及び自己位置算出方法
JP6369898B2 (ja) 自己位置算出装置及び自己位置算出方法
JP6459745B2 (ja) 自己位置算出装置及び自己位置算出方法
JP6459701B2 (ja) 自己位置算出装置及び自己位置算出方法
JP6398219B2 (ja) 自己位置算出装置及び自己位置算出方法

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171016

R151 Written notification of patent or utility model registration

Ref document number: 6237874

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151