JP2017116363A - Vehicle position estimation system, method, and program - Google Patents

Vehicle position estimation system, method, and program Download PDF

Info

Publication number
JP2017116363A
JP2017116363A JP2015250964A JP2015250964A JP2017116363A JP 2017116363 A JP2017116363 A JP 2017116363A JP 2015250964 A JP2015250964 A JP 2015250964A JP 2015250964 A JP2015250964 A JP 2015250964A JP 2017116363 A JP2017116363 A JP 2017116363A
Authority
JP
Japan
Prior art keywords
vehicle
estimated
estimated position
camera
reliability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015250964A
Other languages
Japanese (ja)
Inventor
邦光 藤田
Kunimitsu Fujita
邦光 藤田
宏也 八代
Hiroya Yashiro
宏也 八代
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Original Assignee
Aisin AW Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin AW Co Ltd filed Critical Aisin AW Co Ltd
Priority to JP2015250964A priority Critical patent/JP2017116363A/en
Publication of JP2017116363A publication Critical patent/JP2017116363A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a technique with which it is possible to improve the accuracy of estimating a vehicle position by an image.SOLUTION: A vehicle position estimation system of the present invention comprises: a by-camera estimated position acquisition unit for acquiring a first estimated position that is a vehicle position estimated on the basis of image recognition of a first image captured by a first onboard camera, and a second estimated position that is a vehicle position estimated on the basis of image recognition of a second image captured by a second onboard camera differing in optical axis from the first onboard camera; and a derived position acquisition unit for acquiring a derived position that is the position of the vehicle derived on the basis of the first estimated position and second estimated position, the reliability of the first estimated position, and the reliability of the second estimated position.SELECTED DRAWING: Figure 2

Description

本発明は、車両位置推定システム、方法およびプログラムに関する。   The present invention relates to a vehicle position estimation system, method, and program.

カメラで撮像した画像に基づいてカメラの位置や姿勢を算出する技術が知られている(特許文献1、参照)。特許文献1の技術を車両に適用することにより、車両(カメラ)の位置も推定することができる。   A technique for calculating the position and orientation of a camera based on an image captured by the camera is known (see Patent Document 1). By applying the technique of Patent Document 1 to a vehicle, the position of the vehicle (camera) can also be estimated.

特開2009-237846号公報JP 2009-237846 A

しかしながら、車両は様々な方向や速度で移動するため、車両に搭載されたカメラの光軸方向が必ずしも位置や姿勢の算出に適した方向となっているとは限らないという問題があった。すなわち、車両の移動状態によっては、カメラで撮像した画像に基づいて精度よく車両の位置を推定できないという問題があった。
本発明は、前記課題にかんがみてなされたもので、画像による車両の位置推定の精度を向上できる技術を提供することを目的とする。
However, since the vehicle moves in various directions and speeds, there has been a problem that the optical axis direction of the camera mounted on the vehicle is not necessarily a direction suitable for calculating the position and orientation. That is, there is a problem that the position of the vehicle cannot be accurately estimated based on the image captured by the camera depending on the moving state of the vehicle.
The present invention has been made in view of the above problems, and an object of the present invention is to provide a technique capable of improving the accuracy of vehicle position estimation using images.

前記の目的を達成するため、本発明の車両位置推定システムは、第1車載カメラにて撮像された第1画像の画像認識に基づいて推定した車両の位置である第1推定位置と、第1車載カメラと光軸方向が異なる第2車載カメラにて撮像された第2画像の画像認識に基づいて推定した車両の位置である第2推定位置とを取得するカメラ別推定位置取得部と、第1推定位置と第2推定位置、および、第1推定位置の信頼度と第2推定位置の信頼度に基づいて導出した車両の位置である導出位置を取得する導出位置取得部と、を備える。   In order to achieve the above object, a vehicle position estimation system according to the present invention includes a first estimated position that is a position of a vehicle estimated based on image recognition of a first image captured by a first in-vehicle camera, and a first An estimated position acquisition unit for each camera that acquires a second estimated position that is a position of a vehicle estimated based on image recognition of a second image captured by a second in-vehicle camera having a different optical axis direction from the in-vehicle camera; A first estimated position, a second estimated position, and a derived position acquisition unit that acquires a derived position that is a position of the vehicle derived based on the reliability of the first estimated position and the reliability of the second estimated position.

前記の目的を達成するため、本発明の車両位置推定方法は、第1車載カメラにて撮像された第1画像の画像認識に基づいて推定した車両の位置である第1推定位置と、第1車載カメラと光軸方向が異なる第2車載カメラにて撮像された第2画像の画像認識に基づいて推定した車両の位置である第2推定位置とを取得するカメラ別推定位置取得工程と、第1推定位置と第2推定位置、および、第1推定位置の信頼度と第2推定位置の信頼度に基づいて導出した車両の位置である導出位置を取得する導出位置取得工程と、を含む。   In order to achieve the above object, a vehicle position estimation method of the present invention includes a first estimated position that is a position of a vehicle estimated based on image recognition of a first image captured by a first in-vehicle camera, and a first A camera-specific estimated position acquisition step for acquiring a second estimated position that is a position of the vehicle estimated based on image recognition of a second image captured by a second in-vehicle camera having a different optical axis direction from the in-vehicle camera; And a derived position obtaining step of obtaining a derived position that is a position of the vehicle derived based on the first estimated position and the second estimated position, and the reliability of the first estimated position and the reliability of the second estimated position.

前記の目的を達成するため、本発明の車両位置推定プログラムは、第1車載カメラにて撮像された第1画像の画像認識に基づいて推定した車両の位置である第1推定位置と、第1車載カメラと光軸方向が異なる第2車載カメラにて撮像された第2画像の画像認識に基づいて推定した車両の位置である第2推定位置とを取得するカメラ別推定位置取得機能と、第1推定位置と第2推定位置、および、第1推定位置の信頼度と第2推定位置の信頼度に基づいて導出した車両の位置である導出位置を取得する導出位置取得機能と、をコンピュータに実現させる。   In order to achieve the above object, a vehicle position estimation program of the present invention includes a first estimated position that is a position of a vehicle estimated based on image recognition of a first image captured by a first in-vehicle camera, and a first An estimated position acquisition function for each camera that acquires a second estimated position that is a position of a vehicle estimated based on image recognition of a second image captured by a second in-vehicle camera having a different optical axis direction from the in-vehicle camera; A derived position acquisition function for acquiring a derived position, which is a position of the vehicle derived based on the first estimated position and the second estimated position, and the reliability of the first estimated position and the reliability of the second estimated position; make it happen.

前記の構成において、第1推定位置と第2推定位置、および、第1推定位置の信頼度と第2推定位置の信頼度を考慮して導出位置を導出できるため、画像による車両の位置推定の精度を向上できる。例えば第1推定位置の信頼度が小さい場合でも、第2推定位置に基づいて導出位置を導出することにより精度を向上させることができる。   In the above configuration, the derived position can be derived in consideration of the first estimated position and the second estimated position, and the reliability of the first estimated position and the reliability of the second estimated position. Accuracy can be improved. For example, even when the reliability of the first estimated position is small, the accuracy can be improved by deriving the derived position based on the second estimated position.

ナビゲーション装置のブロック図である。It is a block diagram of a navigation apparatus. 図2Aは車両の平面図、図2Bは地図、図2C〜図2Fは車載カメラによって撮像された画像である。2A is a plan view of the vehicle, FIG. 2B is a map, and FIGS. 2C to 2F are images captured by an in-vehicle camera. 車両位置推定処理のフローチャートである。It is a flowchart of a vehicle position estimation process. 他の実施形態にかかる車両の平面図である。It is a top view of the vehicle concerning other embodiments.

ここでは、下記の順序に従って本発明の実施の形態について説明する。
(1)ナビゲーション装置の構成:
(2)車両位置推定処理:
(3)他の実施形態:
Here, embodiments of the present invention will be described in the following order.
(1) Configuration of navigation device:
(2) Vehicle position estimation processing:
(3) Other embodiments:

(1)ナビゲーション装置の構成:
図1は、本発明の一実施形態にかかる車両位置推定システムとしてのナビゲーション装置10の構成を示すブロック図である。ナビゲーション装置10は、車両に備えられている。ナビゲーション装置10は、制御部20と記録媒体30とを備えている。制御部20は、CPUとRAMとROM等を備え、記録媒体30やROMに記憶されたプログラムを実行する。
(1) Configuration of navigation device:
FIG. 1 is a block diagram showing a configuration of a navigation device 10 as a vehicle position estimation system according to an embodiment of the present invention. The navigation device 10 is provided in a vehicle. The navigation device 10 includes a control unit 20 and a recording medium 30. The control unit 20 includes a CPU, a RAM, a ROM, and the like, and executes a program stored in the recording medium 30 or the ROM.

記録媒体30は、地図情報30aと認識情報30bとを記録している。地図情報30aには、車両が走行する道路上に設定されたノードの位置等を示すノードデータ、ノード間を接続する道路区間の形状を特定するための形状補間点の位置等を示す形状補間データ、道路区間についての各種情報を示すリンクデータ、施設の属性等を示す施設データ等が含まれている。   The recording medium 30 records map information 30a and recognition information 30b. The map information 30a includes node data indicating the position of a node set on the road on which the vehicle is traveling, and shape interpolation data indicating the position of a shape interpolation point for specifying the shape of a road section connecting the nodes. , Link data indicating various information about road sections, facility data indicating facility attributes, and the like are included.

認識情報30bは、画像認識により車両の位置を推定するために使用する情報であり、多数の特徴点の3次元空間内(ワールド座標系)の位置を示す情報である。特徴点とは、カメラで撮像された画像に対して画像処理を行うことにより抽出できる点であり、画像内における特徴点の位置と認識情報30bが示す特徴点の位置とを照合することにより、カメラの位置と光軸方向とを推定することができる。   The recognition information 30b is information used to estimate the position of the vehicle by image recognition, and is information indicating the positions of many feature points in the three-dimensional space (world coordinate system). A feature point is a point that can be extracted by performing image processing on an image captured by a camera. By comparing the position of the feature point in the image with the position of the feature point indicated by the recognition information 30b, The position of the camera and the optical axis direction can be estimated.

また、車両は、左車載カメラ41Lと右車載カメラ41RとユーザI/F部42とを備えている。図2Aは、車両の平面図である。図2Aに示すように、左車載カメラ41Lと右車載カメラ41Rとは、それぞれ光軸方向αL,αRが車両の左側方と右側方を向くように備えられている。すなわち、左車載カメラ41Lの光軸方向αLと右車載カメラ41Rの光軸方向αRの水平成分は互いに反対方向である。例えば、左右のドアミラーに左車載カメラ41Lと右車載カメラ41Rとが備えられてもよい   The vehicle includes a left in-vehicle camera 41L, a right in-vehicle camera 41R, and a user I / F unit 42. FIG. 2A is a plan view of the vehicle. As shown in FIG. 2A, the left in-vehicle camera 41L and the right in-vehicle camera 41R are provided such that the optical axis directions αL and αR face the left side and the right side of the vehicle, respectively. That is, the horizontal components of the optical axis direction αL of the left in-vehicle camera 41L and the optical axis direction αR of the right in-vehicle camera 41R are opposite to each other. For example, the left and right door mirrors may be provided with a left in-vehicle camera 41L and a right in-vehicle camera 41R.

ユーザI/F部45は、制御部20から出力された制御信号に基づいて各種案内を出力する出力装置を含む。本実施形態において、ユーザI/F部45の出力装置は、音声により案内を出力するスピーカと、表示部としてのディスプレイとを含む。制御部20は、地図情報30aに基づいてユーザI/F部45のディスプレイ上に地図を表示させ、当該地図上に車両の位置(後述する導出位置)を示すマーカを表示させる。   The user I / F unit 45 includes an output device that outputs various guides based on a control signal output from the control unit 20. In the present embodiment, the output device of the user I / F unit 45 includes a speaker that outputs guidance by voice and a display as a display unit. The control unit 20 displays a map on the display of the user I / F unit 45 based on the map information 30a, and displays a marker indicating the position of the vehicle (a derived position described later) on the map.

制御部20は車両位置推定プログラム21を実行する。車両位置推定プログラム21は、カメラ別推定位置取得モジュール21aと導出位置取得モジュール21bとを含む。
カメラ別推定位置取得モジュール21aは、左車載カメラ41Lにて撮像された左画像の画像認識に基づいて推定した車両の位置である左推定位置と、左車載カメラ41Lと光軸方向が異なる右車載カメラ41Rにて撮像された右画像の画像認識に基づいて推定した車両の位置である右推定位置とを取得する機能を制御部20に実現させるプログラムモジュールである。カメラ別推定位置取得モジュール21aの機能により制御部20は、左車載カメラ41Lにて撮像された左画像と、右車載カメラ41Rにて撮像された右画像とを取得する。具体的に、制御部20は、一定の撮像周期で撮像された左画像と右画像とを連続的に取得する。左画像と右画像の撮像時刻は同じである。なお、"左"と"右"は、本発明の"第1"と"第2"に相当する。
The control unit 20 executes a vehicle position estimation program 21. The vehicle position estimation program 21 includes a camera-specific estimated position acquisition module 21a and a derived position acquisition module 21b.
The estimated position acquisition module 21a for each camera has a left estimated position, which is a position of the vehicle estimated based on image recognition of a left image captured by the left in-vehicle camera 41L, and a right in-vehicle direction in which the optical axis direction is different from that of the left in-vehicle camera 41L. It is a program module that causes the control unit 20 to realize a function of acquiring a right estimated position that is a position of a vehicle estimated based on image recognition of a right image captured by the camera 41R. The control unit 20 acquires the left image captured by the left vehicle-mounted camera 41L and the right image captured by the right vehicle-mounted camera 41R by the function of the camera-specific estimated position acquisition module 21a. Specifically, the control unit 20 continuously acquires a left image and a right image captured at a constant imaging cycle. The imaging time of the left image and the right image is the same. “Left” and “right” correspond to “first” and “second” of the present invention.

制御部20は、左画像から特徴点を抽出するとともに、同様に、右画像から特徴点を抽出する。特徴点を抽出手法は特に限定されず、公知の手法を適用できる。例えば、制御部20は、画像からエッジを抽出し、さらに当該エッジの曲率半径が基準値以下となっている点を特徴点として抽出してもよい。   The control unit 20 extracts feature points from the left image and similarly extracts feature points from the right image. The method for extracting feature points is not particularly limited, and a known method can be applied. For example, the control unit 20 may extract an edge from the image and further extract a point where the radius of curvature of the edge is equal to or less than a reference value as a feature point.

図2Bは、左画像と右画像とが撮像された際の車両の位置を示す地図である。同図に示す例では、第1時刻T1において車両(破線三角)が地図上を上方に進んでおり、左側方にガードレールGと海Sとが存在し、右側方に道路の区画線WとガードレールGと家Hとが存在している。   FIG. 2B is a map showing the position of the vehicle when the left image and the right image are captured. In the example shown in the figure, the vehicle (broken triangle) is moving upward on the map at the first time T1, the guard rail G and the sea S are present on the left side, and the road marking line W and the guard rail are on the right side. G and house H exist.

図2Cは第1時刻T1において左車載カメラ41Lが撮像した左画像ILを示し、図2Dは第1時刻T1において右車載カメラ41Rが撮像した右画像IRを示している。左画像ILにおいてはガードレールGと海Sの像が存在し、右画像IRにおいては区画線WとガードレールGと家Hの像が存在している。図2Eは第2時刻T2(図2Bの実線三角)において左車載カメラ41Lが撮像した左画像ILを示し、図2Fは第2時刻T2において右車載カメラ41Rが撮像した右画像IRを示している。第1時刻T1から第2時刻T2までの期間は、左画像ILと右画像IRの撮像周期を意味する。図2C〜2Fにおいて、特徴点をxで示す。   FIG. 2C shows the left image IL taken by the left in-vehicle camera 41L at the first time T1, and FIG. 2D shows the right image IR taken by the right in-vehicle camera 41R at the first time T1. In the left image IL, there are images of the guardrail G and the sea S, and in the right image IR, there are images of the lane markings W, the guardrail G, and the house H. 2E shows the left image IL taken by the left in-vehicle camera 41L at the second time T2 (solid triangle in FIG. 2B), and FIG. 2F shows the right image IR taken by the right in-vehicle camera 41R at the second time T2. . The period from the first time T1 to the second time T2 means the imaging cycle of the left image IL and the right image IR. 2C to 2F, feature points are indicated by x.

カメラ別推定位置取得モジュール21aの機能により制御部20は、左画像ILにて抽出した特徴点の位置を、左車載カメラ41Lの座標系において特定する。左車載カメラ41Lの座標系とは、左車載カメラ41Lの撮像面の位置を原点とし、左車載カメラ41Lの光軸方向αLの軸と、当該光軸方向αLの直交方向の軸(水平軸、鉛直軸)とによって規定された3次元のローカル座標系である。同様に、制御部20は、右画像IRにて抽出した特徴点の位置を、右車載カメラ41Rの座標系において特定する。なお、左画像IL内の任意の画素の位置と左車載カメラ41Lの座標系内での位置との対応関係は、予め左車載カメラ41Lのキャリブレーションを行うことにより用意されている。同様に、右画像IR内の任意の画素の位置と右車載カメラ41Rの座標系内での位置との対応関係は、予め右車載カメラ41Rのキャリブレーションを行うことにより用意されている。   With the function of the camera-specific estimated position acquisition module 21a, the control unit 20 specifies the position of the feature point extracted from the left image IL in the coordinate system of the left in-vehicle camera 41L. The coordinate system of the left in-vehicle camera 41L is based on the position of the imaging surface of the left in-vehicle camera 41L as an origin, the axis in the optical axis direction αL of the left in-vehicle camera 41L, and the axis orthogonal to the optical axis direction αL (horizontal axis 3D local coordinate system defined by (vertical axis). Similarly, the control unit 20 specifies the position of the feature point extracted in the right image IR in the coordinate system of the right in-vehicle camera 41R. Note that the correspondence between the position of any pixel in the left image IL and the position in the coordinate system of the left in-vehicle camera 41L is prepared by performing calibration of the left in-vehicle camera 41L in advance. Similarly, the correspondence between the position of an arbitrary pixel in the right image IR and the position in the coordinate system of the right in-vehicle camera 41R is prepared by performing calibration of the right in-vehicle camera 41R in advance.

このキャリブレーションは、格子点の位置が3次元空間内で既知であるチェッカーボードを車載カメラ41L,41Rによって様々な位置や姿勢で撮像することにより行われる。例えば、Z.Y.Zhangの手法("A flexible new technique for camera calibration". IEEE Transactions on Pattern Analysis and Machine Intelligence, 22(11):1330-1334, 2000.)によってキャリブレーションが行われてもよい。このキャリブレーションを行うことにより、車載カメラ41L,41Rの外部パラメータ(位置、方向)や内部パラメータ(光軸のずれ、歪曲収差等)を得ることができる。姿勢とは、光軸方向を意味する。また、制御部20は、左車載カメラ41Lの座標系内における特徴点の位置に基づいて、左車載カメラ41Lから特徴点までの距離を導出できる。同様に、制御部20は、右車載カメラ41Rの座標系内における特徴点の位置に基づいて、右車載カメラ41Rから特徴点までの距離を導出できる。   This calibration is performed by imaging the checkerboard whose lattice point positions are known in the three-dimensional space with various in-vehicle cameras 41L and 41R. For example, Z. Y. Calibration may be performed by Zhang's technique ("A flexible new technique for camera calibration". IEEE Transactions on Pattern Analysis and Machine Intelligence, 22 (11): 1330-1334, 2000.). By performing this calibration, external parameters (position, direction) and internal parameters (optical axis deviation, distortion, etc.) of the in-vehicle cameras 41L and 41R can be obtained. The posture means the optical axis direction. Further, the control unit 20 can derive the distance from the left in-vehicle camera 41L to the feature point based on the position of the feature point in the coordinate system of the left in-vehicle camera 41L. Similarly, the control unit 20 can derive the distance from the right in-vehicle camera 41R to the feature point based on the position of the feature point in the coordinate system of the right in-vehicle camera 41R.

ここで、車両のうち幅方向の中央の位置を基準位置Pとし、車両の前方を基準方向θとして定義する。基準位置Pと基準方向θとは、本実施形態において推定する対象となる車両の位置と方向である。ここでは、第1時刻T1における車両の基準位置PT1と基準方向θT1とがワールド座標系において既知であるとして、第2時刻T2における車両の推定位置と推定方向とを推定する手法を説明する。 Here, the center position in the width direction of the vehicle is defined as the reference position P, and the front of the vehicle is defined as the reference direction θ. The reference position P and the reference direction θ are the position and direction of the vehicle to be estimated in this embodiment. Here, as the reference position P T1 and the reference direction theta T1 of the vehicle at the first time T1 is known in the world coordinate system, illustrating a method for estimating the estimated direction and the estimated position of the vehicle in the second time T2 .

図2Aの例において、車両の基準位置PT1は、第1時刻T1における左車載カメラ41Lの位置から光軸方向αLの反対方向に距離Aだけ移動した位置、かつ、右車載カメラ41Rの位置から光軸方向αRの反対方向に距離Aだけ移動した位置であることとする。図2Aの例において、車両の基準方向θT1は、平面視おいて左車載カメラ41Lの光軸方向αLに対して時計回りに90度だけ回転した水平な方向、かつ、平面視おいて右車載カメラ41Rの光軸方向αRに対して反時計回りに90度だけ回転した水平な方向であることとする。左車載カメラ41Lと右車載カメラ41Rと基準位置PT1と基準方向θT1との相対的な位置と方向の関係は既知である。 In the example of FIG. 2A, the reference position P T1 of the vehicle is from the position moved by the distance A in the opposite direction of the optical axis direction αL from the position of the left in-vehicle camera 41L at the first time T1, and from the position of the right in-vehicle camera 41R. It is assumed that the position is moved by a distance A in the direction opposite to the optical axis direction αR. In the example of FIG. 2A, the reference direction θ T1 of the vehicle is a horizontal direction rotated 90 degrees clockwise with respect to the optical axis direction αL of the left in-vehicle camera 41L in plan view, and the right in-vehicle direction in plan view. It is assumed that the direction is a horizontal direction rotated by 90 degrees counterclockwise with respect to the optical axis direction αR of the camera 41R. The relationship between the relative position and direction of the left in-vehicle camera 41L, the right in-vehicle camera 41R, the reference position P T1, and the reference direction θ T1 is known.

カメラ別推定位置取得モジュール21aの機能により制御部20は、第1時刻T1と第2時刻T2とにおいて撮像された左画像ILから共通の特徴点を抽出し、左車載カメラ41Lの座標系内における当該共通の特徴点の移動量に基づいて、左車載カメラ41Lの移動量を推定する。特徴点の移動量には、並進移動量と回転移動量とが含まれる。例えば、第2時刻T2の左画像IL(図2E)に存在する4個の特徴点は、第1時刻T1の左画像IL(図2C)に存在する6個の特徴点のうち前方側の4個が後方側に移動したものである。制御部20は、共通して存在する特徴点の組ごとに時刻T1〜T2間における特徴点の移動ベクトルを導出し、各移動ベクトルから並進成分と回転成分とを抽出することにより、並進移動量と回転移動量とを導出する。並進移動量は、複数の移動ベクトル間で共通する成分である。回転移動量は、各移動ベクトルから並進成分を除いた成分である回転ベクトルが弦を構成する扇形の基準位置PT1まわりの中心角である。並進移動量と回転移動量の算定の基礎となる移動ベクトルの数が大きいほど、並進移動量と回転移動量の信頼度は大きくなる。 The control unit 20 extracts a common feature point from the left image IL captured at the first time T1 and the second time T2 by the function of the estimated position acquisition module 21a for each camera, and within the coordinate system of the left in-vehicle camera 41L. Based on the movement amount of the common feature point, the movement amount of the left in-vehicle camera 41L is estimated. The movement amount of the feature point includes a translation movement amount and a rotation movement amount. For example, the four feature points present in the left image IL (FIG. 2E) at the second time T2 are the four forward feature points among the six feature points present in the left image IL (FIG. 2C) at the first time T1. The piece has moved to the rear side. The control unit 20 derives a motion vector of the feature point between the times T1 and T2 for each set of feature points that exist in common, and extracts a translation component and a rotation component from each of the motion vectors, whereby a translational movement amount. And the rotational movement amount are derived. The translational movement amount is a component common to a plurality of movement vectors. The rotational movement amount is a central angle around the reference position P T1 of the sector shape in which the rotation vector, which is a component obtained by removing the translation component from each movement vector, forms a string. The greater the number of movement vectors that are the basis for calculating the translational movement amount and the rotational movement amount, the greater the reliability of the translational movement amount and the rotational movement amount.

ここで、ある特徴点が左車載カメラ41Lの座標系内において、ΔPLだけ並進移動し、ΔθLだけ回転移動したとすると、第1時刻T1から第2時刻T2までの間に車両が(−ΔPL)だけ並進移動し、(−ΔθL)だけ回転移動したと推定できる。そして、制御部20は、車両の並進移動量(−ΔPL)と回転移動量(−ΔθL)とをワールド座標系に変換し、第1時刻T1における基準位置PT1と基準方向θT1に加算することにより、第2時刻T2における左推定位置PLT2(=PT1−ΔPL)と左推定方向θLT2(=θT1−ΔθL)とを推定する。 Here, if a certain feature point translates by ΔP L and rotates by Δθ L in the coordinate system of the left in-vehicle camera 41L, the vehicle will be (−) from the first time T1 to the second time T2. It can be estimated that the translational movement is performed by (ΔP L ) and the rotational movement is performed by (−Δθ L ). Then, the control unit 20 converts the translational movement amount (−ΔP L ) and the rotational movement amount (−Δθ L ) of the vehicle into the world coordinate system, and sets the reference position P T1 and the reference direction θ T1 at the first time T1. By adding, the left estimated position PL T2 (= P T1 −ΔP L ) and the left estimated direction θL T2 (= θ T1 −Δθ L ) at the second time T2 are estimated.

カメラ別推定位置取得モジュール21aの機能により制御部20は、第1時刻T1と第2時刻T2とにおいて撮像された右画像IRから共通の特徴点を抽出し、右車載カメラ41Rの座標系内における当該共通の特徴点の移動量に基づいて、右車載カメラ41Rの並進移動量、ΔPRと回転移動量ΔθRを推定する。そして、制御部20は、車両の並進移動量と回転移動量とをワールド座標系に変換し、第1時刻T1における基準位置PT2と基準方向θT2に加算することにより、第2時刻T2における右推定位置PRT2(=PT1−ΔPR)と右推定方向θRT2(=θT1−ΔθR)とを推定する。 The control unit 20 extracts a common feature point from the right image IR captured at the first time T1 and the second time T2 by the function of the estimated position acquisition module 21a for each camera, and within the coordinate system of the right in-vehicle camera 41R. Based on the movement amount of the common feature point, the translational movement amount ΔP R and the rotational movement amount Δθ R of the right in-vehicle camera 41R are estimated. Then, the control unit 20 converts the translational movement amount and the rotational movement amount of the vehicle into the world coordinate system, and adds them to the reference position P T2 and the reference direction θ T2 at the first time T1, thereby at the second time T2. The right estimated position PR T2 (= P T1 −ΔP R ) and the right estimated direction θR T2 (= θ T1 −Δθ R ) are estimated.

導出位置取得モジュール21bは、左推定位置PLT2と右推定位置PRT2、および、左推定位置PLT2の信頼度と右推定位置PRT2の信頼度に基づいて導出した車両の位置である導出位置を取得する機能を制御部20に実現させるプログラムモジュールである。すなわち、第2時刻T2について得られている左推定位置PLT2と右推定位置PRT2とに基づいて、最終的に推定される車両の位置である導出位置を導出するにあたり、左推定位置PLT2の信頼度と右推定位置PRT2の信頼度とが考慮される。 Deriving position acquisition module 21b is left estimated position PL T2 and right estimated position PR T2, and the derived position is a position of the vehicle derived based on the reliability and confidence of the right estimated position PR T2 of the left estimated position PL T2 This is a program module that causes the control unit 20 to realize the function of acquiring. That is, based on the second time left estimated position PL T2 being obtained for T2 and right estimated position PR T2, Upon deriving the derived position is a position of the vehicle to be finally estimated left estimated position PL T2 of the reliability and the reliability of the right estimated position PR T2 is taken into account.

導出位置取得モジュール21bの機能により制御部20は、左推定位置PLT2の信頼度BLと右推定位置PRT2の信頼度BRに応じた重みによって、左推定位置PLT2と右推定位置PRT2とを加重平均することにより導出位置を導出する。すなわち、制御部20は、左推定位置PLT2の重みWLとしてBL/(BL+BR)を設定し、右推定位置PRT2の重みWRとしてBR/(BL+BR)を設定する。そして、制御部20は、導出位置PT2を、WL×PLT2+WR×PRT2によって導出する。同様に、制御部20は、第2時刻T2における車両の基準方向である導出方向θT2、をWL×θLT2+WR×θRT2によって導出する。 Control unit 20 of the function of the derived position acquisition module 21b is by the weight corresponding to the reliability BR confidence BL and right estimated position PR T2 in the left position estimate PL T2, and left estimated position PL T2 and right estimated position PR T2 Is derived by weighted averaging. That is, the control unit 20 sets the BL / (BL + BR) as the weight WL in the left position estimate PL T2, sets the BR / (BL + BR) as the weight WR of the right estimated position PR T2. Then, the controller 20 derives the derived position P T2 by WL × PL T2 + WR × PR T2 . Similarly, the control unit 20 derives the derived direction θ T2 , which is the reference direction of the vehicle at the second time T2 , by WL × θL T2 + WR × θR T2 .

ここで導出された導出位置PT2と導出方向θT2とが次の撮像周期における基準位置PT1と基準方向θT1として適用される。すなわち、導出位置PT2と導出方向θT2に対して次の撮像周期(T2〜T3)における並進移動量と回転移動量とを加算することにより、次の時刻T2における導出位置PT3と導出方向θT3とが導出される。以上の処理を行うことにより、撮像周期ごとに導出位置Pと導出方向θとを更新していくことができる。なお、初期の基準位置Pと基準方向θは、車載カメラ41L,41R以外の位置センサ(GPSセンサ等)に基づいて特定されてもよいし、認識情報30bにおける特徴点の分布と第1時刻T1に撮像された画像における特徴点の分布とをマッチングすることにより特定されてもよい。 The derived position P T2 and the derived direction θ T2 derived here are applied as the reference position P T1 and the reference direction θ T1 in the next imaging cycle. That is, by adding the translational movement amount and the rotational movement amount in the next imaging cycle ( T2 to T3) to the derivation position P T2 and the derivation direction θ T2 , the derivation position P T3 and the derivation direction at the next time T2 are added. θ T3 is derived. By performing the above processing, the derived position P and the derived direction θ can be updated every imaging cycle. The initial reference position P and the reference direction θ may be specified based on a position sensor (such as a GPS sensor) other than the in-vehicle cameras 41L and 41R, or the feature point distribution and the first time T1 in the recognition information 30b. It may be specified by matching the distribution of the feature points in the image picked up.

ここで、左推定位置PLT2の信頼度BLと右推定位置PRT2の信頼度BRは、それぞれ左画像ILにおける特徴点の分布と右画像IRにおける特徴点の分布に基づいて導出される。具体的に、左推定位置PLT2の信頼度BLは、第1時刻T1に撮像された左画像ILと第2時刻T2に撮像された左画像ILとにおいて共通して存在する特徴点の数に基づいて導出され、右推定位置PRT2の信頼度BRは、第1時刻T1に撮像された右画像IRと第2時刻T2に撮像された右画像IRとにおいて共通して存在する特徴点の数に基づいて導出される。より具体的に、左推定位置PLT2の信頼度BLは、第1時刻T1に撮像された左画像ILと第2時刻T2に撮像された左画像ILとにおいて共通して存在する特徴点と左車載カメラ41Lまでの距離に基づいて導出され、右推定位置PRT2の信頼度BRは、第1時刻T1に撮像された右画像IRと第2時刻T2に撮像された右画像IRとにおいて共通して存在する特徴点と左車載カメラまでの距離に基づいて導出される。 Here, reliability BR confidence BL and right estimated position PR T2 of the left estimated position PL T2 are respectively derived based on the distribution of characteristic points in the distribution and the right image IR feature points in the left image IL. Specifically, the reliability BL of the left estimated position PL T2 is the number of feature points that exist in common in the left image IL imaged at the first time T1 and the left image IL imaged at the second time T2. derived based, reliability BR right estimated position PR T2, the number of feature points that exist in common in the captured right image IR to the right image IR captured in the first time T1 second time T2 Is derived on the basis of More specifically, the reliability BL of the left estimated position PL T2 is the same as that between the left and right feature points of the left image IL captured at the first time T1 and the left image IL captured at the second time T2. is derived based on the distance to the vehicle camera 41L, reliability BR right estimated position PR T2 is common in the captured right image IR to the right image IR and the second time T2, which is captured in the first time T1 Are derived on the basis of the existing feature points and the distance to the left in-vehicle camera.

第1時刻T1に撮像された左画像ILと第2時刻T2に撮像された左画像ILとにおいて共通して存在する特徴点の数をNLとし、第1時刻T1に撮像された左画像ILと第2時刻T2に撮像された左画像ILとにおいて共通して存在する特徴点と左車載カメラ41Lまでの平均距離をULとすると、制御部20は、左推定位置PLT2の信頼度BLを、NL/ULによって導出する。すなわち、制御部20は、共通して存在する特徴点の数NLが大きいほど大きく、かつ、共通して存在する特徴点と左車載カメラ41Lまでの平均距離が大きいほど小さくなるように信頼度BLを導出する。同様に、第1時刻T1に撮像された右画像IRと第2時刻T2に撮像された右画像IRとにおいて共通して存在する特徴点の数をNRとし、第1時刻T1に撮像された右画像IRと第2時刻T2に撮像された右画像IRとにおいて共通して存在する特徴点と右車載カメラ41Rまでの平均距離をURとすると、制御部20は、右推定位置PRT2の信頼度BRを、NR/URによって導出する。 The number of feature points that exist in common in the left image IL imaged at the first time T1 and the left image IL imaged at the second time T2 is NL, and the left image IL imaged at the first time T1 Assuming that the average distance between the feature point that is commonly present in the left image IL captured at the second time T2 and the left in-vehicle camera 41L is UL, the control unit 20 determines the reliability BL of the left estimated position PL T2 as Derived by NL / UL. That is, the control unit 20 increases the reliability BL so that the larger the number NL of commonly existing feature points is, the smaller the larger the average distance from the commonly existing feature points to the left in-vehicle camera 41L is. Is derived. Similarly, the number of feature points that exist in common in the right image IR imaged at the first time T1 and the right image IR imaged at the second time T2 is NR, and the right imaged at the first time T1. When the average distance to the image IR and commonly feature points and the right vehicle camera 41R present in the right image IR captured in the second time T2 and UR, the control unit 20, the reliability of the right estimated position PR T2 BR is derived by NR / UR.

左画像IL(図2C,図2E)と、右画像IR(図2D,図2F)とを比較すると、右画像IRの方が共通して存在する特徴点の数が大きい。また、右画像IRには、右車載カメラ41Rとの距離が小さい区画線W上の特徴点も含まれている。従って、図2C〜図2Fの例では、左推定位置PLT2の信頼度BLよりも、右推定位置PRT2の信頼度BRの方が大きく、左推定位置PLT2よりも右推定位置PRT2に近い位置が導出位置として導出されることとなる。 When comparing the left image IL (FIGS. 2C and 2E) and the right image IR (FIGS. 2D and 2F), the right image IR has a larger number of feature points in common. In addition, the right image IR includes feature points on the lane marking W having a small distance from the right in-vehicle camera 41R. Thus, in the example of FIG. 2C~ Figure 2F, than the reliability BL in the left position estimate PL T2, larger in the reliability BR right estimated position PR T2, the right estimated position PR T2 than the left estimated position PL T2 A close position is derived as a derived position.

以上説明した本実施形態の構成において、左推定位置PLT2と右推定位置PRT2、および、左推定位置PLT2の信頼度と右推定位置PRT2の信頼度に基づいて導出位置を導出できるため、画像による車両の位置推定の精度を向上できる。例えば左推定位置PLT2の信頼度が小さい場合でも、右推定位置PRT2に基づいて導出位置を導出することにより精度を向上させることができる。また、左車載カメラ41Lの光軸方向αLと右車載カメラ41Rの光軸方向αRの水平成分は互いに反対方向である。これにより、左車載カメラと右車載カメラとによって180度異なる方向の風景を撮像でき、双方同じような被写体を撮像する可能性を抑制し、推定位置の信頼度が双方とも小さくなることを抑制できる。 In the configuration of this embodiment described above, it left the estimated position PL T2 and right estimated position PR T2, and, since it is possible to derive the derived position based on the reliability and confidence of the right estimated position PR T2 of the left estimated position PL T2 The accuracy of vehicle position estimation using images can be improved. For example, even if the reliability of the left estimated position PL T2 is small, it is possible to improve the accuracy by deriving the derived position based on the right estimated position PR T2. The horizontal components of the optical axis direction αL of the left in-vehicle camera 41L and the optical axis direction αR of the right in-vehicle camera 41R are opposite to each other. Thereby, it is possible to capture a landscape in a direction different by 180 degrees between the left in-vehicle camera and the right in-vehicle camera, and it is possible to suppress the possibility of capturing the same subject in both, and it is possible to suppress the reliability of the estimated position from being reduced. .

左推定位置PLT2の信頼度BLと右推定位置PRT2の信頼度BRに応じた重みによって、左推定位置PLT2と右推定位置PRT2とを加重平均を行うことにより、信頼度が大きい推定位置を重視して導出位置を導出することができ、導出位置の精度を向上させることができる。左推定位置PLT2の信頼度BLと右推定位置PRT2の信頼度BRは、それぞれ左画像Iにおける特徴点の分布と右画像における特徴点の分布に基づいて導出されるため、画像の状態に基づく確かな信頼度を得ることができる。 By weight corresponding to the reliability BR confidence BL and right estimated position PR T2 in the left position estimate PL T2, by performing the weighted average and left estimated position PL T2 and right estimated position PR T2, the reliability is high estimate The derived position can be derived with emphasis on the position, and the accuracy of the derived position can be improved. Reliability BR confidence BL and right estimated position PR T2 of the left estimated position PL T2 is because it is derived based on the distribution of characteristic points in the distribution and the right image feature points in each left image I, the state of the image You can get reliable reliability based.

左推定位置PLT2の信頼度BLは、第1時刻T1に撮像された左画像ILと第2時刻T2に撮像された左画像ILとにおいて共通して存在する特徴点の数に基づいて導出され、右推定位置PRT2の信頼度BRは、第1時刻T1に撮像された右画像IRと第2時刻T2に撮像された右画像IRとにおいて共通して存在する特徴点の数に基づいて導出される。ここで、共通して存在する特徴点が多いほど、第1時刻T1から第2時刻T2までの間における特徴点の変位(移動ベクトル)を多く解析することができ、当該特徴点の変位に基づいて推定位置を大きい信頼度で推定できる。従って、第1時刻T1に撮像された画像と第2時刻T2に撮像された画像とにおいて共通して存在する特徴点の数に基づいて推定位置の信頼度を導出できる。 The reliability BL of the left estimated position PL T2 is derived based on the number of feature points that exist in common in the left image IL imaged at the first time T1 and the left image IL imaged at the second time T2. , reliability BR right estimated position PR T2 is derived based on the number of feature points that exist in common in the right image IR captured in the first time T1 and the right image IR captured in the second time T2 Is done. Here, the more feature points that exist in common, the more feature point displacements (movement vectors) between the first time T1 and the second time T2 can be analyzed, and based on the displacement of the feature points. Thus, the estimated position can be estimated with high reliability. Therefore, the reliability of the estimated position can be derived based on the number of feature points that exist in common between the image captured at the first time T1 and the image captured at the second time T2.

左推定位置PLT2の信頼度BLは、第1時刻T1に撮像された左画像ILと第2時刻T2に撮像された左画像ILとにおいて共通して存在する特徴点と左車載カメラ41Lまでの距離に基づいて導出され、右推定位置PRT2の信頼度BRは、第1時刻T1に撮像された右画像IRと第2時刻T2に撮像された右画像IRとにおいて共通して存在する特徴点と左車載カメラまでの距離に基づいて導出される。ここで、車載カメラ41L,41Rから特徴点までの距離が小さい場合、車両の移動量がわずかであっても画像における特徴点の変位が大きくなる。従って、特徴点までの距離が小さい場合には、特徴点の変位に基づいて推定位置を大きい信頼度で推定できる。従って、車載カメラ41L,41Rから特徴点までの距離に基づいて推定位置の信頼度を導出できる。 The reliability BL of the left estimated position PL T2 is a characteristic point that is common to the left image IL captured at the first time T1 and the left image IL captured at the second time T2, and the left in-vehicle camera 41L. distance derived based, the reliability of the right estimated position PR T2 BR is characteristic points commonly present in the right image IR captured in the first time T1 and the right image IR captured in the second time T2 And derived based on the distance to the left in-vehicle camera. Here, when the distance from the in-vehicle cameras 41L and 41R to the feature point is small, the displacement of the feature point in the image becomes large even if the moving amount of the vehicle is small. Therefore, when the distance to the feature point is small, the estimated position can be estimated with high reliability based on the displacement of the feature point. Therefore, the reliability of the estimated position can be derived based on the distance from the in-vehicle cameras 41L and 41R to the feature point.

(2)車両位置推定処理:
次に、車両位置推定プログラム21の機能により実行される車両位置推定処理を説明する。図3は車両位置推定処理のフローチャートである。まず、カメラ別推定位置取得モジュール21aの機能により制御部20は、車載カメラ41L,41Rの位置を設定する(ステップS100)。すなわち、制御部20は、基準位置Pと基準方向θに対する車載カメラ41L,41Rの位置と光軸方向αL,θRの相対関係を設定する。
(2) Vehicle position estimation processing:
Next, the vehicle position estimation process executed by the function of the vehicle position estimation program 21 will be described. FIG. 3 is a flowchart of the vehicle position estimation process. First, the control unit 20 sets the positions of the in-vehicle cameras 41L and 41R by the function of the estimated camera position acquisition module 21a (step S100). That is, the control unit 20 sets the relative relationship between the positions of the vehicle-mounted cameras 41L and 41R and the optical axis directions αL and θR with respect to the reference position P and the reference direction θ.

次に、カメラ別推定位置取得モジュール21aの機能により制御部20は、現在(第2時刻T2)にて撮像された画像を取得する(ステップS105)。なお、ステップS105〜S135は、左車載カメラ41Lで撮像された左画像ILと、右車載カメラ41Rで撮像された右画像IRの双方について同様に行われる。右画像IRについての処理も同様であるため、ここでは左画像ILについて行う処理のみ説明することとする。   Next, the control unit 20 acquires an image captured at the present time (second time T2) by the function of the estimated position acquisition module for each camera 21a (step S105). Note that steps S105 to S135 are similarly performed for both the left image IL captured by the left in-vehicle camera 41L and the right image IR captured by the right in-vehicle camera 41R. Since the process for the right image IR is the same, only the process for the left image IL will be described here.

まず、制御部20は、現在(第2時刻T2)にて撮像された左画像ILを取得する(ステップS105)。次に、カメラ別推定位置取得モジュール21aの機能により制御部20は、左画像ILから特徴点を抽出する(ステップS110)。   First, the control unit 20 acquires the left image IL picked up at the present time (second time T2) (step S105). Next, the control unit 20 extracts feature points from the left image IL by the function of the camera-specific estimated position acquisition module 21a (step S110).

次に、カメラ別推定位置取得モジュール21aの機能により制御部20は、前回(第1時刻T1)にて撮像された左画像ILの特徴点情報を取得する(ステップS115)。特徴点情報とは、前回の左画像ILにおいて抽出された特徴点の左車載カメラ41Lの座標系での位置を示す情報である。   Next, the control unit 20 acquires the feature point information of the left image IL captured at the previous time (first time T1) by the function of the camera-specific estimated position acquisition module 21a (step S115). The feature point information is information indicating the position of the feature point extracted in the previous left image IL in the coordinate system of the left in-vehicle camera 41L.

次に、カメラ別推定位置取得モジュール21aの機能により制御部20は、共通して存在する特徴点の数NLを取得する(ステップS120)。すなわち、制御部20は、第1時刻T1にて撮像された左画像ILと、第2時刻T2にて撮像された左画像ILとにおいて共通して存在する特徴点の数NLを取得する。   Next, the control unit 20 acquires the number NL of feature points that exist in common by the function of the camera-specific estimated position acquisition module 21a (step S120). That is, the control unit 20 acquires the number NL of feature points that exist in common in the left image IL imaged at the first time T1 and the left image IL imaged at the second time T2.

次に、カメラ別推定位置取得モジュール21aの機能により制御部20は、共通して存在する特徴点までの距離ULを取得する(ステップS125)。すなわち、制御部20は、第1時刻T1にて撮像された左画像ILと、第2時刻T2にて撮像された左画像ILとにおいて共通して存在する特徴点から左車載カメラ41Lまでの距離の平均値を距離URとして取得する。   Next, the control part 20 acquires distance UL to the feature point which exists in common by the function of the estimation position acquisition module 21a classified by camera (step S125). That is, the control unit 20 measures the distance from the feature point that is common to the left image IL captured at the first time T1 and the left image IL captured at the second time T2 to the left in-vehicle camera 41L. Is obtained as the distance UR.

次に、カメラ別推定位置取得モジュール21aの機能により制御部20は、左推定位置PLT2を取得する(ステップS130)。すなわち、制御部20は、第1時刻T1と第2時刻T2との間において共通する特徴点が移動した移動ベクトルを取得し、当該移動ベクトルに基づいて車両の並進移動量(−ΔPL)と回転移動量(−ΔθL)とを推定する。さらに、制御部20は、車両の並進移動量(−ΔPL)と回転移動量(−ΔθL)とをワールド座標系に変換し、前回(第1時刻T1)の車両の基準位置PT1と基準方向θT1に加算することにより、左推定位置PLT2と左推定方向θLT2とを取得する。 Next, the control unit 20 acquires the left estimated position PL T2 by the function of the camera-specific estimated position acquisition module 21a (step S130). That is, the control unit 20 acquires a movement vector in which a common feature point has moved between the first time T1 and the second time T2, and based on the movement vector, the translational movement amount (−ΔP L ) of the vehicle. The rotational movement amount (−Δθ L ) is estimated. Further, the control unit 20 converts the translational movement amount (−ΔP L ) and the rotational movement amount (−Δθ L ) of the vehicle into the world coordinate system, and the vehicle reference position P T1 of the previous time (first time T1) By adding to the reference direction θ T1 , the left estimated position PL T2 and the left estimated direction θL T2 are acquired.

次に、導出位置取得モジュール21bの機能により制御部20は、信頼度を導出する(ステップS135)。すなわち、制御部20は、ステップS120にて取得した特徴点の数NLと、ステップS125にて取得した特徴点から左車載カメラ41Lまでの距離URとに基づいて左推定位置PLT2と左推定方向θLT2の信頼度BL(=NL/UL)を導出する。説明を省略したが、ステップS105〜S135において、右推定位置PRT2と右推定方向θRT2と、右推定位置PRT2と右推定方向θRT2の信頼度BR(=NR/UR)も導出されていることとなる。 Next, the control unit 20 derives the reliability by the function of the derived position acquisition module 21b (step S135). That is, the control unit 20 determines the left estimated position PLT2 and the left estimated direction based on the number NL of feature points acquired in step S120 and the distance UR from the feature points acquired in step S125 to the left in-vehicle camera 41L. The reliability BL (= NL / UL) of θL T2 is derived. Although not described in step S105~S135, and right estimated position PR T2 and right estimated direction .theta.R T2, reliability BR (= NR / UR) of right estimated position PR T2 and right estimated direction .theta.R T2 be derived Will be.

次に、導出位置取得モジュール21bの機能により制御部20は、導出位置を導出する(ステップS140)。すなわち、制御部20は、左推定位置PLT2の重みWLとしてBL/(BL+BR)を設定し、右推定位置PRT2の重みWRとしてBR/(BL+BR)を設定する。そして、制御部20は、導出位置PT2を、WL×PLT2+WR×PRT2によって導出する。さらに、制御部20は、導出方向θT2を、WL×θLT2+WR×θRT2によって導出する。 Next, the control unit 20 derives the derived position by the function of the derived position acquisition module 21b (Step S140). That is, the control unit 20 sets the BL / (BL + BR) as the weight WL in the left position estimate PL T2, sets the BR / (BL + BR) as the weight WR of the right estimated position PR T2. Then, the controller 20 derives the derived position P T2 by WL × PL T2 + WR × PR T2 . Further, the control unit 20 derives the derivation direction θ T2 by WL × θL T2 + WR × θR T2 .

(3)他の実施形態:
前記実施形態においては、実際に撮像された画像IL,IRに基づいて信頼度BL,BRを導出したが、必ずしも画像IL,IRに基づいて信頼度BL,BRを導出しなくてもよい。例えば、左推定位置PLT2の信頼度BLは、地図上における左車載カメラ41Lの光軸方向αLに基づいて導出され、右推定位置PRT2の信頼度BRは、地図上における右車載カメラ41Rの光軸方向に基づいて導出されてもよい。地図上における光軸方向αL,θRから被写体(種類や距離や数)を予測することができ、被写体に基づいて推定位置の信頼度を導出できる。例えば、光軸方向が対向車線側であるか路肩側であるかに応じて信頼度が設定されてもよい。図2Bの例では、地図情報30aに基づいて、光軸方向αLには特徴点が存在する被写体としてガードレールGしか存在しないのに対して、光軸方向αRには特徴点が存在する被写体として区画線WとガードレールGと家Hとが存在する。従って、制御部20は、画像IL,IRの特徴点を解析しなくても、地図情報30aに基づいて信頼度BL,BRを導出できる。
(3) Other embodiments:
In the embodiment, the reliability levels BL and BR are derived based on the actually captured images IL and IR. However, the reliability levels BL and BR do not necessarily have to be derived based on the images IL and IR. For example, the reliability BL left estimated position PL T2 is derived based on the optical axis αL of the left vehicle camera 41L on the map, the reliability BR right estimated position PR T2 is the right vehicle camera 41R on the map It may be derived based on the optical axis direction. The subject (type, distance, and number) can be predicted from the optical axis directions αL and θR on the map, and the reliability of the estimated position can be derived based on the subject. For example, the reliability may be set depending on whether the optical axis direction is the opposite lane side or the road shoulder side. In the example of FIG. 2B, on the basis of the map information 30a, only the guard rail G is present as a subject having a feature point in the optical axis direction αL, whereas the subject having a feature point is present in the optical axis direction αR. Line W, guardrail G, and house H exist. Therefore, the control unit 20 can derive the reliability levels BL and BR based on the map information 30a without analyzing the feature points of the images IL and IR.

また、図4に示すように、第1車載カメラの光軸方向と第2車載カメラの光軸方向には、少なくとも車両の前後方向のいずれか一方と側方とが含まれてもよい。図4において、第1車載カメラおよび第2車載カメラとして、左車載カメラ41Lと右車載カメラ41Rと前車載カメラ41Fとが備えられており、それぞれが光軸方向αL,θR,θFとを有している。前記実施形態のように、光軸方向が側方である場合、車両の前後の移動量を精度よく推定できる。一方、光軸方向が前方または後方である場合、車両が旋回した場合の移動量を精度よく推定できる。車載カメラが3個以上備えられる場合、制御部20は、3個以上の車載カメラで撮像された画像のそれぞれに基づいて推定位置を推定し、各推定位置と、各推定位置の信頼度とに基づいて導出位置を導出すればよい。   As shown in FIG. 4, the optical axis direction of the first vehicle-mounted camera and the optical axis direction of the second vehicle-mounted camera may include at least one of the vehicle front-rear direction and the side. In FIG. 4, a left in-vehicle camera 41L, a right in-vehicle camera 41R, and a front in-vehicle camera 41F are provided as a first in-vehicle camera and a second in-vehicle camera, and each has optical axis directions αL, θR, and θF. ing. When the optical axis direction is lateral as in the above embodiment, the amount of movement of the vehicle before and after can be accurately estimated. On the other hand, when the optical axis direction is forward or backward, the amount of movement when the vehicle turns can be accurately estimated. When three or more in-vehicle cameras are provided, the control unit 20 estimates an estimated position based on each of the images captured by the three or more in-vehicle cameras, and determines each estimated position and the reliability of each estimated position. The derived position may be derived based on this.

推定位置の信頼度は、必ずしも時刻T1,T2に撮像された画像において共通して存在する特徴点の数に基づいて導出されなくてもよく、単に第2時刻T2に撮像された単一画像において存在する特徴点の数に基づいて導出されてもよい。同様に、推定位置の信頼度は、単に第2時刻T2に撮像された単一画像において存在する特徴点から車載カメラまでの距離に基づいて導出されてもよい。また、推定位置の信頼度は、特徴点の数のみに基づいて導出されてもよく、必ずしも特徴点から車載カメラまでの距離が考慮されなくてもよい。反対に、推定位置の信頼度は、特徴点から車載カメラまでの距離のみに基づいて導出されてもよく、必ずしも特徴点の数が考慮されなくてもよい。   The reliability of the estimated position does not necessarily have to be derived based on the number of feature points that exist in common in images captured at times T1 and T2, but simply in a single image captured at the second time T2. It may be derived based on the number of feature points present. Similarly, the reliability of the estimated position may be derived based on the distance from the feature point existing in the single image captured at the second time T2 to the in-vehicle camera. In addition, the reliability of the estimated position may be derived based only on the number of feature points, and the distance from the feature point to the in-vehicle camera may not necessarily be considered. On the contrary, the reliability of the estimated position may be derived based only on the distance from the feature point to the in-vehicle camera, and the number of feature points may not necessarily be taken into consideration.

少なくとも車両は第1車載カメラと第2車載カメラとを備えていればよく、3個以上の車載カメラを備えてもよい。この場合、3個以上の車載カメラのそれぞれにて撮像された画像の画像認識に基づいて推定位置が推定されればよい。また、第1車載カメラは必ずしも単一のカメラによって構成されなくてもよく、例えばステレオカメラであってもよい。同様に第2車載カメラもステレオカメラであってもよい。光軸方向は、車両の位置に応じて撮像される風景が大きく変化する方向に設定されていることが望ましく、例えば水平方向であってもよい。光軸方向が異なるとは、2個の光軸方向がなす角が規定角(例えば10度、望ましくは30度)以上であることであってもよい。画像認識に基づいて推定位置を推定する手法として、公知の種々の手法を採用可能である。予め位置情報が対応付けられた比較画像と車載カメラで撮像した画像とを比較することにより推定位置が推定されてもよいし、位置情報と画像のデータベースを作成しながら推定位置の推定を行うSLAM(Simultaneous Localization and Mapping)を採用してもよい。推定位置の信頼度は、推定位置の精度が良好である可能性が大きいほど大きくなる指標値である。推定位置の信頼度は、推定位置の算出過程で使用するパラメータから導出されてもよいし、車両の状態(運動状態、位置、外部環境)から導出されてもよい。   It is sufficient that at least the vehicle includes the first vehicle-mounted camera and the second vehicle-mounted camera, and the vehicle may include three or more vehicle-mounted cameras. In this case, the estimated position may be estimated based on image recognition of images captured by each of the three or more in-vehicle cameras. Further, the first vehicle-mounted camera does not necessarily need to be configured by a single camera, and may be a stereo camera, for example. Similarly, the second in-vehicle camera may be a stereo camera. The optical axis direction is preferably set to a direction in which the scenery to be imaged changes greatly according to the position of the vehicle, and may be, for example, a horizontal direction. The difference between the optical axis directions may be that the angle formed by the two optical axis directions is a specified angle (for example, 10 degrees, preferably 30 degrees) or more. As a method for estimating the estimated position based on image recognition, various known methods can be employed. The estimated position may be estimated by comparing a comparison image previously associated with position information and an image captured by the in-vehicle camera, or SLAM that estimates the estimated position while creating a database of position information and images. (Simultaneous Localization and Mapping) may be adopted. The reliability of the estimated position is an index value that increases as the possibility that the accuracy of the estimated position is good. The reliability of the estimated position may be derived from parameters used in the process of calculating the estimated position, or may be derived from the state of the vehicle (motion state, position, external environment).

また、導出位置取得部は、第1推定位置の信頼度と第2推定位置の信頼度に応じた重みによって、第1推定位置と第2推定位置とを加重平均することにより導出位置を導出してもよい。加重平均を行うことにより、信頼度が大きい推定位置を重視して導出位置を導出することができ、導出位置の精度を向上させることができる。ただし、導出位置取得部は、必ずしも加重平均によって導出位置を導出しなくてもよく、例えば第1推定位置の信頼度が閾値未満で第2推定位置の信頼度が当該閾値以上である場合に、第2推定位置をそのまま導出位置として取得してもよい。   Further, the derived position acquisition unit derives the derived position by performing a weighted average of the first estimated position and the second estimated position with weights according to the reliability of the first estimated position and the reliability of the second estimated position. May be. By performing the weighted average, it is possible to derive the derived position with an emphasis on the estimated position with high reliability, and it is possible to improve the accuracy of the derived position. However, the derived position acquisition unit does not necessarily have to derive the derived position by a weighted average. For example, when the reliability of the first estimated position is less than the threshold and the reliability of the second estimated position is equal to or greater than the threshold, The second estimated position may be acquired as it is as the derived position.

さらに、第1推定位置の信頼度と第2推定位置の信頼度は、それぞれ第1画像における特徴点の分布と第2画像における特徴点の分布に基づいて導出されてもよい。このように、実際に撮像した画像から信頼度を導出することにより、画像の状態に基づく確かな信頼度を得ることができる。   Furthermore, the reliability of the first estimated position and the reliability of the second estimated position may be derived based on the distribution of feature points in the first image and the distribution of feature points in the second image, respectively. Thus, by deriving the reliability from the actually captured image, a reliable reliability based on the state of the image can be obtained.

また、第1推定位置の信頼度は、第1時刻に撮像された第1画像と第2時刻に撮像された第1画像とにおいて共通して存在する特徴点の数に基づいて導出され、第2推定位置の信頼度は、第1時刻に撮像された第2画像と第2時刻に撮像された第2画像とにおいて共通して存在する特徴点の数に基づいて導出されてもよい。共通して存在する特徴点が多いほど、第1時刻から第2時刻までの間における特徴点の変位を多く解析することができ、当該特徴点の変位に基づいて推定位置を大きい信頼度で推定できる。従って、第1時刻に撮像された画像と第2時刻に撮像された画像とにおいて共通して存在する特徴点の数に基づいて推定位置の信頼度を導出できる。   In addition, the reliability of the first estimated position is derived based on the number of feature points that exist in common in the first image captured at the first time and the first image captured at the second time. The reliability of the two estimated positions may be derived based on the number of feature points that exist in common in the second image captured at the first time and the second image captured at the second time. The more feature points that exist in common, the more feature points can be analyzed between the first time and the second time, and the estimated position can be estimated with greater reliability based on the displacement of the feature points. it can. Therefore, the reliability of the estimated position can be derived based on the number of feature points that exist in common between the image captured at the first time and the image captured at the second time.

さらに、第1推定位置の信頼度は、第1時刻に撮像された第1画像と第2時刻に撮像された第1画像とにおいて共通して存在する特徴点と第1車載カメラまでの距離に基づいて導出され、第2推定位置の信頼度は、第1時刻に撮像された第2画像と第2時刻に撮像された第2画像とにおいて共通して存在する特徴点と第1車載カメラまでの距離に基づいて導出されてもよい。車載カメラから特徴点までの距離が小さい場合、車両の移動量がわずかであっても画像における特徴点の変位が大きくなる。従って、特徴点までの距離が小さい場合には、特徴点の変位に基づいて推定位置を大きい信頼度で推定できる。従って、車載カメラから特徴点までの距離に基づいて推定位置の信頼度を導出できる。   Further, the reliability of the first estimated position is the distance from the feature point that is common to the first image captured at the first time and the first image captured at the second time to the first vehicle-mounted camera. The reliability of the second estimated position is derived based on the feature points that are common to the second image captured at the first time and the second image captured at the second time and the first in-vehicle camera. May be derived based on the distance. When the distance from the in-vehicle camera to the feature point is small, the displacement of the feature point in the image increases even if the amount of movement of the vehicle is small. Therefore, when the distance to the feature point is small, the estimated position can be estimated with high reliability based on the displacement of the feature point. Therefore, the reliability of the estimated position can be derived based on the distance from the in-vehicle camera to the feature point.

また、第1推定位置の信頼度は、地図上における第1車載カメラの光軸方向に基づいて導出され、第2推定位置の信頼度は、地図上における第2車載カメラの光軸方向に基づいて導出されてもよい。地図上における光軸方向から被写体(種類や距離や数)を予測することができ、被写体に基づいて推定位置の信頼度を導出できる。例えば、光軸方向が対向車線側であるか路肩側であるかに応じて信頼度が設定されてもよい。また、車両の移動方向と光軸方向との関係性に応じて推定位置の信頼度が導出されてもよい。例えば、ステアリングセンサ等から得られた操舵角に応じて推定位置の信頼度が導出されてもよいし、車速に応じて推定位置の信頼度が導出されてもよい。   Further, the reliability of the first estimated position is derived based on the optical axis direction of the first vehicle-mounted camera on the map, and the reliability of the second estimated position is based on the optical axis direction of the second vehicle-mounted camera on the map. May be derived. The subject (type, distance, and number) can be predicted from the optical axis direction on the map, and the reliability of the estimated position can be derived based on the subject. For example, the reliability may be set depending on whether the optical axis direction is the opposite lane side or the road shoulder side. Further, the reliability of the estimated position may be derived according to the relationship between the moving direction of the vehicle and the optical axis direction. For example, the reliability of the estimated position may be derived according to the steering angle obtained from a steering sensor or the like, or the reliability of the estimated position may be derived according to the vehicle speed.

さらに、第1車載カメラの光軸方向と第2車載カメラの光軸方向の水平成分は互いに反対方向であってもよい。これにより、第1車載カメラと第2車載カメラとによって180度異なる方向の風景を撮像でき、双方同じような被写体を撮像する可能性を抑制し、推定位置の信頼度が双方とも小さくなることを抑制できる。   Furthermore, the horizontal components of the optical axis direction of the first vehicle-mounted camera and the optical axis direction of the second vehicle-mounted camera may be opposite to each other. As a result, it is possible to capture a landscape in a direction different by 180 degrees between the first vehicle-mounted camera and the second vehicle-mounted camera, suppress the possibility of capturing the same subject, and reduce the reliability of the estimated position. Can be suppressed.

また、第1車載カメラの光軸方向と第2車載カメラの光軸方向には、少なくとも車両の前後方向のいずれか一方と側方とが含まれてもよい。光軸方向が側方である場合、車両の前後の移動量を精度よく推定できる。一方、光軸方向が前方または後方である場合、車両が旋回した場合の移動量を精度よく推定できる。   Further, the optical axis direction of the first vehicle-mounted camera and the optical axis direction of the second vehicle-mounted camera may include at least one of the vehicle front-rear direction and the side. When the optical axis direction is lateral, the amount of movement of the vehicle before and after can be accurately estimated. On the other hand, when the optical axis direction is forward or backward, the amount of movement when the vehicle turns can be accurately estimated.

さらに、本発明の車両位置推定システムを構成する各構成要素は、上述の実施形態のように、1個の装置で実現されてもよいし、2個以上の装置に分かれて存在していてもよい。後者としては、例えば、カメラ別推定位置取得部と導出位置取得部のいずれかが2個以上の装置に分散して実現される構成を採用可能である。   Furthermore, each component which comprises the vehicle position estimation system of this invention may be implement | achieved by one apparatus like the above-mentioned embodiment, Even if it divides and exists in two or more apparatuses. Good. As the latter, for example, a configuration in which any one of the estimated position acquisition unit for each camera and the derived position acquisition unit is distributed to two or more devices can be adopted.

以上のようなシステム、プログラム、方法は、単独の装置として実現される場合や、複数の装置によって実現される場合が想定可能であり、各種の態様を含むものである。例えば、以上のような構成要素を備えたサーバや方法、プログラムを提供することが可能である。また、一部がソフトウェアであり一部がハードウェアであったりするなど、適宜、変更可能である。さらに、システムを制御するプログラムの記録媒体としても発明は成立する。むろん、そのソフトウェアの記録媒体は、磁気記録媒体であってもよいし光磁気記録媒体であってもよいし、今後開発されるいかなる記録媒体においても全く同様に考えることができる。   The system, program, and method as described above can be assumed to be realized as a single device or a plurality of devices, and include various aspects. For example, it is possible to provide a server, a method, and a program that include the above components. Further, some changes may be made as appropriate, such as a part of software and a part of hardware. Furthermore, the invention can be realized as a recording medium for a program for controlling the system. Of course, the software recording medium may be a magnetic recording medium, a magneto-optical recording medium, or any recording medium to be developed in the future.

10…ナビゲーション装置、20…制御部、21…車両位置推定プログラム、21a…カメラ別推定位置取得モジュール、21b…導出位置取得モジュール、30…記録媒体、30a…地図情報、30b…認識情報、41F…前車載カメラ、41L…左車載カメラ、41R…右車載カメラ、42…ユーザI/F部、BL,BR…信頼度、G…ガードレール、H…家、IL…左画像、IR…右画像、PLT2…左推定位置、PRT2…右推定位置、S…海、W…区画線、αL,αR…光軸方向、θLT2…左推定方向、θRT2…右推定方向 DESCRIPTION OF SYMBOLS 10 ... Navigation apparatus, 20 ... Control part, 21 ... Vehicle position estimation program, 21a ... Estimated position acquisition module classified by camera, 21b ... Derived position acquisition module, 30 ... Recording medium, 30a ... Map information, 30b ... Recognition information, 41F ... Front vehicle-mounted camera, 41L ... Left vehicle-mounted camera, 41R ... Right vehicle-mounted camera, 42 ... User I / F unit, BL, BR ... Reliability, G ... Guard rail, H ... Home, IL ... Left image, IR ... Right image, PL T2 ... left estimated position, PR T2 ... right estimated position, S ... sea, W ... lane marking, αL, αR ... optical axis direction, θL T2 ... left estimated direction, θR T2 ... right estimated direction

Claims (10)

第1車載カメラにて撮像された第1画像の画像認識に基づいて推定した車両の位置である第1推定位置と、前記第1車載カメラと光軸方向が異なる第2車載カメラにて撮像された第2画像の画像認識に基づいて推定した車両の位置である第2推定位置とを取得するカメラ別推定位置取得部と、
前記第1推定位置と前記第2推定位置、および、前記第1推定位置の信頼度と前記第2推定位置の信頼度に基づいて導出した前記車両の位置である導出位置を取得する導出位置取得部と、
を備える車両位置推定システム。
The first estimated position, which is the position of the vehicle estimated based on the image recognition of the first image captured by the first in-vehicle camera, and the second in-vehicle camera having an optical axis direction different from that of the first in-vehicle camera. An estimated position acquisition unit for each camera that acquires a second estimated position that is a position of the vehicle estimated based on image recognition of the second image;
Derived position acquisition for acquiring the first estimated position and the second estimated position, and the derived position that is the position of the vehicle derived based on the reliability of the first estimated position and the reliability of the second estimated position And
A vehicle position estimation system comprising:
前記導出位置取得部は、前記第1推定位置の信頼度と前記第2推定位置の信頼度に応じた重みによって、前記第1推定位置と前記第2推定位置とを加重平均することにより前記導出位置を導出する、
請求項1に記載の車両位置推定システム。
The derived position acquisition unit performs the derivation by performing a weighted average of the first estimated position and the second estimated position with a weight according to the reliability of the first estimated position and the reliability of the second estimated position. Deriving the position,
The vehicle position estimation system according to claim 1.
前記第1推定位置の信頼度と前記第2推定位置の信頼度は、それぞれ前記第1画像における特徴点の分布と前記第2画像における特徴点の分布に基づいて導出される、
請求項1または請求項2のいずれかに記載の車両位置推定システム。
The reliability of the first estimated position and the reliability of the second estimated position are derived based on the distribution of feature points in the first image and the distribution of feature points in the second image, respectively.
The vehicle position estimation system according to claim 1 or 2.
前記第1推定位置の信頼度は、第1時刻に撮像された前記第1画像と第2時刻に撮像された前記第1画像とにおいて共通して存在する特徴点の数に基づいて導出され、
前記第2推定位置の信頼度は、前記第1時刻に撮像された前記第2画像と前記第2時刻に撮像された前記第2画像とにおいて共通して存在する特徴点の数に基づいて導出される、
請求項3に記載の車両位置推定システム。
The reliability of the first estimated position is derived based on the number of feature points that exist in common in the first image captured at the first time and the first image captured at the second time,
The reliability of the second estimated position is derived based on the number of feature points that exist in common in the second image captured at the first time and the second image captured at the second time. To be
The vehicle position estimation system according to claim 3.
前記第1推定位置の信頼度は、第1時刻に撮像された前記第1画像と第2時刻に撮像された前記第1画像とにおいて共通して存在する特徴点と前記第1車載カメラまでの距離に基づいて導出され、
前記第2推定位置の信頼度は、前記第1時刻に撮像された前記第2画像と前記第2時刻に撮像された前記第2画像とにおいて共通して存在する特徴点と前記第1車載カメラまでの距離に基づいて導出される、
請求項3または請求項4のいずれかに記載の車両位置推定システム。
The reliability of the first estimated position is a characteristic point that exists in common between the first image captured at the first time and the first image captured at the second time, and the first in-vehicle camera. Derived based on distance,
The reliability of the second estimated position is a characteristic point that exists in common between the second image captured at the first time and the second image captured at the second time, and the first in-vehicle camera. Derived based on the distance to
The vehicle position estimation system according to any one of claims 3 and 4.
前記第1推定位置の信頼度は、地図上における前記第1車載カメラの光軸方向に基づいて導出され、
前記第2推定位置の信頼度は、前記地図上における前記第2車載カメラの光軸方向に基づいて導出される、
請求項1または請求項2のいずれかに記載の車両位置推定システム。
The reliability of the first estimated position is derived based on the optical axis direction of the first vehicle-mounted camera on the map,
The reliability of the second estimated position is derived based on the optical axis direction of the second vehicle-mounted camera on the map.
The vehicle position estimation system according to claim 1 or 2.
前記第1車載カメラの光軸方向と前記第2車載カメラの光軸方向の水平成分は互いに反対方向である、
請求項1から請求項6のいずれか一項に記載の車両位置推定システム。
The horizontal components of the optical axis direction of the first vehicle-mounted camera and the optical axis direction of the second vehicle-mounted camera are opposite to each other.
The vehicle position estimation system according to any one of claims 1 to 6.
前記第1車載カメラの光軸方向と前記第2車載カメラの光軸方向には、少なくとも前記車両の前後方向のいずれか一方と側方とが含まれる、
請求項1から請求項6のいずれか一項に記載の車両位置推定システム。
The optical axis direction of the first vehicle-mounted camera and the optical axis direction of the second vehicle-mounted camera include at least one of the vehicle front-rear direction and the side.
The vehicle position estimation system according to any one of claims 1 to 6.
第1車載カメラにて撮像された第1画像の画像認識に基づいて推定した車両の位置である第1推定位置と、前記第1車載カメラと光軸方向が異なる第2車載カメラにて撮像された第2画像の画像認識に基づいて推定した車両の位置である第2推定位置とを取得するカメラ別推定位置取得工程と、
前記第1推定位置と前記第2推定位置、および、前記第1推定位置の信頼度と前記第2推定位置の信頼度に基づいて導出した前記車両の位置である導出位置を取得する導出位置取得工程と、
を含む車両位置推定方法。
The first estimated position, which is the position of the vehicle estimated based on the image recognition of the first image captured by the first in-vehicle camera, and the second in-vehicle camera having an optical axis direction different from that of the first in-vehicle camera. An estimated position acquisition process for each camera that acquires a second estimated position that is a position of the vehicle estimated based on image recognition of the second image;
Derived position acquisition for acquiring the first estimated position and the second estimated position, and the derived position that is the position of the vehicle derived based on the reliability of the first estimated position and the reliability of the second estimated position Process,
A vehicle position estimation method including:
第1車載カメラにて撮像された第1画像の画像認識に基づいて推定した車両の位置である第1推定位置と、前記第1車載カメラと光軸方向が異なる第2車載カメラにて撮像された第2画像の画像認識に基づいて推定した車両の位置である第2推定位置とを取得するカメラ別推定位置取得機能と、
前記第1推定位置と前記第2推定位置、および、前記第1推定位置の信頼度と前記第2推定位置の信頼度に基づいて導出した前記車両の位置である導出位置を取得する導出位置取得機能と、
をコンピュータに実現させる車両位置推定プログラム。
The first estimated position, which is the position of the vehicle estimated based on the image recognition of the first image captured by the first in-vehicle camera, and the second in-vehicle camera having an optical axis direction different from that of the first in-vehicle camera. An estimated position acquisition function for each camera that acquires a second estimated position that is a position of the vehicle estimated based on image recognition of the second image;
Derived position acquisition for acquiring the first estimated position and the second estimated position, and the derived position that is the position of the vehicle derived based on the reliability of the first estimated position and the reliability of the second estimated position Function and
Vehicle position estimation program that makes the computer realize.
JP2015250964A 2015-12-24 2015-12-24 Vehicle position estimation system, method, and program Pending JP2017116363A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015250964A JP2017116363A (en) 2015-12-24 2015-12-24 Vehicle position estimation system, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015250964A JP2017116363A (en) 2015-12-24 2015-12-24 Vehicle position estimation system, method, and program

Publications (1)

Publication Number Publication Date
JP2017116363A true JP2017116363A (en) 2017-06-29

Family

ID=59233925

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015250964A Pending JP2017116363A (en) 2015-12-24 2015-12-24 Vehicle position estimation system, method, and program

Country Status (1)

Country Link
JP (1) JP2017116363A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112097742A (en) * 2019-06-17 2020-12-18 北京地平线机器人技术研发有限公司 Pose determination method and device
JP2021043486A (en) * 2019-09-06 2021-03-18 株式会社東芝 Position estimating device

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030083048A (en) * 2002-04-19 2003-10-30 주식회사 지피에스코리아 Mobile Mapping System and treating method thereof
US20050283699A1 (en) * 2004-06-21 2005-12-22 Kimihiro Nomura Map error information obtaining system and map error information obtaining method
JP2007147564A (en) * 2005-11-30 2007-06-14 Aisin Aw Co Ltd Image recognition device and method thereof, and own vehicle position recognition device and method
JP2008164384A (en) * 2006-12-27 2008-07-17 Aisin Aw Co Ltd Device and method for recognizing position of local substance
JP2008175717A (en) * 2007-01-19 2008-07-31 Xanavi Informatics Corp System for computing current position, and method for computing current position
US20120310516A1 (en) * 2011-06-01 2012-12-06 GM Global Technology Operations LLC System and method for sensor based environmental model construction
JP2013185871A (en) * 2012-03-06 2013-09-19 Nissan Motor Co Ltd Mobile object position attitude estimation device and method
JP2014034251A (en) * 2012-08-08 2014-02-24 Nissan Motor Co Ltd Vehicle traveling control device and method thereof
CN103900583A (en) * 2012-12-25 2014-07-02 联想(北京)有限公司 Device and method used for real-time positioning and map building
JP2015102449A (en) * 2013-11-26 2015-06-04 日産自動車株式会社 Vehicle self position estimation apparatus and vehicle self position estimation method
US20150292891A1 (en) * 2014-04-11 2015-10-15 Nissan North America, Inc Vehicle position estimation system

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030083048A (en) * 2002-04-19 2003-10-30 주식회사 지피에스코리아 Mobile Mapping System and treating method thereof
US20050283699A1 (en) * 2004-06-21 2005-12-22 Kimihiro Nomura Map error information obtaining system and map error information obtaining method
JP2007147564A (en) * 2005-11-30 2007-06-14 Aisin Aw Co Ltd Image recognition device and method thereof, and own vehicle position recognition device and method
JP2008164384A (en) * 2006-12-27 2008-07-17 Aisin Aw Co Ltd Device and method for recognizing position of local substance
JP2008175717A (en) * 2007-01-19 2008-07-31 Xanavi Informatics Corp System for computing current position, and method for computing current position
US20120310516A1 (en) * 2011-06-01 2012-12-06 GM Global Technology Operations LLC System and method for sensor based environmental model construction
JP2013185871A (en) * 2012-03-06 2013-09-19 Nissan Motor Co Ltd Mobile object position attitude estimation device and method
JP2014034251A (en) * 2012-08-08 2014-02-24 Nissan Motor Co Ltd Vehicle traveling control device and method thereof
CN103900583A (en) * 2012-12-25 2014-07-02 联想(北京)有限公司 Device and method used for real-time positioning and map building
JP2015102449A (en) * 2013-11-26 2015-06-04 日産自動車株式会社 Vehicle self position estimation apparatus and vehicle self position estimation method
US20150292891A1 (en) * 2014-04-11 2015-10-15 Nissan North America, Inc Vehicle position estimation system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112097742A (en) * 2019-06-17 2020-12-18 北京地平线机器人技术研发有限公司 Pose determination method and device
CN112097742B (en) * 2019-06-17 2022-08-30 北京地平线机器人技术研发有限公司 Pose determination method and device
JP2021043486A (en) * 2019-09-06 2021-03-18 株式会社東芝 Position estimating device

Similar Documents

Publication Publication Date Title
CN109166149B (en) Positioning and three-dimensional line frame structure reconstruction method and system integrating binocular camera and IMU
EP2757524B1 (en) Depth sensing method and system for autonomous vehicles
KR101725060B1 (en) Apparatus for recognizing location mobile robot using key point based on gradient and method thereof
US10762643B2 (en) Method for evaluating image data of a vehicle camera
Kitt et al. Monocular visual odometry using a planar road model to solve scale ambiguity
KR101776621B1 (en) Apparatus for recognizing location mobile robot using edge based refinement and method thereof
CN110569704A (en) Multi-strategy self-adaptive lane line detection method based on stereoscopic vision
Gräter et al. Robust scale estimation for monocular visual odometry using structure from motion and vanishing points
WO2021046716A1 (en) Method, system and device for detecting target object and storage medium
CN112997187A (en) Two-dimensional object bounding box information estimation based on aerial view point cloud
JP7147753B2 (en) Information processing device, information processing method, and program
KR20190030474A (en) Method and apparatus of calculating depth map based on reliability
CN111998862B (en) BNN-based dense binocular SLAM method
CN108958232A (en) A kind of mobile sweeping robot SLAM device and algorithm based on deep vision
KR101207535B1 (en) Image-based simultaneous localization and mapping for moving robot
Dragon et al. Ground plane estimation using a hidden markov model
CN112017236A (en) Method and device for calculating position of target object based on monocular camera
Miksch et al. Automatic extrinsic camera self-calibration based on homography and epipolar geometry
KR100574227B1 (en) Apparatus and method for separating object motion from camera motion
JP2017116363A (en) Vehicle position estimation system, method, and program
CN113516711A (en) Camera pose estimation techniques
CN106682584B (en) Unmanned aerial vehicle obstacle detection method and device
CN111862146B (en) Target object positioning method and device
Lin et al. A visual positioning system for vehicle or mobile robot navigation
JP2018116147A (en) Map creation device, map creation method and map creation computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180517

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190415

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190521

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20191119