JP6336825B2 - POSITION ESTIMATION DEVICE, POSITION ESTIMATION METHOD, AND POSITION ESTIMATION PROGRAM - Google Patents
POSITION ESTIMATION DEVICE, POSITION ESTIMATION METHOD, AND POSITION ESTIMATION PROGRAM Download PDFInfo
- Publication number
- JP6336825B2 JP6336825B2 JP2014115825A JP2014115825A JP6336825B2 JP 6336825 B2 JP6336825 B2 JP 6336825B2 JP 2014115825 A JP2014115825 A JP 2014115825A JP 2014115825 A JP2014115825 A JP 2014115825A JP 6336825 B2 JP6336825 B2 JP 6336825B2
- Authority
- JP
- Japan
- Prior art keywords
- detection result
- moving body
- determination
- estimating
- position estimation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 67
- PWPJGUXAGUPAHP-UHFFFAOYSA-N lufenuron Chemical compound C1=C(Cl)C(OC(F)(F)C(C(F)(F)F)F)=CC(Cl)=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F PWPJGUXAGUPAHP-UHFFFAOYSA-N 0.000 title 1
- 238000001514 detection method Methods 0.000 claims description 74
- 238000012545 processing Methods 0.000 description 56
- 238000012544 monitoring process Methods 0.000 description 34
- 238000012986 modification Methods 0.000 description 9
- 230000004048 modification Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 7
- 230000005540 biological transmission Effects 0.000 description 6
- 239000000470 constituent Substances 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 239000003086 colorant Substances 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Landscapes
- Navigation (AREA)
Description
本発明は、車両等の位置を推定する位置推定装置に関する。 The present invention relates to a position estimation device that estimates the position of a vehicle or the like.
車載カメラでの撮影画像から車線やランドマークを抽出し、これらと、地図データに含まれているランドマーク情報や車線情報とを整合させ、これらを撮影した位置を求めることで、高精度で自車両の現在地を推定することが知られている(例えば、特許文献1)。 By extracting lanes and landmarks from the images captured by the in-vehicle camera, aligning them with the landmark information and lane information contained in the map data, and obtaining the positions where these were photographed, it is possible to automatically and accurately. It is known to estimate the current location of a vehicle (for example, Patent Document 1).
しかしながら、降雪により車線が隠された場合や、歩行者や他車両によりランドマークが隠された場合等には、撮影画像から車線等を抽出することができなくなり、上述した方法では自車両の現在地を推定するのが困難となる。 However, when the lane is hidden due to snowfall, or when a landmark is hidden by a pedestrian or another vehicle, the lane or the like cannot be extracted from the photographed image. Is difficult to estimate.
本願発明は、移動体の位置を高精度で推定することを目的とする。 An object of the present invention is to estimate the position of a moving body with high accuracy.
上記課題に鑑みてなされた本発明に係る位置推定装置(10)は、地図データを取得する地図データ取得手段と(S100,S300,S500)、自装置が搭載された移動体(1)の位置情報を取得する位置情報取得手段と(S100,S300,S500)、移動体に搭載されたセンサによる移動体の周辺に存在する対象物の検出結果を取得する検出結果取得手段と(S100,S300,S500)、検出結果に基づき、移動体の周辺のうち、予め定められた条件を満たす対象物が多く存在する一部の領域を、判定領域として設定する設定手段と(S105〜S120,S310〜S315,S510〜S515)、を備える。また、この位置推定装置(10)は、検出結果に基づき、判定領域から、移動体の位置の推定に用いる対象物を特定する特定手段と(S105,S125,S305,S320,S505,S520)、位置情報に基づき定められる領域に存在するものとして地図データに登録されている対象物と、特定手段により特定された対象物とに基づき、移動体の位置を推定する推定手段と(S130,S325,S525)、を備える。 The position estimation device (10) according to the present invention made in view of the above problems includes map data acquisition means for acquiring map data (S100, S300, S500), and the position of the mobile body (1) on which the device is mounted. Position information acquisition means for acquiring information (S100, S300, S500), detection result acquisition means for acquiring a detection result of an object existing around the moving body by a sensor mounted on the moving body (S100, S300, S500) setting means for setting, as a determination area, a part of the area around the moving body in which there are many objects that satisfy a predetermined condition based on the detection result (S105 to S120, S310 to S315). , S510 to S515). In addition, the position estimation device (10) includes, based on the detection result, specifying means for specifying an object used for estimating the position of the moving object from the determination region (S105, S125, S305, S320, S505, S520), Estimation means for estimating the position of the moving object based on the object registered in the map data as existing in the area determined based on the position information and the object specified by the specifying means (S130, S325, S525).
このような構成によれば、移動体の周辺のうち、移動体の位置を高精度で推定する上で好適な対象物が多く存在する領域を判定領域として設定することができる。このため、移動体の位置を推定する際には、このような対象物がより多く用いられるようになり、移動体の位置を高精度で推定することができる。 According to such a configuration, it is possible to set, as the determination area, an area where there are many objects suitable for estimating the position of the moving body with high accuracy in the periphery of the moving body. For this reason, when estimating the position of a moving body, such an object comes to be used more frequently and the position of a moving body can be estimated with high precision.
また、上記課題に鑑みてなされた本発明に係る位置推定装置(10)は、地図データを取得する地図データ取得手段と(S200,S400,S600)、自装置が搭載された移動体(1)の位置情報を取得する位置情報取得手段と(S200,S400,S600)、移動体に搭載されたセンサによる移動体の周辺に存在する対象物の検出結果を取得する検出結果取得手段と(S200,S400,S600)、検出結果に基づき、移動体の周辺における複数の判定領域の各々に、予め定められた条件を満たす対象物がどの程度存在するかを判定し、判定結果に基づき、判定領域に重みを設定する設定手段と(S205〜S220,S410〜S415,S610〜S615)、を備える。また、この位置
推定装置(10)は、検出結果に基づき、判定領域から、移動体の位置の推定に用いる対象物を特定する特定手段と(S205,S225,S405,S420,S605,S620)、位置情報に基づき定められる領域に存在するものとして地図データに登録されている対象物と、特定手段によりそれぞれの判定領域において特定された対象物と、それぞれの判定領域の重みとに基づき、移動体の位置を推定する推定手段と(S230,S425,S625)、を備える。
In addition, the position estimation device (10) according to the present invention made in view of the above problems includes map data acquisition means for acquiring map data (S200, S400, S600), and a moving body (1) on which the device is mounted. Position information acquiring means for acquiring the position information (S200, S400, S600), detection result acquiring means for acquiring a detection result of an object existing around the moving body by a sensor mounted on the moving body (S200, S400, S600), based on the detection result, it is determined how many objects satisfying a predetermined condition exist in each of the plurality of determination regions in the vicinity of the moving body, and the determination region is determined based on the determination result. Setting means for setting weights (S205 to S220, S410 to S415, S610 to S615). Further, the position estimation device (10) includes, based on the detection result, specifying means for specifying an object used for estimating the position of the moving object from the determination region (S205, S225, S405, S420, S605, S620), Based on the object registered in the map data as existing in the area determined based on the position information, the object specified in each determination area by the specifying means, and the weight of each determination area (S230, S425, S625).
このような構成によれば、移動体の位置を高精度で推定する上で好適な対象物がどの程度存在するかにより、移動体の周辺における各判定領域に重みを設定することができる。これにより、このような対象物の検出結果がより反映された状態で、移動体の位置が推定されるようになり、移動体の位置を高精度で推定することができる。 According to such a configuration, a weight can be set for each determination region in the periphery of the moving body depending on how many suitable objects exist for estimating the position of the moving body with high accuracy. Accordingly, the position of the moving body is estimated in a state where the detection result of such an object is more reflected, and the position of the moving body can be estimated with high accuracy.
なお、本発明は、上記位置推定装置の他、コンピュータを上記位置推定装置として動作させるための位置推定プログラムや、位置推定プログラムを記録した記録媒体や、位置推定プログラムに対応する制御方法など、種々の形態で実現することができる。 In addition to the position estimation device, the present invention includes various methods such as a position estimation program for operating a computer as the position estimation device, a recording medium on which the position estimation program is recorded, and a control method corresponding to the position estimation program. Can be realized.
また、この欄及び特許請求の範囲に記載した括弧内の符号は、一つの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、本発明の技術的範囲を限定するものではない。 Further, the reference numerals in parentheses described in this column and in the claims indicate the correspondence with the specific means described in the embodiment described later as one aspect, and the technical scope of the present invention. It is not limited.
以下、本発明の実施形態について図面を用いて説明する。なお、本発明の実施の形態は、下記の実施形態に何ら限定されることはなく、本発明の技術的範囲に属する限り種々の形態を採りうる。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. The embodiment of the present invention is not limited to the following embodiment, and can take various forms as long as they belong to the technical scope of the present invention.
[第1実施形態]
[構成の説明]
第1実施形態の位置推定装置10(図1参照)は、一例として車両1に搭載されている。これ以外にも、位置推定装置10は、ロボットや車両以外の乗り物等といった移動体に搭載することが考えられる。
[First Embodiment]
[Description of configuration]
The position estimation apparatus 10 (refer FIG. 1) of 1st Embodiment is mounted in the
位置推定装置10は、周辺監視センサ11と、無線通信部12と、地図管理部13と、衛星測位部14と、位置推定処理部15とを有している。また、位置推定装置10は、図示しないCPU,ROM,RAM,I/O等を有しており、ROMに記憶されているプログラムや、図示しないHDD等からRAMにロードされたプログラム31に従いCPUが動作することで、各種機能を実現する。
The
なお、このプログラム31は、CD−ROM,USBメモリ,メモリカード(登録商標)等の光ディスク,磁気ディスク,半導体製メモリ等として構成された記憶媒体30に記憶された状態で提供され、位置推定装置10のHDD等に保存されても良い。無論、プログラム31は、インターネット等から提供されても良い。
The
周辺監視センサ11は、自車両周辺に存在する移動体(車両,歩行者等)や静止物(ランドマーク,建築物,道路標識,信号機,路肩,中央分離帯等)や、道路の形状や、道路に描かれた車線や標識等を検出するためのセンサである。以後、周辺監視センサ11による検出対象を対象物と記載する。周辺監視センサ11は、例えば、レーザーレーダや、マイクロ波やミリ波を用いて対象物を検出するレーダ等として構成されていても良い。
The surrounding
周辺監視センサ11は、当該センサの周囲の360°の方向に送信波(レーザ,マイクロ波,ミリ波等)を照射すると共に、反射波を検出する。また、周辺監視センサ11は、水平面を基準とした鉛直方向への送信波の照射方向の傾き(照射角)を変更可能となっている。
The surrounding
車両1の周囲に広がる水平面は、前方領域,後方領域,右方領域,左方領域の4つの領域に区分される(図2参照)。なお、図2において、x軸は車両1の前後方向を、y軸は車両1の左右方向を、z軸は車両1の鉛直方向を示している。各領域は、周辺監視センサ11の配置位置を中心とした中心角が90°の扇形に形成されている。x軸は、前方領域と後方領域の中心角を2等分した状態で配され、y軸は、右方領域と左方領域の中心角を2等分した状態で配される。
A horizontal plane extending around the
また、照射角の可変範囲は4つに区分され、照射角が各区分内で変化した際に送信波が照射される空間を、レイヤと記載する。送信波の照射範囲は、レイヤ1〜4の4つに区分される(図2参照)。ここで、前方領域,後方領域,右方領域,左方領域の各々における各レイヤに対応する空間を、対象領域と記載する。なお、前方領域,後方領域,右方領域,左方領域をレイヤ1〜4に区分せず、各領域における送信波の照射範囲を、それぞれ、対象領域としても良い。また、上記の水平面及び照射角の区分の方法は一例であり、別の区分方法も取ることもある。
Further, the variable range of the irradiation angle is divided into four, and a space to which the transmission wave is irradiated when the irradiation angle changes in each of the sections is described as a layer. The irradiation range of the transmission wave is divided into four
各レイヤを照射する際、照射角は、使用する周辺監視センサ11によって異なるが、例えば、8段階で設定される。つまり、照射角は、合計32段階で設定される。1サイクルの測定では、照射角が各段階に設定され、その際に周辺監視センサ11の周囲の360°の方向に送信波が照射されると共に、反射波が検出され、対象物の位置,大きさ,形状等の検出結果が位置推定処理部15に提供される。
When irradiating each layer, the irradiation angle varies depending on the surrounding
なお、周辺監視センサ11は、検出結果として反射波の反射強度を位置推定処理部15に提供しても良い。また、周辺監視センサ11としてマイクロ波,ミリ波等を照射するレーダが用いられている場合には、検出結果として、対象物の位置等に加え、検出された各対象物と車両1との相対速度を位置推定処理部15に提供しても良い。
The
無線通信部12は、アンテナ等により無線通信回線網にアクセスし、インターネット等を経由して地図DB20等のサーバ等と通信を行う部位である。
地図管理部13は、無線通信部12を介して地図DB20から受信した地図データを保存する部位であり、フラッシュメモリやHDD等といった書き換え可能な不揮発性メモリにより構成されていても良いし、RAM等の揮発性メモリにより構成されていても良い。
The
The
衛星測位部14は、アンテナを介してGPSやGLONASS等の衛星測位システムを構成する人工衛星からの信号を受信し、該信号に基づき、車両1の現在地や、進行方向や、速度等を検出する部位である。
The
位置推定処理部15は、衛星測位部14により検出された現在地と、周辺監視センサ11による検出結果とに基づき、車両1の現在地を推定する部位である(詳細は後述する)。
The position
[動作の説明]
次に、衛星測位部14により検出された現在地に基づき、より高い精度で車両1の現在地を推定する現在地推定処理について説明する(図3参照)。第1実施形態の現在地推定処理では、周辺監視センサ11による対象物の検出結果に基づき対象領域が選択され、選択された対象領域に存在する対象物に基づき、現在地の推定がなされる。本処理は、周期的なタイミングで実行される。また、本処理は、プログラム31に従い処理を行うCPUが、位置推定処理部15として動作することで実現される。
[Description of operation]
Next, a current location estimation process for estimating the current location of the
S100では、位置推定処理部15は、周辺監視センサ11による対象物の検出結果を取得すると共に、衛星測位部14を介して現在地を検出する。また、位置推定処理部15は、検出した現在地が、地図管理部13に保存されている地図データが示す領域の中央から所定値以上の距離を隔てた位置である場合等には、地図DB20から該現在地を中心とする領域の地図データを新たに取得し、地図管理部13に保存する。
In S <b> 100, the position
S105では、位置推定処理部15は、対象物の検出結果に基づき、各対象領域に存在する対象物の位置,大きさ,形状等を特定する。なお、周辺監視センサ11の検出結果から車両1と対象物との相対速度が特定可能な場合、位置推定処理部15は、相対速度を検出しても良い。
In S105, the position
S110では、位置推定処理部15は、対象物の大きさの分布状態を算出する。具体的には、位置推定処理部15は、各対象領域において、各大きさの対象物が何個存在するかを示すヒストグラムを算出する。図4は、一例として、左方領域におけるレイヤ1〜4についてのヒストグラムを示している。そして、該ヒストグラムを対数グラフにより表したものを、対象物の大きさの分布状態とする。図5は、一例として、左方領域におけるレイヤ1〜4と、右方領域におけるレイヤ1〜4とにおける対象物の大きさの分布状態を示している。この対象物の大きさの分布状態に基づき、対応する対象領域に存在する対象物の大きさの傾向を把握することができる。
In S110, the position
S115では、位置推定処理部15は、各対象領域についての対象物の大きさの分布状態を示す対数グラフ上で、各大きさの対象物の数を示す各点に基づき直線近似を行うことで、該対数グラフ上に近似直線を設定し、該直線の傾きγを算出する(図5参照)。このとき、位置推定処理部15は、例えば、最小二乗法を用いて直線近似を行っても良い。傾きγが大きくなるにつれ、その対象領域には、より小さな対象物が多く存在することになる。
In S115, the position
ここで、各対象領域について算出された傾きγを、γijと記載する。iには0〜3のいずれかの値が設定され、0が前方領域を、1が後方領域を、2が右方領域を、3が左方領域を示す。また、jはレイヤを示し、0〜3のいずれかの値が設定され、各番号は、同じ番号のレイヤを示す。 Here, the gradient γ calculated for each target region is denoted as γ ij . i is set to any value from 0 to 3, with 0 representing the front region, 1 representing the rear region, 2 representing the right region, and 3 representing the left region. Further, j indicates a layer, and any value from 0 to 3 is set, and each number indicates a layer having the same number.
さらに、位置推定処理部15は、以下の式(1)により、各対象領域について、γijとγijの平均値との差分を正規化した値であるωijを算出する。
Further, the position
S120では、位置推定処理部15は、各対象領域について算出されたωijに基づき、全対象領域の中から、車両1の現在地の推定に用いる対象領域である判定領域を選択する。換言すれば、各対象領域のωijに基づき、車両1の現在地を高い精度で推定する上で好適な対象領域を選択する。具体的には、例えば、1番目からX番目にωijの小さい対象領域を判定領域としても良いし、1番目からX番目にωijの大きい対象領域を判定領域としても良い。また、相対的にωijが所定値に近いX個の対象領域を、判定領域としても良い。
In S120, the position
S125では、位置推定処理部15は、判定領域に存在する対象物のうち、予め定められた判定条件に合致するものを判定対象とする。
具体的には、例えば、判定領域に存在する対象物のうち、予め定められた大きさを有するという条件(判定条件1)に合致するものを判定対象としても良い。一例として、周辺監視センサ11による検出結果に基づき、各対象物について車両1が走行中の道路に沿った方向の長さsを特定し、下限値Smin以上、上限値Smax以下の長さsを有する対象物を、判定対象としても良い。無論、長さsに限らず、例えば、対象物における自装置に対面する部分の長さや、対象物の断面積や高さ等に基づき判定対象を定めても良い。
In S <b> 125, the position
Specifically, for example, among objects existing in the determination area, a target that satisfies a condition of having a predetermined size (determination condition 1) may be determined. As an example, the length s in the direction along the road on which the
また、例えば、判定領域に存在する対象物のうち、予め定められた高さに存在するという条件(判定条件2)に合致するものを判定対象としても良い。すなわち、一例として、判定領域に存在する対象物のうち、全部又は一部分が走行中の道路からHm以上高い位置に存在する対象物を、判定対象としても良い。このほかにも、例えば、判定領域に存在する対象物のうち、全部又は一部分が自装置や車両1よりもHm以上高い位置に存在する対象物を、判定対象としても良い。
Further, for example, among objects existing in the determination area, objects that meet the condition of being present at a predetermined height (determination condition 2) may be determined. That is, as an example, among the objects existing in the determination area, an object that is present at a position where Hm or more is higher than the road on which all or a part is traveling may be determined. In addition to this, for example, among the objects existing in the determination region, an object in which all or a part is present at a position higher than the own device or the
また、例えば、判定領域に存在する対象物のうち、予め定められた速度を持つという条件(判定条件3)に合致するものを判定対象としても良い。
すなわち、一例として、対象物が静止している(速度が0)という条件を設定した場合、位置推定処理部15は、S105にて検出された判定領域に存在する対象物の相対速度と、車両1の速度や進行方向等に基づき、対象物が静止しているか否かを判定しても良い。なお、車両1の速度や進行方向等は、自装置に設けられた図示しないセンサにより検出しても良いし、他のECU(図示なし)から受信しても良い。また、対象物の相対速度は、無線通信部12や他の通信手段(図示なし)を用いて他車両から受信してもよい。
Further, for example, among objects existing in the determination area, a target that satisfies a condition of having a predetermined speed (determination condition 3) may be determined.
That is, as an example, when the condition that the object is stationary (speed is 0) is set, the position
一方、周辺監視センサ11の検出結果から対象物の相対速度が特定不可能な場合、位置推定処理部15は、今回検出された判定領域に存在する対象物の位置と、過去に検出された該対象物の位置とに基づき、該対象物が静止しているか否かを判定しても良い。
On the other hand, when the relative speed of the object cannot be specified from the detection result of the
なお、位置推定処理部15は、複数の判定条件に合致する対象物を判定対象として特定しても良いし、判定条件を設けず、判定領域に存在する全ての対象物を判定対象としても良い。
Note that the position
S130では、位置推定処理部15は、判定対象の位置,大きさ,形状等と、衛星測位部14により検出された現在地の付近に存在するものとして地図データに登録されている対象物の位置,大きさ,形状等とのマッチングを行う。ここでの処理で使用する現在地を得る方法として、自装置に設けられた図示しないセンサ等によって取得した車両1の速度やヨーレートを用いて推定する等の、他の手段を用いても良い。
In S130, the position
具体的には、例えば、位置推定処理部15は、判定対象の位置,大きさ,形状等と、地図データに登録された対象物の位置,大きさ,形状等とを比較し、地図データに登録された対象物のうち、判定対象に相当するものを特定する。そして、位置推定処理部15は、各判定対象と自装置との位置関係と、地図データに登録されている該判定対象に相当する対象物とに基づき、周辺監視センサ11により該判定対象が検出された際の車両1の位置を算出する。さらに、各判定対象について算出された車両1の位置を平均化した位置を、車両1の現在地として推定し、本処理を終了する。
Specifically, for example, the position
なお、車両1の現在地は、例えば、経路案内や、各種運転支援や、自動運転等といった処理に用いられる。
[第2実施形態]
第2実施形態は、基本的な構成は第1実施形態と同様であるため、共通する構成については説明を省略し、相違点を中心に説明する。
The current location of the
[Second Embodiment]
Since the basic configuration of the second embodiment is the same as that of the first embodiment, the description of the common configuration will be omitted, and the description will focus on the differences.
第2実施形態では、現在地推定処理の内容が第1実施形態と異なっている。第1実施形態では、周辺監視センサ11による対象物の検出結果に基づき判定領域が設定され、判定領域に存在する対象物に基づき現在地が推定された。これに対し、第2実施形態では、対象物の検出結果に基づき各対象領域に重み付けがなされ、各対象領域に存在する対象物と、該対象領域の重みとに基づき現在地が推定される。
In the second embodiment, the contents of the current location estimation process are different from those in the first embodiment. In the first embodiment, the determination area is set based on the detection result of the object by the
以下では、第2実施形態の現在地推定処理について、第1実施形態との相違点を中心に説明する(図6参照)。
S200〜S215は、第1実施形態の現在地推定処理のS100〜S115と同じであるため、説明を省略する。
In the following, the current location estimation process of the second embodiment will be described focusing on the differences from the first embodiment (see FIG. 6).
Since S200 to S215 are the same as S100 to S115 of the current location estimation process of the first embodiment, the description thereof is omitted.
S220では、位置推定処理部15は、各対象領域について算出されたωijに基づき、各対象領域の重み付けを行う。すなわち、各対象領域について、ωijに基づき車両1の現在地を高い精度で推定する上での好適さの度合いを特定し、この度合が高い対象領域に対しより大きな重みを設定する。具体的には、例えば、ωijの小さい対象領域ほど、より大きな重み付けを設定しても良いし、反対に、ωijの大きい対象領域ほど、より大きな重みを設定しても良い。また、所定値により近いωijを有する対象領域ほど、より大きな重みを設定しても良い。
In S220, the position
S225では、位置推定処理部15は、各対象領域に存在する対象物のうち、上述した判定条件1〜3のうちの一つ又は複数に合致するものを判定対象として特定する。無論、位置推定処理部15は、判定条件を設けず、各対象領域に存在する全ての対象物を判定対象としても良い。
In S225, the position
S230では、位置推定処理部15は、判定対象の位置,大きさ,形状等と、衛星測位部14により検出された現在地の付近に存在するものとして地図データに登録されている対象物の位置,大きさ,形状等とのマッチングを行う。
In S230, the position
具体的には、例えば、位置推定処理部15は、判定対象の位置,大きさ,形状等と、地図データに登録された対象物の位置,大きさ,形状等とを比較し、地図データに登録された対象物のうち、判定対象に相当するものを特定する。そして、位置推定処理部15は、各判定対象と自装置との位置関係と、地図データに登録されている該判定対象に相当する対象物とに基づき、周辺監視センサ11により該判定対象が検出された際の車両1の位置を算出する。さらに、各判定対象について算出された車両1の位置を平均化した位置を、車両1の現在地として推定し、本処理を終了する。この現在地の推定の際には、各判定対象が存在する対象領域の重みを考慮して現在地の推定がなされ、より大きな重みが設定された対象領域に存在する判定対象について算出された車両1の位置がより反映させながら、車両1の現在地が推定される。
Specifically, for example, the position
[第3実施形態]
第3実施形態は、基本的な構成は第1実施形態と同様であるため、共通する構成については説明を省略し、相違点を中心に説明する。
[Third Embodiment]
Since the basic configuration of the third embodiment is the same as that of the first embodiment, the description of the common configuration will be omitted, and the description will focus on the differences.
第3実施形態では、現在地推定処理の内容が第1実施形態と異なっている。第1実施形態では、対象物の大きさの分布状態を算出し、これに基づき対象領域のうちの一部を判定領域として選択していた。これに対し、第3実施形態では、対象物の検出結果に基づき対象領域からの反射波の反射強度の分布状態を算出し、これに基づき、対象領域のうちの一部を判定領域として選択する。 In the third embodiment, the contents of the current location estimation process are different from those in the first embodiment. In the first embodiment, the distribution state of the size of the target object is calculated, and based on this, a part of the target area is selected as the determination area. On the other hand, in the third embodiment, the distribution state of the reflected intensity of the reflected wave from the target area is calculated based on the detection result of the target object, and based on this, a part of the target area is selected as the determination area. .
以下では、第3実施形態の現在地推定処理について、他の実施形態との相違点を中心に説明する説明する(図7参照)。
S300,S305は、第1実施形態の現在地推定処理のS100,S105と同じであるため、説明を省略する。
In the following, the current position estimation process of the third embodiment will be described focusing on the differences from the other embodiments (see FIG. 7).
Since S300 and S305 are the same as S100 and S105 of the current location estimation process of the first embodiment, a description thereof will be omitted.
S310では、位置推定処理部15は、対象物の検出結果に基づき反射強度の分布状態を算出する。具体的には、反射強度の区分が複数定められており、位置推定処理部15は、各対象領域について検出された各反射波がどの区分に属するかを特定し、各区分に属する反射波の数を示すヒストグラムを算出する(図8参照)。そして、該ヒストグラムを、反射強度の分布状態とする。
In S310, the position
対象物が建築物,道路標識,信号機等である場合には、該対象物からの反射波の反射強度が高くなり、対象物が歩行者,樹木等である場合には、該対象物からの反射波の反射強度が低くなる。このため、この反射強度の分布状態に基づき、対応する対象領域に存在する対象物の種別の傾向を把握することができる。 When the object is a building, a road sign, a traffic light, etc., the reflected intensity of the reflected wave from the object is increased. When the object is a pedestrian, a tree, etc., The reflected intensity of the reflected wave is lowered. Therefore, based on the distribution state of the reflection intensity, the tendency of the type of the object existing in the corresponding target area can be grasped.
S315では、位置推定処理部15は、反射強度の分布状態に基づき、全対象領域の中から判定領域を選択する。換言すれば、各対象領域の反射強度の分布状態に基づき、車両1の現在地を高い精度で推定する上で好適な対象物が相対的に多く存在すると予想される対象領域を選択する。具体的には、例えば、現在地を推定する上で好適な対象物からの反射波の反射強度の範囲を予め定めておき、該範囲の反射強度の検出回数が相対的に多い対象領域や、該範囲に近い反射強度の検出回数が相対的に多い対象領域を判定領域としても良い。
In S315, the position
S320,S325は、第1実施形態の現在地推定処理のS125,S130と同じであるため、説明を省略する。
[第4実施形態]
第4実施形態は、基本的な構成は第2実施形態と同様であるため、共通する構成については説明を省略し、相違点を中心に説明する。
Since S320 and S325 are the same as S125 and S130 of the current location estimation process of the first embodiment, a description thereof will be omitted.
[Fourth Embodiment]
Since the basic configuration of the fourth embodiment is the same as that of the second embodiment, a description of the common configuration will be omitted, and differences will be mainly described.
第4実施形態では、現在地推定処理の内容が第2実施形態と異なっている。第2実施形態では、対象物の大きさの分布状態を算出し、これに基づき対象領域の重み付けを行っていた。これに対し、第4実施形態では、第3実施形態と同様、対象物の検出結果に基づき対象領域からの反射波の反射強度の分布状態を算出し、これに基づき、対象領域の重み付けを行う。 In 4th Embodiment, the content of the present location estimation process differs from 2nd Embodiment. In the second embodiment, the distribution state of the size of the object is calculated, and the target area is weighted based on this. On the other hand, in the fourth embodiment, as in the third embodiment, the distribution state of the reflection intensity of the reflected wave from the target area is calculated based on the detection result of the target object, and the target area is weighted based on this. .
以下では、第4実施形態の現在地推定処理について、他の実施形態との相違点を中心に説明する説明する(図9参照)。
S400,S405は、第2実施形態の現在地推定処理のS200,S205と同じであるため、説明を省略する。
In the following, the current location estimation process of the fourth embodiment will be described focusing on the differences from the other embodiments (see FIG. 9).
Since S400 and S405 are the same as S200 and S205 of the current location estimation process of the second embodiment, a description thereof will be omitted.
S410は、第3実施形態の現在地推定処理のS310と同じであるため、説明を省略する。
S415では、位置推定処理部15は、反射強度の分布状態に基づき、各対象領域の重み付けを行う。すなわち、各対象領域について、反射強度の分布状態に基づき、車両1の現在地を高い精度で推定する上での好適さの度合いを特定し、この度合が高い対象領域に対し、より大きな重みを設定する。具体的には、例えば、現在地を推定する上で好適な対象物からの反射波の反射強度の範囲を予め定めておき、該範囲の反射強度の検出回数がより多い対象領域ほど、より大きな重みを設定しても良い。
Since S410 is the same as S310 of the current location estimation process of the third embodiment, a description thereof will be omitted.
In S415, the position
S420,S425は、第2実施形態の現在地推定処理のS225,S230と同じであるため、説明を省略する。
[第5実施形態]
第5実施形態は、基本的な構成は第1実施形態と同様であるため、共通する構成については説明を省略し、相違点を中心に説明する。
Since S420 and S425 are the same as S225 and S230 of the current location estimation process of the second embodiment, description thereof is omitted.
[Fifth Embodiment]
Since the basic configuration of the fifth embodiment is the same as that of the first embodiment, the description of the common configuration will be omitted, and the description will focus on the differences.
第5実施形態では、周辺監視センサ11と、現在地推定処理の内容が第1実施形態と異なっている。
つまり、第1実施形態では、周辺監視センサ11としてレーザーレーダ等が用いられていた。これに対し、第5実施形態では、周辺監視センサ11としてカメラが用いられ、車両1の周囲の空間におけるレイヤ1〜4に相当する空間が、該カメラにより撮影され、その撮影画像に基づき対象物の検出等が行われる。該カメラは、具体的に、ステレオカメラやモノカメラ等が挙げられる。第5実施形態では、車両1の周囲の領域は、前方領域,後方領域,右方領域,左方領域の4つの領域に区分されるが、レイヤは設けられていない。以後、前方領域,後方領域,右方領域,左方領域の各々におけるカメラにより撮影される空間を、対象領域と記載する。
In the fifth embodiment, the
That is, in the first embodiment, a laser radar or the like is used as the
また、第1実施形態では、周辺監視センサ11(レーザーレーダ等)による対象物の検出結果に基づき、対象物の位置等が検出され、これに基づき対象物の大きさの分布状態が算出されていた。これに対し、第5実施形態では、周辺監視センサ11(カメラ)による撮影画像に基づき、対象物の位置等が検出されると共に、各対象領域の撮影画像に所定の色が含まれる度合い(含有度合い)が算出され、これらに基づき、判定領域の選択や車両1の現在地の推定等がなされる。
In the first embodiment, the position of the target is detected based on the detection result of the target by the periphery monitoring sensor 11 (laser radar or the like), and the distribution state of the size of the target is calculated based on this. It was. On the other hand, in the fifth embodiment, the position of the object is detected based on the image captured by the periphery monitoring sensor 11 (camera), and the degree of inclusion of a predetermined color in the captured image of each target region (included) Degree) is calculated, and based on these, the determination area is selected, the current location of the
以下では、第5実施形態の現在地推定処理について、他の実施形態との相違点を中心に説明する説明する(図10参照)。
S500では、位置推定処理部15は、周辺監視センサ11(カメラ)による撮影画像を取得すると共に、衛星測位部14を介して現在地を検出する。また、位置推定処理部15は、第1実施形態と同様、検出した現在地の変化に応じて地図データを新たに取得し、地図管理部13に保存する。
Below, the present location estimation process of 5th Embodiment is demonstrated centering on difference with other embodiment (refer FIG. 10).
In S <b> 500, the position
S505では、位置推定処理部15は、撮影画像に基づき、各対象領域に存在する対象物の位置,大きさ,形状等を検出する。
S510では、位置推定処理部15は、各対象領域の撮影画像について、所定の色の画素(例えば、R,G,Bの各色成分の濃度が所定範囲である画素)の数をカウントし、その画素数を含有度合いとする。無論、1つの色の含有度合いを算出しても良いし、複数の色の含有度合いを算出しても良い。
In S505, the position
In S510, the position
S515では、位置推定処理部15は、各対象領域について算出した含有度合いに基づき、全対象領域の中から判定領域を選択する。
すなわち、例えば、撮影画像に緑色が多く含まれていれば、撮影された対象領域には樹木等が多く存在し、撮影画像に灰色が多く含まれていれば、撮影された対象領域には建築物等が多く存在すると考えられる。つまり、撮影画像に多く含まれる色に基づき、撮影された対象領域に多く存在する対象物の種別を推定することができる。
In S515, the position
That is, for example, if the photographed image contains a lot of green, the photographed target area contains many trees, and if the photographed image contains a lot of gray, the photographed target area contains a building. It is thought that there are many things. That is, it is possible to estimate the types of objects that exist in a large number of photographed target areas based on the colors that are often included in the photographed image.
そして、含有度合いに係る所定の色とは、車両1の現在地を高い精度で推定する上で好適な対象物の色(一例として、建築物に多く用いられる色)となっている。このため、含有度合いが相対的に高い撮影画像に係る対象領域は、車両1の現在地を高い精度で推定する上で好適であるとみなし、このような1又は複数の対象領域を判定領域として選択する。
The predetermined color relating to the content is the color of the object suitable for estimating the current location of the
S520,S525は、第1実施形態の現在地推定処理のS125,S130と同じであるため、説明を省略する。
[変形例]
次に、第5実施形態の変形例について説明する。第5実施形態では、各対象領域の撮影画像における所定の色の含有度合いに基づき判定領域が選択されていたが、本変形例では、各対象領域の撮影画像の画素の濃淡度に基づき、判定領域が選択される。
Since S520 and S525 are the same as S125 and S130 of the current location estimation process of the first embodiment, a description thereof will be omitted.
[Modification]
Next, a modification of the fifth embodiment will be described. In the fifth embodiment, the determination area is selected based on the content of the predetermined color in the captured image of each target area. However, in this modification, the determination is performed based on the intensity of pixels of the captured image of each target area. A region is selected.
本変形例は、現在地推定処理のS510,S515の内容において、第5実施形態と相違している。
すなわち、S510では、位置推定処理部15は、各対象領域の撮影画像を構成する各画素の濃淡度を検出する。このとき、撮影画像は、カラーの場合とモノクロの場合とが考えられるが、どちらの場合であっても、ここでの処理で濃淡度を検出可能とする。
This modification is different from the fifth embodiment in the contents of S510 and S515 of the current location estimation processing.
That is, in S510, the position
S515では、位置推定処理部15は、各対象領域の撮影画像について算出した濃淡度に基づき、判定領域を選択する。
すなわち、例えば、濃淡変化が大きい傾向のある対象領域の撮影画像においては、画像による対象物の検出精度の信頼度が向上することが考えられ、さらに対象物の情報が多く含まれていることが考えられる。そのような撮影画像は、位置推定における有効な情報が多く含まれることが考えられる。つまり、撮影画像の画素の濃淡度に基づき、対象領域が位置推定に好適か否かを判断できる。
In S515, the position
That is, for example, in a captured image of a target region that tends to have a large change in shading, it is conceivable that the reliability of detection accuracy of the target object from the image is improved, and more information on the target object is included. Conceivable. Such a captured image may contain a lot of information useful for position estimation. That is, it can be determined whether or not the target region is suitable for position estimation based on the intensity of pixels of the captured image.
このため、位置推定処理部15は、画素の濃淡度が相対的に高い撮影画像に係る対象領域を、判定領域として選択する。
[第6実施形態]
第6実施形態は、基本的な構成は第2実施形態と同様であるため、共通する構成については説明を省略し、相違点を中心に説明する。
For this reason, the position
[Sixth Embodiment]
Since the basic configuration of the sixth embodiment is the same as that of the second embodiment, the description of the common configuration will be omitted, and the description will focus on the differences.
第6実施形態では、周辺監視センサ11と、現在地推定処理の内容が第2実施形態と異なっている。
つまり、第2実施形態では、周辺監視センサ11としてレーザーレーダ等が用いられていた。しかし、第6実施形態では、第5実施形態と同様、周辺監視センサ11としてカメラが用いられると共に、車両1の周囲の領域は前方領域,後方領域,右方領域,左方領域の4つの領域に区分され、レイヤは設けられていない。そして、前方領域,後方領域,右方領域,左方領域の各々におけるカメラにより撮影される空間が、対象領域となる。
In the sixth embodiment, the contents of the
That is, in the second embodiment, a laser radar or the like is used as the
また、第2実施形態では、周辺監視センサ11(レーザーレーダ等)による対象物の検出結果に基づき、対象物の位置等が検出され、これに基づき対象物の大きさの分布状態が算出されていた。これに対し、第6実施形態では、周辺監視センサ11(カメラ)による撮影画像に基づき、対象物の位置等が検出されると共に、各対象領域の撮影画像における所定の色の含有度合いが算出され、これらに基づき、対象領域の重み付けや車両1の現在地の推定等がなされる。
In the second embodiment, the position of the target is detected based on the detection result of the target by the periphery monitoring sensor 11 (laser radar or the like), and the distribution state of the size of the target is calculated based on this. It was. On the other hand, in the sixth embodiment, the position of the object is detected based on the image captured by the periphery monitoring sensor 11 (camera), and the content degree of a predetermined color in the captured image of each target area is calculated. Based on these, the target area is weighted, the current location of the
以下では、第6実施形態の現在地推定処理について、他の実施形態との相違点を中心に説明する説明する(図11参照)。
S600〜S610は、第5実施形態の現在地推定処理のS500〜S510と同じであるため、説明を省略する。
Below, the present location estimation process of 6th Embodiment is demonstrated centering around difference with other embodiment (refer FIG. 11).
Since S600 to S610 are the same as S500 to S510 of the current location estimation process of the fifth embodiment, the description thereof is omitted.
S615では、位置推定処理部15は、所定の色の含有度合いが相対的に高い撮影画像に係る対象領域に対し、より大きな重みを設定することで、各対象領域の重み付けを行う。
In S615, the position
S620,S625は、第2実施形態の現在地推定処理のS225,S230と同じであるため、説明を省略する。
[変形例]
次に、第6実施形態の変形例について説明する。第6実施形態では、各対象領域の撮影画像における所定の色の含有度合いに基づき重み付けがなされていたが、本変形例では、各対象領域の撮影画像の画素の濃淡度に基づき、重み付けがなされる。
Since S620 and S625 are the same as S225 and S230 of the current location estimation process of the second embodiment, description thereof is omitted.
[Modification]
Next, a modification of the sixth embodiment will be described. In the sixth embodiment, weighting is performed based on the degree of inclusion of a predetermined color in the captured image of each target area. However, in this modification, weighting is performed based on the intensity of pixels of the captured image of each target area. The
本変形例は、現在地推定処理のS610,S615の内容が、第6実施形態と相違している。
すなわち、S610では、位置推定処理部15は、第5実施形態の変形例と同様にして、各対象領域の撮影画像に含まれる画素の濃淡度を検出する。
This modification differs from the sixth embodiment in the contents of S610 and S615 of the current location estimation process.
That is, in S610, the position
S615では、位置推定処理部15は、各対象領域の撮影画像について算出した濃淡度に基づき、各対象領域の重み付けを行う。具体的には、画素の濃淡度が相対的に高い撮影画像に係る対象領域に対し、より大きな重みを設定する。
In S615, the position
[効果]
第1,第3,第5実施形態の位置推定装置10によれば、対象領域のうち、車両1の現在地を高精度で推定する上で好適な対象物が多く存在する領域が、判定領域として設定される。このため、車両1の現在地を推定する際に、このような対象物の位置,大きさ,形状等の検出結果が用いられる場合が多くなり、車両1の現在地を高精度で推定することができる。
[effect]
According to the
また、第2,第4,第6実施形態の位置推定装置10によれば、車両1の現在地を高精度で推定する上で好適な対象物がどの程度存在するかにより、各対象領域に重みが設定されるため、このような対象物の検出結果がより反映された状態で、車両1の現在地が推定される。したがって、車両1の位置を高精度で推定することができる。
Further, according to the
また、第1〜第6実施形態の位置推定装置10によれば、車両1に搭載された周辺監視センサ11(レーザーレーダ,カメラ等)による対象物の検出結果により、車両1の現在地が推定される。このため、対象物の位置,大きさ,形状等を正確に検出することができ、現在地を精度良く推定することができる。
Further, according to the
また、第1実施形態の位置推定装置10によれば、車両1の現在地を高精度で推定する上で好適な大きさの対象物が多く存在する対象領域が判定領域として設定される。また、第2実施形態の位置推定装置10によれば、車両1の現在地を高精度で推定する上で好適な大きさの対象物がより多く存在する対象領域に対し、より大きな重み付けがなされる。したがって、車両1の現在地を高精度で推定することができる。
In addition, according to the
また、第3実施形態の位置推定装置10によれば、予め定められた範囲(現在地を推定する上で好適な対象物からの反射波の反射強度の範囲)の反射強度の検出回数が相対的に多い対象領域が、判定領域として選択される。また、第4実施形態の位置推定装置10によれば、第3実施形態と同様の範囲の反射強度の検出回数が相対的に多い対象領域に対し、より大きな重み付けがなされる。したがって、車両1の現在地を高精度で推定することができる。
Further, according to the
また、第5実施形態の位置推定装置10によれば、現在地を推定する上で好適な対象物の色の画素を相対的に多く含む撮影画像に対応する対象領域が、判定領域として選択される。また、第6実施形態の位置推定装置10によれば、このような色の画素を相対的に多く含む撮影画像に対応する対象領域に対し、より大きな重み付けがなされる。したがって、車両1の現在地を高精度で推定することができる。
In addition, according to the
また、第1〜第6実施形態の位置推定装置10では、判定領域又は対象領域に存在する対象物のうち、判定条件1〜3に合致する対象物が判定対象とされ、判定対象と地図データとのマッチングにより、車両1の現在地が推定される。
Moreover, in the
ここで、判定条件1とは、予め定められた大きさを有する対象物を判定対象とするという条件であり、判定条件2とは、予め定められた高さに存在する対象物を判定対象とするという条件であり、判定条件3とは、予め定められた速度を持つ対象物を判定対象とするという条件である。
Here, the
このため、車両1の現在地を推定する上で好適な対象物のみにより現在地の推定がなされ、車両1の現在地を高精度で推定することができる。
[他の実施形態]
以上、本発明の実施形態について説明したが、本発明は上記実施形態に限定されることなく、種々の形態を採り得る。
For this reason, the current location is estimated only by the object suitable for estimating the current location of the
[Other Embodiments]
As mentioned above, although embodiment of this invention was described, this invention can take a various form, without being limited to the said embodiment.
(1)上記実施形態における位置推定装置10は、外部に設置された地図DB20から地図データを取得する構成となっている。しかしながら、これに限定されることは無く、地図データ入力部を介して、車両1に搭載されたHDDやDVD−ROM等の記憶媒体に記憶されている地図データを取得する構成としても良い。このような場合であっても、同様の効果を得ることができる。
(1) The
(2)上記実施形態における現在地推定処理のS110,S210,S310,S410,S510,S610では、位置推定処理部15は、周辺監視センサ11から対象物の検出結果に基づき、対象物の大きさの分布状態や、反射強度の分布状態や、所定の色の画素の含有度合いを算出する構成となっている。しかしながら、これらのステップにて以下の処理を行っても良い。
(2) In S110, S210, S310, S410, S510, and S610 of the current location estimation process in the above embodiment, the position
まず、現在地推定処理に用いられる地図データが示す地図の各地点を車両1が走行した際に算出される上記分布状態や含有度合いを予め算出し、算出結果を示す分布データを生成しておく。上記分布状態等は、実際に車両1を走行させて得られた検出結果に基づき算出しても良いし、地図データに登録されている対象物に関する情報に基づき算出しても良い。そして、各地点で得られる分布データを、該地点と対応付けて予め地図データに登録しておく。
First, the distribution state and the degree of inclusion calculated when the
現在地推定処理のS110,S210,S310,S410,S510,S610では、位置推定処理部15は、地図管理部13にアクセスし、衛星測位部14により検出された現在地に最も近接する地点に対応付けて地図管理部13に保存されている地図データに登録されている分布データを取得し、分布データを用いて、以後の処理を行う。
In S110, S210, S310, S410, S510, and S610 of the current location estimation process, the position
こうすることにより、位置推定装置10で行われる処理の演算コストを抑えることができる。なお、対象物の大きさの分布状態から算出されるωij等を、地図データに予め登録するようにしても良い。
By doing so, the calculation cost of the processing performed by the
(3)上記実施形態における1つの構成要素が有する機能を複数の構成要素として分散させたり、複数の構成要素が有する機能を1つの構成要素に統合させたりしても良い。また、上記実施形態の構成の少なくとも一部を、同様の機能を有する公知の構成に置き換えても良い。また、上記実施形態の構成の一部を、課題を解決できる限りにおいて省略しても良い。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換しても良い。なお、特許請求の範囲に記載した文言のみによって特定される技術思想に含まれるあらゆる態様が、本発明の実施形態である。 (3) The functions of one constituent element in the above embodiment may be distributed as a plurality of constituent elements, or the functions of a plurality of constituent elements may be integrated into one constituent element. In addition, at least a part of the configuration of the above embodiment may be replaced with a known configuration having the same function. Moreover, you may abbreviate | omit a part of structure of the said embodiment as long as a subject can be solved. Further, at least a part of the configuration of the above embodiment may be added to or replaced with the configuration of the other embodiment. In addition, all the aspects included in the technical idea specified only by the wording described in the claims are embodiments of the present invention.
(4)上述した位置推定装置10の他、当該位置推定装置10を構成要素とするシステム、当該位置推定装置10としてコンピュータを機能させるためのプログラム、このプログラムを記録した媒体、現在地推定処理により実現される方法等、種々の形態で本発明を実現することもできる。
(4) In addition to the
[特許請求の範囲との対応]
上記実施形態の説明で用いた用語と、特許請求の範囲の記載に用いた用語との対応を示す。
[Correspondence with Claims]
The correspondence between the terms used in the description of the above embodiment and the terms used in the description of the claims is shown.
車両1が移動体の一例に、プログラム31が位置推定プログラムの一例に相当する。
また、現在地推定処理のS100,S200,S300,S400,S500,S600が、地図データ取得手段,地図データ取得手順,位置情報取得手段,位置情報取得手順,検出結果取得手段,検出結果取得手順の一例に相当する。
The
Further, S100, S200, S300, S400, S500, and S600 of the current location estimation processing are examples of map data acquisition means, map data acquisition procedure, position information acquisition means, position information acquisition procedure, detection result acquisition means, and detection result acquisition procedure. It corresponds to.
また、現在地推定処理のS105〜S120,S205〜S220,S310〜S315,S410〜S415,S510〜S515,S610〜S615が、設定手段,設定手順の一例に相当する。 Further, S105 to S120, S205 to S220, S310 to S315, S410 to S415, S510 to S515, and S610 to S615 of the current location estimation process correspond to an example of setting means and setting procedures.
また、現在地推定処理のS105及びS125,S205及びS225,S305及びS320,S405及びS420,S505及びS520,S605及びS620が、特定手段,特定手順の一例に相当する。 Further, S105 and S125, S205 and S225, S305 and S320, S405 and S420, S505 and S520, S605 and S620 of the current location estimation process correspond to an example of the specifying means and the specifying procedure.
また、現在地推定処理のS130,S230,S325,S425,S525,S625が、推定手段,推定手順の一例に相当する。 Also, S130, S230, S325, S425, S525, and S625 of the current location estimation process correspond to an example of an estimation means and an estimation procedure.
1…車両、10…位置推定装置、11…周辺監視センサ、12…無線通信部、13…地図管理部、14…衛星測位部、15…位置推定処理部、20…地図DB、30…記憶媒体、31…プログラム。
DESCRIPTION OF
Claims (12)
自装置が搭載された移動体(1)の位置情報を取得する位置情報取得手段と(S100,S300,S500)、
前記移動体に搭載されたセンサによる前記移動体の周辺に存在する対象物の検出結果を取得する検出結果取得手段と(S100,S300,S500)、
前記検出結果に基づき、前記移動体の周辺のうち、予め定められた条件を満たす前記対象物が多く存在する一部の領域を、判定領域として設定する設定手段と(S105〜S120,S310〜S315,S510〜S515)、
前記検出結果に基づき、前記判定領域から、前記移動体の位置の推定に用いる前記対象物を特定する特定手段と(S105,S125,S305,S320,S505,S520)、
前記位置情報に基づき定められる領域に存在するものとして前記地図データに登録されている前記対象物と、前記特定手段により特定された前記対象物とに基づき、前記移動体の位置を推定する推定手段と(S130,S325,S525)、
を備えることを特徴とする位置推定装置(10)。 Map data acquisition means for acquiring map data (S100, S300, S500);
Position information acquisition means for acquiring position information of the mobile body (1) on which the device is mounted (S100, S300, S500);
Detection result acquisition means for acquiring a detection result of an object existing around the moving body by a sensor mounted on the moving body (S100, S300, S500);
Based on the detection result, setting means for setting a part of the periphery of the moving body where a large number of the objects satisfying a predetermined condition exist as determination areas (S105 to S120, S310 to S315) , S510 to S515),
Based on the detection result, from the determination area, specifying means for specifying the object used for estimating the position of the moving body (S105, S125, S305, S320, S505, S520),
Estimating means for estimating the position of the moving object based on the object registered in the map data as existing in an area determined based on the position information and the object specified by the specifying means (S130, S325, S525),
A position estimation device (10) comprising:
自装置が搭載された移動体(1)の位置情報を取得する位置情報取得手段と(S200,S400,S600)、
前記移動体に搭載されたセンサによる前記移動体の周辺に存在する対象物の検出結果を取得する検出結果取得手段と(S200,S400,S600)、
前記検出結果に基づき、前記移動体の周辺における複数の判定領域の各々に、予め定められた条件を満たす前記対象物がどの程度存在するかを判定し、判定結果に基づき、前記判定領域に重みを設定する設定手段と(S205〜S220,S410〜S415,S610〜S615)、
前記検出結果に基づき、前記判定領域から、前記移動体の位置の推定に用いる前記対象物を特定する特定手段と(S205,S225,S405,S420,S605,S620)、
前記位置情報に基づき定められる領域に存在するものとして前記地図データに登録されている前記対象物と、前記特定手段によりそれぞれの前記判定領域において特定された前記対象物と、それぞれの前記判定領域の前記重みとに基づき、前記移動体の位置を推定する推定手段と(S230,S425,S625)、
を備えることを特徴とする位置推定装置(10)。 Map data acquisition means for acquiring map data (S200, S400, S600);
Position information acquisition means for acquiring position information of the mobile body (1) on which the device is mounted (S200, S400, S600);
Detection result acquisition means for acquiring a detection result of an object existing around the moving body by a sensor mounted on the moving body (S200, S400, S600);
Based on the detection result, it is determined how many of the objects satisfying a predetermined condition exist in each of a plurality of determination areas around the moving body, and the determination area is weighted based on the determination result. Setting means for setting (S205 to S220, S410 to S415, S610 to S615),
Based on the detection result, from the determination area, specifying means for specifying the object used for estimating the position of the moving body (S205, S225, S405, S420, S605, S620),
The object registered in the map data as existing in an area determined based on the position information, the object specified in each determination area by the specifying means, and each of the determination areas Estimating means for estimating the position of the moving object based on the weight (S230, S425, S625);
A position estimation device (10) comprising:
前記検出結果とは、前記対象物の大きさを特定可能な情報であり、
前記設定手段は、前記検出結果に基づき特定される前記対象物の大きさに基づき、前記設定を行うこと、
を特徴とする位置推定装置。 In the position estimation apparatus according to claim 1 or 2,
The detection result is information capable of specifying the size of the object,
The setting means performs the setting based on the size of the object specified based on the detection result;
A position estimation device characterized by the above.
前記検出結果とは、前記移動体の周辺を撮影した画像であり、
前記設定手段は、前記検出結果である前記画像の色に基づき、前記設定を行うこと、
を特徴とする位置推定装置。 In the position estimation apparatus according to claim 1 or 2,
The detection result is an image of the periphery of the moving body,
The setting means performs the setting based on the color of the image as the detection result;
A position estimation device characterized by the above.
前記検出結果とは、前記移動体の周辺に照射された信号の反射波に基づくものであると共に、前記検出結果から前記反射波の反射強度を特定可能であり、
前記設定手段は、前記検出結果が示す前記反射強度に基づき、前記設定を行うこと、
を特徴とする位置推定装置。 In the position estimation apparatus according to claim 1 or 2,
The detection result is based on the reflected wave of the signal irradiated to the periphery of the moving body, and the reflection intensity of the reflected wave can be specified from the detection result,
The setting means performs the setting based on the reflection intensity indicated by the detection result;
A position estimation device characterized by the above.
前記特定手段は、前記検出結果に基づき、予め定められた大きさの前記対象物を、前記移動体の位置の推定に用いる前記対象物として特定すること、
を特徴とする位置推定装置。 In the position estimation device according to any one of claims 1 to 5,
The specifying means specifies the object having a predetermined size based on the detection result as the object to be used for estimating the position of the moving body;
A position estimation device characterized by the above.
前記特定手段は、前記検出結果に基づき、予め定められた高さを有する位置に配されている前記対象物を、前記移動体の位置の推定に用いる前記対象物として特定すること、
を特徴とする位置推定装置。 In the position estimation device according to any one of claims 1 to 5,
The specifying means specifies, based on the detection result, the object arranged at a position having a predetermined height as the object used for estimating the position of the moving body;
A position estimation device characterized by the above.
前記特定手段は、前記検出結果に基づき、静止している前記対象物を、前記移動体の位置の推定に用いる前記対象物として特定すること、
を特徴とする位置推定装置。 In the position estimation device according to any one of claims 1 to 5,
The specifying means specifies the stationary object as the object used for estimating the position of the moving body based on the detection result;
A position estimation device characterized by the above.
自装置が搭載された移動体(1)の位置情報を取得する位置情報取得手順と(S100,S300,S500)、
前記移動体に搭載されたセンサによる前記移動体の周辺に存在する対象物の検出結果を取得する検出結果取得手順と(S100,S300,S500)、
前記検出結果に基づき、前記移動体の周辺のうち、予め定められた条件を満たす前記対象物が多く存在する一部の領域を、判定領域として設定する設定手順と(S105〜S120,S310〜S315,S510〜S515)、
前記検出結果に基づき、前記判定領域から、前記移動体の位置の推定に用いる前記対象物を特定する特定手順と(S105,S125,S305,S320,S505,S520)、
前記位置情報に基づき定められる領域に存在するものとして前記地図データに登録されている前記対象物と、前記特定手順により特定された前記対象物とに基づき、前記移動体の位置を推定する推定手順と(S130,S325,S525)、
を備えることを特徴とする位置推定方法。 Map data acquisition procedure for acquiring map data (S100, S300, S500),
A position information acquisition procedure for acquiring position information of the mobile body (1) on which the device is mounted (S100, S300, S500);
A detection result acquisition procedure for acquiring a detection result of an object existing around the mobile body by a sensor mounted on the mobile body (S100, S300, S500);
Based on the detection result, a setting procedure for setting, as a determination area, a part of the periphery of the moving body in which many objects satisfying a predetermined condition exist (S105 to S120, S310 to S315) , S510 to S515),
Based on the detection result, a specific procedure for specifying the object used for estimating the position of the moving object from the determination region (S105, S125, S305, S320, S505, S520),
And wherein the object registered in the map data as being present in a region defined on the basis of the position information, on the basis of said object specified by said specifying step, estimation procedure for estimating the position of the movable body (S130, S325, S525),
A position estimation method comprising:
自装置が搭載された移動体(1)の位置情報を取得する位置情報取得手順と(S200,S400,S600)、
前記移動体に搭載されたセンサによる前記移動体の周辺に存在する対象物の検出結果を取得する検出結果取得手順と(S200,S400,S600)、
前記検出結果に基づき、前記移動体の周辺における複数の判定領域の各々に、予め定められた条件を満たす前記対象物がどの程度存在するかを判定し、判定結果に基づき、前記判定領域に重みを設定する設定手順と(S205〜S220,S410〜S415,S610〜S615)、
前記検出結果に基づき、前記判定領域から、前記移動体の位置の推定に用いる前記対象物を特定する特定手順と(S205,S225,S405,S420,S605,S620)、
前記位置情報に基づき定められる領域に存在するものとして前記地図データに登録されている前記対象物と、前記特定手順によりそれぞれの前記判定領域において特定された前記対象物と、それぞれの前記判定領域の前記重みとに基づき、前記移動体の位置を推定する推定手順と(S230,S425,S625)、
を備えることを特徴とする位置推定方法。 Map data acquisition procedure for acquiring map data (S200, S400, S600),
A position information acquisition procedure for acquiring position information of the mobile body (1) on which the device is mounted (S200, S400, S600);
A detection result acquisition procedure for acquiring a detection result of an object existing around the moving body by a sensor mounted on the moving body (S200, S400, S600);
Based on the detection result, it is determined how many of the objects satisfying a predetermined condition exist in each of a plurality of determination areas around the moving body, and the determination area is weighted based on the determination result. (S205 to S220, S410 to S415, S610 to S615),
Based on the detection result, a specifying procedure for specifying the object used for estimating the position of the moving object from the determination area (S205, S225, S405, S420, S605, S620),
The object registered in the map data as existing in an area determined based on the position information, the object specified in each determination area by the specifying procedure , and each of the determination areas An estimation procedure for estimating the position of the moving object based on the weight (S230, S425, S625);
A position estimation method comprising:
自装置が搭載された移動体(1)の位置情報を取得する位置情報取得手段と(S100,S300,S500)、
前記移動体に搭載されたセンサによる前記移動体の周辺に存在する対象物の検出結果を取得する検出結果取得手段と(S100,S300,S500)、
前記検出結果に基づき、前記移動体の周辺のうち、予め定められた条件を満たす前記対象物が多く存在する一部の領域を、判定領域として設定する設定手段と(S105〜S120,S310〜S315,S510〜S515)、
前記検出結果に基づき、前記判定領域から、前記移動体の位置の推定に用いる前記対象物を特定する特定手段と(S105,S125,S305,S320,S505,S520)、
前記位置情報に基づき定められる領域に存在するものとして前記地図データに登録されている前記対象物と、前記特定手段により特定された前記対象物とに基づき、前記移動体の位置を推定する推定手段と(S130,S325,S525)して、コンピュータを動作させること、
を特徴とする位置推定プログラム(31)。 Map data acquisition means for acquiring map data (S100, S300, S500);
Position information acquisition means for acquiring position information of the mobile body (1) on which the device is mounted (S100, S300, S500);
Detection result acquisition means for acquiring a detection result of an object existing around the moving body by a sensor mounted on the moving body (S100, S300, S500);
Based on the detection result, setting means for setting a part of the periphery of the moving body where a large number of the objects satisfying a predetermined condition exist as determination areas (S105 to S120, S310 to S315) , S510 to S515),
Based on the detection result, from the determination area, specifying means for specifying the object used for estimating the position of the moving body (S105, S125, S305, S320, S505, S520),
Estimating means for estimating the position of the moving object based on the object registered in the map data as existing in an area determined based on the position information and the object specified by the specifying means (S130, S325, S525) to operate the computer,
A position estimation program (31) characterized by
自装置が搭載された移動体(1)の位置情報を取得する位置情報取得手段と(S200,S400,S600)、
前記移動体に搭載されたセンサによる前記移動体の周辺に存在する対象物の検出結果を取得する検出結果取得手段と(S200,S400,S600)、
前記検出結果に基づき、前記移動体の周辺における複数の判定領域の各々に、予め定められた条件を満たす前記対象物がどの程度存在するかを判定し、判定結果に基づき、前記判定領域に重みを設定する設定手段と(S205〜S220,S410〜S415,S610〜S615)、
前記検出結果に基づき、前記判定領域から、前記移動体の位置の推定に用いる前記対象物を特定する特定手段と(S205,S225,S405,S420,S605,S620)、
前記位置情報に基づき定められる領域に存在するものとして前記地図データに登録されている前記対象物と、前記特定手段によりそれぞれの前記判定領域において特定された前記対象物と、それぞれの前記判定領域の前記重みとに基づき、前記移動体の位置を推定する推定手段と(S230,S425,S625)して、コンピュータを動作させること、
を特徴とする位置推定プログラム(31)。 Map data acquisition means for acquiring map data (S200, S400, S600);
Position information acquisition means for acquiring position information of the mobile body (1) on which the device is mounted (S200, S400, S600);
Detection result acquisition means for acquiring a detection result of an object existing around the moving body by a sensor mounted on the moving body (S200, S400, S600);
Based on the detection result, it is determined how many of the objects satisfying a predetermined condition exist in each of a plurality of determination areas around the moving body, and the determination area is weighted based on the determination result. Setting means for setting (S205 to S220, S410 to S415, S610 to S615),
Based on the detection result, from the determination area, specifying means for specifying the object used for estimating the position of the moving body (S205, S225, S405, S420, S605, S620),
The object registered in the map data as existing in an area determined based on the position information, the object specified in each determination area by the specifying means, and each of the determination areas Based on the weights and estimating means for estimating the position of the moving body (S230, S425, S625), and operating the computer;
A position estimation program (31) characterized by
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014115825A JP6336825B2 (en) | 2014-06-04 | 2014-06-04 | POSITION ESTIMATION DEVICE, POSITION ESTIMATION METHOD, AND POSITION ESTIMATION PROGRAM |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014115825A JP6336825B2 (en) | 2014-06-04 | 2014-06-04 | POSITION ESTIMATION DEVICE, POSITION ESTIMATION METHOD, AND POSITION ESTIMATION PROGRAM |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015230213A JP2015230213A (en) | 2015-12-21 |
JP6336825B2 true JP6336825B2 (en) | 2018-06-06 |
Family
ID=54887061
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014115825A Active JP6336825B2 (en) | 2014-06-04 | 2014-06-04 | POSITION ESTIMATION DEVICE, POSITION ESTIMATION METHOD, AND POSITION ESTIMATION PROGRAM |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6336825B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6612135B2 (en) * | 2016-01-14 | 2019-11-27 | 日立オートモティブシステムズ株式会社 | Vehicle detection device and light distribution control device |
JP6626410B2 (en) * | 2016-06-03 | 2019-12-25 | 株式会社Soken | Vehicle position specifying device and vehicle position specifying method |
KR102529903B1 (en) * | 2016-12-14 | 2023-05-08 | 현대자동차주식회사 | Apparatus and method for estimating position of vehicle |
CN107203192A (en) * | 2017-06-28 | 2017-09-26 | 上海应用技术大学 | A kind of mobile robot automatic ride control system based on electronic map |
CN111133336B (en) * | 2017-09-04 | 2024-04-02 | 联邦科学工业研究组织 | Method and system for performing positioning |
JP6923748B2 (en) * | 2018-03-29 | 2021-08-25 | パイオニア株式会社 | Self-position estimation device, self-position estimation method, program and storage medium |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1972893A1 (en) * | 2007-03-21 | 2008-09-24 | Universiteit Gent | System and method for position determination |
CA2712673A1 (en) * | 2008-02-04 | 2009-08-13 | Tele Atlas North America Inc. | Method for map matching with sensor detected objects |
-
2014
- 2014-06-04 JP JP2014115825A patent/JP6336825B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015230213A (en) | 2015-12-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6336825B2 (en) | POSITION ESTIMATION DEVICE, POSITION ESTIMATION METHOD, AND POSITION ESTIMATION PROGRAM | |
CN110988912B (en) | Road target and distance detection method, system and device for automatic driving vehicle | |
CN105667518B (en) | The method and device of lane detection | |
JP6166294B2 (en) | Automatic driving system, automatic driving method and computing device | |
JP2022000636A (en) | Method and device for calibrating external parameter of on-board sensor, and related vehicle | |
JP6246609B2 (en) | Self-position estimation apparatus and self-position estimation method | |
CN110674705B (en) | Small-sized obstacle detection method and device based on multi-line laser radar | |
CN109791408B (en) | Self-position estimation method and self-position estimation device | |
JP2020500290A (en) | Method and system for generating and using location reference data | |
CN113673282A (en) | Target detection method and device | |
JP6278791B2 (en) | Vehicle position detection device, vehicle position detection method, vehicle position detection computer program, and vehicle position detection system | |
CN112781599B (en) | Method for determining the position of a vehicle | |
JP2022188203A (en) | Measurement precision calculation device, self-position estimation device, control method, program and storage medium | |
JP2022020797A (en) | Self-location estimation device, control method, program, and storage medium | |
JP6740470B2 (en) | Measuring device, measuring method and program | |
JP2017181476A (en) | Vehicle location detection device, vehicle location detection method and vehicle location detection-purpose computer program | |
JP6263453B2 (en) | Momentum estimation device and program | |
JP2024038322A (en) | Measurement device, measurement method, and program | |
KR102255924B1 (en) | Vehicle and method for detecting lane | |
KR102540624B1 (en) | Method for create map using aviation lidar and computer program recorded on record-medium for executing method therefor | |
CN114419573A (en) | Dynamic occupancy grid estimation method and device | |
JP2023126399A (en) | Measuring device, measuring method and program | |
CN116182831A (en) | Vehicle positioning method, device, equipment, medium and vehicle | |
JP2006172016A (en) | Mobile robot, mobile robot control method and mobile robot control program | |
CN112989946B (en) | Lane line determining method, device, equipment and vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161219 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20161219 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170919 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170920 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171030 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180410 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180507 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6336825 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |