JP2023068010A - Self-position estimation device - Google Patents

Self-position estimation device Download PDF

Info

Publication number
JP2023068010A
JP2023068010A JP2023037170A JP2023037170A JP2023068010A JP 2023068010 A JP2023068010 A JP 2023068010A JP 2023037170 A JP2023037170 A JP 2023037170A JP 2023037170 A JP2023037170 A JP 2023037170A JP 2023068010 A JP2023068010 A JP 2023068010A
Authority
JP
Japan
Prior art keywords
information
map data
self
cells
cell
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023037170A
Other languages
Japanese (ja)
Inventor
和紀 小山
Kazunori Koyama
令司 松本
Reiji Matsumoto
克巳 天野
Katsumi Amano
直人 乘松
Naoto Norimatsu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Electronic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Electronic Corp filed Critical Pioneer Electronic Corp
Priority to JP2023037170A priority Critical patent/JP2023068010A/en
Publication of JP2023068010A publication Critical patent/JP2023068010A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Instructional Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a self-position estimation device capable of enhancing the accuracy of estimating the self-position of a mobile object.
SOLUTION: An onboard device 2 acquires, by a control unit 21, a map data in which markings drawn road surfaces are represented separately by a plurality of cells C, the plurality of cells C being set with positions 132 of the cells C, respectively; and acquires the onboard device acquires point cloud information from a lidar 3a by vehicle traveling. The onboard device then recognizes point cloud information corresponding to a marking drawn on a road surface from the point cloud information acquired by the control unit 21, and estimates a self-position of the vehicle by performing matching between the recognized point cloud information corresponding to the marking drawn on the road surface, and the map data.
SELECTED DRAWING: Figure 9
COPYRIGHT: (C)2023,JPO&INPIT

Description

本発明は、移動体の自己位置を推定する自己位置推定装置に関する。 The present invention relates to a self-position estimation device for estimating the self-position of a mobile body.

自動運転車両等の移動体では、ライダ(LiDAR;Light Detection and Ranging)などのセンサで計測した地物位置と、自動運転用の地図情報の地物位置と、をマッチングして高精度に現在位置を推定する必要がある。特許文献1は、ライダを用いて検出したランドマークとしての地物の位置と、地図情報の地物とを用いて現在位置を推定する手法の一例が記載されている。 For mobile objects such as autonomous driving vehicles, the current position is highly accurate by matching the feature positions measured by sensors such as lidar (LiDAR: Light Detection and Ranging) with the feature positions of map information for autonomous driving. must be estimated. Patent Literature 1 describes an example of a method of estimating the current position using the position of a feature as a landmark detected using a lidar and the feature of map information.

また、特許文献2には、ライダを用いて白線を検出し、車両に対する白線の横方向の相対位置または白線に対して車両が向いている方向を高精度に検出することが記載されている。 Further, Patent Document 2 describes that a lidar is used to detect a white line, and the relative position of the white line in the lateral direction with respect to the vehicle or the direction in which the vehicle is facing with respect to the white line is detected with high accuracy.

特開2017-72422号公報JP 2017-72422 A 特開2017-215199号公報JP 2017-215199 A

特許文献2に記載の方法により、白線(区画線)を利用して車両等の自己位置を推定することはできる。しかしながら、例えば、右折や左折等を示す進行方向別通行区分のような路面上に白線以外の標示がある場合に、当該標示を白線と誤って検出してしまうと自己位置推定の精度が低下してしまう。 According to the method described in Patent Literature 2, the self-position of a vehicle or the like can be estimated using white lines (division lines). However, for example, when there is a sign other than a white line on the road surface, such as a traffic division by direction of travel indicating a right turn or a left turn, if the sign is mistakenly detected as a white line, the accuracy of self-position estimation decreases. end up

本発明が解決しようとする課題としては、移動体の自己位置推定の精度を向上させることが一例として挙げられる。 One example of the problem to be solved by the present invention is to improve the accuracy of self-position estimation of a mobile object.

上記課題を解決するために、請求項1に記載の発明は、路面に描かれた標示が一定サイズの複数のセルで分割されて表されており、前記複数のセルのそれぞれには、当該セルの位置に関する情報が設定されている地図データ、を取得する地図データ取得部と、移動体に搭載されたセンサから得られたセンサ情報を取得するセンサ情報取得部と、前記センサ情報取得部が取得した前記センサ情報から前記標示に該当する前記センサ情報を認識する認識部と、前記認識部により認識された前記標示に該当する前記センサ情報と、前記地図データと、のマッチングを行うことにより前記移動体の自己位置を推定する推定部と、
を備え、前記セル毎に、当該セルに対応する点群の反射強度に関する情報を含む属性情報を有している、ことを特徴としている。
In order to solve the above-mentioned problems, the invention according to claim 1 is such that a marking drawn on a road surface is divided into a plurality of cells of a fixed size, and each of the plurality of cells has a cell A map data acquisition unit that acquires map data in which information about the position of is set, a sensor information acquisition unit that acquires sensor information obtained from a sensor mounted on a mobile object, and the sensor information acquisition unit. a recognition unit for recognizing the sensor information corresponding to the sign from the sensor information obtained by performing matching, the sensor information corresponding to the sign recognized by the recognition unit, and the map data; an estimation unit that estimates the self-position of the body;
and each cell has attribute information including information on the reflection intensity of the point cloud corresponding to the cell.

請求項2に記載の発明は、移動体の自己位置を推定する自己位置推定装置で実行される自己位置推定方法であって、路面に描かれた標示が一定サイズの複数のセルで分割されて表されており、前記複数のセルのそれぞれには、当該セルの位置に関する情報が設定されている地図データ、を取得する地図データ取得工程と、前記移動体に搭載されたセンサから得られたセンサ情報を取得するセンサ情報取得工程と、前記センサ情報取得工程で取得された前記センサ情報から前記標示に該当する前記センサ情報を認識する認識工程と、前記認識工程により認識された前記標示に該当する前記センサ情報と、前記地図データと、のマッチングを行うことにより前記移動体の自己位置を推定する推定工程と、を含み、前記セル毎に、当該セルに対応する点群の反射強度に関する情報を含む属性情報を有している、ことを特徴としている。 The invention according to claim 2 is a self-position estimation method executed by a self-position estimation device for estimating the self-position of a mobile body, wherein a marking drawn on a road surface is divided into a plurality of cells of a fixed size. a map data acquisition step of acquiring map data in which information relating to the position of the cell is set in each of the plurality of cells; a sensor information acquisition step of acquiring information; a recognition step of recognizing the sensor information corresponding to the sign from the sensor information acquired in the sensor information acquisition step; and a recognition step corresponding to the sign recognized by the recognition step. an estimating step of estimating the self-position of the moving object by matching the sensor information and the map data, and obtaining information on the reflection intensity of the point cloud corresponding to each cell for each cell; It is characterized by having attribute information including

請求項3に記載の発明は、請求項2に記載の自己位置推定方法を、コンピュータにより実行させることを特徴としている。 The invention according to claim 3 is characterized in that the self-position estimation method according to claim 2 is executed by a computer.

請求項4に記載の発明は、請求項3に記載の自己位置推定プログラムを格納したことを特徴としている。 The invention according to claim 4 is characterized in that the self-position estimation program according to claim 3 is stored.

本発明の第1の実施例にかかるサーバ装置と車載装置からなるシステムの概略構成図である。1 is a schematic configuration diagram of a system including a server device and an in-vehicle device according to a first embodiment of the present invention; FIG. 図1に示されたサーバ装置の機能的構成図である。2 is a functional configuration diagram of the server device shown in FIG. 1; FIG. 図1に示された車載装置の機能的構成図である。2 is a functional configuration diagram of the in-vehicle device shown in FIG. 1; FIG. 図2に示されたサーバ装置における地図データ生成方法のフローチャートである。3 is a flowchart of a map data generation method in the server device shown in FIG. 2; 二値化画像の例である。It is an example of a binarized image. 図5に示した二値化画像から不要なピクセルを除去した画像である。It is an image obtained by removing unnecessary pixels from the binarized image shown in FIG. 本実施例におけるセルについての説明図である。FIG. 4 is an explanatory diagram of a cell in the embodiment; 本発明の一実施例にかかる地図データ構造の説明図である。FIG. 2 is an explanatory diagram of a map data structure according to an embodiment of the present invention; FIG. 図4に示されたフローチャートの変形例である。FIG. 5 is a variation of the flowchart shown in FIG. 4; FIG. 白線を点列とした場合の説明図である。It is explanatory drawing at the time of making a white line into a dot sequence. 本発明の一実施例にかかる自己位置推定方法のフローチャートである。4 is a flow chart of a self-localization method according to an embodiment of the present invention; 本発明の第2の実施例にかかる地図データ生成方法のフローチャートを示す。FIG. 4 shows a flowchart of a map data generation method according to a second embodiment of the present invention; FIG. 図12に示されたフローチャートの変形例である。FIG. 13 is a modified example of the flowchart shown in FIG. 12. FIG.

以下、本発明の一実施形態にかかる自己位置推定装置を説明する。本発明の一実施形態にかかる自己位置推定装置は、路面に描かれた標示が複数のセルで分割されて表されており、複数のセルのそれぞれには、当該セルの位置に関する情報が設定されている地図データを、地図データ取得部が取得し、センサ情報取得部が車両走行によってセンサから得られたセンサ情報を取得する。そして、認識部がセンサ情報取得部で取得されたセンサ情報から路面に描かれた標示に該当するセンサ情報を認識し、推定部が認識部により認識された路面に描かれた標示に該当するセンサ情報と、地図データと、のマッチングを行うことにより車両の自己位置を推定する。このようにすることにより、路面に描かれた標示を利用して自己位置推定をすることができ、移動体の自己位置推定の精度を向上させることができる。 A self-position estimation device according to an embodiment of the present invention will be described below. In the self-position estimation device according to one embodiment of the present invention, the marking drawn on the road surface is divided into a plurality of cells, and each of the plurality of cells is set with information regarding the position of the cell. The map data acquisition unit acquires the map data stored in the vehicle, and the sensor information acquisition unit acquires sensor information obtained from the sensor while the vehicle is running. Then, the recognizing unit recognizes sensor information corresponding to the marking drawn on the road surface from the sensor information acquired by the sensor information acquiring unit, and the estimating unit recognizes the sensor corresponding to the marking drawn on the road surface recognized by the recognizing unit. The self-position of the vehicle is estimated by matching the information with the map data. By doing so, it is possible to estimate the self-position using the markings drawn on the road surface, and improve the accuracy of the self-position estimation of the moving body.

また、セル毎に当該セルについての所定の属性情報を有してもよい。このようにすることにより、例えば、セル内における点群の分散や反射強度を属性情報として有するようにすれば、そのセルにおける標示を示すペイントの分布や割合等を把握することが可能となる、つまり、標示の輪郭が含まれるセルを特定することができる。 Also, each cell may have predetermined attribute information about the cell. By doing so, for example, if the distribution and reflection intensity of the point cloud in the cell are included as attribute information, it is possible to grasp the distribution and ratio of the paint indicating the sign in that cell. That is, it is possible to identify the cell that contains the outline of the indication.

また、本自己位置推定装置が対象とする路面に描かれた標示は、区画線を除く標示であってもよい。このようにすることにより、例えば白線等の区画線が既に他の方法によりデータ化されている場合は、白線等の区画線を除く、右折や左折等を示す進行方向別通行区分や最高速度といった道路標示について地図データに含めることが可能となる。 Also, the markings drawn on the road surface targeted by the present self-position estimation device may be markings other than lane markings. By doing this, for example, if the lane markings such as white lines have already been converted into data by other methods, it will be possible to display traffic divisions by direction of travel and maximum speed that indicate right turns and left turns, etc., excluding lane markings such as white lines. Road markings can be included in map data.

また、本発明の一実施形態にかかる自己位置推定方法は、路面に描かれた標示が複数のセルで分割されて表されており、複数のセルのそれぞれには、当該セルの位置に関する情報が設定されている地図データを、地図データ取得工程で取得し、センサ情報取得工程で車両走行によってセンサから得られたセンサ情報を取得する。そして、認識工程でセンサ情報取得工程により取得されたセンサ情報から路面に描かれた標示に該当するセンサ情報を認識し、推定工程で認識工程により認識された路面に描かれた標示に該当するセンサ情報と、地図データと、のマッチングを行うことにより車両の自己位置を推定する。このようにすることにより、路面に描かれた標示を地図データに含めることができ、移動体の自己位置推定の精度を向上させることができる。 Further, in the self-position estimation method according to the embodiment of the present invention, the marking drawn on the road surface is divided into a plurality of cells, and each of the plurality of cells contains information regarding the position of the cell. The set map data is obtained in the map data obtaining process, and the sensor information obtained from the sensor during vehicle travel is obtained in the sensor information obtaining process. Then, in the recognition step, sensor information corresponding to the marking drawn on the road surface is recognized from the sensor information acquired in the sensor information acquisition step, and in the estimating step, the sensor corresponding to the marking drawn on the road surface recognized by the recognition step is detected. The self-position of the vehicle is estimated by matching the information with the map data. By doing so, it is possible to include the markings drawn on the road surface in the map data, and it is possible to improve the accuracy of self-position estimation of the moving body.

また、本発明の一実施形態にかかる自己位置推定プログラムは、上述した自己位置推定方法を、コンピュータにより実行させている。このようにすることにより、コンピュータを用いて、路面に描かれた標示を地図データに含めることができ、移動体の自己位置推定の精度を向上させることができる。 A self-position estimation program according to an embodiment of the present invention causes a computer to execute the above-described self-position estimation method. By doing so, a computer can be used to include the markings drawn on the road surface in the map data, and the accuracy of self-position estimation of the mobile body can be improved.

また、上述した自己位置推定プログラムをコンピュータ読み取り可能な記録媒体に格納してもよい。このようにすることにより、当該プログラムを機器に組み込む以外に単体でも流通させることができ、バージョンアップ等も容易に行える。 Moreover, you may store the self-position estimation program mentioned above in the computer-readable recording medium. By doing so, the program can be distributed as a single unit in addition to being incorporated into the device, and version upgrades and the like can be easily performed.

本発明の第1の実施例にかかる地図データ生成装置及び地図データ構造を図1~図11を参照して説明する。本実施例にかかる地図データ生成装置は、図1ではサーバ装置1として構成されている。サーバ装置1は、移動体としての車両Vに搭載されている車載装置2が収集した情報をインターネット等のネットワークNを介して取得し、取得した情報に基づいて後述する地図データ構造を有する地図データを生成する。 A map data generating apparatus and a map data structure according to a first embodiment of the present invention will be described with reference to FIGS. 1 to 11. FIG. The map data generation device according to this embodiment is configured as the server device 1 in FIG. The server device 1 acquires information collected by an in-vehicle device 2 mounted on a vehicle V as a mobile body via a network N such as the Internet, and based on the acquired information, map data having a map data structure described later. to generate

図2にサーバ装置1の機能的構成を示す。サーバ装置1は、図2に示したように、制御部11と、通信部12と、記憶部13と、を備えている。制御部11は、サーバ装置1のCPU(Central Processing Unit)が機能し、サーバ装置1の全体制御を司る。制御部11は、車載装置2から送信された例えば点群情報に基づいて地図データを生成する。 FIG. 2 shows the functional configuration of the server device 1. As shown in FIG. The server device 1 includes a control unit 11, a communication unit 12, and a storage unit 13, as shown in FIG. The control unit 11 functions as a CPU (Central Processing Unit) of the server device 1 and controls the entire server device 1 . The control unit 11 generates map data based on, for example, point group information transmitted from the in-vehicle device 2 .

通信部12は、サーバ装置1のネットワークインターフェース等が機能し、車載装置2が送信した例えば点群情報を受信する。また、通信部12は、制御部11で生成された地図データを、車両Vの車載装置2へ配信(送信)する。即ち、サーバ装置1は、地図データが格納されている記憶装置として機能する。 The communication unit 12 functions as a network interface or the like of the server device 1 and receives, for example, point cloud information transmitted by the in-vehicle device 2 . Further, the communication unit 12 distributes (transmits) the map data generated by the control unit 11 to the in-vehicle device 2 of the vehicle V. FIG. That is, the server device 1 functions as a storage device in which map data is stored.

記憶部13は、サーバ装置1のハードディスク等の記憶媒体が機能し、制御部11で生成された地図データ等を記憶する。なお、記憶媒体としては、光ディスクやメモリーカード等のであってもよい。 The storage unit 13 functions as a storage medium such as a hard disk of the server device 1 and stores map data and the like generated by the control unit 11 . Note that the storage medium may be an optical disk, a memory card, or the like.

図3に車載装置2の機能的構成を示す。車載装置2は、図3に示したように、制御部21と、通信部22と、記憶部23と、を備えている。また、車載装置2は、図3に示したように、ライダ3aやGPS(Global Positioning System)受信機3b等を含む車両Vに搭載されたセンサ3が接続されている。 FIG. 3 shows a functional configuration of the in-vehicle device 2. As shown in FIG. The in-vehicle device 2 includes a control unit 21, a communication unit 22, and a storage unit 23, as shown in FIG. In addition, as shown in FIG. 3, the in-vehicle device 2 is connected to a sensor 3 mounted on a vehicle V including a lidar 3a and a GPS (Global Positioning System) receiver 3b.

制御部21は、例えばCPUやメモリ等を有するマイクロコンピュータで構成され、車載装置2の全体制御を司る。制御部21は、センサ3で検出された点群情報等を通信部12からサーバ装置1へ送信させる。また、制御部21は、ライダ3aを用いて認識した路面上に描かれた標示等の地物を示す情報と、サーバ装置1で生成された後述する地図データ構造を有する地図データに含まれる路面上に描かれた標示等の情報と、に基づいて自己位置を推定する。また、制御部21は、推定された自己位置に基づいて予め探索された経路に沿って車両Vを誘導(案内)する誘導装置(案内装置)の制御部として機能してもよい。この誘導装置には、車両Vを経路に沿って自律的に走行させる所謂自動運転機能と、ドライバ等に経路に沿った案内情報を提示するナビゲーション機能の少なくともいずれかを含むものである。 The control unit 21 is composed of, for example, a microcomputer having a CPU, a memory, etc., and controls the overall control of the in-vehicle device 2 . The control unit 21 causes the communication unit 12 to transmit the point cloud information and the like detected by the sensor 3 to the server device 1 . In addition, the control unit 21 controls information representing features such as markings drawn on the road surface recognized using the rider 3a, and road surface information included in map data generated by the server device 1 and having a map data structure described later. Self-location is estimated based on information such as the signs drawn above. Further, the control unit 21 may function as a control unit of a guidance device (guidance device) that guides (guides) the vehicle V along a route searched in advance based on the estimated self-position. This guidance system includes at least one of a so-called automatic driving function for autonomously driving the vehicle V along a route and a navigation function for presenting guidance information along the route to the driver or the like.

通信部22は、制御部21が取得した点群情報等をサーバ装置1に送信する。また、通信部22は、サーバ装置1から配信された地図データ等を受信する。 The communication unit 22 transmits the point cloud information and the like acquired by the control unit 21 to the server device 1 . The communication unit 22 also receives map data and the like distributed from the server device 1 .

記憶部23は、制御部21で動作するプログラムや各種データ等が格納されている。また、記憶部23は、サーバ装置1から配信された地図データを記憶する。 The storage unit 23 stores programs that operate in the control unit 21, various data, and the like. The storage unit 23 also stores map data distributed from the server device 1 .

センサ3は、ライダ3aと、GPS受信機3bと、を備えている。なお、センサ3は、これらのセンサ以外に、例えば速度センサ等の他のセンサを備えていてもよい。さらには、車両の前方等の周囲を撮像する車載カメラをセンサ3に含めてもよい。 The sensor 3 includes a lidar 3a and a GPS receiver 3b. In addition to these sensors, the sensor 3 may include other sensors such as a speed sensor. Furthermore, the sensor 3 may include an in-vehicle camera that captures an image of the surroundings such as the front of the vehicle.

ライダ3aは、電磁波としてレーザ光を出射することで、外界に存在する物体までの距離を離散的に測定する。所定の検知領域において出力方向を変えながらパルス状のレーザを出力し、そのレーザの反射波を受信して点群情報を生成する。ライダ3aは、検知領域内に複数パルスのレーザを出力し、この複数パルスのレーザの反射波に基づいて点群情報を生成する。点群情報を構成するそれぞれの情報は、レーザの出力方向と、当該レーザを反射した対象物までの距離と、反射波の強度(反射強度)と、を示す情報である。本実施例では、ライダ3aは、主にレーザを路面に向けて照射し、路面を検知領域としている。このため、点群情報は、対象物としての路面までの距離を示す情報及び反射強度の情報が含まれる。勿論、路面以外にレーザを出射して、路面情報以外の周辺情報を取得するようにしてもよい。 The lidar 3a discretely measures the distance to an object existing in the outside world by emitting a laser beam as an electromagnetic wave. A pulsed laser is output while changing the output direction in a predetermined detection area, and a reflected wave of the laser is received to generate point group information. The lidar 3a outputs a plurality of pulses of laser within the detection area, and generates point group information based on the reflected waves of the plurality of pulses of the laser. Each piece of information that constitutes the point group information is information that indicates the output direction of the laser, the distance to the object that reflected the laser, and the intensity of the reflected wave (reflection intensity). In this embodiment, the rider 3a mainly irradiates the laser toward the road surface, and uses the road surface as the detection area. Therefore, the point cloud information includes information indicating the distance to the road surface as the object and information on the reflection intensity. Of course, peripheral information other than the road surface information may be acquired by emitting a laser to areas other than the road surface.

GPS受信機3bは、公知であるように複数のGPS衛星から送信される電波を定期的に受信して、現在の位置情報及び時刻を検出する。 As is well known, the GPS receiver 3b periodically receives radio waves transmitted from a plurality of GPS satellites to detect current position information and time.

次に、上述した構成のサーバ装置1(地図データ生成装置)における地図データ生成方法について図4~図7を参照して説明する。図4は、サーバ装置1で実行されるフローチャートである。このフローチャートは、サーバ装置1の制御部11で実行される。つまり、制御部11のCPUで実行されるコンピュータプログラム(地図データ生成プログラム)として構成されている。なお、このプログラムは、記憶部13に記憶させるに限らず、光ディスクやメモリーカード等に記憶させてもよい。 Next, a map data generation method in the server device 1 (map data generation device) having the above configuration will be described with reference to FIGS. 4 to 7. FIG. FIG. 4 is a flowchart executed by the server apparatus 1. FIG. This flowchart is executed by the control unit 11 of the server device 1 . That is, it is configured as a computer program (map data generation program) executed by the CPU of the control unit 11 . Note that this program is not limited to being stored in the storage unit 13, and may be stored in an optical disc, memory card, or the like.

まず、ステップS11において、制御部11は、車載装置2から点群情報等を取得する。なお、本ステップでは、車載装置2から収集した点群情報について、GPS受信機3bが検出した現在位置に基づいて各点までの距離を絶対座標に変換している。あるいは、予め車載装置2で絶対座標に変換してもよい。即ち、制御部11は、ライダ3a(所定のセンサ)から点群情報(路面情報)を取得する取得部として機能する。 First, in step S<b>11 , the control unit 11 acquires point group information and the like from the in-vehicle device 2 . In addition, in this step, regarding the point group information collected from the in-vehicle device 2, the distance to each point is converted into absolute coordinates based on the current position detected by the GPS receiver 3b. Alternatively, the in-vehicle device 2 may convert to absolute coordinates in advance. That is, the control unit 11 functions as an acquisition unit that acquires point group information (road surface information) from the rider 3a (predetermined sensor).

次に、ステップS12において、制御部11は、ステップS11で取得した点群情報に基づいて二値化画像を生成する。本実施例の二値化画像とは、三次元座標を持つ点群を二次元化して、各点の反射強度に基づいて所定の閾値により二値化した画像である。このようにして生成された二値化画像は、反射強度の高い点が輝度が高いピクセルとして表現される。この二値化画像に含まれるピクセルは、変換前の点群が有する座標情報も引き継いでいる。 Next, in step S12, the control unit 11 generates a binarized image based on the point group information acquired in step S11. A binarized image in this embodiment is an image obtained by two-dimensionalizing a group of points having three-dimensional coordinates and binarizing the point group using a predetermined threshold based on the reflection intensity of each point. In the binarized image generated in this way, points with high reflection intensity are expressed as pixels with high brightness. The pixels included in this binarized image also inherit the coordinate information of the point group before conversion.

即ち、制御部11は、取得部が取得した点群情報(路面情報)に基づいて、二値化画像(当該路面に描かれた標示を示す情報)を生成する標示情報生成部として機能する。 That is, the control unit 11 functions as a marking information generation unit that generates a binarized image (information indicating markings drawn on the road surface) based on the point group information (road surface information) acquired by the acquisition unit.

次に、ステップS13において、制御部11は、ステップS12で生成した二値化画像から路面外の輝度が高いピクセルを除去する。除去の例を図5及び図6を参照して説明する。図5は、ある道路の点群情報に基づいて生成された二値化画像である。この二値化画像上に白線(区画線)Wと、右折を示す進行方向別通行区分R(以下右折矢印Rとする)と、直進を示す進行方向通行区分S(以下直進矢印Sとする)が描かれている。また、この二値化画像には、路面外の不要なピクセルU(路面外の輝度が高いピクセル)も含まれている場合がある。 Next, in step S13, the control unit 11 removes pixels with high brightness outside the road surface from the binarized image generated in step S12. An example of removal will be described with reference to FIGS. 5 and 6. FIG. FIG. 5 is a binarized image generated based on point group information of a certain road. On this binary image, a white line (division line) W, a right-turn traffic division R (hereinafter referred to as a right-turn arrow R), and a movement-direction traffic division S (hereinafter referred to as a straight arrow S) indicating straight ahead are shown. is depicted. This binarized image may also include unnecessary pixels U outside the road surface (pixels outside the road surface with high brightness).

そして、このような二値化画像において、白線Wや進行方向別通行区分といった道路標示等の路面に描かれた標示以外の不要なピクセルUを除去する。除去の方法としては、例えば、点群情報を取得した領域の地図データを別途取得し、その地図データに設定されている通行可能領域(路面の領域)と二値化画像とを対比させて、路面外にある輝度が高いピクセルを特定する方法が挙げられる。また、地図データに含まれる道路や車線のネットワークデータから道路や車線の幅員情報を取得して、路面外にある輝度が高いピクセルを特定してもよい。 Then, in such a binarized image, unnecessary pixels U other than road markings drawn on the road surface, such as white lines W and road markings by direction of travel, are removed. As a method of removal, for example, the map data of the area where the point cloud information was acquired is separately acquired, and the passable area (road area) set in the map data is compared with the binarized image. A method of identifying pixels with high luminance outside the road surface can be mentioned. Moreover, the width information of the road or lane may be acquired from the network data of the road or lane included in the map data, and the pixel with high luminance outside the road surface may be specified.

不要なピクセルUの除去後の二値化画像を図6に示す。上述した処理によって、不要なピクセルUが除去され、白線Wや右折矢印R、直進矢印Sといった路面に描かれた標示のみが残る。 The binarized image after removing unnecessary pixels U is shown in FIG. By the above-described processing, unnecessary pixels U are removed, leaving only the markings drawn on the road surface such as the white line W, the right turn arrow R, and the straight arrow S.

次に、ステップS14において、制御部11は、ステップS13の処理が施された二値化画像において、路面に描かれた標示に対応するピクセルを一定サイズのセルにまとめる(セルを生成する)。生成されたセルは、当該セルに含まれるピクセルに基づいて座標情報が付与されている。即ち、標示情報生成部で生成された二値化画像(標示を示す情報)に基づいて当該標示を複数のセルで分割している。 Next, in step S14, the control unit 11 groups pixels corresponding to the markings drawn on the road surface into cells of a certain size in the binarized image processed in step S13 (generates cells). Coordinate information is added to the generated cell based on the pixels included in the cell. That is, the sign is divided into a plurality of cells based on the binarized image (information indicating the sign) generated by the sign information generation unit.

ここで、本実施例のセルについて図7を参照して説明する。図7は、白線Wと右折矢印Rとが描かれた路面を示している。図7では、白線W、右折矢印Rとも破線内がステップS13において輝度が高いピクセルとして表現されている。つまり、破線内が路面上に白線Wや右折矢印Rとして描かれた領域となる。 Here, the cell of this embodiment will be described with reference to FIG. FIG. 7 shows a road surface on which a white line W and a right-turn arrow R are drawn. In FIG. 7, both the white line W and the right-turn arrow R are expressed as pixels with high brightness in step S13 within the dashed lines. That is, the inside of the dashed line is the area where the white line W and the right turn arrow R are drawn on the road surface.

図7に示したように、路面に描かれた標示に対応するピクセルを一定サイズのセルCにまとめることで、白線Wや右折矢印Rは複数のセルCで分割される。このセルCのサイズは路面に描かれた標示を複数に分割できる程度の大きさで適宜定めればよい。また、セルCの形状は正方形に限らず長方形等の矩形や、三角形や六角形等の多角形でもよい。 As shown in FIG. 7, the white line W and the right-turn arrow R are divided into a plurality of cells C by grouping the pixels corresponding to the markings drawn on the road surface into cells C of a fixed size. The size of the cell C may be appropriately determined so that the marking drawn on the road surface can be divided into a plurality of cells. Moreover, the shape of the cell C is not limited to a square, and may be a rectangle such as a rectangle, or a polygon such as a triangle or a hexagon.

また、図7の例では、路面に描かれた標示が一部でも含まれる部分のみをセルにまとめているが、路面全体を複数のセルに分割したグリッド状(メッシュ状)としてもよい。但し、路面に描かれた標示のみをセルとした方が地図データのデータ量を小さくすることができる。また、路面全体を複数のセルに分割する場合は、路面に描かれた標示を含むセルには、その旨を示すフラグ等の情報を付与するとよい。 Also, in the example of FIG. 7, only a portion including even a part of the marking drawn on the road surface is grouped into cells, but the entire road surface may be divided into a plurality of cells in a grid (mesh) pattern. However, the amount of map data can be reduced by using only the signs drawn on the road surface as cells. Further, when dividing the entire road surface into a plurality of cells, it is preferable to add information such as a flag to that effect to the cell including the sign drawn on the road surface.

図4の説明に戻り、ステップS15において、制御部11は、後述する統計情報の付与のためステップS14で生成されたセルCの座標からステップS11で取得した点群を参照して、セルCと点群とを対応させる。即ち、各セルCには座標情報が位置情報(位置に関する情報)として付与されている。 Returning to the description of FIG. 4, in step S15, the control unit 11 refers to the point group acquired in step S11 from the coordinates of cell C generated in step S14 for adding statistical information to be described later. point cloud. That is, each cell C is provided with coordinate information as position information (information on position).

そして、ステップS16において、制御部11は、各セルCに属性情報としての統計情報を付与する。統計情報の例としては、当該セルCに対応する点群の反射強度の平均や分散あるいはヒストグラム等が挙げられる。このようにして統計情報が付与された複数のセルCからなる路面に描かれた標示を地図データに含めることで地図データが生成される。即ち、制御部11は、複数のセルCのそれぞれに、点群情報(路面情報)に基づく当該セルCの位置に関する情報を含めて地図データを生成する地図データ生成部として機能する。 Then, in step S16, the control unit 11 gives each cell C statistical information as attribute information. Examples of the statistical information include the average or variance of the reflection intensity of the point group corresponding to the cell C, or a histogram. Map data is generated by including in the map data the markings drawn on the road surface, which are composed of a plurality of cells C to which the statistical information is added in this way. In other words, the control unit 11 functions as a map data generation unit that generates map data including, in each of the plurality of cells C, information regarding the position of the cell C based on the point group information (road surface information).

以上の説明から明らかなように、ステップS11が取得工程、ステップS12が標示情報生成工程、ステップS14~S16が地図データ生成工程として機能する。 As is clear from the above description, step S11 functions as an acquisition process, step S12 functions as a display information generation process, and steps S14 to S16 function as a map data generation process.

なお、センサ3に含まれるものとして車載カメラが車両Vに搭載されている場合は、各点にカメラで撮像された画像に基づく色を付加した色付き点群とし、反射強度に代えて色の平均や分散を用いてもよい。また、当該セルCに対応する点群の座標値の平均や共分散を統計情報として付与することもできる。この場合は、反射強度又は色によるフィルタリング処理を施して路面に描かれた標示のみの点群の座標値を取り出す処理が必要となる。 When an in-vehicle camera is mounted on the vehicle V as one included in the sensor 3, a colored point group is obtained by adding a color based on the image captured by the camera to each point, and an average of the colors is used instead of the reflection intensity. or variance may be used. Also, the average and covariance of the coordinate values of the point cloud corresponding to the cell C can be given as statistical information. In this case, it is necessary to extract the coordinate values of the point group of only the markings drawn on the road surface by performing filtering processing based on reflection intensity or color.

図8に、図4のフローチャートにより生成された地図データの地図データ構造の例を示す。図8に示したように、地図データ構造は、セルID131と、位置132と、統計情報133と、を含んでいる。セルIDは、セルを識別するIDである。位置132は、セルの位置を示す情報である、この位置132は、セルC毎に絶対位置(緯度、経度)を設定するに限らず、基準となるセルCからの相対位置を設定してもよい。例えば図7の右折矢印Rであれば、左隅にあるセルCを基準セルとして絶対位置を設定し、他のセルCは基準セルからの相対位置を設定するようにしてもよい。統計情報133は、上述した反射強度や座標値の平均や分散等の情報が設定されている。また、図8に示した項目以外に、例えばその標示の内容を示す情報(白線、右折矢印、最高速度等)を含めてもよい。 FIG. 8 shows an example of the map data structure of the map data generated by the flowchart of FIG. As shown in FIG. 8, the map data structure includes cell ID 131, location 132, and statistical information 133. FIG. A cell ID is an ID that identifies a cell. The position 132 is information indicating the position of the cell. This position 132 is not limited to setting an absolute position (latitude, longitude) for each cell C, but may also set a relative position from the reference cell C. good. For example, in the case of the right-turn arrow R in FIG. 7, the cell C at the left corner may be set as a reference cell, and the absolute position may be set, and the other cells C may be set as relative positions from the reference cell. The statistical information 133 is set with information such as the above-described reflection intensity and the mean and variance of the coordinate values. In addition to the items shown in FIG. 8, for example, information indicating the content of the sign (white line, right-turn arrow, maximum speed, etc.) may be included.

即ち、図8に示した地図データ構造は、路面に描かれた標示が複数のセルCで分割されて表され、更に複数のセルCのそれぞれには、当該セルCの位置に関する情報(位置132)が設定されている。 That is, in the map data structure shown in FIG. 8, the markings drawn on the road surface are divided into a plurality of cells C, and each of the plurality of cells C contains information on the position of the cell C (position 132 ) is set.

このような地図データ構造を有する地図データは、例えば、車載装置2がナビゲーションや自動運転等の車両Vを誘導(案内)する機能を有する誘導(案内)装置として機能する場合に、この地図データを参照することで、路面に描かれた標示について、白線以外の標示も認識して案内することができる。 Map data having such a map data structure can be used, for example, when the in-vehicle device 2 functions as a guidance (guidance) device having a function of guiding (guiding) the vehicle V for navigation, automatic driving, or the like. By referring to it, it is possible to recognize signs other than white lines and guide the signs drawn on the road surface.

ところで、図4に示したフローチャートでは、路面に描かれた標示は全てセルCで分割されるようにしているが、区画線(例えば白線)は、形状が線であり単純であるため、例えば区画線の中心線を点列として地図データに格納することで、よりデータ量を削減することが可能である。そのため、セルCに分割する対象から区画線を除いてもよい。区画線を除いてセルCに分割する地図データ生成方法を図9に示す。 By the way, in the flowchart shown in FIG. 4, all the markings drawn on the road surface are divided into cells C. By storing the center line of the line as a point sequence in the map data, it is possible to further reduce the amount of data. Therefore, partition lines may be excluded from targets for dividing into cells C. FIG. FIG. 9 shows a method of generating map data for dividing into cells C by removing division lines.

まず、ステップS21において、制御部11は、図4のステップS11と同様に、車載装置2から点群情報等を取得する。 First, in step S21, the control unit 11 acquires point cloud information and the like from the in-vehicle device 2, as in step S11 of FIG.

次に、ステップS22において、制御部11は、図4のステップS12と同様に、ステップS21で取得した点群情報に基づいて二値化画像を生成する。 Next, in step S22, the control unit 11 generates a binarized image based on the point cloud information acquired in step S21, as in step S12 of FIG.

次に、ステップS23において、制御部11は、二値化画像から白線(区画線)を抽出する。本ステップにおける区画線の抽出方法の例を説明する。まず、二値化画像について画像処理を行い、例えば線分(直線)等を検出する。そして、検出した線分(直線)等のグルーピングを行い、一つの区画線の輪郭を抽出する。そして、既知の手法等を用い、抽出された区画線を点列により表現する。さらに、抽出された区画線から白線の端部及び非端部を認識し、当該認識した端部及び非端部間に点列を内挿(すなわち、端部と端部の間の連続部分に点列を内挿)してもよい。 Next, in step S23, the control unit 11 extracts white lines (compartment lines) from the binarized image. An example of the method for extracting the marking line in this step will be described. First, the binarized image is subjected to image processing to detect, for example, line segments (straight lines). Then, the detected line segments (straight lines) and the like are grouped, and the outline of one demarcation line is extracted. Then, using a known technique or the like, the extracted demarcation line is represented by a dot sequence. Furthermore, the end and non-end of the white line are recognized from the extracted marking line, and the point sequence is interpolated between the recognized end and non-end (that is, the continuous part between the ends interpolate the sequence of points).

このようにして、白線を点列により表現することができる(図10を参照)。図10は、図7について、白線Wの部分を点列で示したものである、白線Wは上述したステップS23の処理によって、セルCではなく複数の点Pにより表現される。 In this way, the white line can be represented by a series of dots (see FIG. 10). FIG. 10 shows the portion of the white line W in FIG. 7 by a series of dots.

図9の説明に戻る。次に、ステップS24において、制御部11は、ステップS22で生成した二値化画像から路面外の輝度が高いピクセル及びステップS23で抽出した白線部分のピクセルを除去する。路面外の輝度が高いピクセルについては、ステップS13と同様の方法で除去すればよい。白線部分については、ステップS23の処理によって抽出された輪郭に基づいて除去すればよい。 Returning to the description of FIG. Next, in step S24, the control unit 11 removes the high luminance pixels outside the road surface and the white line portion pixels extracted in step S23 from the binarized image generated in step S22. Pixels outside the road surface with high luminance may be removed by the same method as in step S13. The white line portion may be removed based on the contour extracted by the process of step S23.

次に、ステップS25において、制御部11は、ステップS24の処理が施された二値化画像において、路面に描かれた標示に対応するピクセルを一定サイズのセルCにまとめる(セルCを生成する)。本ステップでは、ステップS24で白線部分は除去されているので、白線を除いた路面に描かれた標示がセルCに分割される。 Next, in step S25, the control unit 11 organizes the pixels corresponding to the markings drawn on the road surface into cells C of a certain size in the binarized image processed in step S24 (generates cells C). ). In this step, since the white line portion has been removed in step S24, the marking drawn on the road surface excluding the white line is divided into cells C.

次に、ステップS26において、制御部11は、図4のステップS15と同様に統計情報の付与のためステップS25で生成されたセルCの座標からステップS21で取得した点群を参照してセルCと点群とを対応させる。 Next, in step S26, the control unit 11 refers to the point group acquired in step S21 from the coordinates of cell C generated in step S25 for adding statistical information in the same manner as in step S15 of FIG. and the point cloud.

そして、ステップS27において、制御部11は、図4のステップS16と同様に各セルCに統計情報を付与する。このようにして統計情報が付与された複数のセルCからなる路面に描かれた標示及び、ステップS23で点列として表現された白線を地図データに含めることで地図データが生成される。 Then, in step S27, the control unit 11 gives statistical information to each cell C in the same manner as in step S16 of FIG. Map data is generated by including in the map data the markings drawn on the road surface consisting of a plurality of cells C to which the statistical information has been assigned in this way and the white lines expressed as a point sequence in step S23.

次に、上述した方法により生成された地図データ構造を有する地図データを用いて車載装置2で実行される自己位置推定方法について図11のフローチャートを参照して説明する。このフローチャートは、車載装置2の制御部21で実行される。つまり、制御部21のCPUで実行されるコンピュータプログラム(地図データ生成プログラム)として構成されている。なお、このプログラムは、記憶部23に記憶させるに限らず、光ディスクやメモリーカード等に記憶させてもよい。 Next, the self-position estimation method executed by the in-vehicle device 2 using the map data having the map data structure generated by the method described above will be described with reference to the flowchart of FIG. This flowchart is executed by the controller 21 of the in-vehicle device 2 . That is, it is configured as a computer program (map data generation program) executed by the CPU of the control unit 21 . Note that this program is not limited to being stored in the storage unit 23, and may be stored in an optical disc, memory card, or the like.

まず、ステップS31において、制御部21は、ライダ3aから点群情報を取得する。この点群情報は、ライダ3aがリアルタイムに取得した情報である。即ち、制御部21は、車両走行によってライダ3a(センサ)から得られた点群情報(センサ情報)を取得するセンサ情報取得部として機能する。 First, in step S31, the control unit 21 acquires point group information from the rider 3a. This point group information is information obtained by the rider 3a in real time. That is, the control unit 21 functions as a sensor information acquisition unit that acquires point group information (sensor information) obtained from the rider 3a (sensor) while the vehicle is running.

次に、ステップS32において、制御部21は、ステップS31で取得した点群情報から路面に描かれた標示を、例えば地表面点群をフィルタリングする等により認識する。即ち、制御部21は、センサ情報取得部が取得した点群情報(センサ情報)から路面に描かれた標示に該当する点群情報(センサ情報)を認識する認識部として機能する。 Next, in step S32, the control unit 21 recognizes the marking drawn on the road surface from the point cloud information acquired in step S31, for example, by filtering the ground surface point cloud. That is, the control unit 21 functions as a recognition unit that recognizes the point group information (sensor information) corresponding to the marking drawn on the road surface from the point group information (sensor information) acquired by the sensor information acquisition unit.

次に、ステップS33において、制御部21は、記憶部23から地図データを取得する。本ステップで取得する地図データは、図8で説明した地図データ構造を有するものである。即ち、制御部21は、路面に描かれた標示が複数のセルCで分割されて表されており、複数のセルCのそれぞれには、当該セルCの位置に関する情報が設定されている地図データ、を取得する地図データ取得部として機能する。なお、地図データはサーバ装置1か
ら直接取得するようにしてもよい。
Next, in step S<b>33 , the control section 21 acquires map data from the storage section 23 . The map data acquired in this step has the map data structure described with reference to FIG. That is, the control unit 21 controls the map data in which the markings drawn on the road surface are divided into a plurality of cells C and each of the plurality of cells C is set with information regarding the position of the cell C. , and functions as a map data acquisition unit. Note that the map data may be obtained directly from the server device 1 .

そして、ステップS34において、制御部21は、ステップS32の処理が施された点群情報と、地図データに含まれる標示と、のマッチングを行って自己位置の推定をする。具体的には、点群情報と、地図データ側の各セルの統計情報とのマッチングを行って自己位置の推定をする。なお、マッチングの方法としては、NDT(Normal Distributions Transform)等の周知のセルCと点群とのマッチング方法を利用すればよい。即ち、制御部21は、認識部により認識された標示に該当する点群情報(センサ情報)と、地図データと、のマッチングを行うことにより車両の自己位置を推定する推定部として機能する。 Then, in step S34, the control unit 21 performs matching between the point group information processed in step S32 and the indication included in the map data to estimate the self-position. Specifically, the point group information and the statistical information of each cell on the map data side are matched to estimate the self-position. As a matching method, a well-known matching method between the cell C and the point group such as NDT (Normal Distributions Transform) may be used. That is, the control unit 21 functions as an estimation unit that estimates the self-position of the vehicle by matching the point group information (sensor information) corresponding to the sign recognized by the recognition unit and the map data.

なお、マッチングは、ライダ3aからリアルタイムに取得した点群情報を地図データと同様にセルで分割して統計情報を生成した上で行ってもよい。 Note that the matching may be performed after generating statistical information by dividing the point group information obtained in real time from the rider 3a into cells in the same manner as the map data.

以上の説明から明らかなように、ステップS31がセンサ情報取得工程、ステップS32が認識工程、ステップS33が地図データ取得工程、ステップS34が推定工程として機能する。 As is clear from the above description, step S31 functions as a sensor information acquisition process, step S32 functions as a recognition process, step S33 functions as a map data acquisition process, and step S34 functions as an estimation process.

また、上述した説明では、サーバ装置1で地図データを生成していたが、車載装置2で地図データの生成を行ってサーバ装置1へアップロードするようにしてもよい。つまり、図4や図9に示したフローチャートは車載装置2で実行される。この場合、サーバ装置1では、各車載装置2からアップロードされた部分的な地図データの結合や更新等の処理を行う。 Further, in the above description, the map data is generated by the server device 1 , but the map data may be generated by the in-vehicle device 2 and uploaded to the server device 1 . That is, the flowcharts shown in FIGS. 4 and 9 are executed by the in-vehicle device 2 . In this case, the server device 1 performs processing such as combining and updating the partial map data uploaded from each in-vehicle device 2 .

また、上述した説明では、点群等の収集を行う車両と、自己位置推定を行う車両が同じ車両Vであったが、異なる車両であってもよい。例えば、点群等の収集は専用の計測機器を搭載した計測車両が行い、その計測結果を利用して生成された地図データの配信を一般車両が受けて自己位置推定をするといった構成でもよい。 Also, in the above description, the vehicle V for collecting the point cloud and the like and the vehicle for estimating the self-position are the same vehicle V, but they may be different vehicles. For example, a measuring vehicle equipped with a dedicated measuring device collects the point cloud, etc., and a general vehicle receives distribution of map data generated using the measurement result and estimates its own position.

また、上述した実施例では、点群を取得するのは車両に搭載されたライダ3aであったが、車両ではなく航空機等の飛翔体にライダを搭載し、上空から地上に向けてレーザ光を照射して得られた点群について上記した二値化処理等を行って地図データを生成してもよい。 In the above-described embodiment, the point cloud is acquired by the lidar 3a mounted on the vehicle. Map data may be generated by performing the above-described binarization processing or the like on the point group obtained by irradiation.

本実施例によれば、サーバ装置1は、通信部12がライダ3aで検出された点群情報を取得し、制御部11が通信部12で取得された点群情報に基づいて、二値化画像を生成する。そして、二値化画像の路面に描かれた標示の部分を複数のセルCで分割し、複数のセルCのそれぞれに、位置132及び統計情報133を含めて地図データを生成する。このようにすることにより、路面に描かれた標示を地図データに含めることができ、車両Vの自己位置推定の精度を向上させることができる。また、複数のセルCによって路面に描かれた標示を表現するため、複雑な形状の標示について、その輪郭を抽出して図化するといった複雑な処理を必要とせず、また、輪郭を再現する必要が無いので情報量を少なくすることが可能となる。 According to this embodiment, the server device 1 acquires the point cloud information detected by the rider 3a through the communication unit 12, and the control unit 11 binarizes the information based on the point cloud information acquired by the communication unit 12. Generate an image. Then, the portion of the sign drawn on the road surface of the binarized image is divided into a plurality of cells C, and map data is generated including the position 132 and the statistical information 133 in each of the plurality of cells C. By doing so, the markings drawn on the road surface can be included in the map data, and the accuracy of self-position estimation of the vehicle V can be improved. In addition, since the markings drawn on the road surface are represented by a plurality of cells C, complicated processing such as extracting and plotting the contours of markings of complicated shape is not required, and the contours need not be reproduced. Since there is no , it is possible to reduce the amount of information.

また、制御部11は、点群情報に基づいて統計情報133をセルC毎に設定しているので、例えば、セルC内における点群の分散や反射強度を統計情報として有するようにすれば、そのセルCにおける標示を示すペイントの分布や割合等を把握することが可能となる、つまり、標示の輪郭が含まれるセルCを特定することができる。 In addition, since the control unit 11 sets the statistical information 133 for each cell C based on the point cloud information, for example, if the dispersion and reflection intensity of the point cloud in the cell C are included as statistical information, It becomes possible to grasp the distribution, ratio, etc. of the paint indicating the marking in the cell C, that is, it is possible to specify the cell C containing the outline of the marking.

また、路面に描かれた標示は、区画線を除く標示であってもよい。このようにすることにより、白線等の区画線を除く、右折や左折等を示す進行方向別通行区分や最高速度といった道路標示について地図データに含めることが可能となる。 Also, the markings drawn on the road surface may be markings other than marking lines. By doing so, it becomes possible to include in the map data road markings such as traffic divisions by traveling direction indicating right turns, left turns, etc., and maximum speeds, excluding demarcation lines such as white lines.

また、本実施例にかかる地図データ構造は、路面に描かれた標示が複数のセルCで分割されて表され、更に複数のセルCのそれぞれには、当該セルCの位置132が設定されており、この地図データ構造を利用する車載装置2は、セルCの位置132によって、路面に描かれた標示を認識して車両Vの自己位置推定処理を行う。このようにすることにより、路面に描かれた標示を地図データに含めることができ、車両Vの自己位置推定の精度を向上させることができる。また、複数のセルCによって標示を表現するため、複雑な形状の標示について、その輪郭を抽出して図化するといった複雑な処理を必要とせず、また、輪郭を再現する必要が無いので情報量を少なくすることが可能となる。 In the map data structure according to the present embodiment, the marking drawn on the road surface is divided into a plurality of cells C, and each of the plurality of cells C is set with the position 132 of the cell C. The in-vehicle device 2 using this map data structure recognizes the markings drawn on the road surface from the position 132 of the cell C and performs self-position estimation processing of the vehicle V. FIG. By doing so, the markings drawn on the road surface can be included in the map data, and the accuracy of self-position estimation of the vehicle V can be improved. In addition, since a sign is represented by a plurality of cells C, complicated processing such as extracting and plotting the contour of a sign with a complicated shape is not required, and there is no need to reproduce the contour. can be reduced.

また、地図データ構造は、セルC毎に当該セルCについての統計情報を有していている。このようにすることにより、セルC内における点群の座標や反射強度の分散等を統計情報として格納することで、そのセルCにおける標示を示すペイントの分布や割合等を把握することが可能となる、つまり、標示の輪郭が含まれるセルを特定することができる。 Also, the map data structure has statistical information for each cell C. By doing so, by storing the coordinates of the point group and the dispersion of the reflection intensity in the cell C as statistical information, it is possible to grasp the distribution, ratio, etc. of the paint indicating the sign in the cell C. It is possible to identify the cell that contains the outline of the indication.

また、サーバ装置1は、上述した地図データ構造を有する地図データが格納されているので、サーバ装置1から複数の車両に地図データを配信等することができる。 Further, since the server device 1 stores the map data having the map data structure described above, it is possible to distribute the map data from the server device 1 to a plurality of vehicles.

また、車載装置2は、路面に描かれた標示が複数のセルCで分割されて表されており、複数のセルCのそれぞれには、当該セルCの位置132が設定されている地図データを、制御部21が取得し、車両走行によってライダ3aから得られた点群情報を取得する。そして、制御部21が取得した点群情報から路面に描かれた標示に該当する点群情報を認識し、認識された路面に描かれた標示に該当する点群情報と、地図データと、のマッチングを行うことにより車両の自己位置を推定する。このようにすることにより、路面に描かれた標示を利用して自己位置推定をすることができ、車両Vの自己位置推定の精度を向上させることができる。 Further, the in-vehicle device 2 displays map data in which the marking drawn on the road surface is divided into a plurality of cells C, and the position 132 of the cell C is set in each of the plurality of cells C. , the control unit 21 obtains the point group information obtained from the rider 3a while the vehicle is running. Then, the control unit 21 recognizes point cloud information corresponding to the marking drawn on the road surface from the acquired point cloud information, and stores the point cloud information corresponding to the recognized marking drawn on the road surface and the map data. The self-location of the vehicle is estimated by matching. By doing so, it is possible to estimate the self-position using the markings drawn on the road surface, and to improve the accuracy of the self-position estimation of the vehicle V. FIG.

次に、本発明の第2の実施例にかかる地図データ生成装置を図12~図13を参照して説明する。なお、前述した第1の実施例と同一部分には、同一符号を付して説明を省略する。 A map data generating apparatus according to a second embodiment of the present invention will now be described with reference to FIGS. 12 and 13. FIG. The same reference numerals are given to the same parts as those of the first embodiment described above, and the description thereof will be omitted.

本実施例は、構成は図1と同様であるが、地図データ生成方法が異なる。図12に本実施例にかかる地図データ生成方法のフローチャートを示す。このフローチャートは、サーバ装置1の制御部11で実行される。 This embodiment has the same configuration as that of FIG. 1, but differs in the method of generating map data. FIG. 12 shows a flowchart of the map data generation method according to the present embodiment. This flowchart is executed by the control unit 11 of the server device 1 .

まず、ステップS41において、制御部11は、車載装置2から点群情報等を取得する。 First, in step S<b>41 , the control unit 11 acquires point cloud information and the like from the in-vehicle device 2 .

次に、ステップS42において、制御部11は、ステップS41で取得した点群について、各々が有する反射強度情報及び高さ情報(距離情報)に基づいてフィルタリングする。反射強度情報によるフィルタリングにより、再帰性反射材が用いられた反射強度が高い道路標示等の路面に描かれた標示を抽出することができる。また、高さ情報によるフィルタリングにより、標識等の路面以外の反射強度が高い点を排除することができる。 Next, in step S42, the control unit 11 filters the point group acquired in step S41 based on the reflection intensity information and height information (distance information) of each point group. By filtering based on the reflection intensity information, it is possible to extract signs drawn on the road surface, such as road signs with high reflection intensity using retroreflection materials. Further, by filtering based on height information, it is possible to eliminate points with high reflection intensity other than the road surface, such as signs.

次に、ステップS43において、ステップS42の処理が施された点群情報に対して、ステップS14等と同様に一定サイズのセルCにまとめる(セルCを生成する)。このステップの時点で各セルCには点群情報の各点が有する絶対座標に基づいて位置情報が付与されている。 Next, in step S43, the point group information processed in step S42 is grouped into cells C of a fixed size (cells C are generated) in the same manner as in step S14 and the like. At the time of this step, each cell C is provided with position information based on the absolute coordinates of each point of the point group information.

そして、ステップS44において、制御部11は、ステップS16等と同様に、各セルCに属性情報としての統計情報を付与する。このようにして統計情報が付与された複数のセルCからなる路面に描かれた標示を地図データに含めることで地図データが生成される。 Then, in step S44, the control unit 11 gives statistical information as attribute information to each cell C, as in step S16 and the like. Map data is generated by including in the map data the markings drawn on the road surface, which are composed of a plurality of cells C to which the statistical information is added in this way.

ここで、本実施例も第1の実施例と同様に、セルCに分割する対象から区画線を除いてもよい。区画線を除いてセルCに分割する地図データ生成方法を図13に示す。 Here, in this embodiment, as in the first embodiment, the division lines may be excluded from the objects to be divided into the cells C. FIG. FIG. 13 shows a map data generation method for dividing into cells C by excluding division lines.

まず、ステップS51において、制御部11は、上述したステップS21と同様に、車載装置2から点群情報等を取得する。 First, in step S51, the control unit 11 acquires point cloud information and the like from the in-vehicle device 2 in the same manner as in step S21 described above.

次に、ステップS52において、制御部11は、上述したステップS22と同様に、ステップS51で取得した点群情報に基づいて二値化画像を生成する。 Next, in step S52, the control unit 11 generates a binarized image based on the point group information acquired in step S51, similarly to step S22 described above.

次に、ステップS53において、制御部11は、二値化画像から白線(区画線)を抽出する。 Next, in step S53, the control unit 11 extracts white lines (compartment lines) from the binarized image.

次に、ステップS54において、制御部11は、ステップS51で取得した点群情報から白線に対応する点群をフィルタリングする。また、制御部11は、ステップS42と同様に、各々が有する反射強度情報及び高さ情報(距離情報)に基づいてフィルタリングする。 Next, in step S54, the control unit 11 filters the point group corresponding to the white line from the point group information acquired in step S51. Moreover, the control part 11 filters based on the reflection intensity information and height information (distance information) which each has like step S42.

次に、ステップS55において、制御部11は、ステップS54の処理が施された点群情報に対して、ステップS43と同様に一定サイズのセルCにまとめる(セルCを生成する)。 Next, in step S55, the control unit 11 organizes the point group information processed in step S54 into cells C of a fixed size (generates cells C) in the same manner as in step S43.

次に、ステップS56において、制御部11は、ステップS44と同様に、各セルCに属性情報としての統計情報を付与する。このようにして統計情報が付与された複数のセルCからなる路面に描かれた標示及び、ステップS53で点列として表現された白線を地図データに含めることで地図データが生成される。 Next, in step S56, the control unit 11 gives statistical information as attribute information to each cell C, as in step S44. Map data is generated by including in the map data the markings drawn on the road surface consisting of a plurality of cells C to which the statistical information has been assigned in this way and the white lines expressed as a point sequence in step S53.

本実施例によれば、サーバ装置1は、通信部12がライダ3aで検出された点群情報を取得し、制御部11が通信部12で取得された点群情報に基づいて、フィルタリングをする。そして、フィルタリングされた点群における路面に描かれた標示の部分を複数のセルCで分割し、複数のセルCのそれぞれに、位置132及び統計情報133を含めて地図データを生成する。このようにすることにより、点群情報から直接路面に描かれた標示をセル化することができる。 According to this embodiment, the server device 1 acquires the point cloud information detected by the rider 3a through the communication unit 12, and performs filtering based on the point cloud information acquired by the control unit 11 through the communication unit 12. . Then, the portion of the marking drawn on the road surface in the filtered point group is divided into a plurality of cells C, and map data is generated including the position 132 and the statistical information 133 in each of the plurality of cells C. By doing so, the markings directly drawn on the road surface can be cellized from the point group information.

なお、上述した2つの実施例では、セルCは平面状のものであったが、ボクセルや柱体など、立体で分割してもよい。 In the two embodiments described above, the cells C are planar, but may be divided into three dimensions such as voxels and columns.

また、本発明は上記実施例に限定されるものではない。即ち、当業者は、従来公知の知見に従い、本発明の骨子を逸脱しない範囲で種々変形して実施することができる。かかる変形によってもなお本発明の地図データ生成装置、地図データ構造及び自己位置推定装置を具備する限り、勿論、本発明の範疇に含まれるものである。 Moreover, the present invention is not limited to the above embodiments. That is, those skilled in the art can carry out various modifications according to conventionally known knowledge without departing from the gist of the present invention. As long as the map data generation device, map data structure, and self-position estimation device of the present invention are provided, even such modifications are of course included in the scope of the present invention.

1 サーバ装置(記憶装置、地図データ生成装置)
2 車載装置(自己位置推定装置)
3a ライダ(センサ)
11 通信部(取得部)
12 制御部(標示情報生成部、地図データ生成部)
13 記憶部(記憶媒体)
21 制御部(地図データ取得部、センサ情報取得部、認識部、推定部)
23 記憶部(記憶媒体)
132 位置(セルの位置に関する情報)
133 統計情報(属性情報)
1 server device (storage device, map data generation device)
2 In-vehicle device (self-localization device)
3a lidar (sensor)
11 communication unit (acquisition unit)
12 control unit (display information generation unit, map data generation unit)
13 storage unit (storage medium)
21 control unit (map data acquisition unit, sensor information acquisition unit, recognition unit, estimation unit)
23 storage unit (storage medium)
132 position (information about the position of the cell)
133 Statistical information (attribute information)

Claims (8)

路面に描かれた標示が一定サイズの複数のセルで分割されて表されており、前記複数のセルのそれぞれには、当該セルの位置に関する情報が設定されている地図データ、を取得する地図データ取得部と、
移動体に搭載されたセンサから得られたセンサ情報を取得するセンサ情報取得部と、
前記センサ情報取得部が取得した前記センサ情報から前記標示に該当する前記センサ情報を認識する認識部と、
前記認識部により認識された前記標示に該当する前記センサ情報と、前記地図データと、のマッチングを行うことにより前記移動体の自己位置を推定する推定部と、
を備え、
前記セル毎に、当該セルに対応する点群の反射強度に関する情報を含む属性情報を有している、
ことを特徴とする自己位置推定装置。
Map data for obtaining map data in which a marking drawn on a road surface is divided into a plurality of cells of a certain size and represented, and information relating to the position of each cell is set in each of the plurality of cells. an acquisition unit;
a sensor information acquisition unit that acquires sensor information obtained from a sensor mounted on a moving body;
a recognition unit that recognizes the sensor information corresponding to the sign from the sensor information acquired by the sensor information acquisition unit;
an estimating unit for estimating the self-position of the moving object by matching the sensor information corresponding to the sign recognized by the recognizing unit and the map data;
with
Each cell has attribute information including information on the reflection intensity of the point cloud corresponding to the cell,
A self-position estimation device characterized by:
移動体の自己位置を推定する自己位置推定装置で実行される自己位置推定方法であって、
路面に描かれた標示が一定サイズの複数のセルで分割されて表されており、前記複数のセルのそれぞれには、当該セルの位置に関する情報が設定されている地図データ、を取得する地図データ取得工程と、
前記移動体に搭載されたセンサから得られたセンサ情報を取得するセンサ情報取得工程と、
前記センサ情報取得工程で取得された前記センサ情報から前記標示に該当する前記センサ情報を認識する認識工程と、
前記認識工程により認識された前記標示に該当する前記センサ情報と、前記地図データと、のマッチングを行うことにより前記移動体の自己位置を推定する推定工程と、
を含み、
前記セル毎に、当該セルに対応する点群の反射強度に関する情報を含む属性情報を有している、
ことを特徴とする自己位置推定方法。
A self-position estimation method executed by a self-position estimation device for estimating the self-position of a mobile body,
Map data for obtaining map data in which a marking drawn on a road surface is divided into a plurality of cells of a certain size and represented, and information relating to the position of each cell is set in each of the plurality of cells. an acquisition step;
a sensor information acquisition step of acquiring sensor information obtained from a sensor mounted on the moving object;
a recognition step of recognizing the sensor information corresponding to the sign from the sensor information acquired in the sensor information acquisition step;
an estimating step of estimating the self-position of the moving object by matching the sensor information corresponding to the sign recognized by the recognizing step and the map data;
including
Each cell has attribute information including information on the reflection intensity of the point cloud corresponding to the cell,
A self-localization method characterized by:
請求項2に記載の自己位置推定方法を、コンピュータにより実行させることを特徴とする自己位置推定プログラム。 A self-position estimation program for causing a computer to execute the self-position estimation method according to claim 2. 請求項3に記載の自己位置推定プログラムを格納したことを特徴とするコンピュータ読み取り可能な記録媒体。 4. A computer-readable recording medium storing the self-localization program according to claim 3. 路面を検知領域に含むセンサから得られたセンサ情報を取得する取得部と、
前記センサ情報に基づいて、前記路面に描かれた標示を一定サイズの複数のセルに分割し、且つ前記複数のセルのそれぞれに当該セルの位置に関する情報が設定されている地図データを生成する生成部と、
を備え、
前記セルは、当該セルに対応する点群の反射強度に関する情報を含む属性情報を有している、
ことを特徴とする地図データ生成装置。
an acquisition unit that acquires sensor information obtained from a sensor that includes a road surface in its detection area;
generating map data in which the marking drawn on the road surface is divided into a plurality of cells of a predetermined size based on the sensor information, and information regarding the position of the cell is set in each of the plurality of cells; Department and
with
The cell has attribute information including information on the reflection intensity of the point cloud corresponding to the cell,
A map data generation device characterized by:
前記生成部は、前記反射強度に関する情報に基づいて前記セルを生成することを特徴とする請求項5に記載の地図データ生成装置。 6. The map data generation device according to claim 5, wherein the generation unit generates the cells based on the information about the reflection intensity. 前記生成部は、前記反射強度に関する情報に基づいて二値化情報を生成し、前記二値化情報に基づいて前記セルを生成することを特徴とする請求項6に記載の地図データ生成装置。 7. The map data generation device according to claim 6, wherein the generation unit generates binarization information based on the information about the reflection intensity, and generates the cells based on the binarization information. 前記生成部は、前記路面外の前記反射強度に関する情報を除去した後に前記セルを生成することを特徴とする請求項6または7に記載の地図データ生成装置。 8. The map data generation device according to claim 6, wherein the generation unit generates the cells after removing the information about the reflection intensity outside the road surface.
JP2023037170A 2018-08-28 2023-03-10 Self-position estimation device Pending JP2023068010A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023037170A JP2023068010A (en) 2018-08-28 2023-03-10 Self-position estimation device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018159020A JP2020034322A (en) 2018-08-28 2018-08-28 Self-position estimation device
JP2023037170A JP2023068010A (en) 2018-08-28 2023-03-10 Self-position estimation device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018159020A Division JP2020034322A (en) 2018-08-28 2018-08-28 Self-position estimation device

Publications (1)

Publication Number Publication Date
JP2023068010A true JP2023068010A (en) 2023-05-16

Family

ID=69667706

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018159020A Pending JP2020034322A (en) 2018-08-28 2018-08-28 Self-position estimation device
JP2023037170A Pending JP2023068010A (en) 2018-08-28 2023-03-10 Self-position estimation device

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018159020A Pending JP2020034322A (en) 2018-08-28 2018-08-28 Self-position estimation device

Country Status (1)

Country Link
JP (2) JP2020034322A (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7402756B2 (en) 2020-06-17 2023-12-21 日産自動車株式会社 Environmental map generation method and environmental map generation device
JPWO2022075356A1 (en) * 2020-10-07 2022-04-14
CN114475650B (en) * 2021-12-01 2022-11-01 中铁十九局集团矿业投资有限公司 Vehicle driving behavior determination method, device, equipment and medium

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6225889B2 (en) * 2014-11-19 2017-11-08 株式会社豊田中央研究所 Vehicle position estimation apparatus and program
JP2018025490A (en) * 2016-08-10 2018-02-15 株式会社デンソー Position estimation device

Also Published As

Publication number Publication date
JP2020034322A (en) 2020-03-05

Similar Documents

Publication Publication Date Title
CN108571974B (en) Vehicle positioning using a camera
EP3519770B1 (en) Methods and systems for generating and using localisation reference data
JP2023068010A (en) Self-position estimation device
US20200041284A1 (en) Map road marking and road quality collecting apparatus and method based on adas system
US9898668B2 (en) System and method of object detection
US8611585B2 (en) Clear path detection using patch approach
CN106463051B (en) Traffic signal recognition device and traffic signal recognition method
EP2549457B1 (en) Vehicle-mounting vehicle-surroundings recognition apparatus and vehicle-mounting vehicle-surroundings recognition system
US8452053B2 (en) Pixel-based texture-rich clear path detection
CN103164851B (en) Lane segmentation object detecting method and device
US9360332B2 (en) Method for determining a course of a traffic lane for a vehicle
US20140236463A1 (en) Enhanced clear path detection in the presence of traffic infrastructure indicator
KR20170104287A (en) Driving area recognition apparatus and method for recognizing driving area thereof
JP6678605B2 (en) Information processing apparatus, information processing method, and information processing program
JP2008168811A (en) Traffic lane recognition device, vehicle, traffic lane recognition method, and traffic lane recognition program
CN108108750A (en) Metric space method for reconstructing based on deep learning and monocular vision
JP2014175007A (en) Road edge detection method and road edge detection device
JP2012208525A (en) Stationary object map generation device
CN109635737A (en) Automobile navigation localization method is assisted based on pavement marker line visual identity
JP2014203465A (en) Lane-based localization
CN114413881A (en) Method and device for constructing high-precision vector map and storage medium
JP2020034321A (en) Map data generation device
CN112352260A (en) Lane estimation device, method, and program
CN113835102A (en) Lane line generation method and device
CN114084129A (en) Fusion-based vehicle automatic driving control method and system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230310

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231212

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20240131

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240625