JP2022072913A - Information processing apparatus, control method, program, and storage medium - Google Patents

Information processing apparatus, control method, program, and storage medium Download PDF

Info

Publication number
JP2022072913A
JP2022072913A JP2020182613A JP2020182613A JP2022072913A JP 2022072913 A JP2022072913 A JP 2022072913A JP 2020182613 A JP2020182613 A JP 2020182613A JP 2020182613 A JP2020182613 A JP 2020182613A JP 2022072913 A JP2022072913 A JP 2022072913A
Authority
JP
Japan
Prior art keywords
image
slit
road
change point
reference position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020182613A
Other languages
Japanese (ja)
Inventor
克巳 天野
Katsumi Amano
令司 松本
Reiji Matsumoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Pioneer Smart Sensing Innovations Corp
Original Assignee
Pioneer Electronic Corp
Pioneer Smart Sensing Innovations Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Electronic Corp, Pioneer Smart Sensing Innovations Corp filed Critical Pioneer Electronic Corp
Priority to JP2020182613A priority Critical patent/JP2022072913A/en
Publication of JP2022072913A publication Critical patent/JP2022072913A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

To provide an information processing apparatus which allows suitable comparison of data for detection of change points without use of reference obtained before a change and having absolute accuracy.SOLUTION: The present invention is directed to a change point detecting system for detecting a point with time-serial change of a white line on a road based on measured data generated by a measurement vehicle traveling on the road. A controller 43 of a change point detecting apparatus as an information processing apparatus has: a reference position setting unit 51 for acquiring a first image which is an image of the road generated based on measured data of first measurement and a second image which is an image of the road based on measured data of second measurement, and setting a reference position with respect to the first image and the second image; a first slit image generating unit 54A and a second slit generating unit 54B for generating slit images obtained by cutting parts from the first image and the second image based on the reference position; and a slit image collation unit 55 for collating the first image and the second image for each of the slit images.SELECTED DRAWING: Figure 4

Description

本発明は、区画線などの道路に関する変化点の検出に関する。 The present invention relates to the detection of change points related to roads such as lane markings.

従来から、区画線などの道路に関する変化点を検出する技術が知られている。例えば、特許文献1には、変化前のリファレンスとなる絶対的精度を有する高精度地図を参照することで、区画線などの道路に関する地図の変化点を検出する地図変化点検出装置が開示されている。 Conventionally, a technique for detecting a change point related to a road such as a lane marking has been known. For example, Patent Document 1 discloses a map change point detection device that detects a change point of a map related to a road such as a lane marking by referring to a high-precision map having absolute accuracy as a reference before the change. There is.

特開2019-3606号公報Japanese Unexamined Patent Publication No. 2019-3606

一般に、変化前の状態を表すリファレンスとして使用する絶対的精度を有する高精度地図を用意するにはコストが多大となるため、このようなリファレンスを利用して広範囲エリアの地図を整備するのは困難であった。 In general, it is difficult to prepare a map of a wide area using such a reference because it is costly to prepare a high-precision map with absolute accuracy to be used as a reference showing the state before change. Met.

本発明は、上記のような課題を解決するためになされたものであり、絶対的精度を有する変化前のリファレンスを用いることなく、変化点検出のためのデータの比較を好適に行うことが可能な情報処理装置を提供することを主な目的とする。 The present invention has been made to solve the above-mentioned problems, and it is possible to suitably compare data for detecting a change point without using a reference before change having absolute accuracy. The main purpose is to provide various information processing devices.

請求項に記載の発明は、
第1の計測において計測したデータに基づき生成された道路の画像である第1画像を取得する第1画像取得手段と、
第2の計測において計測したデータに基づき生成された前記道路の画像である第2画像を取得する第2画像取得手段と、
前記第1画像及び前記第2画像に対する基準位置を設定する基準位置設定手段と、
前記基準位置に基づき、前記第1画像と前記第2画像とから切り取ったスリット画像を生成するスリット画像生成手段と、
前記第1画像と前記第2画像とを、前記スリット画像毎に照合するスリット画像照合手段と、
を有する、情報処理装置である。
The invention described in the claims
A first image acquisition means for acquiring a first image, which is an image of a road generated based on the data measured in the first measurement, and
A second image acquisition means for acquiring a second image, which is an image of the road generated based on the data measured in the second measurement, and
A reference position setting means for setting a reference position with respect to the first image and the second image, and
A slit image generation means for generating a slit image cut from the first image and the second image based on the reference position,
A slit image collation means for collating the first image and the second image for each slit image,
It is an information processing device having.

また、請求項に記載の発明は、
コンピュータが実行する制御方法であって、
第1の計測において計測したデータに基づき生成された道路の画像である第1画像を取得し、
第2の計測において計測したデータに基づき生成された前記道路の画像である第2画像を取得し、
前記第1画像及び前記第2画像に対する基準位置を設定し、
前記基準位置に基づき、前記第1画像と前記第2画像とから切り取ったスリット画像を生成し、
前記第1画像と前記第2画像とを、前記スリット画像毎に照合する、
制御方法である。
Further, the invention described in the claims is
It ’s a control method executed by a computer.
The first image, which is an image of the road generated based on the data measured in the first measurement, is acquired.
The second image, which is an image of the road generated based on the data measured in the second measurement, is acquired.
A reference position for the first image and the second image is set, and the reference position is set.
Based on the reference position, a slit image cut out from the first image and the second image is generated.
The first image and the second image are collated for each slit image.
It is a control method.

また、請求項に記載の発明は、
第1の計測において計測したデータに基づき生成された道路の画像である第1画像を取得し、
第2の計測において計測したデータに基づき生成された前記道路の画像である第2画像を取得し、
前記第1画像及び前記第2画像に対する基準位置を設定し、
前記基準位置に基づき、前記第1画像と前記第2画像とから切り取ったスリット画像を生成し、
前記第1画像と前記第2画像とを、前記スリット画像毎に照合する処理をコンピュータに実行させるプログラムである。
Further, the invention described in the claims is
The first image, which is an image of the road generated based on the data measured in the first measurement, is acquired.
The second image, which is an image of the road generated based on the data measured in the second measurement, is acquired.
A reference position for the first image and the second image is set, and the reference position is set.
Based on the reference position, a slit image cut out from the first image and the second image is generated.
This is a program that causes a computer to execute a process of collating the first image and the second image for each slit image.

変化点検出システムの概略構成である。This is a schematic configuration of the change point detection system. 変化点検出装置の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the change point detection device. 変化点検出に関する処理の手順を示すフローチャートの一例である。This is an example of a flowchart showing a procedure for processing related to change point detection. 変化点検出装置のコントローラの機能ブロック図を示す。The functional block diagram of the controller of the change point detection device is shown. 第1基準画像及び第1スリット画像を明示した第1オルソ画像の一例を示す。An example of a first ortho image clearly showing a first reference image and a first slit image is shown. 第2基準画像及び第2スリット画像を明示した第2オルソ画像の一例を示す。An example of the second ortho image which clearly shows the second reference image and the second slit image is shown. 第1変形例において変化点検出装置が実行するフローチャートの一例である。This is an example of a flowchart executed by the change point detection device in the first modification.

本発明の好適な実施形態によれば、情報処理装置は、第1の計測において計測したデータに基づき生成された道路の画像である第1画像を取得する第1画像取得手段と、第2の計測において計測したデータに基づき生成された前記道路の画像である第2画像を取得する第2画像取得手段と、前記第1画像及び前記第2画像に対する基準位置を設定する基準位置設定手段と、前記基準位置に基づき、前記第1画像と前記第2画像とから切り取ったスリット画像を生成するスリット画像生成手段と、前記第1画像と前記第2画像とを、前記スリット画像毎に照合するスリット画像照合手段と、を有する。この態様によれば、情報処理装置は、第1画像と第2画像とをスリット画像毎に照合し、第1の計測と第2の計測との間に生じた変化の有無を好適に検出することができる。なお、「第1の計測」及び「第2の計測」は夫々1回の計測に限らず、複数回の計測に相当してもよい。 According to a preferred embodiment of the present invention, the information processing apparatus includes a first image acquisition means for acquiring a first image, which is an image of a road generated based on the data measured in the first measurement, and a second image acquisition means. A second image acquisition means for acquiring a second image which is an image of the road generated based on the data measured in the measurement, a reference position setting means for setting a reference position for the first image and the second image, and a reference position setting means. A slit image generation means for generating a slit image cut from the first image and the second image based on the reference position, and a slit for collating the first image and the second image for each slit image. It has an image collation means. According to this aspect, the information processing apparatus collates the first image and the second image for each slit image, and preferably detects the presence or absence of a change occurring between the first measurement and the second measurement. be able to. The "first measurement" and the "second measurement" are not limited to one measurement, but may correspond to a plurality of measurements.

上記情報処理装置の一態様では、情報処理装置は、前記第1画像及び前記第2画像は、絶対座標と紐付かれた画像であり、前記基準位置設定手段は、絶対座標により表された前記基準位置を設定する。この態様により、情報処理装置は、第1画像と第2画像とを基準位置を基準として好適に位置合わせを行うことができる。 In one aspect of the information processing apparatus, the information processing apparatus is an image in which the first image and the second image are associated with absolute coordinates, and the reference position setting means is the reference represented by absolute coordinates. Set the position. According to this aspect, the information processing apparatus can suitably align the first image and the second image with reference to the reference position.

上記情報処理装置の他の一態様では、前記スリット画像生成手段は、前記基準位置を起点として前記道路に沿って前記第1画像と前記第2画像とから所定幅毎に切り取った前記スリット画像を順次生成し、前記スリット画像照合手段は、前記スリット画像生成手段が前記第1画像と前記第2画像とから切り取った前記スリット画像を順次照合する。この態様により、情報処理装置は、道路及び道路周辺の変化の有無をスリット画像毎に好適に検出することができる。 In another aspect of the information processing apparatus, the slit image generating means cuts the slit image from the first image and the second image along the road from the reference position by a predetermined width. Sequentially generated, the slit image collating means sequentially collates the slit image cut out from the first image and the second image by the slit image generating means. According to this aspect, the information processing apparatus can suitably detect the presence or absence of a change in the road and the vicinity of the road for each slit image.

上記情報処理装置の他の一態様では、前記スリット画像生成手段は、前記スリット画像照合手段による前記スリット画像の照合結果に基づき、前記第2画像から次に切り出す前記スリット画像の切り出しに関する位置と角度の少なくとも一方を変更する。この態様により、情報処理装置は、第1画像と第2画像とで同一の場所を表すスリット画像を好適に生成して高精度に照合を行うことができる。 In another aspect of the information processing apparatus, the slit image generating means has a position and an angle relating to cutting out the slit image next to be cut out from the second image based on the collation result of the slit image by the slit image matching means. Change at least one of them. According to this aspect, the information processing apparatus can suitably generate a slit image representing the same place in the first image and the second image and perform collation with high accuracy.

上記情報処理装置の他の一態様では、前記スリット画像照合手段は、前記スリット画像生成手段が前記第1画像と前記第2画像とから切り取った前記スリット画像の照合を順次実行する場合、直前の前記スリット画像の照合結果に基づき、次の前記スリット画像の照合を実行する。この態様によっても、情報処理装置は、スリット画像の照合結果を次のスリット画像の照合に用いて照合精度を好適に高めることができる。 In another aspect of the information processing apparatus, when the slit image collating means sequentially executes collation of the slit image cut from the first image and the second image, the slit image collating means immediately before Based on the collation result of the slit image, the next collation of the slit image is executed. Also in this aspect, the information processing apparatus can suitably improve the collation accuracy by using the collation result of the slit image for the collation of the next slit image.

上記情報処理装置の他の一態様では、情報処理装置は、前記スリット画像毎の照合結果に基づき、前記道路に関する変化点の候補の有無を判定する変化点候補判定手段をさらに有する。この態様により、情報処理装置は、照合したスリット画像毎に変化点の候補の有無を好適に判定することができる。 In another aspect of the information processing apparatus, the information processing apparatus further includes a change point candidate determining means for determining the presence or absence of a change point candidate for the road based on the collation result for each slit image. According to this aspect, the information processing apparatus can suitably determine the presence / absence of a candidate for a change point for each collated slit image.

上記情報処理装置の他の一態様では、前記変化点候補判定手段は、前記道路の区画線に関する変化点の候補の有無を判定する。好適な例では、前記変化点候補判定手段は、前記道路の実線または破線の区画線に関する変化点の候補の有無を判定し、前記スリット画像は、前記道路の車線毎の範囲もしくは左右の路肩を含む範囲に設定される。左右の路肩を含む範囲に設定する場合は、情報処理装置は、特徴が少ない実線の区画線を変化点の検出対象とする場合であっても、道路左右の路肩を含むスリット画像を生成することで、スリット画像同士の照合を好適に実行することができる。他の好適な例では、前記第1画像と前記第2画像は、計測された反射強度に基づき画素値が決定された画像である。これにより、情報処理装置は、反射強度が高い区画線の位置を的確に反映した第1画像及び第2画像を用い、区画線の変化の有無を検出するための照合を好適に実行することができる。 In another aspect of the information processing apparatus, the change point candidate determining means determines the presence or absence of a change point candidate with respect to the lane marking of the road. In a preferred example, the change point candidate determination means determines the presence or absence of a change point candidate for a solid line or a broken line of the road, and the slit image shows a range of each lane of the road or left and right shoulders. Set to include range. When setting the range to include the left and right shoulders, the information processing device should generate a slit image including the left and right shoulders of the road even when the solid line division line with few features is targeted for detection of the change point. Therefore, the collation between the slit images can be preferably performed. In another preferred example, the first image and the second image are images whose pixel values are determined based on the measured reflection intensity. As a result, the information processing apparatus can suitably perform collation for detecting the presence or absence of a change in the lane marking using the first image and the second image that accurately reflect the position of the lane marking with high reflection intensity. can.

上記情報処理装置の他の一態様では、情報処理装置は、前記基準位置を含む画像を前記第1画像と前記第2画像とから切り出した基準画像を生成する基準画像生成手段をさらに有し、前記スリット画像生成手段は、前記第1画像と前記第2画像とから切り出した基準画像の照合結果に基づき、前記スリット画像の切り出しに関する位置及び角度を決定する。この態様により、情報処理装置は、照合するスリット画像同士が一致した場所を表す画像となるように、スリット画像の切り出しに関する位置と角度を好適に決定することができる。 In another aspect of the information processing apparatus, the information processing apparatus further includes a reference image generation means for generating a reference image obtained by cutting out an image including the reference position from the first image and the second image. The slit image generation means determines a position and an angle related to cutting out the slit image based on a collation result of a reference image cut out from the first image and the second image. According to this aspect, the information processing apparatus can suitably determine the position and angle regarding the cutting out of the slit image so that the image represents the place where the slit images to be collated match each other.

上記情報処理装置の他の一態様では、前記第1画像と前記第2画像の少なくとも一方は、前記道路に対する複数回の走行により計測したデータを結合した画像である。このような情報処理装置は、計測時の道路の混雑状況等によるオクルージョンの影響を受けない第1画像及び第2画像を用いて、第1の計測と第2の計測との間に生じた変化の有無を高精度に検出することができる。 In another aspect of the information processing apparatus, at least one of the first image and the second image is an image in which data measured by traveling on the road a plurality of times is combined. Such an information processing device uses a first image and a second image that are not affected by occlusion due to road congestion at the time of measurement, and changes occur between the first measurement and the second measurement. The presence or absence of is can be detected with high accuracy.

上記情報処理装置の他の一態様では、前記第1画像と前記第2画像は、前記道路を少なくとも含むオルソ画像である。この場合、第1画像と第2画像は、対象となる道路を俯瞰視した画像となる。これにより、情報処理装置は、第1の計測と第2の計測との間に生じた道路の変化の有無を好適に検出することができる。 In another aspect of the information processing apparatus, the first image and the second image are ortho images including at least the road. In this case, the first image and the second image are images that give a bird's-eye view of the target road. As a result, the information processing apparatus can suitably detect the presence or absence of a change in the road between the first measurement and the second measurement.

本発明の他の好適な実施形態によれば、コンピュータが実行する制御方法であって、第1の計測において計測したデータに基づき生成された道路の画像である第1画像を取得し、第2の計測において計測したデータに基づき生成された前記道路の画像である第2画像を取得し、前記第1画像及び前記第2画像に対する基準位置を設定し、前記基準位置に基づき、前記第1画像と前記第2画像とから切り取ったスリット画像を生成し、前記第1画像と前記第2画像とを、前記スリット画像毎に照合する。コンピュータは、この制御方法を実行することで、第1の計測と第2の計測との間に生じた変化の有無を好適に検出することができる。 According to another preferred embodiment of the present invention, a control method executed by a computer is obtained by acquiring a first image, which is an image of a road generated based on the data measured in the first measurement, and a second image. The second image, which is an image of the road generated based on the data measured in the measurement of, is acquired, the reference position for the first image and the second image is set, and the first image is based on the reference position. And the second image are cut out to generate a slit image, and the first image and the second image are collated for each slit image. By executing this control method, the computer can suitably detect the presence or absence of a change occurring between the first measurement and the second measurement.

本発明の他の好適な実施形態によれば、プログラムは、第1の計測において計測したデータに基づき生成された道路の画像である第1画像を取得し、第2の計測において計測したデータに基づき生成された前記道路の画像である第2画像を取得し、前記第1画像及び前記第2画像に対する基準位置を設定し、前記基準位置に基づき、前記第1画像と前記第2画像とから切り取ったスリット画像を生成し、前記第1画像と前記第2画像とを、前記スリット画像毎に照合する処理をコンピュータに実行させる。コンピュータは、このプログラムを実行することで、第1の計測と第2の計測との間に生じた変化の有無を好適に検出することができる。好適には、上記プログラムは、記憶媒体に記憶される。 According to another preferred embodiment of the present invention, the program acquires a first image, which is an image of the road generated based on the data measured in the first measurement, and uses the data measured in the second measurement. A second image, which is an image of the road generated based on the above, is acquired, a reference position for the first image and the second image is set, and based on the reference position, the first image and the second image are used. A clipped slit image is generated, and a computer is made to execute a process of collating the first image and the second image for each slit image. By executing this program, the computer can suitably detect the presence or absence of a change that has occurred between the first measurement and the second measurement. Preferably, the program is stored in a storage medium.

以下、図面を参照して本発明の好適な実施例について説明する。 Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.

<第1実施例>
(1)システム概要
図1は、第1実施例に係る変化点検出システムの概略構成図である。図1に示す変化点検出システムは、道路を走行する計測車両が生成した計測データに基づき道路上の白線(区画線)の時系列的な変化が生じた点(変化点)を検出するシステムであり、主に、計測車両と、変化点検出装置4とを有する。
<First Example>
(1) System overview
FIG. 1 is a schematic configuration diagram of a change point detection system according to the first embodiment. The change point detection system shown in FIG. 1 is a system that detects a point (change point) where a time-series change of a white line (section line) on a road occurs based on measurement data generated by a measurement vehicle traveling on the road. Yes, it mainly has a measuring vehicle and a change point detecting device 4.

計測車両は、道路を走行することで、走行した道路及びその周辺の環境を計測した計測データを生成する。計測車両は、複数台存在してもよい。計測車両は、主に、車載機1と、外界センサ2と、測位用センサユニット3とを有する。 By traveling on a road, the measurement vehicle generates measurement data that measures the environment on the road and its surroundings. There may be a plurality of measurement vehicles. The measurement vehicle mainly includes an on-board unit 1, an outside world sensor 2, and a positioning sensor unit 3.

外界センサ2は、計測車両周辺の環境の計測(センシング)を行う1または複数のセンサである。外界センサ2は、例えば、ライダ(Lidar:Light Detection and Ranging、または、Laser Illuminated Detection And Ranging)、カメラ又はその両方である。外界センサ2がライダを含む場合、水平方向および垂直方向の所定の角度範囲に対してパルスレーザを出射することで、外界に存在する物体までの距離を離散的に測定し、当該物体の3次元位置及び照射強度を表す各計測点から構成される点群データを生成する。また、外界センサ2がカメラを含む場合、車両からの風景を撮影した画像を生成する。外界センサ2の出力データには、計測日時(生成日時)を示す日時データが付加される。外界センサ2は、計測車両の任意の位置に設けられてもよく、計測車両に複数設けられてもよい。 The outside world sensor 2 is one or a plurality of sensors that measure (sensing) the environment around the measurement vehicle. The external sensor 2 is, for example, a lidar (Lidar: Light Detection and Ringing, or a Laser Illuminated Detection And Ringing), a camera, or both. When the outside world sensor 2 includes a rider, the distance to an object existing in the outside world is measured discretely by emitting a pulse laser with respect to a predetermined angle range in the horizontal direction and the vertical direction, and the object is three-dimensional. Generate point group data consisting of each measurement point representing the position and irradiation intensity. Further, when the outside world sensor 2 includes a camera, an image of a landscape taken from the vehicle is generated. Date and time data indicating the measurement date and time (generation date and time) is added to the output data of the outside world sensor 2. The external world sensor 2 may be provided at an arbitrary position on the measuring vehicle, or may be provided in a plurality on the measuring vehicle.

測位用センサユニット3は、外界センサ2の時系列の位置及び向き(進行方向)を表す移動情報を生成するセンサ群である。測位用センサユニット3は、例えば、GPS受信機、加速度センサ、ジャイロセンサ、IMU(Inertial Measurement Unit)などのセンサを含んでいる。上記のGPS受信機は、RTK測位方式(即ち干渉測位方式)に基づき計測車両の絶対的な位置(例えば緯度、経度、及び高度の3次元位置)を示す高精度な位置情報を生成するものであってもよい。なお、測位用センサユニット3は、外界センサ2の位置及び向きを直接検出するように外界センサ2に設けられたセンサであってもよい。 The positioning sensor unit 3 is a group of sensors that generate movement information indicating the time-series position and orientation (traveling direction) of the external world sensor 2. The positioning sensor unit 3 includes, for example, a sensor such as a GPS receiver, an acceleration sensor, a gyro sensor, and an IMU (Inertial Measurement Unit). The above GPS receiver generates highly accurate position information indicating the absolute position of the measuring vehicle (for example, the three-dimensional position of latitude, longitude, and altitude) based on the RTK positioning method (that is, the interference positioning method). There may be. The positioning sensor unit 3 may be a sensor provided in the outside world sensor 2 so as to directly detect the position and orientation of the outside world sensor 2.

車載機1は、外界センサ2及び測位用センサユニット3と有線又は無線により電気的に接続し、外界センサ2及び測位用センサユニット3が生成したデータを記憶する。また、車載機1は、変化点検出装置4とデータ通信可能であって、外界センサ2及び測位用センサユニット3の出力データに基づく計測データ「D1」を、変化点検出装置4に送信する。具体的には、車載機1は、外界センサ2が複数の位置において計測したデータと、測位用センサユニット3の出力に基づく外界センサ2の移動情報とを含む計測データD1を、変化点検出装置4に送信する。車載機1は、測位用センサユニット3と共にドライブレコーダーとして構成されてもよい。 The on-board unit 1 is electrically connected to the outside world sensor 2 and the positioning sensor unit 3 by wire or wirelessly, and stores the data generated by the outside world sensor 2 and the positioning sensor unit 3. Further, the vehicle-mounted device 1 is capable of data communication with the change point detection device 4, and transmits measurement data "D1" based on the output data of the external world sensor 2 and the positioning sensor unit 3 to the change point detection device 4. Specifically, the on-board unit 1 is a change point detection device for measurement data D1 including data measured by the external sensor 2 at a plurality of positions and movement information of the external sensor 2 based on the output of the positioning sensor unit 3. Send to 4. The on-board unit 1 may be configured as a drive recorder together with the positioning sensor unit 3.

なお、車載機1は、外界センサ2及び測位用センサユニット3の出力するデータを適宜補正する処理を行ってもよい。例えば、車載機1は、外界センサ2と測位用センサユニット3の各装置内で基準とする時刻の差を検出し、外界センサ2の出力データと移動情報に夫々含まれる日時データが同期するようにこれら日時データの少なくとも一方を上記の時刻差に基づき補正してもよい。 The on-board unit 1 may perform a process of appropriately correcting the data output by the external sensor 2 and the positioning sensor unit 3. For example, the in-vehicle device 1 detects the difference in the reference time in each device of the external world sensor 2 and the positioning sensor unit 3, so that the output data of the external world sensor 2 and the date and time data included in the movement information are synchronized with each other. At least one of these date and time data may be corrected based on the above time difference.

変化点検出装置4は、外界センサ2の出力データと外界センサ2の移動情報とを含む計測データD1を車載機1から受信し、受信した計測データD1に基づき、変化点を検出する処理を行う。変化点検出装置4は、「情報処理装置」の一例である。 The change point detection device 4 receives the measurement data D1 including the output data of the outside world sensor 2 and the movement information of the outside world sensor 2 from the vehicle-mounted device 1, and performs a process of detecting the change point based on the received measurement data D1. .. The change point detection device 4 is an example of an “information processing device”.

なお、図1に示す変化点検出システムの構成は一例であり、図1に示す構成に対して種々の変形を行ってもよい。例えば、変化点検出装置4は、車載機1とのデータ通信により計測データD1を取得する代わりに、車載機1が記憶媒体に記憶した計測データD1を当該記憶媒体から読み出すことで計測データD1を取得してもよい。この場合、上記の記憶媒体は、計測車両の計測時には車載機1に電気的に接続されることにより、車載機1による計測データD1の書込みが行われる。また、計測車両での計測後、上記の記憶媒体は、変化点検出装置4と電気的に接続されることにより、変化点検出装置4による計測データD1の読み出しが行われる。また、外界センサ2及び測位用センサユニット3が夫々単独で記憶媒体に生成したログデータを保持し、その記憶媒体を変化点検出装置4に読み込ませることで、変化点検出装置4への計測データD1の供給を行ってもよい。この場合、変化点検出システムは、車載機1を有しなくともよい。また、変化点検出装置4は、複数の装置から構成されてもよい。この場合、変化点検出装置4は、複数の装置は、予め割り当てられた処理を実行し、かつ、互いに必要なデータの授受を装置間において行う。 The configuration of the change point detection system shown in FIG. 1 is an example, and various modifications may be made to the configuration shown in FIG. For example, the change point detection device 4 obtains the measurement data D1 by reading the measurement data D1 stored in the storage medium by the vehicle-mounted device 1 from the storage medium, instead of acquiring the measurement data D1 by data communication with the vehicle-mounted device 1. You may get it. In this case, the storage medium is electrically connected to the vehicle-mounted device 1 at the time of measurement of the measuring vehicle, so that the measurement data D1 is written by the vehicle-mounted device 1. Further, after the measurement in the measurement vehicle, the storage medium is electrically connected to the change point detection device 4, so that the change point detection device 4 reads out the measurement data D1. Further, the external world sensor 2 and the positioning sensor unit 3 independently hold the log data generated in the storage medium, and the storage medium is read into the change point detection device 4, so that the measurement data to the change point detection device 4 is obtained. D1 may be supplied. In this case, the change point detection system does not have to have the on-board unit 1. Further, the change point detection device 4 may be composed of a plurality of devices. In this case, in the change point detection device 4, the plurality of devices execute pre-assigned processes, and exchange necessary data between the devices.

(2)変化点検出装置の構成
図2は、変化点検出装置4の機能的構成を示すブロック図である。変化点検出装置4は、インターフェース41と、メモリ42と、コントローラ43と、を有する。これらの各要素は、バスラインを介して相互に接続されている。
(2) Configuration of change point detection device
FIG. 2 is a block diagram showing a functional configuration of the change point detection device 4. The change point detecting device 4 has an interface 41, a memory 42, and a controller 43. Each of these elements is interconnected via a bus line.

インターフェース41は、変化点検出装置4と外部装置とのデータの授受に関するインターフェース動作を行う。本実施例では、インターフェース41は、車載機1が生成した計測データD1を受信する。インターフェース41は、車載機1と無線通信を行うためのネットワークアダプタなどのワイヤレスインターフェースであってもよく、計測データD1を記憶した記憶媒体等から計測データD1を読み出すためのハードウェアインターフェースであってもよい。また、インターフェース41は、入力装置、表示装置、音出力装置等の種々の周辺装置とのインターフェース動作を行ってもよい。 The interface 41 performs an interface operation relating to data transfer between the change point detection device 4 and the external device. In this embodiment, the interface 41 receives the measurement data D1 generated by the vehicle-mounted device 1. The interface 41 may be a wireless interface such as a network adapter for wireless communication with the in-vehicle device 1, or may be a hardware interface for reading the measurement data D1 from a storage medium or the like that stores the measurement data D1. good. Further, the interface 41 may perform an interface operation with various peripheral devices such as an input device, a display device, and a sound output device.

メモリ42は、RAM(Random Access Memory)、ROM(Read Only Memory)、ハードディスクドライブ、フラッシュメモリなどの各種の揮発性メモリ及び不揮発性メモリにより構成される。メモリ42は、コントローラ43が所定の処理を実行するためのプログラムが記憶される。なお、コントローラ43が実行するプログラムは、メモリ42以外の記憶媒体に記憶されてもよい。 The memory 42 is composed of various volatile memories such as a RAM (Random Access Memory), a ROM (Read Only Memory), a hard disk drive, and a flash memory, and a non-volatile memory. The memory 42 stores a program for the controller 43 to execute a predetermined process. The program executed by the controller 43 may be stored in a storage medium other than the memory 42.

また、メモリ42は、計測データD1と、第1オルソ画像D21と、第2オルソ画像D22と、変化点候補情報D3とを記憶している。 Further, the memory 42 stores the measurement data D1, the first ortho image D21, the second ortho image D22, and the change point candidate information D3.

計測データD1は、車載機1から変化点検出装置4が受信した計測データD1である。第1オルソ画像D21は、変化点を検出する対象となる道路(「対象道路」とも呼ぶ。)に対する第1の計測により生成された計測データD1に基づく対象道路のオルソ画像である。「第1の計測」は、変化前の基準となるリファレンス用の対象道路のデータを生成するための計測であり、例えば、計測車両の1回目の対象道路の走行での計測に相当する。第1オルソ画像D21には、絶対位置に関する情報(「絶対位置情報」とも呼ぶ。)が紐付けられている。この絶対位置情報は、例えば、オルソ画像の生成に使用した外界センサ2の出力データに対応する外界センサ2の移動情報に基づき生成される。 The measurement data D1 is the measurement data D1 received by the change point detection device 4 from the vehicle-mounted device 1. The first ortho image D21 is an ortho image of the target road based on the measurement data D1 generated by the first measurement for the road (also referred to as “target road”) for which the change point is detected. The "first measurement" is a measurement for generating data of a reference target road as a reference before the change, and corresponds to, for example, a measurement in the first travel of the target road of the measurement vehicle. Information about an absolute position (also referred to as "absolute position information") is associated with the first ortho image D21. This absolute position information is generated, for example, based on the movement information of the outside world sensor 2 corresponding to the output data of the outside world sensor 2 used to generate the ortho image.

第2オルソ画像D22は、対象道路に対する第2の計測において生成された対象道路及びその周辺のオルソ画像である。「第2の計測」は、第1の計測からの対象道路の変化の有無を判定するための計測であり、例えば、計測車両の2回目の対象道路の走行での計測に相当する。第2オルソ画像D22には、絶対位置情報が紐付けられている。 The second ortho image D22 is an ortho image of the target road and its surroundings generated in the second measurement for the target road. The "second measurement" is a measurement for determining whether or not there is a change in the target road from the first measurement, and corresponds to, for example, the measurement in the second travel of the target road of the measurement vehicle. Absolute position information is associated with the second ortho image D22.

なお、第1オルソ画像D21の生成に使用する計測データD1と、第2オルソ画像D22の生成に使用する計測データD1とは、異なる計測車両により生成されたデータであってもよい。また、第1オルソ画像D21及び第2オルソ画像D22は、道路毎に生成された画像であってもよく、1つの道路に対して複数生成される画像であってもよく、複数の道路を表す画像であってもよい。第1オルソ画像D21及び第2オルソ画像D22は、「第1画像」及び「第2画像」の一例である。 The measurement data D1 used to generate the first ortho image D21 and the measurement data D1 used to generate the second ortho image D22 may be data generated by different measurement vehicles. Further, the first ortho image D21 and the second ortho image D22 may be images generated for each road, or may be a plurality of images generated for one road, and represent a plurality of roads. It may be an image. The first ortho image D21 and the second ortho image D22 are examples of the "first image" and the "second image".

変化点候補情報D3は、第1オルソ画像D21と第2オルソ画像D22とに基づき検出した変化点の候補を表す情報である。 The change point candidate information D3 is information representing the candidate of the change point detected based on the first ortho image D21 and the second ortho image D22.

ここで、オルソ画像の生成について補足説明する。変化点検出装置4は、計測データD1に含まれる外界センサ2の出力データと、外界センサ2の移動情報が示す外界センサ2の計測時の位置及び向き(計測方向)とに基づき、対象の道路区間周辺の3次元モデルを生成する。そして、変化点検出装置4は、生成した3次元モデルに対して正射変換を行うことで、オルソ画像を生成する。そして、変化点検出装置4は、生成したオルソ画像を、外界センサ2の移動情報に基づく絶対位置情報と関連付ける。この場合、第1の計測において得られた計測データD1に基づき第1オルソ画像D21が生成され、第2の計測において得られた計測データD1に基づき第2オルソ画像D22が生成される。 Here, the generation of the ortho image will be supplementarily described. The change point detection device 4 is based on the output data of the external world sensor 2 included in the measurement data D1 and the position and direction (measurement direction) of the external world sensor 2 at the time of measurement indicated by the movement information of the external world sensor 2, and the target road. Generate a 3D model around the section. Then, the change point detection device 4 generates an ortho image by performing orthophoto conversion on the generated three-dimensional model. Then, the change point detection device 4 associates the generated ortho image with the absolute position information based on the movement information of the external world sensor 2. In this case, the first ortho image D21 is generated based on the measurement data D1 obtained in the first measurement, and the second ortho image D22 is generated based on the measurement data D1 obtained in the second measurement.

ここで、外界センサ2がライダである場合には、ライダが出力する3次元計測点群を2次元画像にしたオルソ画像を生成する。この場合、生成されるオルソ画像の画素は、反射強度の値を有してもよく、Z座標値(即ち画素に対応する計測点が示す高度の情報)を有してもよく、これらの両方の値を有してもよい。また、オルソ画像は、カメラとライダの出力データの組み合わせにより生成されてもよい。例えば、この場合、ライダとカメラを同期させて、ライダの照射範囲外の部分をカメラの出力データにより補間したオルソ画像、又は、カメラの撮影範囲外の部分をライダの出力データにより補間したオルソ画像を生成してもよい。 Here, when the external sensor 2 is a rider, an ortho image in which the three-dimensional measurement point cloud output by the rider is made into a two-dimensional image is generated. In this case, the pixels of the generated ortho image may have a reflection intensity value, a Z coordinate value (ie, altitude information indicated by the measurement point corresponding to the pixel), or both. May have a value of. Further, the ortho image may be generated by a combination of output data of the camera and the rider. For example, in this case, an ortho image in which the lidar and the camera are synchronized and the portion outside the irradiation range of the lidar is interpolated by the output data of the camera, or the ortho image in which the portion outside the shooting range of the camera is interpolated by the output data of the lidar. May be generated.

なお、計測データD1、第1オルソ画像D21、第2オルソ画像D22、変化点候補情報D3の少なくとも1つは、インターフェース41を介して変化点検出装置4と接続されたハードディスクなどの変化点検出装置4の外部の記憶装置に記憶されてもよい。上記の記憶装置は、変化点検出装置4と通信を行うサーバ装置であってもよい。また、上記の記憶装置は、複数の装置から構成されてもよい。また、第1オルソ画像D21及び第2オルソ画像D22は、変化点検出装置4以外の装置により生成された後、メモリ42に記憶されてもよい。 At least one of the measurement data D1, the first ortho image D21, the second ortho image D22, and the change point candidate information D3 is a change point detection device such as a hard disk connected to the change point detection device 4 via the interface 41. It may be stored in the external storage device of 4. The above storage device may be a server device that communicates with the change point detection device 4. Further, the above-mentioned storage device may be composed of a plurality of devices. Further, the first ortho image D21 and the second ortho image D22 may be stored in the memory 42 after being generated by a device other than the change point detecting device 4.

コントローラ43は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、TPU(Tensor Processing Unit)などの1又は複数のプロセッサを含み、変化点検出装置4の全体を制御する。この場合、コントローラ43は、メモリ42等に記憶されたプログラムを実行することで、区画線の変化点検出に関する処理を行う。例えば、コントローラ43は、車載機1からインターフェース41を介して受信した計測データD1に基づき、第1オルソ画像D21及び第2オルソ画像D22を生成し、これらをメモリ42に記憶する。また、コントローラ43は、第1オルソ画像D21及び第2オルソ画像D22に基づき、変化点候補情報D3の生成及びメモリ42への記憶を行う。コントローラ43は、「第1画像取得手段」、「第2画像取得手段」、「基準位置設定手段」、「基準画像生成手段」、「スリット画像生成手段」、「スリット画像照合手段」及びプログラムを実行するコンピュータ等として機能する。 The controller 43 includes one or a plurality of processors such as a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and a TPU (Tensor Processing Unit), and controls the entire change point detection device 4. In this case, the controller 43 executes a program stored in the memory 42 or the like to perform processing related to detection of the change point of the lane marking. For example, the controller 43 generates the first ortho image D21 and the second ortho image D22 based on the measurement data D1 received from the vehicle-mounted device 1 via the interface 41, and stores these in the memory 42. Further, the controller 43 generates the change point candidate information D3 and stores it in the memory 42 based on the first ortho image D21 and the second ortho image D22. The controller 43 includes a "first image acquisition means", a "second image acquisition means", a "reference position setting means", a "reference image generation means", a "slit image generation means", a "slit image matching means", and a program. It functions as a computer to execute.

なお、コントローラ43が実行する処理は、プログラムによるソフトウェアで実現することに限ることなく、ハードウェア、ファームウェア、及びソフトウェアのうちのいずれかの組み合わせ等により実現してもよい。また、コントローラ43が実行する処理は、例えばFPGA(Field-Programmable Gate Array)又はマイコン等の、ユーザがプログラミング可能な集積回路を用いて実現してもよい。この場合、この集積回路を用いて、コントローラ43が本実施例において実行するプログラムを実現してもよい。このように、コントローラ43は、種々のハードウェアにより実現されてもよい。さらに、コントローラ43が有する機能は,例えば,クラウドコンピューティング技術などを用いて、複数のコンピュータの協働によって実現されてもよい。 The process executed by the controller 43 is not limited to being realized by software by a program, and may be realized by any combination of hardware, firmware, and software. Further, the process executed by the controller 43 may be realized by using a user-programmable integrated circuit such as an FPGA (Field-Programmable Gate Array) or a microcomputer. In this case, the integrated circuit may be used to realize the program executed by the controller 43 in this embodiment. As described above, the controller 43 may be realized by various hardware. Further, the function of the controller 43 may be realized by the collaboration of a plurality of computers by using, for example, cloud computing technology.

(3)変化点検出
次に、変化点検出装置4が実行する区画線の変化点検出について説明する。概略的には、変化点検出装置4は、第1オルソ画像D21と第2オルソ画像D22とを所定の特徴物等を基準として位置合わせを行った後、これらの画像のスリット画像同士を比較することで、変化点の候補を検出する。これにより、変化点検出装置4は、絶対的な精度を有するリファレンス画像を必要とすることなく、低コストにより変化点の候補を検出し、かつ、比較範囲を狭めて高精度に変化点の候補を検出する。
(3) Change point detection
Next, the change point detection of the lane marking executed by the change point detection device 4 will be described. Generally, the change point detecting device 4 aligns the first ortho image D21 and the second ortho image D22 with reference to a predetermined feature or the like, and then compares the slit images of these images with each other. By doing so, the candidate of the change point is detected. As a result, the change point detection device 4 detects the change point candidate at low cost without requiring a reference image having absolute accuracy, and narrows the comparison range to provide the change point candidate with high accuracy. Is detected.

(3-1)処理フロー
図3は、変化点検出装置4が実行する変化点検出に関する処理の手順を示すフローチャートの一例である。
(3-1) Processing Flow FIG. 3 is an example of a flowchart showing a procedure for processing related to change point detection executed by the change point detection device 4.

まず、変化点検出装置4は、比較対象となる第1オルソ画像D21及び第2オルソ画像D22を取得する(ステップS10)。この場合、変化点検出装置4は、区画線の変化点を検出する対象道路を表す第1オルソ画像D21及び第2オルソ画像D22を、第1オルソ画像D21及び第2オルソ画像D22に夫々紐付けられた絶対位置情報に基づき取得する。 First, the change point detection device 4 acquires the first ortho image D21 and the second ortho image D22 to be compared (step S10). In this case, the change point detection device 4 associates the first ortho image D21 and the second ortho image D22 representing the target road for detecting the change point of the lane marking with the first ortho image D21 and the second ortho image D22, respectively. Obtained based on the absolute position information obtained.

次に、変化点検出装置4は、ステップS10で取得した第1オルソ画像D21を対象とし、ステップS10で取得した第1オルソ画像D21と第2オルソ画像D22の位置合わせの基準となる位置(「基準位置Ps」とも呼ぶ。)の探索を行う(ステップS11)。基準位置Psは、例えば、対象道路周辺に存在する標識、看板、郵便ポストなどの特徴物の位置であって、絶対座標(ワールド座標)により表される。 Next, the change point detection device 4 targets the first ortho image D21 acquired in step S10, and serves as a reference for alignment between the first ortho image D21 and the second ortho image D22 acquired in step S10 (““ Also referred to as "reference position Ps") (step S11). The reference position Ps is, for example, the position of a feature such as a signboard, a signboard, or a mailbox existing around the target road, and is represented by absolute coordinates (world coordinates).

次に、変化点検出装置4は、ステップS10で取得した第1オルソ画像D21及び第2オルソ画像D22から、基準位置Psを含む画像(「基準画像」とも呼ぶ。)を切り出す。基準画像を切り出す範囲は、例えば、基準位置Psと対象道路の幅方向の両端とを含み、かつ、対象道路に沿って所定幅分の矩形領域となるように定められる。以後では、第1オルソ画像D21から切り出した基準画像を「第1基準画像」と呼び、第2オルソ画像D22から切り出した基準画像を「第2基準画像」とも呼ぶ。 Next, the change point detection device 4 cuts out an image (also referred to as a “reference image”) including the reference position Ps from the first ortho image D21 and the second ortho image D22 acquired in step S10. The range for cutting out the reference image is defined so as to include, for example, the reference position Ps and both ends in the width direction of the target road, and to be a rectangular area having a predetermined width along the target road. Hereinafter, the reference image cut out from the first ortho image D21 is referred to as a “first reference image”, and the reference image cut out from the second ortho image D22 is also referred to as a “second reference image”.

次に、変化点検出装置4は、第1基準画像と第2基準画像とのマッチング(照合)を行う(ステップS13)。この場合、任意のマッチング手法を用いて、少なくとも基準位置Psが一致するように第1基準画像と第2基準画像とのマッチングを行い、第1基準画像と第2基準画像との差分位置(必要な並進移動)及び差分角度(必要な回転角度)を算出する。この場合、例えば、変化点検出装置4は、第1基準画像と第2基準画像の少なくとも一方を移動させて基準位置Psが一致するような差分位置を算出する。また、変化点検出装置4は、第1基準画像と第2基準画像とを相対的に回転させながら相関度などのマッチングの度合いを表す指標値(マッチ度)を算出した場合に、マッチ度が最も高くなる回転角度を、差分角度として算出する。この場合、変化点検出装置4は、ニュートン法などの任意の求根アルゴリズムを用いて上述の回転角度(差分角度)を算出してもよい。 Next, the change point detection device 4 performs matching (collation) between the first reference image and the second reference image (step S13). In this case, using an arbitrary matching method, matching is performed between the first reference image and the second reference image so that at least the reference positions Ps match, and the difference position between the first reference image and the second reference image (necessary). Translational movement) and difference angle (required rotation angle) are calculated. In this case, for example, the change point detection device 4 moves at least one of the first reference image and the second reference image to calculate a difference position such that the reference positions Ps match. Further, when the change point detection device 4 calculates an index value (match degree) indicating the degree of matching such as the degree of correlation while relatively rotating the first reference image and the second reference image, the degree of match is calculated. The highest rotation angle is calculated as the difference angle. In this case, the change point detection device 4 may calculate the above-mentioned rotation angle (difference angle) by using an arbitrary root-finding algorithm such as Newton's method.

次に、変化点検出装置4は、基準画像を基準とし、第1オルソ画像D21及び第2オルソ画像D22に対してスリット状(短冊状)に切り出した画像(「スリット画像」とも呼ぶ。)を生成する(ステップS14)。この場合、変化点検出装置4は、直前に切り出された基準画像又はスリット画像を基準として、対象道路に沿って所定幅分の矩形領域を第1オルソ画像D21及び第2オルソ画像D22から切り出したスリット画像を生成する。このように、変化点検出装置4は、基準画像を基準として、道路が延びる方向に沿って所定幅毎に第1オルソ画像D21及び第2オルソ画像D22に順次スリットを入れてスリット画像を生成する。 Next, the change point detecting device 4 uses the reference image as a reference, and cuts out an image (also referred to as a “slit image”) in a slit shape (strip shape) with respect to the first ortho image D21 and the second ortho image D22. Generate (step S14). In this case, the change point detecting device 4 cuts out a rectangular area having a predetermined width from the first ortho image D21 and the second ortho image D22 along the target road with reference to the reference image or the slit image cut out immediately before. Generate a slit image. As described above, the change point detecting device 4 sequentially inserts slits in the first ortho image D21 and the second ortho image D22 at predetermined widths along the direction in which the road extends with the reference image as a reference to generate a slit image. ..

以後では、第1オルソ画像D21から切り出したスリット画像を「第1スリット画像」と呼び、第2オルソ画像D22から切り出したスリット画像を「第2スリット画像」と呼ぶ。 Hereinafter, the slit image cut out from the first ortho image D21 is referred to as a “first slit image”, and the slit image cut out from the second ortho image D22 is referred to as a “second slit image”.

次に、変化点検出装置4は、ステップS14で生成した第1スリット画像と第2スリット画像のマッチング(照合)を行う(ステップS15)。この場合、任意のマッチング手法を用いて、第1スリット画像と第2スリット画像とのマッチングを行い、マッチングの度合いを示すマッチ度を算出する。この場合、例えば、変化点検出装置4は、第1スリット画像と第2スリット画像の少なくとも一方の位置の移動及び回転を行いながらマッチ度を算出した場合に、マッチ度が最も高くなる差分位置及び差分角度の組み合わせを、任意の球根アルゴリズムを用いて算出する。 Next, the change point detection device 4 performs matching (collation) between the first slit image generated in step S14 and the second slit image (step S15). In this case, the first slit image and the second slit image are matched by using an arbitrary matching method, and the matching degree indicating the degree of matching is calculated. In this case, for example, when the change point detecting device 4 calculates the matching degree while moving and rotating at least one position of the first slit image and the second slit image, the difference position and the difference position where the matching degree becomes the highest are calculated. The combination of difference angles is calculated using an arbitrary root-finding algorithm.

そして、変化点検出装置4は、第1スリット画像と第2スリット画像とがマッチしたか否か判定する(ステップS16)。例えば、変化点検出装置4は、ステップS15のマッチング処理で得られた最も高いマッチ度が所定の閾値より大きい場合、第1スリット画像と第2スリット画像とがマッチしたと判定する。一方、変化点検出装置4は、上述のマッチ度が上述の閾値以下である場合、第1スリット画像と第2スリット画像とがマッチしなかったと判定する。上述の閾値は、例えばメモリ42等に予め記憶されている。 Then, the change point detection device 4 determines whether or not the first slit image and the second slit image match (step S16). For example, when the highest degree of matching obtained by the matching process in step S15 is larger than a predetermined threshold value, the change point detecting device 4 determines that the first slit image and the second slit image match. On the other hand, when the above-mentioned degree of matching is equal to or less than the above-mentioned threshold value, the change point detecting device 4 determines that the first slit image and the second slit image do not match. The above-mentioned threshold value is stored in advance in, for example, a memory 42 or the like.

そして、変化点検出装置4は、第1スリット画像と第2スリット画像とがマッチしたと判定した場合(ステップS16;Yes)、マッチ度が最も高くなる差分位置及び差分角度を記憶する(ステップS17)。ステップS17で記憶した差分位置及び差分角度は、後述するように、ステップS14で行われる次のスリット画像の切り出し位置の決定に用いられてもよく、次に切り出されたスリット画像に対するステップS15のマッチング処理において用いられてもよい。 Then, when it is determined that the first slit image and the second slit image match (step S16; Yes), the change point detecting device 4 stores the difference position and the difference angle at which the degree of matching is the highest (step S17). ). As will be described later, the difference position and the difference angle stored in step S17 may be used to determine the cutout position of the next slit image performed in step S14, and the matching of the next cut out slit image in step S15. It may be used in the process.

ステップS17の実行後、変化点検出装置4は、ステップS14へ処理を戻し、次のスリット画像の生成をステップS14において行う。なお、変化点検出装置4は、ステップS14のスリット画像の生成において、生成したスリット画像が次の基準位置を含む場合、又は、スリット画像を切り出す範囲が第1オルソ画像D21及び第2オルソ画像D22に存在しない(第1オルソ画像D21及び第2オルソ画像D22において見切れている)場合、フローチャートの処理を終了する。この場合、変化点検出装置4は、新たな基準位置又は新たな第1オルソ画像D21及び第2オルソ画像D22を対象としてフローチャートを実行する。 After the execution of step S17, the change point detection device 4 returns the process to step S14, and generates the next slit image in step S14. In the generation of the slit image in step S14, the change point detection device 4 indicates that the generated slit image includes the next reference position, or the range for cutting out the slit image is the first ortho image D21 and the second ortho image D22. If it does not exist in (it is cut off in the first ortho image D21 and the second ortho image D22), the processing of the flowchart ends. In this case, the change point detection device 4 executes the flowchart for the new reference position or the new first ortho image D21 and the second ortho image D22.

一方、変化点検出装置4は、第1スリット画像と第2スリット画像とがマッチしないと判定した場合(ステップS16;No)、変化点候補情報D3を生成する(ステップS18)。この場合、変化点検出装置4は、第1スリット画像とマッチしなかった第2スリット画像が表す道路部分に変化点が発生した可能性があると判定し、対象の第1スリット画像及び第2スリット画像を、変化点候補情報D3としてメモリ42に記憶する。 On the other hand, when the change point detection device 4 determines that the first slit image and the second slit image do not match (step S16; No), the change point candidate information D3 is generated (step S18). In this case, the change point detection device 4 determines that a change point may have occurred in the road portion represented by the second slit image that did not match the first slit image, and determines that the change point may have occurred in the target first slit image and the second slit image. The slit image is stored in the memory 42 as the change point candidate information D3.

(3-2)機能ブロック
図4は、変化点検出装置4のコントローラ43の機能ブロックの一例を示す。コントローラ43は、機能的には、基準位置設定部51と、第1基準画像生成部52A及び第2基準画像生成部52Bと、基準画像照合部53と、第1スリット画像生成部54A及び第2スリット画像生成部54Bと、スリット画像照合部55と、変化点候補判定部56とを有する。以後では、第1基準画像生成部52A及び第2基準画像生成部52Bを区別しない場合にはこれらを単に「基準画像生成部52」とも呼ぶ。同様に、第1スリット画像生成部54A及び第2スリット画像生成部54Bを区別しない場合にはこれらを単に「スリット画像生成部54」と呼ぶ。
(3-2) Functional block FIG. 4 shows an example of the functional block of the controller 43 of the change point detection device 4. Functionally, the controller 43 includes a reference position setting unit 51, a first reference image generation unit 52A, a second reference image generation unit 52B, a reference image matching unit 53, a first slit image generation unit 54A, and a second. It has a slit image generation unit 54B, a slit image collation unit 55, and a change point candidate determination unit 56. Hereinafter, when the first reference image generation unit 52A and the second reference image generation unit 52B are not distinguished, these are also simply referred to as "reference image generation unit 52". Similarly, when the first slit image generation unit 54A and the second slit image generation unit 54B are not distinguished, these are simply referred to as "slit image generation unit 54".

基準位置設定部51は、第1オルソ画像D21を対象とした基準位置Psの設定を行う。この処理は、図3のステップS11の処理に相当する。これにより、基準位置設定部51は、点、線、地物などの場所を、基準位置Psとして絶対座標(ワールド座標)上において設定する。例えば、第1オルソ画像D21がカメラ画像により生成された画像である場合には、基準位置設定部51は、特徴点検出技術により検出した特徴的な位置を、基準位置Psとして決定する。他の例では、第1オルソ画像D21がライダの点群データにより生成された画像である場合には、基準位置設定部51は、画素ごとに含まれるZ座標値に基づき検出した特徴的な位置(例えば相対的に高い位置)を、基準位置Psとして決定する。さらに別の例では、第1オルソ画像D21がライダの点群データにより生成された画像である場合には、基準位置設定部51は、反射強度の高い画素が密集した位置(例えば所定画素数以上の塊)を、基準位置Psとして決定する。その他、基準位置設定部51は、地図情報に基づき基準位置Psを決定してもよく、手動入力(ユーザ入力)に基づき選別した位置を基準位置Psとして決定してもよい。そして、基準位置設定部51は、設定した基準位置Psを、第1基準画像生成部52A及び第2基準画像生成部52Bに夫々通知する。 The reference position setting unit 51 sets the reference position Ps for the first ortho image D21. This process corresponds to the process of step S11 in FIG. As a result, the reference position setting unit 51 sets the location of a point, line, feature, etc. on the absolute coordinates (world coordinates) as the reference position Ps. For example, when the first ortho image D21 is an image generated by a camera image, the reference position setting unit 51 determines the characteristic position detected by the feature point detection technique as the reference position Ps. In another example, when the first ortho image D21 is an image generated by the point cloud data of the rider, the reference position setting unit 51 detects a characteristic position based on the Z coordinate value included for each pixel. (For example, a relatively high position) is determined as the reference position Ps. In yet another example, when the first ortho image D21 is an image generated by the point cloud data of the rider, the reference position setting unit 51 is set to a position where pixels having high reflection intensity are concentrated (for example, a predetermined number of pixels or more). The mass) is determined as the reference position Ps. In addition, the reference position setting unit 51 may determine the reference position Ps based on the map information, or may determine the position selected based on the manual input (user input) as the reference position Ps. Then, the reference position setting unit 51 notifies the first reference image generation unit 52A and the second reference image generation unit 52B of the set reference position Ps, respectively.

基準画像生成部52は、基準画像の生成を行う。この処理は、図3のステップS12の処理に相当する。具体的には、第1基準画像生成部52Aは、第1オルソ画像D21と、基準位置設定部51が設定した基準位置Psとに基づき、第1基準画像を生成する。例えば、第1基準画像生成部52Aは、基準位置Psと対象道路の幅方向の両端とを含み、かつ、対象道路に沿って所定幅分の矩形領域となるように、第1オルソ画像D21から第1基準画像を切り出す。同様に、第2基準画像生成部52Bは、第2オルソ画像D22と、基準位置設定部51が探索した基準位置Psとに基づき、第2基準画像を生成する。この場合、例えば、第2基準画像生成部52Bは、基準位置Psと対象道路の幅方向の両端とを含み、かつ、対象道路に沿って所定幅分の矩形領域となるように、第2オルソ画像D22から第2基準画像を切り出す。なお、道路の幅方向の基準画像の幅は、オルソ画像と同一幅に設定されてもよい。ここで、基準位置Psは絶対座標系の位置であるため、第1基準画像と第2基準画像とは、少なくとも基準位置Psを含む共通の道路部分を表す画像となる。 The reference image generation unit 52 generates a reference image. This process corresponds to the process of step S12 in FIG. Specifically, the first reference image generation unit 52A generates the first reference image based on the first ortho image D21 and the reference position Ps set by the reference position setting unit 51. For example, the first reference image generation unit 52A includes the reference position Ps and both ends in the width direction of the target road, and is a rectangular region of a predetermined width along the target road from the first ortho image D21. Cut out the first reference image. Similarly, the second reference image generation unit 52B generates the second reference image based on the second ortho image D22 and the reference position Ps searched by the reference position setting unit 51. In this case, for example, the second reference image generation unit 52B includes the reference position Ps and both ends in the width direction of the target road, and is a rectangular region having a predetermined width along the target road. The second reference image is cut out from the image D22. The width of the reference image in the width direction of the road may be set to the same width as the ortho image. Here, since the reference position Ps is a position in the absolute coordinate system, the first reference image and the second reference image are images representing at least a common road portion including the reference position Ps.

基準画像照合部53は、第1基準画像と第2基準画像との照合(マッチング)を行う。この処理は、図3のステップS13に相当する。これにより、基準画像照合部53は、基準位置Psが一致するように第1基準画像と第2基準画像をマッチングさせ、マッチング結果である差分位置及び差分角度を、第1スリット画像生成部54A及び第2スリット画像生成部54Bに供給する。 The reference image collation unit 53 collates (matches) the first reference image with the second reference image. This process corresponds to step S13 in FIG. As a result, the reference image collation unit 53 matches the first reference image and the second reference image so that the reference positions Ps match, and sets the difference position and the difference angle, which are the matching results, to the first slit image generation unit 54A and It is supplied to the second slit image generation unit 54B.

スリット画像生成部54は、図3のステップS14に相当する処理である、スリット画像の生成を行う。具体的には、第1スリット画像生成部54Aは、第1オルソ画像D21から基準位置Psを含む第1基準画像を起点として、道路が延びる方向に沿って対象道路を短冊状に切り取った画像である第1スリット画像を順次生成する。この場合、第1スリット画像生成部54Aは、例えば、計測データD1に含まれる移動情報に基づき、計測時の外界センサ2の進行方向を道路が延びる方向として認識し、当該方向と垂直方向に所定幅の間隔によりスリットを入れて切り出した画像を、第1スリット画像として抽出する。同様に、第2スリット画像生成部54Bは、第2オルソ画像D22から基準位置Psを含む第2基準画像を起点として、道路が延びる方向に沿って対象道路を短冊状に切り取った画像である第2スリット画像を順次生成する。 The slit image generation unit 54 generates a slit image, which is a process corresponding to step S14 in FIG. Specifically, the first slit image generation unit 54A is an image obtained by cutting the target road into strips along the direction in which the road extends, starting from the first reference image including the reference position Ps from the first ortho image D21. A certain first slit image is sequentially generated. In this case, the first slit image generation unit 54A recognizes, for example, the traveling direction of the external world sensor 2 at the time of measurement as the direction in which the road extends, based on the movement information included in the measurement data D1, and determines the direction perpendicular to the direction. An image cut out by inserting a slit according to the width interval is extracted as a first slit image. Similarly, the second slit image generation unit 54B is an image obtained by cutting the target road into strips along the direction in which the road extends, starting from the second reference image including the reference position Ps from the second ortho image D22. Two slit images are sequentially generated.

なお、道路の幅方向のスリット画像の幅は、対象道路の幅方向の両端を含む(縁石等の対象道路の淵を含む)幅としてもよく、対象道路の車線の両端を少なくとも含む幅としてもよい。また、複数車線の道路では、車線毎にスリット画像を作成し、車線毎の両端幅がスリット画像の幅となるようにしてもよく、複数車線単位によりスリット画像を作成し、複数車線毎の両端幅がスリット画像の幅となるように定めてもよい。また、中央分離帯等がある場合は、対象道路又は対象の車線に加えて中央分離帯が含まれる範囲となるようにスリット画像の幅を設定してもよい。さらに別の例では、スリット画像の幅は、オルソ画像と同一幅に設定されてもよい。スリット画像の幅は、具体的には、マッチングにおける特徴点の多さ(変化点検出の対象となる区画線が実線であるか又は破線であるか)等を勘案して定められる。 The width of the slit image in the width direction of the road may be the width including both ends in the width direction of the target road (including the edges of the target road such as curbs), or the width including at least both ends of the lane of the target road. good. Further, on a road having a plurality of lanes, a slit image may be created for each lane so that the width of both ends of each lane is the width of the slit image. The width may be set to be the width of the slit image. If there is a median strip or the like, the width of the slit image may be set so as to include the median strip in addition to the target road or the target lane. In yet another example, the width of the slit image may be set to be the same as the width of the ortho image. Specifically, the width of the slit image is determined in consideration of the number of feature points in matching (whether the dividing line for which the change point is detected is a solid line or a broken line) and the like.

ここで、スリット画像生成部54は、スリット画像照合部55から供給される差分位置及び差分角度に基づき、第1スリット画像又は第2スリット画像の少なくとも一方を切り出す位置及び角度を変更してもよい。これにより、直前のスリット画像同士のマッチング結果を考慮し、次に切り出す第1スリット画像と第2スリット画像との間でずれが生じないように好適にスリット画像の切り出しを行うことができる。 Here, the slit image generation unit 54 may change the position and angle at which at least one of the first slit image and the second slit image is cut out based on the difference position and the difference angle supplied from the slit image collation unit 55. .. As a result, the slit image can be appropriately cut out so that the first slit image to be cut out next and the second slit image do not deviate from each other in consideration of the matching result between the immediately preceding slit images.

スリット画像照合部55は、第1スリット画像と第2スリット画像との照合(マッチング)を行うことで、マッチ度が最も高くなる差分位置及び差分角度の組み合わせを算出する。この処理は、図3のステップS15に相当する。例えば、スリット画像照合部55は、マッチング結果である差分位置及び差分角度を、第1スリット画像生成部54A及び第2スリット画像生成部54Bに供給する。この場合、上述したように、上述した差分位置及び差分角度は、スリット画像の切り出しに用いられる。他の例では、スリット画像照合部55は、マッチングにより生成した差分位置及び差分角度を、次のスリット画像のマッチングにおける差分位置及び差分角度の最適解の探索の初期値として、メモリ42に記憶してもよい。この場合においても、次のスリット画像のマッチングの精度を好適に向上させることができる。 The slit image collation unit 55 calculates the combination of the difference position and the difference angle at which the degree of matching is the highest by collating (matching) the first slit image and the second slit image. This process corresponds to step S15 in FIG. For example, the slit image collation unit 55 supplies the difference position and the difference angle, which are matching results, to the first slit image generation unit 54A and the second slit image generation unit 54B. In this case, as described above, the above-mentioned difference position and difference angle are used for cutting out the slit image. In another example, the slit image collation unit 55 stores the difference position and the difference angle generated by the matching in the memory 42 as the initial value of searching for the optimum solution of the difference position and the difference angle in the matching of the next slit image. You may. Even in this case, the accuracy of matching the next slit image can be suitably improved.

変化点候補判定部56は、スリット画像照合部55から供給される、第1スリット画像、第2スリット画像、及びこれらの(最もマッチした時の)マッチ度に基づき、変化点候補の有無の判定を行う。この処理は、図3のステップS16及びステップS17に相当する。例えば、変化点候補判定部56は、上述のマッチ度が所定の閾値以下の場合、第1スリット画像と第2スリット画像が示す道路部分に変化が生じた可能性があると判定する。よって、この場合、変化点候補判定部56は、第1スリット画像及び第2スリット画像を変化点の候補を表す画像とみなし、これらの画像を変化点候補情報D3としてメモリ42に記憶する。 The change point candidate determination unit 56 determines the presence or absence of a change point candidate based on the first slit image, the second slit image, and the degree of matching (when most matched) supplied from the slit image matching unit 55. I do. This process corresponds to step S16 and step S17 in FIG. For example, when the degree of matching described above is equal to or less than a predetermined threshold value, the change point candidate determination unit 56 determines that there is a possibility that the road portion shown by the first slit image and the second slit image has changed. Therefore, in this case, the change point candidate determination unit 56 regards the first slit image and the second slit image as images representing the change point candidates, and stores these images in the memory 42 as the change point candidate information D3.

また、変化点候補判定部56は、変化点候補情報D3に基づき、変化点を決定する処理をさらに行ってもよい。例えば、変化点候補判定部56は、複数の期間において計測された計測データD1に基づき、対象道路の第2オルソ画像D22を複数生成し、第1オルソ画像D21との比較により変化点候補情報D3を生成する。そして、変化点候補判定部56は、変化点候補情報D3に基づき、複数の期間に対応する第2オルソ画像D22において同一地点が変化点の候補として抽出されていると判定した場合、当該地点を変化点として決定する。このように、変化点候補判定部56は、複数の期間において変化が検出された地点を変化点として決定してもよい。他の例では、変化点候補判定部56は、変化点候補情報D3が示す変化点の候補をそのまま変化点として確定してもよい。 Further, the change point candidate determination unit 56 may further perform a process of determining a change point based on the change point candidate information D3. For example, the change point candidate determination unit 56 generates a plurality of second ortho images D22 of the target road based on the measurement data D1 measured in a plurality of periods, and compares the change point candidate information D3 with the first ortho image D21. To generate. Then, when the change point candidate determination unit 56 determines that the same point is extracted as a change point candidate in the second ortho image D22 corresponding to a plurality of periods based on the change point candidate information D3, the change point candidate determination unit 56 determines that point. Determined as a change point. In this way, the change point candidate determination unit 56 may determine a point where a change is detected in a plurality of periods as a change point. In another example, the change point candidate determination unit 56 may determine the change point candidate indicated by the change point candidate information D3 as the change point as it is.

(3-3)基準画像及びスリット画像の具体例
次に、基準画像及びスリット画像の生成方法の具体例について図5及び図6を参照して説明する。
(3-3) Specific Examples of Reference Image and Slit Image Next, specific examples of the method of generating the reference image and the slit image will be described with reference to FIGS. 5 and 6.

図5は、第1基準画像及び第1スリット画像を明示した第1オルソ画像D21の1車線道路(片側1車線道路)の一例を示す。複数車線の道路の場合は、車線毎にスリット画像を作成してもよく、複数車線をまとめてスリット画像を作成してもよい。また、中央分離帯がある道路の場合は、複数車線の道路のスリット画像作成方法に加えて、対象道路又は対象の車線に加えて中央分離帯が含まれる範囲となるように幅が設定されたスリット画像を作成してもよい。また、図6は、図5に示す第1オルソ画像D21に対応し、第2基準画像及び第2スリット画像を明示した第2オルソ画像D22の一例を示す。図5及び図6における破線枠は、個々の基準画像又はスリット画像の切り出し範囲の一例を表している。なお、基準画像又はスリット画像の横幅はオルソ画像の横幅と同一であってもよい。 FIG. 5 shows an example of a one-lane road (one-lane road on one side) of the first ortho image D21 clearly showing the first reference image and the first slit image. In the case of a road having a plurality of lanes, a slit image may be created for each lane, or a slit image may be created collectively for the plurality of lanes. In the case of a road with a median strip, in addition to the method for creating a slit image of a road with multiple lanes, the width is set so as to include the median strip in addition to the target road or the target lane. A slit image may be created. Further, FIG. 6 shows an example of the second ortho image D22 corresponding to the first ortho image D21 shown in FIG. 5 and clearly showing the second reference image and the second slit image. The broken line frame in FIGS. 5 and 6 represents an example of the cutout range of each reference image or slit image. The width of the reference image or the slit image may be the same as the width of the ortho image.

図5に示す第1オルソ画像D21及び図6に示す第2オルソ画像D22は、ライダの出力データに基づき生成され、各画素は反射強度に応じた画素値を有しているものとする。そして、第1オルソ画像D21では、区画線に対応する画素領域60A~62Aと、標識に対応する画素領域63A、64Aとが、画素値が高い画素により形成されている。同様に、第2オルソ画像D22では、区画線に対応する画素領域60B~62Bと、標識に対応する画素領域63B、64Bとが、画素値が高い画素により形成されている。また、第1オルソ画像D21及び第2オルソ画像D22は、絶対座標系が紐付けられており、図5に示す第1オルソ画像D21の左上隅位置は絶対座標(X1,Y1)に対応し、図6に示す第2オルソ画像D22の左上隅位置は絶対座標(X2,Y2)に対応している。 It is assumed that the first ortho image D21 shown in FIG. 5 and the second ortho image D22 shown in FIG. 6 are generated based on the output data of the rider, and each pixel has a pixel value corresponding to the reflection intensity. In the first ortho image D21, the pixel areas 60A to 62A corresponding to the lane markings and the pixel areas 63A and 64A corresponding to the marking are formed by pixels having high pixel values. Similarly, in the second ortho image D22, the pixel areas 60B to 62B corresponding to the lane markings and the pixel areas 63B and 64B corresponding to the markings are formed by pixels having high pixel values. Further, the first ortho image D21 and the second ortho image D22 are associated with an absolute coordinate system, and the upper left corner position of the first ortho image D21 shown in FIG. 5 corresponds to the absolute coordinates (X1, Y1). The upper left corner position of the second ortho image D22 shown in FIG. 6 corresponds to the absolute coordinates (X2, Y2).

この場合、まず、基準位置設定部51は、標識の画素領域63A、64Bを基準位置Psとして探索し、そのうち画素領域63Aを最初の基準位置Psとして定める。そして、第1基準画像生成部52Aは、画素領域63Aを含む第1基準画像「A1」の切り出し範囲を決定し、第2基準画像生成部52Bは、画素領域63Bを含む第2基準画像「B1」の切り出し範囲を決定する。この場合、例えば、これらの基準画像生成部52は、計測時の外界センサ2の移動情報が示す外界センサ2の進行方向と垂直方向に所定幅分だけ切り出した矩形画像を、基準画像として定める。他の例では、基準画像生成部52は、画像認識処理により道路の延在方向を認識し、認識した道路の延在方向に基づき基準画像を定めてもよい。また、基準画像の横幅は、スリット画像の横幅と同様、道路の左右の縁、又は、中央分離帯や複数車線等を含む場合は少なくとも中央分離帯又は対象の車線が含まれる長さとなるように設定される。なお、第1基準画像A1の切り出し範囲及び第2基準画像A2の切り出し範囲は、手動入力に基づき決定されてもよい。その後、基準画像照合部53は、第1基準画像A1と第2基準画像A2とのマッチングを行い、差分位置及び差分角度を算出する。 In this case, first, the reference position setting unit 51 searches for the pixel areas 63A and 64B of the marker as the reference position Ps, and defines the pixel area 63A as the first reference position Ps. Then, the first reference image generation unit 52A determines the cutout range of the first reference image "A1" including the pixel area 63A, and the second reference image generation unit 52B determines the second reference image "B1" including the pixel area 63B. "Determine the cutting range. In this case, for example, these reference image generation units 52 define a rectangular image cut out by a predetermined width in the direction perpendicular to the traveling direction of the outside world sensor 2 indicated by the movement information of the outside world sensor 2 at the time of measurement as the reference image. In another example, the reference image generation unit 52 may recognize the extending direction of the road by the image recognition process and determine the reference image based on the recognized extending direction of the road. In addition, the width of the reference image is the same as the width of the slit image, so that the width includes the left and right edges of the road, or at least the median strip or the target lane when the median strip or multiple lanes are included. Set. The cut-out range of the first reference image A1 and the cut-out range of the second reference image A2 may be determined based on manual input. After that, the reference image collating unit 53 performs matching between the first reference image A1 and the second reference image A2, and calculates the difference position and the difference angle.

そして、第1スリット画像生成部54Aは、道路に沿って第1基準画像A1に隣接する所定幅の矩形領域を、第1スリット画像「a1」の切り出し範囲として決定する。また、第2スリット画像生成部54Bは、道路に沿って第2基準画像A2に隣接する範囲であって、第1基準画像A1と第2基準画像A2とのマッチングにより算出された差分位置及び差分角度だけ移動させた範囲を、第2スリット画像「a2」の切り出し範囲として決定する。その後、第1スリット画像生成部54Aは、道路に沿って第1スリット画像a1に隣接する所定幅の矩形領域を、第1スリット画像「b1」の切り出し範囲として決定する。また、第2スリット画像生成部54Bは、道路に沿って第2スリット画像a2に隣接する範囲であって、第1スリット画像a1と第2スリット画像a2とのマッチングにより算出された差分位置及び差分角度だけ移動させた範囲を、第2スリット画像「b2」の切り出し範囲として決定する。同様の手順により、第1スリット画像「c1」~「e1」及び第2スリット画像「c2」~「e2」の切り出し範囲の決定及びマッチングが行われる。 Then, the first slit image generation unit 54A determines a rectangular region having a predetermined width adjacent to the first reference image A1 along the road as a cutout range of the first slit image "a1". Further, the second slit image generation unit 54B is a range adjacent to the second reference image A2 along the road, and the difference position and the difference calculated by matching the first reference image A1 and the second reference image A2. The range moved by an angle is determined as the cutout range of the second slit image "a2". After that, the first slit image generation unit 54A determines a rectangular region having a predetermined width adjacent to the first slit image a1 along the road as a cutout range of the first slit image "b1". Further, the second slit image generation unit 54B is a range adjacent to the second slit image a2 along the road, and the difference position and the difference calculated by matching the first slit image a1 and the second slit image a2. The range moved by an angle is determined as the cutout range of the second slit image "b2". By the same procedure, the cutting range of the first slit images "c1" to "e1" and the second slit images "c2" to "e2" are determined and matched.

また、第1スリット画像e1及び第2スリット画像e2のマッチングの実行後、第1スリット画像e1の次に第1オルソ画像D21から決定したスリット画像は基準位置となる標識の画素領域64Aを含むことから、第1基準画像生成部52Aは、当該画素領域64Aを含む第1基準画像B1を設定する。同様に、第2基準画像生成部52Bは、新たに設定された基準位置Psに相当する画素領域64Aを含む第2基準画像B2を設定する。その後、第1基準画像B1と第2基準画像B2とのマッチング、スリット画像の生成、生成されたスリット画像のマッチングが順次行われる。 Further, after the matching of the first slit image e1 and the second slit image e2 is executed, the slit image determined from the first ortho image D21 next to the first slit image e1 includes the pixel region 64A of the marker as the reference position. Therefore, the first reference image generation unit 52A sets the first reference image B1 including the pixel region 64A. Similarly, the second reference image generation unit 52B sets the second reference image B2 including the pixel region 64A corresponding to the newly set reference position Ps. After that, matching of the first reference image B1 and the second reference image B2, generation of a slit image, and matching of the generated slit image are sequentially performed.

このように、変化点検出装置4は、第1オルソ画像D21及び第2オルソ画像D22を部分画像(スリット画像及び基準画像)毎に順次比較し、部分画像の比較結果を次の部分画像の比較に用いる。これにより、変化点検出装置4は、高精度に第1オルソ画像D21及び第2オルソ画像D22の比較を行い、変化点の候補となる領域の検出を行うことができる。なお、スリット画像照合部55のマッチング結果である差分位置及び差分角度は、スリット画像の切り出し範囲の決定に用いられる代わりに、次のスリット画像のマッチングにおける差分位置及び差分角度の初期値として用いられてもよい。なお、図5及び図6では、基準位置が道路縁に存在するが、必ずしも道路縁上にある必要はない。 In this way, the change point detection device 4 sequentially compares the first ortho image D21 and the second ortho image D22 for each partial image (slit image and reference image), and compares the comparison result of the partial images with the next partial image. Used for. As a result, the change point detection device 4 can compare the first ortho image D21 and the second ortho image D22 with high accuracy and detect a region that is a candidate for the change point. The difference position and the difference angle, which are the matching results of the slit image collating unit 55, are used as initial values of the difference position and the difference angle in the matching of the next slit image, instead of being used for determining the cutout range of the slit image. You may. In addition, in FIGS. 5 and 6, the reference position exists on the road edge, but it does not necessarily have to be on the road edge.

ここで、本実施例の効果について補足説明する。大きな画像同士の画像マッチングでは画像の歪や揺れなどによりマッチングの精度が低くなる傾向がある。そこで、本実施例では、一部の狭い範囲を切り取ったスリット画像同士でマッチングを行う。これにより、比較範囲を狭めることができ、不要なマッチングを防止する効果がある。加えて、本実施例では、隙間なく連続的にマッチング処理を行っていることにより、前の画像のマッチング結果(位置ずれや回転角度)を次の画像の作成の補正に好適に利用することができる。結果、異なる走行画像同士であっても同じ場所同士を比較することができる。また、従来のように絶対的な精度を有するリファレンス画像を用意する代わりに、計測車両の走行毎に得られたオルソ画像の相対比較により、変化点の検出を行うことができる。従って、絶対的な精度を有するリファレンス画像の作成コストを好適に削減することができる。 Here, the effect of this embodiment will be supplementarily described. In image matching between large images, the accuracy of matching tends to be low due to image distortion and shaking. Therefore, in this embodiment, matching is performed between slit images obtained by cutting out a part of a narrow range. This makes it possible to narrow the comparison range and has the effect of preventing unnecessary matching. In addition, in this embodiment, by performing the matching process continuously without gaps, the matching result (positional deviation and rotation angle) of the previous image can be suitably used for correction of the creation of the next image. can. As a result, it is possible to compare the same places even if different running images are used. Further, instead of preparing a reference image having absolute accuracy as in the conventional case, it is possible to detect the change point by relative comparison of the ortho images obtained for each running of the measurement vehicle. Therefore, it is possible to suitably reduce the cost of creating a reference image having absolute accuracy.

以上説明したように、本実施例における変化点検出装置4のコントローラ43は、第1の計測において計測したデータに基づき生成された道路の画像である第1オルソ画像D21を取得する。また、コントローラ43は、第2の計測において計測したデータに基づき生成された前記道路の画像である第2オルソ画像D22を取得する。また、コントローラ43は、第1オルソ画像及び第2オルソ画像D22に対する基準位置Psを設定する。そして、コントローラ43は、基準位置Psに基づき、第1オルソ画像D21と第2オルソ画像D22とから切り取ったスリット画像を生成する。そして、コントローラ43は、第1オルソ画像D21と第2オルソ画像D22とを、スリット画像毎に照合する。これにより、コントローラ43は、絶対的精度を有する変化前のリファレンスを用意することなく、変化点検出のための画像同士の比較を好適に実行することができる。 As described above, the controller 43 of the change point detection device 4 in this embodiment acquires the first ortho image D21 which is an image of the road generated based on the data measured in the first measurement. Further, the controller 43 acquires the second ortho image D22, which is an image of the road generated based on the data measured in the second measurement. Further, the controller 43 sets the reference position Ps with respect to the first ortho image and the second ortho image D22. Then, the controller 43 generates a slit image cut out from the first ortho image D21 and the second ortho image D22 based on the reference position Ps. Then, the controller 43 collates the first ortho image D21 and the second ortho image D22 for each slit image. As a result, the controller 43 can suitably perform comparison between images for detecting a change point without preparing a reference before the change having absolute accuracy.

(4)変形例
次に、上述した実施例に適用可能な変形例について説明する。以下の変形例は任意に組み合わせて上述の実施例に適用してもよい。
(4) Modification example
Next, a modification applicable to the above-described embodiment will be described. The following modifications may be applied to the above-described embodiment in any combination.

(第1変形例)
変化点検出装置4は、第1オルソ画像D21として、複数の走行(例えば一週間分の走行、又は昼夜での走行)により得られた計測データD1に基づく複数のオルソ画像を用いてもよい。同様に、変化点検出装置4は、第2オルソ画像D22として、複数の走行により得られた計測データD1に基づく複数のオルソ画像を用いてもよい。
(First modification)
As the first ortho image D21, the change point detecting device 4 may use a plurality of ortho images based on the measurement data D1 obtained by a plurality of running (for example, running for one week or running in the day and night). Similarly, the change point detection device 4 may use a plurality of ortho images based on the measurement data D1 obtained by the plurality of runs as the second ortho image D22.

図7は、第1変形例において変化点検出装置4が実行するフローチャートの一例である。図7のフローチャートは、複数のオルソ画像を積算した画像に基づいて基準画像等を生成する処理を含んでいる。 FIG. 7 is an example of a flowchart executed by the change point detection device 4 in the first modification. The flowchart of FIG. 7 includes a process of generating a reference image or the like based on an image obtained by integrating a plurality of ortho images.

まず、変化点検出装置4は、処理対象となるオルソ画像を取得する(ステップS20)。この場合、第1オルソ画像D21又は第2オルソ画像D22の少なくとも一方は、複数の計測車両の走行により得られた複数のオルソ画像であってもよい。変化点検出装置4は、これらのオルソ画像をメモリ42から抽出する。 First, the change point detection device 4 acquires an ortho image to be processed (step S20). In this case, at least one of the first ortho image D21 and the second ortho image D22 may be a plurality of ortho images obtained by traveling of a plurality of measurement vehicles. The change point detection device 4 extracts these ortho images from the memory 42.

次に、変化点検出装置4は、ステップS20で取得した第1オルソ画像D21を対象として基準位置Psの探索を行う(ステップS21)。そして、変化点検出装置4は、探索した基準位置Psを基準としてオルソ画像の積算を行う(ステップS22)。ここで、第2オルソ画像D22に対応するオルソ画像を複数個用意した場合について説明する。この場合、変化点検出装置4は、第2オルソ画像D22としてステップS20で取得した複数のオルソ画像を、基準位置Psを基準として位置合わせを行い、位置合わせ後のこれらのオルソ画像を積算した画像(「積算画像」とも呼ぶ。)を生成する。この場合、変化点検出装置4は、基準位置Psを含む部分領域に限り複数のオルソ画像を積算した画像を、第2オルソ画像D22の積算画像として生成してもよい。なお、第1オルソ画像D21に対応するオルソ画像を複数個用意した場合についても同様に、変化点検出装置4は、基準位置Psを基準として位置合わせを行ったオルソ画像を積算した積算画像を生成する。 Next, the change point detection device 4 searches for the reference position Ps for the first ortho image D21 acquired in step S20 (step S21). Then, the change point detection device 4 integrates the ortho images with the searched reference position Ps as a reference (step S22). Here, a case where a plurality of orthoimages corresponding to the second orthoimage D22 are prepared will be described. In this case, the change point detection device 4 aligns a plurality of ortho images acquired in step S20 as the second ortho image D22 with reference to the reference position Ps, and integrates these ortho images after the alignment. (Also called "integrated image") is generated. In this case, the change point detection device 4 may generate an image obtained by integrating a plurality of ortho images only in the partial region including the reference position Ps as the integrated image of the second ortho image D22. Similarly, when a plurality of ortho images corresponding to the first ortho image D21 are prepared, the change point detection device 4 generates an integrated image obtained by integrating the ortho images aligned with reference to the reference position Ps. do.

そして、変化点検出装置4は、第1オルソ画像D21と第2オルソ画像D22ととから夫々基準画像を切り出して生成する(ステップS23)。ここで、変化点検出装置4は、ステップS22において第1オルソ画像D21又は第2オルソ画像D22の積算画像を生成した場合には、当該積算画像から基準画像を切り出す。そして、変化点検出装置4は、ステップS23で生成した第1基準画像と第2基準画像とのマッチングを行う(ステップS24)。その後、変化点検出装置4は、図3のステップS14~ステップS18と同様の処理を、ステップS25~ステップS29として実行する。 Then, the change point detection device 4 cuts out and generates a reference image from each of the first ortho image D21 and the second ortho image D22 (step S23). Here, when the change point detection device 4 generates an integrated image of the first ortho image D21 or the second ortho image D22 in step S22, the change point detection device 4 cuts out a reference image from the integrated image. Then, the change point detection device 4 matches the first reference image generated in step S23 with the second reference image (step S24). After that, the change point detection device 4 executes the same processing as in steps S14 to S18 of FIG. 3 as steps S25 to S29.

本変形例によれば、所定期間分の走行をまとめた積算画像を生成し、当該所定期間における変化点の検出を行うことができる。また、混雑する時間帯が存在する道路についても、混雑していない時間帯のオルソ画像を含む積算画像を生成することで、混雑によるオクルージョンの影響を受けない道路のオルソ画像を好適に生成することができる。 According to this modification, it is possible to generate an integrated image summarizing the running for a predetermined period and detect the change point in the predetermined period. Further, even for a road having a congested time zone, by generating an integrated image including an ortho image of the non-congested time zone, it is possible to suitably generate an ortho image of the road that is not affected by occlusion due to congestion. Can be done.

(第2変形例)
変化点検出装置4は、変化点の検出対象となる区画線の種類に応じてスリット画像の作成方法を変えてもよい。
(Second modification)
The change point detection device 4 may change the method of creating the slit image according to the type of the dividing line for which the change point is detected.

例えば、変化点検出装置4は、実線の区画線を変化点の検出対象にする場合、実線本体だけでは特徴がなく比較が難しいという事情を勘案し、道路(通行可能領域)の左右の路肩が画像に含まれるように、第1オルソ画像D21、第2オルソ画像D22、基準画像及びスリット画像を生成する。これにより、変化点検出装置4は、スリット画像同士のマッチングにおいて基準となる特徴点を好適に増やし、マッチング精度を好適に向上させることができる。 For example, in the change point detection device 4, when a solid line division line is used as a change point detection target, the left and right shoulders of the road (passable area) are set in consideration of the fact that the solid line itself has no characteristics and is difficult to compare. A first ortho image D21, a second ortho image D22, a reference image, and a slit image are generated so as to be included in the image. As a result, the change point detection device 4 can suitably increase the feature points that serve as a reference in matching between the slit images, and can suitably improve the matching accuracy.

一方、変化点検出装置4は、破線の区画線を変化点の検出対象にする場合、スリット画像の進行方向側の長さを破線長より長くかつ、破線2つ分よりは短くする。これにより、変化点検出装置4は、スリット画像同士のマッチング精度を好適に向上させることができる。 On the other hand, when the change point detection device 4 uses the broken line dividing line as the change point detection target, the length of the slit image on the traveling direction side is made longer than the broken line length and shorter than two broken lines. As a result, the change point detection device 4 can suitably improve the matching accuracy between the slit images.

(第3変形例)
変化点の検出対象は区画線に限定されない。これに代えて、又はこれに加えて、道路に沿って延在する任意の地物(ガードレール等)を変化点の検出対象としてもよい。この場合においても、変化点検出装置4は、スリット画像毎の比較により高精度に変化点を検出することができる。
(Third modification example)
The detection target of the change point is not limited to the lane marking. Alternatively or in addition to this, any feature (guardrail, etc.) extending along the road may be the detection target of the change point. Even in this case, the change point detecting device 4 can detect the change point with high accuracy by comparing each slit image.

なお、上述した実施例において、プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータであるコントローラ等に供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記憶媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記憶媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記憶媒体(例えば光磁気ディスク)、CD-ROM(Read Only Memory)、CD-R、CD-R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。 In the above-described embodiment, the program is stored using various types of non-transitory computer readable medium and can be supplied to a controller or the like which is a computer. Non-temporary computer-readable media include various types of tangible storage media. Examples of non-temporary computer-readable media include magnetic storage media (eg, flexible disks, magnetic tapes, hard disk drives), magneto-optical storage media (eg, magneto-optical disks), CD-ROMs (Read Only Memory), CD-Rs. Includes CD-R / W, semiconductor memory (eg, mask ROM, PROM (Programmable ROM), EPROM (Erasable PROM), flash ROM, RAM (Random Access Memory)).

以上、実施例を参照して本願発明を説明したが、本願発明は上記実施例に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。すなわち、本願発明は、請求の範囲を含む全開示、技術的思想にしたがって当業者であればなし得るであろう各種変形、修正を含むことは勿論である。また、引用した上記の特許文献等の各開示は、本書に引用をもって繰り込むものとする。 Although the invention of the present application has been described above with reference to the examples, the invention of the present application is not limited to the above examples. Various changes that can be understood by those skilled in the art can be made within the scope of the present invention in terms of the configuration and details of the present invention. That is, it goes without saying that the invention of the present application includes all disclosure including claims, various modifications and modifications that can be made by those skilled in the art in accordance with the technical idea. In addition, each disclosure of the above-mentioned patent documents cited shall be incorporated into this document by citation.

1 車載機
2 外界センサ
3 測位用センサユニット
4 変化点検出装置
41 インターフェース
42 メモリ
43 コントローラ
1 On-board unit 2 External sensor 3 Positioning sensor unit 4 Change point detection device 41 Interface 42 Memory 43 Controller

Claims (15)

第1の計測において計測したデータに基づき生成された道路の画像である第1画像を取得する第1画像取得手段と、
第2の計測において計測したデータに基づき生成された前記道路の画像である第2画像を取得する第2画像取得手段と、
前記第1画像及び前記第2画像に対する基準位置を設定する基準位置設定手段と、
前記基準位置に基づき、前記第1画像と前記第2画像とから切り取ったスリット画像を生成するスリット画像生成手段と、
前記第1画像と前記第2画像とを、前記スリット画像毎に照合するスリット画像照合手段と、
を有する、情報処理装置。
A first image acquisition means for acquiring a first image, which is an image of a road generated based on the data measured in the first measurement, and
A second image acquisition means for acquiring a second image, which is an image of the road generated based on the data measured in the second measurement, and
A reference position setting means for setting a reference position with respect to the first image and the second image, and
A slit image generation means for generating a slit image cut from the first image and the second image based on the reference position,
A slit image collation means for collating the first image and the second image for each slit image,
Information processing device.
前記第1画像及び前記第2画像は、絶対座標と紐付かれた画像であり、
前記基準位置設定手段は、絶対座標により表された前記基準位置を設定する、請求項1に記載の情報処理装置。
The first image and the second image are images associated with absolute coordinates, and are images.
The information processing apparatus according to claim 1, wherein the reference position setting means sets the reference position represented by absolute coordinates.
前記スリット画像生成手段は、前記基準位置を起点として前記道路に沿って前記第1画像と前記第2画像とから所定幅毎に切り取った前記スリット画像を順次生成し、
前記スリット画像照合手段は、前記スリット画像生成手段が前記第1画像と前記第2画像とから切り取った前記スリット画像を順次照合する、請求項1または2に記載の情報処理装置。
The slit image generation means sequentially generates the slit image cut out from the first image and the second image by a predetermined width along the road starting from the reference position.
The information processing apparatus according to claim 1 or 2, wherein the slit image collating means sequentially collates the slit image cut from the first image and the second image by the slit image generating means.
前記スリット画像生成手段は、前記スリット画像照合手段による前記スリット画像の照合結果に基づき、前記第2画像から次に切り出す前記スリット画像の切り出しに関する位置と角度の少なくとも一方を変更する、請求項3に記載の情報処理装置。 The slit image generation means changes at least one of the position and the angle regarding the cutting of the slit image to be cut out next from the second image based on the matching result of the slit image by the slit image matching means, according to claim 3. The information processing device described. 前記スリット画像照合手段は、前記スリット画像生成手段が前記第1画像と前記第2画像とから切り取った前記スリット画像の照合を順次実行する場合、直前の前記スリット画像の照合結果に基づき、次の前記スリット画像の照合を実行する、請求項3に記載の情報処理装置。 When the slit image matching means sequentially performs matching of the slit images cut from the first image and the second image, the slit image matching means is described as follows based on the matching result of the immediately preceding slit image. The information processing apparatus according to claim 3, which executes collation of the slit images. 前記スリット画像毎の照合結果に基づき、前記道路に関する変化点の候補の有無を判定する変化点候補判定手段をさらに有する、請求項1~5のいずれか一項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 5, further comprising a change point candidate determining means for determining the presence or absence of a change point candidate for the road based on a collation result for each slit image. 前記変化点候補判定手段は、前記道路の区画線に関する変化点の候補の有無を判定する、請求項6に記載の情報処理装置。 The information processing device according to claim 6, wherein the change point candidate determining means determines the presence or absence of a change point candidate with respect to the lane marking of the road. 前記変化点候補判定手段は、前記道路の実線または破線の区画線に関する変化点の候補の有無を判定し、
前記スリット画像は、前記道路の車線毎の範囲もしくは左右の路肩を含む範囲に設定される、請求項7に記載の情報処理装置。
The change point candidate determination means determines whether or not there is a change point candidate for the solid line or the broken line of the road.
The information processing device according to claim 7, wherein the slit image is set in a range for each lane of the road or a range including left and right shoulders.
前記第1画像と前記第2画像は、計測された反射強度に基づき画素値が決定された画像である、請求項7または8に記載の情報処理装置。 The information processing apparatus according to claim 7, wherein the first image and the second image are images whose pixel values are determined based on the measured reflection intensity. 前記基準位置を含む画像を前記第1画像と前記第2画像とから切り出した基準画像を生成する基準画像生成手段をさらに有し、
前記スリット画像生成手段は、前記第1画像と前記第2画像とから切り出した基準画像の照合結果に基づき、前記スリット画像の切り出しに関する位置及び角度を決定する、請求項1~9のいずれか一項に記載の情報処理装置。
Further having a reference image generation means for generating a reference image obtained by cutting out an image including the reference position from the first image and the second image.
Any one of claims 1 to 9, wherein the slit image generating means determines a position and an angle related to cutting out the slit image based on a collation result of a reference image cut out from the first image and the second image. The information processing device described in the section.
前記第1画像と前記第2画像の少なくとも一方は、前記道路に対する複数回の走行により計測したデータを結合した画像である、請求項1~10のいずれか一項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 10, wherein at least one of the first image and the second image is an image in which data measured by traveling on the road a plurality of times is combined. 前記第1画像と前記第2画像は、前記道路を少なくとも含むオルソ画像である、請求項1~11のいずれか一項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 11, wherein the first image and the second image are ortho images including at least the road. コンピュータが実行する制御方法であって、
第1の計測において計測したデータに基づき生成された道路の画像である第1画像を取得し、
第2の計測において計測したデータに基づき生成された前記道路の画像である第2画像を取得し、
前記第1画像及び前記第2画像に対する基準位置を設定し、
前記基準位置に基づき、前記第1画像と前記第2画像とから切り取ったスリット画像を生成し、
前記第1画像と前記第2画像とを、前記スリット画像毎に照合する、
制御方法。
It ’s a control method executed by a computer.
The first image, which is an image of the road generated based on the data measured in the first measurement, is acquired.
The second image, which is an image of the road generated based on the data measured in the second measurement, is acquired.
A reference position for the first image and the second image is set, and the reference position is set.
Based on the reference position, a slit image cut out from the first image and the second image is generated.
The first image and the second image are collated for each slit image.
Control method.
第1の計測において計測したデータに基づき生成された道路の画像である第1画像を取得し、
第2の計測において計測したデータに基づき生成された前記道路の画像である第2画像を取得し、
前記第1画像及び前記第2画像に対する基準位置を設定し、
前記基準位置に基づき、前記第1画像と前記第2画像とから切り取ったスリット画像を生成し、
前記第1画像と前記第2画像とを、前記スリット画像毎に照合する処理をコンピュータに実行させるプログラム。
The first image, which is an image of the road generated based on the data measured in the first measurement, is acquired.
The second image, which is an image of the road generated based on the data measured in the second measurement, is acquired.
A reference position for the first image and the second image is set, and the reference position is set.
Based on the reference position, a slit image cut out from the first image and the second image is generated.
A program that causes a computer to execute a process of collating the first image and the second image for each slit image.
請求項14に記載のプログラムを記憶した記憶媒体。 A storage medium in which the program according to claim 14 is stored.
JP2020182613A 2020-10-30 2020-10-30 Information processing apparatus, control method, program, and storage medium Pending JP2022072913A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020182613A JP2022072913A (en) 2020-10-30 2020-10-30 Information processing apparatus, control method, program, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020182613A JP2022072913A (en) 2020-10-30 2020-10-30 Information processing apparatus, control method, program, and storage medium

Publications (1)

Publication Number Publication Date
JP2022072913A true JP2022072913A (en) 2022-05-17

Family

ID=81604112

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020182613A Pending JP2022072913A (en) 2020-10-30 2020-10-30 Information processing apparatus, control method, program, and storage medium

Country Status (1)

Country Link
JP (1) JP2022072913A (en)

Similar Documents

Publication Publication Date Title
US11085775B2 (en) Methods and systems for generating and using localisation reference data
US20220214174A1 (en) Methods and Systems for Generating and Using Localization Reference Data
KR102128851B1 (en) Method and system for determining global location of first landmark
JP6454726B2 (en) Own vehicle position estimation device
JP6870475B2 (en) Lane information output method and lane information output device
EP3137850A1 (en) Method and system for determining a position relative to a digital map
KR102475039B1 (en) Apparatus, method and system for updating map database
JPWO2017038134A1 (en) Landmark recognition apparatus and recognition method
JP4760274B2 (en) Map update device
JPWO2018212287A1 (en) Measuring device, measuring method and program
JP2023126399A (en) Measuring device, measuring method and program
JP2023099851A (en) Measurement device, method for measurement, and program
JP2022072913A (en) Information processing apparatus, control method, program, and storage medium
WO2018180247A1 (en) Output device, control method, program, and storage medium
JP2018036075A (en) Own vehicle position specification device and own vehicle position specification method
JPWO2018212284A1 (en) Measuring device, measuring method and program
JP2021170029A (en) Measurement device, measurement method, and program
KR102676238B1 (en) Apparatus and method for detecting position of vehicle and vehicle including the same
JP2021163154A (en) Change point detection device, control method, program, and storage medium
CN115691104A (en) Apparatus and method for generating lane information

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230921

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240521