JP7452377B2 - Driving lane determination device and driving lane determination program - Google Patents

Driving lane determination device and driving lane determination program Download PDF

Info

Publication number
JP7452377B2
JP7452377B2 JP2020176771A JP2020176771A JP7452377B2 JP 7452377 B2 JP7452377 B2 JP 7452377B2 JP 2020176771 A JP2020176771 A JP 2020176771A JP 2020176771 A JP2020176771 A JP 2020176771A JP 7452377 B2 JP7452377 B2 JP 7452377B2
Authority
JP
Japan
Prior art keywords
lane
driving
image data
determination
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020176771A
Other languages
Japanese (ja)
Other versions
JP2022067908A (en
Inventor
章弘 渡邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Original Assignee
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Central R&D Labs Inc filed Critical Toyota Central R&D Labs Inc
Priority to JP2020176771A priority Critical patent/JP7452377B2/en
Publication of JP2022067908A publication Critical patent/JP2022067908A/en
Application granted granted Critical
Publication of JP7452377B2 publication Critical patent/JP7452377B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Navigation (AREA)

Description

本発明は、走行車線判定装置及び走行車線判定プログラムに関する。 The present invention relates to a driving lane determining device and a driving lane determining program.

区画線等により構造化された道路を車両等の移動体が走行する際に、当該移動体が走行中の車線を同定することは、ナビゲーションシステム等において有用な情報となる。 When a moving object such as a vehicle travels on a road structured by lane markings or the like, identifying the lane in which the moving object is traveling becomes useful information in a navigation system or the like.

また、測位衛星などを用いて取得した自車位置、走行軌跡、自車両周辺の観測結果(白線等の物標検出結果)を用いて、既に存在する地図上における自車の位置を推定するマップマッチング技術が知られている(特許文献1)。 In addition, a map that estimates the position of the own vehicle on an existing map using the own vehicle position, driving trajectory, and observation results around the own vehicle (target detection results such as white lines) obtained using positioning satellites, etc. A matching technique is known (Patent Document 1).

また、自車の走行中の位置周辺に置いて他の車両等が取得した画像と、自車が撮像した画像とを照合し、自車の走行車線を推定する技術が知られている(特許文献2)。この技術では、照合に用いる画像は、走路全体を俯瞰し車線構成を判別できる画像である必要がある。 In addition, there is a known technology that estimates the lane in which the own vehicle is traveling by comparing images captured by the own vehicle with images taken by other vehicles near the location where the own vehicle is traveling (patented). Reference 2). In this technique, the image used for verification needs to be an image that provides a bird's-eye view of the entire road and allows the lane configuration to be determined.

特開2015-68665号公報JP2015-68665A 特開2018-189436号公報JP2018-189436A

上記の特許文献1に記載のマップマッチング技術では、既に走路地図が存在する必要があり、新規に地図を生成するような用途には使用できない。 The map matching technique described in Patent Document 1 requires a route map to already exist, and cannot be used to generate a new map.

また、上記の特許文献2に記載の技術では、地図情報を必要としないが、車線構成を判別できるような照合用の画像を用いる必要があり、地図情報に準ずる情報を必要とする。 Furthermore, although the technique described in Patent Document 2 does not require map information, it does require the use of a verification image that allows the lane configuration to be determined, and requires information similar to map information.

本発明は、上記の事情を鑑みてなされたもので、収集した各走行の走行データから、各走行の走行車線を精度よく判定することができる走行車線判定装置及び走行車線判定プログラムを提供することを目的とする。 The present invention has been made in view of the above circumstances, and provides a driving lane determination device and a driving lane determination program that can accurately determine the driving lane of each trip from collected travel data of each trip. With the goal.

上記目的を達成するために、本発明の走行車線判定装置は、車両走行時に時系列で得られる、車両の位置姿勢と、車両周辺画像との組み合わせである走行データを収集する走行データ収集部と、車線判定対象領域内の前記走行データの各々について、前記車両周辺画像から路面画像を生成すると共に前記車両周辺画像あるいは路面画像から物標を検出し、前記路面画像及び前記物標の検出結果を含む走行画像データを生成する走行画像データ生成部と、前記走行画像データのペアの各々について、前記物標同士を対応付けて相対位置補正量を算出し、前記相対位置補正量に基づいて、前記ペアについて、走行車線の関係を判定する走行車線関係判定部と、前記走行車線関係判定部による判定結果に基づいて、同一の走行車線について前記走行画像データからなるグループを生成すると共に、前記グループ間の車線関係を判定するグループ判定部と、を含んで構成されている。 In order to achieve the above object, the driving lane determination device of the present invention includes a driving data collection unit that collects driving data that is a combination of the position and orientation of the vehicle and images around the vehicle, which are obtained in time series while the vehicle is driving. , for each of the driving data in the lane determination target area, generate a road surface image from the vehicle surrounding image, detect a target from the vehicle surrounding image or the road surface image, and use the detection results of the road surface image and the target object. a traveling image data generation unit that generates traveling image data including the traveling image data, and calculates a relative position correction amount by associating the target objects with each other for each pair of the traveling image data, and calculates the relative position correction amount based on the relative position correction amount. For each pair, a driving lane relationship determining unit that determines the relationship between driving lanes, and a group consisting of the driving image data for the same driving lane are generated based on the determination result by the driving lane relationship determining unit, and a group is generated from the driving image data for the same driving lane. and a group determination unit that determines the lane relationship of the vehicle.

本発明に係る走行車線判定プログラムは、コンピュータを、車両走行時に時系列で得られる、車両の位置姿勢と、車両周辺画像との組み合わせである走行データを収集する走行データ収集部、車線判定対象領域内の前記走行データの各々について、前記車両周辺画像から路面画像を生成すると共に前記車両周辺画像あるいは路面画像から物標を検出し、前記路面画像及び前記物標の検出結果を含む走行画像データを生成する走行画像データ生成部、前記走行画像データのペアの各々について、前記物標同士を対応付けて相対位置補正量を算出し、前記相対位置補正量に基づいて、前記ペアについて、走行車線の関係を判定する走行車線関係判定部、及び前記走行車線関係判定部による判定結果に基づいて、同一の走行車線について前記走行画像データからなるグループを生成すると共に、前記グループ間の車線関係を判定するグループ判定部として機能させるためのプログラムである。 The driving lane determination program according to the present invention includes a computer, a driving data collection unit that collects driving data that is a combination of the position and orientation of the vehicle and images around the vehicle, which are obtained in time series while the vehicle is driving, and a lane determination target area. For each of the driving data, a road surface image is generated from the vehicle surrounding image, a target object is detected from the vehicle surrounding image or the road surface image, and driving image data including the road surface image and the detection result of the target object is generated. The driving image data generation unit calculates a relative position correction amount by associating the target objects with each other for each pair of the driving image data, and calculates a relative position correction amount for each pair of driving image data based on the relative position correction amount. A driving lane relationship determining unit that determines a relationship, and a group consisting of the driving image data for the same driving lane are generated based on the determination result by the driving lane relationship determining unit, and a lane relationship between the groups is determined. This is a program for functioning as a group determination section.

本発明によれば、走行データ収集部は、車両走行時に時系列で得られる、車両の位置姿勢と、車両周辺画像との組み合わせである走行データを収集する。走行画像データ生成部は、車線判定対象領域内の前記走行データの各々について、前記車両周辺画像から路面画像を生成すると共に前記車両周辺画像あるいは路面画像から物標を検出し、前記路面画像及び前記物標の検出結果を含む走行画像データを生成する。走行車線関係判定部は、前記走行画像データのペアの各々について、前記物標同士を対応付けて相対位置補正量を算出し、前記相対位置補正量に基づいて、前記ペアについて、走行車線の関係を判定する。そして、グループ判定部は、前記走行車線関係判定部による判定結果に基づいて、同一の走行車線について前記走行画像データからなるグループを生成すると共に、前記グループ間の車線関係を判定する。 According to the present invention, the driving data collection unit collects driving data that is a combination of the position and orientation of the vehicle and images around the vehicle, which are obtained in time series while the vehicle is traveling. The driving image data generation unit generates a road surface image from the vehicle surrounding image for each of the driving data in the lane determination target area, detects a target from the vehicle surrounding image or the road surface image, and generates a road surface image from the vehicle surrounding image or the road surface image. Generate driving image data including target detection results. The driving lane relationship determination unit calculates a relative position correction amount by associating the target objects with each other for each pair of the driving image data, and determines the driving lane relationship for the pair based on the relative position correction amount. Determine. Then, the group determining section generates groups made up of the traveling image data for the same traveling lane based on the determination result by the traveling lane relationship determining section, and determines the lane relationship between the groups.

このように、走行画像データのペアの各々について、前記物標同士を対応付けて相対位置補正量を算出し、前記相対位置補正量に基づいて、前記ペアについて、走行車線の関係を判定し、判定結果に基づいて、同一の走行車線について前記走行画像データからなるグループを生成すると共に、前記グループ間の車線関係を判定することにより、収集した各走行の走行データから、各走行の走行車線を精度よく判定することができる。 In this way, for each pair of driving image data, a relative position correction amount is calculated by associating the targets, and a relationship between driving lanes is determined for the pair based on the relative position correction amount, Based on the determination results, a group consisting of the driving image data for the same driving lane is generated, and by determining the lane relationship between the groups, the driving lane of each driving can be determined from the collected driving data of each driving. It can be determined with high accuracy.

なお、本発明のプログラムを記憶する記憶媒体は、特に限定されず、ハードディスクであってもよいし、ROMであってもよい。また、CD-ROMやDVDディスク、光磁気ディスクやICカードであってもよい。更にまた、該プログラムを、ネットワークに接続されたサーバ等からダウンロードするようにしてもよい。 Note that the storage medium that stores the program of the present invention is not particularly limited, and may be a hard disk or a ROM. Further, it may be a CD-ROM, a DVD disk, a magneto-optical disk, or an IC card. Furthermore, the program may be downloaded from a server connected to a network.

以上説明したように、本発明の走行車線判定装置及び走行車線判定プログラムによれば、収集した各走行の走行データから、各走行の走行車線を精度よく判定することができる、という効果が得られる。 As explained above, according to the driving lane determination device and the driving lane determination program of the present invention, it is possible to accurately determine the driving lane of each trip from the collected travel data of each trip. .

本発明の実施の形態に係る走行車線判定装置を示すブロック図である。FIG. 1 is a block diagram showing a driving lane determination device according to an embodiment of the present invention. 本発明の実施の形態に係る車載器を示すブロック図である。FIG. 1 is a block diagram showing an on-vehicle device according to an embodiment of the present invention. 対象領域を説明するための図である。FIG. 3 is a diagram for explaining a target area. 路面画像を生成する方法を説明するための図である。FIG. 3 is a diagram for explaining a method of generating a road surface image. 路面画像から物標を検出した結果の例を示す図である。It is a figure which shows the example of the result of detecting a target object from a road surface image. 走行画像データ対を生成する方法を説明するための図である。FIG. 3 is a diagram for explaining a method of generating a traveling image data pair. 走行画像データ対の例を示す図である。FIG. 3 is a diagram showing an example of a pair of driving image data. 走行画像データ対の物標の対応付けの例を示す図である。FIG. 6 is a diagram illustrating an example of correspondence between a pair of driving image data and a target object. 走行画像データ対での位置合わせを行った結果の例を示す図である。FIG. 3 is a diagram showing an example of the result of positioning a pair of driving image data. 同一車線を判定される走行画像データ対の例を示す図である。FIG. 6 is a diagram illustrating an example of a pair of driving image data in which the same lane is determined. 隣接車線を判定される走行画像データ対の例を示す図である。FIG. 6 is a diagram illustrating an example of a pair of driving image data for which adjacent lanes are determined. 走行画像データの全組み合わせについての判定結果の例を示す図である。FIG. 6 is a diagram showing an example of determination results for all combinations of travel image data. 同一車線を判定される走行画像データ対の例を示す図である。FIG. 6 is a diagram illustrating an example of a pair of driving image data in which the same lane is determined. 隣接車線を判定される走行画像データ対の例を示す図である。FIG. 6 is a diagram illustrating an example of a pair of driving image data for which adjacent lanes are determined. 車線変更と判定される走行画像データ対の例を示す図である。FIG. 6 is a diagram illustrating an example of a pair of driving image data that is determined to be a lane change. 車線グループテーブルの例を示す図である。FIG. 3 is a diagram showing an example of a lane group table. 車線構成テーブルの例を示す図である。FIG. 3 is a diagram showing an example of a lane configuration table. (A)誤判定を含む判定結果の例を示すイメージ図、及び(B)車線構成結果の例を示す図である。(A) An image diagram showing an example of a determination result including an erroneous determination, and (B) a diagram showing an example of a lane configuration result. 本発明の実施の形態に係る走行車線判定装置のコンピュータにおける走行車線判定処理ルーチンの内容を示すフローチャートである。 以下、図面を参照して本発明の実施の形態を詳細に説明する。2 is a flowchart showing the contents of a driving lane determination processing routine in the computer of the driving lane determining device according to the embodiment of the present invention. Embodiments of the present invention will be described in detail below with reference to the drawings.

<システム構成>
図1に示すように、本発明の実施の形態に係る走行車線判定装置10は、後述する車載器によって生成された走行データを受信するための通信部12と、受信した走行データに基づいて、各走行の走行車線を判定し、出力部16へ出力するコンピュータ14と、を備えている。
<System configuration>
As shown in FIG. 1, the driving lane determination device 10 according to the embodiment of the present invention includes a communication unit 12 for receiving driving data generated by an on-vehicle device, which will be described later, and a communication unit 12 for receiving driving data generated by an on-vehicle device, which will be described later, and based on the received driving data, The vehicle includes a computer 14 that determines the driving lane for each drive and outputs the result to an output unit 16.

通信部12は、各車両の車載器で生成された走行データを受信する。走行データは、図2に示す車載器50によって生成される。 The communication unit 12 receives travel data generated by the onboard equipment of each vehicle. The travel data is generated by the on-vehicle device 50 shown in FIG.

車載器50は、GPS衛星からの電波を受信するGPS受信部52と、ジャイロセンサ53と、自車両の前方を撮像する撮像装置54と、GPS受信部52によって受信されたGPS衛星からの受信信号、ジャイロセンサ53の出力、及び撮像装置54によって撮像された前方画像に基づいて、測位結果の時系列及び撮像画像の時系列を含む走行データを生成するコンピュータ60と、走行データを走行車線判定装置10へ送信する通信部70とを備えている。 The onboard device 50 includes a GPS receiving unit 52 that receives radio waves from GPS satellites, a gyro sensor 53, an imaging device 54 that captures an image in front of the vehicle, and a reception signal from the GPS satellite received by the GPS receiving unit 52. , a computer 60 that generates running data including a time series of positioning results and a time series of captured images based on the output of the gyro sensor 53 and the forward image captured by the imaging device 54; 10.

GPS受信部52は、複数のGPS衛星からの電波を受信して、受信した全てのGPS衛星からの受信信号から、GPS衛星の情報として、GPS衛星の衛星番号、GPS衛星の軌道情報(エフェメリス)、GPS衛星が電波を送信した時刻、受信信号の強度、周波数などを取得し、コンピュータ60に出力する。 The GPS receiving unit 52 receives radio waves from a plurality of GPS satellites, and obtains GPS satellite information such as the satellite number of the GPS satellite and the orbit information (ephemeris) of the GPS satellite from the received signals from all the received GPS satellites. , the time when the GPS satellite transmitted the radio wave, the strength of the received signal, the frequency, etc. are acquired and output to the computer 60.

撮像装置54は、前方画像を繰り返し撮像し、コンピュータ60へ出力する。例えば、自車両が走行中の車線周辺が撮像範囲となる。 The imaging device 54 repeatedly captures front images and outputs them to the computer 60. For example, the imaging range is around the lane in which the own vehicle is traveling.

コンピュータ60を機能ブロックで表すと、図2に示すように、GPS受信部52から、電波を受信した全てのGPS衛星について、GPS衛星の情報を取得すると共に、GPS衛星の情報及びジャイロセンサ53の出力から、各時刻における自車両の位置、方位、車速などの時系列値を取得する測位情報取得部62と、撮像装置54によって各時刻において撮像された前方画像を取得し、取得した前方画像を、鳥瞰図となるように平面に投影した平面画像を生成する画像取得部64と、各時刻における自車両の位置、方位、車速などの時系列値、及び各時刻の平面画像を含む走行データを生成する走行データ生成部66とを備えている。 If the computer 60 is represented by functional blocks, as shown in FIG. From the output, the positioning information acquisition unit 62 acquires time-series values such as the position, direction, and vehicle speed of the host vehicle at each time, and the imaging device 54 acquires the forward image taken at each time, and the acquired forward image is , an image acquisition unit 64 that generates a planar image projected onto a plane to provide a bird's-eye view, and generates travel data including time-series values such as the position, direction, and vehicle speed of the own vehicle at each time, and a planar image at each time. The driving data generating section 66 is provided with a driving data generating section 66 that

上記図1に示す、コンピュータ14は、CPU、後述する走行車線判定処理ルーチンを実現するためのプログラムを記憶したROM、データを一時的に記憶するRAM、及びHDD等の記憶装置で構成されている。 The computer 14 shown in FIG. 1 is comprised of a CPU, a ROM that stores a program for implementing a driving lane determination processing routine that will be described later, a RAM that temporarily stores data, and a storage device such as an HDD. .

コンピュータ14を以下で説明する走行車線判定処理ルーチンに従って機能ブロックで表すと、図1に示すように、走行データ収集部20と、走行データ記憶部22と、領域設定部24と、物標検出部26と、走行データ対生成部28と、相対位置補正部30と、相対車線判定部32と、位置関係判定結果修正部34と、整合性判定結果修正部36と、グループ判定部38と、車線構成同定部40とを備えている。なお、物標検出部26は、走行画像データ生成部の一例であり、相対車線判定部32は、走行車線関係判定部の一例であり、グループ判定部38及び車線構成同定部40は、グループ判定部の一例である。 When the computer 14 is expressed in functional blocks according to the driving lane determination processing routine described below, as shown in FIG. 26, a driving data pair generation section 28, a relative position correction section 30, a relative lane judgment section 32, a positional relationship judgment result correction section 34, a consistency judgment result correction section 36, a group judgment section 38, and a lane judgment section 38. The configuration identification section 40 is also provided. Note that the target detection unit 26 is an example of a driving image data generation unit, the relative lane determining unit 32 is an example of a driving lane relationship determining unit, and the group determining unit 38 and lane configuration identifying unit 40 are examples of a driving image data generating unit. This is an example of the section.

走行データ収集部20は、各車両の車載器50から受信した走行データを収集し、走行データ記憶部22に格納する。 The driving data collection unit 20 collects driving data received from the on-vehicle device 50 of each vehicle, and stores it in the driving data storage unit 22.

走行データ記憶部22は、収集した複数の走行データを記憶している。 The travel data storage unit 22 stores a plurality of pieces of collected travel data.

領域設定部24は、走行車線を判定する小領域である対象領域を設定する。例えば、100m四方のグリッド状の小領域を対象領域として設定する(図3参照)。 The area setting unit 24 sets a target area, which is a small area for determining the driving lane. For example, a grid-like small area of 100 m square is set as the target area (see FIG. 3).

物標検出部26は、集約した全走行データの内、設定した対象領域内を通過する走行データに対し、路面画像を生成すると同時に、物標(区画線等)を検出する。具体的には、走行データが収集されたときの車両走行軌跡が、対象領域を通過する走行データを、走行データ記憶部22から取得し、取得した各走行データについて、走行データの各時刻の平面画像を、車両走行軌跡に沿って貼り合わせることにより、路面画像を生成する(図4参照)。なお、車両走行軌跡は、走行データの各時刻の車両位置及び方位から求めてもよいし、各時刻の平面画像に対して予め定められた撮像位置をつなぐことにより求めてもよい。 The target detection unit 26 generates a road surface image and simultaneously detects a target (such as a marking line) for travel data passing through a set target area out of all collected travel data. Specifically, the travel data in which the vehicle travel locus at the time the travel data was collected passes through the target area is acquired from the travel data storage unit 22, and for each acquired travel data, the plane at each time of the travel data is acquired. A road surface image is generated by pasting together the images along the vehicle travel trajectory (see FIG. 4). Note that the vehicle travel trajectory may be determined from the vehicle position and direction at each time in the travel data, or by connecting predetermined imaging positions to plane images at each time.

物標検出部26は、車両周辺画像あるいは生成した路面画像から、物標(例えば、区画線や標識、看板、信号)を検出し(図5参照)、生成した路面画像と物標群を含む走行画像データにユニークな走行IDを付与する。対象領域を複数回通過する場合には、それぞれ個別の走行IDが付与される。 The target detection unit 26 detects targets (for example, lane markings, signs, signboards, traffic lights) from the vehicle surrounding image or the generated road surface image (see FIG. 5), and detects targets including the generated road surface image and a group of targets. A unique travel ID is given to travel image data. If the vehicle passes through the target area multiple times, a separate travel ID is assigned to each travel ID.

走行データ対生成部28は、設定した対象領域について生成した、ユニークな走行IDを持つ走行画像データの1対1の走行画像データ対を生成する(図6参照)。 The travel data pair generation unit 28 generates a one-to-one travel image data pair of travel image data having a unique travel ID generated for the set target area (see FIG. 6).

相対位置補正部30は、走行画像データ対の各々について、物標同士を対応付けて相対位置補正量を算出し、相対位置補正量を用いて、当該走行画像データ対の各走行画像データの路面画像を重ね合わせる。具体的には、相対位置補正部30は、走行画像データ対を構成する走行画像データA、Bに対して、走行画像データAの物標群と走行画像データBの物標群を対応付けする。例えば、図7に示すように、走行画像データA、Bから、区画線の端点を求め、図8に示すように、走行画像データA、B間で、区画線の端点の対応付けを行う。そして、対応付いた物標群の位置ずれが最小となるような座標変換情報を相対位置補正量として算出する。位置ずれとしては、例えば区画線の端点の距離の二乗和平均を指標とすることができる。算出した相対位置補正量を用いて、例えば走行画像データAと走行画像データBとの位置合わせを行う(図9参照)。 The relative position correction unit 30 calculates a relative position correction amount by associating targets with each other in each pair of traveling image data, and uses the relative position correction amount to adjust the road surface of each traveling image data of the pair of traveling image data. Overlay images. Specifically, the relative position correction unit 30 associates the target object group of the traveling image data A and the target object group of the traveling image data B with respect to the traveling image data A and B forming the traveling image data pair. . For example, as shown in FIG. 7, the end points of the marking lines are found from the driving image data A and B, and as shown in FIG. 8, the end points of the marking lines are correlated between the driving image data A and B. Then, coordinate transformation information that minimizes the positional deviation of the associated target group is calculated as the relative position correction amount. As the positional deviation, for example, the average sum of squares of the distances between the end points of the partition lines can be used as an index. Using the calculated relative position correction amount, for example, the running image data A and the running image data B are aligned (see FIG. 9).

相対車線判定部32は、走行画像データ対の各々について、位置合わせを行った結果に基づいて、走行車線の相対関係を判定する。 The relative lane determining unit 32 determines the relative relationship of the driving lanes based on the result of positioning each pair of driving image data.

具体的には、位置合わせを行った走行画像データ対に対して、走行方位、路面画像の重なり率や走行軌跡の距離などを基準に、走行車線の相対関係の判定を行う。走行車線の相対関係として、同一車線、隣接車線、及び対向車線の何れであるかを判定する。例えば、図10に示すように、走行方位が同一であって、重なり率が閾値以上である場合には、同一車線と判定する。また、図11に示すように、走行方位が同一であって、重なり率が0より大きく閾値未満である場合には、隣接車線と判定する。また、走行方位が反対であって、重なり率が0より大きく閾値未満である場合には、対向車線と判定する。それ以外の場合には、何れにも該当しないと判定する。 Specifically, the relative relationship of the driving lanes is determined for the aligned driving image data pair based on the driving direction, the overlapping rate of road surface images, the distance of the driving trajectory, and the like. As for the relative relationship between the driving lanes, it is determined whether they are in the same lane, an adjacent lane, or an oncoming lane. For example, as shown in FIG. 10, if the driving directions are the same and the overlap rate is greater than or equal to the threshold, it is determined that the lanes are in the same lane. Further, as shown in FIG. 11, if the driving directions are the same and the overlap rate is greater than 0 and less than the threshold value, the lanes are determined to be adjacent lanes. Further, if the driving direction is opposite and the overlap rate is greater than 0 and less than the threshold value, it is determined that the vehicle is in an oncoming lane. In other cases, it is determined that none of the conditions apply.

そして、走行画像データ対の各々についての走行車線の相対関係の判定結果を、相対関係判定表に格納する(図12)。図12の例では、各行が1つの走行画像データに対する判定結果で、「同一車線」、「隣接車線」、「対向車線」等の値を持つ。隣接車線の場合は、判定対象が自車線に対して左車線の場合と右車線の区別がある。相対車線判定ができない場合は、空欄となる。すわなち、同一車線と判定された走行画像データ対については値「0」を格納し、対向車線と判定された走行画像データ対については値「-」を格納する。また、隣接車線と判定された走行画像データ対については、一方の走行画像データに対して他方の走行画像データが右側の隣接車線であれば、値「1」を格納し、一方の走行画像データに対して他方の走行画像データが左側の隣接車線であれば、値「2」を格納する。 Then, the determination result of the relative relationship between the driving lanes for each pair of driving image data is stored in the relative relationship determination table (FIG. 12). In the example of FIG. 12, each row is a determination result for one piece of driving image data, and has values such as "same lane," "adjacent lane," and "oncoming lane." In the case of adjacent lanes, there is a distinction between cases where the judgment target is the left lane of the own lane and cases where the judgment target is the right lane. If relative lane judgment cannot be made, this field will be left blank. That is, a value "0" is stored for a pair of traveling image data determined to be in the same lane, and a value "-" is stored for a pair of traveling image data determined to be in an oncoming lane. Regarding a pair of driving image data determined to be adjacent lanes, if the driving image data of one driving image data is the adjacent lane on the right side, the value "1" is stored, and the driving image data of one side is On the other hand, if the other driving image data is the adjacent lane on the left side, the value "2" is stored.

位置関係判定結果修正部34は、走行画像データ対の各々について、当該走行画像データ対の位置合わせを行った各走行画像データの走行軌跡と物標との位置関係により、当該走行画像データ対についての判定結果を修正する。 The positional relationship determination result correction unit 34 corrects each pair of traveling image data based on the positional relationship between the traveling locus and the target object of each traveling image data that has been aligned for each pair of traveling image data. Correct the judgment result.

具体的には、図13~図15に示すように、位置合わせを行った走行画像データ対の各車両走行軌跡と物標として検出した区画線との位置関係により相対車線判定を行う。図13、図14では、各時刻の各車両走行軌跡の進行方向に直交する方向に区画線を探索し、ある区画線に対して同じ側に走行軌跡Aと走行軌跡Bが存在すれば同一車線と判定し、別の側にあれば隣接車線と判定するように修正する例を示している。図15では、対象領域内で同一車線判定結果、隣接車線の判定結果が混在すれば、車線変更ありと判定する例を示している。なお、判定結果を修正するのではなく、当該判定結果を無効にしてもよい。 Specifically, as shown in FIGS. 13 to 15, the relative lane is determined based on the positional relationship between each vehicle traveling trajectory of the aligned traveling image data pair and the marking line detected as a target object. In FIGS. 13 and 14, marking lines are searched in a direction perpendicular to the direction of travel of each vehicle traveling trajectory at each time, and if traveling trajectory A and traveling trajectory B exist on the same side of a certain marking line, they are in the same lane. This example shows an example in which the vehicle is determined to be on the other side, and the lane is determined to be adjacent if the vehicle is on the other side. FIG. 15 shows an example in which if the same lane determination result and the adjacent lane determination result coexist within the target area, it is determined that there is a lane change. Note that instead of correcting the determination result, the determination result may be invalidated.

整合性判定結果修正部36は、走行画像データ対の各々についての判定結果の整合性を考慮して、走行車線の相対関係の判定結果を修正する。 The consistency determination result modification unit 36 modifies the determination result of the relative relationship between the driving lanes, taking into consideration the consistency of the determination results for each pair of driving image data.

相対車線判定部32、位置関係判定結果修正部34による判定結果には誤判定が含まれる場合がある。例えば、隣接車線と判定されている走行画像データA、Bに対して、走行画像データCがいずれも同一車線と判定されているなどがある。このような相対車線の判定結果の整合性を考慮することにより、誤判定を排除する。 The determination results by the relative lane determining section 32 and the positional relationship determination result correcting section 34 may include erroneous determinations. For example, traveling image data A and B are determined to be in adjacent lanes, while traveling image data C is determined to be in the same lane. Misjudgments are eliminated by considering the consistency of such relative lane judgment results.

具体的な手順としては次の手順1~手順3が考えられる。 The following steps 1 to 3 can be considered as specific steps.

(手順1)図16に示す車線グループテーブルを初期化し、登録なしとする。車線グループテーブルでは、グループごとに、同一車線と判定された走行画像データのIDを「同一車線判定ID」に登録し、当該同一車線と判定された走行画像データに対して右側の隣接車線と判定された走行画像データのIDを「右隣接車線判定ID」に登録し、当該同一車線と判定された走行画像データに対して左側の隣接車線と判定された走行画像データのIDを「左隣接車線判定ID」に登録する。また、車線グループテーブルは、走行方位毎に用意されている。 (Step 1) Initialize the lane group table shown in FIG. 16 and set it to no registration. In the lane group table, for each group, the ID of the driving image data determined to be in the same lane is registered in the "same lane determination ID", and the driving image data determined to be in the same lane is determined to be the adjacent lane on the right side. The ID of the traveling image data that has been determined to be the adjacent lane on the left is registered in the "right adjacent lane determination ID", and the ID of the traveling image data that has been determined to be the adjacent lane on the left with respect to the traveling image data that has been determined to be the same lane is registered as the "left adjacent lane determination ID". "Judgment ID". Furthermore, a lane group table is prepared for each driving direction.

(手順2)各走行画像データに対して、同一車線と判定された走行画像データ数を算出し、降順に走行画像データを選択し、後述する手順3を繰り返す。ここで、選択した走行画像データのIDを「I」とする。 (Procedure 2) For each of the driving image data, calculate the number of driving image data determined to be in the same lane, select the driving image data in descending order, and repeat Step 3 described later. Here, the ID of the selected traveling image data is assumed to be "I".

(手順3)車線グループテーブルから、ID「I」が、「同一車線判定ID」に登録されたグループを探索する。 (Step 3) Search the lane group table for a group in which ID "I" is registered as "same lane determination ID".

(手順3a)探索結果のグループが存在しなければ、新規の車線グループを生成し、ID「I」を、「同一車線判定ID」に登録し、ID「I」の走行画像データに対して右側の「隣接車線」と判定された走行画像データのIDを、新規の車線グループの「右隣接車線判定ID」に登録し、ID「I」の走行画像データに対して左側の「隣接車線」と判定された走行画像データのIDを、新規の車線グループの「左隣接車線判定ID」に登録する。 (Step 3a) If the search result group does not exist, create a new lane group, register ID "I" as "same lane determination ID", and The ID of the driving image data determined to be the "adjacent lane" is registered in the "right adjacent lane determination ID" of the new lane group, and the ID of the driving image data determined to be the "adjacent lane" on the left is registered as the "adjacent lane" on the left for the driving image data with ID "I". The ID of the determined driving image data is registered in the "left adjacent lane determination ID" of the new lane group.

(手順3b)探索結果のグループが1つだけ存在し、ID「I」の走行画像データに対して右側の「隣接車線」と判定された走行画像データのIDを、当該グループの「右隣接車線判定ID」に登録し、ID「I」の走行画像データに対して左側の「隣接車線」と判定された走行画像データのIDを、当該グループの「左隣接車線判定ID」に登録する。 (Step 3b) If there is only one group in the search results, the ID of the driving image data determined to be the "adjacent lane" on the right side for the driving image data with ID "I" is set to the "right adjacent lane" of the group. The ID of the traveling image data determined to be the "adjacent lane" on the left side with respect to the traveling image data with ID "I" is registered in the "left adjacent lane determination ID" of the group.

(手順3c)上記以外ならば、車線グループテーブルへの登録は行わない。すなわち、探索結果のグループが2つ以上存在する場合には、誤判定の可能性があるため、車線グループテーブルへの登録は行わない。 (Step 3c) If it is other than the above, it will not be registered in the lane group table. That is, if there are two or more search result groups, they are not registered in the lane group table because there is a possibility of erroneous determination.

グループ判定部38は、整合性判定結果修正部36による修正後の判定結果に基づいて、同一の走行車線についての走行画像データからなる車線グループを生成する。 The group determining unit 38 generates a lane group consisting of driving image data regarding the same driving lane, based on the corrected determination result by the consistency determination result correcting unit 36.

具体的には、同一の走行車線と判定されている走行画像データを車線グループとしてグルーピングする。 Specifically, the driving image data determined to be in the same driving lane are grouped as a lane group.

車線構成同定部40は、車線グループ間の相対車線関係を判定する。車線グループ間で隣接車線判定されている車線グループ対を探索し、車線グループ間の相対車線判定を行い、複数の車線グループ間の相対車線判定結果を用いて車線構成を判定する。 The lane configuration identification unit 40 determines relative lane relationships between lane groups. A pair of lane groups that are determined to be adjacent lanes is searched for, a relative lane determination is made between the lane groups, and a lane configuration is determined using the relative lane determination results between the plurality of lane groups.

具体的には、図17に示すように、走行方位毎に、車線グループ間で、一方の車線グループの同一車線判定IDと、他方の車線グループの右隣接車線判定ID又は左隣接車線判定IDとを照合し、車線グループ間の相対車線関係を判定する。 Specifically, as shown in FIG. 17, for each driving direction, the same lane determination ID of one lane group and the right adjacent lane determination ID or left adjacent lane determination ID of the other lane group are determined between lane groups. to determine the relative lane relationship between lane groups.

図17の例では、車線グループ間で、一方の車線グループの同一車線判定IDと、他方の車線グループの右隣接車線判定ID又は左隣接車線判定IDとを照合した結果に基づいて、複数の車線が並んだレーングループにおいて車線を並べた順に、レーンIDを付与するとともに、当該車線と同一の走行車線と判定された走行画像データの走行IDを車線構成テーブルに登録する例を示している。 In the example of FIG. 17, based on the result of comparing the same lane determination ID of one lane group with the right adjacent lane determination ID or left adjacent lane determination ID of the other lane group, multiple lanes are The example shows an example in which lane IDs are assigned in the order in which lanes are arranged in a lane group in which lanes are lined up, and driving IDs of driving image data that are determined to be the same driving lane as the lane in question are registered in a lane configuration table.

車線構成同定部40は、車線構成の判定結果を、出力部16により出力する。図18(A)に示すように、走行画像データ対に対する相対車線の判定結果に、誤判定が含まれている場合であっても、図18(B)に示すように、誤判定を取り除いた上で、車線グループ間の相対車線関係の判定結果を、車線構成として出力することができる。 The lane configuration identification unit 40 outputs the lane configuration determination result through the output unit 16. As shown in FIG. 18(A), even if the relative lane judgment results for the driving image data pair include misjudgments, the misjudgments are removed as shown in FIG. 18(B). In the above, the determination result of the relative lane relationship between lane groups can be output as a lane configuration.

次に、本実施の形態の作用について説明する。 Next, the operation of this embodiment will be explained.

まず、各車両の車載器50において、測位結果の時系列及び撮像画像の時系列を含む走行データを生成する。各車両の車載器50によって生成された多数の走行データが、走行車線判定装置10に送信されると、多数の走行データが、走行データ記憶部22に記憶される。 First, the onboard device 50 of each vehicle generates travel data including a time series of positioning results and a time series of captured images. When a large amount of travel data generated by the on-vehicle device 50 of each vehicle is transmitted to the driving lane determination device 10, the large amount of travel data is stored in the travel data storage section 22.

また、走行車線判定装置10は、走行データ記憶部22に記憶された多数の走行データに基づいて、図19に示す走行車線判定処理ルーチンを実行する。走行車線を判定する小領域である対象領域毎に、走行車線判定処理ルーチンが繰り返し実行される。 Further, the driving lane determining device 10 executes a driving lane determining processing routine shown in FIG. 19 based on a large amount of driving data stored in the driving data storage section 22. The driving lane determination processing routine is repeatedly executed for each target area, which is a small area for determining the driving lane.

ステップS100では、領域設定部24は、対象領域を設定する。 In step S100, the area setting unit 24 sets a target area.

ステップS102では、物標検出部26は、走行データ記憶部22に記憶された全走行データの内、設定した対象領域内を通過する走行データを取得する。 In step S102, the target detection unit 26 acquires travel data that passes through the set target area from among all the travel data stored in the travel data storage unit 22.

ステップS104では、物標検出部26は、上記ステップS102で取得した走行データの各々に対し、路面画像を生成すると同時に、物標を検出し、生成した路面画像と物標群を含む走行画像データを生成し、走行IDを付与する In step S104, the target object detection unit 26 generates a road surface image for each of the driving data acquired in step S102, detects the target object, and generates driving image data including the generated road surface image and the target object group. Generate and assign driving ID

ステップS106では、走行データ対生成部28は、設定した対象領域について生成した、走行画像データの1対1の走行画像データ対を生成する。 In step S106, the traveling data pair generation unit 28 generates a one-to-one traveling image data pair of the traveling image data generated for the set target area.

ステップS108では、相対位置補正部30は、走行画像データ対の各々について、物標同士を対応付けて相対位置補正量を算出し、相対位置補正量を用いて、当該走行画像データ対の各走行画像データの路面画像を重ね合わせる。 In step S108, the relative position correction unit 30 calculates the relative position correction amount by associating the targets with respect to each of the traveling image data pairs, and calculates the relative position correction amount for each traveling image data pair using the relative position correction amount. Overlay the road surface images of the image data.

ステップS110では、相対車線判定部32は、走行画像データ対の各々について、位置合わせを行った結果に基づいて、走行車線の相対関係を判定する。 In step S110, the relative lane determining unit 32 determines the relative relationship of the driving lanes based on the result of positioning each pair of driving image data.

ステップS112では、位置関係判定結果修正部34は、走行画像データ対の各々について、当該走行画像データ対の位置合わせを行った各走行画像データの走行軌跡と物標との位置関係により、当該走行画像データ対についての判定結果を修正する。 In step S112, the positional relationship determination result correction unit 34 adjusts the positional relationship between the traveling locus and the target object of each traveling image data pair for each traveling image data pair, based on the positional relationship between the traveling locus and the target object. Modify the determination result for the image data pair.

ステップS114では、整合性判定結果修正部36は、走行画像データ対の各々についての判定結果の整合性を考慮して、走行車線の相対関係の判定結果を修正する。 In step S114, the consistency determination result modification unit 36 modifies the determination result of the relative relationship between the driving lanes, taking into consideration the consistency of the determination results for each pair of driving image data.

ステップS116では、グループ判定部38は、整合性判定結果修正部36による修正後の判定結果に基づいて、同一の走行車線についての走行画像データからなる車線グループを各々生成する。 In step S116, the group determining unit 38 generates lane groups each consisting of driving image data for the same driving lane, based on the corrected determination result by the consistency determination result correcting unit 36.

ステップS118では、車線構成同定部40は、車線グループ間の相対車線関係を判定する。車線構成同定部40は、車線構成の判定結果を、出力部16により出力する。 In step S118, the lane configuration identification unit 40 determines the relative lane relationship between the lane groups. The lane configuration identification unit 40 outputs the lane configuration determination result through the output unit 16.

以上説明したように、本発明の実施の形態に係る走行車線判定装置によれば、走行画像データ対の各々について、物標同士を対応付けて相対位置補正量を算出し、相対位置補正量に基づいて、当該走行画像データ対について、走行車線の相対関係を判定し、判定結果に基づいて、同一の走行車線について走行画像データからなるグループを生成すると共に、グループ間の車線関係を判定することにより、収集した各走行の走行データから、各走行の走行車線を精度よく判定することができる。 As explained above, according to the driving lane determination device according to the embodiment of the present invention, for each pair of driving image data, the relative position correction amount is calculated by associating the targets with each other, and the relative position correction amount is based on the driving image data pair, determining the relative relationship of the driving lanes, and based on the determination result, generating a group consisting of driving image data for the same driving lane, and determining the lane relationship between the groups. Accordingly, it is possible to accurately determine the driving lane of each trip from the collected travel data of each trip.

また、収集した走行画像データのうちの1対1の走行画像データ対の位置合わせに基づく走行車線の相対関係の整合性を考慮することにより、誤りの少ない走行車線判定及び車線構成判定ができる。また、自車線周辺のみで走路全体を俯瞰できず、かつ、絶対位置に誤差を持つ走行データ群であっても、各走行の走行車線及び車線構成を判定することができる。 Further, by considering the consistency of the relative relationship of the driving lanes based on the one-to-one alignment of pairs of driving image data of the collected driving image data, it is possible to determine the driving lane and the lane configuration with fewer errors. Moreover, even if the entire driving route cannot be viewed from only around the vehicle's own lane, and the driving data group has an error in absolute position, the driving lane and lane configuration of each driving can be determined.

本発明は、上述した実施形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。 The present invention is not limited to the embodiments described above, and various modifications and applications are possible without departing from the gist of the invention.

例えば、位置関係判定結果修正部34を省略して、整合性判定結果修正部36による修正のみとしてもよいし、整合性判定結果修正部36を省略して、位置関係判定結果修正部34による修正のみとしてもよい。また、位置関係判定結果修正部34及び整合性判定結果修正部36を省略して、判定結果の修正を行わずに、車線グループを生成し、車線構成を判定してもよい。 For example, the positional relationship determination result correction unit 34 may be omitted and only the consistency determination result correction unit 36 may perform corrections, or the consistency judgment result correction unit 36 may be omitted and the positional relationship judgment result correction unit 34 may perform corrections. It may also be used alone. Alternatively, the positional relationship determination result modification unit 34 and the consistency determination result modification unit 36 may be omitted, and lane groups may be generated and lane configurations determined without modifying the determination results.

10 走行車線判定装置
12 通信部
14 コンピュータ
16 出力部
20 走行データ収集部
22 走行データ記憶部
24 領域設定部
26 物標検出部
28 走行データ対生成部
30 相対位置補正部
32 相対車線判定部
34 位置関係判定結果修正部
36 整合性判定結果修正部
38 グループ判定部
40 車線構成同定部
50 車載器
52 GPS受信部
53 ジャイロセンサ
54 撮像装置
60 コンピュータ
10 Travel lane determination device 12 Communication unit 14 Computer 16 Output unit 20 Travel data collection unit 22 Travel data storage unit 24 Area setting unit 26 Target detection unit 28 Travel data pair generation unit 30 Relative position correction unit 32 Relative lane determination unit 34 Position Relationship determination result modification unit 36 Consistency determination result modification unit 38 Group determination unit 40 Lane configuration identification unit 50 Onboard device 52 GPS reception unit 53 Gyro sensor 54 Imaging device 60 Computer

Claims (5)

車両走行時に時系列で得られる、車両の位置姿勢と、車両周辺画像との組み合わせである走行データを収集する走行データ収集部と、
車線判定対象領域を設定する領域設定部と、
前記収集した走行データのうち、前記車線判定対象領域内を通過する前記走行データの各々について、前記車両周辺画像から路面画像を生成すると共に前記車両周辺画像あるいは路面画像から物標を検出し、前記路面画像及び前記物標の検出結果を含む走行画像データを生成する走行画像データ生成部と、
前記走行画像データのペアの各々について、前記物標同士を対応付けて相対位置補正量を算出し、前記相対位置補正量に基づいて、前記ペアについて、走行車線の関係として、同一車線、隣接車線、及び対向車線の何れであるかを判定する走行車線関係判定部と、
前記走行車線関係判定部による判定結果に基づいて、走行方位毎に、同一の走行車線について前記走行画像データからなるグループを生成すると共に、前記走行方位毎に、前記グループ間の車線関係として、一方の前記グループに属する前記走行画像データの走行車線が、他方の前記グループに属する前記走行画像データの走行車線に対して、同一車線及び隣接車線の何れであるかを判定するグループ判定部と、
を含む走行車線判定装置。
a driving data collection unit that collects driving data that is a combination of the position and orientation of the vehicle and images around the vehicle, which are obtained in time series while the vehicle is driving;
an area setting unit that sets a lane determination target area;
Among the collected driving data, for each of the driving data passing through the lane determination target area, a road surface image is generated from the vehicle surrounding image, and a target object is detected from the vehicle surrounding image or the road surface image, and the a traveling image data generation unit that generates traveling image data including a road surface image and a detection result of the target object;
For each pair of driving image data, a relative position correction amount is calculated by associating the targets, and based on the relative position correction amount, the driving lane relationship for the pair is determined as the same lane or adjacent lane. , and a driving lane relationship determination unit that determines which of the oncoming lanes is on .
Based on the determination result by the driving lane relationship determining section, a group consisting of the driving image data for the same driving lane is generated for each driving direction , and one of the lane relationships between the groups is generated for each driving direction. a group determining unit that determines whether the driving lane of the driving image data belonging to the group is the same lane or an adjacent lane with respect to the driving lane of the driving image data belonging to the other group;
A driving lane determination device including:
前記走行車線関係判定部による前記ペアの各々についての判定結果の整合性を考慮して、前記ペアの各々についての判定結果を修正する整合性判定結果修正部を更に含み、
前記グループ判定部は、前記整合性判定結果修正部による修正後の前記判定結果に基づいて、前記グループを生成すると共に、前記グループ間の車線関係を判定する請求項1記載の走行車線判定装置。
further comprising a consistency determination result modification unit that corrects the determination result for each of the pairs in consideration of the consistency of the determination results for each of the pairs by the driving lane relationship determination unit;
The driving lane determining device according to claim 1, wherein the group determining section generates the groups based on the determination results corrected by the consistency determination result correcting section, and determines lane relationships between the groups.
前記ペアの各々について、前記走行データが収集されたときの車両走行軌跡と前記物標との位置関係により、前記ペアについての判定結果を修正する位置関係判定結果修正部を更に含み、
前記グループ判定部は、前記位置関係判定結果修正部による修正後の前記判定結果に基づいて、前記グループを生成すると共に、前記グループ間の車線関係を判定する請求項1記載の走行車線判定装置。
Further comprising a positional relationship determination result correction unit that corrects the determination result for each of the pairs based on the positional relationship between the vehicle travel trajectory and the target object when the travel data was collected,
The driving lane determining device according to claim 1, wherein the group determining section generates the groups and determines lane relationships between the groups based on the determination results corrected by the positional relationship determination result correcting section.
前記ペアの各々について、前記走行データが収集されたときの走行軌跡と前記物標との位置関係により、前記ペアについての判定結果を修正する位置関係判定結果修正部と、
前記ペアの各々についての前記位置関係判定結果修正部による修正後の判定結果の整合性を考慮して、前記ペアの各々についての判定結果を修正する整合性判定結果修正部とを更に含み、
前記グループ判定部は、前記整合性判定結果修正部による修正後の前記判定結果に基づいて、前記グループを生成すると共に、前記グループ間の車線関係を判定する請求項1記載の走行車線判定装置。
a positional relationship determination result correction unit that corrects the determination result for each of the pairs based on the positional relationship between the travel trajectory and the target object when the travel data was collected;
further comprising a consistency determination result modification unit that modifies the determination result for each of the pairs, taking into consideration the consistency of the determination result after modification by the positional relationship determination result modification unit for each of the pairs,
The driving lane determining device according to claim 1, wherein the group determining section generates the groups based on the determination results corrected by the consistency determination result correcting section, and determines lane relationships between the groups.
コンピュータを、
車両走行時に時系列で得られる、車両の位置姿勢と、車両周辺画像との組み合わせである走行データを収集する走行データ収集部、
車線判定対象領域を設定する領域設定部、
前記収集した走行データのうち、前記車線判定対象領域内を通過する前記走行データの各々について、前記車両周辺画像から路面画像を生成すると共に前記車両周辺画像あるいは路面画像から物標を検出し、前記路面画像及び前記物標の検出結果を含む走行画像データを生成する走行画像データ生成部、
前記走行画像データのペアの各々について、前記物標同士を対応付けて相対位置補正量を算出し、前記相対位置補正量に基づいて、前記ペアについて、走行車線の関係として、同一車線、隣接車線、及び対向車線の何れであるかを判定する走行車線関係判定部、及び
前記走行車線関係判定部による判定結果に基づいて、走行方位毎に、同一の走行車線について前記走行画像データからなるグループを生成すると共に、前記走行方位毎に、前記グループ間の車線関係として、一方の前記グループに属する前記走行画像データの走行車線が、他方の前記グループに属する前記走行画像データの走行車線に対して、同一車線及び隣接車線の何れであるかを判定するグループ判定部、
として機能させるための走行車線判定プログラム。
computer,
a driving data collection unit that collects driving data that is a combination of the position and orientation of the vehicle and images around the vehicle, which are obtained in time series while the vehicle is driving;
an area setting unit that sets a lane determination target area;
Among the collected driving data, for each of the driving data passing through the lane determination target area, a road surface image is generated from the vehicle surrounding image, and a target object is detected from the vehicle surrounding image or the road surface image, and the a traveling image data generation unit that generates traveling image data including a road surface image and a detection result of the target object;
For each pair of driving image data, a relative position correction amount is calculated by associating the targets, and based on the relative position correction amount, the driving lane relationship for the pair is determined as the same lane or adjacent lane. , a driving lane relationship determination unit that determines which of the oncoming lanes the driving lane is, and a group consisting of the driving image data for the same driving lane for each driving direction based on the determination result by the driving lane relationship determination unit. At the same time, for each traveling direction, as a lane relationship between the groups, the traveling lane of the traveling image data belonging to one of the groups is compared to the traveling lane of the traveling image data belonging to the other group, a group determination unit that determines whether the lane is the same lane or an adjacent lane ;
A driving lane determination program to function as a driving lane determination program.
JP2020176771A 2020-10-21 2020-10-21 Driving lane determination device and driving lane determination program Active JP7452377B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020176771A JP7452377B2 (en) 2020-10-21 2020-10-21 Driving lane determination device and driving lane determination program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020176771A JP7452377B2 (en) 2020-10-21 2020-10-21 Driving lane determination device and driving lane determination program

Publications (2)

Publication Number Publication Date
JP2022067908A JP2022067908A (en) 2022-05-09
JP7452377B2 true JP7452377B2 (en) 2024-03-19

Family

ID=81455917

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020176771A Active JP7452377B2 (en) 2020-10-21 2020-10-21 Driving lane determination device and driving lane determination program

Country Status (1)

Country Link
JP (1) JP7452377B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011215054A (en) 2010-03-31 2011-10-27 Aisin Aw Co Ltd One's own vehicle position detection system using scenery image recognition
WO2017056249A1 (en) 2015-09-30 2017-04-06 日産自動車株式会社 Travel control method and travel control device
JP2018195237A (en) 2017-05-22 2018-12-06 トヨタ自動車株式会社 Image processing system, image processing method, information processing apparatus and recording medium
WO2020045231A1 (en) 2018-08-31 2020-03-05 株式会社デンソー Map generation device and map generation program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011215054A (en) 2010-03-31 2011-10-27 Aisin Aw Co Ltd One's own vehicle position detection system using scenery image recognition
WO2017056249A1 (en) 2015-09-30 2017-04-06 日産自動車株式会社 Travel control method and travel control device
JP2018195237A (en) 2017-05-22 2018-12-06 トヨタ自動車株式会社 Image processing system, image processing method, information processing apparatus and recording medium
WO2020045231A1 (en) 2018-08-31 2020-03-05 株式会社デンソー Map generation device and map generation program

Also Published As

Publication number Publication date
JP2022067908A (en) 2022-05-09

Similar Documents

Publication Publication Date Title
US9891057B2 (en) Information processing device, computer readable storage medium, and map data updating system
US7970529B2 (en) Vehicle and lane recognizing device
US8134480B2 (en) Image processing system and method
JP5762483B2 (en) Processor unit mounted on front vehicle and processor unit mounted on following vehicle
JP6197393B2 (en) Lane map generation device and program
JP6859927B2 (en) Vehicle position estimation device
JP5152244B2 (en) Target vehicle identification device
JP5168601B2 (en) Own vehicle position recognition system
JP4752669B2 (en) Vehicle identification device, position calculation device
CN111739295B (en) Positioning method and device
JP5968064B2 (en) Traveling lane recognition device and traveling lane recognition method
US20080273757A1 (en) Image Recognizing Apparatus and Method, and Position Determining Apparatus, Vehicle Controlling Apparatus and Navigation Apparatus Using the Image Recognizing Apparatus or Method
CN108573611B (en) Speed limit sign fusion method and speed limit sign fusion system
WO2012118207A1 (en) Local map generation device, local map generation system, global map generation device, global map generation system, and program
JP2001331787A (en) Road shape estimating device
CN105197014A (en) Apparatus and method for recognizing driving lane of vehicle
CN108139220A (en) For evaluating the method and apparatus of map content
JP2016057750A (en) Estimation device and program of own vehicle travel lane
JP2008065087A (en) Apparatus for creating stationary object map
JP2007178270A (en) Own position recognition system
JP2009137577A (en) Device and method for aligning aircraft
JP2016180797A (en) Road information generation device and program
JP7114165B2 (en) Position calculation device and position calculation program
CN112622893A (en) Multi-sensor fusion target vehicle automatic driving obstacle avoidance method and system
JP7025293B2 (en) Vehicle position estimation device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230315

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240219

R150 Certificate of patent or registration of utility model

Ref document number: 7452377

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150