JP2007033931A - Road recognition system for map generation using satellite image or the like - Google Patents

Road recognition system for map generation using satellite image or the like Download PDF

Info

Publication number
JP2007033931A
JP2007033931A JP2005217790A JP2005217790A JP2007033931A JP 2007033931 A JP2007033931 A JP 2007033931A JP 2005217790 A JP2005217790 A JP 2005217790A JP 2005217790 A JP2005217790 A JP 2005217790A JP 2007033931 A JP2007033931 A JP 2007033931A
Authority
JP
Japan
Prior art keywords
road
area
image
ground object
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005217790A
Other languages
Japanese (ja)
Inventor
Sen Kubota
仙 久保田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Software Engineering Co Ltd
Original Assignee
Hitachi Software Engineering Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Software Engineering Co Ltd filed Critical Hitachi Software Engineering Co Ltd
Priority to JP2005217790A priority Critical patent/JP2007033931A/en
Publication of JP2007033931A publication Critical patent/JP2007033931A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Instructional Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a system capable of automatically recognizing road parts in an image in order to generate a map using a satellite image or an aerial photographic image having a resolution of about 60 to 100 cm/Pixel. <P>SOLUTION: The road recognition system for recognizing a road in the satellite/aerial photographic image by using the satellite/aerial photographic image of the road and simple road data defining the road as a set of linear road vectors, includes a means for generating a road range image resulting from extracting a part showing the road in the image, a means for generating a ground object extraction image resulting from marking parts showing ground objects in the road range image, a means for extracting line components parallel with road vectors in the ground object extraction image to generate road area divided images resulting from dividing the ground object extraction image along the line components, and a means for outputting classification results of attributes of respective areas of the road area divided images on the basis of sizes and occupancy percentages of ground object included in the areas. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、衛星画像や航空写真画像を用いた地図作成において、画像中の道路部分を自動認識するシステムに関し、特に、歩道及び車道の各車線を区別して認識することができるシステムに関するものである。   The present invention relates to a system for automatically recognizing a road portion in an image in map creation using a satellite image or an aerial photograph image, and more particularly to a system capable of distinguishing and recognizing each lane of a sidewalk and a roadway. .

従来、ある目的地へ到達するためのルートをチェックするために使われる道路地図は、道路によってどの地点とどの地点がつながっているかが分かればよく、ベクトル情報からなる記号地図として作られていた。これに対して近年、カーナビ装置の発達等につれて、高度な機能を利用するためには、ベクトル情報のみの道路地図では情報が不足するようになってきている。例えば、通行中の車両からの視界をシミュレートした画面を表示したり、目的地にスムーズにドライブするための車線変更指示を表示したり、車だけでなく徒歩も含めた目的地への道のりを調べたりといった機能を実現するために、道路中の各車線の情報や、歩道の有無、車両走行部分の形状に関する情報などが必要となっている。   Conventionally, a road map used to check a route to reach a certain destination has only to know which point is connected to which point by the road, and has been made as a symbol map composed of vector information. On the other hand, in recent years, with the development of car navigation systems and the like, in order to use advanced functions, information on road maps with only vector information has become insufficient. For example, a screen that simulates the field of view from a passing vehicle, a lane change instruction to drive smoothly to the destination, a road to the destination including not only cars but also walking In order to realize a function such as checking, information on each lane in the road, presence / absence of a sidewalk, information on the shape of a vehicle traveling part, and the like are necessary.

このような変化を受けて、多くの道路地図は、従来のベクトル道路地図から詳細な道路地図に変更する必要が生じている。上記したような詳細な道路地図を作成するためには、従来、既存のベクトル情報からなる道路地図を元に実際の車両にカメラやセンサを積んでその道路を走行して画像データや測定データを集める方法がとられていた。ところが、有用な情報を得るためには、高頻度で道路走行を行ってデータ収集をする必要性があるため、この方法では、多大な時間とコストを要するものとなっていた。   In response to such changes, many road maps need to be changed from conventional vector road maps to detailed road maps. In order to create a detailed road map as described above, conventionally, a camera or sensor is loaded on an actual vehicle based on a road map composed of existing vector information, and image data and measurement data are obtained by traveling on the road. The method of collecting was taken. However, in order to obtain useful information, it is necessary to travel on the road frequently and collect data, so this method requires a great deal of time and cost.

そこで、近年では、デジタル撮像技術の進歩に伴い、上空から地表を撮像した衛星画像や航空写真画像を用いて道路地図を作成することが広く行われるようになっている。衛星画像や航空写真画像を用いた地図作成に関して、画像中の道路部分を自動的に認識するソフトウェア技術が開発され、応用されている(非特許文献1〜3参照)。   Therefore, in recent years, with the advancement of digital imaging technology, it is widely performed to create a road map using a satellite image or an aerial photograph image obtained by imaging the ground surface from the sky. Regarding map creation using satellite images and aerial photograph images, software technology for automatically recognizing road portions in images has been developed and applied (see Non-Patent Documents 1 to 3).

H. Mayer, I. Laptev, A. Baumgartner, and C. Steger,"Automatic Road Extraction Based on Multi-Scale Modeling, Context, and Snakes," International Archives of Photogrammetry and Remote Sensing, volume XXXII, Part3-2W3, pages 106-113, 9-11 September 1997H. Mayer, I. Laptev, A. Baumgartner, and C. Steger, "Automatic Road Extraction Based on Multi-Scale Modeling, Context, and Snakes," International Archives of Photogrammetry and Remote Sensing, volume XXXII, Part3-2W3, pages 106-113, 9-11 September 1997 A. Baumgartner, C. T. Steger, H. Mayer, and W. Eckstein," Semantic Objects and context for Finding Roads," Integrating photogrametric Techniques with Scene Analysis and Machine Vision III, Proc. SPIE 3072, pages 98-109, April 1997A. Baumgartner, C. T. Steger, H. Mayer, and W. Eckstein, "Semantic Objects and context for Finding Roads," Integrating photogrametric Techniques with Scene Analysis and Machine Vision III, Proc.SPIE 3072, pages 98-109, April 1997 G. Bordes, G. Giraudon, and O. Jamet,"Road Modeling Based on a Cartogrphic Database for Aerial Image Interpretation," Semantic Modeling for the Acquition of Topographic Information from Images and Maps, pages 123-139, Basel Switzerland, 1997, Birkhauser VerlagG. Bordes, G. Giraudon, and O. Jamet, "Road Modeling Based on a Cartogrphic Database for Aerial Image Interpretation," Semantic Modeling for the Acquition of Topographic Information from Images and Maps, pages 123-139, Basel Switzerland, 1997, Birkhauser verlag

しかしながら、上記の非特許文献1〜3において提案されている道路の自動認識システムでは、解像度が20-30cm/Pixel程度の画像を用いることが前提となっている。これは、航空機で低空飛行して撮像した航空写真画像の解像度に相当するものである。低高度で航空写真を撮像するとなると、撮像範囲が狭くなるため撮像回数や撮像時間が著しく増大し、通常の航空写真の撮像に比べて高いコストがかかってしまう。   However, in the automatic road recognition system proposed in Non-Patent Documents 1 to 3, it is assumed that an image with a resolution of about 20-30 cm / Pixel is used. This corresponds to the resolution of an aerial photograph image captured by flying low in an aircraft. When an aerial photograph is taken at a low altitude, the number of times and the imaging time are remarkably increased because the imaging range is narrowed, and the cost is higher than that of a normal aerial photograph.

一方で、高高度で撮像した航空写真画像や衛星により撮像された画像は、解像度が60-100cm/Pixelではあるが、上記の低高度で撮像した航空写真画像に比べて安価に入手でき、また、頻繁に撮像されているので間を置かずに最新の画像を入手することが可能であるという利点がある。   On the other hand, aerial images taken at high altitudes and images taken by satellites have a resolution of 60-100cm / Pixel, but are cheaper than the above aerial images taken at low altitudes. Since it is frequently imaged, there is an advantage that it is possible to obtain the latest image without any delay.

そこで、本発明は、解像度が60-100cm/Pixel程度の衛星画像又は航空写真画像を用いて地図を作成する目的において、画像中の道路部分を自動的に認識することができるシステムを提供しようとするものである。   Therefore, the present invention aims to provide a system capable of automatically recognizing a road portion in an image for the purpose of creating a map using a satellite image or an aerial photograph image having a resolution of about 60-100 cm / Pixel. To do.

上記解決課題に鑑みて鋭意研究の結果、本発明者は、道路を直線的な部分道路の集合として捉えた道路ベクトル情報を利用して、画像の道路部分に含まれる道路ベクトルと平行な直線成分により道路を領域分割するとともに、分割された各領域に含まれる地上物を抽出しその大きさに基づいて解析することにより、歩道、車線毎の車道、中央分離帯などを認識することができることに想到した。   As a result of diligent research in view of the above-described problem, the present inventor has obtained a linear component parallel to a road vector included in a road portion of an image using road vector information obtained by capturing a road as a set of straight partial roads. It is possible to recognize sidewalks, roadways by lanes, median strips, etc. by dividing the road into regions and extracting ground objects contained in each divided region and analyzing them based on their sizes I came up with it.

すなわち、本発明は、衛星又は航空写真により道路を上空から撮像した画像と、道路を直線的な道路ベクトルの集合として定義した簡易道路データとを用いて前記画像中の道路を認識するシステムであって、前記画像中の道路を表す部分を抽出した道路範囲画像を生成する第1手段と、前記道路範囲画像中の地上物を表す部分をマーキングした地上物抽出画像を生成する第2手段と、前記地上物抽出画像中の道路ベクトルに平行な直線成分を抽出し、当該直線成分に沿って地上物抽出画像を領域分割した道路領域分割画像を生成する第3手段と、前記道路領域分割画像の各領域に含まれる地上物の大きさ及び占有割合に基づいて、当該領域の属性を分類し、その分類結果を出力する第4手段とを備えていることを特徴とする道路認識システムを提供するものである。   That is, the present invention is a system for recognizing a road in the image using an image obtained by imaging a road from the sky by satellite or aerial photographs and simple road data in which the road is defined as a set of linear road vectors. A first means for generating a road range image obtained by extracting a portion representing a road in the image; a second means for generating a ground object extraction image in which a portion representing a ground object in the road range image is marked; A third means for extracting a straight line component parallel to a road vector in the ground object extracted image and generating a road area divided image obtained by dividing the ground object extracted image along the straight line component; A road recognition system comprising: a fourth means for classifying attributes of the area based on the size and occupation ratio of ground objects included in each area and outputting the classification result. It is intended to provide.

本発明の道路認識システムにおいて、前記簡易道路データは、道路ベクトルの始点座標、終点座標及び道路幅を含んでおり、前記第1手段は、各道路ベクトルを中心線として道路幅分の幅を持ちその始点から終点まで伸びる帯状の領域を当該道路ベクトルに対応する道路部分として前記画像から抽出することを特徴とする。   In the road recognition system of the present invention, the simple road data includes start point coordinates, end point coordinates and road widths of road vectors, and the first means has a width corresponding to the road width with each road vector as a center line. A belt-like region extending from the start point to the end point is extracted from the image as a road portion corresponding to the road vector.

本発明の道路認識システムにおいて、前記第2手段は、前記道路範囲画像における道路部分の平均色を決定し、前記道路範囲画像中の当該平均色から一定以上離れた色を有する部分を地上物として認識することを特徴とする。   In the road recognition system of the present invention, the second means determines an average color of a road portion in the road range image, and uses a portion having a color that is a predetermined distance or more away from the average color in the road range image as a ground object. It is characterized by recognition.

本発明の道路認識システムにおいて、前記第2手段は、色の輝度、色相、鮮かさからなるパラメータを用いて、前記道路範囲画像中の色と前記道路部分の平均色とが一定以上離れているかどうかを判定することを特徴とする。   In the road recognition system of the present invention, the second means uses a parameter including color brightness, hue, and freshness to determine whether the color in the road range image and the average color of the road part are more than a certain distance. It is characterized by determining whether or not.

本発明の道路認識システムにおいて、前記第3手段は、一定未満の間隔で隣接する2以上の直線成分群を抽出した場合には、当該直線成分群のうち両端の2の直線成分のみを領域分割に用いることを特徴とする。   In the road recognition system of the present invention, when the third means extracts two or more straight line component groups adjacent to each other at intervals less than a certain distance, only the two straight line components at both ends of the straight line component group are divided into regions. It is used for.

本発明の道路認識システムにおいて、前記第4手段は、前記道路領域分割画像の各領域に含まれている地上物を、人物大地上物、車両大地上物、車両大を超える地上物のいずれかに識別し、当該識別結果に応じて当該領域を歩道、車両走行領域、走行不能領域のいずれかに分類することを特徴とする。   In the road recognition system of the present invention, the fourth means may be any one of a person ground object, a vehicle ground object, and a ground object exceeding the vehicle size, as the ground object included in each area of the road region divided image. And the region is classified into one of a sidewalk, a vehicle traveling region, and a non-driving region according to the identification result.

本発明の道路認識システムにおいて、前記第4手段は、前記道路領域分割画像の各領域が、車両大を超える地上物により一定割合を超えて占有されている場合には、当該領域を走行不可能領域と分類し、前記道路領域分割画像の各領域が、車両大を超える地上物により一定割合を超えて占有されておらず、かつ、車両大地上物を含んでいる場合又は当該領域が前記道路領域分割画像の端部に位置するものでない場合には、当該領域を車両走行領域と分類し、前記道路領域分割画像の各領域が、前記走行不可能領域及び車両走行領域のいずれにも該当せず、かつ、人物大地上物を含んでいる場合には、当該領域を歩道と分類することを特徴とする。   In the road recognition system of the present invention, the fourth means may not be able to travel in the area when each area of the road area divided image is occupied in excess of a certain ratio by ground objects exceeding the vehicle size. Classified as an area, and each area of the road area divided image is not occupied more than a certain percentage by ground objects exceeding the vehicle size and includes a vehicle large ground object or the area is the road If the region is not located at the end of the region-divided image, the region is classified as a vehicle travel region, and each region of the road region segmented image does not correspond to either the untravelable region or the vehicle travel region. In addition, when a person includes a large ground object, the region is classified as a sidewalk.

本発明は、また、衛星又は航空写真により道路を上空から撮像した画像と、道路を直線的な道路ベクトルの集合として定義した簡易道路データとを用いて前記画像中の道路を認識するプログラムであって、前記画像中の道路を表す部分を抽出した道路範囲画像を生成する第1ステップと、前記道路範囲画像中の地上物を表す部分をマーキングした地上物抽出画像を生成する第2ステップと、前記地上物抽出画像中の道路ベクトルに平行な直線成分を抽出し、当該直線成分に沿って地上物抽出画像を領域分割した道路領域分割画像を生成する第3ステップと、前記道路領域分割画像の各領域に含まれる地上物の大きさ及び占有割合に基づいて、当該領域の属性を分類し、その分類結果を出力する第4ステップとを備えていることを特徴とする道路認識プログラムを提供するものである。   The present invention is also a program for recognizing a road in the image using an image obtained by imaging a road from the sky by satellite or aerial photography and simple road data in which the road is defined as a set of linear road vectors. A first step of generating a road range image in which a portion representing a road in the image is extracted; a second step of generating a ground object extraction image in which a portion representing a ground object in the road range image is marked; A third step of extracting a straight line component parallel to the road vector in the ground object extracted image and generating a road area divided image obtained by dividing the ground object extracted image along the straight line component; and And a fourth step of classifying attributes of the area based on the size and occupation ratio of ground objects included in each area and outputting the classification result. It is intended to provide a recognition program.

本発明の道路認識プログラムにおいて、前記簡易道路データは、道路ベクトルの始点座標、終点座標及び道路幅を含んでおり、前記第1ステップでは、各道路ベクトルを中心線として道路幅分の幅を持ちその始点から終点まで伸びる帯状の領域を当該道路ベクトルに対応する道路部分として前記画像から抽出することを特徴とする。   In the road recognition program of the present invention, the simple road data includes a start point coordinate, an end point coordinate, and a road width of a road vector. In the first step, each road vector has a width corresponding to the road width with a center line as a center line. A belt-like region extending from the start point to the end point is extracted from the image as a road portion corresponding to the road vector.

本発明の道路認識プログラムにおいて、前記第2ステップでは、前記道路範囲画像における道路部分の平均色を決定し、前記道路範囲画像中の当該平均色から一定以上離れた色を有する部分を地上物として認識することを特徴とする。   In the road recognition program of the present invention, in the second step, an average color of a road portion in the road range image is determined, and a portion having a color that is a predetermined distance or more from the average color in the road range image is used as a ground object. It is characterized by recognition.

本発明の道路認識プログラムにおいて、前記第2ステップでは、色の輝度、色相、鮮やかさからなるパラメータを用いて、前記道路範囲画像中の色と前記道路部分の平均色とが一定以上離れているかどうかを判定することを特徴とする。   In the road recognition program of the present invention, in the second step, whether or not the color in the road range image and the average color of the road part are separated by a certain amount or more using parameters including color brightness, hue, and vividness It is characterized by determining whether or not.

本発明の道路認識プログラムにおいて、前記第3ステップでは、一定未満の間隔で隣接する2以上の直線成分群を抽出した場合には、当該直線成分群のうち両端の2の直線成分のみを領域分割に用いることを特徴とする。   In the road recognition program of the present invention, in the third step, when two or more straight line component groups adjacent to each other at intervals less than a certain distance are extracted, only the two straight line components at both ends of the straight line component group are divided into regions. It is used for.

本発明の道路認識プログラムにおいて、前記第4ステップでは、前記道路領域分割画像の各領域に含まれている地上物を、人物大地上物、車両大地上物、車両大を超える地上物のいずれかに識別し、当該識別結果に応じて当該領域を歩道、車両走行領域、走行不能領域のいずれかに分類することを特徴とする。   In the road recognition program of the present invention, in the fourth step, the ground object included in each area of the road region divided image is any one of a human ground object, a vehicle ground object, and a ground object exceeding the vehicle size. And the region is classified into one of a sidewalk, a vehicle traveling region, and a non-driving region according to the identification result.

本発明の道路認識プログラムにおいて、前記第4ステップでは、前記道路領域分割画像の各領域が、車両大を超える地上物により一定割合を超えて占有されている場合には、当該領域を走行不可能領域と分類し、前記道路領域分割画像の各領域が、車両大を超える地上物により一定割合を超えて占有されておらず、かつ、車両大地上物を含んでいる場合又は当該領域が前記道路領域分割画像の端部に位置するものでない場合には、当該領域を車両走行領域と分類し、前記道路領域分割画像の各領域が、前記走行不可能領域及び車両走行領域のいずれにも該当せず、かつ、人物大地上物を含んでいる場合には、当該領域を歩道と分類することを特徴とする。   In the road recognition program of the present invention, in the fourth step, when each area of the road area divided image is occupied by a ground object exceeding the vehicle size in a certain ratio, the area cannot be traveled. Classified as an area, and each area of the road area divided image is not occupied more than a certain percentage by ground objects exceeding the vehicle size and includes a vehicle large ground object or the area is the road If the region is not located at the end of the region-divided image, the region is classified as a vehicle travel region, and each region of the road region segmented image does not correspond to either the untravelable region or the vehicle travel region. In addition, when a person includes a large ground object, the region is classified as a sidewalk.

以上、説明したように、本発明の道路認識システムによれば、低コストで入手可能な解像度が60-100cm/Pixel程度の衛星画像又は航空写真画像において、道路部分を自動認識することができる。これにより、従来よりも低解像度の衛星画像又は航空写真画像用いて安価に地図を作成することが可能となる。   As described above, according to the road recognition system of the present invention, a road portion can be automatically recognized in a satellite image or an aerial photograph image having a resolution of about 60-100 cm / Pixel that can be obtained at low cost. This makes it possible to create a map at a low cost using a satellite image or aerial photograph image having a lower resolution than conventional.

以下、添付図面を参照しながら、本発明の道路認識システムを実施するための最良の形態を詳細に説明する。図1〜図9は、本発明の実施の形態を例示する図であり、これらの図において、同一の符号を付した部分は同一物を表わし、基本的な構成及び動作は同様であるものとする。   The best mode for carrying out the road recognition system of the present invention will be described below in detail with reference to the accompanying drawings. 1 to 9 are diagrams illustrating embodiments of the present invention. In these drawings, the same reference numerals denote the same components, and the basic configuration and operation are the same. To do.

道路認識システムのシステム構成
図1は、本発明の道路認識システムのシステム構成を概略的に示す図である。図1において、本システムは、画像中の道路認識処理を行うための処理装置104と、道路認識処理を行うために必要なデータを記憶した記憶装置110とから構成されており、処理装置104には、ユーザインターフェースとして、マウス、キーボード等からなる入力装置101、ディスプレイ等の表示装置102、プリンタなどの出力装置103が接続されている。
System Configuration of Road Recognition System FIG. 1 is a diagram schematically showing the system configuration of a road recognition system according to the present invention. In FIG. 1, this system includes a processing device 104 for performing road recognition processing in an image and a storage device 110 that stores data necessary for performing road recognition processing. As a user interface, an input device 101 such as a mouse and a keyboard, a display device 102 such as a display, and an output device 103 such as a printer are connected.

処理装置104は、道路範囲抽出部106、地上物抽出部107、道路領域分割部108、および道路解析部109を含むプログラム105を実行する。プログラム105の詳細及び各処理部の詳細については、後述する。   The processing device 104 executes a program 105 including a road range extraction unit 106, a ground object extraction unit 107, a road area division unit 108, and a road analysis unit 109. Details of the program 105 and details of each processing unit will be described later.

記憶装置110は、道路のセンターラインを示す道路ベクトル及び道路幅を含む簡易道路データ111、衛星画像又は航空写真画像として取得された元画像データ112、元画像データ112の画像のうち道路部分を抽出した道路範囲画像113、道路範囲画像113のうち背景を除いた部分(地上物)を抽出した地上物抽出画像114、地上物抽出画像114に含まれる道路部分を車線等に相当する複数の領域に分割した道路領域分割画像115、道路部分に含まれる各領域の詳細を示す詳細道路データ116を記憶する。これらのうち、簡易道路データ111及び元画像データ112は予め取得されているものとし、道路範囲画像113、地上物抽出画像114、道路領域分割画像115はプログラム105の実行中に生成され利用されるものであり、詳細道路データ116は、プログラム105による一連の処理の実行によって最終的に得られるデータである。   The storage device 110 extracts the road portion from the image of the original image data 112 acquired from the simple road data 111 including the road vector and road width indicating the road centerline, the satellite image or the aerial photograph image, and the original image data 112. The road area image 113, the ground object extraction image 114 obtained by extracting a portion (ground object) excluding the background from the road area image 113, and the road part included in the ground object extraction image 114 are converted into a plurality of areas corresponding to lanes or the like. The divided road area divided image 115 and detailed road data 116 showing details of each area included in the road portion are stored. Of these, the simple road data 111 and the original image data 112 are acquired in advance, and the road range image 113, the ground object extraction image 114, and the road area segmented image 115 are generated and used during the execution of the program 105. The detailed road data 116 is data finally obtained by executing a series of processes by the program 105.

図2A〜図2Cは、図1に示す記憶装置110に格納されている簡易道路データ111、元画像データ112、道路範囲画像113、地上物抽出画像114、道路領域分割画像115、詳細道路データ116の具体例を示す図である。   2A to 2C show simple road data 111, original image data 112, road range image 113, ground object extraction image 114, road area divided image 115, and detailed road data 116 stored in the storage device 110 shown in FIG. It is a figure which shows the specific example of.

図2Aにおいて、簡易道路データは、道路網を2地点間の直線的な道路ベクトルの集合として捉えたデータである。図示するように、各道路ベクトルは、ベクトルID、視点座標、終点座標、道路幅などのデータから構成されている。元画像データは、衛星画像又は航空写真画像として予め取得されている画像データである。元画像データ上でも、上記の簡易道路データで用いたのと同じ座標を用いるものとする。道路範囲画像は、簡易道路データの道路ベクトル情報を基に、元画像データから道路部分のみを抽出した画像である。このように元画像データから道路範囲画像を抽出する処理は、図1に示すプログラム105の道路範囲抽出部106により実行される(詳細は後述する)。   In FIG. 2A, the simple road data is data obtained by capturing the road network as a set of linear road vectors between two points. As shown in the figure, each road vector is composed of data such as a vector ID, viewpoint coordinates, end point coordinates, and road width. The original image data is image data acquired in advance as a satellite image or an aerial photograph image. The same coordinates as those used in the simple road data are used on the original image data. The road range image is an image obtained by extracting only the road portion from the original image data based on the road vector information of the simple road data. The process of extracting the road range image from the original image data in this way is executed by the road range extraction unit 106 of the program 105 shown in FIG. 1 (details will be described later).

図2Bにおいて、地上物抽出画像は、道路範囲画像から道路面を表す部分と道路面以外の地上物(人、車等)を表す部分とを識別して抽出した画像である。このように道路範囲画像から地上物等を識別して抽出する処理は、図1に示すプログラム105の地上物抽出部107により実行される(詳細は後述する)。道路領域分割画像は、地上物抽出画像から、道路ベクトルと平行方向に直線状に存在する地上物を検出し、それらを道路ベクトルと平行な直線によって個々の領域に分割した画像である。このように地上物抽出画像に対して領域分割を行う処理は、図1に示すプログラム105の道路領域分割部108により実行される(詳細は後述する)。   In FIG. 2B, the ground object extraction image is an image obtained by identifying and extracting a part representing a road surface and a part representing a ground object (person, car, etc.) other than the road surface from the road range image. The process of identifying and extracting ground objects and the like from the road range image in this way is executed by the ground object extracting unit 107 of the program 105 shown in FIG. 1 (details will be described later). The road area divided image is an image in which ground objects existing in a straight line in a direction parallel to the road vector are detected from the ground object extracted image and are divided into individual areas by straight lines parallel to the road vector. The process of dividing the ground object extracted image in this way is executed by the road area dividing unit 108 of the program 105 shown in FIG. 1 (details will be described later).

図2Cにおいて、詳細道路データは、道路領域分割画像の領域分割された各部分について、歩道であるか車道であるか、また車道については走行可能な領域であるかどうかを解析した結果を示すデータである。図示するように、詳細道路データは、簡易道路データに上記解析結果を付加したものとして生成される。このような解析処理は、図1に示すプログラム105の道路解析部109により実行される(詳細は後述する)。   In FIG. 2C, the detailed road data is data indicating the result of analyzing whether each of the divided areas of the road area divided image is a sidewalk or a roadway, and whether the roadway is a travelable area. It is. As shown in the figure, the detailed road data is generated by adding the analysis result to the simple road data. Such an analysis process is executed by the road analysis unit 109 of the program 105 shown in FIG. 1 (details will be described later).

道路認識システムによる処理
以下では、図1に示す処理装置104がプログラム105により実行する画像中の道路認識処理について詳細に説明する。図3は、プログラム105が実行する処理の流れを概略的に示すフローチャートである。図3において、このプログラムは、簡易道路データ及び元画像データを記憶装置から読み込んだ後(ステップ301)、簡易道路データに基づき元画像データから道路範囲を抽出し、道路範囲画像を生成する処理を行い(ステップ302)、道路範囲画像から地上物を抽出し、地上物抽出画像を生成する処理を行い(ステップ303)、地上物抽出画像において道路領域を道路進行方向に沿った直線で分割し、道路領域分割画像を生成する処理を行い(ステップ304)、道路領域分割画像の各領域の属性を解析する道路解析処理を行うことにより(ステップ305)、元画像中に対して道路認識を行った結果データである詳細道路データを生成し、記憶装置や出力装置などに出力する(ステップ306)。
Processing by Road Recognition System Hereinafter, the road recognition processing in an image executed by the processing device 104 shown in FIG. FIG. 3 is a flowchart schematically showing a flow of processing executed by the program 105. In FIG. 3, this program reads the simple road data and the original image data from the storage device (step 301), extracts the road range from the original image data based on the simple road data, and generates a road range image. Performing (step 302), extracting ground objects from the road range image, generating a ground object extraction image (step 303), dividing the road region in the ground object extraction image along a straight line along the road traveling direction, A road area segmented image is generated (step 304), and a road analysis process is performed to analyze the attributes of each area of the road area segmented image (step 305), thereby performing road recognition on the original image. Detailed road data as result data is generated and output to a storage device, an output device or the like (step 306).

図4は、図3における道路範囲抽出処理(ステップ302)において道路範囲抽出部106が行う処理の流れを示すフローチャートである。図4において、道路範囲抽出部は、まず、簡易道路データから未チェックの道路ベクトルを1つ抜き出し(ステップ401)、元画像データにおいて、その道路ベクトルに沿って当該ベクトルを中心に道路幅分の画素をマーキングする(ステップ402)。すなわち、道路ベクトルを中心線とする長方形に相当する部分がマーキングされることになる。このステップ401〜402の処理を、チェックしていないベクトルがなくなるまで繰り返した後(ステップ403)、元画像データ中のマーキングされていない部分の画素を白又は黒で塗りつぶす(ステップ404)。こうして得られた画像を道路範囲画像として記憶装置に出力し、処理を終了する。   FIG. 4 is a flowchart showing a flow of processing performed by the road range extraction unit 106 in the road range extraction process (step 302) in FIG. In FIG. 4, the road range extraction unit first extracts one unchecked road vector from the simple road data (step 401). In the original image data, along the road vector, the road width extraction centered on that vector. The pixel is marked (step 402). That is, a portion corresponding to a rectangle having a road vector as a center line is marked. The processing in steps 401 to 402 is repeated until there is no unchecked vector (step 403), and then the unmarked pixels in the original image data are painted in white or black (step 404). The image thus obtained is output to the storage device as a road range image, and the process ends.

図5は、図3における地上物抽出処理(ステップ303)において地上物抽出部107が行う処理の流れを示すフローチャートである。図5において、地上物抽出部は、まず、道路範囲画像における道路の平均色を決定する(ステップ501)。このステップでは、後の地上物抽出を行うために、画像中で背景となる道路面部分の色を決定する。具体的には、道路範囲画像中で道路面は大部分を占めるため、道路範囲画像の白又は黒中で塗りつぶした箇所以外の部分について色や輝度のヒストグラムを作成し、その最頻値に基づいて道路の平均色を決定することができる。あるいは、外部から与えられた教師点に基づいて基準となる色や輝度を決定してもよい。   FIG. 5 is a flowchart showing a flow of processing performed by the ground object extraction unit 107 in the ground object extraction process (step 303) in FIG. In FIG. 5, the ground object extraction unit first determines the average color of the road in the road range image (step 501). In this step, the color of the road surface portion serving as the background in the image is determined in order to perform later ground object extraction. Specifically, since the road surface occupies most of the road range image, a color or brightness histogram is created for the portion other than the painted area in white or black of the road range image, and based on the mode value. The average color of the road can be determined. Or you may determine the color and brightness | luminance used as a reference | standard based on the teacher point given from the outside.

続いて、地上物抽出部は、道路範囲画像内で未判定の座標点Aを選択し、その座標の画素の色と道路の平均色との距離を計算してdに代入する(ステップ502)。平均色との距離は、例えば、画素の色を輝度、色相、鮮やかさのパラメータで表し、各パラメータの差分を重み付けして加算した値として計算することができる。この距離dを一定の閾値を比較し(ステップ503)、閾値以下である場合にはその座標点Aを背景としてマーキングし(ステップ504)、閾値を超える場合にはその座標点Aを地上物としてマーキングする(ステップ505)。ここでは、道路範囲画像中で背景である道路面と色が異なる部分を地上物として検出しているので、実際には道路上に描かれた道路境界線などの平面的な対象も地上物に含まれることになる。このステップ502〜505の処理を道路範囲画像中の全ての座標に対して繰り返した後(ステップ506)、道路範囲画像中の地上物としてマーキングされた画素を所定の色で塗りつぶした地上物抽出画像を記憶装置に出力し(ステップ507)、処理を終了する。   Subsequently, the ground object extraction unit selects an undetermined coordinate point A in the road range image, calculates the distance between the pixel color of the coordinate and the average color of the road, and substitutes it for d (step 502). . The distance from the average color can be calculated, for example, as a value obtained by expressing the color of the pixel by parameters of luminance, hue, and vividness, and weighting and adding differences between the parameters. This distance d is compared with a certain threshold value (step 503). If the distance d is less than the threshold value, the coordinate point A is marked as the background (step 504). Mark (step 505). In this case, the part of the road range image that has a different color from the background road surface is detected as a ground object, so in reality, planar objects such as road boundaries drawn on the road are also ground objects. Will be included. After repeating the processing of steps 502 to 505 for all coordinates in the road range image (step 506), the ground object extraction image in which pixels marked as ground objects in the road range image are filled with a predetermined color. Is output to the storage device (step 507), and the process is terminated.

図6は、図3における道路領域分割処理(ステップ304)において道路領域分割部108が行う処理の流れを示すフローチャートである。図6において、道路領域分割処理部は、まず、地上物抽出画像から、道路ベクトルに平行な直線成分を抽出する(ステップ601)。例えば、地上物抽出画像中の地上物であって道路ベクトルと平行な方向に伸びているものや、断片的な地上物の集合であって全体として道路ベクトルと平行な方向に直線状に並んでいるものを抽出する。   FIG. 6 is a flowchart showing the flow of processing performed by the road area dividing unit 108 in the road area dividing process (step 304) in FIG. In FIG. 6, the road area division processing unit first extracts a straight line component parallel to the road vector from the ground object extraction image (step 601). For example, a ground object in a ground object extraction image that extends in a direction parallel to the road vector, or a set of fragmentary ground objects that are arranged in a straight line in a direction parallel to the road vector as a whole. Extract what you have.

この直線成分の抽出法の具体例としては、Hough変換(米国特許第3069654号明細書等参照)を用いた手法などが挙げられる。この手法は、複数部分に切断された断片を復元する手法で、道路画像において鎖線状に表れる道路境界線や、複数のブロックで構成されている歩道の境界などを検出するのに適している。この手法では、画像内のある直線に対して、その直線上に地上物が存在する割合を調べて、その割合が高いものを直線とみなす。通常は、画像内のあらゆる向きの直線(Hough空間と呼ばれる)に対して上記の割合をチェックするが、本発明に応用するにあたっては、道路ベクトルに平行なものだけをチェック対象とすればよい。   A specific example of this linear component extraction method is a method using Hough transform (see US Pat. No. 3,066,654). This technique is a technique for restoring fragments cut into a plurality of portions, and is suitable for detecting a road boundary line that appears in a chain line shape in a road image, a boundary of a sidewalk composed of a plurality of blocks, and the like. In this method, for a certain straight line in an image, the ratio of the presence of ground objects on the straight line is examined, and a line having a high ratio is regarded as a straight line. Normally, the above ratio is checked against straight lines in all directions (called a Hough space) in the image. However, in applying the present invention, only those parallel to the road vector need be checked.

このとき、地上物抽出画像に含まれる地上物の面積が大きい場合には、複数の直線が密接して抽出されることがある(例えば、図9Aの直線成分抽出画像における道路の中央部など)。このような場合には、道路領域分割処理部は、密接して抽出された直線成分のうち両端の2つの直線成分のみを選んで抽出する(ステップ602)。このようにして抽出された直線成分によって、地上物抽出画像中の道路部分を領域に分割し(ステップ603)、道路領域分割画像として記憶装置に出力して処理を終了する。   At this time, when the area of the ground object included in the ground object extraction image is large, a plurality of straight lines may be extracted closely (for example, the center portion of the road in the linear component extraction image of FIG. 9A). . In such a case, the road area division processing unit selects and extracts only two linear components at both ends from the linear components extracted closely (step 602). The road portion in the ground object extraction image is divided into regions by the straight line component extracted in this way (step 603), and is output to the storage device as a road region divided image, and the process is terminated.

図7は、図3における道路解析処理(ステップ305)において道路解析部109が行う処理の流れを示すフローチャートである。図7において、道路解析部は、まず、道路領域分割画像に含まれる各領域のうち未判定の領域を1つ選択し(ステップ701)、当該選択領域内に含まれる地上物について分類を行う(ステップ702)。ここでは、画像上の地上物の大きさによって、当該地上物を地上固定物、車両大地上物、人物大地上物などに分類する。続いて、道路解析部は、選択領域内に存在する地上固定物の割合を所定の閾値(例えば40%など)と比較し(ステップ703)、閾値以上である場合には、その領域を走行不能領域に分類する(ステップ704)。これにより、中央分離帯やゼブラゾーンなどが存在する道路部分は、車両が通行できない領域と判定されることになる。   FIG. 7 is a flowchart showing a flow of processing performed by the road analysis unit 109 in the road analysis processing (step 305) in FIG. In FIG. 7, the road analysis unit first selects one undetermined area among the areas included in the road area divided image (step 701), and classifies the ground objects included in the selected area ( Step 702). Here, according to the size of the ground object on the image, the ground object is classified into a ground fixed object, a vehicle large ground object, a human large ground object, and the like. Subsequently, the road analysis unit compares the ratio of ground fixed objects existing in the selected area with a predetermined threshold (for example, 40%) (step 703). The area is classified (step 704). As a result, the road portion in which the median strip, the zebra zone, etc. are present is determined to be an area where the vehicle cannot pass.

一方、ステップ703において、選択領域内に存在する地上固定物の割合が閾値に満たない場合には、その領域が道路範囲の端に位置していないこと、あるいは、その領域内に車両大地上物を含んでいることのいずれかの条件を満たしているかどうかをチェックする(ステップ705)。上記いずれかの条件を満たしている場合には、その領域を車両走行領域に分類する(ステップ706)。これにより、走行不能領域にも歩道にも該当しない道路部分は、車両が走行できる領域と判定されることになる。   On the other hand, in step 703, if the ratio of the ground fixed object existing in the selected area is less than the threshold value, the area is not located at the end of the road range, or the vehicle large ground object is in the area. It is checked whether or not any of the conditions for including is satisfied (step 705). If any of the above conditions is satisfied, the area is classified as a vehicle travel area (step 706). As a result, the road portion that does not correspond to the untravelable region or the sidewalk is determined as the region where the vehicle can travel.

一方、ステップ705において、上記いずれかの条件を満たしてない場合には、その領域内に人物大地上物が含まれているかどうかをチェックする(ステップ707)。人物大地上物が含まれている場合には、その領域を歩道に分類する(ステップ708)。これにより、走行不能領域にも車両走行領域にも該当しない道路部分は、歩道であると判定されることになる。   On the other hand, if any of the above conditions is not satisfied in step 705, it is checked whether or not a human ground object is included in the area (step 707). If a person large ground object is included, the area is classified as a sidewalk (step 708). As a result, a road portion that does not correspond to the non-travelable region or the vehicle travel region is determined to be a sidewalk.

一方、ステップ707において、選択領域内に人物大地上物が含まれていない場合には、その領域を暫定車両走行領域に分類する(ステップ709)。暫定車両走行領域は、領域内に何ら地上物が見当たらない領域であり、どの分類を適用すればよいか断定できないが、暫定的に車両走行領域とみなすこととしている。同地域の別時間に撮影した元画像データを用いて再度道路認識処理を行った結果、同領域が歩道や車両走行領域として分類された場合には、その分類を優先的に適用すればよい。   On the other hand, if no human ground object is included in the selected region in step 707, the region is classified as a provisional vehicle traveling region (step 709). The provisional vehicle travel region is a region where no ground objects are found in the region, and it cannot be determined which classification should be applied, but is assumed to be a provisional vehicle travel region. As a result of performing the road recognition process again using the original image data taken at another time in the same region, if the same region is classified as a sidewalk or a vehicle travel region, the classification may be applied with priority.

道路解析部は、ステップ702〜709における処理を道路領域分割画像の全領域に対して繰り返し行い(ステップ710)、その結果得られたデータを詳細道路データとして記憶装置等に出力し、処理を終了する。   The road analysis unit repeatedly performs the processing in steps 702 to 709 for all areas of the road area divided image (step 710), outputs the resulting data to the storage device or the like as detailed road data, and ends the processing. To do.

図8は、図7における地上物の分類処理(ステップ702)の詳細を示すフローチャートである。図8において、道路解析部は、まず、選択領域内に含まれる各地上物についてラベリングを行う(ステップ801)。ラベリングとは、連続する座標が地上物としてマーキングされている場合に、それをひとまとまりの地上物としてまとめてラベル付けをし、リスト化する処理のことである。但し、上記で地上物として検出されたものであっても、その大部分の画素(例えば70%程度)が道路領域分割の際に与えられた領域を分割する線分と重なっているものについては、地上物とはみなさないこととする。   FIG. 8 is a flowchart showing details of the ground object classification process (step 702) in FIG. In FIG. 8, the road analysis unit first labels each ground object included in the selected region (step 801). Labeling is a process in which continuous coordinates are marked as a ground object, labeled as a group of ground objects, labeled, and listed. However, even if it is detected as a ground object in the above, most pixels (for example, about 70%) overlap with the line segment that divides the area given when dividing the road area. It shall not be regarded as a ground object.

続いて、道路解析部は、ステップ801においてラベリングした地上物のうち未判定の地上物を1つ選択し、その地上物の面積(例えばPixel数を単位とする)を計算して変数sに代入する(ステップ802)。この変数sを所定の閾値T1,T2(T1<T2)と比較し(ステップ803)、変数sが閾値T2より大きければ、その地上物を地上固定物と分類し(ステップ804)、変数sが閾値T1以上かつ閾値T2以下であれば、その地上物を車両大地上物と分類し(ステップ805)、変数sが閾値T1に満たなければ、その地上物を人物大地上物として分類する(ステップ806)。ここで、閾値T1は、人体程度の大きさ(1m×1m)の地上物が画像中に占める面積の値とし、閾値T2は、大型車両程度の大きさ(3m×5m)の地上物が画像中に占める面積の値としている。このように、道路画像中に点在する車両や人物等のノイズに対して、その詳細を解析するのではなく、ノイズの大きさのみによってその属性を判定することができるので、解像度が60-100cm/Pixel程度である高高度の航空写真画像や衛星画像を用いても十分に正確な分類処理を行うことが可能となっている。   Subsequently, the road analysis unit selects one undetermined ground object among the ground objects labeled in step 801, calculates the area of the ground object (for example, in units of pixels), and substitutes it for the variable s. (Step 802). The variable s is compared with a predetermined threshold T1, T2 (T1 <T2) (step 803). If the variable s is larger than the threshold T2, the ground object is classified as a ground fixed object (step 804). If it is not less than threshold value T1 and not more than threshold value T2, the ground object is classified as a vehicle ground object (step 805). If the variable s does not satisfy threshold value T1, the ground object is classified as a human ground object (step). 806). Here, the threshold T1 is the value of the area occupied by a ground object of the size of a human body (1m x 1m) in the image, and the threshold T2 is the image of a ground object of the size of a large vehicle (3m x 5m) The value of the area occupied. In this way, it is not possible to analyze the details of noise such as vehicles and people scattered in the road image, but to determine the attribute only by the magnitude of the noise. It is possible to perform sufficiently accurate classification processing using high altitude aerial photographs and satellite images of about 100cm / Pixel.

道路解析部は、ステップ802〜806における処理を選択領域内でラベリングされた全ての地上物に対して繰り返して行い(ステップ807)、判定結果(例えば、図9Bに示す分類画像)を返して処理を終了する。以上のようにして、本発明の道路認識システムによる自動道路認識の処理が実行される。   The road analysis unit repeatedly performs the processing in steps 802 to 806 for all ground objects labeled in the selected region (step 807), and returns the determination result (for example, the classification image shown in FIG. 9B) for processing. Exit. As described above, the automatic road recognition processing by the road recognition system of the present invention is executed.

図9A及び図9Bは、本発明の道路認識システムにおいて生成される画像の例を示す図である。道路範囲画像は、図5のステップ501を実行する前に読み込まれる画像である。直線成分抽出画像は、図6のステップ602において生成される画像であり、地上物抽出画像から直線成分を抽出し、当該抽出された直線成分を灰色で上塗りしたものである。分類画像は、図7のステップ702において生成される画像であり、道路領域分割画像に含まれる地上物を分類し、各分類を色分けして視覚的に表したものである。固定地上物、車両大地上物、人物大地上物の領域を異なる色で現している。   9A and 9B are diagrams showing examples of images generated in the road recognition system of the present invention. The road range image is an image that is read before step 501 in FIG. 5 is executed. The straight line component extracted image is an image generated in step 602 in FIG. 6, and is obtained by extracting a straight line component from the ground object extracted image and overlaying the extracted straight line component in gray. The classification image is an image generated in step 702 of FIG. 7, and is a visual representation of the ground objects included in the road area divided image and color-coded for each classification. The areas of fixed ground objects, vehicle ground objects, and human ground objects are shown in different colors.

以上、本発明の道路認識システムについて、具体的な実施の形態を示して説明したが、本発明はこれらに限定されるものではない。当業者であれば、本発明の要旨を逸脱しない範囲内において、上記各実施形態又は他の実施形態にかかる発明の構成及び機能に様々な変更・改良を加えることが可能である。   As mentioned above, although the specific embodiment was shown and demonstrated about the road recognition system of this invention, this invention is not limited to these. A person skilled in the art can make various changes and improvements to the configurations and functions of the invention according to the above-described embodiments or other embodiments without departing from the gist of the present invention.

本発明の道路認識システムは、記憶装置、処理装置、ユーザインターフェース等を備えたコンピュータ上で実現され得るものであり、画像中における道路の自動認識というプログラム処理が上記コンピュータのハードウェア資源を用いて具体的に実現されるものであるから、産業上利用することができる発明である。   The road recognition system of the present invention can be realized on a computer having a storage device, a processing device, a user interface, and the like, and a program process called automatic road recognition in an image is performed using the hardware resources of the computer. Since it is specifically realized, the invention can be used industrially.

本発明の道路認識システムのシステム構成を概略的に示す図である。It is a figure showing roughly the system configuration of the road recognition system of the present invention. 図1に示す記憶装置に格納される簡易道路データ、元画像データ、道路範囲画像の具体例を示す図である。It is a figure which shows the specific example of the simple road data, original image data, and road range image which are stored in the memory | storage device shown in FIG. 図1に示す記憶装置に格納される地上物抽出画像、道路領域分割画像の具体例を示す図である。It is a figure which shows the specific example of the ground object extraction image and road area division | segmentation image which are stored in the memory | storage device shown in FIG. 図1に示す記憶装置に格納される詳細道路データの具体例を示す図である。It is a figure which shows the specific example of the detailed road data stored in the memory | storage device shown in FIG. 図1に示す処理装置のプログラムが実行する処理の流れを概略的に示すフローチャートである。It is a flowchart which shows roughly the flow of the process which the program of the processing apparatus shown in FIG. 1 performs. 図3における道路範囲抽出処理において道路範囲抽出部が行う処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process which a road range extraction part performs in the road range extraction process in FIG. 図3における地上物抽出処理において地上物抽出部が行う処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process which a ground object extraction part performs in the ground object extraction process in FIG. 図3における道路領域分割処理において道路領域分割部が行う処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process which a road area division part performs in the road area division process in FIG. 図3における道路解析処理において道路解析部が行う処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process which a road analysis part performs in the road analysis process in FIG. 図7における地上物の分類処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the classification | category process of the ground object in FIG. 本発明の道路認識システムにおいて生成される道路範囲画像及び直線成分抽出画像の例を示す図である。It is a figure which shows the example of the road range image and linear component extraction image which are produced | generated in the road recognition system of this invention. 本発明の道路認識システムにおいて生成される地上物を分類表示した画像の例を示す図である。It is a figure which shows the example of the image which classified and displayed the ground object produced | generated in the road recognition system of this invention.

符号の説明Explanation of symbols

101 入力装置
102 表示装置
103 出力装置
104 処理装置
105 プログラム
106 道路範囲抽出部
107 地上物抽出部
108 道路領域分割部
109 道路解析部
110 記憶装置
111 簡易道路データ
112 元画像データ
113 道路範囲画像
114 地上物抽出画像
115 道路領域分割画像
116 詳細道路データ
101 Input device
102 Display device
103 Output device
104 Processing equipment
105 programs
106 Road range extractor
107 Ground object extraction unit
108 Road area division
109 Road analysis department
110 Storage device
111 Simple road data
112 Original image data
113 road range image
114 Ground object extraction image
115 Road region image
116 Detailed road data

Claims (14)

衛星又は航空写真により道路を上空から撮像した画像と、
道路を直線的な道路ベクトルの集合として定義した簡易道路データとを用いて前記画像中の道路を認識するシステムであって、
前記画像中の道路を表す部分を抽出した道路範囲画像を生成する第1手段と、
前記道路範囲画像中の地上物を表す部分をマーキングした地上物抽出画像を生成する第2手段と、
前記地上物抽出画像中の道路ベクトルに平行な直線成分を抽出し、当該直線成分に沿って地上物抽出画像を領域分割した道路領域分割画像を生成する第3手段と、
前記道路領域分割画像の各領域に含まれる地上物の大きさ及び占有割合に基づいて、当該領域の属性を分類し、その分類結果を出力する第4手段とを備えていることを特徴とする道路認識システム。
An image of the road taken from the sky by satellite or aerial photography;
A system for recognizing a road in the image using simple road data defining a road as a set of straight road vectors,
First means for generating a road range image obtained by extracting a portion representing a road in the image;
A second means for generating a ground object extraction image in which a portion representing a ground object in the road range image is marked;
A third means for extracting a straight line component parallel to the road vector in the ground object extracted image and generating a road area divided image obtained by dividing the ground object extracted image along the straight line component;
4th means which classify | categorizes the attribute of the said area | region based on the magnitude | size and occupation ratio of the ground object contained in each area | region of the said road area | region division | segmentation image, and outputs the classification result is characterized by the above-mentioned. Road recognition system.
前記簡易道路データは、道路ベクトルの始点座標、終点座標及び道路幅を含んでおり、
前記第1手段は、各道路ベクトルを中心線として道路幅分の幅を持ちその始点から終点まで伸びる帯状の領域を当該道路ベクトルに対応する道路部分として前記画像から抽出することを特徴とする請求項1に記載の道路認識システム。
The simple road data includes the start point coordinates, end point coordinates and road width of the road vector,
The first means extracts, from the image, a band-like region having a width corresponding to a road width with each road vector as a center line and extending from a start point to an end point as a road portion corresponding to the road vector. Item 12. The road recognition system according to Item 1.
前記第2手段は、前記道路範囲画像における道路部分の平均色を決定し、前記道路範囲画像中の当該平均色から一定以上離れた色を有する部分を地上物として認識することを特徴とする請求項1又は2に記載の道路認識システム。   The second means determines an average color of a road portion in the road range image, and recognizes a portion having a color that is more than a certain distance from the average color in the road range image as a ground object. Item 3. A road recognition system according to item 1 or 2. 前記第2手段は、色の輝度、色相、鮮やかさからなるパラメータを用いて、前記道路範囲画像中の色と前記道路部分の平均色とが一定以上離れているかどうかを判定することを特徴とする請求項3に記載の道路認識システム。   The second means determines whether or not the color in the road range image and the average color of the road portion are apart from each other by using a parameter composed of color brightness, hue, and vividness. The road recognition system according to claim 3. 前記第3手段は、一定未満の間隔で隣接する2以上の直線成分群を抽出した場合には、当該直線成分群のうち両端の2の直線成分のみを領域分割に用いることを特徴とする請求項1から4のいずれか1項に記載の道路認識システム。   When the third means extracts two or more linear component groups adjacent to each other at an interval less than a certain distance, only the two linear components at both ends of the linear component group are used for region division. Item 5. The road recognition system according to any one of Items 1 to 4. 前記第4手段は、前記道路領域分割画像の各領域に含まれている地上物を、人物大地上物、車両大地上物、車両大を超える地上物のいずれかに識別し、当該識別結果に応じて当該領域を歩道、車両走行領域、走行不能領域のいずれかに分類することを特徴とする請求項1から5のいずれか1項に記載の道路認識システム。   The fourth means identifies a ground object included in each region of the road area divided image as a person large ground object, a vehicle large ground object, or a ground object exceeding the vehicle size, and the identification result 6. The road recognition system according to claim 1, wherein the area is classified into a sidewalk, a vehicle traveling area, or a non-driving area. 前記第4手段は、
前記道路領域分割画像の各領域が、車両大を超える地上物により一定割合を超えて占有されている場合には、当該領域を走行不可能領域と分類し、
前記道路領域分割画像の各領域が、車両大を超える地上物により一定割合を超えて占有されておらず、かつ、車両大地上物を含んでいる場合又は当該領域が前記道路領域分割画像の端部に位置するものでない場合には、当該領域を車両走行領域と分類し、
前記道路領域分割画像の各領域が、前記走行不可能領域及び車両走行領域のいずれにも該当せず、かつ、人物大地上物を含んでいる場合には、当該領域を歩道と分類することを特徴とする請求項6に記載の道路認識システム。
The fourth means includes
When each area of the road area divided image is occupied by a ground object exceeding the vehicle size in excess of a certain ratio, the area is classified as a non-travelable area,
When each area of the road area divided image is not occupied by a ground object exceeding the vehicle size in excess of a certain ratio and includes a vehicle large ground object, or the area is an end of the road area divided image. If it is not located in the area, classify the area as a vehicle travel area,
When each area of the road area divided image does not correspond to any of the non-travelable area or the vehicle travel area and includes a person large ground object, the area is classified as a sidewalk. The road recognition system according to claim 6, which is characterized by:
衛星又は航空写真により道路を上空から撮像した画像と、
道路を直線的な道路ベクトルの集合として定義した簡易道路データとを用いて前記画像中の道路を認識するプログラムであって、
前記画像中の道路を表す部分を抽出した道路範囲画像を生成する第1ステップと、
前記道路範囲画像中の地上物を表す部分をマーキングした地上物抽出画像を生成する第2ステップと、
前記地上物抽出画像中の道路ベクトルに平行な直線成分を抽出し、当該直線成分に沿って地上物抽出画像を領域分割した道路領域分割画像を生成する第3ステップと、
前記道路領域分割画像の各領域に含まれる地上物の大きさ及び占有割合に基づいて、当該領域の属性を分類し、その分類結果を出力する第4ステップとを備えていることを特徴とする道路認識プログラム。
An image of the road taken from the sky by satellite or aerial photography;
A program for recognizing a road in the image using simple road data defining a road as a set of linear road vectors,
A first step of generating a road range image obtained by extracting a portion representing a road in the image;
A second step of generating a ground object extraction image in which a portion representing the ground object in the road range image is marked;
A third step of extracting a straight line component parallel to the road vector in the ground object extracted image and generating a road area divided image obtained by dividing the ground object extracted image along the straight line component;
And a fourth step of classifying attributes of the area based on the size and occupation ratio of ground objects included in each area of the road area divided image and outputting the classification result. Road recognition program.
前記簡易道路データは、道路ベクトルの始点座標、終点座標及び道路幅を含んでおり、
前記第1ステップでは、各道路ベクトルを中心線として道路幅分の幅を持ちその始点から終点まで伸びる帯状の領域を当該道路ベクトルに対応する道路部分として前記画像から抽出することを特徴とする請求項8に記載の道路認識プログラム。
The simple road data includes the start point coordinates, end point coordinates and road width of the road vector,
In the first step, a belt-like region having a width corresponding to a road width with each road vector as a center line and extending from a start point to an end point is extracted from the image as a road portion corresponding to the road vector. Item 9. The road recognition program according to item 8.
前記第2ステップでは、前記道路範囲画像における道路部分の平均色を決定し、前記道路範囲画像中の当該平均色から一定以上離れた色を有する部分を地上物として認識することを特徴とする請求項8又は9に記載の道路認識プログラム。   In the second step, an average color of a road portion in the road range image is determined, and a portion having a color separated from the average color in the road range image by a certain distance or more is recognized as a ground object. Item 10. The road recognition program according to Item 8 or 9. 前記第2ステップでは、色の輝度、色相、鮮やかさからなるパラメータを用いて、前記道路範囲画像中の色と前記道路部分の平均色とが一定以上離れているかどうかを判定することを特徴とする請求項10に記載の道路認識プログラム。   In the second step, it is determined whether or not the color in the road range image and the average color of the road portion are apart from each other by using a parameter including color brightness, hue, and vividness. The road recognition program according to claim 10. 前記第3ステップでは、一定未満の間隔で隣接する2以上の直線成分群を抽出した場合には、当該直線成分群のうち両端の2の直線成分のみを領域分割に用いることを特徴とする請求項8から11のいずれか1項に記載の道路認識プログラム。   In the third step, when two or more linear component groups adjacent to each other at intervals less than a constant are extracted, only two linear components at both ends of the linear component group are used for region division. Item 12. The road recognition program according to any one of Items 8 to 11. 前記第4ステップでは、前記道路領域分割画像の各領域に含まれている地上物を、人物大地上物、車両大地上物、車両大を超える地上物のいずれかに識別し、当該識別結果に応じて当該領域を歩道、車両走行領域、走行不能領域のいずれかに分類することを特徴とする請求項8から12のいずれか1項に記載の道路認識プログラム。   In the fourth step, the ground object included in each area of the road area divided image is identified as a person large ground object, a vehicle large ground object, or a ground object exceeding the vehicle size, and the identification result is The road recognition program according to any one of claims 8 to 12, wherein the area is classified into any one of a sidewalk, a vehicle traveling area, and a traveling impossible area. 前記第4ステップでは、
前記道路領域分割画像の各領域が、車両大を超える地上物により一定割合を超えて占有されている場合には、当該領域を走行不可能領域と分類し、
前記道路領域分割画像の各領域が、車両大を超える地上物により一定割合を超えて占有されておらず、かつ、車両大地上物を含んでいる場合又は当該領域が前記道路領域分割画像の端部に位置するものでない場合には、当該領域を車両走行領域と分類し、
前記道路領域分割画像の各領域が、前記走行不可能領域及び車両走行領域のいずれにも該当せず、かつ、人物大地上物を含んでいる場合には、当該領域を歩道と分類することを特徴とする請求項13に記載の道路認識プログラム。
In the fourth step,
When each area of the road area divided image is occupied by a ground object exceeding the vehicle size in excess of a certain ratio, the area is classified as a non-travelable area,
Each area of the road area divided image is not occupied by a ground object exceeding the vehicle size in excess of a certain ratio and includes a vehicle large ground object, or the area is an end of the road area divided image. If it is not located in the area, classify the area as a vehicle travel area,
When each area of the road area divided image does not correspond to any of the non-travelable area or the vehicle travel area and includes a person large ground object, the area is classified as a sidewalk. The road recognition program according to claim 13, wherein
JP2005217790A 2005-07-27 2005-07-27 Road recognition system for map generation using satellite image or the like Pending JP2007033931A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005217790A JP2007033931A (en) 2005-07-27 2005-07-27 Road recognition system for map generation using satellite image or the like

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005217790A JP2007033931A (en) 2005-07-27 2005-07-27 Road recognition system for map generation using satellite image or the like

Publications (1)

Publication Number Publication Date
JP2007033931A true JP2007033931A (en) 2007-02-08

Family

ID=37793257

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005217790A Pending JP2007033931A (en) 2005-07-27 2005-07-27 Road recognition system for map generation using satellite image or the like

Country Status (1)

Country Link
JP (1) JP2007033931A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019097892A1 (en) * 2017-11-15 2019-05-23 Necソリューションイノベータ株式会社 Device for collecting breeding data in farm field, device for analyzing feature in breeding, method for collecting breeding data in farm field, program, and recording medium
CN109844457A (en) * 2016-10-18 2019-06-04 大陆汽车有限责任公司 For by aerial image or satellite image and by vehicle detection to data generate supplying digital road model system and method
CN110728723A (en) * 2019-09-23 2020-01-24 东南大学 Tile map-oriented automatic road extraction method
EP3893149A1 (en) 2020-04-06 2021-10-13 Toyota Jidosha Kabushiki Kaisha Apparatus, method, and computer program for correcting road region
KR20210149531A (en) * 2020-06-02 2021-12-09 네이버랩스 주식회사 Apparatus and method for classifying traffic lane
US11594020B2 (en) 2018-03-23 2023-02-28 Nec Solution Innovators, Ltd. Crown identification device, identification method, program, and recording medium
US11721096B2 (en) 2021-09-23 2023-08-08 Here Global B.V. Method, apparatus, and system for confirming road vector geometry based on aerial images

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109844457A (en) * 2016-10-18 2019-06-04 大陆汽车有限责任公司 For by aerial image or satellite image and by vehicle detection to data generate supplying digital road model system and method
JP2019534513A (en) * 2016-10-18 2019-11-28 コンチネンタル オートモーティヴ ゲゼルシャフト ミット ベシュレンクテル ハフツングContinental Automotive GmbH System and method for generating a digital road model from aerial or satellite images and data detected by a vehicle
US11462008B2 (en) 2017-11-15 2022-10-04 Nec Solution Innovators, Ltd. Device for collecting breeding data in farm field, device for analyzing feature in breeding, method for collecting breeding data in farm field, program, and recording medium
WO2019097892A1 (en) * 2017-11-15 2019-05-23 Necソリューションイノベータ株式会社 Device for collecting breeding data in farm field, device for analyzing feature in breeding, method for collecting breeding data in farm field, program, and recording medium
JPWO2019097892A1 (en) * 2017-11-15 2020-12-24 Necソリューションイノベータ株式会社 Field breeding data collection device, breeding feature analysis device, field breeding data collection method, program, and recording medium
JP7218870B2 (en) 2017-11-15 2023-02-07 Necソリューションイノベータ株式会社 Field breeding data collection device, feature analysis device in breeding, field breeding data collection method, program, and recording medium
US11594020B2 (en) 2018-03-23 2023-02-28 Nec Solution Innovators, Ltd. Crown identification device, identification method, program, and recording medium
CN110728723A (en) * 2019-09-23 2020-01-24 东南大学 Tile map-oriented automatic road extraction method
CN110728723B (en) * 2019-09-23 2023-04-28 东南大学 Automatic road extraction method for tile map
EP3893149A1 (en) 2020-04-06 2021-10-13 Toyota Jidosha Kabushiki Kaisha Apparatus, method, and computer program for correcting road region
US11842494B2 (en) 2020-04-06 2023-12-12 Toyota Jidosha Kabushiki Kaisha Apparatus, method, and computer program for correcting road region
KR102446433B1 (en) 2020-06-02 2022-09-23 네이버랩스 주식회사 Apparatus and method for classifying traffic lane
KR20210149531A (en) * 2020-06-02 2021-12-09 네이버랩스 주식회사 Apparatus and method for classifying traffic lane
US11721096B2 (en) 2021-09-23 2023-08-08 Here Global B.V. Method, apparatus, and system for confirming road vector geometry based on aerial images

Similar Documents

Publication Publication Date Title
CN108470159B (en) Lane line data processing method and device, computer device and storage medium
US10037604B2 (en) Multi-cue object detection and analysis
Siriborvornratanakul An automatic road distress visual inspection system using an onboard in-car camera
CN110502982B (en) Method and device for detecting obstacles in expressway and computer equipment
ES2908944A2 (en) A computer-implemented method and system for detecting small objects on an image using convolutional neural networks
JP6653361B2 (en) Road marking image processing apparatus, road marking image processing method, and road marking image processing program
JP2007033931A (en) Road recognition system for map generation using satellite image or the like
CN111274926B (en) Image data screening method, device, computer equipment and storage medium
CN111931683A (en) Image recognition method, image recognition device and computer-readable storage medium
JP2007128141A (en) System and method for determining road lane number in road image
Ahmed et al. Traffic sign detection and recognition model using support vector machine and histogram of oriented gradient
JP2021179839A (en) Classification system of features, classification method and program thereof
JP4762026B2 (en) Road sign database construction device
Sahu et al. A comparative analysis of deep learning approach for automatic number plate recognition
JP2020160840A (en) Road surface defect detecting apparatus, road surface defect detecting method, road surface defect detecting program
KR20200087296A (en) 3D viewer system for detecting object based on lidar sensor data
Sadekov et al. Road sign detection and recognition in panoramic images to generate navigational maps
JP5407723B2 (en) Recognition device, recognition method, and program
Koc-San et al. A model-based approach for automatic building database updating from high-resolution space imagery
Merugu et al. Multi lane detection, curve fitting and lane type classification
EP3392797B1 (en) Device for determining vehicle navigation information
Cheng et al. Urban road extraction from combined data sets of high-resolution satellite imagery and lidar data using GEOBIA
Chatterjee et al. Understanding the scene data-pavement area grouping in images
JP2007139421A (en) Morphological classification device and method, and variation region extraction device and method
Rani et al. Traffic sign detection and recognition using deep learning-based approach with haze removal for autonomous vehicle navigation