JP5074622B2 - Geographic image processing system - Google Patents

Geographic image processing system Download PDF

Info

Publication number
JP5074622B2
JP5074622B2 JP2011259011A JP2011259011A JP5074622B2 JP 5074622 B2 JP5074622 B2 JP 5074622B2 JP 2011259011 A JP2011259011 A JP 2011259011A JP 2011259011 A JP2011259011 A JP 2011259011A JP 5074622 B2 JP5074622 B2 JP 5074622B2
Authority
JP
Japan
Prior art keywords
point
feature
feature point
points
geographic image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011259011A
Other languages
Japanese (ja)
Other versions
JP2012043472A (en
Inventor
光晴 大峡
仙 久保田
隆 小野山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Solutions Ltd
Original Assignee
Hitachi Solutions Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Solutions Ltd filed Critical Hitachi Solutions Ltd
Priority to JP2011259011A priority Critical patent/JP5074622B2/en
Publication of JP2012043472A publication Critical patent/JP2012043472A/en
Application granted granted Critical
Publication of JP5074622B2 publication Critical patent/JP5074622B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、衛星画像や航空写真画像を利用して地図を作成するために用いる地理画像処理システムに関し、特に、地理画像に含まれる建築物等の地物の形状・輪郭の認識を容易にするための画像処理を行うシステムに関するものである。   The present invention relates to a geographic image processing system used for creating a map using a satellite image or an aerial photograph image, and in particular, facilitates recognition of the shape and outline of a feature such as a building included in the geographic image. The present invention relates to a system for performing image processing for the purpose.

近年、衛星画像や航空写真画像の利用が広まってきており、特に地図の作成、更新における広大な領域の探査を効率的に行うために利用されている。衛星画像や航空写真画像の利用により、従来の現地での測量をする手間を省くことができ、広い範囲の地図データを一度に得ることができる。特に、衛星画像では撮影頻度を上げることにより、より新しい地図データを常に用意することが可能となる。   In recent years, the use of satellite images and aerial photograph images has become widespread, and in particular, it is used for efficiently exploring a vast area in creating and updating maps. By using satellite images and aerial photograph images, it is possible to save the time and effort of conventional field surveys and to obtain a wide range of map data at once. In particular, it is possible to always prepare newer map data by increasing the imaging frequency for satellite images.

従来、衛星画像や航空写真画像における建築物等の地物の認識は、操作者が地理画像を見ながら手作業で行っていた。具体的には、地理画像中の宅地、農地、道路、河川、建築物等の地物が占める領域を目視により判断し、それらの輪郭をトレースして入力することで、地図データを作成する。また、近年では、コンピュータを使って複数の地理画像データ間の変化を検知することによって、データベースのメンテナンス作業の省力化や地図データの修正精度の向上が図られている。   Conventionally, an operator recognizes a feature such as a building in a satellite image or an aerial photograph image manually while viewing a geographic image. Specifically, map data is created by visually determining areas occupied by features such as residential land, farmland, roads, rivers, buildings, etc. in a geographic image and tracing and inputting the contours thereof. Further, in recent years, by using a computer to detect changes between a plurality of geographic image data, labor saving of database maintenance work and improvement of map data correction accuracy have been attempted.

八木伸行、外5名,「C言語で学ぶ実践画像処理」,株式会社オーム社,1999年12月8日,p.27−31,38−50Nobuyuki Yagi, 5 others, “Practical image processing learned in C language”, Ohm Co., Ltd., December 8, 1999, p. 27-31, 38-50 酒井幸市,「デジタル画像処理入門」,CQ出版株式会社,2002年10月1日,p.127−129Sakai Yukiichi, “Introduction to Digital Image Processing”, CQ Publishing Co., Ltd., October 1, 2002, p. 127-129

衛星画像や航空写真画像を利用した地図の作成、更新の際には、これらの地理画像から、宅地、農地、道路、河川、建築物等の地物を認識し、地図データとしてデータベース化する作業が必要となる。従来、この作業は自動化されておらず、多大な人的コストを必要とするものであった。   When creating and updating maps using satellite images and aerial photograph images, work to recognize features such as residential land, farmland, roads, rivers, buildings, etc. from these geographic images and create a database as map data Is required. Conventionally, this operation has not been automated and requires a great deal of human cost.

特に、建築物の詳細な形状・輪郭を認識するには、画像を見て、一つ一つの建築物の輪郭を正確にトレースする作業が必要である。このような作業は操作者に対して多大な集中力、時間を要するものとなっている。さらに、広範囲の地図を限られた時間で作るためには複数の操作者が必要となり、操作者の熟練度の差によってデータベースの精度にばらつきが出てしまう。   In particular, in order to recognize the detailed shape and outline of a building, it is necessary to look at the image and accurately trace the outline of each building. Such work requires great concentration and time for the operator. Furthermore, in order to create a wide-range map in a limited time, a plurality of operators are required, and the accuracy of the database varies depending on the skill level of the operators.

本発明は、このような実情に鑑みてなされたものであり、衛星画像や航空写真画像などの地理画像を用いて地図を作成する作業において、地理画像中の建築物等の形状・輪郭の認識を容易にすることができる地理画像処理システムを提供しようとするものである。   The present invention has been made in view of such circumstances, and recognizes the shape and contour of a building or the like in a geographic image in an operation of creating a map using a geographic image such as a satellite image or an aerial photograph image. It is an object of the present invention to provide a geographic image processing system that can facilitate the above.

上記解決課題に鑑みて鋭意研究の結果、本発明者は、地理画像中の建築物等の輪郭、すなわちエッジを抽出し、抽出したエッジに基づいて、地理画像中の建築物等の構造上の特徴点を抽出し、ユーザがこの特徴点に基づいて建築物等の輪郭を画定することができるようにすることにより、上記課題が解決されることに想到した。   As a result of diligent research in view of the above problem, the present inventor extracted the outline of a building or the like in a geographic image, that is, an edge, and based on the extracted edge, on the structure of the building or the like in the geographic image It has been conceived that the above-mentioned problems can be solved by extracting feature points and allowing a user to define a contour of a building or the like based on the feature points.

すなわち、本発明は、地理画像に含まれる地物の輪郭を画定するためのシステムであって、地理画像データからエッジを抽出するエッジ抽出手段と、前記抽出されたエッジから特徴点を抽出する特徴点抽出手段と、前記地理画像と前記特徴点とを表示し、ユーザによる地物の輪郭を画定する入力を受け付ける輪郭画定手段とを備えていることを特徴とするシステムを提供するものである。   That is, the present invention is a system for defining the outline of a feature included in a geographic image, and includes an edge extracting means for extracting an edge from geographic image data, and a feature for extracting a feature point from the extracted edge. The present invention provides a system characterized by comprising point extraction means, and a contour demarcation means for displaying the geographic image and the feature points and receiving an input for demarcating the contour of the feature by the user.

本発明の地理画像処理システムにおいて、前記エッジ抽出手段は、地理画像データからエッジを抽出して得られるデータを2値化し、全てのエッジを1画素幅とする細線化を行い、所定長さに満たないエッジをノイズとして除去することを特徴とする。このように、エッジデータのノイズ除去を行うことにより、後の特徴点抽出の精度が向上される。   In the geographic image processing system of the present invention, the edge extraction means binarizes data obtained by extracting edges from geographic image data, thins all the edges to be one pixel width, and makes a predetermined length. It is characterized in that less than an edge is removed as noise. Thus, the accuracy of subsequent feature point extraction is improved by removing noise from the edge data.

本発明の地理画像処理システムにおいて、前記特徴点抽出手段は、前記抽出されたエッジの端点、交点、角点のうち少なくとも1種類を特徴点として抽出することを特徴とする。これらの点は、地物の輪郭を決定するために重要となる点である。   In the geographic image processing system of the present invention, the feature point extracting means extracts at least one of the extracted edge points, intersection points, and corner points as feature points. These points are important for determining the contour of the feature.

本発明の地理画像処理システムにおいて、前記特徴点抽出手段は、前記抽出されたエッジを特徴点のテンプレートとマッチングすることにより特徴点抽出を行うことを特徴とする。例えば、エッジの交点、角点の画素パターンを予め登録しておくことにより、特徴点抽出処理を迅速に実行することができる。   In the geographic image processing system according to the present invention, the feature point extraction unit performs feature point extraction by matching the extracted edge with a template of feature points. For example, the feature point extraction process can be executed quickly by registering pixel patterns of edge intersections and corner points in advance.

本発明の地理画像処理システムにおいて、前記輪郭画定手段は、前記地理画像及び特徴点の表示画面において、ユーザがポインタ操作により特徴点間を結線して地物の輪郭を画定することができるユーザインタフェースを提供することを特徴とする。さらには、このユーザインタフェースにより、特徴点間の結線の集合により1つの閉じられた領域を画定することにより、各地物の輪郭を画定することができるのが好ましい。   In the geographic image processing system of the present invention, the contour demarcation means is a user interface that allows the user to define the contour of the feature by connecting the feature points by a pointer operation on the display screen of the geographic image and the feature points. It is characterized by providing. Furthermore, it is preferable that the user interface can define the contour of each feature by defining one closed region by a set of connections between feature points.

本発明の地理画像処理システムにおいて、前記輪郭画定手段は、前記地理画像及び特徴点の表示画面において、ユーザが指定した範囲内に含まれる特徴点間を結線して得られる1以上の閉じられた領域を自動的に生成し、前記閉じられた領域を地物の輪郭の候補として表示することを特徴とする。これにより、ユーザがポインタ操作等により各特徴点間を結線する煩雑な操作を行わなくてもよくなり、ユーザの利便性が向上される。   In the geographic image processing system of the present invention, the contour defining means includes at least one closed feature obtained by connecting the feature points included in the range specified by the user on the display screen of the geographic image and the feature points. A region is automatically generated, and the closed region is displayed as a candidate for a contour of a feature. As a result, the user does not have to perform a complicated operation of connecting the feature points by a pointer operation or the like, and the convenience for the user is improved.

本発明の地理画像処理システムにおいて、前記輪郭画定手段は、前記地理画像及び特徴点の表示画面において、前記地物の輪郭の候補を表示する際に、前記閉じられた領域のうちユーザがポインタ操作により範囲を指定した際のポインタの軌跡との一致度が高いものを優先度の高い候補として表示することを特徴とする。これにより、ユーザが視覚的に判断した地物の輪郭と合致した候補を優先的に提示することができる。   In the geographic image processing system of the present invention, the contour demarcation means is configured such that when a candidate for a contour of the feature is displayed on the display screen of the geographic image and the feature point, a user operates a pointer among the closed regions. The one having a high degree of coincidence with the locus of the pointer when the range is designated is displayed as a candidate having a high priority. Thereby, a candidate that matches the contour of the feature visually determined by the user can be preferentially presented.

本発明の地理画像処理システムにおいて、前記輪郭画定手段は、前記地理画像及び特徴点の表示画面において、表示された地物の輪郭の候補に対して、特徴点の追加・削除を行うことができるユーザインタフェースを提供することを特徴とする。これにより、地物の輪郭の候補が適切に表示されない場合に、ノイズなどの影響を除去することができる。   In the geographic image processing system of the present invention, the contour demarcation means can add / delete feature points to / from candidates of contours of displayed features on the geographic image and feature point display screen. A user interface is provided. Thereby, when the candidate of the outline of a feature is not displayed appropriately, influences, such as noise, can be removed.

このようなユーザインタフェースにより、従来手作業により行っていた地物の輪郭の線引きを自動化することが可能となり、ユーザの作業負荷が大幅に軽減される。   With such a user interface, it becomes possible to automate the outline drawing of features that have been performed manually, and the workload of the user is greatly reduced.

以上、説明したように、本発明の地理画像処理システムによれば、衛星画像や航空写真画像などの地理画像から地図データを作成する作業を大幅に効率化することができる。また、従来操作者の技量に頼っていた作業工程が自動化されるので、多数の操作者によって作業を行う場合であっても、操作者の熟練度の差に影響されることなく均質な地図データを得ることができる。   As described above, according to the geographic image processing system of the present invention, the work of creating map data from a geographic image such as a satellite image or an aerial photograph image can be made much more efficient. In addition, since the work process that previously relied on the skill of the operator is automated, even if the work is performed by a large number of operators, homogeneous map data is not affected by differences in the skill level of the operators. Can be obtained.

本発明の地理画像処理システムの構成を概略的に示すブロック図である。It is a block diagram which shows roughly the structure of the geographic image processing system of this invention. 本発明の地理画像処理システムにより行われる画像処理の概要を例示する図である。It is a figure which illustrates the outline | summary of the image processing performed by the geographic image processing system of this invention. 図1に示す地理画像処理プログラムのエッジ抽出部による処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process by the edge extraction part of the geographic image processing program shown in FIG. 図1に示す地理画像処理プログラムの特徴点抽出部による処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process by the feature point extraction part of the geographic image processing program shown in FIG. 特徴点抽出処理における交点検出のためのテンプレートの例を示す図である。It is a figure which shows the example of the template for the intersection detection in a feature point extraction process. 特徴点抽出処理における角点検出のためのテンプレートの例を示す図である。It is a figure which shows the example of the template for the corner point detection in a feature point extraction process. 図1に示す地理画像処理プログラムの特徴点抽出処理部により生成される特徴点データの構成例を示す図である。It is a figure which shows the structural example of the feature point data produced | generated by the feature point extraction process part of the geographic image processing program shown in FIG. 図1に示す地理画像処理プログラムの家枠画定処理部による処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process by the house frame definition process part of the geographic image processing program shown in FIG. 図1に示す地理画像処理プログラムの家枠画定処理部による処理を行う際に、ユーザに提示されるインタフェース画面を示す図である。It is a figure which shows the interface screen shown to a user, when performing the process by the house frame definition process part of the geographic image processing program shown in FIG. 図1に示す記憶部に記憶されている家枠データのデータ構成例を示す図である。It is a figure which shows the data structural example of the house frame data memorize | stored in the memory | storage part shown in FIG. 図1に示す地理画像処理プログラムの家枠画定処理部による処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process by the house frame definition process part of the geographic image processing program shown in FIG. 図1に示す地理画像処理プログラムの家枠画定処理部による処理を行う際に、ユーザに提示されるインタフェース画面を示す図である。It is a figure which shows the interface screen shown to a user, when performing the process by the house frame definition process part of the geographic image processing program shown in FIG. 図1に示す地理画像処理プログラムの家枠画定処理部による処理を行う際に、特徴点の追加処理の概要を例示する図である。It is a figure which illustrates the outline | summary of the addition process of a feature point, when performing the process by the house frame definition process part of the geographic image processing program shown in FIG. 図1に示す地理画像処理プログラムの家枠画定処理部による処理を行う際に、特徴点の削除処理の概要を例示する図である。It is a figure which illustrates the outline | summary of the deletion process of a feature point, when performing the process by the house frame definition process part of the geographic image processing program shown in FIG.

以下、添付図面を参照しながら、本発明の地理画像処理システムを実施するための最良の形態を詳細に説明する。図1〜図14は、本発明の実施の形態を例示する図であり、これらの図において、同一の符号を付した部分は同一物を表わし、基本的な構成及び動作は同様であるものとする。   The best mode for carrying out the geographic image processing system of the present invention will be described below in detail with reference to the accompanying drawings. 1 to 14 are diagrams illustrating embodiments of the present invention. In these drawings, the same reference numerals denote the same components, and the basic configuration and operation are the same. To do.

システム構成
図1は、本発明の地理画像処理システムの構成を概略的に示すブロック図である。図1において、本システムは、パソコン、ワークステーション等から構成される処理装置10と、メインメモリとして使用されるRAM(ランダムアクセスメモリ)及び磁気ディスク記憶装置等の補助記憶装置とを含む記憶装置20と、入出力装置30とを備えている。
System Configuration FIG. 1 is a block diagram schematically showing the configuration of a geographic image processing system of the present invention. In FIG. 1, this system includes a storage device 20 including a processing device 10 including a personal computer, a workstation and the like, and an auxiliary storage device such as a RAM (Random Access Memory) and a magnetic disk storage device used as a main memory. And an input / output device 30.

入出力装置30は、キーボード及びマウス等のポインティングデバイスを含む入力装置31と、CRTディスプレイ装置等の表示装置32と、プリンタ33とを備えている。入力装置31は、ユーザによるパラメータの入力やコマンドの起動等、並びに本システムにより画像処理を施した地理画像を用いた地図データ生成に用いられる。表示装置32及びプリンタ33は、本システムによる地理画像や地図データをユーザに提示するために用いられる。尚、表示装置としては、表示装置32及びプリンタ33のいずれか一方のみを備える構成としてもよい。   The input / output device 30 includes an input device 31 including a pointing device such as a keyboard and a mouse, a display device 32 such as a CRT display device, and a printer 33. The input device 31 is used for parameter input by a user, activation of a command, and the like, and map data generation using a geographic image subjected to image processing by the present system. The display device 32 and the printer 33 are used for presenting geographic images and map data according to the present system to the user. Note that the display device may include only one of the display device 32 and the printer 33.

処理装置10は、地理画像処理プログラム40を含んでいる。地理画像処理プログラム40は、プログラムモジュールとして、地理画像に含まれる建築物等のエッジを抽出するエッジ抽出部100、地理画像から抽出されたエッジを利用して画像中の特徴点を抽出する特徴点抽出部200、地理画像中の抽出された特徴点を利用してユーザ操作により建築物等の輪郭(以下、単に「家枠」という)を画定する家枠画定処理部300を含んでいる。   The processing device 10 includes a geographic image processing program 40. The geographic image processing program 40 includes, as program modules, an edge extraction unit 100 that extracts edges of buildings and the like included in the geographic image, and feature points that extract feature points in the image using the edges extracted from the geographic image. The extraction unit 200 includes a house frame demarcation processing unit 300 that demarcates an outline of a building or the like (hereinafter simply referred to as “house frame”) by a user operation using the extracted feature points in the geographic image.

記憶装置20は、地理画像データ21、エッジデータ22、特徴点データ23、家枠データ24を記憶する。これらのうち、地理画像データ21は、人工衛星画像又は航空写真画像から得られるものであり、本システムによる処理実行前に予め記憶されているデータである。一方、エッジデータ22、特徴点データ23、家枠データ24は、本システムにおいて地理画像データ21に基づいて生成されるデータである。   The storage device 20 stores geographic image data 21, edge data 22, feature point data 23, and house frame data 24. Among these, the geographic image data 21 is obtained from an artificial satellite image or an aerial photograph image, and is data stored in advance before the processing by the present system is executed. On the other hand, the edge data 22, the feature point data 23, and the house frame data 24 are data generated based on the geographic image data 21 in this system.

地理画像処理の概要
図2は、本システムにより行われる画像処理の概要を例示する図である。図2(a)は、予め記憶装置20に記憶されている地理画像データ21である。この地理画像データに対して、エッジ抽出処理を行うことにより、図2(b)に示すエッジ抽出画像が得られる。このエッジ抽出画像に対して、細線化処理を行って図2(c)に示す細線化画像を取得し、さらに、ノイズ除去を行って図2(d)に示す画像を得る。この画像は、建築物等の輪郭のみが抽出された画像であり、記憶装置20においてエッジデータ22として記憶される。以上のエッジ抽出処理は、Sobelフィルタ(非特許文献1参照)などのエッジフィルタを使用して行うことができる。この画像から建築物等の家枠を構成する可能性のある点である特徴点を抽出して、図2(e)に示す特徴点抽出画像を得る。この画像中の特徴点の座標データが記憶装置20において特徴点データ23として記憶される。最後に、地理画像データ21と特徴点データ23とを合わせて表示し、ユーザ操作により家枠を画定する入力を受け付けて、図2(f)に示す家枠表示画像が得られる。
Overview of Geographic Image Processing FIG. 2 is a diagram illustrating an overview of image processing performed by this system. FIG. 2A shows geographic image data 21 stored in the storage device 20 in advance. By performing edge extraction processing on this geographic image data, an edge extraction image shown in FIG. 2B is obtained. A thinning process is performed on the edge extracted image to obtain a thinned image shown in FIG. 2C, and noise is removed to obtain an image shown in FIG. 2D. This image is an image in which only the outline of a building or the like is extracted, and is stored as edge data 22 in the storage device 20. The above edge extraction processing can be performed using an edge filter such as a Sobel filter (see Non-Patent Document 1). A feature point that is a point that may constitute a house frame such as a building is extracted from this image to obtain a feature point extraction image shown in FIG. The coordinate data of the feature points in this image is stored as feature point data 23 in the storage device 20. Finally, the geographic image data 21 and the feature point data 23 are displayed together, and an input for demarcating the house frame is received by a user operation, and the house frame display image shown in FIG.

地理画像処理の詳細
以下、本発明の地理画像処理システムにおけるエッジ抽出処理、特徴点抽出処理、家枠画定処理について、詳細を説明する。本システムにおいて、地理画像処理プログラム40が起動されると、エッジ抽出部100、特徴点抽出部200、家枠画定処理部300の順に処理が実行される。以下、それぞれによる処理の詳細を述べる。
Details of Geographic Image Processing Details of edge extraction processing, feature point extraction processing, and house frame definition processing in the geographic image processing system of the present invention will be described below. In this system, when the geographic image processing program 40 is started, the processing is executed in the order of the edge extraction unit 100, the feature point extraction unit 200, and the house frame definition processing unit 300. The details of the processing by each will be described below.

(1)エッジ抽出処理
図3は、地理画像処理プログラム40のエッジ抽出部100による処理の流れを示すフローチャートである。図3において、エッジ抽出部100は、記憶装置20から地理画像データ21を読み込み(S301)、画像中の建築物等のエッジを抽出する(S302)。エッジを抽出する手法としては、種々の周知技術が適用可能である。建築物の輪郭を抽出できればどの手法を用いてもよい。本システムでは、上記したSobelフィルタを使用するものとする。この処理によって生成される図2(b)に示すような画像をエッジ抽出画像と呼ぶ。
(1) Edge Extraction Processing FIG. 3 is a flowchart showing the flow of processing by the edge extraction unit 100 of the geographic image processing program 40. In FIG. 3, the edge extraction unit 100 reads geographic image data 21 from the storage device 20 (S301), and extracts an edge of a building or the like in the image (S302). Various known techniques can be applied as a method for extracting the edge. Any method may be used as long as the outline of the building can be extracted. In this system, the Sobel filter described above is used. An image generated by this process as shown in FIG. 2B is called an edge extracted image.

次に、エッジ抽出部100は、エッジ抽出画像中の強いエッジと弱いエッジとを区別するために、エッジ抽出画像を2値化する(S303)。2値化を行う際の閾値の決定方法としては、種々の周知技術が適用可能であるが(非特許文献1参照)、本システムでは、あらかじめ登録しておいた閾値を使用するものとする。閾値を低く設定しておくと、後述する特徴点抽出処理においてより多くの特徴点が設定され、詳細な家枠データを作成できる反面、特徴点が多くなる程、処理コストが大きくなる。一方で、閾値を高く設定しておくと、特徴点抽出処理において設定される特徴点の数が少なくなり、処理コストが小さくなる反面、家枠データの精度は低くなる。以上より、システムが耐え得る処理コストと、必要とされる家枠データの精度とを勘案して、適切な閾値を設定する。   Next, the edge extraction unit 100 binarizes the edge extraction image in order to distinguish strong edges and weak edges in the edge extraction images (S303). Various known techniques can be applied as a threshold value determination method for binarization (see Non-Patent Document 1), but in this system, a threshold value registered in advance is used. If the threshold value is set low, more feature points are set in the feature point extraction process described later, and detailed house frame data can be created. However, the processing cost increases as the number of feature points increases. On the other hand, if the threshold value is set high, the number of feature points set in the feature point extraction process is reduced and the processing cost is reduced, but the accuracy of the house frame data is lowered. From the above, an appropriate threshold value is set in consideration of the processing cost that the system can withstand and the required accuracy of house frame data.

エッジ抽出部100は、この2値化したエッジ抽出画像に対して、細線化処理を行う(S304)。この処理により、図2(c)に示すように、画像中のエッジが全て1画素幅となる。細線化を行う方法についても、種々の周知技術が適用可能である(非特許文献1参照)。次に、この細線化した画像において微小なエッジを除去するノイズ除去処理を行う(S305)。この処理により、図2(c)に示すような細線化画像中の建築物の輪郭とは関係のない微小なエッジ(道路の路面の凹凸、建築物の壁面の模様、草木などから生成される)が取り除かれ、図2(d)に示すような画像が生成される。このノイズ除去処理についても、種々の周知技術が適用可能である(非特許文献1参照)。例えば、ノイズとなるエッジは、建築物のエッジとは異なりエッジの長さが短いことが多いので、あらかじめ指定した長さ以下のエッジを除去するようにすればよい。ノイズには様々なパターンによってノイズ除去の手法を変える手法も広く知られた周知技術であり、本システムにおいても、ノイズの特徴に合わせて最適なノイズ除去手法を選択するものとする。   The edge extraction unit 100 performs thinning processing on the binarized edge extraction image (S304). By this processing, as shown in FIG. 2C, all the edges in the image are 1 pixel wide. Various known techniques can also be applied to the thinning method (see Non-Patent Document 1). Next, noise removal processing is performed to remove minute edges in the thinned image (S305). By this processing, it is generated from minute edges (road road surface irregularities, building wall patterns, vegetation, etc.) that are not related to the outline of the building in the thinned image as shown in FIG. ) Is removed, and an image as shown in FIG. 2D is generated. Various known techniques can also be applied to this noise removal processing (see Non-Patent Document 1). For example, an edge that becomes noise often has a short edge length unlike an edge of a building. Therefore, an edge having a length that is not more than a predetermined length may be removed. A technique for changing a noise removal technique depending on various patterns is also a well-known technique. For this system, an optimum noise removal technique is selected in accordance with noise characteristics.

エッジ抽出部100は、このようにして生成された図2(d)に示すような画像を、エッジデータ22として記憶装置20に格納する。   The edge extraction unit 100 stores the image generated as described above as shown in FIG. 2D in the storage device 20 as the edge data 22.

(2)特徴点抽出処理
図4は、地理画像処理プログラム40の特徴点抽出部200による処理の流れを示すフローチャートである。図4において、特徴点抽出部200は、記憶装置20からエッジデータ22を読み込み(S401)、このデータに含まれる特徴点として、各エッジの端点を抽出し(S402)、各エッジの交点を抽出し(S403)、各エッジの角点を抽出する(S404)。抽出された端点、交点、角点のそれぞれの座標を、特徴点データ23として記憶装置20に記録する(S405)。
(2) Feature Point Extraction Processing FIG. 4 is a flowchart showing the flow of processing by the feature point extraction unit 200 of the geographic image processing program 40. In FIG. 4, the feature point extraction unit 200 reads the edge data 22 from the storage device 20 (S401), extracts the end points of each edge as the feature points included in this data (S402), and extracts the intersection of each edge. Then, the corner points of each edge are extracted (S404). The coordinates of the extracted end points, intersection points, and corner points are recorded in the storage device 20 as feature point data 23 (S405).

端点抽出処理(S402)では、1画素幅に細線化されているエッジデータ22から、各エッジの両端点となっている画素を検出する。交点抽出処理(S403)では、エッジデータ22における2本のエッジの交点となっている画素を検出する。角点抽出処理(S404)では、エッジがなす角の頂点となっている画素を検出する。ここで、交点抽出処理及び角点抽出処理は、それぞれ、図5及び図6に示すようなテンプレートを使用したテンプレートマッチング(非特許文献2参照)によって行うことができる。具体的には、図5の(a)〜(d)や図6の(a)〜(d)のような特徴点のテンプレートを予め登録しておき、このテンプレートをエッジデータ22の全画素に対してマッチングし、テンプレートにマッチした箇所を特徴点とする。   In the end point extraction process (S402), pixels that are both end points of each edge are detected from the edge data 22 thinned to a width of one pixel. In the intersection extraction process (S403), pixels that are intersections of two edges in the edge data 22 are detected. In the corner point extraction process (S404), the pixel that is the vertex of the corner formed by the edge is detected. Here, the intersection point extraction process and the corner point extraction process can be performed by template matching using a template as shown in FIGS. 5 and 6, respectively (see Non-Patent Document 2). Specifically, templates of feature points such as (a) to (d) in FIG. 5 and (a) to (d) in FIG. 6 are registered in advance, and this template is used for all pixels of the edge data 22. Matching is performed, and a point matching the template is used as a feature point.

図7は、特徴点抽出部200により生成される特徴点データ23の構成例を示す図である。図7(a)に示すように、画像中のエッジの端点、交点、角点が特徴点として抽出されている場合には、図7(b)に示すような特徴点データ23が生成されている。尚、図7(b)に示す特徴点データ23のデータテーブルにおいて、特徴点の種類(端点、交点、角点のいずれであるか)を合わせて記憶していてもよい。   FIG. 7 is a diagram illustrating a configuration example of the feature point data 23 generated by the feature point extraction unit 200. As shown in FIG. 7A, when edge points, intersections, and corner points of the edge in the image are extracted as feature points, feature point data 23 as shown in FIG. 7B is generated. Yes. In addition, in the data table of the feature point data 23 shown in FIG. 7B, the type of feature point (whether it is an end point, an intersection point, or a corner point) may be stored together.

(3)家枠画定処理−第1の形態
図8は、地理画像処理プログラム40の家枠画定処理部300による処理の流れを示すフローチャートである。また、図9は、家枠画定処理部300による処理を行う際にユーザに提示されるインタフェース画面を示す図である。図8において、家枠画定処理部300は、記憶装置20から地理画像データ21と、特徴点データ23とを読み込み、地理画像を表示装置32等に表示する(S801)。この表示画面において、ユーザは、入力装置31等を用いて地理画像中の家枠を画定する操作を行うことができるほか、画面を拡大したり表示箇所を変更したりすることができるようになっている。その後、家枠画定処理部300は、変数Nを1に初期化する(S802)。変数Nは、地理画像中の1つの閉じた領域(建築物等が占める領域に相当する)を構成する家枠群に含まれる家枠構成点の識別番号として用いられる。
(3) House Frame Definition Processing—First Mode FIG. 8 is a flowchart showing the flow of processing by the house frame definition processing unit 300 of the geographic image processing program 40. FIG. 9 is a diagram illustrating an interface screen presented to the user when performing processing by the house frame definition processing unit 300. In FIG. 8, the house frame definition processing unit 300 reads the geographic image data 21 and the feature point data 23 from the storage device 20, and displays the geographic image on the display device 32 or the like (S801). On this display screen, the user can perform an operation of demarcating a house frame in a geographic image using the input device 31 or the like, and can enlarge the screen or change the display location. ing. Thereafter, the house frame definition processing unit 300 initializes the variable N to 1 (S802). The variable N is used as an identification number of a house frame composing point included in a house frame group constituting one closed area (corresponding to an area occupied by a building or the like) in a geographic image.

地理画像を表示した画面において、ユーザが家枠画定対象とする部分の近傍をクリックすると(S803)、家枠画定処理部300は、図9(a),(b)に示すように、クリック位置から一定の範囲内に存在する特徴点を地理画像上に重ねて表示する(S804)。このとき、最近傍の特徴点と他の特徴点とを区別して表示するのが好ましい。例えば、色による区別や、点滅させて区別するなどの表示方法が可能である。以後、クリック位置の最近傍の特徴点を「注目特徴点」と呼ぶ。尚、特徴点を操作するための方法は任意に決めることができる。例えば、上記でクリックの変わりにポインティングデバイスによるポイント操作やキーボード操作によって同様の動作が行われるようにしてもよい。   When the user clicks on the vicinity of the part to be demarcated on the screen displaying the geographic image (S803), the house frame demarcation processing unit 300 displays the click position as shown in FIGS. 9 (a) and 9 (b). And feature points existing within a certain range are displayed superimposed on the geographic image (S804). At this time, it is preferable to distinguish and display the nearest feature point and other feature points. For example, display methods such as distinction by color or distinction by blinking are possible. Hereinafter, the feature point closest to the click position is referred to as a “target feature point”. Note that the method for operating the feature points can be arbitrarily determined. For example, a similar operation may be performed by a pointing operation or a keyboard operation using a pointing device instead of clicking.

地理画像上に特徴点が表示された画面において、ユーザは、表示されている注目特徴点を家枠構成点とするかどうかを入力する(S805)。ユーザが表示されている注目特徴点を家枠構成点としなかった場合には、別の特徴点を新たな注目特徴点として表示し(S806)、再度この点を家枠構成点とするかどうかをユーザに入力させる。以降、表示されている全ての特徴点についてS805〜S806の処理を繰り返すが、ユーザ操作により途中で家枠画定対象の選択を解除することもできる。   On the screen on which the feature points are displayed on the geographic image, the user inputs whether or not the displayed feature point of interest is the house frame constituent point (S805). When the featured feature point displayed by the user is not set as the house frame constituent point, another feature point is displayed as a new featured feature point (S806), and whether or not this point is set as the house frame constituent point again. To be input by the user. Thereafter, the processing of S805 to S806 is repeated for all the displayed feature points, but the selection of the home frame demarcation target can be canceled halfway by a user operation.

S805において、いずれかの特徴点が家枠構成点とされた場合には、当該注目特徴点を家枠構成点Nとして、その座標を記憶する。その後、Nが1であるかどうかを判定し(S807)、N=1である場合には、S810に処理を進める。一方、N=1でない場合には、図9(c)に示すように、地理画像上で、家枠構成点Nと家枠構成点N−1とを直線で結合する(S808)。すなわち、家枠構成点N−1から家枠構成点Nまでの家枠が描かれたことになる。その後、家枠構成点Nの座標と家枠構成点1の座標とを比較し(S809)、両者が一致しない場合には、S810に処理を進める。S810では、変数Nを1インクリメントし、S803に処理を進める。以降、地理画像中の家枠画定対象が完全に画定されるまで(S809においてyesとなるまで)、上記同様の処理が繰り返される。S809において、家枠構成点Nの座標と家枠構成点1の座標とが一致する場合とは、図9(d)に示すように、家枠構成点同士を順に連結することにより1つの閉じた領域が形成されたことを意味するので、当該建築物等の家枠が画定されたとして、次の家枠画定対象に対する処理に移行する(S811)。   In S805, if any of the feature points is a house frame composing point, the feature point of interest is the house frame composing point N, and the coordinates are stored. Thereafter, it is determined whether or not N is 1 (S807). If N = 1, the process proceeds to S810. On the other hand, when N is not 1, as shown in FIG. 9C, the house frame composing point N and the house frame composing point N-1 are connected with a straight line on the geographic image (S808). That is, the house frame from the house frame composing point N-1 to the house frame composing point N is drawn. Thereafter, the coordinates of the house frame composing point N and the coordinates of the house frame composing point 1 are compared (S809). If they do not match, the process proceeds to S810. In S810, the variable N is incremented by 1, and the process proceeds to S803. Thereafter, the same processing as described above is repeated until the house frame definition target in the geographic image is completely defined (until “yes” in S809). In S809, the case where the coordinates of the house frame composing point N and the coordinates of the house frame composing point 1 coincide with each other as shown in FIG. 9D by connecting the house frame composing points in order. Therefore, assuming that the house frame of the building or the like has been defined, the process proceeds to processing for the next house frame definition target (S811).

このようにして、地理画像中に含まれる建築物等の対象物全ての輪郭が画定されることになる。家枠画定処理部300は、画定された各家枠の座標データを、家枠データ24として記憶装置20に記憶する。この家枠データ24のデータ構成例を図10に示す。   In this way, the outlines of all objects such as buildings included in the geographic image are defined. The house frame definition processing unit 300 stores the coordinate data of each defined house frame as the house frame data 24 in the storage device 20. An example of the data structure of the house frame data 24 is shown in FIG.

(4)家枠画定処理−第2の形態
図11は、地理画像処理プログラム40の家枠画定処理部300による処理の他の形態について、流れを示すフローチャートである。また、図12は、家枠画定処理部300による処理を行う際にユーザに提示されるインタフェース画面を示す図である。図11において、家枠画定処理部300は、記憶装置20から地理画像データ21と、家枠データ24とを読み込み、地理画像を表示装置32等に表示する(S1101)。この表示画面において、ユーザは、入力装置31等を用いて地理画像中の家枠を画定する操作を行うことができるほか、画面を拡大したり表示箇所を変更したりすることができるようになっている。
(4) House Frame Definition Processing—Second Form FIG. 11 is a flowchart showing the flow of another form of processing by the house frame definition processing unit 300 of the geographic image processing program 40. FIG. 12 is a diagram showing an interface screen presented to the user when performing processing by the house frame definition processing unit 300. In FIG. 11, the house frame definition processing unit 300 reads the geographic image data 21 and the house frame data 24 from the storage device 20, and displays the geographic image on the display device 32 or the like (S1101). On this display screen, the user can perform an operation of demarcating a house frame in a geographic image using the input device 31 or the like, and can enlarge the screen or change the display location. ing.

地理画像を表示した画面において、ユーザが家枠画定対象とする部分の周囲を囲むように選択すると(S1102)、家枠画定処理部300は、図12(a),(b)に示すように、選択した範囲内に存在する特徴点を地理画像上に重ねて表示する(S1103)。尚、特徴点を操作するための方法は任意に決めることができる。   When the user selects to surround the portion to be demarcated on the screen displaying the geographic image (S1102), the house frame demarcation processing unit 300, as shown in FIGS. 12 (a) and 12 (b). Then, the feature points existing in the selected range are displayed on the geographic image so as to overlap (S1103). Note that the method for operating the feature points can be arbitrarily determined.

地理画像上に特徴点が表示された画面において、家枠画定処理部300は、家枠候補領域の表示処理を行う(S1104)。家枠候補領域とは、複数個の特徴点を結線してできた閉じられた領域であり、家枠の候補となる領域である。家枠候補領域を表示する際には、ユーザが選択範囲を指定した際の軌跡に近い軌跡を描くような家枠候補領域を、優先的に表示する。図12(c)はこの例を示す図である。図12(c)では、ユーザは「始点」から選択領域の指定を開始し、矢印に示す軌跡を描き、「終点」で選択範囲の指定を完了している。この場合、(1)→(2)→(3)→(4)→(5)→(6)の順番で特徴点を結線したパターンが、選択範囲指定の際の軌跡に最も近いためこのパターンを、優先的に家枠候補領域として表示する。この処理により、ユーザにとって好ましい家枠候補領域が表示されやすくなり、上記第1の形態の場合に比べて、ユーザの負担を減少させることができる。   On the screen on which the feature points are displayed on the geographic image, the house frame definition processing unit 300 performs display processing of the house frame candidate area (S1104). A house frame candidate region is a closed region formed by connecting a plurality of feature points, and is a region that is a candidate for a house frame. When displaying the house frame candidate area, the house frame candidate area that draws a locus close to the locus when the user designates the selection range is preferentially displayed. FIG. 12C is a diagram showing this example. In FIG. 12C, the user starts specifying the selection area from the “start point”, draws a locus indicated by an arrow, and completes the specification of the selection range at the “end point”. In this case, the pattern that connects the feature points in the order of (1) → (2) → (3) → (4) → (5) → (6) is the closest to the trajectory when the selection range is specified. Is preferentially displayed as a house frame candidate area. By this processing, a house frame candidate area preferable for the user can be easily displayed, and the burden on the user can be reduced compared to the case of the first embodiment.

次に、図12(d)に示すように、ユーザは表示された家枠候補領域を家枠として画定するか否かを判断する(S1105)。表示された家枠候補領域に問題が無ければ、その家枠候補領域を家枠として画定する(S1107)。問題がある場合は、家枠候補領域を画面から消去し、必要に応じて特徴点の追加及び削除の処理を行う(S1106)。そして、改めて特徴点の結線のパターンを変えた家枠候補領域を表示し、表示された家枠候補領域を家枠として画定するか否かを問う。この際、代替として表示させる家枠候補領域は、ユーザが選択範囲を指定した際の軌跡に近いパターンを優先的に表示させる。この処理を繰り返し行い、図12(e)に示すように選択領域内の建物の家枠を画定する。尚、ユーザ操作により途中で家枠画定対象の選択を解除することもできる。   Next, as shown in FIG. 12D, the user determines whether or not to demarcate the displayed house frame candidate area as a house frame (S1105). If there is no problem in the displayed house frame candidate area, the house frame candidate area is defined as a house frame (S1107). If there is a problem, the house frame candidate area is erased from the screen, and feature points are added and deleted as necessary (S1106). Then, a house frame candidate area whose characteristic point connection pattern is changed is displayed again, and it is asked whether or not the displayed house frame candidate area is defined as a house frame. At this time, the house frame candidate area to be displayed as an alternative preferentially displays a pattern close to the locus when the user designates the selection range. This process is repeated to define the house frame of the building in the selected area as shown in FIG. In addition, the selection of the house frame demarcation target can be canceled halfway by a user operation.

選択領域内の建築物に対して家枠を画定したら、次の家枠画定対象に対する処理を行う。すべての家枠画定対象に対して家枠を画定したら家枠画定処理部300を終了する(S1108)。   When the house frame is defined for the building in the selected area, the next house frame definition target is processed. When the house frame is defined for all the house frame definition targets, the house frame definition processing unit 300 ends (S1108).

図13は、特徴点の追加を行う処理を示す図である。前記特徴点抽出処理200において、本来抽出されるべき特徴点が、ノイズなどの影響で抽出されないことがある。図13(a)では、A地点に、本来抽出されるべき特徴点がない。そのため、この建物に対して家枠候補領域を表示すると、図13(b)に示すように、好ましくない領域となってしまう。このような事態に対応するため、ユーザが特徴点を追加することが可能である。図13(c)はユーザによってA地点に特徴点が追加された様子を示す図である。この特徴点を含めた家枠候補領域を表示すると、図13(d)に示すような好ましい家枠を抽出することが可能である。   FIG. 13 is a diagram illustrating processing for adding feature points. In the feature point extraction process 200, feature points that should be extracted may not be extracted due to the influence of noise or the like. In FIG. 13A, there is no feature point that should be extracted at point A. Therefore, when the house frame candidate area is displayed for this building, it becomes an unfavorable area as shown in FIG. In order to cope with such a situation, the user can add a feature point. FIG. 13C is a diagram illustrating a state in which a feature point is added to the point A by the user. When the house frame candidate area including this feature point is displayed, it is possible to extract a preferable house frame as shown in FIG.

図14は、特徴点の削除を行う処理を示す図である。前記特徴点抽出処理200において、ノイズなどの影響で特徴点が必要以上に抽出されることがある。図14(a)では、必要な特徴点以外に、不要な特徴点が存在する。このため、図14(b)に示すような好ましくない領域が、家枠候補領域として表示されることがある。本実施の形態における地理画像処理システムでは、好ましい家枠候補領域が表示されるまで、家枠候補領域を順次切り替えていくことができるため、不要な特徴点が抽出されていても最終的には好ましい家枠候補領域を画定できるが、特徴点削除処理により、家枠候補領域の選択にかかるユーザの負担を減らすことができる。   FIG. 14 is a diagram illustrating processing for deleting feature points. In the feature point extraction process 200, feature points may be extracted more than necessary due to the influence of noise or the like. In FIG. 14A, there are unnecessary feature points in addition to the necessary feature points. For this reason, an unfavorable area as shown in FIG. 14B may be displayed as a house frame candidate area. In the geographic image processing system according to the present embodiment, the house frame candidate areas can be sequentially switched until a preferable house frame candidate area is displayed. Therefore, even if unnecessary feature points are extracted, finally Although a preferable house frame candidate area can be defined, the burden on the user for selecting the house frame candidate area can be reduced by the feature point deletion process.

このようにして、地理画像中に含まれる建築物等の対象物全ての輪郭が画定されることになる。家枠画定処理部300は、画定された各家枠の座標データを、家枠データ24として記憶装置20に記憶する。   In this way, the outlines of all objects such as buildings included in the geographic image are defined. The house frame definition processing unit 300 stores the coordinate data of each defined house frame as the house frame data 24 in the storage device 20.

以上、本発明の地理画像処理システムについて、具体的な実施の形態を示して説明したが、本発明はこれらに限定されるものではない。当業者であれば、本発明の要旨を逸脱しない範囲内において、上記各実施形態又は他の実施形態にかかる発明の構成及び機能に様々な変更・改良を加えることが可能である。   As mentioned above, although the specific embodiment was shown and demonstrated about the geographic image processing system of this invention, this invention is not limited to these. A person skilled in the art can make various changes and improvements to the configurations and functions of the invention according to the above-described embodiments or other embodiments without departing from the gist of the present invention.

10 処理装置
20 記憶装置
21 地理画像データ
22 エッジデータ
23 特徴点データ
24 家枠データ
30 入出力装置
31 入力装置
32 表示装置
33 プリンタ
40 地理画像処理プログラム
100 エッジ抽出部
200 特徴点抽出部
300 家枠画定処理部
DESCRIPTION OF SYMBOLS 10 Processing device 20 Storage device 21 Geographic image data 22 Edge data 23 Feature point data 24 House frame data 30 Input / output device 31 Input device 32 Display device 33 Printer 40 Geographic image processing program 100 Edge extraction unit 200 Feature point extraction unit 300 House frame Definition processing unit

Claims (4)

地理画像に含まれる地物の輪郭を画定するためのシステムであって、
地理画像データからエッジを抽出するエッジ抽出手段と、
前記抽出されたエッジから特徴点を抽出する特徴点抽出手段と、
前記地理画像と前記特徴点とを表示し、ユーザによる地物の輪郭を画定する入力を受け付ける輪郭画定手段とを備え、
前記輪郭画定手段は、前記地理画像及び特徴点の表示画面において、ユーザがポインタ操作した位置から一定範囲内に存在する特徴点のうち前記ポインタ操作の位置に最も近い位置の特徴点のみを注目特徴点として他の特徴点と区別して表示し、1つ目の構成点の指定時においては、前記注目特徴点が構成点としてユーザ操作により選択された場合には当該注目特徴点を1つ目の構成点とし、前記注目特徴点が構成点として選択されなかった場合には、ユーザが構成点を選択するまで、前記一定範囲内に存在する別の特徴点を新たな注目特徴点として他の特徴点と区別して表示し、ユーザ操作により新たに選択された注目特徴点を1つ目の構成点とし、2つ目以降の構成点の指定時においては、前記注目特徴点が構成点としてユーザ操作により選択された場合には当該注目特徴点と直前回に選択された構成点との間を結線し、前記注目特徴点が構成点として選択されなかった場合には、ユーザが構成点を選択するまで、前記一定範囲内に存在する別の特徴点を新たな注目特徴点として他の特徴点と区別して表示し、ユーザ操作により新たな注目特徴点が構成点に選択されると、当該新たな注目特徴点と直前回に選択された構成点との間を結線して地物の輪郭を画定することができ、かつ、前記注目特徴点間の結線の集合により1つの閉じられた領域を画定することにより、各地物の輪郭を画定することができるユーザインタフェースを提供することを特徴とするシステム。
A system for defining a contour of a feature included in a geographic image,
Edge extraction means for extracting edges from geographic image data;
Feature point extraction means for extracting feature points from the extracted edges;
Contour defining means for displaying the geographic image and the feature points and receiving an input for defining the contour of the feature by the user;
The contour demarcating means focuses only on a feature point at a position closest to the position of the pointer operation among feature points existing within a certain range from a position operated by the user on the display screen of the geographic image and the feature point. When the first constituent point is designated, when the target feature point is selected as a constituent point by a user operation, the target feature point is displayed as a first feature point. If the target feature point is not selected as a constituent point, another feature point existing within the certain range is used as a new target feature point until the user selects the constituent point. The target feature point that is displayed separately from the point and is newly selected by the user operation is used as the first component point, and when the second and subsequent component points are specified, the target feature point is used as the component point. According If selected, the target feature point is connected to the component point selected immediately before, and if the target feature point is not selected as a component point, the user selects the component point. , Another feature point existing within the certain range is displayed as a new feature point to be distinguished from other feature points, and when the new feature point is selected as a constituent point by a user operation, the new feature point The feature points can be connected to the feature points selected immediately before to define the outline of the feature, and one closed region is defined by the set of connections between the feature points of interest. A system for providing a user interface capable of defining an outline of each feature.
前記エッジ抽出手段は、地理画像データからエッジを抽出して得られるデータを2値化し、全てのエッジを1画素幅とする細線化を行い、所定長さに満たないエッジをノイズとして除去することを特徴とする請求項1に記載のシステム。   The edge extraction means binarizes data obtained by extracting edges from geographic image data, thins all edges to one pixel width, and removes edges that are less than a predetermined length as noise. The system according to claim 1. 前記特徴点抽出手段は、前記抽出されたエッジの端点、交点、角点のうち少なくとも1種類を特徴点として抽出することを特徴とする請求項1又は2に記載のシステム。   3. The system according to claim 1, wherein the feature point extracting unit extracts at least one of the extracted edge points, intersections, and corner points as a feature point. 4. 前記特徴点抽出手段は、前記抽出されたエッジを特徴点のテンプレートとマッチングすることにより特徴点抽出を行うことを特徴とする請求項1から3のいずれか1項に記載のシステム。   4. The system according to claim 1, wherein the feature point extracting unit performs feature point extraction by matching the extracted edge with a template of feature points. 5.
JP2011259011A 2005-11-01 2011-11-28 Geographic image processing system Expired - Fee Related JP5074622B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011259011A JP5074622B2 (en) 2005-11-01 2011-11-28 Geographic image processing system

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2005318319 2005-11-01
JP2005318319 2005-11-01
JP2011259011A JP5074622B2 (en) 2005-11-01 2011-11-28 Geographic image processing system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2006038004A Division JP4908867B2 (en) 2005-11-01 2006-02-15 Geographic image processing system

Publications (2)

Publication Number Publication Date
JP2012043472A JP2012043472A (en) 2012-03-01
JP5074622B2 true JP5074622B2 (en) 2012-11-14

Family

ID=45899599

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011259011A Expired - Fee Related JP5074622B2 (en) 2005-11-01 2011-11-28 Geographic image processing system

Country Status (1)

Country Link
JP (1) JP5074622B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019065784A1 (en) * 2017-09-29 2019-04-04 Necソリューションイノベータ株式会社 Image processing device, image processing method, and computer-readable recording medium
JP6730501B1 (en) * 2019-10-08 2020-07-29 アイコンヤマト株式会社 Automatic plotting apparatus, automatic plotting method, and automatic plotting program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0283671A (en) * 1988-09-20 1990-03-23 Hitachi Software Eng Co Ltd System for selecting graphic element of display device
JP4172941B2 (en) * 2002-03-01 2008-10-29 日立ソフトウエアエンジニアリング株式会社 Land parcel data creation method and apparatus
JP4319857B2 (en) * 2003-05-19 2009-08-26 株式会社日立製作所 How to create a map
JP4584567B2 (en) * 2003-11-06 2010-11-24 株式会社パスコ Feature edge extraction method

Also Published As

Publication number Publication date
JP2012043472A (en) 2012-03-01

Similar Documents

Publication Publication Date Title
US11443500B2 (en) Image processing apparatus, image processing method, and program for detecting defect from image
Dal Poz et al. Automated extraction of road network from medium-and high-resolution images
CN108399424B (en) Point cloud classification method, intelligent terminal and storage medium
JP4103898B2 (en) Map information updating method and map updating apparatus
JP2007148677A (en) Image processor and image processing method
JP2019207535A (en) Information processing apparatus, information processing method, and program
Tarsha Kurdi et al. Automatic filtering and 2D modeling of airborne laser scanning building point cloud
JP4908867B2 (en) Geographic image processing system
JP4928993B2 (en) Farm district drawing data creation system
JP5074622B2 (en) Geographic image processing system
CN112435274A (en) Remote sensing image planar ground object extraction method based on object-oriented segmentation
CN111260564A (en) Image processing method and device and computer storage medium
JP7282551B2 (en) Information processing device, information processing method and program
US20220406018A1 (en) Three-dimensional display device, three-dimensional display method, and three-dimensional display program
Xiao et al. Feature extraction using very high resolution satellite imagery
JP2005241886A (en) Extraction method of changed area between geographical images, program for extracting changed area between geographical images, closed area extraction method and program for extracting closed area
Xiao et al. Utilizing edge to extract roads in high-resolution satellite imagery
JP2009086956A (en) Road map data production device
JP3846752B2 (en) Ruled line removal method
JP2000306105A (en) Image forming device
JP2007249591A (en) Three-dimensional shape model generation system
JPH10269354A (en) Method for eliminating noise pixel, geographic image processor and recording medium
JPH07121710A (en) Method and device for image segmentation
JP2006323511A (en) Symbol-identifying method and device thereof
JP2006127410A (en) Floor plan image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120816

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120821

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120823

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150831

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees