JP2018066943A - Land category change interpretation support device, land category change interpretation support method, and program - Google Patents

Land category change interpretation support device, land category change interpretation support method, and program Download PDF

Info

Publication number
JP2018066943A
JP2018066943A JP2016207124A JP2016207124A JP2018066943A JP 2018066943 A JP2018066943 A JP 2018066943A JP 2016207124 A JP2016207124 A JP 2016207124A JP 2016207124 A JP2016207124 A JP 2016207124A JP 2018066943 A JP2018066943 A JP 2018066943A
Authority
JP
Japan
Prior art keywords
image
change
section
texture
feature information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016207124A
Other languages
Japanese (ja)
Other versions
JP6882874B6 (en
JP6882874B2 (en
Inventor
林 朱
Hayashi Shu
林 朱
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pasco Corp
Original Assignee
Pasco Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pasco Corp filed Critical Pasco Corp
Priority to JP2016207124A priority Critical patent/JP6882874B6/en
Publication of JP2018066943A publication Critical patent/JP2018066943A/en
Application granted granted Critical
Publication of JP6882874B2 publication Critical patent/JP6882874B2/en
Publication of JP6882874B6 publication Critical patent/JP6882874B6/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve detection accuracy of a change in land categories based on image information such as aerial photographs at two different times.SOLUTION: A land category change interpretation support device 2 includes: a section setting unit 20 for dividing a target area to detect a land category change into a plurality of sections; a feature information extraction unit 22 for extracting image feature information on an image of the target area taken from midair; and a candidate section extraction unit 24 for extracting candidate sections for a land category change among the sections on the basis of a change of image feature information on the section between a first image and a second image taken at times different from each other.SELECTED DRAWING: Figure 1

Description

本発明は、地目の変化を判読する作業を支援する地目変化判読支援装置、地目変化判読支援方法、及びプログラムに関する。   The present invention relates to a texture change interpretation support device, a texture change interpretation support method, and a program that support a task of interpreting a texture change.

地目は土地の用途による区分である。不動産登記法上、地目として、田、畑、宅地、学校用地、鉄道用地、塩田、鉱泉地、池沼、山林、牧場、原野、墓地、境内地、運河用地、水道用地、用悪水路、ため池、堤、井溝、保安林、公衆用道路、公園及び雑種地の23種類が定められている。地目は地方公共団体における固定資産税の算定に用いられ、適正な課税のためには地目変更箇所の把握が必要である。従来、地目変更箇所の把握は、過去の地目現況図等と新たに撮影された航空写真とを利用した人間の目視判読により行われている。   The texture is classified according to the use of the land. According to the real estate registration law, the fields include rice fields, fields, residential land, school land, railway land, salt fields, mineral springs, ponds, forests, ranch, wilderness, cemetery, precincts, canal land, water supply land, irrigated waterways, irrigation ponds, Twenty-three types are defined: dyke, Izozo, protection forest, public road, park and hybrid land. The geotext is used in the calculation of property tax by local governments, and it is necessary to grasp the location change for proper taxation. Conventionally, grasping of a texture change place has been performed by human visual interpretation using a past texture map or the like and a newly taken aerial photograph.

特開2004−355176号公報JP 2004-355176 A

しかしながら、広範囲にわたる当該目視判読は膨大な労力・時間を要するという問題があった。   However, the visual interpretation over a wide area has a problem that enormous labor and time are required.

そこで、2時期の航空写真等の画像情報を利用し、土地被覆/土地利用の変化を自動的に検出することが研究されている。しかし、異なる時期に撮影された航空写真は基本的に撮影条件が相違し、これに起因して例えば、画像の色合い、コントラスト、陰影等に相違が生じる。自動判読では、2時期間でのこれらの要因による画像の変化の中から、地目に応じた画像の変化を精度良く弁別することが課題となっている。   Therefore, research has been conducted on automatically detecting changes in land cover / land use using image information such as two-time aerial photographs. However, aerial photographs taken at different times basically have different shooting conditions, and for this reason, for example, there are differences in image color, contrast, shadow, and the like. In automatic interpretation, there is a problem of accurately discriminating changes in the image according to the background from changes in the image due to these factors in the 2 o'clock period.

本発明は上記問題、課題を解決しようとするものであり、2時期の航空写真等の画像情報に基づく地目変化の検出精度を向上させ、その検出結果を作業者が利用して効率的な地目判読を行うことを可能とする地目変化判読支援装置、地目変化判読支援方法、及びプログラムを提供することを目的とする。   The present invention is intended to solve the above-mentioned problems and problems, and improves the detection accuracy of a ground change based on image information such as two-time aerial photographs, and an operator uses the detection result to efficiently An object of the present invention is to provide a texture change interpretation support device, a texture change interpretation support method, and a program that enable interpretation.

(1)本発明に係る地目変化判読支援装置は、地目変化を検出する対象地域を複数の区画に分割する区画設定部と、前記対象地域を上空から撮影した画像における画像特徴情報を抽出する特徴情報抽出部と、互いに異なる時期に撮影した第1の前記画像と第2の前記画像との間での前記区画における前記画像特徴情報の変化に基づいて、前記複数区画のうち前記地目変化に関する候補区画を抽出する候補区画抽出部と、を備える。   (1) A texture change interpretation support device according to the present invention is a feature that extracts a feature setting section that divides a target area for detecting a texture change into a plurality of sections, and image feature information in an image obtained by photographing the target area from above. Candidates related to the texture change among the plurality of sections based on an information extraction unit and a change in the image feature information in the sections between the first image and the second image taken at different times A candidate section extraction unit that extracts sections.

(2)上記(1)の地目変化判読支援装置において、前記候補区画抽出部は、画素ごとに抽出された前記画像特徴情報について前記第1及び第2の画像間での変化が予め定めた閾値以上である画素を変化画素とし、前記候補区画の抽出に際して、前記区画における前記変化画素の割合が予め定めた基準値以上であることを条件とすることができる。   (2) In the texture change interpretation support apparatus according to (1), the candidate section extraction unit is configured to determine a predetermined threshold value for a change between the first and second images for the image feature information extracted for each pixel. The above-described pixels can be changed pixels, and when the candidate section is extracted, the ratio of the changed pixels in the section can be a condition that is not less than a predetermined reference value.

(3)上記(1),(2)の地目変化判読支援装置において、前記画像特徴情報が、スペクトル情報、テクスチャ情報及び色相情報を含む構成とすることができる。   (3) In the texture change interpretation support apparatus according to (1) and (2), the image feature information may include spectrum information, texture information, and hue information.

(4)上記(1)〜(3)の地目変化判読支援装置において、前記区画設定部は、前記第1の画像及び前記第2の画像から、各画素での画像情報が当該画素に対応する地点についての当該両画像の画像情報の組からなる複合画像を定義し、当該複合画像の1又は複数種類の区画用特徴量の類似性に基づいて前記対象地域を前記複数区画に分割する構成とすることができる。   (4) In the texture change interpretation support device according to (1) to (3) above, the section setting unit includes image information at each pixel corresponding to the pixel from the first image and the second image. Defining a composite image composed of a set of image information of both images for a point, and dividing the target area into the plurality of sections based on the similarity of one or more types of feature values for the section of the composite image; can do.

(5)上記(1)〜(3)の地目変化判読支援装置において、前記区画設定部は、地番図データを用い、当該地番図データに示された筆界を前記区画とする構成とすることができる。   (5) In the texture change interpretation support device according to (1) to (3) above, the section setting unit uses lot number map data, and the writing boundary indicated in the lot number map data is set as the block. Can do.

(6)本発明に係る地目変化判読支援方法は、地目変化を検出する対象地域を複数の区画に分割する区画設定ステップと、前記対象地域を上空から撮影した画像における画像特徴情報を抽出する特徴情報抽出ステップと、互いに異なる時期に撮影した第1の前記画像と第2の前記画像との間での前記区画における前記画像特徴情報の変化に基づいて、前記複数区画のうち前記地目変化に関する候補区画を抽出する候補区画抽出ステップと、を備える。   (6) The texture change interpretation support method according to the present invention includes a section setting step for dividing a target area for detecting a ground change into a plurality of sections, and a feature for extracting image feature information in an image obtained by photographing the target area from above. Based on the information extraction step and the change in the image feature information in the section between the first image and the second image taken at different times, candidates for the texture change among the plurality of sections A candidate section extraction step for extracting sections.

(7)本発明に係るプログラムは、コンピュータを、地目変化判読支援装置として機能させるためのプログラムであって、当該コンピュータを、地目変化を検出する対象地域を複数の区画に分割する区画設定手段、前記対象地域を上空から撮影した画像における画像特徴情報を抽出する特徴情報抽出手段、及び、互いに異なる時期に撮影した第1の前記画像と第2の前記画像との間での前記区画における前記画像特徴情報の変化に基づいて、前記複数区画のうち前記地目変化に関する候補区画を抽出する候補区画抽出手段、として機能させる。   (7) A program according to the present invention is a program for causing a computer to function as a texture change interpretation support device, and the computer divides a target area for detecting a texture change into a plurality of sections, Feature information extraction means for extracting image feature information in an image taken from above the target area, and the image in the section between the first image and the second image taken at different times Based on the change of the feature information, the candidate section is made to function as candidate section extracting means for extracting candidate sections related to the texture change among the plurality of sections.

本発明によれば、2時期の航空写真等の画像情報に基づく地目変化の検出精度が向上し、作業者による地目判読作業の効率が向上する。   According to the present invention, the detection accuracy of the texture change based on image information such as two-time aerial photographs is improved, and the efficiency of the texture interpretation work by the worker is improved.

本発明の実施形態に係る地目変化判読支援装置の概略のブロック図である。1 is a schematic block diagram of a texture change interpretation support device according to an embodiment of the present invention. 本発明の実施形態に係る地目変化判読支援装置における地目変化候補区画の抽出の概略の処理フロー図である。It is an outline processing flow figure of extraction of a texture change candidate division in a texture change interpretation support device concerning an embodiment of the present invention.

以下、本発明の実施の形態(以下実施形態という)について、図面に基づいて説明する。   Hereinafter, embodiments of the present invention (hereinafter referred to as embodiments) will be described with reference to the drawings.

図1は実施形態に係る地目変化判読支援装置2の概略のブロック図である。地目変化判読支援装置2は、航空写真など対象地域を上空から撮影した空中撮影画像に基づいて、対象地域における地目が変化した区画の候補を求め、人間による地目判読作業を支援する装置であり、処理部4、記憶部6、表示部8及び操作部10を含んで構成される。   FIG. 1 is a schematic block diagram of a texture change interpretation support device 2 according to the embodiment. The ground change interpretation support device 2 is a device that assists humans in interpretation of ground by obtaining candidates for a section where the ground has changed in the target region based on an aerial photographed image of the target region taken from the sky, such as an aerial photograph. The processing unit 4, the storage unit 6, the display unit 8, and the operation unit 10 are included.

処理部4は、区画設定部20、特徴情報抽出部22及び候補区画抽出部24を含んで構成される。例えば、地目変化判読支援装置2は、コンピュータを用いて構成することができ、そのCPUが処理部4を構成し、区画設定部20、特徴情報抽出部22及び候補区画抽出部24は当該CPUにより実行されるプログラムによって実現できる。   The processing unit 4 includes a section setting unit 20, a feature information extraction unit 22, and a candidate section extraction unit 24. For example, the texture change interpretation support device 2 can be configured using a computer, and the CPU constitutes the processing unit 4, and the section setting unit 20, the feature information extraction unit 22, and the candidate section extraction unit 24 are processed by the CPU. It can be realized by a program to be executed.

記憶部6は、コンピュータに内蔵されるROM(Read Only Memory)、RAM(Random Access Memory)、ハードディスクなどの記憶装置である。記憶部6は、区画設定部20、特徴情報抽出部22及び候補区画抽出部24の処理プログラムを含む各種プログラムや各種データを記憶し、処理部4との間でこれらの情報を入出力する。例えば、記憶部6には、オルソ画像データ30や地番図データ32が予め格納される。また、後述する土地の区画設定をオルソ画像データ30に基づく領域分割処理により行う場合には、当該分割処理に関する条件が予め記憶部6に記憶される。   The storage unit 6 is a storage device such as a ROM (Read Only Memory), a RAM (Random Access Memory), or a hard disk built in the computer. The storage unit 6 stores various programs and various data including processing programs of the partition setting unit 20, the feature information extraction unit 22, and the candidate partition extraction unit 24, and inputs / outputs these information to / from the processing unit 4. For example, the storage unit 6 stores ortho image data 30 and lot number map data 32 in advance. In addition, when the land division setting described later is performed by the area division process based on the ortho image data 30, conditions regarding the division process are stored in the storage unit 6 in advance.

表示部8は液晶モニタ等の画像表示装置であり、操作部10はキーボードやマウスなどで構成される。   The display unit 8 is an image display device such as a liquid crystal monitor, and the operation unit 10 includes a keyboard, a mouse, and the like.

区画設定部20は地目変化を検出する対象地域を複数の区画に分割する。例えば、区画設定部20は地番図データ32を用いて区画を設定する。また、区画設定部20は、空中撮影画像を用いた領域分割処理により区画を設定する構成とすることもできる。   The section setting unit 20 divides the target area for detecting the texture change into a plurality of sections. For example, the section setting unit 20 sets a section using the lot number map data 32. In addition, the section setting unit 20 may be configured to set sections by area division processing using an aerial captured image.

特徴情報抽出部22は、区画設定部20により設定された各区画について、空中撮影画像から画像特徴情報を抽出する。例えば、特徴情報抽出部22は画像特徴情報として、スペクトル情報、テクスチャ情報及び色相情報を抽出する。   The feature information extraction unit 22 extracts image feature information from the aerial photographed image for each section set by the section setting unit 20. For example, the feature information extraction unit 22 extracts spectrum information, texture information, and hue information as the image feature information.

候補区画抽出部24は2時期の空中撮影画像にて互いに対応する区画における画像特徴情報の変化に基づいて、対象地域に設定された複数区画のうち地目変化に関する候補区画を抽出する。   The candidate section extraction unit 24 extracts candidate sections related to the change in the texture among a plurality of sections set in the target area based on the change in the image feature information in the sections corresponding to each other in the two-time aerial captured images.

オルソ画像データ30は地目変化判読支援装置2にて処理に用いる高分解能の空中撮影画像であり、航空機等から撮影された原画像に対してオルソ補正を行った画像である。オルソ画像データ30は例えば、赤(R)、緑(G)、青(B)の3成分からなる3バンドのマルチスペクトル画像、又はこれらに近赤外(NIR)を加えた4成分からなる4バンドのマルチスペクトル画像である。   The ortho image data 30 is a high-resolution aerial photographed image used for processing in the texture change interpretation support device 2, and is an image obtained by performing ortho correction on an original image photographed from an aircraft or the like. The ortho image data 30 is, for example, a three-band multispectral image including three components of red (R), green (G), and blue (B), or four of four components obtained by adding near infrared (NIR) thereto. It is a multispectral image of a band.

地番図データ32は土地の筆界を表す地番図のデータである。地番図は地方公共団体等にて整備されており、そのデータを地番図データ32として用いることができる。   The lot number map data 32 is lot number map data representing the brush stroke of the land. The lot number map is maintained by a local public organization or the like, and the data can be used as the lot number map data 32.

図2は地目変化判読支援装置2における地目変化候補区画の抽出の概略の処理フロー図である。   FIG. 2 is a schematic process flow diagram of extraction of a texture change candidate section in the texture change interpretation support device 2.

地目変化判読支援装置2は、2つの時期のオルソ画像データ30に基づいて、当該2時期の間での地目変化を検出する。ここでは、新旧2時期をT1,T2とし、T1がT2より先の時期であるとする。   The texture change interpretation support device 2 detects a texture change between the two periods based on the ortho image data 30 of the two periods. Here, it is assumed that the new and old two periods are T1 and T2, and T1 is a period before T2.

処理部4は、時期T1及び時期T2それぞれにて撮影されたオルソ画像データ30の色調整を行い、両時期での撮影条件により生じる色の相違を補正する(ステップS5)。この色調整は画像処理の分野にて周知の手法を用いて行われる。例えば、画像のRGB各成分値のヒストグラムに関する新旧2時期の一方時期における平均値や標準偏差といった統計量を他方時期における当該統計量に近づける補正を行う。   The processing unit 4 adjusts the color of the ortho image data 30 photographed at each of the times T1 and T2, and corrects the color difference caused by the photographing conditions at both times (step S5). This color adjustment is performed using a method well known in the field of image processing. For example, a correction is performed so that a statistical quantity such as an average value or standard deviation in one of the two new and old periods related to the histogram of each component value of RGB of the image approaches the statistical quantity in the other period.

処理部4は、対象地域を領域分割して区画を設定し(ステップS10)、区画ごとに2時期T1,T2間での地目の変化の有無を判定する。当該区画を地番図データ32を用いて設定する場合には、区画設定部20は当該地番図データ32に示された筆界を区画に設定する。   The processing unit 4 divides the target area into regions and sets sections (step S10), and determines whether there is a change in the texture between the two periods T1 and T2 for each section. When setting the section using the lot number map data 32, the section setting unit 20 sets the writing boundary indicated by the lot number map data 32 as the section.

一方、ステップS10にてオルソ画像データ30での領域分割により区画を定める場合には、区画設定部20は同一の対象地域を撮影した2時期T1,T2のオルソ画像データ30から複合画像を定義する。複合画像の各画素の画素値は、当該画素と同一の地点に対応する新旧2時期のオルソ画像データ30の画素の画素値の組で与えられる。例えば、オルソ画像データ30がR,G,Bからなる3バンドのマルチスペクトル画像である場合には、複合画像は時期T1のオルソ画像データ30の3バンドと時期T2のオルソ画像データ30の3バンドとを合わせた6バンドのマルチスペクトル画像を構成する。そして、区画設定部20は、区画に対する予め定められた条件に基づいて複合画像を領域分割する。例えば、複合画像の1又は複数種類の区画用特徴量の類似性に基づいて対象地域を複数区画に分割する。具体的には、区画用特徴量としてスペクトル特徴量を用いることができ、区画設定部20は複合画像にて、スペクトル特徴量に関する類似性(スペクトル条件)に適合するひとまとまりの画素群からなる部分領域を区画と定義する。   On the other hand, when the section is determined by area division in the ortho image data 30 in step S10, the section setting unit 20 defines a composite image from the ortho image data 30 of the two periods T1 and T2 in which the same target area is captured. . The pixel value of each pixel of the composite image is given by a set of pixel values of the pixels of the ortho image data 30 of the old and new two periods corresponding to the same point as the pixel. For example, when the ortho image data 30 is a 3-band multispectral image composed of R, G, and B, the composite image is composed of 3 bands of the ortho image data 30 at time T1 and 3 bands of the ortho image data 30 at time T2. Are combined to form a 6-band multispectral image. Then, the section setting unit 20 divides the composite image into regions based on predetermined conditions for the sections. For example, the target area is divided into a plurality of sections based on the similarity of one or more types of section feature quantities of the composite image. Specifically, a spectral feature value can be used as the feature value for partitioning, and the partition setting unit 20 is a composite image that includes a group of pixel groups that match similarity (spectral conditions) related to the spectral feature value. Define an area as a parcel.

候補区画抽出部24は区画ごとに、時期T1,T2それぞれのオルソ画像データ30から抽出される画像特徴情報を比較し、当該2時期間での画像特徴情報の変化に基づいて当該区画での地目変化の有無を判定する(ステップS15)。   The candidate section extraction unit 24 compares the image feature information extracted from the ortho image data 30 at each of the times T1 and T2 for each section, and based on the change in the image feature information during the two-hour period, It is determined whether or not there is a change (step S15).

特徴情報抽出部22は候補区画抽出部24で用いられる画像特徴情報を、ステップS5にて色調整された時期T1,T2それぞれのオルソ画像データ30から抽出する。特徴情報抽出部22は画像特徴情報の1つとしてオルソ画像の色情報を抽出する(ステップS20)。本実施形態では、オルソ画像データ30の各画素のRGB値を成分とする色ベクトルが色情報として候補区画抽出部24に入力される。   The feature information extraction unit 22 extracts the image feature information used by the candidate section extraction unit 24 from the ortho image data 30 of the times T1 and T2 that have been color-adjusted in step S5. The feature information extraction unit 22 extracts color information of the ortho image as one of the image feature information (step S20). In the present embodiment, a color vector whose component is the RGB value of each pixel of the ortho image data 30 is input to the candidate section extraction unit 24 as color information.

また、特徴情報抽出部22は画像特徴情報となるテクスチャ情報として、オルソ画像に現れるエッジを抽出する(ステップS25)。   In addition, the feature information extraction unit 22 extracts an edge appearing in the ortho image as texture information serving as image feature information (step S25).

さらに、特徴情報抽出部22は画像特徴情報としてオルソ画像の色相情報を抽出する(ステップS30)。具体的には、特徴情報抽出部22はRGBの3成分で表されるオルソ画像をHSI変換し、色相(hue)、彩度(saturation)および明度(intensity)の3成分を算出する。   Further, the feature information extraction unit 22 extracts the hue information of the ortho image as the image feature information (step S30). Specifically, the feature information extraction unit 22 performs HSI conversion on an ortho image represented by three RGB components, and calculates three components of hue, saturation, and intensity.

ステップS15では候補区画抽出部24は画像特徴情報の変化検出処理として、色情報による変化検出処理S35、テクスチャ情報による変化検出処理S40、色相情報による変化検出処理S45を行い、その結果に基づいて地目変化を判定する。   In step S15, the candidate segment extraction unit 24 performs color information change detection processing S35, texture information change detection processing S40, and hue information change detection processing S45 as image feature information change detection processing. Determine change.

色情報による変化検出処理S35に関しては、例えば、時期T1と時期T2との間での色ベクトルの変化の大きさ|ΔRGB|を次式で定義し、候補区画抽出部24は、区画に含まれる各画素の|ΔRGB|を用いて当該区画における色情報の変化量を求める。なお、次式において、Rnew,Gnew,Bnewは時期T2におけるRGB値であり、Rold,Gold,Boldは時期T1におけるRGB値である。 Regarding the change detection process S35 based on color information, for example, the magnitude | Δ RGB | of the color vector change between time T1 and time T2 is defined by the following equation, and the candidate partition extraction unit 24 is included in the partition: The amount of change in color information in the section is obtained using | Δ RGB | In the following equation, R new , G new , and B new are RGB values at time T2, and R old , G old , and B old are RGB values at time T1.

Figure 2018066943
Figure 2018066943

ここで、区画における色情報の変化量を記号“D”で表す。候補区画抽出部24は、或る区画のDが予め定めた基準値γ以上であれば、当該区画に関し色情報の変化が検出されたと判定する。Dは様々に定義でき、基準値γはDの定義ごとに設定される。 Here, the change amount of the color information in the section is represented by the symbol “D C ”. Candidate segment extracting unit 24 determines if the D C of one compartment predetermined reference value gamma C or higher, the change of color information concerning said compartments is detected. D C can be variously defined, the reference value gamma C is set for each definition of D C.

の定義の第1の例は、区画内での|ΔRGB|の平均値をDとするものである。具体的にはこの例は、区画内の画素数をnとし、当該区画の全画素の|ΔRGB|の和をSΔとして、D≡SΔ/nと表される。 A first example of D C definition, in the compartment | delta RGB | the average value in which the D C. This example specifically, the number of pixels in the compartment is n, of all the pixels of the partition | delta RGB | of the sum as the S delta, denoted D C ≡S Δ / n.

の定義の第2の例は、区画に含まれる画素のうち|ΔRGB|が予め定めた閾値γΔ以上である画素を変化画素とし、区画の全画素に占める変化画素の割合RをDとする。すなわち、D≡Rと定義する。 A second example of a D C definition, among the pixels included in the partition | delta RGB | is a predetermined threshold value gamma delta or in which pixels change pixel, the ratio R C of change pixels to the total pixels in the zone Is DC . That is, it is defined as D C ≡R C.

さて、色調整処理S5をしても、|ΔRGB|にはノイズ等による誤差成分が存在し、γやγΔは基本的にはこの誤差成分より大きく設定する必要がある。ここで、地目が変化したことが推察される場合として、家屋の滅失や新築といった家屋の異動が生じた場合があるが、通常、家屋の建築面積は宅地である区画の面積の一部である。区画での平均的な色変化量は、区画内の異動が生じた領域での色変化量より小さくなると期待できる。そのため、Dの第1の定義例でのγとDの第2の定義例でのγΔとを同じ値として両定義を比較すると、家屋異動のような区画の一部領域の色が変化する場合に関しては、Dの第2の定義例で検出できる場合であってもDの第1の定義例では検出できないことが起こり得る。よって、この場合には、第2の例のDの定義を用いる方が高い検出精度を得られ好適である。 Now, even if the color adjustment processing S5, | delta RGB | The present error component due to noise or the like, the gamma C and gamma delta basically needs to be set larger than the error component. Here, as a case where it is inferred that the ground has changed, there may be a change in the house such as the loss of a house or a new construction, but the building area of the house is usually a part of the land area . The average color change amount in the section can be expected to be smaller than the color change amount in the region where the change in the section has occurred. Therefore, when comparing both defined as a first same value and gamma delta in the second definition example of a gamma C and D C for example definition of D C, the color of a part of the compartments, such as the house change there respect vary may happen that can not be detected by a first definition example of a D C even if that can be detected by the second definition example of a D C. Therefore, in this case, it is better to use the definition of D C of the second embodiment is suitable to obtain high detection accuracy.

の定義の第3の例は第2の例の変形例である。家屋異動の場合、|ΔRGB|>γΔである変化画素は主に家屋の位置に集中し、変化画素の位置の分散σは区画に含まれる画素が略一様に変化する地目変化に比べて小さくなると考えられる。さらに、家屋の建築面積が小さい、つまりRが小さいほど当該分散は小さくなると考えられる。そこで、例えば、D≡R/σと定義することで、Dの家屋サイズに対する依存性を弱めることができ、また変化画素が区画内に分散している場合のDが低下して家屋異動との弁別を容易とすることができる。よって、一定の基準値γを用いて異なるサイズの家屋異動を高精度に検出可能である。 A third example of the D C definition is a modification of the second embodiment. For house change, | Δ RGB |> γ a is changed pixel delta is mainly concentrated on the position of the house, variance sigma 2 position of the change pixel is the land category change pixels included in the section is changed substantially uniformly It is considered to be smaller than that. Furthermore, the variance is considered to be smaller as the building area of the house is smaller, that is, as RC is smaller. Therefore, for example, by defining the D C ≡R C / σ 2, it is possible to weaken the dependence on house size D C, also changed pixels is reduced D C when dispersed in the compartment This makes it easy to discriminate from house changes. Therefore, it is possible to detect a house change of a different size with high accuracy using a certain reference value γ C.

上述の第2,第3の例では家屋異動に関わる地目変化検出に好適なDの定義を示したが、このように地目変化の態様によって好適なDの定義が存在し得る。よって、複数種類のDの定義を地目変化の態様に応じて使い分けることもできる。また、複数種類のDを組み合わせて区画における色情報の変化の有無を判定してもよい。 Second described above, shows the definition of a suitable D C in land category change detection involved in house change in the third example, there may be defined a suitable D C by aspects of the thus land category change. Therefore, it is also possible to selectively used in accordance with the definition of the plurality of types of D C to aspects of the land category change. It is also possible to determine the presence or absence of a change in color information in sections by combining a plurality of types of D C.

テクスチャ情報による変化検出処理S40は、区画におけるテクスチャ情報の変化量Dを求め、Dが予め定めた基準値γ以上であれば、テクスチャ情報に関し変化が検出されたと判定する。Dは様々に定義でき、基準値γはDの定義ごとに設定される。 Change detection process according to the texture information step S40, obtains the amount of change D T of texture information in the partition, it is determined that if the reference value gamma T or more D T is determined in advance, the change relates to the texture information is detected. DT can be defined in various ways, and the reference value γ T is set for each definition of DT .

本実施形態のステップS40では、オルソ画像からステップS25にて抽出されるエッジの各区画における密度を時期T1,T2間で比較する。具体的には、区画に含まれる画素のうちエッジを構成する画素をエッジ画素として、候補区画抽出部24は区画内の全画素に対するエッジ画素の割合を時期T1,T2それぞれについて算出する。そして、当該2時期間でのエッジ画素の割合の変化の大きさを基準値γと比較して、テクスチャ情報に関する変化の有無を判定する。 In step S40 of the present embodiment, the density in each section of the edge extracted from the ortho image in step S25 is compared between times T1 and T2. Specifically, among the pixels included in the partition, the pixels constituting the edge are used as edge pixels, and the candidate partition extraction unit 24 calculates the ratio of the edge pixels to all the pixels in the partition for each of the times T1 and T2. Then, the magnitude of the change in the proportion of edge pixels between the two periods is compared with a reference value gamma T, determines the presence or absence of a change regarding texture information.

の定義に用いるテクスチャ情報は上述のエッジ密度以外のものであってもよく、例えば、画像のテクスチャ解析にて周知の特徴量を用いることができる。例えば、画素値の分散や、画素値のヒストグラムから抽出される統計量を用いることができるし、グレーレベル同時生起行列 (Gray-Level Co-Occurrence Matrix:GLCM)を用いて得られる特徴量を用いることもできる。 The texture information used for the definition of DT may be other than the above-described edge density. For example, a well-known feature amount can be used in the texture analysis of the image. For example, it is possible to use dispersion of pixel values, statistics extracted from a histogram of pixel values, or feature quantities obtained using a gray-level co-occurrence matrix (GLCM). You can also.

候補区画抽出部24は、上述したDの定義と同様、複数種類のDの定義を地目変化の態様に応じて使い分けることもできるし、複数種類のDを組み合わせて区画におけるテクスチャ情報の変化の有無を判定してもよい。 Candidate segment extracting unit 24, similarly to the definition of D C described above, it can either be used depending the definition of a plurality of types of D T to aspects of the land category change of texture information in the compartment by combining a plurality of types of D T The presence or absence of a change may be determined.

色相情報による変化検出処理S45は、区画における色相情報の変化量Dを求め、Dが予め定めた基準値γ以上であれば、色相情報に関し変化が検出されたと判定する。Dは様々に定義でき、基準値γはDの定義ごとに設定される。 Change detection process S45 by the color information, obtains the change amount D H of the hue information in the partition, it is determined that if the reference value gamma H or more D H is predetermined, the change relates to color information is detected. DH can be defined in various ways, and the reference value γ H is set for each definition of DH .

の定義の第1の例は、ステップS30にて生成される色相値Hの時期T1と時期T2との差の絶対値|Δ|の区画内での平均値をDとするものである。具体的にはこの例は、区画内の画素数をnとし、当該区画の全画素の|Δ|の和をSとして、D≡S/nと表される。 The first example of the D H definitions, absolute value of the difference between the timing T1 and the timing T2 of the hue value H generated at the step S30 | delta H | average value within compartments of what the D H It is. This example specifically, the number of pixels in the compartment is n, of all the pixels of the partition | delta H | of the sum as S H, denoted D H ≡S H / n.

の定義の第2の例は、区画に含まれる画素のうち|Δ|が予め定めた閾値γ以上である画素を変化画素とし、区画の全画素に占める変化画素の割合RをDとする。すなわち、D≡Rと定義する。この定義のDは上述した色情報に関する第2定義例のDと同様に、家屋異動のような区画の一部領域の色が変化する場合に関して、第1の定義例のDより好適である。 A second example of a D H definitions, of the pixels included in the partition | delta H | is a pixel and the change pixel is a predetermined threshold value gamma P above, the rate of change pixels to the total pixel compartment R H Is DH . That is, it is defined as D H ≡R H. Like the D C of the second definition example of the color information D H is described above in this definition, for the case where the color of a part of the compartment, such as a house change is changed, preferably from D H of the first definition example It is.

また、D≡R/σという定義を用いることで、上述したDの定義の第3の例と同様に一定の基準値γを用いて異なるサイズの家屋異動の高精度な検出が期待できる。 Further, D H ≡R H / σ 2 that by using the definition, highly accurate detection of the size of the house change different with a third example as well as a constant reference value gamma H definition of D C described above Can be expected.

候補区画抽出部24は、DやDの定義と同様、複数種類のDの定義を地目変化の態様に応じて使い分けることもできるし、複数種類のDを組み合わせて区画における色相情報の変化の有無を判定してもよい。 Candidate segment extracting unit 24, similarly to the definition of D C and D T, it can either be used depending the definition of a plurality of types of D H to aspects of the land category change, color information in the compartment by combining a plurality of types of D H It may be determined whether or not there is a change.

以上述べたように、候補区画抽出部24は、ステップS15にて、色情報による変化検出処理S35、テクスチャ情報による変化検出処理S40、色相情報による変化検出処理S45を行い、色、テクスチャ、色相のいずれかが変化した区画を地目が変化した候補区画として、候補区画データ40を生成する。   As described above, in step S15, the candidate section extraction unit 24 performs the change detection process S35 based on color information, the change detection process S40 based on texture information, and the change detection process S45 based on hue information, so that the color, texture, and hue are changed. Candidate section data 40 is generated by setting any section that has changed as a candidate section whose background has changed.

候補区画抽出部24は、ステップS15での検出結果に対し、モルフォロジカル処理によるフィルタリングを行う構成とすることができる(ステップS50)。ステップS10にてオルソ画像データ30での領域分割により区画を定めた場合には、微小なノイズ領域や微小な隙間・孔が生じた領域など、地目の単位領域として面積、形状が不適切な区画が発生し得る。ステップS50でのフィルタリング処理により当該不適切な区画の除去が図られる。   The candidate section extraction unit 24 can be configured to perform filtering by morphological processing on the detection result in step S15 (step S50). In the case where the section is determined by dividing the area in the ortho image data 30 in step S10, the section having an inappropriate area and shape as a unit area of the ground, such as a minute noise area or a minute gap / hole formed area. Can occur. The inappropriate section is removed by the filtering process in step S50.

処理部4は候補区画データ40を用いて、表示部8に表示される対象地域のオルソ画像上に地目変化の候補区画を重ねて表示することができる。例えば、候補領域を選択的に明るく表示したり、輪郭を強調表示したりすることで、作業者が候補区画を把握することができる。作業者は候補区画の表示を参考にしつつ、オルソ画像にて地目変化の有無を目視確認する。例えば、処理部4は新旧のオルソ画像を表示部8の画面上に並べて表示し、一方のオルソ画像に表示された候補区画の1つをマウス操作等で選択すると、他方のオルソ画像にて当該候補区画の位置を表示し、作業者が候補区画における新旧のオルソ画像を見比べることを容易とする。   Using the candidate section data 40, the processing unit 4 can display the candidate sections for the change in the texture on the ortho image of the target area displayed on the display unit 8. For example, the operator can grasp the candidate section by selectively displaying the candidate area brightly or highlighting the outline. The operator visually confirms whether or not there is a change in the texture on the ortho image while referring to the display of the candidate section. For example, the processing unit 4 displays the old and new ortho images side by side on the screen of the display unit 8, and when one of the candidate sections displayed on one of the ortho images is selected by a mouse operation or the like, the corresponding ortho image is displayed on the other ortho image. The position of the candidate section is displayed so that the operator can easily compare the old and new ortho images in the candidate section.

候補区画抽出部24は、ステップS15にて基準値γ,γ,γを変えて変化検出処理S35,S40,S45を複数通り行い、マルチレベルの候補区画抽出を行っても良い。また、上述したD,Dの第2の定義例を用いた変化検出処理では、閾値γΔ,γを変えてマルチレベルの候補区画抽出を行うこともできる。 The candidate section extraction unit 24 may perform multi-level candidate section extraction by changing the reference values γ C , γ T , and γ H in step S15 and performing a plurality of change detection processes S35, S40, and S45. In the change detection process using the second definition example of D C and DH described above, multi-level candidate partition extraction can be performed by changing the threshold values γ Δ and γ P.

これにより、基準値γ等を高くするほど、変化箇所の誤検出、過剰抽出が低減した結果が得られ、一方、基準値γ等を低くするほど、検出漏れが低減した結果が得られる。よって、マルチレベルの候補区画抽出により、対象地域の区画を地目変化の可能性が異なる複数のクラスに分類することができ、作業者が当該可能性の違いを参考にして目視確認作業を効率的に行うことが可能となる。例えば、最も基準値を低く設定して候補区画に抽出されなかった区画は目視確認を省略するといったことも可能となる。 As a result, the higher the reference value γ C or the like, the lower the erroneous detection of the changed portion and the result of reducing the excessive extraction. On the other hand, the lower the reference value γ C or the like, the lower the detection omission. . Therefore, multi-level candidate block extraction allows the target area blocks to be classified into multiple classes with different possibilities of texture change. Can be performed. For example, it is possible to omit visual confirmation of a section that is set to the lowest reference value and is not extracted as a candidate section.

なお、変化検出処理S35,S40,S45で用いる基準値γ,γ,γ等は、事前に人間が目視判読により地目変化の有無を判定した複数の区画をサンプルとして定めることができる。 Note that the reference values γ C , γ T , γ H, and the like used in the change detection processes S35, S40, and S45 can be defined as a plurality of sections in which a human has previously determined whether or not there is a ground change by visual interpretation.

さて、地目変化の検出に用いる2時期の空中撮影画像に対してはオルソ補正やレジストレーションを行うものの、画像間における位置ずれを皆無とすることは難しく、また、撮影条件によって画像の色調や陰影の違い等も生じる。そのため、2時期の空中撮影画像について、画素単位で画像特徴情報の差分を求め、当該差分を閾値と比較して画素単位で変化の有無を判定し、変化画素から地目が変化した土地の範囲を定める手法では、判定閾値を適切に設定することが難しくなる。つまり、変化画素の誤検出率が高くなり、ひいては地目変化領域の検出精度が低下し得るという問題がある。   Now, although orthorectification and registration are performed on the two-time aerial images used to detect changes in the texture, it is difficult to eliminate any misalignment between the images. Differences also occur. Therefore, for the two-time aerial image, the difference between the image feature information is obtained in units of pixels, the difference is compared with a threshold value to determine whether there is a change in units of pixels, and the range of the land where the texture changes from the change pixel is determined. In the method to determine, it becomes difficult to set the determination threshold appropriately. That is, there is a problem that the false detection rate of the change pixel becomes high and the detection accuracy of the texture change area may be lowered.

これに対し、本発明では地目変化の候補区画を抽出する際に、区画単位で画像特徴情報の変化の有無を判断するので、上述した画像間の位置ずれや、色調整処理でも残るノイズ成分等の影響を受けにくい。そのため、本発明の手法は、上述の画素単位での変化検出をベースとした手法に比べて、地目変化領域の検出精度が向上し、作業者の判読効率も向上し得る。   On the other hand, in the present invention, when extracting the candidate section of the ground texture change, the presence / absence of the change of the image feature information is determined in the section unit. It is hard to be affected by. Therefore, the method of the present invention can improve the detection accuracy of the texture change region and improve the interpretation efficiency of the operator as compared with the above-described method based on change detection in units of pixels.

また、候補区画の抽出に、色情報、テクスチャ情報、及び色相情報を組み合せて利用することにより、地目の多様な変化パターンに対応することが可能となり、地目変化の検出精度が向上する。   In addition, by using color information, texture information, and hue information in combination for extracting candidate sections, it is possible to cope with various change patterns of the texture, and the detection accuracy of the texture change is improved.

2 地目変化判読支援装置、4 処理部、6 記憶部、8 表示部、10 操作部、20 区画設定部、22 特徴情報抽出部、24 候補区画抽出部、30 オルソ画像データ、32 地番図データ、40 候補区画データ。   2 Ground change interpretation support device, 4 processing section, 6 storage section, 8 display section, 10 operation section, 20 section setting section, 22 feature information extraction section, 24 candidate section extraction section, 30 ortho image data, 32 lot number map data, 40 candidate parcel data.

Claims (7)

地目変化を検出する対象地域を複数の区画に分割する区画設定部と、
前記対象地域を上空から撮影した画像における画像特徴情報を抽出する特徴情報抽出部と、
互いに異なる時期に撮影した第1の前記画像と第2の前記画像との間での前記区画における前記画像特徴情報の変化に基づいて、前記複数区画のうち前記地目変化に関する候補区画を抽出する候補区画抽出部と、
を備えることを特徴とする地目変化判読支援装置。
A section setting unit that divides a target area for detecting a ground change into a plurality of sections;
A feature information extraction unit for extracting image feature information in an image obtained by photographing the target area from above;
Candidates for extracting candidate sections related to the texture change among the plurality of sections based on a change in the image feature information in the section between the first image and the second image taken at different times A partition extraction unit;
A texture change interpretation support device characterized by comprising:
請求項1に記載の地目変化判読支援装置において、
前記候補区画抽出部は、画素ごとに抽出された前記画像特徴情報について前記第1及び第2の画像間での変化が予め定めた閾値以上である画素を変化画素とし、前記候補区画の抽出に際して、前記区画における前記変化画素の割合が予め定めた基準値以上であることを条件とすること、を特徴とする地目変化判読支援装置。
In the texture change interpretation support device according to claim 1,
The candidate section extraction unit sets a pixel whose change between the first and second images is greater than or equal to a predetermined threshold in the image feature information extracted for each pixel as a change pixel, and extracts the candidate section A texture change interpretation support device characterized in that the ratio of the changed pixels in the section is equal to or greater than a predetermined reference value.
請求項1又は請求項2に記載の地目変化判読支援装置において、
前記画像特徴情報は、スペクトル情報、テクスチャ情報及び色相情報を含むこと、を特徴とする地目変化判読支援装置。
In the texture change interpretation support device according to claim 1 or 2,
The image change interpretation support device characterized in that the image feature information includes spectrum information, texture information, and hue information.
請求項1から請求項3のいずれか1つに記載の地目変化判読支援装置において、
前記区画設定部は、前記第1の画像及び前記第2の画像から、各画素での画像情報が当該画素に対応する地点についての当該両画像の画像情報の組からなる複合画像を定義し、当該複合画像の1又は複数種類の区画用特徴量の類似性に基づいて前記対象地域を前記複数区画に分割すること、を特徴とする地目変化判読支援装置。
In the texture change interpretation support device according to any one of claims 1 to 3,
The partition setting unit defines a composite image composed of a set of image information of both images for a point where image information at each pixel corresponds to the pixel from the first image and the second image, A texture change interpretation support device, characterized in that the target area is divided into the plurality of sections based on the similarity of one or a plurality of types of section feature values of the composite image.
請求項1から請求項3のいずれか1つに記載の地目変化判読支援装置において、
前記区画設定部は、地番図データを用い、当該地番図データに示された筆界を前記区画とすること、を特徴とする地目変化判読支援装置。
In the texture change interpretation support device according to any one of claims 1 to 3,
The area setting interpretation support apparatus characterized in that the section setting unit uses lot number map data and uses the strokes indicated in the lot number map data as the section.
地目変化を検出する対象地域を複数の区画に分割する区画設定ステップと、
前記対象地域を上空から撮影した画像における画像特徴情報を抽出する特徴情報抽出ステップと、
互いに異なる時期に撮影した第1の前記画像と第2の前記画像との間での前記区画における前記画像特徴情報の変化に基づいて、前記複数区画のうち前記地目変化に関する候補区画を抽出する候補区画抽出ステップと、
を備えることを特徴とする地目変化判読支援方法。
A section setting step for dividing a target area for detecting a ground change into a plurality of sections;
A feature information extraction step of extracting image feature information in an image obtained by photographing the target area from above;
Candidates for extracting candidate sections related to the texture change among the plurality of sections based on a change in the image feature information in the section between the first image and the second image taken at different times A partition extraction step;
A method for supporting interpretation of a texture change, comprising:
コンピュータを、地目変化判読支援装置として機能させるためのプログラムであって、
当該コンピュータを、
地目変化を検出する対象地域を複数の区画に分割する区画設定手段、
前記対象地域を上空から撮影した画像における画像特徴情報を抽出する特徴情報抽出手段、及び、
互いに異なる時期に撮影した第1の前記画像と第2の前記画像との間での前記区画における前記画像特徴情報の変化に基づいて、前記複数区画のうち前記地目変化に関する候補区画を抽出する候補区画抽出手段、
として機能させるための地目変化判読支援プログラム。
A program for causing a computer to function as a texture change interpretation support device,
The computer
Section setting means for dividing a target area for detecting a ground change into a plurality of sections;
Feature information extraction means for extracting image feature information in an image obtained by photographing the target area from above, and
Candidates for extracting candidate sections related to the texture change among the plurality of sections based on a change in the image feature information in the section between the first image and the second image taken at different times Partition extraction means,
Program for supporting interpretation of changes in the ground to function as
JP2016207124A 2016-10-21 2016-10-21 Ground change interpretation support device, ground change interpretation support method, and program Active JP6882874B6 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016207124A JP6882874B6 (en) 2016-10-21 2016-10-21 Ground change interpretation support device, ground change interpretation support method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016207124A JP6882874B6 (en) 2016-10-21 2016-10-21 Ground change interpretation support device, ground change interpretation support method, and program

Publications (3)

Publication Number Publication Date
JP2018066943A true JP2018066943A (en) 2018-04-26
JP6882874B2 JP6882874B2 (en) 2021-06-02
JP6882874B6 JP6882874B6 (en) 2021-06-30

Family

ID=62087124

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016207124A Active JP6882874B6 (en) 2016-10-21 2016-10-21 Ground change interpretation support device, ground change interpretation support method, and program

Country Status (1)

Country Link
JP (1) JP6882874B6 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020135165A (en) * 2019-02-15 2020-08-31 英行 勝井 Taxation information management device, taxation information management method, and program
JP2020135867A (en) * 2019-02-15 2020-08-31 英行 勝井 Taxation information management device, taxation information management method, and program
JP2021182437A (en) * 2020-01-21 2021-11-25 英行 勝井 Device and method for managing taxation information and program
CN114155433A (en) * 2021-11-30 2022-03-08 北京新兴华安智慧科技有限公司 Illegal land detection method and device, electronic equipment and storage medium
JP2022059045A (en) * 2020-01-21 2022-04-12 英行 勝井 Taxation information management device, taxation information management method, and program
JP2022166237A (en) * 2020-01-21 2022-11-01 英行 勝井 Taxation information management device, taxation information management method, and program
JP2023080199A (en) * 2022-08-19 2023-06-08 英行 勝井 Taxation information management device, taxation information management method, and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005258728A (en) * 2004-03-10 2005-09-22 Hitachi Software Eng Co Ltd Method and program for supporting extraction of changing region between geographic images
JP3116882U (en) * 2005-09-21 2005-12-22 株式会社青秋 Land management ledger photo map creation system and land management ledger photo map
JP2011113233A (en) * 2009-11-26 2011-06-09 Hitachi Ltd Taxonomic image creation device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005258728A (en) * 2004-03-10 2005-09-22 Hitachi Software Eng Co Ltd Method and program for supporting extraction of changing region between geographic images
JP3116882U (en) * 2005-09-21 2005-12-22 株式会社青秋 Land management ledger photo map creation system and land management ledger photo map
JP2011113233A (en) * 2009-11-26 2011-06-09 Hitachi Ltd Taxonomic image creation device

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020135165A (en) * 2019-02-15 2020-08-31 英行 勝井 Taxation information management device, taxation information management method, and program
JP2020135867A (en) * 2019-02-15 2020-08-31 英行 勝井 Taxation information management device, taxation information management method, and program
JP7185094B2 (en) 2020-01-21 2022-12-06 英行 勝井 TAXATION INFORMATION MANAGEMENT DEVICE, TAXATION INFORMATION MANAGEMENT METHOD AND PROGRAM
JP7029017B2 (en) 2020-01-21 2022-03-02 英行 勝井 Taxation information management device, taxation information management method and program
JP2022059045A (en) * 2020-01-21 2022-04-12 英行 勝井 Taxation information management device, taxation information management method, and program
JP7128976B2 (en) 2020-01-21 2022-08-31 英行 勝井 TAXATION INFORMATION MANAGEMENT DEVICE, TAXATION INFORMATION MANAGEMENT METHOD AND PROGRAM
JP2022166237A (en) * 2020-01-21 2022-11-01 英行 勝井 Taxation information management device, taxation information management method, and program
JP2021182437A (en) * 2020-01-21 2021-11-25 英行 勝井 Device and method for managing taxation information and program
CN114155433A (en) * 2021-11-30 2022-03-08 北京新兴华安智慧科技有限公司 Illegal land detection method and device, electronic equipment and storage medium
CN114155433B (en) * 2021-11-30 2022-07-19 北京新兴华安智慧科技有限公司 Illegal land detection method and device, electronic equipment and storage medium
JP2023080199A (en) * 2022-08-19 2023-06-08 英行 勝井 Taxation information management device, taxation information management method, and program
JP7358700B2 (en) 2022-08-19 2023-10-11 英行 勝井 Taxation information management device, taxation information management method and program
JP7425251B2 (en) 2022-08-19 2024-01-30 英行 勝井 Taxation information management device, taxation information management method and program

Also Published As

Publication number Publication date
JP6882874B6 (en) 2021-06-30
JP6882874B2 (en) 2021-06-02

Similar Documents

Publication Publication Date Title
JP6882874B2 (en) Ground change interpretation support device, ground change interpretation support method, and program
CN107909138B (en) Android platform-based circle-like particle counting method
CN106651872B (en) Pavement crack identification method and system based on Prewitt operator
Ghanea et al. Building extraction from high-resolution satellite images in urban areas: Recent methods and strategies against significant challenges
Mueller et al. Edge-and region-based segmentation technique for the extraction of large, man-made objects in high-resolution satellite imagery
Yang et al. A multi-band approach to unsupervised scale parameter selection for multi-scale image segmentation
JP4724247B2 (en) House change judgment method, house change judgment program, house change judgment image generation method, and house change judgment image
CN110490839B (en) Method and device for detecting damaged area in expressway and computer equipment
CN104217440B (en) A kind of method extracting built-up areas from remote sensing images
CN105678737B (en) A kind of digital picture angular-point detection method based on Radon transformation
CN104951765B (en) Remote Sensing Target dividing method based on shape priors and visual contrast
JP2005234603A (en) Map information updating method and map updating device
JP2014182516A (en) Tree species identification device and tree species identification method
CN103927759A (en) Automatic cloud detection method of aerial images
CN103514460B (en) Video monitoring multi-view-angle vehicle detecting method and device
US9396552B1 (en) Image change detection
Chen et al. Automated bridge coating defect recognition using adaptive ellipse approach
AU2015376657B2 (en) Image change detection
US20160283821A1 (en) Image processing method and system for extracting distorted circular image elements
CN106503740A (en) Picture classification method and device
Zhang et al. A combined approach to single-camera-based lane detection in driverless navigation
CN109035306A (en) Moving-target automatic testing method and device
Magpantay et al. Analysis on the effect of spectral index images on improvement of classification accuracy of Landsat-8 OLI image
RU2534824C2 (en) Method for entropy-based determination of edge curves of object
Krzywicki Weather and a part of day recognition in the photos using a KNN methodology

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190924

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200616

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200806

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210420

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210507

R150 Certificate of patent or registration of utility model

Ref document number: 6882874

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250