JP7313676B2 - Image analysis program, image analysis method and image analysis device - Google Patents

Image analysis program, image analysis method and image analysis device Download PDF

Info

Publication number
JP7313676B2
JP7313676B2 JP2019162614A JP2019162614A JP7313676B2 JP 7313676 B2 JP7313676 B2 JP 7313676B2 JP 2019162614 A JP2019162614 A JP 2019162614A JP 2019162614 A JP2019162614 A JP 2019162614A JP 7313676 B2 JP7313676 B2 JP 7313676B2
Authority
JP
Japan
Prior art keywords
image
area
image analysis
infrared band
identification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019162614A
Other languages
Japanese (ja)
Other versions
JP2021043485A (en
Inventor
裕樹 村田
千夏 米澤
輝久 小松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tohoku University NUC
Original Assignee
Tohoku University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tohoku University NUC filed Critical Tohoku University NUC
Priority to JP2019162614A priority Critical patent/JP7313676B2/en
Publication of JP2021043485A publication Critical patent/JP2021043485A/en
Application granted granted Critical
Publication of JP7313676B2 publication Critical patent/JP7313676B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/30Assessment of water resources

Landscapes

  • Instructional Devices (AREA)
  • Image Analysis (AREA)

Description

特許法第30条第2項適用 頒布日 平成30年11月27日 刊行物 一般社団法人 日本リモートセンシング学会 第65回(平成30年度秋季)学術講演会の講演論文集を記録したCD-ROM Application of Article 30, Paragraph 2 of the Patent Act Date of distribution: November 27, 2018 Publication: CD-ROM containing the 65th (Autumn, 2018) Academic Lecture of the Remote Sensing Society of Japan

特許法第30条第2項適用 開催日 平成30年11月28日 集会名、開催場所 一般社団法人 日本リモートセンシング学会 第65回(平成30年度秋季)学術講演会 サンポートホール高松(香川県高松市サンポート2-1 高松シンボルタワー・ホール棟)Application of Article 30, Paragraph 2 of the Patent Act Date November 28, 2018 Meeting name and venue The 65th Annual Scientific Lecture of the Remote Sensing Society of Japan (Autumn 2018) Sunport Hall Takamatsu (Takamatsu Symbol Tower Hall Building, 2-1 Sunport, Takamatsu City, Kagawa Prefecture)

本発明は、画像解析プログラム、方法及び装置に関する。 The present invention relates to an image analysis program, method and apparatus.

我が国の沿岸域では海面での養殖業が盛んであり、世界の人口増加に対応するための水産物の供給源として養殖業は重要な役割を担っている。養殖業は自然の恵みの上に成り立っており、過度な養殖は生態系に悪影響を及ぼすおそれがあることが指摘されている。このことから、近年漁業権者には、実際に海面に設置されている養殖施設の台数や緯度および経度等の空間配置等を把握することが求められつつある。 The aquaculture industry on the sea surface is thriving in Japan's coastal areas, and the aquaculture industry plays an important role as a supply source of marine products to cope with the world's population increase. It has been pointed out that the aquaculture industry is based on the blessings of nature, and that excessive aquaculture may adversely affect the ecosystem. For this reason, in recent years, fishery right holders have been required to grasp the number of aquaculture facilities actually installed on the sea surface, the spatial arrangement of latitude and longitude, and the like.

例えば我が国において施行予定の改正漁業法第90条によると、漁業権者には、漁場の活用の状況等を各都道府県知事に報告する義務が生じるとされている。我が国の海洋政策である第3期海洋基本計画においても、海洋状況の把握(Maritime Domain Awareness: MDA)は基本施策の一つとして位置づけられており、海洋における情報の収集、集約および共有が求められつつある。 For example, according to Article 90 of the Revised Fisheries Law, which is scheduled to come into effect in Japan, the holder of fishing rights is obliged to report to the prefectural governors on the status of utilization of fishing grounds. Maritime Domain Awareness (MDA) is positioned as one of the basic measures in the 3rd Basic Plan on Ocean Policy, which is Japan's ocean policy.

また近年では、人工衛星や航空機等による上空からのリモートセンシング技術の利用が広まりつつある。例えば特許文献1には、衛星画像とディジタルマップとを比較照合することにより、海面上の目標物を検出する技術が開示されている。 Also, in recent years, the use of remote sensing technology from the air using artificial satellites, aircraft, etc. has been spreading. For example, Patent Literature 1 discloses a technique for detecting targets on the surface of the sea by comparing satellite images and digital maps.

特開2000-353234号公報JP-A-2000-353234

養殖業は漁業権に基づいて行われているところ、実際に海面に設置されている養殖施設の台数や位置情報等は、各地域における漁業権者である漁業協同組合等が自主的に管理しているに過ぎず、正確な台数や位置情報等は把握されていない。養殖施設は沿岸域に数多く設置されており、定期的な現地調査により養殖施設を定量的に把握することは非効率的であり現実的ではない。 While the aquaculture industry is based on fishery rights, the number and location information of aquaculture facilities actually installed on the sea surface are only voluntarily managed by the fishery cooperatives, which are the holders of the fishery rights in each region, and the exact number and location information are not known. Many aquaculture facilities are installed in coastal areas, and it is inefficient and unrealistic to quantitatively grasp aquaculture facilities through regular field surveys.

特許文献1の技術は、海面上の目標物を検出する技術ではあっても、検出した目標物の大きさ(面積)、数、および位置情報等の、目標物に関連する情報を生成する技術ではない。 Although the technology of Patent Document 1 is a technology for detecting targets on the surface of the sea, it is not a technology for generating target-related information such as the size (area), number, and position information of detected targets.

本発明は、上空から撮像された画像に基づいて対象物を識別し、識別した対象物に関連する情報を生成するための画像解析プログラム、方法及び装置を提供する。 The present invention provides an image analysis program, method, and apparatus for identifying objects based on images captured from above and for generating information related to the identified objects.

上記目的を達成するための本発明は、例えば以下に示す態様を含む。
(項1)
コンピュータに、
対象物を含む地球上の領域が撮像された近赤外バンド画像にオブジェクトベース画像解析を適用して、前記近赤外バンド画像において前記対象物の領域が識別された第1の識別画像を生成し、
前記第1の識別画像に基づいて、前記対象物に関連する関連情報を生成する、
処理を実行させるための、画像解析プログラム。
(項2)
コンピュータに、
前記第1の識別画像に基づいて、識別された前記対象物の領域を包含するバッファ領域を、前記近赤外バンド画像よりも高い解像度を有し、前記近赤外バンド画像と同一の前記地球上の領域が撮像された高精細画像に設定し、
前記バッファ領域の範囲内で前記高精細画像にオブジェクトベース画像解析を適用して、前記高精細画像において前記対象物の領域が識別された第2の識別画像を生成し、
前記第1の識別画像に代えて前記第2の識別画像に基づいて、前記対象物に関連する関連情報を生成する、
処理を実行させるための、項1に記載の画像解析プログラム。
(項3)
コンピュータに、
前記バッファ領域を囲む参照領域を前記高精細画像に設定し、
前記高精細画像について、前記参照領域の輝度値を閾値として用いて、前記バッファ領域の範囲内で前記高精細画像に前記オブジェクトベース画像解析を適用する、
処理を実行させるための、項2に記載の画像解析プログラム。
(項4)
前記高精細画像はパンクロマチックバンド画像である、項2または3に記載の画像解析プログラム。
(項5)
コンピュータに、
前記対象物の大きさおよび数の少なくともいずれかに関する情報を生成する処理を実行させる、項1から4のいずれかに記載の画像解析プログラム。
(項6)
コンピュータに、
前記近赤外バンド画像に対応付けられている撮像範囲の緯度および経度の情報に基づいて、前記対象物の位置に関する情報を生成する処理を実行させる、項1から5のいずれかに記載の画像解析プログラム。
(項7)
コンピュータに、
前記近赤外バンド画像内の陸域の領域に画像マスクを適用する処理を実行させる、項1から6のいずれかに記載の画像解析プログラム。
(項8)
前記対象物は、水域に浮遊する物体である、項1から7のいずれかに記載の画像解析プログラム。
(項9)
対象物を含む地球上の領域が撮像された近赤外バンド画像にオブジェクトベース画像解析を適用して、前記近赤外バンド画像において前記対象物の領域が識別された第1の識別画像を生成する第1識別画像生成ステップと、
前記第1の識別画像に基づいて、前記対象物に関連する関連情報を生成する関連情報生成ステップと、
を含む、画像解析方法。
(項10)
対象物を含む地球上の領域が撮像された近赤外バンド画像にオブジェクトベース画像解析を適用して、前記近赤外バンド画像において前記対象物の領域が識別された第1の識別画像を生成する第1識別画像生成部と、
前記第1の識別画像に基づいて、前記対象物に関連する関連情報を生成する関連情報生成部と、
を備える、画像解析装置。
The present invention for achieving the above object includes, for example, the following aspects.
(Section 1)
to the computer,
Applying object-based image analysis to a near-infrared band image in which a region on the earth including an object is captured to generate a first identification image in which the region of the object is identified in the near-infrared band image;
generating relevant information related to the object based on the first identification image;
An image analysis program for processing.
(Section 2)
to the computer,
Based on the first identification image, a buffer area containing the identified object area is set to a high-definition image having a resolution higher than that of the near-infrared band image and having the same area on the earth as the near-infrared band image,
applying object-based image analysis to the high definition image within the buffer area to generate a second identification image in which regions of the object are identified in the high definition image;
generating relevant information related to the object based on the second identification image instead of the first identification image;
Item 2. The image analysis program according to Item 1, for executing the process.
(Section 3)
to the computer,
setting a reference area surrounding the buffer area to the high-definition image;
For the high-definition image, applying the object-based image analysis to the high-definition image within the buffer area using the luminance value of the reference area as a threshold.
Item 3. The image analysis program according to Item 2, for executing the process.
(Section 4)
Item 4. The image analysis program according to Item 2 or 3, wherein the high-definition image is a panchromatic band image.
(Section 5)
to the computer,
Item 5. The image analysis program according to any one of items 1 to 4, causing execution of processing for generating information on at least one of the size and number of the objects.
(Section 6)
to the computer,
Item 6. The image analysis program according to any one of Items 1 to 5, causing execution of processing for generating information regarding the position of the object based on information on the latitude and longitude of the imaging range associated with the near-infrared band image.
(Section 7)
to the computer,
Item 7. The image analysis program according to any one of items 1 to 6, causing a process of applying an image mask to a land region in the near-infrared band image.
(Section 8)
Item 8. The image analysis program according to any one of Items 1 to 7, wherein the object is an object floating in water.
(Section 9)
a first identification image generating step of applying object-based image analysis to a near-infrared band image in which an area on the earth including an object is captured to generate a first identification image in which the area of the object is identified in the near-infrared band image;
a related information generating step of generating related information related to the object based on the first identification image;
An image analysis method, comprising:
(Section 10)
a first identification image generation unit that applies object-based image analysis to a near-infrared band image in which an area on the earth including an object is captured to generate a first identification image in which the area of the object is identified in the near-infrared band image;
a related information generation unit that generates related information related to the object based on the first identification image;
An image analysis device comprising:

本発明によると、上空から撮像された画像に基づいて対象物を識別し、識別した対象物に関連する情報を生成するための画像解析装置、方法およびプログラムを提供することができる。 According to the present invention, it is possible to provide an image analysis apparatus, method, and program for identifying an object based on an image captured from the sky and generating information related to the identified object.

本発明の一実施形態に係る画像解析装置の使用態様を説明するための図である。It is a figure for demonstrating the usage condition of the image-analysis apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係る画像解析装置の機能を説明するためのブロック図である。It is a block diagram for explaining the function of the image analysis device according to one embodiment of the present invention. 本発明の一実施形態に係る画像解析方法の手順を説明するためのフローチャートである。4 is a flowchart for explaining the procedure of an image analysis method according to one embodiment of the present invention; 解析対象領域の近赤外バンド画像の一例である。It is an example of a near-infrared band image of an analysis target area. 単位領域Uについて拡大表示された近赤外バンド画像および高精細画像の一例である。It is an example of a near-infrared band image and a high-definition image in which the unit area U is enlarged and displayed. オブジェクトベース画像解析を適用する際に画像に設定するバッファ領域および参照領域を説明するための模式的な図である。FIG. 4 is a schematic diagram for explaining a buffer area and a reference area that are set in an image when object-based image analysis is applied; 近赤外バンド画像の単位領域について生成された第1の識別画像の一例である。It is an example of the 1st identification image produced|generated about the unit area of the near-infrared band image. 高精細画像の単位領域について生成された第2の識別画像の一例である。It is an example of a second identification image generated for a unit area of a high-definition image. 解析対象領域中の図4に示す単位領域とは別の単位領域について生成された識別画像の一例である。5 is an example of an identification image generated for a unit area other than the unit area shown in FIG. 4 in the analysis target area; 本発明の他の実施形態に係る画像解析装置の機能を説明するためのブロック図である。FIG. 5 is a block diagram for explaining functions of an image analysis device according to another embodiment of the present invention; 本発明の他の実施形態に係る画像解析方法の手順を説明するためのフローチャートである。4 is a flow chart for explaining procedures of an image analysis method according to another embodiment of the present invention; 第2の実施例において行った現地調査の結果を説明するための図である。It is a figure for demonstrating the result of the field survey performed in the 2nd Example. 第2の実施例において行った画像解析結果の一例である。It is an example of the result of the image analysis performed in the second example. 第2の実施例において行った現地調査における実測値との比較結果を説明するための図である。It is a figure for demonstrating the comparison result with the measured value in the field survey performed in the 2nd Example.

以下、本発明の実施形態を、添付の図面を参照して詳細に説明する。なお、以下の説明および図面において、同じ符号は同じまたは類似の構成要素を示すこととし、よって、同じまたは類似の構成要素に関する重複した説明を省略する。
[発明の概略]
Embodiments of the present invention will now be described in detail with reference to the accompanying drawings. In the following description and drawings, the same reference numerals denote the same or similar components, and redundant description of the same or similar components will be omitted.
[Outline of the invention]

図1は、本発明の一実施形態に係る画像解析装置の使用態様を説明するための図である。 FIG. 1 is a diagram for explaining how an image analysis apparatus according to one embodiment of the present invention is used.

一実施形態に係る画像解析装置1は、上空から撮像された画像に基づいて対象物9を識別し、識別した対象物9に関連する情報35を生成する装置である。本実施形態では、画像解析により情報を生成する対象物9は、例えば沿岸域の海面に浮遊した状態で設置されている養殖筏である。画像解析により生成する情報35は、養殖筏の大きさ(面積)、数、および位置情報(緯度および経度)等の、養殖筏に関連する情報である。 An image analysis apparatus 1 according to one embodiment is an apparatus that identifies a target object 9 based on an image captured from above and generates information 35 related to the identified target object 9 . In this embodiment, the object 9 for which information is generated by image analysis is, for example, an aquaculture raft installed in a floating state on the sea surface in a coastal area. The information 35 generated by image analysis is information related to culture rafts, such as the size (area), number, and location information (latitude and longitude) of culture rafts.

画像解析には、例えば衛星8により対象物9の上空から撮像された光学衛星画像が用いられる。本実施形態では、光学衛星画像は、例えば近赤外バンド画像31および高精細画像32である。高精細画像32は、近赤外バンド画像31よりも高い解像度を有している。高精細画像32には、例えばパンクロマチックバンド画像を用いることができる。近赤外バンド画像31および高精細画像32は対をなしており、これらは対象物9を含む地球上の同一の領域が撮像された画像である。 For image analysis, for example, an optical satellite image captured from above the object 9 by a satellite 8 is used. In this embodiment, the optical satellite images are, for example, the near-infrared band image 31 and the high definition image 32 . The high-definition image 32 has higher resolution than the near-infrared band image 31 . A panchromatic band image, for example, can be used for the high-definition image 32 . The near-infrared band image 31 and the high-definition image 32 form a pair and are images of the same region on the earth including the object 9 captured.

衛星8から受信した光学衛星画像は、例えば外部サーバ2に保存されており、画像解析装置1は、ネットワークNを介して光学衛星画像を取得する。画像解析装置1は、取得した光学衛星画像(近赤外バンド画像31および高精細画像32)に基づいて画像解析を行い、対象物9に関連する情報35を生成する。
[装置の構成]
The optical satellite image received from the satellite 8 is stored, for example, in the external server 2, and the image analysis device 1 acquires the optical satellite image via the network N. The image analysis device 1 performs image analysis based on the acquired optical satellite images (the near-infrared band image 31 and the high-definition image 32) and generates information 35 related to the object 9. FIG.
[Device configuration]

図2は、本発明の一実施形態に係る画像解析装置の機能を説明するためのブロック図である。 FIG. 2 is a block diagram for explaining the functions of the image analysis device according to one embodiment of the present invention.

一実施形態に係る画像解析装置1(1A)は、データ処理部12と、補助記憶装置13と、入力部14と、表示部15と、通信インタフェース部(通信I/F部)16とを備えている。画像解析装置1は、タブレット端末またはスマートフォン等(以下、タブレット端末等と記載する)を用いて構成することができる。 An image analysis apparatus 1 ( 1 A) according to one embodiment includes a data processing section 12 , an auxiliary storage device 13 , an input section 14 , a display section 15 and a communication interface section (communication I/F section) 16 . The image analysis device 1 can be configured using a tablet terminal, a smartphone, or the like (hereinafter referred to as a tablet terminal or the like).

本実施形態では、画像解析装置1は、ハードウェアの構成として、補助記憶装置13、入力部14、表示部15および通信I/F部16を備えている。図示していないが、画像解析装置1は、ハードウェアの構成として、データ処理を行うCPU等のプロセッサと、プロセッサがデータ処理の作業領域に使用するメモリとをさらに備えている。 In this embodiment, the image analysis apparatus 1 includes an auxiliary storage device 13, an input section 14, a display section 15, and a communication I/F section 16 as a hardware configuration. Although not shown, the image analysis apparatus 1 further includes, as a hardware configuration, a processor such as a CPU that performs data processing, and a memory that the processor uses as a work area for data processing.

補助記憶装置13は、オペレーティングシステム(OS)、各種制御プログラム、および、プログラムによって生成されたデータなどを記憶する不揮発性の記憶装置であり、例えば、フラッシュメモリやeMMC(embedded Multi Media Card)、SSD(Solid State Drive)等によって構成される。本実施形態では、補助記憶装置13には、近赤外バンド画像31、高精細画像32、第1の識別画像33、第2の識別画像34、関連情報35、および画像解析プログラムPが記憶される。 The auxiliary storage device 13 is a non-volatile storage device that stores an operating system (OS), various control programs, data generated by the programs, and the like. In this embodiment, the auxiliary storage device 13 stores a near-infrared band image 31, a high-definition image 32, a first identification image 33, a second identification image 34, related information 35, and an image analysis program P.

近赤外バンド画像31は、対象物9を含む地球上の領域が撮像された画像である。高精細画像32は、近赤外バンド画像31よりも高い解像度を有し、近赤外バンド画像31と同一の地球上の領域が撮像された画像である。近赤外バンド画像31および高精細画像32は対をなしており、これらは対象物9を含む地球上の同一の領域が撮像された画像である。本実施形態では、近赤外バンド画像31および高精細画像32には、衛星8により対象物9の上空から撮像された光学衛星画像を用いる。本実施形態において取り扱う近赤外バンド画像31および高精細画像32には、縮尺に関する情報と撮像範囲の緯度および経度の情報とを含むメタデータが記録されている。例示的には、近赤外バンド画像31および高精細画像32の光学衛星画像の画像データは、11ビット~12ビットで表される輝度値(デジタルナンバー)のデータである。 The near-infrared band image 31 is an image obtained by capturing an area on the earth including the object 9 . The high-definition image 32 has a higher resolution than the near-infrared band image 31 and is an image of the same region on the earth as the near-infrared band image 31 is captured. The near-infrared band image 31 and the high-definition image 32 form a pair and are images of the same region on the earth including the object 9 captured. In this embodiment, an optical satellite image captured from above the object 9 by the satellite 8 is used as the near-infrared band image 31 and the high-definition image 32 . In the near-infrared band image 31 and the high-definition image 32 handled in the present embodiment, metadata including information on the scale and information on the latitude and longitude of the imaging range is recorded. Exemplarily, the image data of the optical satellite images of the near-infrared band image 31 and the high-definition image 32 are brightness value (digital number) data represented by 11-12 bits.

本実施形態では、近赤外バンド画像31には、マルチスペクトルバンド画像から作成される、近赤外線の波長帯の画像を用いる。マルチスペクトルバンド画像とは、衛星8により観測される対象物9から反射または放射される電磁波のうち、近赤外、中間赤外および熱赤外等の複数の波長帯の電磁波を記録した画像を意味する。本実施形態では、高精細画像32にはパンクロマチックバンド画像を用いる。パンクロマチックバンド画像とは、衛星8により観測される対象物9から反射または放射される電磁波のうち、特定の1つの波長帯の電磁波のみを記録した画像を意味する。 In this embodiment, the near-infrared band image 31 is a near-infrared wavelength band image created from a multispectral band image. A multispectral band image means an image recording electromagnetic waves in multiple wavelength bands such as near-infrared, mid-infrared, and thermal infrared among electromagnetic waves reflected or emitted from the object 9 observed by the satellite 8. In this embodiment, a panchromatic band image is used as the high-definition image 32 . A panchromatic band image means an image in which only electromagnetic waves in a specific wavelength band among electromagnetic waves reflected or emitted from an object 9 observed by a satellite 8 are recorded.

第1の識別画像33は、近赤外バンド画像31にオブジェクトベース画像解析を適用することにより生成される画像である。第1の識別画像33では、オブジェクトベース画像解析により対象物9の領域41が識別されている。 A first identification image 33 is an image generated by applying object-based image analysis to the near-infrared band image 31 . In the first identification image 33 a region 41 of the object 9 has been identified by object-based image analysis.

第2の識別画像34は、バッファ領域42が設定された高精細画像32にオブジェクトベース画像解析を適用することにより生成される画像である。第2の識別画像34では、オブジェクトベース画像解析により対象物9の領域44が識別されている。 The second identification image 34 is an image generated by applying object-based image analysis to the high definition image 32 with the buffer area 42 set. In the second identification image 34 a region 44 of the object 9 has been identified by object-based image analysis.

関連情報35は、対象物9に関連する情報である。本実施形態では、関連情報35は、対象物9の大きさ(面積)および数の少なくともいずれかを含む。近赤外バンド画像31に撮像範囲の緯度および経度の情報が対応付けられている場合、関連情報35は、対象物9の位置に関する情報を含むことができる。 Related information 35 is information related to the object 9 . In this embodiment, the relevant information 35 includes at least one of the size (area) and number of the objects 9 . When the near-infrared band image 31 is associated with the latitude and longitude information of the imaging range, the related information 35 can include information regarding the position of the target object 9 .

画像解析プログラムPは、ソフトウェアによる機能ブロックである後述するデータ処理部12内の各部21~28を実現するためのコンピュータプログラムである。画像解析プログラムPは、通信I/F部16により接続されるインターネット等のネットワークを介して画像解析装置1にインストールしてもよい。あるいは、画像解析プログラムPを記録したメモリカード等のコンピュータ読み取り可能な非一時的な有体の記録媒体を画像解析装置1に読み取らせることにより、画像解析プログラムPを画像解析装置1にインストールしてもよい。画像解析プログラムPは、例えばタブレット端末等のアプリケーションとすることができる。 The image analysis program P is a computer program for realizing respective units 21 to 28 in the data processing unit 12, which are function blocks of software, which will be described later. The image analysis program P may be installed in the image analysis apparatus 1 via a network such as the Internet connected by the communication I/F section 16 . Alternatively, the image analysis program P may be installed in the image analysis apparatus 1 by causing the image analysis apparatus 1 to read a computer-readable non-temporary tangible recording medium such as a memory card in which the image analysis program P is recorded. The image analysis program P can be, for example, an application such as a tablet terminal.

入力部14は、例えばマウスやキーボード等で構成することができ、表示部15は、例えば液晶ディスプレイおよび有機ELディスプレイ等で構成することができる。本実施形態では、入力部14および表示部15はタッチパネルとして一体化されている。 The input unit 14 can be configured with, for example, a mouse or keyboard, and the display unit 15 can be configured with, for example, a liquid crystal display, an organic EL display, or the like. In this embodiment, the input unit 14 and the display unit 15 are integrated as a touch panel.

通信I/F部16は、有線または無線のネットワークを介して、外部サーバ2等の外部機器とのデータの送受信を行う。通信I/F部16は、Bluetooth(登録商標)、Wi-Fi(登録商標)、およびZigBee(登録商標)等の種々の無線接続または有線接続であってもよい。 The communication I/F unit 16 transmits and receives data to and from an external device such as the external server 2 via a wired or wireless network. The communication I/F unit 16 may be various wireless connections such as Bluetooth (registered trademark), Wi-Fi (registered trademark), and ZigBee (registered trademark), or wired connections.

本実施形態では、画像解析装置1は、ソフトウェアの構成としてデータ処理部12を備えている。データ処理部12は、プロセッサが画像解析プログラムPを実行することにより実現される機能ブロックである。 In this embodiment, the image analysis apparatus 1 includes a data processing unit 12 as a software configuration. The data processing unit 12 is a functional block realized by executing the image analysis program P by the processor.

近赤外バンド画像取得部21は、対象物9を含む地球上の領域が撮像された近赤外バンド画像31を取得する。 The near-infrared band image acquisition unit 21 acquires a near-infrared band image 31 in which an area on the earth including the object 9 is imaged.

高精細画像取得部22は、近赤外バンド画像31よりも高い解像度を有し、近赤外バンド画像31と同一の地球上の領域が撮像された高精細画像32を取得する。 The high-definition image acquisition unit 22 acquires a high-definition image 32 that has a higher resolution than the near-infrared band image 31 and captures the same region on the earth as the near-infrared band image 31 .

マスク適用部23は、近赤外バンド画像31内の陸域の領域に画像マスクを適用する。 The mask application unit 23 applies an image mask to the land region in the near-infrared band image 31 .

第1識別画像生成部24は、近赤外バンド画像31にオブジェクトベース画像解析を適用して、近赤外バンド画像31において対象物9の領域41が識別された第1の識別画像33を生成する。 The first identification image generator 24 applies object-based image analysis to the near-infrared band image 31 to generate a first identification image 33 in which the region 41 of the object 9 is identified in the near-infrared band image 31 .

バッファ領域設定部25は、第1の識別画像33に基づいて、識別された対象物9の領域41を包含するバッファ領域42を、高精細画像32に設定する。 The buffer area setting unit 25 sets a buffer area 42 containing the identified area 41 of the object 9 in the high-definition image 32 based on the first identification image 33 .

参照領域設定部26は、バッファ領域42を囲む参照領域43を高精細画像32に設定する。 The reference area setting unit 26 sets a reference area 43 surrounding the buffer area 42 in the high-definition image 32 .

第2識別画像生成部27は、バッファ領域42の範囲内で高精細画像32にオブジェクトベース画像解析を適用して、高精細画像32において対象物9の領域44が識別された第2の識別画像34を生成する。第2識別画像生成部27は、高精細画像32について、参照領域43の輝度値を閾値として用いて、バッファ領域42の範囲内で高精細画像32にオブジェクトベース画像解析を適用することができる。 The second identification image generator 27 applies object-based image analysis to the high-definition image 32 within the buffer area 42 to generate a second identification image 34 in which the area 44 of the object 9 is identified in the high-definition image 32. The second identification image generator 27 can apply object-based image analysis to the high-definition image 32 within the range of the buffer area 42 using the brightness value of the reference area 43 as a threshold.

関連情報生成部28は、第2の識別画像34に基づいて、対象物9に関連する関連情報35を生成する。関連情報生成部28は、対象物9の大きさおよび数の少なくともいずれかに関する情報を生成することができる。関連情報生成部28は、近赤外バンド画像31に対応付けられている撮像範囲の緯度および経度の情報に基づいて、対象物9の位置に関する情報を生成することができる。
[処理手順]
The related information generator 28 generates related information 35 related to the object 9 based on the second identification image 34 . The related information generator 28 can generate information about at least one of the size and number of the objects 9 . The related information generator 28 can generate information about the position of the target object 9 based on the information on the latitude and longitude of the imaging range associated with the near-infrared band image 31 .
[Processing procedure]

図3は、本発明の一実施形態に係る画像解析方法の手順を説明するためのフローチャートである。 FIG. 3 is a flow chart for explaining the procedure of the image analysis method according to one embodiment of the present invention.

ステップS1(近赤外バンド画像取得ステップ)において、対象物9を含む地球上の領域が撮像された、解析対象領域の近赤外バンド画像31を取得する。本実施形態では、解析対象とする地球上の領域を含む、解析対象領域の近赤外バンド画像31および高精細画像32は、予め衛星8により撮像されて外部サーバ2に保存されており、画像解析装置1は、外部サーバ2から近赤外バンド画像31を取得する。 In step S1 (near-infrared band image acquisition step), a near-infrared band image 31 of the area to be analyzed, in which an area on the earth including the object 9 is imaged, is acquired. In the present embodiment, a near-infrared band image 31 and a high-definition image 32 of an area to be analyzed, including the area on the earth to be analyzed, are captured in advance by the satellite 8 and stored in the external server 2, and the image analysis apparatus 1 acquires the near-infrared band image 31 from the external server 2.

図4は、解析対象領域の近赤外バンド画像の一例である。図示する近赤外バンド画像31中、中央の黒色の領域は海域(水域)であり、海域の周辺の灰色または白色の領域は陸域である。図面中央の海域には、画像解析処理により識別して関連情報35を生成する対象物である複数の養殖筏9が撮像されていることを確認することができる。 FIG. 4 is an example of a near-infrared band image of the analysis target area. In the illustrated near-infrared band image 31, the central black area is the sea area (water area), and the gray or white area around the sea area is the land area. It can be confirmed that a plurality of culture rafts 9, which are objects to be identified by image analysis processing to generate related information 35, are imaged in the sea area in the center of the drawing.

ステップS2(画像マスク適用ステップ)において、近赤外バンド画像31内の陸域の領域に画像マスクを適用する。本実施形態では、海域に浮遊している養殖筏9を画像解析処理により識別するため、画像解析処理の対象外となる地面や森、畑、水田、住宅地等の陸域の領域には、画像マスクを適用する。以下に説明する画像解析処理において、近赤外バンド画像31内の領域のうち画像マスクが適用されている領域には、画像解析処理は適用されない。 In step S<b>2 (image mask application step), an image mask is applied to the land region in the near-infrared band image 31 . In this embodiment, in order to identify the culture raft 9 floating in the sea area by image analysis processing, an image mask is applied to land areas such as the ground, forests, fields, paddy fields, and residential areas that are not subject to image analysis processing. In the image analysis processing described below, the image analysis processing is not applied to the regions in the near-infrared band image 31 to which the image mask is applied.

ステップS3(高精細画像取得ステップ)において、近赤外バンド画像31と同一の地球上の領域が撮像された、解析対象領域の高精細画像32を取得する。本実施形態では、画像解析装置1は、近赤外バンド画像31と対をなす高精細画像32を外部サーバ2から取得する。 In step S3 (high-definition image acquisition step), a high-definition image 32 of the area to be analyzed, in which the same area on the earth as the near-infrared band image 31 is imaged, is acquired. In this embodiment, the image analysis apparatus 1 acquires the high-definition image 32 paired with the near-infrared band image 31 from the external server 2 .

ステップS4において、解析対象の領域を複数の単位領域Uに分割する。単位領域Uとは、以下のステップS5~ステップS8において画像解析装置1が画像解析処理を行う際に、処理単位とする領域である。 In step S4, the area to be analyzed is divided into a plurality of unit areas U. As shown in FIG. The unit area U is an area used as a processing unit when the image analysis apparatus 1 performs image analysis processing in steps S5 to S8 below.

図5は、単位領域Uについて拡大表示された近赤外バンド画像および高精細画像の一例である。(A)は近赤外バンド画像31であり、(B)は高精細画像32である。 FIG. 5 is an example of an enlarged near-infrared band image and a high-definition image of the unit area U. As shown in FIG. (A) is a near-infrared band image 31 and (B) is a high-definition image 32 .

解析対象の近赤外バンド画像31および高精細画像32は、それぞれが複数の単位領域Uに分割される。近赤外バンド画像31および高精細画像32は対をなしており、単位領域Uも近赤外バンド画像31と高精細画像32との間において対をなしている。すなわち、図4に例示する位置の単位領域Uに対して以下のステップS5~S8の画像解析処理を行う際には、図5に示す同じ領域が撮像された単位領域Uの近赤外バンド画像31および高精細画像32を用いて画像解析処理が行われる。 A near-infrared band image 31 and a high-definition image 32 to be analyzed are divided into a plurality of unit regions U, respectively. The near-infrared band image 31 and the high-definition image 32 form a pair, and the unit region U also forms a pair between the near-infrared band image 31 and the high-definition image 32 . That is, when performing the image analysis processing of steps S5 to S8 below for the unit area U at the position illustrated in FIG.

ステップS5(第1識別画像生成ステップ)において、近赤外バンド画像31にオブジェクトベース画像解析を適用して、近赤外バンド画像31において対象物9の領域41が識別された第1の識別画像33を生成する。本実施形態では、オブジェクトベース画像解析において用いる輝度値(光学衛星画像では、画像値またはデジタルナンバーとも呼ばれる)のしきい値は、例えば表示部15に表示される近赤外バンド画像31の輝度値のヒストグラムに基づいて、例えばオペレータにより任意で決定される。決定された輝度値のしきい値は、例えばオペレータにより入力部14を介して画像解析装置1に入力される。 In step S5 (first identification image generation step), object-based image analysis is applied to the near-infrared band image 31 to generate a first identification image 33 in which the region 41 of the object 9 is identified in the near-infrared band image 31. In the present embodiment, the threshold value of the brightness value (also called image value or digital number in the optical satellite image) used in the object-based image analysis is arbitrarily determined, for example, by the operator based on the histogram of the brightness value of the near-infrared band image 31 displayed on the display unit 15, for example. The determined brightness value threshold value is input to the image analysis apparatus 1 via the input unit 14 by, for example, an operator.

図6は、オブジェクトベース画像解析を適用する際に画像に設定するバッファ領域および参照領域を説明するための模式的な図である。図7は、近赤外バンド画像の単位領域について生成された第1の識別画像の一例である。 FIG. 6 is a schematic diagram for explaining buffer areas and reference areas set in an image when object-based image analysis is applied. FIG. 7 is an example of the first identification image generated for the unit area of the near-infrared band image.

領域41は、近赤外バンド画像31にオブジェクトベース画像解析を適用することにより識別される対象物9の領域である。本実施形態では、領域41は、オブジェクトベース画像解析により、海面に設置されている養殖筏9であると判断された画素の集合である。オブジェクトベース画像解析とは、性質が近い近隣の画素を1つのオブジェクトとして結合し、この結合したオブジェクトを単位として行う画像解析の手法である。オブジェクトベース画像解析によると、目視による判断に近い結果を得ることが可能となる。 Region 41 is the region of object 9 identified by applying object-based image analysis to near-infrared band image 31 . In the present embodiment, the region 41 is a set of pixels determined by object-based image analysis to be the aquaculture raft 9 installed on the sea surface. Object-based image analysis is an image analysis method in which neighboring pixels having similar properties are combined into one object, and this combined object is used as a unit. Object-based image analysis makes it possible to obtain results close to visual judgment.

近赤外バンド画像31において領域41が識別されることにより、近赤外バンド画像31と対をなす高精細画像32においてバッファ領域42および参照領域43が設定される。これらバッファ領域42および参照領域43は、第2の識別画像34を生成する際に高精細画像32に設定される仮想的な領域である。言い換えると、バッファ領域42および参照領域43は、近赤外バンド画像31および高精細画像32を用いた2段階のオブジェクトベース画像解析を行うための仮想的な領域である。すなわち、近赤外バンド画像31を用いた1段階目のオブジェクトベース画像解析により、対象物9の領域の概略を識別し、高精細画像32を用いた、バッファ領域42の範囲内での2段階目のオブジェクトベース画像解析により、対象物9の領域を詳細に識別する。 By identifying the region 41 in the near-infrared band image 31 , a buffer region 42 and a reference region 43 are set in the high-definition image 32 paired with the near-infrared band image 31 . These buffer area 42 and reference area 43 are virtual areas set in the high-definition image 32 when the second identification image 34 is generated. In other words, the buffer area 42 and the reference area 43 are virtual areas for two-step object-based image analysis using the near-infrared band image 31 and the high-definition image 32 . That is, the first-stage object-based image analysis using the near-infrared band image 31 identifies the outline of the area of the object 9, and the second-stage object-based image analysis within the buffer area 42 using the high-definition image 32 identifies the area of the object 9 in detail.

バッファ領域42は、対象物9の領域41を包含する領域である。本実施形態では、バッファ領域42は、領域41と、領域41の外周から所定の画素数(例えば、2画素~5画素程度)の範囲内の領域とを包含する領域である。参照領域43は、バッファ領域42を囲む領域であり、領域41およびバッファ領域42を包含しない領域である。本実施形態では、参照領域43は、バッファ領域42の外周から所定の画素数(例えば、1画素~5画素程度)の範囲内の領域である。 Buffer area 42 is an area that encompasses area 41 of object 9 . In this embodiment, the buffer area 42 is an area including the area 41 and an area within a range of a predetermined number of pixels (for example, about 2 to 5 pixels) from the outer circumference of the area 41 . The reference area 43 is an area that surrounds the buffer area 42 and does not include the area 41 and the buffer area 42 . In this embodiment, the reference area 43 is an area within a predetermined number of pixels (for example, about 1 pixel to 5 pixels) from the outer periphery of the buffer area 42 .

ステップS6(バッファ領域設定ステップ)において、第1の識別画像33に基づいて、識別された対象物9の領域41を包含するバッファ領域42を高精細画像32に設定する。好ましくは、本ステップに引き続き、バッファ領域42を囲む参照領域43を高精細画像32に設定する。 In step S<b>6 (buffer area setting step), a buffer area 42 containing the identified area 41 of the object 9 is set in the high-definition image 32 based on the first identification image 33 . Preferably, following this step, a reference area 43 surrounding the buffer area 42 is set in the high-definition image 32 .

図6および図7を参照して説明したように、第1の識別画像33において対象物9であると識別されている複数の領域41のそれぞれについて、対をなす高精細画像32においてバッファ領域42および参照領域43を設定する。 As described with reference to FIGS. 6 and 7, for each of the plurality of regions 41 identified as the object 9 in the first identification image 33, a buffer region 42 and a reference region 43 are set in the paired high-definition image 32.

ステップS7(第2識別画像生成ステップ)において、バッファ領域42の範囲内で高精細画像32にオブジェクトベース画像解析を適用して、高精細画像32において対象物9の領域44が識別された第2の識別画像34を生成する。本ステップでは、高精細画像32について、参照領域43の輝度値を閾値として用いて、バッファ領域42の範囲内で高精細画像32にオブジェクトベース画像解析を適用することができる。 In step S7 (second identification image generating step), object-based image analysis is applied to the high-definition image 32 within the buffer area 42 to generate a second identification image 34 in which the area 44 of the object 9 is identified in the high-definition image 32. In this step, object-based image analysis can be applied to the high-definition image 32 within the buffer area 42 using the luminance values of the reference area 43 as thresholds.

図8は、高精細画像の単位領域について生成された第2の識別画像の一例である。識別される対象物9の領域について、図7に示す第1の識別画像33中の領域41と、図8に示す第2の識別画像34中の領域44とを比較すると、図8に示す領域44の方が、対象物9の輪郭をより正確に識別していることが理解される。 FIG. 8 is an example of the second identification image generated for the unit area of the high-definition image. Comparing the region 41 in the first identification image 33 shown in FIG. 7 with the region 44 in the second identification image 34 shown in FIG. 8 for the region of the object 9 to be identified, it is understood that the region 44 shown in FIG.

図9は、解析対象領域中の図4に示す単位領域とは別の単位領域について生成された識別画像の一例である。(A)は第1の識別画像33であり、(B)は第2の識別画像34である。図9に示す別の単位領域Uについても、第2の識別画像34中の領域44の方が、対象物9の輪郭をより正確に識別していることが理解される。 FIG. 9 is an example of an identification image generated for a unit area other than the unit area shown in FIG. 4 in the analysis target area. (A) is the first identification image 33 and (B) is the second identification image 34 . As for another unit area U shown in FIG. 9, it is understood that the area 44 in the second identification image 34 identifies the outline of the object 9 more accurately.

ステップS8(関連情報生成ステップ)において、第2の識別画像34に基づいて、対象物9に関連する関連情報35を生成する。本実施形態では、第2の識別画像34中に領域44として識別されている対象物9について、領域の数をカウントし領域の大きさを算出する公知の画像処理技術に基づいて、対象物9の大きさおよび数の少なくともいずれかに関する情報を関連情報35として生成する。図8を参照すると、第2の識別画像34中の領域44のそばには、一例として、領域44の大きさに基づいて算出される対象物9(養殖筏9)の面積が示されている。 In step S<b>8 (related information generation step), related information 35 related to the object 9 is generated based on the second identification image 34 . In the present embodiment, for the object 9 identified as the area 44 in the second identification image 34, information on at least one of the size and number of the object 9 is generated as the related information 35 based on a known image processing technique for counting the number of areas and calculating the size of the area. Referring to FIG. 8, the area of the target object 9 (culture raft 9) calculated based on the size of the area 44 is shown as an example near the area 44 in the second identification image 34 .

本ステップでは、さらに、近赤外バンド画像31に対応付けられている撮像範囲の緯度および経度の情報に基づいて、対象物9の位置に関する情報を関連情報35として生成することができる。通常、衛星8により撮像されている近赤外バンド画像31には、縮尺に関する情報と撮像範囲の緯度および経度の情報とを含むメタデータが記録されている。本実施形態では、このメタデータと、単位領域Uの第2の識別画像34内での領域44の位置とに基づいて、対象物9の領域44の位置に関する情報を、関連情報35として生成する。 In this step, information on the position of the object 9 can be generated as the related information 35 based on the information on the latitude and longitude of the imaging range associated with the near-infrared band image 31 . Usually, the near-infrared band image 31 captured by the satellite 8 contains metadata including information on the scale and information on the latitude and longitude of the imaging range. In this embodiment, based on this metadata and the position of the region 44 in the second identification image 34 of the unit region U, information regarding the position of the region 44 of the object 9 is generated as the related information 35 .

ステップS9において、分割した単位領域Uを全て処理する(ステップS9においてYes)までステップS5から処理を繰り返し、単位領域U内に含まれている対象物9に関連する関連情報35を次々に生成する。
[効果]
In step S9, the process from step S5 is repeated until all the divided unit areas U are processed (Yes in step S9), and related information 35 related to the object 9 included in the unit area U is generated one after another.
[effect]

以上、本発明の一実施形態に係る画像解析装置、方法およびプログラムによると、上空から撮像された画像に基づいて対象物を識別し、識別した対象物に関連する情報を生成することができる。生成した関連情報は、識別した対象物に関連する情報として活用することができる。例えば対象物が養殖筏の場合、漁業権者は、実際に海面に設置されている養殖施設の台数や緯度および経度等の空間配置を、高い精度で定量的に把握することが可能となる。 As described above, according to the image analysis apparatus, method, and program according to one embodiment of the present invention, an object can be identified based on an image captured from the sky, and information related to the identified object can be generated. The generated related information can be utilized as information related to the identified object. For example, if the object is an aquaculture raft, the fishery right holder can quantitatively grasp the number of aquaculture facilities actually installed on the sea surface and the spatial arrangement such as latitude and longitude with high accuracy.

また、対象物である養殖筏の識別および関連情報の生成は、衛星等により対象物の上空から撮像された画像に基づいてなされているので、漁業権者は非効率的な現地調査を行う必要はない。衛星により撮像された光学衛星画像を画像解析に用いる場合、光学衛星画像は衛星が地球の衛星軌道上を周回することにより定期的に撮像されるので、関連情報も定期的に生成することが可能である。 In addition, since the identification of the target aquaculture raft and the generation of related information are based on images captured from above the target by a satellite or the like, the fishery right holder does not need to conduct inefficient field surveys. When optical satellite images captured by satellites are used for image analysis, the relevant information can also be generated periodically because the optical satellite images are captured periodically as the satellites orbit the earth.

また、近赤外バンド画像31では、対象物9である養殖筏9と海面との輝度値の差が大きく記録されている。これにより、オブジェクトベース画像解析において用いることで良好な識別結果を得ることができるしきい値の範囲が拡大し、しきい値の設定がし易くなる。
[他の実施形態]
Also, in the near-infrared band image 31, a large difference in luminance value is recorded between the culture raft 9, which is the object 9, and the sea surface. As a result, the range of thresholds that can obtain good identification results by using them in object-based image analysis is expanded, and the thresholds can be easily set.
[Other embodiments]

以下において説明する他の実施形態に係る画像解析装置1(1B)および画像解析方法は、特に言及しない限り、上記した一実施形態に係る画像解析装置および画像解析方法と同様であるので、重複する説明は省略する。 An image analysis apparatus 1 (1B) and an image analysis method according to another embodiment described below are the same as the image analysis apparatus and image analysis method according to the above-described embodiment, unless otherwise specified, and redundant description will be omitted.

上記実施形態では、高精細画像32にオブジェクトベース画像解析を適用して第2の識別画像34を生成し、第2の識別画像34に基づいて関連情報35を生成しているが、関連情報35を生成する手順はこれに限定されない。他の実施形態では、高精細画像32は用いずに近赤外バンド画像31を用いて画像解析を行う。すなわち、他の実施形態では、近赤外バンド画像31にオブジェクトベース画像解析を適用することにより生成される第1の識別画像33に基づいて、関連情報35を生成する。 In the above embodiment, the object-based image analysis is applied to the high-definition image 32 to generate the second identification image 34, and the related information 35 is generated based on the second identification image 34, but the procedure for generating the related information 35 is not limited to this. In another embodiment, image analysis is performed using the near-infrared band image 31 without using the high-definition image 32 . That is, in another embodiment, related information 35 is generated based on first identification image 33 generated by applying object-based image analysis to near-infrared band image 31 .

図10は、本発明の他の実施形態に係る画像解析装置の機能を説明するためのブロック図である。他の実施形態に係る画像解析装置1Bでは、図2を参照して説明した上記実施形態に係る画像解析装置1Aにおいて、高精細画像取得部22、バッファ領域設定部25、参照領域設定部26、第2識別画像生成部27が省略されている。また、関連情報生成部28は、第2の識別画像34に代えて第1の識別画像33に基づいて、対象物9に関連する関連情報35を生成する。 FIG. 10 is a block diagram for explaining functions of an image analysis device according to another embodiment of the present invention. In the image analysis device 1B according to another embodiment, the high-definition image acquisition unit 22, the buffer area setting unit 25, the reference area setting unit 26, and the second identification image generation unit 27 are omitted from the image analysis apparatus 1A according to the above embodiment described with reference to FIG. Further, the related information generation unit 28 generates related information 35 related to the object 9 based on the first identification image 33 instead of the second identification image 34 .

図11は、本発明の他の実施形態に係る画像解析方法の手順を説明するためのフローチャートである。他の実施形態に係る画像解析方法では、図3を参照して説明した上記実施形態に係る画像解析方法において、ステップS3,S6,S7を省略している。また、ステップS8において、第2の識別画像34に代えて第1の識別画像33に基づいて、対象物9に関連する関連情報35を生成する。図7を参照すると、第1の識別画像33中の領域41のそばには、一例として、領域41の大きさに基づいて算出される対象物9(養殖筏9)の面積が示されている。
[その他の形態]
FIG. 11 is a flowchart for explaining procedures of an image analysis method according to another embodiment of the present invention. In the image analysis method according to another embodiment, steps S3, S6, and S7 are omitted from the image analysis method according to the above embodiment described with reference to FIG. Also, in step S8, based on the first identification image 33 instead of the second identification image 34, the related information 35 related to the object 9 is generated. Referring to FIG. 7, the area of the target object 9 (culture raft 9) calculated based on the size of the area 41 is shown as an example near the area 41 in the first identification image 33 .
[Other forms]

以上、本発明を特定の実施形態によって説明したが、本発明は上記した実施形態に限定されるものではない。 Although the present invention has been described in terms of specific embodiments, the present invention is not limited to the embodiments described above.

上記実施形態では、近赤外バンド画像31内の陸域の領域に画像マスクを適用しているが、例えば処理対象の領域が全て海域であると予め把握可能な場合は、画像マスクを適用する処理は省略することができる。 In the above embodiment, the image mask is applied to the land area in the near-infrared band image 31. However, if it is possible to grasp in advance that all the areas to be processed are sea areas, the process of applying the image mask can be omitted.

上記実施形態では、解析対象の領域を複数の単位領域Uに分割し、分割した単位領域Uのそれぞれについて画像解析処理を行っているが、複数の単位領域Uに分割することなく、解析対象の領域について画像解析処理を行ってもよい。 In the above embodiment, the area to be analyzed is divided into a plurality of unit areas U, and the image analysis process is performed on each of the divided unit areas U. However, the image analysis process may be performed on the area to be analyzed without dividing the area into a plurality of unit areas U.

上記実施形態では、解析対象領域の近赤外バンド画像31および高精細画像32を外部サーバ2から取得して画像解析処理を行っているが、近赤外バンド画像31および高精細画像32の取得元は外部サーバ2に限定されない。近赤外バンド画像31および高精細画像32は衛星8から直接取得することもできる。また、例えば本発明の画像解析プログラムが衛星8自体にインストールされている場合には、これら近赤外バンド画像31および高精細画像32を外部から取得する手順を省略することもできる。 In the above embodiment, the near-infrared band image 31 and the high-definition image 32 of the analysis target area are acquired from the external server 2 and image analysis processing is performed. The near-infrared band image 31 and the high definition image 32 can also be obtained directly from the satellite 8. Further, for example, when the image analysis program of the present invention is installed on the satellite 8 itself, the procedure for acquiring these near-infrared band images 31 and high-definition images 32 from the outside can be omitted.

上記実施形態では、画像解析装置1は一体の装置として実現されているが、画像解析装置1は一体の装置である必要はなく、プロセッサ、メモリ、補助記憶装置13等が別所に配置され、これらが互いにネットワークで接続されていてもよい。データ処理部12の機能および補助記憶装置13内のデータ項目は、一部または全部が、通信I/F部16を介して接続される外部サーバ2においてクラウド化されていてもよい。 In the above embodiment, the image analysis apparatus 1 is realized as an integrated apparatus, but the image analysis apparatus 1 does not have to be an integrated apparatus, and the processor, memory, auxiliary storage device 13, etc. may be arranged separately and connected to each other via a network. Some or all of the functions of the data processing unit 12 and the data items in the auxiliary storage device 13 may be clouded in the external server 2 connected via the communication I/F unit 16 .

上記実施形態では、データ処理部12を構成する各機能ブロック21~28はソフトウェアにより実現されているが、これら各機能ブロック21~28は、一部または全部がハードウェアとして実現されてもよい。データ処理部12を構成する各機能ブロック21~28の処理は単一のプロセッサで処理される必要はなく、複数のプロセッサで分散して処理されてもよい。また、プロセッサに代えて、FPGA(Field Programmable Gate Array)が処理を行ってもよいし、例えばGPU(Graphics Processing Unit)をアクセラレータとして用いて、プロセッサが行う並列演算処理を補助してもよい。すなわちプロセッサが行う処理とは、プロセッサまたはFPGAが、GPU等のアクセラレータを用いて行う処理も含むことを意味する。 In the above embodiment, the functional blocks 21 to 28 forming the data processing unit 12 are implemented by software, but these functional blocks 21 to 28 may be implemented partially or wholly by hardware. The processing of the functional blocks 21 to 28 constituting the data processing unit 12 need not be processed by a single processor, and may be processed by a plurality of processors in a distributed manner. Also, instead of the processor, an FPGA (Field Programmable Gate Array) may perform processing, or, for example, a GPU (Graphics Processing Unit) may be used as an accelerator to assist parallel arithmetic processing performed by the processor. In other words, processing performed by a processor means processing performed by a processor or FPGA using an accelerator such as a GPU.

上記実施形態では、タブレット端末またはスマートフォン等を用いて画像解析装置1を構成しているが、パーソナルコンピュータ等の汎用計算機を用いて画像解析装置1を構成してもよい。 In the above embodiment, the image analysis device 1 is configured using a tablet terminal, a smartphone, or the like, but the image analysis device 1 may be configured using a general-purpose computer such as a personal computer.

上記実施形態では、画像解析に光学衛星画像を用いているが、画像解析に用いる画像は光学衛星画像に限らず、例えば航空機やドローン等から撮像された画像であってもよい。すなわち、画像解析に用いる画像は、対象物9の上空から撮像された画像であればよい。航空機やドローンには、例えば近赤外バンド画像31および高精細画像32の少なくとも2種類の画像を撮像可能な撮像装置を搭載すればよい。 In the above embodiment, an optical satellite image is used for image analysis, but the image used for image analysis is not limited to the optical satellite image, and may be an image captured by an aircraft, drone, or the like. That is, the image used for image analysis may be an image captured from above the object 9 . An aircraft or drone may be equipped with an imaging device capable of capturing at least two types of images, for example, a near-infrared band image 31 and a high-definition image 32 .

上記実施形態では、高精細画像32にパンクロマチックバンド画像を用いているが、高精細画像32はパンクロマチックバンド画像に限定されない。高精細画像32は、近赤外バンド画像31よりも高い解像度を有し、近赤外バンド画像31と同一の地球上の領域が撮像された画像であればよい。 Although a panchromatic band image is used as the high-definition image 32 in the above embodiment, the high-definition image 32 is not limited to a panchromatic band image. The high-definition image 32 has a resolution higher than that of the near-infrared band image 31, and may be an image in which the same area on the earth as the near-infrared band image 31 is captured.

上記実施形態では、画像解析により情報を生成する対象物9は、例えば沿岸域の海面に浮遊した状態で設置されている養殖筏であるが、対象物9は水域に浮遊する物体(浮遊物)に限らない。対象物9は、例えば砂漠地帯等の陸域に例えばモスボール化して保管されている航空機や車両等であってもよく、対象物9は、オブジェクトベース画像解析により背景画像から抽出可能な物体であればよい。 In the above-described embodiment, the object 9 for which information is generated by image analysis is, for example, a culture raft installed in a floating state on the sea surface of a coastal area, but the object 9 is not limited to an object floating in water (floating matter). The object 9 may be an aircraft, a vehicle, or the like stored in a mothballed state in a land area such as a desert area, and the object 9 may be an object that can be extracted from the background image by object-based image analysis.

以下に本発明の実施例を示し、本発明の特徴をより明確にする。
[第1の実施例]
Examples of the present invention are shown below to further clarify the features of the present invention.
[First embodiment]

第1の実施例では、本発明の上記した他の実施形態に係る画像解析方法により得られる対象物9の数および面積(すなわち、近赤外バンド画像31において識別された領域41の数および面積)について、現地調査における実測値との比較を行った。また、同様の比較を、他の形式の衛星画像(RGB画像)を画像解析することにより得られる結果と、近赤外バンド画像を用いずにパンクロマチックバンド画像のみを画像解析することにより得られる結果とに対しても行った。 In the first example, the number and area of the target objects 9 (that is, the number and area of the regions 41 identified in the near-infrared band image 31) obtained by the image analysis method according to the above-described other embodiment of the present invention were compared with the actually measured values in the field survey. A similar comparison was also made between the results obtained by image analysis of satellite images of other formats (RGB images) and the results obtained by image analysis of only panchromatic band images without using near-infrared band images.

岩手県と宮城県との県境に位置する広田湾を対象の領域とした。広田湾は、湾開口部の長さが約4.8km、奥行きが約9km、面積が約37.1km、湾内および湾口の最大水深が約56mのリアス式海外である。湾内ではカキ、ワカメ、ホタテ貝等の海面養殖が行われている。本実施例では、カキの養殖に用いられる長さ約10m、幅約4mの養殖筏を識別して、識別した養殖筏の数および面積を算出し、現地調査における実測値との比較を行った。 Hirota Bay, located on the border of Iwate and Miyagi prefectures, was selected as the target area. Hirota Bay is a rias type overseas with a bay opening length of about 4.8 km, a depth of about 9 km, an area of about 37.1 km 2 , and a maximum water depth of about 56 m inside and at the mouth of the bay. Oysters, wakame seaweed, scallops, etc. are cultivated in the bay. In this example, culturing rafts with a length of about 10 m and a width of about 4 m used for culturing oysters were identified, the number and area of the identified culturing rafts were calculated, and the results were compared with actual measurements in field surveys.

画像解析には、2015年4月30日に人工衛星Pleiades1Aにより観測された、空間分解能2.0mのマルチスペクトルバンド画像を用いた。このマルチスペクトルバンド画像から、RGB画像(R:バンド3、G:バンド2、B:バンド1)と、近赤外バンド画像(バンド4)との2種類の画像を作成し、作成したこれら2種類の画像のそれぞれを用いた場合について、画像解析を行った。また、空間分解能0.5mのパンクロマチックバンド画像のみを用いた場合について、画像解析を行った。画像の解析には、ソフトウェアENVI5.5(米国Harris GeoSpatial社)を用い、ルールベースのオブジェクトベース解析を行った。画像解析の条件として、海面のスペクトル領域を除外したスペクトルを養殖筏として設定した。 For the image analysis, a multispectral band image with a spatial resolution of 2.0 m, observed by the artificial satellite Pleiades1A on April 30, 2015, was used. From this multispectral band image, two types of images, an RGB image (R: band 3, G: band 2, B: band 1) and a near-infrared band image (band 4), were created, and image analysis was performed using each of these two created images. In addition, image analysis was performed using only panchromatic band images with a spatial resolution of 0.5 m. For image analysis, software ENVI5.5 (Harris GeoSpatial, USA) was used to perform rule-based object-based analysis. As a condition of the image analysis, the spectrum excluding the spectrum region of the sea surface was set as the culture raft.

現地調査は2015年9月29日に行い、養殖筏が規則正しく区画毎に配置されていることを確認した。空間配置については、パンクロマチックバンド画像を用いた目視判断を行うことにより、対象とする領域の海域全体で1053台の養殖筏が設置されていることを確認した。 A field survey was conducted on September 29, 2015, and it was confirmed that the culture rafts were regularly arranged in each section. Regarding the spatial arrangement, it was confirmed that 1053 aquaculture rafts were installed in the entire sea area of the target area by visual judgment using panchromatic band images.

RGB画像を用いた画像解析からは、897台の養殖筏が検出された。これは目視判断による結果と比較して約85%の検出率であった。また、養殖筏1台あたりの平均面積は約48mであった。実際の養殖筏の面積は約40mであることから、RGB画像を用いた画像解析では、実際の面積よりも大きく検出された。この面積の大きさの違いは、画像解析に用いた人工衛星Pleiades1Aによる近赤外バンド画像の空間分解能の2ピクセル分の面積(約8.0m)に相当する。 Image analysis using RGB images detected 897 farming rafts. This was a detection rate of about 85% compared with the results based on visual judgment. In addition, the average area per culture raft was approximately 48 m 2 . Since the area of the actual culture raft is about 40 m 2 , the image analysis using the RGB image detected a larger area than the actual area. This difference in the size of the area corresponds to an area (approximately 8.0 m 2 ) corresponding to two pixels of the spatial resolution of the near-infrared band image obtained by the artificial satellite Pleiades 1A used for image analysis.

近赤外バンド画像を用いた画像解析からは、1030台の養殖筏が検出された。これは目視判断による結果と比較して約98%の検出率であった。また、養殖筏1台あたりの平均面積は約49mであり、RGB画像を用いた場合と同様に、実際よりも2ピクセル程度大きく面積が検出された。養殖筏の台数が実際よりも少なく検出された理由としては、例えば、互いに近い距離で配置されている養殖筏や、漁船が係留されていた養殖筏等では、それぞれが区別されずに1つのオブジェクトとして解析されていることが理由として考えられる。また、これによって、養殖筏1台あたりの平均面積も、実際の面積よりも大きく検出されたと考えられる。 Image analysis using near-infrared band images detected 1030 farming rafts. This was a detection rate of about 98% compared to the results based on visual judgment. In addition, the average area per culture raft was about 49 m 2 , and the area was detected to be about 2 pixels larger than the actual area, as in the case of using the RGB image. A possible reason why the number of farming rafts detected is smaller than the actual number is that, for example, the farming rafts that are arranged close to each other and the farming rafts that moored fishing boats are analyzed as one object without being distinguished from each other. In addition, it is considered that the average area per culture raft was detected to be larger than the actual area.

パンクロマチックバンド画像のみを用いた画像解析からは、1319台の養殖筏が検出された。これは目視判断による結果と比較して約25%の検出率の増加であった。また、養殖筏1台あたりの平均面積は約30mであり、実際の面積よりも小さく検出された。養殖筏の台数が実際よりも多く検出された理由としては、画像解析に用いたパンクロマチックバンド画像の空間分解能(0.5m)では、1台の養殖筏が2~4台程度の複数の細かいオブジェクトとして解析されたことが理由として考えられる。また、これによって、養殖筏1台あたりの平均面積も、実際の面積よりも小さく検出されたと考えられる。 Image analysis using only panchromatic band images detected 1319 farming rafts. This was an increase in detection rate of about 25% compared to results based on visual judgment. In addition, the average area per aquaculture raft was about 30m2 , which was detected to be smaller than the actual area. The reason why the number of farming rafts was detected more than the actual number is that one farming raft was analyzed as a plurality of small objects of about 2 to 4 units at the spatial resolution (0.5 m) of the panchromatic band image used for image analysis. In addition, it is thought that the average area per culture raft was detected to be smaller than the actual area.

以上、第1の実施例より、オブジェクトベース画像解析により養殖筏の台数を検出する場合には、必ずしも空間分解能が高いパンクロマチックバンド画像を用いる必要はなく、マルチスペクトルバンド画像程度の空間分解能で十分であることが示された。また、RGB画像を用いるよりも、近赤外バンド画像を用いることにより、養殖筏の検出率が向上することが示された。
[第2の実施例]
As described above, from the first embodiment, when detecting the number of culture rafts by object-based image analysis, it is not necessary to use a panchromatic band image with high spatial resolution, and a spatial resolution of the order of a multispectral band image is sufficient. Moreover, it was shown that the detection rate of culture rafts is improved by using near-infrared band images rather than by using RGB images.
[Second embodiment]

第2の実施例では、本発明の上記した二種類の実施形態に係る画像解析方法のそれぞれにより得られる対象物9の面積について、現地調査における実測値との比較を行った。すなわち、第2の実施例では、近赤外バンド画像31を用いた1段階目のオブジェクトベース画像解析により識別された領域41の面積と、高精細画像32を用いた、バッファ領域42の範囲内での2段階目のオブジェクトベース画像解析により識別された領域44の面積とのそれぞれを、現地調査における実測値と比較した。宮城県石巻市長面浦を対象の領域とし、長面浦の海面に浮遊した状態で設置されている養殖筏を対象物として検出し、対象物の関連情報として面積を算出した。現地調査における養殖筏の実測は、2019年5月21日に行われた。 In the second example, the area of the object 9 obtained by each of the image analysis methods according to the above-described two types of embodiments of the present invention was compared with the actual measurement value in the field survey. That is, in the second embodiment, the area of the region 41 identified by the first-stage object-based image analysis using the near-infrared band image 31 and the area of the region 44 identified by the second-stage object-based image analysis within the range of the buffer area 42 using the high-definition image 32 were compared with the actual measurements in the field survey. The target area was Nagamoonura, Ishinomaki City, Miyagi Prefecture. The actual measurement of the culture raft in the field survey was conducted on May 21, 2019.

図12は、第2の実施例において行った現地調査の結果を説明するための図である。対象の領域とした宮城県石巻市長面浦のRGB画像(白黒表示)を(A)に示し、現地調査において実測された養殖筏の面積を(B)の表に示す。現地における実測は、(A)のRGB画像中に番号1~10で示す地点に設置されている養殖筏について行われた。 FIG. 12 is a diagram for explaining the results of the field survey conducted in the second example. (A) shows an RGB image (black and white display) of Nagamenura, Ishinomaki City, Miyagi Prefecture, which is the target area, and (B) shows the area of the culture raft actually measured in the field survey. Actual measurements at the site were conducted for the culture rafts installed at the points indicated by numbers 1 to 10 in the RGB image of (A).

図13は、第2の実施例において行った画像解析結果の一例である。(A)は第1の識別画像であり、(B)は第2の識別画像である。(A)および(B)に示す識別画像は、番号6~8で示す養殖筏の海域について拡大表示されている。また、(A)には、第1の識別画像に基づいて生成されたそれぞれの養殖筏の面積が表示されている。(A)と同様に(B)にも、第2の識別画像に基づいて生成されたそれぞれの養殖筏の面積が表示されている。 FIG. 13 is an example of the result of image analysis performed in the second example. (A) is the first identification image, and (B) is the second identification image. The identification images shown in (A) and (B) are enlarged and displayed for the sea areas of the culture rafts indicated by numbers 6-8. In addition, (A) displays the area of each culture raft generated based on the first identification image. Similar to (A), (B) also shows the area of each culture raft generated based on the second identification image.

図14は、第2の実施例において行った現地調査における実測値との比較結果を説明するための図である。(A)は、上記した二種類の画像解析方法のそれぞれにより得られる養殖筏の面積と、現地調査における養殖筏の面積の実測値とを比較するためのグラフである。(B)は、上記した二種類の画像解析方法のそれぞれにより得られる養殖筏の面積について実測値との差分を示した表である。(B)の表には、番号1~10で示す地点に設置されているそれぞれの養殖筏について、実測値との差分が示されている。 FIG. 14 is a diagram for explaining the result of comparison with actual measurement values in the field survey conducted in the second example. (A) is a graph for comparing the area of the culture raft obtained by each of the two types of image analysis methods described above and the measured value of the area of the culture raft in the field survey. (B) is a table showing the difference between the area of the culture raft obtained by each of the two types of image analysis methods described above and the measured value. Table (B) shows the difference from the measured values for each of the culture rafts installed at the points indicated by numbers 1 to 10.

(A)のグラフを参照すると、例えば番号6および番号10の養殖筏については、高精細画像を用いずに近赤外バンド画像に基づく画像解析により得られた面積の値は、実測値から約20%程度も広めに算出されていた。(B)の表を参照して、実測値による面積と、上記した二種類の画像解析方法のそれぞれにより得られる面積との差分の標準偏差を算出した。近赤外バンド画像に基づく画像解析については、標準偏差は11.21mであり、高精細画像に基づく画像解析については、標準偏差は3.60mであった。このことから、高精細画像に基づく画像解析の方が、得られる面積のばらつきが少ないことが確認された。 Referring to the graph of (A), for example, for culture rafts Nos. 6 and 10, the area values obtained by image analysis based on near-infrared band images without using high-definition images were calculated to be about 20% wider than the measured values. With reference to the table of (B), the standard deviation of the difference between the area obtained by the actual measurement and the area obtained by each of the two types of image analysis methods described above was calculated. For image analysis based on near-infrared band images, the standard deviation was 11.21 m2 , and for image analysis based on high-definition images, the standard deviation was 3.60 m2 . From this, it was confirmed that the image analysis based on the high-definition image has less variation in the area obtained.

以上、第2の実施例より、オブジェクトベース画像解析により養殖筏の台数を検出し、検出した養殖筏の面積を算出する場合には、近赤外バンド画像および高精細画像を用いて2段階のオブジェクトベース画像解析を行うことが好ましいことが示された。 As described above, according to the second embodiment, when the number of culture rafts is detected by object-based image analysis and the area of the detected culture rafts is calculated, it is shown that it is preferable to perform two-step object-based image analysis using a near-infrared band image and a high-definition image.

1(1A,1B) 画像解析装置
2 外部サーバ
8 衛星
9 対象物(養殖筏)
12 データ処理部
13 補助記憶装置
14 入力部
15 表示部
16 通信インタフェース部
21 近赤外バンド画像取得部
22 高精細画像取得部
23 マスク適用部
24 識別画像生成部
25 バッファ領域設定部
26 参照領域設定部
27 識別画像生成部
28 関連情報生成部
31 近赤外バンド画像
32 高精細画像(パンクロマチックバンド画像)
33 第1の識別画像
34 第2の識別画像
35 関連情報
41 対象物の領域
42 バッファ領域
43 参照領域
44 対象物の領域
N ネットワーク
P 画像解析プログラム
U 単位領域
1 (1A, 1B) Image analysis device 2 External server 8 Satellite 9 Object (aquaculture raft)
12 Data processing unit 13 Auxiliary storage device 14 Input unit 15 Display unit 16 Communication interface unit 21 Near-infrared band image acquisition unit 22 High-definition image acquisition unit 23 Mask application unit 24 Identification image generation unit 25 Buffer area setting unit 26 Reference area setting unit 27 Identification image generation unit 28 Related information generation unit 31 Near-infrared band image 32 High-definition image (panchromatic band image)
33 First identification image 34 Second identification image 35 Related information 41 Object area 42 Buffer area 43 Reference area 44 Object area N Network P Image analysis program U Unit area

Claims (8)

コンピュータに、
対象物を含む地球上の領域が撮像された近赤外バンド画像にオブジェクトベース画像解析を適用して、前記近赤外バンド画像において前記対象物の領域が識別された第1の識別画像を生成し、
前記第1の識別画像に基づいて、識別された前記対象物の領域を包含するバッファ領域を、前記近赤外バンド画像よりも高い解像度を有し、前記近赤外バンド画像と同一の前記地球上の領域が撮像された高精細画像に設定し、
前記バッファ領域を囲む参照領域を前記高精細画像に設定し、
前記高精細画像について、前記参照領域の輝度値を閾値として用いて、前記バッファ領域の範囲内で前記高精細画像にオブジェクトベース画像解析を適用して、前記高精細画像において前記対象物の領域が識別された第2の識別画像を生成し、
前記第の識別画像に基づいて、前記対象物に関連する関連情報を生成する、
処理を実行させるための、画像解析プログラム。
to the computer,
Applying object-based image analysis to a near-infrared band image in which a region on the earth including an object is captured to generate a first identification image in which the region of the object is identified in the near-infrared band image;
Based on the first identification image, a buffer area containing the identified object area is set to a high-definition image having a resolution higher than that of the near-infrared band image and having the same area on the earth as the near-infrared band image,
setting a reference area surrounding the buffer area to the high-definition image;
For the high-definition image, applying object-based image analysis to the high-definition image within the buffer area using the luminance value of the reference region as a threshold to generate a second identification image in which a region of the object is identified in the high-definition image;
generating relevant information related to the object based on the second identification image;
An image analysis program for processing.
前記高精細画像はパンクロマチックバンド画像である、請求項に記載の画像解析プログラム。 2. The image analysis program according to claim 1 , wherein said high definition image is a panchromatic band image. コンピュータに、
前記対象物の大きさおよび数の少なくともいずれかに関する情報を生成する処理を実行させる、請求項1または2に記載の画像解析プログラム。
to the computer,
3. The image analysis program according to claim 1 , causing execution of processing for generating information on at least one of the size and number of said objects.
コンピュータに、
前記近赤外バンド画像に対応付けられている撮像範囲の緯度および経度の情報に基づいて、前記対象物の位置に関する情報を生成する処理を実行させる、請求項1からのいずれかに記載の画像解析プログラム。
to the computer,
4. The image analysis program according to any one of claims 1 to 3 , which executes a process of generating information about the position of the object based on information about the latitude and longitude of the imaging range associated with the near-infrared band image.
コンピュータに、
前記近赤外バンド画像内の陸域の領域に画像マスクを適用する処理を実行させる、請求項1からのいずれかに記載の画像解析プログラム。
to the computer,
5. The image analysis program according to any one of claims 1 to 4 , causing a process of applying an image mask to a land region in said near-infrared band image.
前記対象物は、水域に浮遊する物体である、請求項1からのいずれかに記載の画像解析プログラム。 6. The image analysis program according to any one of claims 1 to 5 , wherein said object is an object floating in water. 対象物を含む地球上の領域が撮像された近赤外バンド画像にオブジェクトベース画像解析を適用して、前記近赤外バンド画像において前記対象物の領域が識別された第1の識別画像を生成する第1識別画像生成ステップと、
前記第1の識別画像に基づいて、識別された前記対象物の領域を包含するバッファ領域を、前記近赤外バンド画像よりも高い解像度を有し、前記近赤外バンド画像と同一の前記地球上の領域が撮像された高精細画像に設定するバッファ領域設定ステップと、
前記バッファ領域を囲む参照領域を前記高精細画像に設定する参照領域設定ステップと、
前記高精細画像について、前記参照領域の輝度値を閾値として用いて、前記バッファ領域の範囲内で前記高精細画像にオブジェクトベース画像解析を適用して、前記高精細画像において前記対象物の領域が識別された第2の識別画像を生成する第2識別画像生成ステップと、
前記第の識別画像に基づいて、前記対象物に関連する関連情報を生成する関連情報生成ステップと、
を含む、画像解析方法。
a first identification image generating step of applying object-based image analysis to a near-infrared band image in which an area on the earth including an object is captured to generate a first identification image in which the area of the object is identified in the near-infrared band image;
a buffer area setting step of setting a buffer area including the area of the identified object based on the first identification image to a high-definition image having a resolution higher than that of the near-infrared band image and capturing the same area on the earth as the near-infrared band image;
a reference area setting step of setting a reference area surrounding the buffer area in the high-definition image;
A second identification image generating step of generating a second identification image in which the target area is identified in the high-definition image by applying object-based image analysis to the high-definition image within the buffer area using the luminance value of the reference area as a threshold;
a related information generating step of generating related information related to the object based on the second identification image;
An image analysis method, comprising:
対象物を含む地球上の領域が撮像された近赤外バンド画像にオブジェクトベース画像解析を適用して、前記近赤外バンド画像において前記対象物の領域が識別された第1の識別画像を生成する第1識別画像生成部と、
前記第1の識別画像に基づいて、識別された前記対象物の領域を包含するバッファ領域を、前記近赤外バンド画像よりも高い解像度を有し、前記近赤外バンド画像と同一の前記地球上の領域が撮像された高精細画像に設定するバッファ領域設定部と、
前記バッファ領域を囲む参照領域を前記高精細画像に設定する参照領域設定部と、
前記高精細画像について、前記参照領域の輝度値を閾値として用いて、前記バッファ領域の範囲内で前記高精細画像にオブジェクトベース画像解析を適用して、前記高精細画像において前記対象物の領域が識別された第2の識別画像を生成する第2識別画像生成部と、
前記第の識別画像に基づいて、前記対象物に関連する関連情報を生成する関連情報生成部と、
を備える、画像解析装置。
a first identification image generation unit that applies object-based image analysis to a near-infrared band image in which an area on the earth including an object is captured to generate a first identification image in which the area of the object is identified in the near-infrared band image;
a buffer area setting unit that sets a buffer area that includes the area of the identified object based on the first identification image to a high-definition image having a higher resolution than the near-infrared band image and in which the same area on the earth as the near-infrared band image is captured;
a reference area setting unit that sets a reference area surrounding the buffer area to the high-definition image;
a second identification image generating unit that generates a second identification image in which the target area is identified in the high-definition image by applying object-based image analysis to the high-definition image within the range of the buffer area using the luminance value of the reference area as a threshold;
a related information generation unit that generates related information related to the object based on the second identification image;
An image analysis device comprising:
JP2019162614A 2019-09-06 2019-09-06 Image analysis program, image analysis method and image analysis device Active JP7313676B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019162614A JP7313676B2 (en) 2019-09-06 2019-09-06 Image analysis program, image analysis method and image analysis device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019162614A JP7313676B2 (en) 2019-09-06 2019-09-06 Image analysis program, image analysis method and image analysis device

Publications (2)

Publication Number Publication Date
JP2021043485A JP2021043485A (en) 2021-03-18
JP7313676B2 true JP7313676B2 (en) 2023-07-25

Family

ID=74861665

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019162614A Active JP7313676B2 (en) 2019-09-06 2019-09-06 Image analysis program, image analysis method and image analysis device

Country Status (1)

Country Link
JP (1) JP7313676B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2022196637A1 (en) 2021-03-17 2022-09-22

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007018387A (en) 2005-07-08 2007-01-25 Ntt Data Corp Apparatus and method for preparing map of green covering ratio, and program
JP2008226176A (en) 2007-03-15 2008-09-25 Toshiba Corp Thermal target tracking device and method
CN105184804A (en) 2015-10-12 2015-12-23 上海海大技术转移有限公司 Sea surface small target detection method based on airborne infrared camera aerially-photographed image
JP2018097506A (en) 2016-12-12 2018-06-21 株式会社日立製作所 Satellite image processing system and method

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11109013A (en) * 1997-10-06 1999-04-23 Mitsubishi Electric Corp Target-detecting device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007018387A (en) 2005-07-08 2007-01-25 Ntt Data Corp Apparatus and method for preparing map of green covering ratio, and program
JP2008226176A (en) 2007-03-15 2008-09-25 Toshiba Corp Thermal target tracking device and method
CN105184804A (en) 2015-10-12 2015-12-23 上海海大技术转移有限公司 Sea surface small target detection method based on airborne infrared camera aerially-photographed image
JP2018097506A (en) 2016-12-12 2018-06-21 株式会社日立製作所 Satellite image processing system and method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
若林 裕之 ほか,UAV搭載可視近赤外カメラを用いた猪苗代湖北部水域の水生植物モニタリング,第66回(令和元年度春季)学術講演会論文集[CD-ROM],一般社団法人日本リモートセンシング学会,2019年06月,第153-154頁

Also Published As

Publication number Publication date
JP2021043485A (en) 2021-03-18

Similar Documents

Publication Publication Date Title
Othman et al. Improving lithological mapping by SVM classification of spectral and morphological features: The discovery of a new chromite body in the Mawat ophiolite complex (Kurdistan, NE Iraq)
US10049434B2 (en) Systems and methods for object detection
JP4724247B2 (en) House change judgment method, house change judgment program, house change judgment image generation method, and house change judgment image
US11334986B2 (en) System and method for processing images of agricultural fields for remote phenotype measurement
Hayes et al. Drones and deep learning produce accurate and efficient monitoring of large-scale seabird colonies
Andrew et al. Semi‐automated detection of eagle nests: an application of very high‐resolution image data and advanced image analyses to wildlife surveys
Yamakita et al. Application of deep learning techniques for determining the spatial extent and classification of seagrass beds, Trang, Thailand
JP7313676B2 (en) Image analysis program, image analysis method and image analysis device
Collings et al. Depth from satellite images: depth retrieval using a stereo and radiative transfer-based hybrid method
Song et al. Remote sensing image spatiotemporal fusion via a generative adversarial network with one prior image pair
US20160267382A1 (en) Methods and devices for analysis of digital color images and methods of applying color image analysis
McNabb et al. Quantification and analysis of icebergs in a tidewater glacier fjord using an object-based approach
Zhang et al. Identification of parasite-host habitats in Anxiang county, Hunan Province, China based on multi-temporal China-Brazil earth resources satellite (CBERS) images
Collin et al. Mapping bathymetry, habitat, and potential bleaching of coral reefs using Sentinel-2
Yue et al. The optimal segmentation scale identification using multispectral WorldView-2 images
JP2015084192A (en) Forest physiognomy analyzing apparatus, forest physiognomy analyzing method, and program
Akhlaq et al. Comparative analysis of object-based and pixel-based classification of high-resolution remote sensing images for mapping coral reef geomorphic zones
RU2650700C1 (en) Method of aerospace geoinformation monitoring of natural and man-made objects with the application of the wavelet transform method for aerospace digital photographs
Wahyuni Forest change analysis using OBIA approach and supervised classification a case study: Kolaka District, South East Sulawesi
Arora et al. Incorporating Spectral Indices and Textural Features for Improved Classification Accuracy Towards Semi-Automated River Sand Mapping Using High-Resolution Multispectral Satellite Imagery
Burn et al. An improved procedure for detection and enumeration of walrus signatures in airborne thermal imagery
CN116229280B (en) Method and device for identifying collapse sentry, electronic equipment and storage medium
JP2021177262A (en) Restoration function adjustment system, data restoration device, restoration function adjustment method, restoration function generation method, and computer program
Kamal et al. Assessment of mangrove spatial structure using high-spatial resolution image data
Rasheed et al. Dugong Feeding Ecology and Habitat Use on Intertidal Banks of Port Curtis and Rodds Bay–Interim Progress Report 2015

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20190927

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220607

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230414

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230509

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230526

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230705

R150 Certificate of patent or registration of utility model

Ref document number: 7313676

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150