JP7344987B2 - 農地画像に基づく畳み込みニューラルネットワーク構築方法及びそのシステム - Google Patents
農地画像に基づく畳み込みニューラルネットワーク構築方法及びそのシステム Download PDFInfo
- Publication number
- JP7344987B2 JP7344987B2 JP2021568572A JP2021568572A JP7344987B2 JP 7344987 B2 JP7344987 B2 JP 7344987B2 JP 2021568572 A JP2021568572 A JP 2021568572A JP 2021568572 A JP2021568572 A JP 2021568572A JP 7344987 B2 JP7344987 B2 JP 7344987B2
- Authority
- JP
- Japan
- Prior art keywords
- farmland
- image
- images
- neural network
- convolutional neural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013527 convolutional neural network Methods 0.000 title claims description 147
- 238000010276 construction Methods 0.000 title claims description 8
- 238000000034 method Methods 0.000 claims description 58
- 238000012549 training Methods 0.000 claims description 40
- 238000012360 testing method Methods 0.000 claims description 39
- 238000003709 image segmentation Methods 0.000 claims description 18
- 230000003321 amplification Effects 0.000 claims description 15
- 238000003199 nucleic acid amplification method Methods 0.000 claims description 15
- 238000010586 diagram Methods 0.000 claims description 14
- 238000012545 processing Methods 0.000 claims description 12
- 230000000694 effects Effects 0.000 claims description 8
- 230000004927 fusion Effects 0.000 claims description 8
- 238000005457 optimization Methods 0.000 claims description 8
- 238000006243 chemical reaction Methods 0.000 claims description 7
- 230000004913 activation Effects 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 6
- 238000007781 pre-processing Methods 0.000 claims description 5
- 238000002372 labelling Methods 0.000 claims 2
- 230000011218 segmentation Effects 0.000 description 10
- 230000006870 function Effects 0.000 description 6
- 238000011161 development Methods 0.000 description 5
- 230000018109 developmental process Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 238000001514 detection method Methods 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 241001124569 Lycaenidae Species 0.000 description 1
- 240000007594 Oryza sativa Species 0.000 description 1
- 235000007164 Oryza sativa Nutrition 0.000 description 1
- 238000012271 agricultural production Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000003912 environmental pollution Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000003306 harvesting Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000002420 orchard Substances 0.000 description 1
- 239000000575 pesticide Substances 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 235000009566 rice Nutrition 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 238000005507 spraying Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 235000013311 vegetables Nutrition 0.000 description 1
- 238000009333 weeding Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/2163—Partitioning the feature space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/188—Vegetation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30181—Earth observation
- G06T2207/30188—Vegetation; Agriculture
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
少なくとも1つの農地の1セットの農地画像を取得するステップ101と、
前記農地画像の各々に対応する標準的に分割された農地画像を取得するステップ102と、
前記農地画像及び対応する前記標準的に分割された農地画像をトレーニング画像セット及びテスト画像セットに分割するステップ103と、
前記トレーニング画像セットにおける前記農地画像及び対応する前記標準的に分割された農地画像を畳み込みニューラルネットワークの入力とし、農地画像に基づく畳み込みニューラルネットワークモデルを構築するステップ104と、
前記テスト画像セットにおける前記農地画像及び対応する前記標準的に分割された農地画像で、前記農地画像に基づく畳み込みニューラルネットワークモデルを認証し、前記農地画像に基づく畳み込みニューラルネットワークモデルのパラメータを最適化するステップ105と、を含む。
前記農地画像の各々及び対応する前記標準的に分割された農地画像をシングルチャンネルグレースケール画像に変換するステップ106と、
前記農地画像及び対応する前記標準的に分割された農地画像をそれぞれ前処理し、画像増幅処理に用いることで、画像の多様性を向上させる、ステップ107と、をさらに含む。
前記少なくとも1つの農地の少なくとも1つのビデオを取得するステップ1011と、
フレーム数に従って前記ビデオにおける前記農地画像を抽出するステップ1012と、
所定条件を満たさない前記農地画像を除去するステップ1013と、をさらに含む。
式中において、前記aiは、学習可能パラメータである。
前記トレーニング画像セットにおける前記農地画像及び対応する前記標準的に分割された農地画像のそれぞれを解像度が異なる複数種の画像に変換する1041と、
解像度が異なる複数種の画像のそれぞれを独立した複数のネットワークで処理して対応する特徴図を得る1042と、
複数の特徴図を同じ解像度の画像にズームし、ズーム後の複数の特徴画像を融合図に融合するステップ1043と、
前記融合図を畳み込みニューラルネットワークの入力とし、農地画像に基づく畳み込みニューラルネットワークモデルを構築するステップ1044とをさらに含む。
少なくとも1つの農地の1セットの農地画像を取得するステップ101と、
前記農地画像の各々に対応する標準的に分割された農地画像を取得するステップ102と、
前記農地画像及び対応する前記標準的に分割された農地画像をトレーニング画像セット及びテスト画像セットに分割するステップ103と、
前記トレーニング画像セットにおける前記農地画像及び対応する前記標準的に分割された農地画像を畳み込みニューラルネットワークの入力とし、農地画像に基づく畳み込みニューラルネットワークモデルを構築するステップ104と、
前記テスト画像セットにおける前記農地画像及び対応する前記標準的に分割された農地画像で、前記農地画像に基づく畳み込みニューラルネットワークモデルを認証し、前記農地画像に基づく畳み込みニューラルネットワークモデルのパラメータを最適化するステップ105と、を含むことを特徴とする、農地画像に基づく畳み込みニューラルネットワークモデルをさら提供する。
少なくとも1つの農地の1セットの農地画像を取得するための画像取得ユニットと、
前記農地画像を分割して対応する標準的に分割された農地画像を取得するための画像分割ユニットと、
前記農地画像及び対応する前記標準的に分割された農地画像に基づいて対応する農地画像に基づく畳み込みニューラルネットワークモデルを構築するためのネットワークモデル構築ユニットと、を含む。
農地のリアルタイム画像を取得するステップ301と、
前記リアルタイム画像を前記農地画像に基づく畳み込みニューラルネットワークモデルに入力し、前記リアルタイム画像に対応するリアルタイム分割画像を取得するステップ302と、を含み、
前記農地画像に基づく畳み込みニューラルネットワークモデルの構築方法は、
少なくとも1つの農地の1セットの農地画像を取得するステップ101と、
前記農地画像の各々に対応する標準的に分割された農地画像を取得するステップ102と、
前記農地画像及び対応する前記標準的に分割された農地画像をトレーニング画像セット及びテスト画像セットに分割するステップ103と、
前記トレーニング画像セットにおける前記農地画像及び対応する前記標準的に分割された農地画像を畳み込みニューラルネットワークの入力とし、農地画像に基づく畳み込みニューラルネットワークモデルを構築するステップ104と、
前記テスト画像セットにおける前記農地画像及び対応する前記標準的に分割された農地画像で、前記農地画像に基づく畳み込みニューラルネットワークモデルを認証し、前記農地画像に基づく畳み込みニューラルネットワークモデルのパラメータを最適化するステップ105と、を含む。
少なくとも1つの農地の1セットの農地画像110を取得するステップ101と、
前記農地画像110の各々に対応する標準的に分割された農地画像120を取得するステップ102と、
前記農地画像110及び対応する前記標準的に分割された農地画像120をトレーニング画像セット130及びテスト画像セット140に分割するステップ103と、
前記トレーニング画像セット130における前記農地画像110及び対応する前記標準的に分割された農地画像120を畳み込みニューラルネットワークの入力とし、農地画像に基づく畳み込みニューラルネットワークモデルを構築するステップ104と、
前記テスト画像セット140における前記農地画像110及び対応する前記標準的に分割された農地画像120で前記農地画像に基づく畳み込みニューラルネットワークモデルを認証し、前記農地画像に基づく畳み込みニューラルネットワークモデルのパラメータを最適化するステップ105と、を含む。
前記農地画像110及び対応する前記標準的に分割された農地画像120をシングルチャンネルグレースケール画像に変換するステップ106と、
前記農地画像110及び対応する前記標準的に分割された農地画像120をそれぞれ前処理し、画像増幅処理に用いることで、画像の多様性を向上させるステップ107と、をさらに含む。
前記少なくとも1つの農地の少なくとも1つのビデオを取得するステップ1011と、
フレーム数に従って前記ビデオにおける画像を抽出するステップ1012と、
所定条件を満たさない画像を除去するステップ1013と、をさらに含む、
式中において、前記aiは、学習可能パラメータである。
前記トレーニング画像セット130における前記農地画像110及び対応する前記標準的に分割された農地画像120のそれぞれを解像度が異なる複数種の画像に変換するステップ1041と、
解像度が異なる複数種の画像のそれぞれを独立した複数のネットワークで処理して対応する特徴図を得るステップ1042と、
複数の特徴図を同じ解像度の画像にズームし、ズーム後の複数の特徴画像を融合図に融合するステップ1043と、
前記融合図を畳み込みニューラルネットワークの入力とし、農地画像に基づく畳み込みニューラルネットワークモデルを構築するステップ1044と、をさらに含む。
少なくとも1つの農地の1セットの農地画像110を取得するための画像取得ユニット21と、
前記農地画像110を分割して対応する標準的に分割された農地画像120を取得するための画像分割ユニット22と、
前記農地画像110及び対応する前記標準的に分割された農地画像120に基づいて対応する農地画像に基づく畳み込みニューラルネットワークモデルを構築するためのネットワークモデル構築ユニット23と、を含む。
農地のリアルタイム画像を取得するステップ301と、
前記リアルタイム画像を前記農地画像に基づく畳み込みニューラルネットワークモデルに入力し、前記リアルタイム画像に対応するリアルタイム分割画像を取得しステップ302と、を含む。
少なくとも1つの農地の1セットの農地画像110を取得するステップ101と、
前記農地画像110の各々に対応する標準的に分割された農地画像120を取得するステップ102と、
前記農地画像110及び対応する前記標準的に分割された農地画像120をトレーニング画像セット130及びテスト画像セット140に分割するステップ103と、
前記トレーニング画像セット130における前記農地画像110及び対応する前記標準的に分割された農地画像120を畳み込みニューラルネットワークの入力とし、農地画像に基づく畳み込みニューラルネットワークモデルを構築するステップ104と、
前記テスト画像セット140における前記農地画像110及び対応する前記標準的に分割された農地画像120で前記農地画像に基づく畳み込みニューラルネットワークモデルを認証し、前記農地画像に基づく畳み込みニューラルネットワークモデルのパラメータを最適化するステップ105と、を含む。
少なくとも1つの農地の1セットの農地画像110を取得するステップ101と、
前記農地画像110の各々に対応する標準的に分割された農地画像120を取得するステップ102と、
前記農地画像110及び対応する前記標準的に分割された農地画像120をトレーニング画像セット130及びテスト画像セット140に分割するステップ103と、
前記トレーニング画像セット130における前記農地画像110及び対応する前記標準的に分割された農地画像120を畳み込みニューラルネットワークの入力とし、農地画像に基づく畳み込みニューラルネットワークモデルを構築するステップ104と、
前記テスト画像セット140における前記農地画像110及び対応する前記標準的に分割された農地画像120で前記農地画像に基づく畳み込みニューラルネットワークモデルを認証し、前記農地画像に基づく畳み込みニューラルネットワークモデルのパラメータを最適化するステップ105と、を含む。
Claims (12)
- 農地画像に基づく畳み込みニューラルネットワークの構築方法であって、
少なくとも1つの農地の1セットの農地画像を取得するステップ101と、
前記農地画像の各々に対応する標準的に分割された農地画像を取得するステップ102であって、画像マーキングツールにより前記農地画像の各々に対して画素点種別ラベル付けを行い、対応する前記標準的に分割された農地画像を作成するステップと、
前記農地画像及び対応する前記標準的に分割された農地画像をトレーニング画像セット及びテスト画像セットに分割するステップ103と、
前記トレーニング画像セットにおける前記農地画像を畳み込みニューラルネットワークの入力とし、前記農地画像における画素点種別を畳み込みニューラルネットワークの出力とする、農地画像に基づく畳み込みニューラルネットワークモデルを構築するステップ104と、
前記テスト画像セットにおける前記農地画像及び対応する前記標準的に分割された農地画像で、前記農地画像に基づく畳み込みニューラルネットワークモデルを認証し、前記農地画像に基づく畳み込みニューラルネットワークモデルのパラメータを最適化するステップ105と、を含み、
前記ステップ104は、
前記トレーニング画像セットにおける前記農地画像を解像度が異なる複数種の画像にそれぞれ変換するステップ1041と、
解像度が異なる複数種の画像のそれぞれを独立した複数のネットワークで処理して対応する特徴図を得るステップ1042と、
複数の特徴図を同じ解像度の画像にズームし、ズーム後の複数の特徴画像を融合図に融合するステップ1043と、
前記融合図を畳み込みニューラルネットワークの入力とし、農地画像に基づく畳み込みニューラルネットワークモデルを構築するステップ1044と、をさらに含む、ことを特徴とする農地画像に基づく畳み込みニューラルネットワークの構築方法。 - 前記ステップ102と前記ステップ103との間に、
前記農地画像の各々及び対応する前記標準的に分割された農地画像をシングルチャンネルグレースケール画像に変換するステップ106と、
前記農地画像及び対応する前記標準的に分割された農地画像をそれぞれ前処理し、画像増幅処理に用いることで、画像の多様性を向上させるステップ107と、をさらに含む、請求項1に記載の農地画像に基づく畳み込みニューラルネットワークの構築方法。 - 前記ステップ101は、
前記少なくとも1つの農地の少なくとも1つのビデオを取得するステップ1011と、
フレーム数に従って前記ビデオにおける前記農地画像を抽出するステップ1012と、
所定条件を満たさない前記農地画像を除去するステップ1013と、をさらに含む、請求項1に記載の農地画像に基づく畳み込みニューラルネットワークの構築方法。 - 前記ステップ103において、前記農地画像及び対応する前記標準的に分割された農地画像を8:2の比率で前記トレーニング画像セットと前記テスト画像セットに分割する、請求項1に記載の農地画像に基づく畳み込みニューラルネットワークの構築方法。
- 前記ステップ104において、前記畳み込みニューラルネットワークは、ENetネットワークであり、前記ENetネットワークの活性化関数としてprelu活性化関数が用いられ、
式中において、前記aiは、学習可能パラメータである、請求項1に記載の農地画像に基づく畳み込みニューラルネットワークの構築方法。 - 前記ステップ1041において、前記トレーニング画像セットにおける前記農地画像及び対応する前記標準的に分割された農地画像を、フル解像度480*640、ハーフ解像度240*320及び4分の3解像度360*480の3つの解像度の画像に変換する、請求項1に記載の農地画像に基づく畳み込みニューラルネットワークの構築方法。
- 前記ステップ1042において、フル解像度480*640の画像を改良されたENetネットワークで処理して対応する特徴図を取得し、ハーフ解像度240*320及び4分の3解像度360*480の画像をENetネットワークで処理して対応する特徴図を取得する、請求項6に記載の農地画像に基づく畳み込みニューラルネットワークの構築方法。
- 前記ステップ105において、最適化後のネットワークモデルのBatchNorm層のパラメータを畳み込み層に融合することで、モデルのテスト速度を向上させる、請求項1に記載の農地画像に基づく畳み込みニューラルネットワークの構築方法。
- 前記ステップ105において、最適化後のネットワークモデルの後にガウス条件付き確率場を追加して処理させることで、境界分割の効果をさらに細分化する、請求項1に記載の農地画像に基づく畳み込みニューラルネットワークの構築方法。
- 農地画像に基づく畳み込みニューラルネットワークモデルの構築システムであって、
少なくとも1つの農地の1セットの農地画像を取得するための画像取得ユニットと、
前記農地画像を分割して対応する標準的に分割された農地画像を取得するための画像分割ユニットであって、画像マーキングツールにより前記農地画像の各々に対して画素点種別ラベル付けを行い、対応する前記標準的に分割された農地画像を作成する画像分割ユニットと、
前記農地画像及び対応する前記標準的に分割された農地画像を所定比率でトレーニング画像セット及びテスト画像セットに分割する画像分割ユニットと、
前記農地画像に基づいて対応する農地画像に基づく畳み込みニューラルネットワークモデルを構築するためのネットワークモデル構築ユニットと、を含み、
前記ネットワークモデル構築ユニットは、モデル確立モジュールとモデル最適化モジュールと、をさらに含み、前記モデル確立モジュールは、前記トレーニング画像セットにおける前記農地画像を畳み込みニューラルネットワークの入力とし,前記農地画像における画素点種別を畳み込みニューラルネットワークの出力するとする、前記農地画像に基づく畳み込みニューラルネットワークモデルを構築し、前記モデル最適化モジュールは、前記テスト画像セットに基づいて前記畳み込みニューラルネットワークモデルを最適化させ、
前記農地画像に基づく畳み込みニューラルネットワークモデルの構築システムは、多解像度変換ユニットをさらに含み、前記多解像度変換ユニットは、前記農地画像を複数の異なる解像度の画像に変換し、解像度が異なる複数種の画像のそれぞれを独立した複数のネットワークで処理して対応する特徴図を得て、複数の特徴図を同じ解像度の画像にズームし、ズーム後の複数の特徴画像を融合図に融合し、
前記ネットワークモデル構築ユニットは、前記融合図を畳み込みニューラルネットワークの入力とし、農地画像に基づく畳み込みニューラルネットワークモデルを構築することを特徴とする農地画像に基づく畳み込みニューラルネットワークモデルの構築システム。 - 前記画像取得ユニット及び前記画像分割ユニットに作動可能に接続される、前記農地画像及び対応する前記標準的に分割された農地画像を対応するシングルチャンネルグレースケール画像に変換するための画像変換ユニットをさらに含む、請求項10に記載の農地画像に基づく畳み込みニューラルネットワークモデルの構築システム。
- 前記画像取得ユニット及び前記画像分割ユニットに作動可能に接続される、前記農地画像及び対応する前記標準的に分割された農地画像に対して増幅処理を行うための画像増幅ユニットをさらに含む、請求項11に記載の農地画像に基づく畳み込みニューラルネットワークモデルの構築システム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910411396.1 | 2019-05-17 | ||
CN201910411396.1A CN110969182A (zh) | 2019-05-17 | 2019-05-17 | 基于农田图像的卷积神经网络构建方法及其*** |
PCT/CN2019/107859 WO2020232942A1 (zh) | 2019-05-17 | 2019-09-25 | 基于农田图像的卷积神经网络构建方法及其*** |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022533168A JP2022533168A (ja) | 2022-07-21 |
JP7344987B2 true JP7344987B2 (ja) | 2023-09-14 |
Family
ID=70028419
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021568572A Active JP7344987B2 (ja) | 2019-05-17 | 2019-09-25 | 農地画像に基づく畳み込みニューラルネットワーク構築方法及びそのシステム |
Country Status (5)
Country | Link |
---|---|
US (1) | US12013917B2 (ja) |
EP (1) | EP3971767A4 (ja) |
JP (1) | JP7344987B2 (ja) |
CN (1) | CN110969182A (ja) |
WO (1) | WO2020232942A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112749747B (zh) * | 2021-01-13 | 2022-11-11 | 上海交通大学 | 垃圾分类质量评估方法及*** |
CN112686888A (zh) * | 2021-01-27 | 2021-04-20 | 上海电气集团股份有限公司 | 混凝土轨枕裂纹的检测方法、***、设备和介质 |
CN112686887A (zh) * | 2021-01-27 | 2021-04-20 | 上海电气集团股份有限公司 | 混凝土表面裂纹的检测方法、***、设备和介质 |
CN115272667B (zh) * | 2022-06-24 | 2023-08-29 | 中科星睿科技(北京)有限公司 | 农田图像分割模型训练方法、装置、电子设备和介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108710863A (zh) | 2018-05-24 | 2018-10-26 | 东北大学 | 基于深度学习的无人机航拍场景语义分割方法及*** |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10664702B2 (en) * | 2016-12-30 | 2020-05-26 | International Business Machines Corporation | Method and system for crop recognition and boundary delineation |
EP3573520A4 (en) * | 2017-01-27 | 2020-11-04 | Arterys Inc. | AUTOMATED SEGMENTATION USING FULLY CONVOLUTIVE NETWORKS |
CN107610141B (zh) * | 2017-09-05 | 2020-04-03 | 华南理工大学 | 一种基于深度学习的遥感图像语义分割方法 |
CN107680090A (zh) * | 2017-10-11 | 2018-02-09 | 电子科技大学 | 基于改进全卷积神经网络的输电线路绝缘子状态识别方法 |
CN108416353B (zh) * | 2018-02-03 | 2022-12-02 | 华中农业大学 | 基于深度全卷积神经网络的大田稻穗快速分割方法 |
CN108805874B (zh) * | 2018-06-11 | 2022-04-22 | 中国电子科技集团公司第三研究所 | 一种基于卷积神经网络的多光谱图像语义切割方法 |
CN109241817B (zh) * | 2018-07-02 | 2022-02-22 | 广东工业大学 | 一种无人机拍摄的农作物图像识别方法 |
CN109086799A (zh) * | 2018-07-04 | 2018-12-25 | 江苏大学 | 一种基于改进卷积神经网络模型AlexNet的作物叶片病害识别方法 |
CN109241872B (zh) * | 2018-08-20 | 2022-03-18 | 电子科技大学 | 基于多级网络的图像语义快速分割方法 |
AU2018101313A4 (en) * | 2018-09-07 | 2018-10-11 | Gao, Jiafan Mr | Image recognition of dangerous tools based on deep learning |
CN109614973A (zh) * | 2018-11-22 | 2019-04-12 | 华南农业大学 | 水稻秧苗及苗期杂草图像语义分割方法、***、设备和介质 |
CN109740631B (zh) * | 2018-12-07 | 2021-02-12 | 中国科学院东北地理与农业生态研究所 | 基于对象的obia-svm-cnn遥感影像分类方法 |
CN109711449A (zh) * | 2018-12-20 | 2019-05-03 | 北京以萨技术股份有限公司 | 一种基于全卷积网络的图像分类算法 |
CN109740465B (zh) * | 2018-12-24 | 2022-09-27 | 南京理工大学 | 一种基于实例分割神经网络框架的车道线检测算法 |
-
2019
- 2019-05-17 CN CN201910411396.1A patent/CN110969182A/zh active Pending
- 2019-09-25 JP JP2021568572A patent/JP7344987B2/ja active Active
- 2019-09-25 EP EP19929549.4A patent/EP3971767A4/en active Pending
- 2019-09-25 WO PCT/CN2019/107859 patent/WO2020232942A1/zh active Application Filing
-
2021
- 2021-11-15 US US17/526,357 patent/US12013917B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108710863A (zh) | 2018-05-24 | 2018-10-26 | 东北大学 | 基于深度学习的无人机航拍场景语义分割方法及*** |
Non-Patent Citations (1)
Title |
---|
Adam Paszke et al.,ENet: A Deep Neural Network Architecture for Real-Time Semantic Segmentation,arXiv:1606.02147v1,arxiv.org,2016年06月07日,https://arxiv.org/abs/1606.02147 |
Also Published As
Publication number | Publication date |
---|---|
US12013917B2 (en) | 2024-06-18 |
WO2020232942A1 (zh) | 2020-11-26 |
US20220076068A1 (en) | 2022-03-10 |
EP3971767A4 (en) | 2023-02-01 |
CN110969182A (zh) | 2020-04-07 |
EP3971767A1 (en) | 2022-03-23 |
JP2022533168A (ja) | 2022-07-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7344987B2 (ja) | 農地画像に基づく畳み込みニューラルネットワーク構築方法及びそのシステム | |
Wang et al. | Ultra-dense GAN for satellite imagery super-resolution | |
Khaki et al. | WheatNet: A lightweight convolutional neural network for high-throughput image-based wheat head detection and counting | |
CN111126287B (zh) | 一种遥感影像密集目标深度学习检测方法 | |
CN111583263A (zh) | 一种基于联合动态图卷积的点云分割方法 | |
Li et al. | Evaluating generative adversarial networks based image-level domain transfer for multi-source remote sensing image segmentation and object detection | |
Bao et al. | UAV remote sensing detection of tea leaf blight based on DDMA-YOLO | |
CN109766805A (zh) | 一种基于深度学习的双层车牌字符识别方法 | |
WO2023030182A1 (zh) | 图像生成方法及装置 | |
CN113378756B (zh) | 一种三维人体语义分割方法、终端设备及存储介质 | |
CN113449612B (zh) | 一种基于子流型稀疏卷积的三维目标点云识别的方法 | |
Li et al. | A robot vision navigation method using deep learning in edge computing environment | |
Mohmmad et al. | A survey machine learning based object detections in an image | |
Cao et al. | Improved real-time semantic segmentation network model for crop vision navigation line detection | |
Xiao et al. | Deep learning-based spatiotemporal fusion of unmanned aerial vehicle and satellite reflectance images for crop monitoring | |
CN116343052B (zh) | 一种基于注意力和多尺度的双时相遥感图像变化检测网络 | |
CN115018039A (zh) | 一种神经网络蒸馏方法、目标检测方法以及装置 | |
CN110751271B (zh) | 一种基于深度神经网络的图像溯源特征表征方法 | |
Lu et al. | Citrus green fruit detection via improved feature network extraction | |
Zhao et al. | A novel strategy for pest disease detection of Brassica chinensis based on UAV imagery and deep learning | |
Qian et al. | Pedestrian feature generation in fish-eye images via adversary | |
CN117649610B (zh) | 一种基于YOLOv5的害虫检测方法及*** | |
Bai et al. | Rpnet: Rice plant counting after tillering stage based on plant attention and multiple supervision network | |
Zhu et al. | Identification of table grapes in the natural environment based on an improved Yolov5 and localization of picking points | |
Li et al. | Fruit tree canopy segmentation from UAV orthophoto maps based on a lightweight improved U-Net |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211116 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221004 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221228 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230314 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230525 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230815 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230904 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7344987 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |