CN111611972A - 基于多视图多任务集成学习的作物叶片种类识别方法 - Google Patents
基于多视图多任务集成学习的作物叶片种类识别方法 Download PDFInfo
- Publication number
- CN111611972A CN111611972A CN202010485899.6A CN202010485899A CN111611972A CN 111611972 A CN111611972 A CN 111611972A CN 202010485899 A CN202010485899 A CN 202010485899A CN 111611972 A CN111611972 A CN 111611972A
- Authority
- CN
- China
- Prior art keywords
- learning
- view
- model
- models
- views
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 35
- 238000012795 verification Methods 0.000 claims abstract description 7
- 230000006870 function Effects 0.000 claims description 15
- 238000000605 extraction Methods 0.000 claims description 8
- 238000013135 deep learning Methods 0.000 claims description 7
- 238000010187 selection method Methods 0.000 claims description 2
- 238000012549 training Methods 0.000 abstract description 11
- 238000013136 deep learning model Methods 0.000 abstract description 4
- 201000010099 disease Diseases 0.000 description 17
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 17
- 238000013527 convolutional neural network Methods 0.000 description 16
- 238000011176 pooling Methods 0.000 description 6
- 230000011218 segmentation Effects 0.000 description 5
- 230000004913 activation Effects 0.000 description 4
- 230000003631 expected effect Effects 0.000 description 4
- 241000607479 Yersinia pestis Species 0.000 description 3
- 238000003708 edge detection Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000013461 design Methods 0.000 description 2
- 230000008014 freezing Effects 0.000 description 2
- 238000007710 freezing Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 241000238631 Hexapoda Species 0.000 description 1
- 238000012271 agricultural production Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 241000894007 species Species 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 208000024891 symptom Diseases 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于多视图多任务集成学习的作物叶片种类识别方法,该方法选取叶片图像作为原始数据集,并进行特征提取,得到若干视图下的数据集;利用CNN模型作为基学习器,对若干视图下的数据集与原始数据集分别进行单独的集成学习;然后固定所有基学习器的参数,并去除掉基学习器中全连接分类器的最后一层,然后将所有模型的输出拼接起来,并添加新的分类器,对若干视图进行联合特征选择,使得其验证集准确率达到期望,得到多个视图下的模型;再利用多任务学习,对叶片种类进行识别。本发明强化了模型的准确度和泛化能力,整体上解决了传统深度学习模型训练数据不足,模型简单地堆叠深度导致的泛化能力弱的问题。
Description
技术领域
本发明属于人工智能领域,在传统深度学习模型的基础上提出一种提高识别作物叶片及其存在病害效果的改进方法。
背景技术
当下粮食安全问题日益严峻。有许多因素正威胁着粮食安全,其中植物病害对全球范围的粮食安全构成严重威胁。以往对农作物病害的识别大多采用人工方式,但人工识别存在诸多不足。随着精准农业的兴起,运用信息技术辅助农业生产为农作物病害的识别提供了新思路,图像处理技术就是其中之一,其对农作物病害识别具有传统方法所不具备的各种优点,即实时性强、速度快、误判率低,甚至还可以及时提供防治病害传播的必要方法。
目前通过图像识别农作物病害的难点主要在于图像分割、特征提取与分类识别。
解决这些难点的主要方法有阈值分割法、边缘检测法、数学形态学法、支持向量机法与模糊聚类法等。尽管这些方法已经取得了很好的分类效果,但这些方法采用了传统的机器学习方法,通过使低级视觉特征与多种算法的结合来识别病害。这就导致它们也有一些局限性。
其中阈值分割法的特点是简单,执行效率高,但阈值的选取,作物病虫害区域的颜色、纹理等特征往往与非病害区域有着较大的差别。而边缘检测法的分割效率依赖于边缘检测算子,鲁棒性较差。数学形态学法的缺点则在于由各种几何基元的并集、交集和差集构成的目标与人类对形状的感觉有一定的差异。糊聚类法收敛速度慢、必须先确定分类数等局限件,支持向量机法的性能又过于依赖核函数和对样本的训练速度。此外以上方法提取特征时间点过于单一,大多数的特征提取都是在农作物病虫害症状十分明显时才进行,严重影响了实时性,不能做到早识别、早防治。而且对噪声和初始化数据的敏感这又导致分割精度产生的影响在具有复杂生长环境的农作物病害图像分割中尤为突出,例如当图像背景复杂或叶片呈粉状时,识别工作将很困难。同时,它们大多依赖手工制作的特征,无法解决语义问题间隙。
与它们相比CNN作为一个深度学习模型可以从数据中自动发现越来越高层次的特征,并且在许多不同领域都取得了显著的成功。尤其是在在图像识别领域,CNN在学习数据充足时有稳定的表现。对于一般的大规模图像分类问题,卷积神经网络可用于构建阶层分类器(hierarchical classifier),也可以在精细分类识别(fine-grained recognition)中用于提取图像的判别特征以供其它分类器进行学习。对于后者,特征提取可以人为地将图像的不同部分分别输入卷积神经网络,也可以由卷积神经网络通过无监督学习自行提取。这些资料均表明CNN在图像识别领域取得了巨大的成功,因此,近年来,有许多研究者利用CNN方法进行植物病害诊断。
目前,虽然基于深度学习的图像识别方法在准确率上已经强于很多传统算法,但大量的作物识别的模型依旧面对模型泛化能力一般的问题,其主要原因有二:一是数据集规模的限制。作物病害图片的人工获取和人工标注标签耗时耗力,导致可供模型训练的数据较少,传统解决方法是使用数据增强扩充数据集,但提高模型泛化能力的程度十分有限。二是大量的作物识别的模型只是简单的使用卷积神经网络与全连接层的简单堆叠,且都只是在单视图的思路下实现,然而,物体的不同视图描述了物体的不同特性,这一缺陷导致模型本身泛化能力不强。
发明内容
本发明为了解决现有技术中存在的问题,提供一种模型精度高且泛化能力强的基于多视图多任务集成学习的作物叶片种类识别方法。
为了达到上述目的,本发明提出的技术方案为:一种基于多视图多任务集成学习的作物叶片种类识别方法,
首先,选取叶片图像作为原始数据集,并对原始数据集进行特征提取,得到若干单一视图下的数据集;
然后,利用CNN模型作为基学习器,对若干单一视图下的数据集与原始数据集分别进行单独的集成学习;
单独集成学习完成后固定所有基学习器的参数,并去除掉所有基学习器中全连接分类器的最后一层,然后将所有CNN模型的输出拼接起来,并添加新的全连接分类器,对若干视图进行联合特征选择,使得其验证集准确率达到期望值,得到多个视图下的模型,完成多视图集成学习;
再利用多任务学习,共享不同任务已学到的特征表示,对叶片种类进行识别。
对上述技术方案的进一步设计为:所述基学习器的选取方法为:选取深度学习图像识别模型组成模型族,然后给模型族中的每个模型编号,再在这些模型中随机选择一定数量的模型来作为一个单一视图下数据集的所有基学习器;对于原始数据集,使用模型族中所有模型作为基学习器。
所述深度学习图像识别模型包括GoogleNet,VGG,Resnet等。
所述多视图集成学习中的损失函数为:
本发明的技术方案与现有技术相比,具有的有益效果为:
本发明采用了CNN集成学习,将多种成熟的CNN模型作为基学习器。基于此,利用多视图学习,针对作物叶片的边缘,灰度,纹理,质地和原始图片五个视图进行训练模型。最后又利用多任务学习,共享不同任务已学到的特征表示。强化了模型的准确度和泛化能力,整体上解决了传统深度学习模型训练数据不足,模型简单地堆叠深度导致的泛化能力弱的问题。
本专利采用了多任务学习,通过在所有任务之间共享隐藏层,同时保留特定任务的输出层来实现隐层参数的硬共享,使多个任务在并行训练中共享不同任务已学到的特征表示,降低了过拟合的风险。
附图说明
图1为本发明的模型设计图;
图2为本发明的模型训练流程图;
图3为VGG模型结构图;
图4为按灰度提取后的图片的集成学习模型;
图5为按纹理提取的图片;
图6为多视图学习结构图;
图7为多任务学习分类器。
具体实施方式
下面结合附图以及具体实施例对本发明进行详细说明。
本实施例的基于多视图多任务集成学习的作物叶片种类识别方法的模型设计如图1所示,步骤一、取叶片图像作为原始数据集,并对原始数据集进行特征提取,得到若干视图下的数据集;利用CNN模型作为基学习器,对若干视图下的数据集与原始数据集分别进行单独的集成学习;
原始数据集图片通过特定的卷积核可以得到不同视图下的图片,例如灰度,质地,边缘,纹理等(图5为展示了按纹理提取的新图片)。这些卷积核需要进行设计,如果我们想要得到图片纹理,我们可以设置卷积核的参数为(-1,0,1;-2,0,2;-1,0,1)。卷积核的参数可以根据具体任务的要求来设计。对原始数据集经过提取后,便可以得到若干不同视图下的数据集。
这些不同视图的图片连同原始图片在不同的视图中进行单独的训练。视图定义如公式(1)所示;
其中,视图的总数目为1+|view|,v0表示没有通过特征提取的视图,即原始图片,而vi(1≤i≤|view|)表示通过第i(1≤i≤|view|)种特征提取方式提取后的视图。
本实施例中模型训练过程如图2所示,集成学习的过程如下:
首先,我们定义一个模型族,模型族定义如公式(2)所示,其中模型的总数为||。
这里我们会用一些成熟的深度学习图像识别模型,如GoogleNet,VGG,Resnet等组成模型族。例如VGG深度卷积神经网络,它探索了卷积神经网络的深度和其性能之间的关系,通过反复的堆叠3*3的小型卷积核和2*2的最大池化层,成功的构建了16~19层深的卷积神经网络。目前为止,VGGNet依然被用来提取图像的特征。VGGNet的网络结构如图3所示。VGGNet包含很多级别的网络,深度从11层到19层不等,比较常用的是VGGNet-16和VGGNet-19。VGGNet把网络分成了5段,每段都把多个3*3的卷积网络串联在一起,每段卷积后面接一个最大池化层,最后面是3个全连接层和一个softmax层。
然后,给模型族中的每个模型编号,再在这些模型中随机选择一定数量的模型来作为一个视图下的所有基学习器。例如我们选取五个模型构成模型族,分别编号为1、2、3、4、5。例如,在灰度视图下,我们从模型族中选择三个模型作为灰度图像下的所有基学习器,假设随机选择为1、2、5,那么第1、2、5个模型将作为灰度图像的所有模型。在原始的视图下,我们将使用所有模型,而不进行随机选择。
对于模型族中的单个模型来说,需要根据我们自己的数据集的类别和规模来设计新的全连接分类器。如在keras框架下,我们可以根据具体的数据集的规模来设置多个全连接层,前几层全连接层的激活函数可以设置为“relu”,这几层的作用是用于特征的学习;最后一层设为“softmax”,这一层的作用是用于计算图片属于每一个类别的概率;然后我们需要冻结单个模型的部分卷积基。一般在深度学习中,将一个或三个卷积层和一个池化层作为一组,然后若干组构成卷积基。这里的冻结操作通常是冻结除了最后一组外的所有卷积层和池化层。在keras框架下,我们可以将卷积层(池化层)的trainable参数设置为False来冻结卷积层(池化层)。接下来,根据具体的数据集(不同视图对应的图片)训练模型,使得验证集的准确率达到期望的效果。接着解冻卷积基的最后几组,通常可以解冻最后第三组和第二组。我们可以将卷积层(池化层)的trainable参数设置为True来解冻卷积层(池化层)。最后联合训练模型,使得验证集地准确率达到期望的效果。在训练结束后我们将冻结整个基学习器(单个模型)。
在单个视图下,我们去除掉所有的基学习器中全连接分类器的最后一层,然后将所有的模型的输出(去除了最后一层后,输出的是特征,而不是类别)拼接起来,并添加新的分类器,然后将多个基学习器进行集成学习,使得其验证集准确率达到期望的效果,这样就可以得到单个视图下的集成学习模型,如图4所示。
步骤二、单个视图中,集成学习的效果达到预期后我们会固定单个视图下的所有基学习器的参数。之后去除掉所有的单个视图中全连接分类器的最后一层,然后将所有的模型的输出拼接起来,并添加新的分类器,然后将多个视图进行联合特征选择,使得其验证集准确率达到期望的效果,这样就可以得到多个视图下的模型,完成多视图的集成学习。部分结构如图6所示。
多视图集成学习中涉及的损失函数如下:
第i(0≤i≤|view|)个视图下的数据集我们定义为其中 由于图片的维度不确定,所以第j个样本xij的维度中的height与width不是确定的数(之后会对其进行预处理,使得基学习器的所有输入样本维度都相同,但允许不同的基学习器的输入样本有所差异。),而标签的维度都相同,都为类别总数K。
假设我们在第i个视图vi下,使用第t个基学习器mt,使用softmax进行多分类,损失函数使用多分类交叉熵,我们可以得到视图vi下的第j个样本在基学习器mt下属于第k类的概率为公式(3)
因此第j个样本的损失函数为
那么我们可以得到在第i个视图vi下在第t个基学习器mt下的损失函数为
由于我们在视图v0下使用所有的基学习器,而在第i(1≤i≤|view|)个视图下集成学习的模型是随机选择的,随机选择的总数为p(p<|model|)。我们可以得到视图v0下选择的模型为mi,m2,…,m|modej|,第i(1≤i≤|view|)个视图下选择的模型为我们在每个视图的每个模型下使用正则化约束则我们可以得到多视图下的损失函数为
总体的损失函数为:
步骤三、利用多任务学习,共享不同任务已学到的特征表示,对叶片种类进行识别。
多任务学习的核心思想是多个任务并行训练并共享不同任务已学到的特征表示,这样可以充分利用模型学习到的特征,也节省资源。如选定三个任务,分别为农作物的种类,病害的种类和病害的严重程度。在我们的网络中,我们将原始的全连接分类器的最后一层去除掉,然后在倒数第二层后添加图7所示的分类器,其中第一个任务用于农作物的种类的分类,在keras中可将最后一层的激活函数设为“softmax”,第二个任务用于病害的分类,在keras中可将最后一层的激活函数设为“softmax”,第三个用于预测病害的严重程度,在keras中可将最后一层的激活函数设为“mse”。然后将多视图学习后的模型参数固定,之后进行训练,使得其验证集准确率达到期望的效果,这样就可以实现多任务学习。多任务学习是一种归纳迁移方法,充分利用隐含在多个相关任务训练信号中的特定领域信息。在后向传播过程中,多任务学习允许共享隐层中专用于某个任务的特征被其他任务使用;多任务学习将可以学习到可适用于几个不同任务的特征,这样的特征在单任务学习网络中往往不容易学到。
本发明的技术方案不局限于上述各实施例,凡采用等同替换方式得到的技术方案均落在本发明要求保护的范围内。
Claims (4)
1.一种基于多视图多任务集成学习的作物叶片种类识别方法,其特征在于:
选取叶片图像作为原始数据集,并对原始数据集进行特征提取,得到若干单一视图下的数据集;
利用CNN模型作为基学习器,对若干单一视图下的数据集与原始数据集分别进行单独的集成学习;
单独集成学习完成后固定所有基学习器的参数,并去除掉所有基学习器中全连接分类器的最后一层,然后将所有CNN模型的输出拼接起来,并添加新的全连接分类器,对若干视图进行联合特征选择,使得其验证集准确率达到期望值,得到多个视图下的模型,完成多视图集成学习;
利用多任务学习,共享不同任务已学到的特征表示,对叶片种类进行识别。
2.根据权利要求1所述基于多视图多任务集成学习的作物叶片种类识别方法,其特征在于,所述基学习器的选取方法为:选取深度学习图像识别模型组成模型族,然后给模型族中的每个模型编号,再在这些模型中随机选择一定数量的模型来作为一个单一视图下数据集的所有基学习器;对于原始数据集,使用模型族中所有模型作为基学习器。
3.根据权利要求2所述基于多视图多任务集成学习的作物叶片种类识别方法,其特征在于:所述深度学习图像识别模型包括GoogleNet,VGG,Resnet等。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010485899.6A CN111611972B (zh) | 2020-06-01 | 2020-06-01 | 基于多视图多任务集成学习的作物叶片种类识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010485899.6A CN111611972B (zh) | 2020-06-01 | 2020-06-01 | 基于多视图多任务集成学习的作物叶片种类识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111611972A true CN111611972A (zh) | 2020-09-01 |
CN111611972B CN111611972B (zh) | 2024-01-05 |
Family
ID=72201702
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010485899.6A Active CN111611972B (zh) | 2020-06-01 | 2020-06-01 | 基于多视图多任务集成学习的作物叶片种类识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111611972B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112418219A (zh) * | 2020-11-24 | 2021-02-26 | 广东工业大学 | 一种服装面料裁片的颜色和形状识别方法及相关装置 |
CN112712106A (zh) * | 2020-12-07 | 2021-04-27 | 西安交通大学 | 基于多视图对抗自编码器的机械设备健康状态识别方法 |
CN113191391A (zh) * | 2021-04-07 | 2021-07-30 | 浙江省交通运输科学研究院 | 一种针对三维探地雷达图谱的道路病害分类方法 |
WO2023109319A1 (en) * | 2021-12-14 | 2023-06-22 | Ping An Technology (Shenzhen) Co., Ltd. | Systems and methods for crop disease diagnosis |
CN116523136A (zh) * | 2023-05-05 | 2023-08-01 | 中国自然资源航空物探遥感中心 | 基于多模型集成学习的矿产资源空间智能预测方法及装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106845549A (zh) * | 2017-01-22 | 2017-06-13 | 珠海习悦信息技术有限公司 | 一种基于多任务学习的场景与目标识别的方法及装置 |
CN109508650A (zh) * | 2018-10-23 | 2019-03-22 | 浙江农林大学 | 一种基于迁移学习的树种识别方法 |
-
2020
- 2020-06-01 CN CN202010485899.6A patent/CN111611972B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106845549A (zh) * | 2017-01-22 | 2017-06-13 | 珠海习悦信息技术有限公司 | 一种基于多任务学习的场景与目标识别的方法及装置 |
CN109508650A (zh) * | 2018-10-23 | 2019-03-22 | 浙江农林大学 | 一种基于迁移学习的树种识别方法 |
Non-Patent Citations (3)
Title |
---|
HOUJEUNG HAN ET AL.: "MULTI-VIEW VISUAL SPEECH RECOGNITION BASED ON MULTI TASK LEARNING", 《IEEE》 * |
何雪梅: "多视图聚类算法综述", 《软件导刊》 * |
许景辉等: "基于迁移学习的卷积神经网络玉米病害图像识别", 《农业机械学报》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112418219A (zh) * | 2020-11-24 | 2021-02-26 | 广东工业大学 | 一种服装面料裁片的颜色和形状识别方法及相关装置 |
CN112712106A (zh) * | 2020-12-07 | 2021-04-27 | 西安交通大学 | 基于多视图对抗自编码器的机械设备健康状态识别方法 |
CN112712106B (zh) * | 2020-12-07 | 2022-12-09 | 西安交通大学 | 基于多视图对抗自编码器的机械设备健康状态识别方法 |
CN113191391A (zh) * | 2021-04-07 | 2021-07-30 | 浙江省交通运输科学研究院 | 一种针对三维探地雷达图谱的道路病害分类方法 |
WO2023109319A1 (en) * | 2021-12-14 | 2023-06-22 | Ping An Technology (Shenzhen) Co., Ltd. | Systems and methods for crop disease diagnosis |
CN116523136A (zh) * | 2023-05-05 | 2023-08-01 | 中国自然资源航空物探遥感中心 | 基于多模型集成学习的矿产资源空间智能预测方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN111611972B (zh) | 2024-01-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111611972A (zh) | 基于多视图多任务集成学习的作物叶片种类识别方法 | |
CN110458844B (zh) | 一种低光照场景的语义分割方法 | |
CN112883839B (zh) | 基于自适应样本集构造与深度学习的遥感影像解译方法 | |
CN112347970B (zh) | 一种基于图卷积神经网络的遥感影像地物识别方法 | |
CN108052966A (zh) | 基于卷积神经网络的遥感图像场景自动提取和分类方法 | |
CN109741341A (zh) | 一种基于超像素和长短时记忆网络的图像分割方法 | |
CN106874862B (zh) | 基于子模技术和半监督学习的人群计数方法 | |
CN113705371B (zh) | 一种水上视觉场景分割方法及装置 | |
Kolli et al. | Plant disease detection using convolutional neural network | |
Chen-McCaig et al. | Convolutional neural networks for texture recognition using transfer learning | |
CN114612450A (zh) | 基于数据增广机器视觉的图像检测分割方法、***、电子设备 | |
CN110766082A (zh) | 一种基于迁移学习的植物叶片病虫害程度分类方法 | |
Yildirim et al. | REGP: A NEW POOLING ALGORITHM FOR DEEP CONVOLUTIONAL NEURAL NETWORKS. | |
Shkanaev et al. | Unsupervised domain adaptation for DNN-based automated harvesting | |
CN110853052A (zh) | 一种基于深度学习的土家织锦图案图元的分割方法 | |
CN115100509B (zh) | 基于多分支块级注意力增强网络的图像识别方法及*** | |
Hu et al. | Learning salient features for flower classification using convolutional neural network | |
CN111310838A (zh) | 一种基于深度Gabor网络的药效图像分类识别方法 | |
CN114581470B (zh) | 一种基于植物群落行为的图像边缘检测方法 | |
CN115511838A (zh) | 一种基于群智能优化的植物病害高精度识别方法 | |
CN113095235B (zh) | 一种基于弱监督判别机制的图像目标检测方法、***及装置 | |
Yu | Research progress of crop disease image recognition based on wireless network communication and deep learning | |
Gao et al. | Classification Method of Rape Root Swelling Disease Based on Convolution Neural Network | |
CN112907503A (zh) | 基于自适应卷积神经网络的南美白对虾品质检测方法 | |
Fan et al. | Corn Diseases Recognition Method Based on Multi-feature Fusion and Improved Deep Belief Network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |