CN115512232B - 一种农作物种子发芽情况识别模型、构建方法及其应用 - Google Patents

一种农作物种子发芽情况识别模型、构建方法及其应用 Download PDF

Info

Publication number
CN115512232B
CN115512232B CN202211479034.4A CN202211479034A CN115512232B CN 115512232 B CN115512232 B CN 115512232B CN 202211479034 A CN202211479034 A CN 202211479034A CN 115512232 B CN115512232 B CN 115512232B
Authority
CN
China
Prior art keywords
seed
image
seeds
germination
hyperspectral
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202211479034.4A
Other languages
English (en)
Other versions
CN115512232A (zh
Inventor
陈渝阳
朱旭华
周希杰
刘荣利
王闯
谢朝明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Top Cloud Agri Technology Co ltd
Original Assignee
Zhejiang Top Cloud Agri Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Top Cloud Agri Technology Co ltd filed Critical Zhejiang Top Cloud Agri Technology Co ltd
Priority to CN202211479034.4A priority Critical patent/CN115512232B/zh
Publication of CN115512232A publication Critical patent/CN115512232A/zh
Application granted granted Critical
Publication of CN115512232B publication Critical patent/CN115512232B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/194Terrestrial scenes using hyperspectral data, i.e. more or other wavelengths than RGB
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • G06V10/765Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects using rules for classification or partitioning the feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/188Vegetation
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A40/00Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
    • Y02A40/10Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in agriculture

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Biomedical Technology (AREA)
  • Remote Sensing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)
  • Pretreatment Of Seeds And Plants (AREA)

Abstract

本申请提出了一种农作物种子发芽情况识别模型、构建方法及其应用,获取包含种子的高光谱图像,其中高光谱图像中标记每一所述种子的发芽标签,种子置于包含网格的纸张上拍摄高光谱图像;对高光谱图像进行分割,得到每一种子的位置信息,位置信息包括种子所包含的像素坐标和种子位置二值图像;匹配位置信息和发芽标签,提取每颗种子在高光谱图像中的种子特征图像;自适应填充每一种子特征图像得到对应的填充特征图像;填充特征图像作为训练集,训练集输入到改进的深度卷积神经网络中进行训练得到农作物种子发芽情况识别模型,其中种子发芽情况作为输出结果,可结合高光谱分割图像和深度神经网络提高农作物种子发芽率识别率。

Description

一种农作物种子发芽情况识别模型、构建方法及其应用
技术领域
本申请涉及图像识别领域,特别是涉及一种农作物种子发芽情况识别模型、构建方法及其应用。
背景技术
作物种子的质量将会影响作物的产量。目前国内主要通过作物种子的发芽率作为种子质量的指标,种子发芽率是指在一定条件下,能发芽的种子数占实验种子总数量的比例,若能通过合适的方法有效的提升种子发芽识别率,在播种前尽量的将那些失活种子剔除,将会带来巨大的经济收益。因此,如何提高种子发芽识别率具有重要意义。
目前,快速测定种子发芽率的方法包括电导率测定、冷浸法、热浸法、感观法、吸涨法等。但这些方法需要花费较长时间,测定过程需要借助特定的仪器设备或试剂才能完成,测定过程也很复杂。近年来,高光谱技术也被普遍应用在种子发芽率识别上,有学者将高光谱成像技术应用到发芽率识别方法中,比如中国专利CN201010514132.8 公布了基于高光谱图像技术的粮粒含水率检测方法,中国专利CN201210090171.9 公布了高光谱反射图像采集***及基于该***的玉米种子纯度无损检测方法,安徽农业科学学术期刊中发表了文章高光谱技术在常规农作物种子活力检测中的应用。上述的这些专利采用的是传统的识别算法,这对特征的选取要求比较高,且有一定局限性,泛化性不能保证,不能很好地自动学习精确的特征表达。
随着深度卷积神经网络研究的成熟,深度学习被广泛的应用在场景识别、物体检测问题中,深度卷积神经网络识别的效率也越来越快、准确率越来越高。也有学者将浅层的神经网络和多光谱或高光谱图像技术相结合的方法去提升种子发芽识别率,如专利CN201910247893.2一种基于高光谱成像和人工神经网络的农作物种子发芽能力的检测方法,并未对输入网络的高光谱图像进行细致的分割处理,且使用了较浅层的神经网络,无法学习到具有代表性的语义信息。
因此,如何有效的结合高光谱分割图像和深层卷积神经网络提升种子发芽识别率成为亟待解决的问题。
发明内容
本申请实施例提供了一种农作物种子发芽情况识别模型、构建方法及其应用,提供了一种可有效地结合高光谱分割图像和深层卷积神经网络提升种子发芽识别率的农作物种子发芽情况识别模型。
第一方面,本申请实施例提供了一种农作物种子发芽情况识别模型的构建方法,包括:
S1:获取包含种子的高光谱图像,其中所述高光谱图像中标记每一所述种子的发芽标签,种子置于包含网格的纸张上拍摄高光谱图像;
S2:对所述高光谱图像进行分割,得到每一所述种子的位置信息,所述位置信息包括种子所包含的像素坐标和种子位置二值图像;
S3:匹配所述位置信息和所述发芽标签,提取所述每颗种子在所述高光谱图像中的种子特征图像;
S4:自适应填充每一所述种子特征图像得到对应的填充特征图像;
S5:所述填充特征图像作为训练集,所述训练集输入到改进的深度卷积神经网络中进行训练得到农作物种子发芽情况识别模型,其中种子发芽情况作为输出结果。
第二方面,本申请实施例提供了一种农作物种子发芽情况识别模型,其特征在于,根据所述的农作物种子发芽情况识别模型的构建方法构建得到。
第三方面,本申请实施例提供一种提高农作物种子发芽情况识别率的识别方法,包括以下步骤:获取待测种子的高光谱图像,将所述高光谱图像输入到所述的农作物种子发芽情况识别模型中得到输出结果,基于所述输出结果判断待测种子的发芽情况。
第四方面,本申请实施例提供一种提高农作物种子发芽情况识别率的识别装置,包括:获取单元,用于获取待测种子的高光谱图像;检测单元,用于将所述高光谱图像输入到上述构建的农作物种子发芽情况识别模型中得到输出结果,基于所述输出结果判断待测种子的发芽情况。
第五方面,本申请实施例提供一种可读存储介质,所述可读存储介质中存储有计算机程序,所述计算机程序包括用于控制过程以执行过程的程序代码,所述过程包括所述的农作物种子发芽情况识别模型的构建方法或所述的提高农作物种子发芽情况识别率的识别方法。
本发明的主要贡献和创新点如下:
本申请实施例采用的分割算法能够充分滤除噪声区域,充分分割出目标区域信息,为后续标签匹配和模型训练夯实基础;本方案提供的深度卷积网络部分具有几大特点:1.网络接受可变输入尺寸:接受可变输入尺寸网络,不仅减少网络的计算量,而且降低网络训练时间及训练网络硬件成本;2.特征融合:本专利在深度卷积网络选取最佳特征后进行一维特征的融合,不增加网络的计算量和参数量;3.自适应填充:得到不改变原始图片大小的前提下,得到符合网络的最小输入尺寸图片,降低网络训练时间,提升识别速度。
本申请的一个或多个实施例的细节在以下附图和描述中提出,以使本申请的其他特征、目的和优点更加简明易懂。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1是本发明的农作物种子发芽情况识别模型的构建方法的流程示意图。
图2是本发明种子高光谱灰度图。
图3是本发明阈值分割和自适应阈值分割融合图。
图4是本发明初步分割二值图。
图5是本发明纸张内网格区域二值图。
图6是本发明每张纸中种子位置分割二值图。
图7是本发明每颗种子和发芽结果的对应图。
图8是本发明输入网络的种子自适应缩放填充图。
图9是本发明的种子自适应缩放过程示意图。
图10是本发明的农作物种子发芽情况识别模型的结构示意图。
图11是本方案的电子装置的示意图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本说明书一个或多个实施例相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本说明书一个或多个实施例的一些方面相一致的装置和方法的例子。
需要说明的是:在其他实施例中并不一定按照本说明书示出和描述的顺序来执行相应方法的步骤。在一些其他实施例中,其方法所包括的步骤可以比本说明书所描述的更多或更少。此外,本说明书中所描述的单个步骤,在其他实施例中可能被分解为多个步骤进行描述;而本说明书中所描述的多个步骤,在其他实施例中也可能被合并为单个步骤进行描述。
实施例一
本申请旨在提出一种可结合高光谱分割图像和深度神经网络提高农作物种子发芽率识别率的方法,本方案所指代的农作物可以是水稻、大麦等。值得一提的是,本方案是通过对改进的深度卷积神经网络进行改进后,利用自适应的填充特征图像对深度卷积神经网络进行训练后得到可提高农作物种子发芽识别率的农作物种子发芽情况识别模型,利用该模型对农作物图像进行测试即可准确地判断农作物是否发芽。
参考图1,本方案提供的农作物种子发芽情况识别模型的构建方法包括:
S1:获取包含种子的高光谱图像,其中所述高光谱图像中标记每一所述种子的发芽标签,种子置于包含网格的纸张上拍摄高光谱图像;
S2:对所述高光谱图像进行分割,得到每一所述种子的位置信息,所述位置信息包括种子所包含的像素坐标和种子位置二值图像;
S3:匹配所述位置信息和所述发芽标签,提取所述每颗种子在所述高光谱图像中的种子特征图像;
S4:自适应填充每一所述种子特征图像得到对应的填充特征图像;
S5:所述填充特征图像作为训练集,所述训练集输入到改进的深度卷积神经网络中进行训练得到农作物种子发芽情况识别模型,其中种子发芽情况作为输出结果。
在步骤S1中,获取包含种子的高光谱图像的具体步骤为:选择一批种子,将其放在包含网格的纸张上,然后将纸张放在高光谱装置的拍摄平台上,在光照条件稳定的环境中,用黑白矫正后的高光谱相机拍摄得到包含种子的高光谱图像,其中高光谱相机的波长范围为400~1000nm,包含462个波段。
在一具体的示例中,选取1500颗水稻种子,以96颗种子为一批,将其放在包含24*4网格的纸张上,一个网格中放置一颗种子,然后将其放在高光谱装置的拍摄平台上,在光照条件稳定的环境中,使用RESONON公司的PIKA XC2高光谱相机进行黑白矫正后进行拍摄,该高光谱相机的波长范围为400~1000nm,包含462个波段,拍摄后得到种子高光谱图像。
本方案之所以选用高光谱图像,是由于高光谱图像可得到多个波段的特征信息,这样有利于后续的深度卷积神经网络对其进行学习到更具代表性的特征,以提高种子发芽识别率。
值得说明的是,用于拍摄高光谱图像的种子是处于未发芽状态的,需要对种子进行标准发芽试验得到每颗种子的发芽情况,并将发芽情况作为所述种子的发芽标签。其中发芽种子的发芽标签记为1,未发芽种子的发芽标签记为0。
由于本方案需要标记每颗种子的发芽情况,故本方案还需要将拍摄高光谱图像的种子置于55℃的温热水中浸泡10分钟,然后将水温降至30℃浸泡3小时,将其取出后放置在恒温光照培养箱中进行发芽试验,得到每颗种子的发芽结果,若种子长出3mm及以上的小芽则为种子发芽,否则为种子未发芽。
在步骤S2中,由于原始拍摄的高光谱图像可能会包含纸张边缘线、网格线、杂质等无关信息,此处无关信息对应给的网格线是控制台网格部分,无法直接输入到深度卷积神经网络中训练,故需要对高光谱图像进行分割,以分割出每颗种子的位置信息,去掉无关信息,进而起到加速深度卷积神经网络训练速度,提高模型的识别效果的效果。但由于无法对高光谱图像直接进行分割处理,故需要拆分高光谱图像得到每个波段的灰度图,拆分种子灰度图不影响种子在图中的位置信息。
具体的,步骤S2进一步包括步骤:
S21:拆分所述高光谱图像得到每个波段的灰度图,对灰度图进行阈值分割和自适应分割操作得到分割二值图像,融合所述分割二值图像得到第一图像Image1。
在该步骤中,由于阈值分割对于光照不均的图像,分割效果较差,所以使用自适应分割降低光照对图像分割的影响,并对两种分割的结果进行融合,得到较好的粗分割图像,提升后续分割种子的效率。
如图2和图3所示,图2是对高光谱图像的灰度图的示意图,图3是融合的第一图像示意图。在一具体的示例中,阈值分割的阈值选择为40,自适应阈值分割选择局部邻域块平均值算法,阈值为150的二进制阈值方法。
S22:对第一图像Image1进行腐蚀和膨胀操作去除第一图像中所有的网格线,初步分割出显示种子位置和纸张边缘轮廓位置的第一二值图像Image2;第一二值图像的示意图如图4所示,此时的网格线指的是控制台网格部分。
S23:对阈值分割后的第一图像Image1做孔洞填充和形态学操作,得到网格区域内所包含的所有像素坐标,进而得到网格区域,其中网格区域指的是纸张上的网格部分;
值得一提的是,如图2所示,第一图像中存在两个网格部分,分别为控制台网格部分和纸张内网格部分,步骤S22中去除控制台网格部分的无用信息,步骤S23获取纸张内网格部分围成的区域。
S24:根据所述网格区域的轮廓信息,将所述网格区域绘制在和所述高光谱图像大小相同的黑色图像上,得到一张网格区域为白色,其他区域为黑色的第二二值图像mask;第二二值图像mask如图5所示。
S25:对第一二值图像Image2和第二二值图像mask中每个像素进行二进制与操作,得到网格区域内种子的分割二值图像Image3;
S26:对得到的分割二值图像Image3进行连通域面积过滤去除杂质,得到分割较好的位置信息,所述位置信息包括每颗种子所包含的像素坐标和种子位置二值图像,种子二值图像如图6所示。
本方案提供的分割方案降低了分割难度,尤其是校正思路能准确有效处理种子摆放过程中粘连造成的标签关联问题,即便种子存在粘连等不规范操作情况,也能够完好地将其逐个提取出来,一方面提高了分割的准确性并为后继分类模型训练作保障,另一方面降低了使用人员的操作难度。
进一步地,输入深度卷积神经网络的数据除每颗种子的填充特征图像以外还包含发芽标签,为了将发芽试验的结果和高光谱图像的分割种子对应,将分割得到每颗种子进行排序,然后将排序后的种子和发芽结果进行对应。本方案采用自动匹配的方式实现种子数据及标签的自动化匹配,可降低人工参与度,提高过程的准确性。
具体的,步骤S3进一步包括步骤:
S31:校正所述位置信息对应的网格的最小矩阵框得到网格矩阵框:
此处的网格指的是纸张内的网格,即96颗种子所在的网格区域。由于纸张内放种子的网格部分相较于水平轴是歪的,根据水平角度矫正,这部分操作与后续判断种子顺序对应标签有关。
计算所述位置信息对应的网格的最小矩形框,得到最小矩形框与水平轴的旋转角度,通过仿射变换对所述最小矩形框的四个顶点坐标进行矫正,得到矫正后的最小矩形框的顶点坐标;
S32:获取每颗种子的中心点至所述网格矩阵框的边界线的距离,并得到每颗种子对应的正外接矩形框:
根据所述网格矩形框的顶点坐标,以网格矩形框的上边沿和右边沿为边界线,计算每颗种子中心点到网格矩形框的边界线的距离,并计算每颗种子正外接矩形框;
S33:依据每颗种子的中心点距离所述网格矩阵框的边界线的距离,排序所述种子:
将得到网格矩形框划分为几列,根据种子中心点到网格右边沿的距离判断种子属于哪一列,然后再根据种子中心点到网格上边沿的距离从小到大排序,得到排序后的种子;
S34:基于排序后的种子判断种子是否重叠,去除重叠的种子得到排序后可用的种子信息,所述种子信息中包含每颗种子的顺序编号及每颗种子正外接矩形所包含的像素坐标;
S35:读取所述种子的发芽标签,将所述发芽标签和种子的顺序编号一一对应;
S36:根据每颗种子的正外接矩形的像素坐标和旋转角度,在所述高光谱图像的每个波段上提取特征,得到每颗种子的高光谱特征及其对应的发芽标签,所述高光谱特征组成的种子特征图像。得到的种子特征图像如图7所示。其中种子特征图是由96颗种子每个像素点的高光谱特征组成。
进一步的,由于每颗种子的图像较小,使用自适应缩放可生成不改变种子图像长宽比且满足深度神经网络输入的最小填充图像;在步骤S4中,利用自适应缩放的方式实现自适应填充每一所述种子特征图像得到对应的填充特征图像。
如图9所示,具体的,自适应缩放的公式如下所示:
其中padding表示种子特征图像的短边上下各自填充的长度,填充部分灰度值为0;N表示网络要求的输入大小;H、W分别表示种子特征图像的高和宽;max(H,W)、min(H, W)分别表示选取H、W中最大值和最小值;S表示深度卷积神经网络下采样的倍数;mod S表示除以S取余数。
本方案这种填充方式在网络输出结果相同的情况下,输入面积相较普通填充图像而言减少了很多,故这部分的卷积操作的计算量就被减少了。
通过改进的深度卷积神经网络,使网络可接受不同尺寸的填充图像,降低深度卷积神经网络的计算量,减少模型的训练时间。另外,本方案为了使得使训练的正负样本数据平衡,统计出1500颗种子中未发芽的种子数量,然后随机筛选出相同数量的发芽种子作为数据样本,将数据样本按6:2:2的比例随机划分为训练集、验证集和测试集。
在步骤S5中,所述深度学***均池化层,网络其它层结构不变,构建深度卷积神经网络。也就是说,本方案将网络中的平均池化层修改为空间金字塔池化层。
其中,空间金字塔池化层的具体操作如下:空间金字塔多尺度输出特征个数为14,即对上一层输入的特征图分别进行1*1、2*2、3*3网格划分,在每个网络映射的原特征图进行最大池化操作得到每个网格的特征值,将得到的特征值在通道方向上进行融合,得到一个1*14的特征。
本方案改进的深度学习卷积网络模型的结构如图10所示,其中填充特征图像输入到ResNet34残差模块中提取特征,将ResNet34网络的最后一个残差模块Conv5_x模块得到的每一特征图分别按照1*1,2*2,4*4网格划分,对每个网格进行最大池化操作得到一个特征值,将每个网络的特征值在通道方向上进行融合,得到长度为21*C的一维特征,一维特征输入到全连接层得到一个二维数值,判断二维数值的大小,得到最终的识别结果。
将自适应缩放得到的填充特征图像作为改进的深度学习卷积网络的输入,每颗种子对应的发芽结果作为输出,设置初始化参数,选择Adam作为优化器,交叉熵作为损失函数,训练网络,将训练中迭代次数和每次迭代得到的损失大小、训练精确度、验证精确度制作成图表,可根据图表防止网络训练过拟合或者欠拟合,得到训练效果较好的农作物种子发芽情况识别模型。
为了证明训练模型具有较好的泛化能力,且在其他样本中也有较好的表现,需要将其对测试集样本进行预测,其中测试集样本同于训练集样本的内容,以测试集的测试结果为标准计算每个模型的精准度,选择精准度最大的模型作为最优模型。将结果与测试集的实际发芽结果进行对比,统计正确预测发芽种子和未发芽种子、实际为发芽种子但预测为未发芽种子、实际为未发芽种子但预测为发芽种子四种情况的种子个数;其中,发芽种子正确预测成发芽种子记为TP,未发芽种子正确预测成未发芽种子记为TN,发芽种子错误预测成未发芽种子记为FN,未发芽种子错误预测成发芽种子记为FP,根据统计的结果中的TP和FP计算模型精确率,选择测试集上精确率最大的模型作为最佳识别模型。精确率计算公式如下所示:其中P表示精准率。
使用上述得到的最佳识别模型对待测水稻种子高光谱图像进行发芽识别,可快速准确地筛选出能发芽种子和不能发芽种子,返回1表示预测种子发芽,0表示预测种子未发芽。
实施例二
基于相同的构思,本申请还提出了一种农作物种子发芽情况识别模型,根据实施例一记载的农作物种子发芽情况识别模型的构建方法构建得到。
实施例三
本方案提供一种提高农作物种子发芽情况识别率的识别方法,包括以下步骤:
获取待测种子的高光谱图像,将所述高光谱图像输入到实施例二构建的农作物种子发芽情况识别模型中得到输出结果,基于所述输出结果判断待测种子的发芽情况。
实施例四
基于相同的构思,本申请还提出了一种提高农作物种子发芽情况识别率的识别装置,包括:
获取单元,用于获取待测种子的高光谱图像;
检测单元,用于将所述高光谱图像输入到实施例二构建的农作物种子发芽情况识别模型中得到输出结果,基于所述输出结果判断待测种子的发芽情况。
实施例五
本实施例还提供了一种电子装置,参考图11,包括存储器404和处理器402,该存储器404中存储有计算机程序,该处理器402被设置为运行计算机程序以执行上述任一项农作物种子发芽情况识别模型的构建方法实施例中的步骤。
具体地,上述处理器402可以包括中央处理器(CPU),或者特定集成电路(ApplicationSpecificIntegratedCircuit,简称为ASIC),或者可以被配置成实施本申请实施例的一个或多个集成电路。
其中,存储器404可以包括用于数据或指令的大容量存储器404。举例来说而非限制,存储器404可包括硬盘驱动器(HardDiskDrive,简称为HDD)、软盘驱动器、固态驱动器(SolidStateDrive,简称为SSD)、闪存、光盘、磁光盘、磁带或通用串行总线(UniversalSerialBus,简称为USB)驱动器或者两个或更多个以上这些的组合。在合适的情况下,存储器404可包括可移除或不可移除(或固定)的介质。在合适的情况下,存储器404可在数据处理装置的内部或外部。在特定实施例中,存储器404是非易失性(Non-Volatile)存储器。在特定实施例中,存储器404包括只读存储器(Read-OnlyMemory,简称为ROM)和随机存取存储器(RandomAccessMemory,简称为RAM)。在合适的情况下,该ROM可以是掩模编程的ROM、可编程ROM(ProgrammableRead-OnlyMemory,简称为PROM)、可擦除PROM(ErasableProgrammableRead-OnlyMemory,简称为EPROM)、电可擦除PROM(ElectricallyErasableProgrammableRead-OnlyMemory,简称为EEPROM)、电可改写ROM(ElectricallyAlterableRead-OnlyMemory,简称为EAROM)或闪存(FLASH)或者两个或更多个以上这些的组合。在合适的情况下,该RAM可以是静态随机存取存储器(StaticRandom-AccessMemory,简称为SRAM)或动态随机存取存储器(DynamicRandomAccessMemory,简称为DRAM),其中,DRAM可以是快速页模式动态随机存取存储器404(FastPageModeDynamicRandomAccessMemory,简称为FPMDRAM)、扩展数据输出动态随机存取存储器(ExtendedDateOutDynamicRandomAccessMemory,简称为EDODRAM)、同步动态随机存取内存(SynchronousDynamicRandom-AccessMemory,简称SDRAM)等。
存储器404可以用来存储或者缓存需要处理和/或通信使用的各种数据文件,以及处理器402所执行的可能的计算机程序指令。
处理器402通过读取并执行存储器404中存储的计算机程序指令,以实现上述实施例中的任意一种农作物种子发芽情况识别模型的构建方法。
可选地,上述电子装置还可以包括传输设备406以及输入输出设备408,其中,该传输设备406和上述处理器402连接,该输入输出设备408和上述处理器402连接。
传输设备406可以用来经由一个网络接收或者发送数据。上述的网络具体实例可包括电子装置的通信供应商提供的有线或无线网络。在一个实例中,传输设备包括一个网络适配器(Network Interface Controller,简称为NIC),其可通过基站与其他网络设备相连从而可与互联网进行通讯。在一个实例中,传输设备406可以为射频(Radio Frequency,简称为RF)模块,其用于通过无线方式与互联网进行通讯。
输入输出设备408用于输入或输出信息。在本实施例中,输入的信息可以是拍摄农作物种子的高光谱图像等,输出的信息可以是发芽情况等。
可选地,在本实施例中,上述处理器402可以被设置为通过计算机程序执行以下步骤:
S1:获取包含种子的高光谱图像,其中所述高光谱图像中标记每一所述种子的发芽标签;
S2:对所述高光谱图像进行分割,得到每一所述种子的位置信息,所述位置信息包括种子所包含的像素坐标和种子位置二值图像;
S3:匹配所述位置信息和所述发芽标签,提取所述每颗种子在所述高光谱图像中的种子特征图像;
S4:自适应填充每一所述种子特征图像得到对应的填充特征图像;
S5:所述填充特征图像作为训练集,所述训练集输入到改进的深度卷积神经网络中进行训练得到农作物种子发芽情况识别模型,其中种子发芽情况作为输出结果。
需要说明的是,本实施例中的具体示例可以参考上述实施例及可选实施方式中所描述的示例,本实施例在此不再赘述。
通常,各种实施例可以以硬件或专用电路、软件、逻辑或其任何组合来实现。本发明的一些方面可以以硬件来实现,而其他方面可以以可以由控制器、微处理器或其他计算设备执行的固件或软件来实现,但是本发明不限于此。尽管本发明的各个方面可以被示出和描述为框图、流程图或使用一些其他图形表示,但是应当理解,作为非限制性示例,本文中描述的这些框、装置、***、技术或方法可以以硬件、软件、固件、专用电路或逻辑、通用硬件或控制器或其他计算设备或其某种组合来实现。
本发明的实施例可以由计算机软件来实现,该计算机软件由移动设备的数据处理器诸如在处理器实体中可执行,或者由硬件来实现,或者由软件和硬件的组合来实现。包括软件例程、小程序和/或宏的计算机软件或程序(也称为程序产品)可以存储在任何装置可读数据存储介质中,并且它们包括用于执行特定任务的程序指令。计算机程序产品可以包括当程序运行时被配置为执行实施例的一个或多个计算机可执行组件。一个或多个计算机可执行组件可以是至少一个软件代码或其一部分。另外,在这一点上,应当注意,如图中的逻辑流程的任何框可以表示程序步骤、或者互连的逻辑电路、框和功能、或者程序步骤和逻辑电路、框和功能的组合。软件可以存储在诸如存储器芯片或在处理器内实现的存储块等物理介质、诸如硬盘或软盘等磁性介质、以及诸如例如DVD及其数据变体、CD等光学介质上。物理介质是非瞬态介质。
本领域的技术人员应该明白,以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本申请范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请的保护范围应以所附权利要求为准。

Claims (7)

1.一种农作物种子发芽情况识别模型的构建方法,其特征在于,包括:
S1:获取包含种子的高光谱图像,其中所述高光谱图像中标记每一所述种子的发芽标签,种子置于包含网格的纸张上拍摄高光谱图像;
S2:对所述高光谱图像进行分割,得到每一所述种子的位置信息,所述位置信息包括种子所包含的像素坐标和种子位置二值图像;
S31:校正所述位置信息对应的网格的最小矩阵框得到网格矩阵框;
S32:获取每颗种子的中心点至所述网格矩阵框的边界线的距离,并得到每颗种子对应的正外接矩形框;
S33:依据每颗种子的中心点距离所述网格矩阵框的边界线的距离,排序所述种子;
S34:基于排序后的种子判断种子是否重叠,去除重叠的种子得到排序后可用的种子信息,所述种子信息中包含每颗种子的顺序编号及每颗种子正外接矩形所包含的像素坐标;
S35:读取所述种子的发芽标签,将所述发芽标签和种子的顺序编号一一对应;
S36:根据每颗种子的正外接矩形的像素坐标和旋转角度,在所述高光谱图像的每个波段上提取特征,得到每颗种子的高光谱特征及其对应的发芽标签;
S4:利用自适应缩放的方式实现自适应填充每一所述种子特征图像得到对应的填充特征图像,自适应缩放的公式如下:
其中padding表示种子特征图像的短边上下各自填充的长度,填充部分灰度值为0;N表示网络要求的输入大小;H、W分别表示种子特征图像的高和宽;max(H,W)、min(H, W)分别表示选取H、W中最大值和最小值;S表示深度卷积神经网络下采样的倍数;mod S表示除以S取余数;
S5:所述填充特征图像作为训练集,所述训练集输入到改进的深度卷积神经网络中进行训练得到农作物种子发芽情况识别模型,其中种子发芽情况作为输出结果。
2.根据权利要求1所述的农作物种子发芽情况识别模型的构建方法,其特征在于,步骤S2进一步包括步骤:
S21:拆分所述高光谱图像得到每个波段的灰度图,对灰度图进行阈值分割和自适应分割操作得到分割二值图像,融合所述分割二值图像得到第一图像;
S22:去除第一图像中所有的网格线,初步分割出显示种子位置和纸张边缘轮廓位置的第一二值图像;
S23:对第一图像做孔洞填充和形态学操作,得到网格区域内所包含的所有像素坐标,进而得到网格区域;
S24:根据所述网格区域的轮廓信息,将所述网格区域绘制在和所述高光谱图像大小相同的黑色图像上,得到一张网格区域为白色,其他区域为黑色的第二二值图像;
S25:对第一二值图像和第二二值图像mask中每个像素进行二进制与操作,得到网格区域内种子的分割二值图像;
S26:对得到的分割二值图像进行连通域面积过滤去除杂质,得到分割较好的位置信息,所述位置信息包括每颗种子所包含的像素坐标和种子位置二值图像。
3.根据权利要求1所述的农作物种子发芽情况识别模型的构建方法,其特征在于,在步骤S31中,计算所述位置信息对应的网格的最小矩形框,得到最小矩形框与水平轴的旋转角度,通过仿射变换对所述最小矩形框的四个顶点坐标进行矫正,得到矫正后的最小矩形框的顶点坐标。
4.根据权利要求1所述的农作物种子发芽情况识别模型的构建方法,其特征在于,深度学***均池化层,网络其它层结构不变。
5.一种提高农作物种子发芽情况识别率的识别方法,其特征在于,包括以下步骤:获取待测种子的高光谱图像,将所述高光谱图像输入到根据权利要求1到4任一所述的农作物种子发芽情况识别模型的构建方法构建得到的农作物种子发芽情况识别模型中得到输出结果,基于所述输出结果判断待测种子的发芽情况。
6.一种提高农作物种子发芽情况识别率的识别装置,其特征在于,包括:
获取单元,用于获取待测种子的高光谱图像;
检测单元,用于将所述高光谱图像输入到权利要求1到4任一所述的农作物种子发芽情况识别模型的构建方法构建得到的农作物种子发芽情况识别模型中得到输出结果,基于所述输出结果判断待测种子的发芽情况。
7.一种可读存储介质,其特征在于,所述可读存储介质中存储有计算机程序,所述计算机程序包括用于控制过程以执行过程的程序代码,所述过程包括根据权利要求1至4任一项所述的农作物种子发芽情况识别模型的构建方法或权利要求5所述的提高农作物种子发芽情况识别率的识别方法。
CN202211479034.4A 2022-11-24 2022-11-24 一种农作物种子发芽情况识别模型、构建方法及其应用 Active CN115512232B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211479034.4A CN115512232B (zh) 2022-11-24 2022-11-24 一种农作物种子发芽情况识别模型、构建方法及其应用

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211479034.4A CN115512232B (zh) 2022-11-24 2022-11-24 一种农作物种子发芽情况识别模型、构建方法及其应用

Publications (2)

Publication Number Publication Date
CN115512232A CN115512232A (zh) 2022-12-23
CN115512232B true CN115512232B (zh) 2023-04-07

Family

ID=84514150

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211479034.4A Active CN115512232B (zh) 2022-11-24 2022-11-24 一种农作物种子发芽情况识别模型、构建方法及其应用

Country Status (1)

Country Link
CN (1) CN115512232B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116612139B (zh) * 2023-07-20 2023-09-29 浙江托普云农科技股份有限公司 基于深度学习的高精度种子发芽率测定方法、***及装置
CN116994064B (zh) * 2023-08-25 2024-02-27 河北地质大学 一种种子病变粒识别方法及种子智能筛选***

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113129247A (zh) * 2021-04-21 2021-07-16 重庆邮电大学 基于自适应多尺度残差卷积的遥感图像融合方法及介质
WO2022160771A1 (zh) * 2021-01-26 2022-08-04 武汉大学 基于自适应多尺度特征提取模型的高光谱图像分类方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103636315B (zh) * 2013-11-20 2015-03-11 华南理工大学 一种基于高光谱的种子发芽率在线检测装置及方法
CN103745478B (zh) * 2014-01-24 2016-06-08 山东农业大学 小麦发芽率机器视觉测定方法
WO2018084612A1 (ko) * 2016-11-02 2018-05-11 한국식품연구원 쌀의 품질측정 시스템, 쌀의 식미평가방법, 곡물의 발아율 예측 시스템 및 발아율 예측 방법
CN113610101A (zh) * 2021-06-17 2021-11-05 上海师范大学 一种谷粒萌发率测定方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022160771A1 (zh) * 2021-01-26 2022-08-04 武汉大学 基于自适应多尺度特征提取模型的高光谱图像分类方法
CN113129247A (zh) * 2021-04-21 2021-07-16 重庆邮电大学 基于自适应多尺度残差卷积的遥感图像融合方法及介质

Also Published As

Publication number Publication date
CN115512232A (zh) 2022-12-23

Similar Documents

Publication Publication Date Title
CN115512232B (zh) 一种农作物种子发芽情况识别模型、构建方法及其应用
CN114120037B (zh) 一种基于改进yolov5模型的发芽马铃薯图像识别方法
CN109522899B (zh) 咖啡成熟果实的检测方法、装置及电子设备
CN109740483A (zh) 一种基于深层神经网络的水稻生长期检测方法
CN109035289B (zh) 基于切比雪夫不等式h阈值的紫色土图像分割提取方法
CN116091497B (zh) 遥感变化检测方法、装置、电子设备和存储介质
CN110427933A (zh) 一种基于深度学习的水尺识别方法
CN114972191A (zh) 一种耕地变化检测方法和装置
CN111369605A (zh) 一种基于边缘特征的红外与可见光图像的配准方法和***
CN116363520B (zh) 一种城市绿地规划用景观生态检测***
CN112669323A (zh) 图像处理方法及相关设备
CN107871133A (zh) 边缘检测网络的优化方法、路面病害的识别方法及***
CN114078213A (zh) 一种基于生成对抗网络的农田轮廓检测方法和装置
CN114677525B (zh) 一种基于二值图像处理的边缘检测方法
CN112700488A (zh) 基于图像拼接的活体长叶片叶面积分析方法、***及装置
CN115687850A (zh) 一种农田的灌溉需水量计算方法及装置
CN115345880B (zh) 基于玉米果穗单侧扫描图的玉米果穗性状估测方法及装置
CN115719453B (zh) 一种基于深度学习的水稻种植结构遥感提取方法
CN115375694A (zh) 便捷式的基于图像识别的水稻整穗测量方法及其应用
CN116883309A (zh) 一种大豆表型获取方法
CN115953352A (zh) 基于网络模型的花生种子精选评估与分级方法
CN114359748A (zh) 目标分类提取方法及装置
CN114049390A (zh) 一种基于机器视觉的小麦麦苗种植密度测量装置及方法
CN116052141B (zh) 作物生育期的识别方法、装置、设备及介质
CN115457030B (zh) 基于图像技术的作物茎粗测量方法、装置及其应用

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant