CN113971759A - 一种基于计算机视觉的大豆株间杂草自动识别装置及方法 - Google Patents
一种基于计算机视觉的大豆株间杂草自动识别装置及方法 Download PDFInfo
- Publication number
- CN113971759A CN113971759A CN202111245172.1A CN202111245172A CN113971759A CN 113971759 A CN113971759 A CN 113971759A CN 202111245172 A CN202111245172 A CN 202111245172A CN 113971759 A CN113971759 A CN 113971759A
- Authority
- CN
- China
- Prior art keywords
- soybean
- fluorescence
- mirror
- camera
- pair
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 244000068988 Glycine max Species 0.000 title claims abstract description 91
- 241000196324 Embryophyta Species 0.000 title claims abstract description 56
- 238000000034 method Methods 0.000 title claims abstract description 25
- 235000010469 Glycine max Nutrition 0.000 claims abstract description 84
- 230000000007 visual effect Effects 0.000 claims abstract description 10
- 230000031700 light absorption Effects 0.000 claims abstract description 5
- 239000000463 material Substances 0.000 claims abstract description 4
- GNBHRKFJIUUOQI-UHFFFAOYSA-N fluorescein Chemical compound O1C(=O)C2=CC=CC=C2C21C1=CC=C(O)C=C1OC1=CC(O)=CC=C21 GNBHRKFJIUUOQI-UHFFFAOYSA-N 0.000 claims description 12
- 244000046052 Phaseolus vulgaris Species 0.000 claims description 7
- 235000010627 Phaseolus vulgaris Nutrition 0.000 claims description 7
- 238000003384 imaging method Methods 0.000 claims description 7
- 239000002245 particle Substances 0.000 claims description 5
- 238000001914 filtration Methods 0.000 claims description 4
- 238000009331 sowing Methods 0.000 claims description 4
- 239000012153 distilled water Substances 0.000 claims description 3
- 238000003707 image sharpening Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 claims description 3
- 238000002791 soaking Methods 0.000 claims description 3
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Chemical compound O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims description 3
- 238000004140 cleaning Methods 0.000 claims description 2
- 238000001035 drying Methods 0.000 claims description 2
- 238000009333 weeding Methods 0.000 abstract description 17
- 238000002073 fluorescence micrograph Methods 0.000 abstract description 10
- 239000003550 marker Substances 0.000 abstract description 6
- 238000005516 engineering process Methods 0.000 abstract description 2
- 230000009897 systematic effect Effects 0.000 abstract 1
- 238000011160 research Methods 0.000 description 5
- 239000002689 soil Substances 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 239000004009 herbicide Substances 0.000 description 4
- 230000002363 herbicidal effect Effects 0.000 description 3
- OAICVXFJPJFONN-UHFFFAOYSA-N Phosphorus Chemical compound [P] OAICVXFJPJFONN-UHFFFAOYSA-N 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 239000012535 impurity Substances 0.000 description 2
- 238000003973 irrigation Methods 0.000 description 2
- 230000002262 irrigation Effects 0.000 description 2
- 230000002265 prevention Effects 0.000 description 2
- 244000025254 Cannabis sativa Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000003912 environmental pollution Methods 0.000 description 1
- 210000002615 epidermis Anatomy 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P60/00—Technologies relating to agriculture, livestock or agroalimentary industries
- Y02P60/14—Measures for saving energy, e.g. in green houses
Landscapes
- Investigating, Analyzing Materials By Fluorescence Or Luminescence (AREA)
- Soil Working Implements (AREA)
- Catching Or Destruction (AREA)
Abstract
本发明公开了一种基于计算机视觉的大豆株间杂草自动识别装置及方法,装置包括由型材搭建成的暗室***;暗室***的外部均由黑色吸光幕布覆盖;暗室***的内部顶端固定有灰度相机,灰度相机与计算机相连接;暗室***的内部中间固定有六盏蓝色LED灯,蓝色LED灯与变压器相连接;暗室***的内部底端固定有六面倾斜角度调整合适的镜子。通过一系列的改进,采用***性作物信号传导技术,分析从7个视角同时捕获的大豆作物及杂草的荧光图像等信息,建立基于大豆标记物三维几何外观的计算机视觉实时鉴别新方法,精准识别大豆主茎在田间的位置,可结合除草装置实现自动除草作业。
Description
技术领域
本发明涉及除草领域,具体说是一种基于计算机视觉的大豆株间杂草自动识别装置及方法。
背景技术
草害是大豆出苗后的主要生物灾害之一,株间杂草对豆苗危害更为严重。杂草在大豆播种后3周内的出苗数可占其出苗总数的95.00%左右,因此对豆田杂草的早期防控尤为重要。
目前,在杂草防治上常采用除草剂、人工除草和机械中耕除草等措施。除草剂除草是当前防控豆田杂草的主要手段,但除草剂施用易造成农产品质量安全及环境污染等问题。人工除草是一种灵活精准的株间除草方式,但人工成本较高且作业效率较低,不适用于大规模耕作。传统的机械中耕可在规模化种植的大豆生长初期对土壤进行疏松,消灭行间杂草,但无法除掉株间杂草。因此,目前杂草防治还是我国农业现代化建设的短板,我国目前尚无成熟的智能株间除草机具应用于农业实践。因此,在大豆早期生长阶段进行作物和杂草的实时自动化识别,对达到大豆作物增产增收和除草剂减量的杂草防控要求具有重要意义。
传统视觉方法检测作物无法将被遮挡的农作物与高密度杂草可靠地区分开。现有的作物信号传导技术所应用的标记物的标记过程比较耗时繁琐,更无法防止标记物被喷灌或自然降水清除的问题。
针对相关技术中的问题,目前尚未提出有效的解决方案。
发明内容
针对现有技术中存在的缺陷,本发明的目的在于提供一种基于计算机视觉的大豆株间杂草自动识别装置。
为达到以上目的,本发明采取的技术方案是:
一种基于计算机视觉的大豆株间杂草自动识别装置,包括:暗室***1、灰度相机3、计算机4、蓝色LED灯5、变压器6、镜子7;
所述暗室***由型材搭建而成,外部覆盖有黑色吸光幕布2,暗室***的内部顶端固定有灰度相机,灰度相机与计算机相连接,所述暗室***的内部中间固定有六盏蓝色LED灯,蓝色LED灯与变压器相连接,暗室***的内部底端固定有六面倾斜角度调整合适的镜子。
每个镜子与另一侧的相应的镜子平行。镜子中的图像显示了子叶、叶子和茎,解决了遮挡问题。
进一步的,所述灰度相机到地面的高度范围为600-1460毫米,以保证更大的视野,更全面地监测作物的生长环境。
灰度相机带有520nm滤光透镜。
进一步的,杂草和大豆苗的图像可以在同一图像中分离。
进一步的,所述六面镜子7中的四面镜子的下边缘与水平线夹角为35°。
一种基于计算机视觉的大豆株间杂草自动识别方法,使用上述识别装置,包括如下步骤:
步骤1、用蒸馏水清洗大豆种子,干燥,用有效剂量的荧光素Fluorescein溶液浸泡大豆种子,浸泡好后播种;
步骤2、大豆种子长出子叶后,即可使用上述识别装置进行杂草自动识别(长出豆苗经过两周左右时间,此时拍摄出的荧光图片的效果是较好);调整好蓝色LED灯5的倾斜角度,使得光线能够均匀射向大豆苗8,且不会与镜子7产生反光现象;
步骤3、调整变压器6的电压值至合适值,蓝色LED灯5的亮度随之变化,使光线平稳射向植物;
步骤4、调整好镜子7和相机的位置,操纵计算机4,调整灰度相机3的曝光值和增益值并保持不变,最终蓝色LED灯、相机和镜子的相对位置固定;
步骤5、装置在田间行走作业时,相机实时拍摄,通过相应算法捕捉大豆苗处于镜子中央的图片;
步骤6、利用相机拍摄的七个视角的七张图片,结合算法,连线求交点,能够处理任意数量和任意位置的杂草干预情况,精确定位大豆苗在田间的位置。
步骤1中,种子干燥后,在120ppm荧光素溶液中浸泡48h或96h,暗室环境。
步骤6如下:
S61、将相机拍摄的七个视角的图片进行图像二值化;
S62、从二值化图像中定义出感兴趣区域;
S63、从感兴趣区域中识别出有效感兴趣区域;
S64、求解每个有效感兴趣区域的质点;
S65、根据有效感兴趣区域的质点,作出相应的直线,求解大豆苗根部的真实位置。
在上述方案的基础上,步骤6具体如下:
利用计算机4基于MATLAB进行中值滤波和图像锐化操作,从图像中提取荧光信号,根据灰度值的差异设置阈值来提取大豆子叶的二值化图像,经过开闭运算去除噪音点;
去除荧光信号不强的区域。
首先计算出所有荧光区域的面积,然后遍历每一对中心对称的荧光区域,若该对中的每一个荧光区域与6个荧光区域面积的最大值之比都小于0.3,那么该对荧光区域就都判定为无效;按照此法遍历三对中心对称的区域后,遍历剩余的有效区域,如果一对有效区域中面积较小的值与面积较大的值之比小于0.5,那么该对有效区域中较小面积的区域无效,较大面积的区域有效;
根据有效荧光区域定位出豆苗根部的位置:
如果一对中心对称的感兴趣区域中的荧光信号都有效,那么就连接这对感兴趣区域的质点做出一条连线。如果一对中心对称的感兴趣区域中的一个感兴趣区域失效,那么按照平面镜的成像原理仍然能做作出一条垂线,实体的位置在图像的位置垂直于镜面与地面的交线的直线上。按照此法遍历三对感兴趣中的荧光区域,并作出相应的直线。
若最后形成3条直线,那么大豆苗根部的真实位置就是三条直线两两相交的3个交点的质点。若最后形成2条直线,那么大豆苗根部的真实位置就是两条直线的交点。若最后形成一条直线,则作直线竖直的中心线,求解该直线与中心线的交点,交点为大豆苗根部的真实位置。
本发明具有以下有益效果:
(1)用有效剂量的荧光素Fluorescein溶液浸泡大豆种子,子叶的荧光信号与杂草明显不同。蓝色LED灯照射下的荧光信号可以被带有520纳米滤光透镜的灰度相机捕获。所述暗室***外部覆盖的黑色吸光幕布阻挡了外部环境的光线进入暗室***,消除了外界对荧光的干扰,有效避免了标记物被喷灌或自然降水清除的情况。该方法操作简单,实用性强,能够同时处理大量种子。
(2)通过观察大豆苗的生长过程,发现茎的生长方向在前30天是笔直的。子叶的质心位置和根入土的位置可以认为在一条竖直的直线上。因此,算法识别的子叶质心位置可以近似为根入土的位置。这种近似可以简化算法。
(3)只用相机的话只能从俯视视角观察大豆苗,拍摄荧光图片,不能完整观测到大豆苗的各个部位。而相机与六面镜子结合使用,可以从七个视角观察分析荧光图片,足以精确定位豆苗在田间的位置。
附图说明
本发明有如下附图:
图1是本发明一实施例的整体结构示意图;
图2是本发明一实施例的内部的俯视结构示意图;
图3是本发明蓝色LED灯的装置拆解示意图;
图4是本发明的侧视结构示意图;
图5本发明的识别方法流程框图;
图6二值化、开闭运算结果示意图;
图7识别有效区域结果示意图;
图8平面镜成像原理示意图;
图9不同直线条数定位黄豆苗结果示意图;
图10是本发明拍摄的部分具有代表性的大豆荧光图像。
1、暗室***;2、黑色吸光幕布;3、灰度相机;4、计算机;5、蓝色LED灯;6、变压器;7、镜子;8、大豆苗;9、杂草。
具体实施方式
以下结合附图1-10和实施例对本发明作进一步详细说明。
实施例一:
根据本发明实施例的一种基于计算机视觉的大豆/株间杂草自动识别装置,包括由型材搭建成的暗室***1,所述暗室***1的外部覆盖有黑色吸光幕布2,所述暗室***1的内部顶端固定有灰度相机3,所述灰度相机3与计算机4相连接,所述暗室***1的内部中间固定有六盏蓝色LED灯5,所述蓝色LED灯5与变压器6相连接,所述暗室***1的内部底端固定有六面倾斜角度调整合适的镜子7。
通过本发明的上述方案,调整好蓝色LED灯5的倾斜角度,使得光线能够均匀射向大豆苗8,且不会与镜子7产生反光现象,调整变压器6的电压值至合适值,蓝色LED灯5的亮度随之变化,使光线平稳射向植物。调整好镜子7和相机的位置,操纵计算机4,调整灰度相机3的曝光值和增益值并保持不变,便于拍出位于灰度相机3正下方的大豆苗的高质量的图片。最终蓝色LED灯、相机和镜子的相对位置固定,其相对位置是基于大量实验确定的,识别准确率可以达到97.5%。
识别装置(随着拖拉机等装置)在田间行走作业时,相机实时拍摄,捕捉大豆处于镜子中央(即相机正下方)的那一张照片。大豆苗位于镜子中央是为了便于连线求解大豆的实际位置,否则会引起误差。
大豆苗8和杂草生长在田地中,相机拍摄的从七个视角的七张图片,结合算法,连线求交点,可以处理任意数量和任意位置的杂草干预情况。
通过将所述六面倾斜角度调整合适的镜子7和中间的俯视图相结合,可以更容易和更准确地检测作物信号和预测大豆根部的位置。每个镜子与另一侧的相应的镜子平行。镜子中的图像显示了子叶、叶子和茎,解决了遮挡问题。所述灰度相机3的高度从600毫米增加到1460毫米,以保证更大的视野,更全面地监测作物的生长环境。所述镜子7的数量为6个,其中的四面镜子的下边缘与水平线夹角为35°。所述LED灯5为蓝色,数量为6个。在进行大豆杂草自动识别之前,将所述灰度相机与暗室***外部的计算机相连,捕获的荧光图像可在电脑端进行处理。
大豆种子在播种前由荧光素溶液浸泡,在实验室条件下,从种下大豆种子到发芽长出豆苗经过两周左右时间,此时拍摄出的荧光图片的效果是很好的。通过大量实验观察发现,在此之后,荧光素可以在大豆苗中可继续存在数周。
大豆苗上的荧光强度比较:子叶>下胚轴>上胚轴。所以荧光素存在于整株大豆苗,但是确定大豆位置只依据子叶位置的荧光图片即可。荧光素在所述蓝色LED灯的照射下,会发出荧光,而杂草没有经过荧光素浸泡处理,不会发出荧光,蓝色发光LED灯照射下的荧光信号可以被带有520纳米滤光透镜的灰度相机捕获,因此便于区分识别大豆苗和株间杂草。
通过本发明的上述方案,利用计算机4基于MATLAB进行中值滤波和图像锐化操作,为了正确识别目标作物和杂草,需要从图像中提取荧光信号,可以根据灰度值的差异设置较高的阈值来提取大豆子叶的二值图像,也可以设置较低的阈值来提取大豆苗和杂草的二值图像。为了得到高质量的二值图像,采用复合形态学运算对图像进行处理。进行图像标记,形成标签矩阵,利用两幅图像提取大豆苗的位置。
根据平面镜成像原理,物体和镜中的像是对称的,物体的位置在垂直于镜子平面与地面交线的线上。如果其中一面镜子中的荧光图像丢失,并且对称镜子中存在有效的荧光图像,则在这种情况下仍然可以求解大豆苗的位置。在正常情况下,由于遮挡问题,其中一个配对的感兴趣区域可能无效。无论大豆苗周围的杂草长在哪里,理论上都不会使同一侧的三个感兴趣区域无效。在绝大多数情况下,有三条线来定位子叶的实际位置,这提高了结果的准确率。该方法被设计用于处理包含少于六个有效感兴趣区域的二值图像。这种算法的优点是无论在哪里有有效的感兴趣区域,也无论有多少感兴趣区域,都能定位到子叶的实际位置,可以适应高密度杂草的情况。
通过对六面反射镜图像的识别,可以获得大豆幼苗根系在土壤中的位置,防止大豆幼苗受到机械损伤。现有技术是在大豆苗边插上带荧光标记的管状物,但是当农作物生长比较旺盛时,在拍摄的照片上带荧光标记的吸管会被农作物和杂草遮挡,导致部分镜子的荧光信号较弱,六面镜子中的图像的连接线数量较少,导致无法输出结果。
本发明改进的识别方法可以解决这种极端情况。流程框图如图5所示,流程如下:
将图像二值化,设置二值化的阈值,只保留荧光信号,经过开闭运算去除噪音点(如图6所示)。一般情况下,六个区域的荧光信号面积相差不大,但当杂草或黄豆苗的叶子遮挡住子叶时,有些镜子的荧光信号区域就会变得很小,不能根据求解荧光图像的质点而确定黄豆苗根部的位置,因此需要过滤掉。
如图7所示,中左的ROI区域(感兴趣区域)荧光信号被杂草遮挡住了,因此中左的ROI区域中的荧光信号应该删除。实际情况下,一颗杂草有比较大的几率挡住一边,而如果想要让一对ROI的荧光区域都失效,需要黄豆苗周围长出位置几乎中心对称的杂草,并且该杂草高度与黄豆苗高度大体相同,能产生遮挡关系。现有技术只是简单地根据面积筛选有效区域,但是豆苗的姿态不同,六面镜子中荧光区域的面积有大有小。因此,本文提出了一种识别有效区域的创新方案。
去除荧光信号不强的区域。
首先,计算出所有荧光区域的面积。然后,遍历每一对中心对称的荧光区域,若该对中的每一个荧光区域与6个荧光区域面积的最大值之比小于0.3,那么该对荧光区域就都判定为无效。按照此法遍历三对中心对称的区域后,遍历剩余的有效区域,如果一对有效区域中面积较小的值与面积较大的值之比小于0.5,那么该对有效区域中较小面积的区域无效,较大面积的区域有效。这样设计的好处是考虑到了不同角度荧光区域面积的差异性,同时也考虑到同一角度荧光区域的差异性。
根据有效荧光区域定位出豆苗根部的位置:
在低密度杂草中,子叶很少被覆盖,六面反射镜的荧光信号被认为是有效的。在这种情况下,可以通过连接子叶粒子的坐标来求解三条直线。配对关系如下:左上右下、左中右中、左上右下。然后将三条直线所有交点的平均坐标作为大豆幼苗的实际位置。然而,在子叶被杂草覆盖的情况下,有效ROI数可能少于6个。如果其中一对反射镜中缺少有效面积,则不能根据连接对称点的方法绘制线,并且会浪费一个镜子的图像。为此,提出了一种基于平面镜成像原理的识别方案。
根据平面镜成像原理,物体与镜中的图像是对称的。从俯视来看,物体的位置在图像的位置垂直于镜面与地面的交线的直线上(如图8所示)。如果其中一个反射镜中的荧光像丢失,而对称反射镜中有一个有效的荧光像,在这种情况下仍然可以得到一条直线。如果一对中心对称的ROI区域中的荧光信号都有效,那么就可以连接两区域的质点做出一条连线。如果由于杂草遮挡导致一对中一个ROI区域失效,那么按照平面镜的成像原理仍然能做作出一条垂线,而实体就在这条线上。按照此法遍历三对ROI中的荧光区域,并作出相应的直线。
若最后形成3条直线,那么根部的真实位置就是三条直线两两相交的3个交点的质点(横坐标和纵坐标分别求平均值)。若最后形成2条直线,那么根部的真实位置就是两条直线的交点。若最后形成一条直线,则作直线竖直的中心线,求解该直线与中心线的交点,交点即为根部的真实位置。该识别方案能够解决绝大多数特殊情况(如图9所示)。
图10是根据本发明拍摄的5种具有代表性的大豆荧光图像,左右两侧的荧光区域对应六面镜子中的荧光图像,中间的荧光区域对应相机拍摄的大豆苗荧光图像。图中的1-5分别是五种可能的杂草干预情况:①七个荧光区域均可使用,②缺失一个荧光区域,③缺失两个对称的荧光区域,④缺失两个不对称的荧光区域,⑤缺失三个荧光区域。图中的1-5包括了这些情况的原始图像、二值化图像和算法处理之后的图像(即确定大豆苗位置)。
由于大豆苗的叶子在生长初期阻挡了子叶,杂草的高度可能与大豆幼苗的高度大致相同,因此很难看到根进入土壤的位置。本发明能自动检测大豆苗,当识别到豆苗时除草刀避开,其余情况则控制除草刀除草,使得装置在田间行走作业时,相机实时拍摄,自动确定大豆苗和杂草的位置,结合除草装置实现自动除草作业。
为了方便理解本发明的上述技术方案,以下就本发明在实际过程中的工作原理或者操作方式进行详细说明。
本发明可在田间使用,也可以用于实验室研究。本发明在实验室研究应用时,首先用蒸馏水清洗大豆种子,去除种子表皮的杂质,消除杂质对大豆生长的影响。种子干燥后,在120ppm荧光素溶液中浸泡48h或96h,暗室环境。荧光素被用作信号标记。处理后,种子在室内环境(约20℃,50%~60%相对湿度)中发芽。用培养盒中的滤纸覆盖种子。大约3天后,将发芽的种子移动并种植在充满有机土壤的育苗盘中。可应用本发明的识别装置进行杂草识别和除草,也可用于进行杂草识别和除草的进一步研究,为进一步识别并除去杂草的深入研究提供了基础和新的研究思路。
以上实施方式仅用于说明本发明,而并非对本发明的限制,有关技术领域的普通技术人员,在不脱离本发明的实质和范围的情况下,还可以做出各种变化和变型,因此所有等同的技术方案也属于本发明的保护范围。
本说明书中未作详细描述的内容属于本领域专业技术人员公知的现有技术。
Claims (8)
1.一种基于计算机视觉的大豆株间杂草自动识别装置,其特征在于,包括:暗室***、灰度相机、计算机、蓝色LED灯、变压器和镜子;
所述暗室***由型材搭建而成,外部覆盖有黑色吸光幕布,暗室***的内部顶端固定有灰度相机,灰度相机与计算机相连接,所述暗室***的内部中间固定有六盏蓝色LED灯,蓝色LED灯与变压器相连接,暗室***的内部底端固定有六面倾斜角度调整好的镜子;每面镜子与另一侧的相应的镜子平行。
2.如权利要求1所述的装置,其特征在于:所述灰度相机到地面的高度范围为600-1460毫米。
3.如权利要求1所述的装置,其特征在于:灰度相机带有520nm滤光透镜。
4.如权利要求1所述的装置,其特征在于:所述六面镜子中的四面镜子的下边缘与水平线夹角为35°。
5.一种基于计算机视觉的大豆株间杂草自动识别方法,使用权利要求1-4任一所述的装置,其特征在于,包括如下步骤:
步骤1、用蒸馏水清洗大豆种子,干燥,用有效剂量的荧光素溶液浸泡大豆种子,浸泡好后播种;
步骤2、大豆种子长出子叶后,能够使用识别装置进行杂草自动识别;调整好蓝色LED灯的倾斜角度,使得光线能够均匀射向大豆苗,且不会与镜子产生反光现象;
步骤3、调整变压器的电压值至合适值,蓝色LED灯的亮度随之变化,使光线平稳射向植物;
步骤4、调整好镜子和相机的位置,操纵计算机,调整灰度相机的曝光值和增益值并保持不变,最终蓝色LED灯、相机和镜子的相对位置固定;
步骤5、装置在田间行走作业时,相机实时拍摄,通过相应算法捕捉大豆苗处于镜子中央的图片;
步骤6、利用相机拍摄的七个视角的七张图片,结合算法,连线求交点,能够处理任意数量和任意位置的杂草干预情况,精确定位大豆苗在田间的位置。
6.如权利要求5所述的方法,其特征在于:步骤1中,种子干燥后,在120ppm荧光素溶液中浸泡48h或96h,暗室环境。
7.如权利要求5所述的方法,其特征在于,步骤6如下:
S61、将相机拍摄的七个视角的图片进行图像二值化;
S62、从二值化图像中定义出感兴趣区域;
S63、从感兴趣区域中识别出有效感兴趣区域;
S64、求解每个有效感兴趣区域的质点;
S65、根据有效感兴趣区域的质点,作出相应的直线,求解大豆苗根部的真实位置。
8.如权利要求7所述的方法,其特征在于,步骤6具体如下:
利用计算机基于MATLAB进行中值滤波和图像锐化操作,从图像中提取荧光信号,根据灰度值的差异设置阈值来提取大豆子叶的二值化图像,经过开闭运算去除噪音点;
去除荧光信号不强的区域;
首先计算出所有荧光区域的面积,然后遍历每一对中心对称的荧光区域,若该对中的每一个荧光区域与6个荧光区域面积的最大值之比都小于0.3,那么该对荧光区域就都判定为无效;按照此法遍历三对中心对称的区域后,遍历剩余的有效区域,如果一对有效区域中面积较小的值与面积较大的值之比小于0.5,那么该对有效区域中较小面积的区域无效,较大面积的区域有效;
根据有效荧光区域定位出豆苗根部的位置:
如果一对中心对称的感兴趣区域中的荧光信号都有效,那么就连接这对感兴趣区域的质点做出一条连线;如果一对中心对称的感兴趣区域中的一个感兴趣区域失效,那么按照平面镜的成像原理仍然能做作出一条垂线,实体的位置在图像的位置垂直于镜面与地面的交线的直线上;按照此法遍历三对感兴趣中的荧光区域,并作出相应的直线;
若最后形成3条直线,那么大豆苗根部的真实位置就是三条直线两两相交的3个交点的质点;若最后形成2条直线,那么大豆苗根部的真实位置就是两条直线的交点;若最后形成一条直线,则作直线竖直的中心线,求解该直线与中心线的交点,交点为大豆苗根部的真实位置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111245172.1A CN113971759B (zh) | 2021-10-26 | 2021-10-26 | 一种基于计算机视觉的大豆株间杂草自动识别装置及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111245172.1A CN113971759B (zh) | 2021-10-26 | 2021-10-26 | 一种基于计算机视觉的大豆株间杂草自动识别装置及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113971759A true CN113971759A (zh) | 2022-01-25 |
CN113971759B CN113971759B (zh) | 2024-04-16 |
Family
ID=79588531
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111245172.1A Active CN113971759B (zh) | 2021-10-26 | 2021-10-26 | 一种基于计算机视觉的大豆株间杂草自动识别装置及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113971759B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117315493A (zh) * | 2023-11-29 | 2023-12-29 | 浙江天演维真网络科技股份有限公司 | 一种田间杂草的识别分辨方法、装置、设备及介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10111929A (ja) * | 1996-10-04 | 1998-04-28 | Iseki & Co Ltd | 芝地用除草機の雑草認識装置 |
CN106683069A (zh) * | 2015-11-04 | 2017-05-17 | 重庆泰升生态农业发展有限公司 | 农田苗期行内作物-杂草识别方法 |
CN108596173A (zh) * | 2018-04-19 | 2018-09-28 | 长春理工大学 | 单相机全视角线号实时识别装置及其检测方法 |
CN109410236A (zh) * | 2018-06-12 | 2019-03-01 | 佛山市顺德区中山大学研究院 | 荧光染色图像反光点识别与重定义的方法及*** |
CN109416735A (zh) * | 2016-05-12 | 2019-03-01 | 巴斯夫欧洲公司 | 自然环境中杂草的识别 |
-
2021
- 2021-10-26 CN CN202111245172.1A patent/CN113971759B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10111929A (ja) * | 1996-10-04 | 1998-04-28 | Iseki & Co Ltd | 芝地用除草機の雑草認識装置 |
CN106683069A (zh) * | 2015-11-04 | 2017-05-17 | 重庆泰升生态农业发展有限公司 | 农田苗期行内作物-杂草识别方法 |
CN109416735A (zh) * | 2016-05-12 | 2019-03-01 | 巴斯夫欧洲公司 | 自然环境中杂草的识别 |
US20190220666A1 (en) * | 2016-05-12 | 2019-07-18 | Bayer Cropscience Aktiengesellschaft | Recognition of weed in a natural environment |
CN108596173A (zh) * | 2018-04-19 | 2018-09-28 | 长春理工大学 | 单相机全视角线号实时识别装置及其检测方法 |
CN109410236A (zh) * | 2018-06-12 | 2019-03-01 | 佛山市顺德区中山大学研究院 | 荧光染色图像反光点识别与重定义的方法及*** |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117315493A (zh) * | 2023-11-29 | 2023-12-29 | 浙江天演维真网络科技股份有限公司 | 一种田间杂草的识别分辨方法、装置、设备及介质 |
CN117315493B (zh) * | 2023-11-29 | 2024-02-20 | 浙江天演维真网络科技股份有限公司 | 一种田间杂草的识别分辨方法、装置、设备及介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113971759B (zh) | 2024-04-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10568316B2 (en) | Apparatus and methods for in-field data collection and sampling | |
Tian et al. | Machine vision identification of tomato seedlings for automated weed control | |
US12020465B2 (en) | Method and apparatus for automated plant necrosis | |
Slaughter et al. | Autonomous robotic weed control systems: A review | |
US11816874B2 (en) | Plant identification using heterogenous multi-spectral stereo imaging | |
CN105844632B (zh) | 基于机器视觉的稻株识别与定位方法 | |
Slaughter et al. | Vision guided precision cultivation | |
CN113971759B (zh) | 一种基于计算机视觉的大豆株间杂草自动识别装置及方法 | |
Ma et al. | Automatic detection of crop root rows in paddy fields based on straight-line clustering algorithm and supervised learning method | |
CN113920106A (zh) | 一种基于rgb-d相机的玉米长势三维重构及茎粗测量方法 | |
Li et al. | Image detection and verification of visual navigation route during cotton field management period | |
CN114049295A (zh) | 一种霜霉病智能化检测处理的方法及*** | |
CN112630184A (zh) | 一种棉花黄萎病病害发生表型识别的方法 | |
He et al. | Visual detection of rice rows based on Bayesian decision theory and robust regression least squares method | |
WO2020011318A1 (en) | A system for use when performing a weeding operation in an agricultural field | |
CN110064601B (zh) | 一种蔬菜嫁接用苗检测分级***和分级方法 | |
CN106778447A (zh) | 一种甜瓜嫁接机嫁接苗接缝视觉识别*** | |
CN117036926A (zh) | 一种融合深度学习与图像处理的杂草识别方法 | |
Su et al. | Computer vision technology for identification of snap bean crops using systemic Rhodamine B | |
JP2019193581A (ja) | 植物栽培システム | |
JP2019193582A (ja) | 植物栽培装置 | |
CN111886982B (zh) | 一种旱地栽植作业质量实时检测***的检测方法 | |
CN114757891A (zh) | 一种基于机器视觉技术的植物生长状态的识别方法 | |
AU2018250354B2 (en) | Method and System for Extracting Shadows from an Image during Optical Based Selective Treatment of an Agricultural Field | |
Giles et al. | Development of a machine vision system for weed control using precision chemical application |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |