CN109492541B - 目标对象类型的确定方法及装置、植保方法、植保*** - Google Patents
目标对象类型的确定方法及装置、植保方法、植保*** Download PDFInfo
- Publication number
- CN109492541B CN109492541B CN201811217258.1A CN201811217258A CN109492541B CN 109492541 B CN109492541 B CN 109492541B CN 201811217258 A CN201811217258 A CN 201811217258A CN 109492541 B CN109492541 B CN 109492541B
- Authority
- CN
- China
- Prior art keywords
- target object
- information
- type
- determining
- image information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 76
- 239000003814 drug Substances 0.000 claims description 91
- 229940079593 drug Drugs 0.000 claims description 42
- 239000000575 pesticide Substances 0.000 claims description 34
- 238000012549 training Methods 0.000 claims description 12
- 238000010801 machine learning Methods 0.000 claims description 10
- 238000012377 drug delivery Methods 0.000 claims description 7
- 238000004891 communication Methods 0.000 claims description 5
- 241000196324 Embryophyta Species 0.000 abstract description 55
- 238000009333 weeding Methods 0.000 abstract description 6
- 239000010914 pesticide waste Substances 0.000 abstract description 4
- 238000005507 spraying Methods 0.000 description 7
- 238000012545 processing Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 241000894007 species Species 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000007921 spray Substances 0.000 description 2
- 240000008042 Zea mays Species 0.000 description 1
- 235000005824 Zea mays ssp. parviglumis Nutrition 0.000 description 1
- 235000002017 Zea mays subsp mays Nutrition 0.000 description 1
- 235000005822 corn Nutrition 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002329 infrared spectrum Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/04—Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/02—Agriculture; Fishing; Forestry; Mining
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/188—Vegetation
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Strategic Management (AREA)
- Economics (AREA)
- Human Resources & Organizations (AREA)
- Health & Medical Sciences (AREA)
- Marketing (AREA)
- Multimedia (AREA)
- Tourism & Hospitality (AREA)
- General Health & Medical Sciences (AREA)
- General Business, Economics & Management (AREA)
- Agronomy & Crop Science (AREA)
- Development Economics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Operations Research (AREA)
- Animal Husbandry (AREA)
- Marine Sciences & Fisheries (AREA)
- Mining & Mineral Resources (AREA)
- Entrepreneurship & Innovation (AREA)
- Game Theory and Decision Science (AREA)
- Primary Health Care (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
Abstract
本申请公开了一种目标对象类型的确定方法及装置、植保方法、植保***。其中,该方法包括:获取第一图像采集装置采集的目标区域的第一图像信息,以及第二图像采集装置采集的目标区域内目标对象的第二图像信息,其中,第二图像采集装置与目标对象的相对距离小于第一图像采集装置与目标对象的相对距离;依据第一图像信息确定目标对象在目标区域的分布信息,并依据第二图像信息确定目标对象的类型。本申请解决了无人驾驶设备不能识别杂草种类以及杂草分布,造成了农药的浪费,除草效率较低的技术问题。
Description
技术领域
本申请涉及农业自动化领域,具体而言,涉及一种目标对象类型的确定方法及装置、植保方法、植保***。
背景技术
现有技术中,农户对农作物喷洒农药除草时,可以人为判断杂草类型与杂草密度,从而确定药品种类以及药品剂量喷洒农药。而无人驾驶设备在喷洒农药的过程中,一般会忽略杂草的密度及杂草的种类,不能选择合适剂量的农药以及针对杂草种类有针对性的选择农药的种类,造成了农药的浪费,除草效果较差。
针对上述的问题,目前尚未提出有效的解决方案。
发明内容
本申请实施例提供了一种目标对象类型的确定方法及装置、植保方法、植保***,以至少解决无人驾驶设备不能识别杂草种类以及杂草分布,造成了农药的浪费,除草效率较低的技术问题。
本申请实施例提供了一种目标对象类型确定方法,包括:获取第一图像采集装置采集的目标区域的第一图像信息,以及第二图像采集装置采集的目标区域内目标对象的第二图像信息,其中,第二图像采集装置与目标对象的相对距离小于第一图像采集装置与目标对象的相对距离;依据第一图像信息确定目标对象在目标区域的分布信息,并依据第二图像信息确定目标对象的类型。
可选地,依据第二图像信息确定目标对象的类型之前,方法包括:依据第一图像信息确定对目标对象进行类型识别的初步识别结果;确定初步识别结果所指示的类型和依据第二图像信息确定的目标对象的类型是否一致;在两者一致时,确定将依据第二图像信息确定的目标对象的类型作为目标对象的最终识别结果。
可选地,依据第一图像信息确定目标对象在目标区域的分布信息,包括:将第一图像信息输入至第二模型进行分析,得到目标区域中目标对象的分布信息,其中,第二模型为通过多组数据训练得到的,多组数据中的每组数据均包括:目标区域的图像信息、用于标识图像信息中目标对象的分布信息的标签。
可选地,依据第二图像信息确定目标对象的类型,包括:将第二图像信息输入至第一模型进行分析,得到目标对象的类型,其中,第一模型为使用多组数据通过机器学习训练得出的,多组数据中的每组数据包括:样本图像信息和标记样本图像信息中的目标对象的类型的标签。
可选地,上述分部信息包括:目标对象在目标区域中的分布区域和目标对象在各个分布区域的密度。
根据本申请实施例的另一方面,还提供了另一种目标对象的确定方法,包括:获取图像采集装置采集的目标区域内目标对象的第一图像信息,以及目标区域内目标对象的第二图像信息,其中,第二图像信息的清晰度高于第一图像信息的清晰度;依据第一图像信息确定目标对象在目标区域的分部信息,并依据第二图像信息确定目标对象的类型。
可选地,获取目标区域内目标对象的第二图像信息包括以下至少之一:将第一图像信息放大,得到第二图像信息;将图像采集装置的焦距放大;并在放大焦距后采集目标对象的第二图像信息。
根据本申请实施例的另一方面,还提供了一种植保方法,包括:获取第一图像采集装置采集的目标区域的第一图像信息,以及第二图像采集装置采集的目标区域内目标对象的第二图像信息,其中,第二图像采集装置与目标对象的相对距离小于第一图像采集装置与目标对象的相对距离;依据第一图像信息确定目标对象在目标区域的分布信息,并依据第二图像信息确定目标对象的类型;基于分布信息和类型确定对目标对象的第一施药信息,其中,第一施药信息包括以下至少之一:药品种类和药品剂量;将第一施药信息发送至无人驾驶设备的控制***。
可选地,基于分布信息和类型确定对目标对象的第一施药信息之前,方法包括:依据第一图像信息确定对目标对象进行类型识别的初步识别结果;确定初步识别结果所指示的类型和依据第二图像信息确定的目标对象的类型是否一致;在两者一致时,确定将依据第二图像信息确定的目标对象的类型作为目标对象的最终识别结果,并将目标对象的类型作为确定第一施药信息的依据。
可选地,将第一施药信息发送至无人驾驶设备的控制***之前,方法还包括:在初步识别结果所指示的类型和依据第二图像信息确定的目标对象的类型不一致时,依据初步识别结果所指示的类型和分布信息确定第二施药信息;从目标区域的历史数据中查找第三施药信息;确定第一施药信息和第三施药信息的第一相似度,以及第二施药信息和第三施药信息的第二相似度;比较第一相似度和第二相似度的大小;将第一相似度和第二相似度中的较大者所对应的施药信息发送至无人驾驶设备的控制***。
可选地,分布信息包括:目标对象在目标区域中的分布区域和目标对象在各个分布区域的密度。
可选地,上述方法还包括:将分布信息发送至无人驾驶设备控制***;无人驾驶设备控制***依据分布信息确定无人驾驶设备的行驶路线。
可选地,基于分布信息和类型确定对目标对象的第一施药信息,包括:基于类型确定目标对象对应的药品种类;基于分布信息确定药品种类所对应药品的剂量。
可选地,依据第二图像信息确定目标对象的类型,包括:将第二图像信息输入至第一模型进行分析,得到目标对象的类型,其中,第一模型为使用多组数据通过机器学习训练得出的,多组数据中的每组数据包括:样本图像信息和标记样本图像信息中的目标对象的类型的标签。
可选地,依据第一图像信息确定目标对象在目标区域的分布信息,包括:将第一图像信息输入至第二模型进行分析,得到目标区域中目标对象的分布信息,其中,第二模型为通过多组数据训练得到的,多组数据中的每组数据均包括:目标区域的图像信息、用于标识图像信息中目标对象的分布信息的标签。
根据本申请实施例的再一方面,还提供了另一种植保方法,包括:获取第一图像采集装置采集的目标区域的第一图像信息,以及第二图像采集装置采集的第二图像信息,其中,第二图像采集装置与目标对象的相对距离小于第一图像采集装置与目标对象的相对距离;依据第一图像信息确定目标对象在目标区域的分布信息,并依据第二图像信息确定目标对象的类型;基于分布信息和类型确定无人驾驶设备对目标对象的施药策略,其中,施药策略包括以下至少之一:无人驾驶设备的施药路线、施药剂量、所施药品的种类。
根据本申请实施例的再一方面,提供了一种目标对象类型的确定装置,该装置包括:接收模块,用于获取第一图像采集装置采集的目标区域的第一图像信息,以及第二图像采集装置采集的目标区域内目标对象的第二图像信息,其中,第二图像采集装置与目标对象的相对距离小于第一图像采集装置与目标对象的相对距离;确定模块,用于依据第一图像信息确定目标对象在目标区域的分布信息,并依据第二图像信息确定目标对象的类型。
根据本申请实施例的再一方面,提供了一种植保***,包括:图像采集设备,用于获取第一图像采集装置采集的目标区域的第一图像信息,以及第二图像采集装置采集的第二图像信息,其中,第二图像采集装置与目标对象的相对距离小于第一图像采集装置与目标对象的相对距离;服务器,与图像采集设备连接,用于依据第一图像信息确定目标对象在目标区域的分布信息,并依据第二图像信息确定目标对象的类型;基于分布信息和类型确定对目标对象的第一施药信息,其中,第一施药信息包括以下至少之一:药品种类和药品剂量;将第一施药信息发送至无人驾驶设备的控制***;无人驾驶设备,与服务器通信连接,用于对目标区域施药。
根据本申请实施例的再一方面,还提供了一种存储介质,其特征在于,存储介质包括存储的程序,其中,在程序运行时控制存储介质所在设备执行上述的目标对象类型的确定方法或植保方法。
根据本申请实施例的再一方面,还提供了一种处理器,其特征在于,处理器用于运行程序,其中,程序运行时执行上述的目标对象类型的确定方法或植保方法。
在本申请实施例中,采用获取第一图像采集装置采集的目标区域的第一图像信息,以及第二图像采集装置采集的目标区域内目标对象的第二图像信息,其中,第二图像采集装置与目标对象的相对距离小于第一图像采集装置与目标对象的相对距离;依据第一图像信息确定目标对象在目标区域的分布信息,并依据第二图像信息确定目标对象的类型的方式。从而实现了通过多方位采集目标对象特征,确定杂草的分布信息以及种类,选择合适剂量的农药以及针对杂草种类有针对性的选择农药的种类,提高了农药的利用率,提高除草效率的技术效果,进而解决了无人驾驶设备不能识别杂草种类以及杂草分布,造成了农药的浪费,除草效率较低的技术问题。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1是根据本申请实施例的一种目标对象类型的确定方法流程图;
图2是根据本申请实施例的另一种目标对象类型的确定方法的流程图;
图3是根据本申请实施例的一种植保方法的流程图;
图4是根据本申请实施例的另一种植保方法的流程图;
图5是根据本申请实施例的一种目标对象类型的确定装置的结构图;
图6是根据本申请实施例的一种植保***的结构图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分的实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、***、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
根据本申请实施例,提供了一种目标对象类型的确定方法的实施例,需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机***中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
图1是根据本申请实施例的一种目标对象类型的确定方法的流程图,如图1所示,该方法包括如下步骤:
步骤S102,获取第一图像采集装置采集的目标区域的第一图像信息,以及第二图像采集装置采集的目标区域内目标对象的第二图像信息,其中,第二图像采集装置与目标对象的相对距离小于第一图像采集装置与目标对象的相对距离。
在本申请的一些可选的实施例中,第一图像采集为远景采集,第二图像采集为近景采集。
目标区域可以为当前拍摄的农田的区域,目标对象可以为农田中的农作物信息以及杂草信息,也可以仅为杂草信息。
第一图像采集装置与第二图像采集装置可以设置在无人驾驶设备上,第一图像采集装置与第二图像采集装置距离目标对象的距离可以根据拍摄到的目标区域的范围以及照片的清晰度进行调节。
第二图像采集装置可以设置在距离目标对象较近距离处,例如用于采集第二图像信息的无人驾驶设备可设置在距离农田上空的10米处。
在一个可选的实施例中,若庄稼覆盖到杂草,不容易使飞行在农田上空的飞行器拍摄到杂草的图像时,第二图像采集装置也可以为设置在庄稼中飞行的一个或多个小型飞行器,例如:可在玉米地中,放置多个小型飞行器,小型飞行器用于对周围的环境进行拍照,从而根据小型飞行器拍摄到的图像分析杂草的类型。
在另一个可选的实施例中,第一图像采集装置与第二图像采集装置都可以为设置在农作物内部的小型飞行器。具体地,用户可控制小型飞行器在农田的农作物间隙中按照预设路线飞行,实时采集拍摄到的图像,小型飞行器上可设置有定位装置,用户可根据小型飞行器的定位信息与拍摄到的图像信息的对应关系,确定目标对象的分布信息与目标对象的类型。
第一图像采集装置与第二图像采集装置可以根据农户或管理人员的控制指令进行移动。
步骤S104,依据第一图像信息确定目标对象在目标区域的分布信息,并依据第二图像信息确定目标对象的类型。
根据本申请的一个可选的实施例,执行步骤S104中依据第二图像信息确定目标对象的类型之前,上述方法还包括:依据第一图像信息确定对目标对象进行类型识别的初步识别结果;确定初步识别结果所指示的类型和依据第二图像信息确定的目标对象的类型是否一致;在两者一致时,确定将依据第二图像信息确定的目标对象的类型作为目标对象的最终识别结果。
在本申请的一些可选的实施例中,为了保证依据第二图像信息确定目标对象的类型的可靠性,还可以采用以下处理手段:依据第一图像信息确定对目标对象进行类型识别的初步识别结果;确定初步识别结果所指示的类型和依据第二图像信息确定的目标对象的类型是否一致;在两者一致时,确定依据第二图像信息确定的目标对象的类型是正确的,并将目标对象的类型作为确定第一施药信息的依据。上述处理手段可以应用于基于分布信息和类型确定对目标对象的第一施药信息之前。
通过确定初步识别结果所指示的类型和依据第二图像信息确定的目标对象的类型是否一致,保证了依据第二图像信息确定的目标对象的类型的准确率。
在本申请的一些可选的实施例,步骤S104中依据第二图像信息确定目标对象的类型通过以下方法实现:将第二图像信息输入至第一模型进行分析,得到目标对象的类型,其中,第一模型为使用多组数据通过机器学习训练得出的,多组数据中的每组数据包括:样本图像信息和标记样本图像信息中的目标对象的类型的标签。
根据本申请一个可选的实施例,提取近景识别得到的图像的特征数据,并将提取的特征数据输入至训练好的机器学习模型进行预测,得到图像中杂草的种类信息。
根据本申请的一个可选的实施例,步骤S104中依据第一图像信息确定目标对象在目标区域的分布信息,通过以下方法实现:将第一图像信息输入至第二模型进行分析,得到目标区域中目标对象的分布信息,其中,第二模型为通过多组数据训练得到的,多组数据中的每组数据均包括:目标区域的图像信息、用于标识图像信息中目标对象的分布信息的标签。
根据本申请的一个可选的实施例,分布信息包括:目标对象在目标区域中的分布区域和目标对象在各个分布区域的密度。
提取远景识别得到的图像的特征数据,并将提取得到的特征数据输入至训练好的机器学习模型进行预测,得到图像中杂草的分部信息,其中杂草的分部信息包括但不限于杂草的密度信息及杂草在目标区域的分布区域信息。
通过上述步骤,分别采用远景识别和近景识别农作物种植区域的图像,并将识别到的图像分别输入机器学习模型进行预测,通过对远景识别得到的图像进行预测得到农作物种植区域杂草的生长密度及分布区域信息,通过对近景识别得到的图像进行预测得到农作物生长区域杂草的种类信息。
在一个可选的实施例中,依据第一图像信息确定目标对象在目标区域的分布信息,还可以通过图像采集装置拍摄的第一图像信息的RGB值确定,具体地,可通过将第一图像信息的RGB值转化为灰度值,根据灰度值在第一图像中的分布情况,确定目标对象在目标区域的分布信息,例如:灰度值越大,即颜色越深,表示对应区域的目标对象的分布越密集,密度越大。
在一些可选的实施例中,目标对象的类型还可以通过红外采集装置进行采集,即通过红外采集相机获取目标对象的分布信息,例如,不同杂草的红外光谱是不同的,可以利用待识别杂草的光谱识别杂草的分布信息。
图2是根据本申请实施例的另一种目标对象类型的确定方法的流程图,如图2所示,该方法包括如下步骤:
步骤S202,获取图像采集装置采集的目标区域内目标对象的第一图像信息,以及目标区域内目标对象的第二图像信息,其中,第二图像信息的清晰度高于第一图像信息的清晰度。
在本申请的一些可选的实施例中,步骤S202中获取目标区域内目标对象的第二图像信息包括以下至少之一:将第一图像信息放大,得到第二图像信息;将图像采集装置的焦距放大;并在放大焦距后采集目标对象的第二图像信息。
步骤S204,依据第一图像信息确定目标对象在目标区域的分布信息,并依据第二图像信息确定目标对象的类型。
步骤S202至步骤S204提供了另一种目标对象类型的确定方法,其中,第一图像采集装置和第二图像采集装置都是直接采集目标区域内目标对象的图像信息,区别在于第二图像信息中目标对象的清晰度高于第一图像信息中目标对象的清晰图,具体拍摄方案包括如下至少之一:利用图像采集装置采集目标区域内目标对象的图像信息,作为第一图像信息,然后将该图像采集装置的焦距增大,然后利用增大焦距后的突袭那个采集装置采集目标区域内目标对象的推向信息,作为第二图像信息,也就是将图像采集装置的镜头拉近,放大拍摄同一目标区域内的目标对象。如果采集到的第一图像信息的像素比较高,可以直接将第一图像信息放大作为第二图像信息。
需要说明的是,图2所示实施例的优选实施方式可以参见图1所示实施例的相关描述,此处不再赘述。
图3是根据本申请实施例的一种植保方法的流程图,如图3所示,该方法包括以下步骤:
步骤S302,获取第一图像采集装置采集的目标区域的第一图像信息,以及第二图像采集装置采集的目标区域内目标对象的第二图像信息,其中,第二图像采集装置与目标对象的相对距离小于第一图像采集装置与目标对象的相对距离。
步骤S304,依据第一图像信息确定目标对象在目标区域的分布信息,并依据第二图像信息确定目标对象的类型。
根据本申请的一个可选的实施例,步骤S304中依据第二图像信息确定目标对象的类型通过以下方法实现:将第二图像信息输入至第一模型进行分析,得到目标对象的类型,其中,第一模型为使用多组数据通过机器学习训练得出的,多组数据中的每组数据包括:样本图像信息和标记样本图像信息中的目标对象的类型的标签。
在本申请的一些可选的实施例中,步骤S304中依据第一图像信息确定目标对象在目标区域的分布信息,通过以下方法实现:将第一图像信息输入至第二模型进行分析,得到目标区域中目标对象的分布信息,其中,第二模型为通过多组数据训练得到的,多组数据中的每组数据均包括:目标区域的图像信息、用于标识图像信息中目标对象的分布信息的标签。
需要说明的是步骤S302至步骤S304的实施例的优选实施方式可以参见图1所示实施例的描述,此处不再赘述。
步骤S306,基于分布信息和类型确定对目标对象的第一施药信息,其中,第一施药信息包括以下至少之一:药品种类和药品剂量。
基于分布信息和类型确定对目标对象的第一施药信息,可以通过以下方式进行实现:基于目标对象的类型确定目标对象对应的药品种类;基于目标对象的分布信息确定药品种类所对应药品的剂量。
在一些可选的实施例中,目标对象在对应分布区域的密度越大,在该区域内喷洒的药物的剂量越大。
在本申请的一些可选的实施例中,在执行步骤S306之前,上述方法还包括:依据第一图像信息确定对目标对象进行类型识别的初步识别结果;确定初步识别结果所指示的类型和依据第二图像信息确定的目标对象的类型是否一致;在两者一致时,确定将依据第二图像信息确定的目标对象的类型作为目标对象的最终识别结果,并将目标对象的类型作为确定第一施药信息的依据。
在本申请的一些可选的实施例中,为了保证依据第二图像信息确定目标对象的类型的可靠性,还可以采用以下处理手段:依据第一图像信息确定对目标对象进行类型识别的初步识别结果;确定初步识别结果所指示的类型和依据第二图像信息确定的目标对象的类型是否一致;在两者一致时,确定依据第二图像信息确定的目标对象的类型正确,并将目标对象的类型作为确定第一施药信息的依据。上述处理手段可以应用于基于分布信息和类型确定对目标对象的第一施药信息之前。
通过确定初步识别结果所指示的类型和依据第二图像信息确定的目标对象的类型是否一致,保证了依据第二图像信息确定的目标对象的类型的准确率。
步骤S308,将第一施药信息发送至无人驾驶设备的控制***。
根据本申请的一个可选的实施例,在执行步骤S308之前,还可以执行以下步骤:在初步识别结果所指示的类型和依据第二图像信息确定的目标对象的类型不一致时,依据初步识别结果所指示的类型和分布信息确定第二施药信息;从目标区域的历史数据中查找第三施药信息;确定第一施药信息和第三施药信息的第一相似度,以及第二施药信息和第三施药信息的第二相似度;比较第一相似度和第二相似度的大小;将第一相似度和第二相似度中的较大者所对应的施药信息发送至无人驾驶设备控制***。
在一个可选的实施例中,第三施药信息与第一图像信息和第二图像信息对应的目标区域相同。并且,第三施药信息可以为历史数据中实际对农田进行喷药时的施药信息。
在一个可选的实施例中,当第一施药信息中的药品种类与第三施药信息中的药品种类的相似度大于第二施药信息中的药品种类与第三施药信息中的药品种类的相似度时,将第一施药信息发送至无人驾驶设备***;当第二施药信息中的药品种类与第三施药信息中的药品种类的相似度大于第一施药信息中的药品种类与第三施药信息的种类的相似度时,将第二施药信息发送至无人驾驶设备***。具体的,上述药品种类的相似度可以通过药品中含有相同药品成分的比例来确定。
在另一个可选的实施例中,当第一施药信息中的药品剂量与第三施药信息中的药品剂量的相似度大于第二施药信息中的药品剂量与第三施药信息中的药品剂量的相似度时,将第一施药信息发送至无人驾驶设备***;当第二施药信息中的药品剂量与第三施药信息中的药品剂量的相似度大于第一施药信息中的药品剂量与第三施药信息中的药品剂量的相似度时,将第二施药信息发送至无人驾驶设备***。
另外,还可以将分布信息发送至无人驾驶设备控制***;无人驾驶设备控制***依据分布信息确定无人驾驶设备的行驶路线。
在一个可选的实施例中,确定目标对象的分布信息之后,例如目标对象在目标区域中的分布区域与目标对象在各个分布区域的密度之后,可将标对象在目标区域中的分布区域与目标对象在各个分布区域的密度发送至无人驾驶设备控制***,无人驾驶设备控制***可根据:依据目标对象的分布区域确定喷洒范围,以及目标对象的分布区域内密度大的地方往复喷洒多次,在目标对象的分布区域内密度小的地方不喷洒,或不用往复喷洒的原则确定无人驾驶设备的行驶路线。
在一个可选的实施例中,将第一施药信息发送至无人驾驶设备控制***之后,可控制无人驾驶设备根据第一施药信息对药品进行装载。
在一些可选的实施例中,若无人驾驶设备在接收到第一施药信息之前,接收到第二施药信息,则根据第二施药信息对药品进行装载。
通过上述步骤,分别采用远景识别和近景识别农作物种植区域的图像,并将识别到的图像分别输入机器学习模型进行预测,通过对远景识别得到的图像进行预测得到农作物种植区域杂草的生长密度及分布区域信息,通过对近景识别得到的图像进行预测得到农作物生长区域杂草的种类信息;基于杂草的生长密度及分布区域信息确定对目标区域杂草喷洒的农药的种类,基于杂草的种类信息确定对目标区域杂草喷洒的农药的剂量;并将确定的喷洒的农药的种类及喷洒的农药的剂量发送至无人驾驶设备的控制***,以控制无人驾驶设备对目标农作物种植区域完成农药喷洒。解决了无人驾驶设备不能识别杂草种类以及杂草分布,造成的农药浪费、除草效率低的技术问题。
图4是根据本申请实施例的另一种植保方法的流程图,如图4所示,该方法包括如下步骤:
步骤S402,获取第一图像采集装置采集的目标区域的第一图像信息,以及第二图像采集装置采集的目标区域内目标对象的第二图像信息,其中,第二图像采集装置与目标对象的相对距离小于第一图像采集装置与目标对象的相对距离。
步骤S404,依据第一图像信息确定目标对象在目标区域的分布信息,并依据第二图像信息确定目标对象的类型。
步骤S406,基于分布信息和类型确定无人驾驶设备对目标对象的施药策略,其中,施药策略包括以下至少之一:无人驾驶设备的施药路线、施药剂量、施药品的种类。
需要说明的是图4所示实施例的优选实施方式可以参见图1至图3所示实施例的相关描述,此处不再赘述。
图5是根据本申请实施例的一种目标对象类型的确定装置的结构图,如图5所示,该装置包括:
获取模块52,用于获取第一图像采集装置采集的目标区域的第一图像信息,以及第二图像采集装置采集的目标区域内目标对象的第二图像信息,其中,第二图像采集装置与目标对象的相对距离小于第一图像采集装置与目标对象的相对距离;
确定模块54,用于依据第一图像信息确定目标对象在目标区域的分布信息,并依据第二图像信息确定目标对象的类型。
需要说明的是,图5所示实施例的优选实施方式可以参见图1所示实施例的相关描述,此处不再赘述。
图6是根据本申请实施例的一种植保***的结构图,如图6所示,该***包括:
图像采集设备60,用于获取第一图像采集装置采集的目标区域的第一图像信息,以及第二图像采集装置采集的第二图像信息,其中,第二图像采集装置与目标对象的相对距离小于第一图像采集装置与目标对象的相对距离。
服务器62,与图像采集设备60连接,用于依据第一图像信息确定目标对象在目标区域的分布信息,并依据第二图像信息确定目标对象的类型;基于分布信息和类型确定对目标对象的第一施药信息,其中,第一施药信息包括以下至少之一:药品种类和药品剂量;将第一施药信息发送至无人驾驶设备的控制***。
无人驾驶设备64,与服务器62通信连接,用于对目标区域施药。
需要说明的是,图6所示实施例的优选实施方式可以参见图1至图3所示实施例的相关描述,此处不再赘述。
本申请实施例的还提供了一种存储介质,存储介质包括存储的程序,其中,在程序运行时控制存储介质所在设备执行上述的目标对象类型的确定方法或者植保方法。
上述存储介质用于存储执行以下功能的程序:获取第一图像采集装置采集的目标区域的第一图像信息,以及第二图像采集装置采集的目标区域内目标对象的第二图像信息,其中,第二图像采集装置与目标对象的相对距离小于第一图像采集装置与目标对象的相对距离;依据第一图像信息确定目标对象在目标区域的分布信息,并依据第二图像信息确定目标对象的类型。或者
获取第一图像采集装置采集的目标区域的第一图像信息,以及第二图像采集装置采集的目标区域内目标对象的第二图像信息,其中,第二图像采集装置与目标对象的相对距离小于第一图像采集装置与目标对象的相对距离;依据第一图像信息确定目标对象在目标区域的分布信息,并依据第二图像信息确定目标对象的类型;基于分布信息和类型确定对目标对象的第一施药信息,其中,第一施药信息包括以下至少之一:药品种类和药品剂量;将第一施药信息发送至无人驾驶设备的控制***。或者
获取第一图像采集装置采集的目标区域的第一图像信息,以及第二图像采集装置采集的第二图像信息,其中,第二图像采集装置与目标对象的相对距离小于第一图像采集装置与目标对象的相对距离;依据第一图像信息确定目标对象在目标区域的分布信息,并依据第二图像信息确定目标对象的类型;基于分布信息和类型确定无人驾驶设备对目标对象的施药策略,其中,施药策略包括以下至少之一:无人驾驶设备的施药路线、施药剂量、所施药品的种类。
本申请实施例的还提供了一种处理器,处理器用于运行程序,其中,程序运行时执行上述的目标对象类型的确定方法或者植保方法。
上述处理器用于执行实现以下功能的程序:获取第一图像采集装置采集的目标区域的第一图像信息,以及第二图像采集装置采集的目标区域内目标对象的第二图像信息,其中,第二图像采集装置与目标对象的相对距离小于第一图像采集装置与目标对象的相对距离;依据第一图像信息确定目标对象在目标区域的分布信息,并依据第二图像信息确定目标对象的类型。或者
获取第一图像采集装置采集的目标区域的第一图像信息,以及第二图像采集装置采集的目标区域内目标对象的第二图像信息,其中,第二图像采集装置与目标对象的相对距离小于第一图像采集装置与目标对象的相对距离;依据第一图像信息确定目标对象在目标区域的分布信息,并依据第二图像信息确定目标对象的类型;基于分布信息和类型确定对目标对象的第一施药信息,其中,第一施药信息包括以下至少之一:药品种类和药品剂量;将第一施药信息发送至无人驾驶设备的控制***。或者
获取第一图像采集装置采集的目标区域的第一图像信息,以及第二图像采集装置采集的第二图像信息,其中,第二图像采集装置与目标对象的相对距离小于第一图像采集装置与目标对象的相对距离;依据第一图像信息确定目标对象在目标区域的分布信息,并依据第二图像信息确定目标对象的类型;基于分布信息和类型确定无人驾驶设备对目标对象的施药策略,其中,施药策略包括以下至少之一:无人驾驶设备的施药路线、施药剂量、所施药品的种类。
上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。
在本申请的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的技术内容,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,可以为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅是本申请的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本申请的保护范围。
Claims (16)
1.一种目标对象类型的确定方法,其特征在于,所述方法包括:
获取第一图像采集装置采集的目标区域的第一图像信息,以及第二图像采集装置采集的所述目标区域内目标对象的第二图像信息,其中,所述第二图像采集装置与所述目标对象的相对距离小于所述第一图像采集装置与所述目标对象的相对距离;
依据所述第一图像信息确定所述目标对象在所述目标区域的分布信息,并依据所述第二图像信息确定所述目标对象的类型;
依据所述第二图像信息确定所述目标对象的类型包括:依据所述第一图像信息确定对所述目标对象进行类型识别的初步识别结果;确定所述初步识别结果所指示的类型和依据所述第二图像信息确定的所述目标对象的类型是否一致;在两者一致时,确定将依据所述第二图像信息确定的所述目标对象的类型作为所述目标对象的最终识别结果;
确定所述分布信息和所述目标对象的类型之后,所述方法还包括:基于所述分布信息和所述类型确定对所述目标对象的第一施药信息,其中,所述第一施药信息包括以下至少之一:药品种类和药品剂量;将所述第一施药信息发送至无人驾驶设备的控制***;
将所述第一施药信息发送至无人驾驶设备的控制***之前,所述方法还包括:在所述初步识别结果所指示的类型和依据所述第二图像信息确定的所述目标对象的类型不一致时,依据所述初步识别结果所指示的类型和所述分布信息确定第二施药信息;从所述目标区域的历史数据中查找第三施药信息;确定所述第一施药信息和第三施药信息的第一相似度,以及所述第二施药信息和所述第三施药信息的第二相似度;比较所述第一相似度和第二相似度的大小;将所述第一相似度和第二相似度中的较大者所对应的施药信息发送至所述无人驾驶设备的控制***。
2.根据权利要求1所述的方法,其特征在于,依据所述第一图像信息确定所述目标对象在所述目标区域的分布信息,包括:
将所述第一图像信息输入至第二模型进行分析,得到所述目标区域中目标对象的分布信息,其中,所述第二模型为通过多组数据训练得到的,所述多组数据中的每组数据均包括:目标区域的图像信息、用于标识图像信息中目标对象的分布信息的标签。
3.根据权利要求1所述的方法,其特征在于,依据所述第二图像信息确定所述目标对象的类型,包括:
将所述第二图像信息输入至第一模型进行分析,得到所述目标对象的类型,其中,所述第一模型为使用多组数据通过机器学习训练得出的,所述多组数据中的每组数据包括:样本图像信息和标记所述样本图像信息中的目标对象的类型的标签。
4.根据权利要求1至3中任意一项所述的方法,其特征在于,所述分布信息包括:所述目标对象在所述目标区域中的分布区域和所述目标对象在各个所述分布区域的密度。
5.一种目标对象类型的确定方法,其特征在于,所述方法包括:
获取图像采集装置采集的目标区域内目标对象的第一图像信息,以及所述目标区域内所述目标对象的第二图像信息,其中, 所述第二图像信息的清晰度高于所述第一图像信息的清晰度;
依据所述第一图像信息确定所述目标对象在所述目标区域的分布信息,并依据所述第二图像信息确定所述目标对象的类型;
依据所述第二图像信息确定所述目标对象的类型包括:依据所述第一图像信息确定对所述目标对象进行类型识别的初步识别结果;确定所述初步识别结果所指示的类型和依据所述第二图像信息确定的所述目标对象的类型是否一致;在两者一致时,确定将依据所述第二图像信息确定的所述目标对象的类型作为所述目标对象的最终识别结果;
确定所述分布信息和所述目标对象的类型之后,所述方法还包括:基于所述分布信息和所述类型确定对所述目标对象的第一施药信息,其中,所述第一施药信息包括以下至少之一:药品种类和药品剂量;将所述第一施药信息发送至无人驾驶设备的控制***;
将所述第一施药信息发送至无人驾驶设备的控制***之前,所述方法还包括:在所述初步识别结果所指示的类型和依据所述第二图像信息确定的所述目标对象的类型不一致时,依据所述初步识别结果所指示的类型和所述分布信息确定第二施药信息;从所述目标区域的历史数据中查找第三施药信息;确定所述第一施药信息和第三施药信息的第一相似度,以及所述第二施药信息和所述第三施药信息的第二相似度;比较所述第一相似度和第二相似度的大小;将所述第一相似度和第二相似度中的较大者所对应的施药信息发送至所述无人驾驶设备的控制***。
6.根据权利要求5所述的方法,其特征在于,获取所述目标区域内所述目标对象的第二图像信息包括以下至少之一:
将所述第一图像信息放大,得到所述第二图像信息;
将所述图像采集装置的焦距放大;并在放大焦距后采集所述目标对象的第二图像信息。
7.一种植保方法,其特征在于,所述方法包括:
获取第一图像采集装置采集的目标区域的第一图像信息,以及第二图像采集装置采集的所述目标区域内目标对象的第二图像信息,其中,所述第二图像采集装置与所述目标对象的相对距离小于所述第一图像采集装置与所述目标对象的相对距离;
依据所述第一图像信息确定所述目标对象在所述目标区域的分布信息,并依据所述第二图像信息确定所述目标对象的类型;
基于所述分布信息和所述类型确定对所述目标对象的第一施药信息,其中,所述第一施药信息包括以下至少之一:药品种类和药品剂量;
将所述第一施药信息发送至无人驾驶设备的控制***;
基于所述分布信息和所述类型确定对所述目标对象的第一施药信息之前,所述方法包括:依据所述第一图像信息确定对所述目标对象进行类型识别的初步识别结果;确定所述初步识别结果所指示的类型和依据所述第二图像信息确定的所述目标对象的类型是否一致;在两者一致时,确定将依据所述第二图像信息确定的所述目标对象的类型作为所述目标对象的最终识别结果,并将所述目标对象的类型作为确定所述第一施药信息的依据;
将所述第一施药信息发送至无人驾驶设备的控制***之前,所述方法还包括:在所述初步识别结果所指示的类型和依据所述第二图像信息确定的所述目标对象的类型不一致时,依据所述初步识别结果所指示的类型和所述分布信息确定第二施药信息;从所述目标区域的历史数据中查找第三施药信息;确定所述第一施药信息和第三施药信息的第一相似度,以及所述第二施药信息和所述第三施药信息的第二相似度;比较所述第一相似度和第二相似度的大小;将所述第一相似度和第二相似度中的较大者所对应的施药信息发送至所述无人驾驶设备的控制***。
8.根据权利要求7所述的方法,其特征在于,所述分布信息包括:所述目标对象在所述目标区域中的分布区域和所述目标对象在各个所述分布区域的密度。
9.根据权利要求8所述的方法,其特征在于,所述方法还包括:
将所述分布信息发送至所述无人驾驶设备的控制***;
所述无人驾驶设备的控制***依据所述分布信息确定无人驾驶设备的行驶路线。
10.根据权利要求7所述的方法,其特征在于,基于所述分布信息和所述类型确定对所述目标对象的第一施药信息,包括:
基于所述类型确定所述目标对象对应的药品种类;
基于所述分布信息确定所述药品种类所对应药品的剂量。
11.根据权利要求7至10中任意一项所述的方法,其特征在于,依据所述第二图像信息确定所述目标对象的类型,包括:
将所述第二图像信息输入至第一模型进行分析,得到所述目标对象的类型,其中,所述第一模型为使用多组数据通过机器学习训练得出的,所述多组数据中的每组数据包括:样本图像信息和标记所述样本图像信息中的目标对象的类型的标签。
12.根据权利要求7至10中任意一项所述的方法,其特征在于,依据所述第一图像信息确定所述目标对象在所述目标区域的分布信息,包括:
将所述第一图像信息输入至第二模型进行分析,得到所述目标区域中目标对象的分布信息,其中,所述第二模型为通过多组数据训练得到的,所述多组数据中的每组数据均包括:目标区域的图像信息、用于标识图像信息中目标对象的分布信息的标签。
13.一种目标对象类型的确定装置,其特征在于,所述装置包括:
接收模块,用于获取第一图像采集装置采集的目标区域的第一图像信息,以及第二图像采集装置采集的所述目标区域内目标对象的第二图像信息,其中,所述第二图像采集装置与所述目标对象的相对距离小于所述第一图像采集装置与所述目标对象的相对距离;
确定模块,用于依据所述第一图像信息确定所述目标对象在所述目标区域的分布信息,并依据所述第二图像信息确定所述目标对象的类型;
所述确定模块还用于依据所述第一图像信息确定对所述目标对象进行类型识别的初步识别结果;确定所述初步识别结果所指示的类型和依据所述第二图像信息确定的所述目标对象的类型是否一致;在两者一致时,确定将依据所述第二图像信息确定的所述目标对象的类型作为所述目标对象的最终识别结果;
所述装置还用于在确定所述分布信息和所述目标对象的类型之后,基于所述分布信息和所述类型确定对所述目标对象的第一施药信息,其中,所述第一施药信息包括以下至少之一:药品种类和药品剂量;将所述第一施药信息发送至无人驾驶设备的控制***;
所述装置还用于在将所述第一施药信息发送至无人驾驶设备的控制***之前,在所述初步识别结果所指示的类型和依据所述第二图像信息确定的所述目标对象的类型不一致时,依据所述初步识别结果所指示的类型和所述分布信息确定第二施药信息;从所述目标区域的历史数据中查找第三施药信息;确定所述第一施药信息和第三施药信息的第一相似度,以及所述第二施药信息和所述第三施药信息的第二相似度;比较所述第一相似度和第二相似度的大小;将所述第一相似度和第二相似度中的较大者所对应的施药信息发送至所述无人驾驶设备的控制***。
14.一种植保***,其特征在于,包括:
图像采集设备,用于获取第一图像采集装置采集的目标区域的第一图像信息,以及第二图像采集装置采集的第二图像信息,其中,所述第二图像采集装置与目标对象的相对距离小于所述第一图像采集装置与所述目标对象的相对距离;
服务器,与所述图像采集设备连接,用于依据所述第一图像信息确定所述目标对象在所述目标区域的分布信息,并依据所述第二图像信息确定所述目标对象的类型;基于所述分布信息和所述类型确定对所述目标对象的第一施药信息,其中,所述第一施药信息包括以下至少之一:药品种类和药品剂量;将所述第一施药信息发送至无人驾驶设备的控制***;
无人驾驶设备,与所述服务器通信连接,用于对所述目标区域施药;
所述服务器还用于依据所述第一图像信息确定对所述目标对象进行类型识别的初步识别结果;确定所述初步识别结果所指示的类型和依据所述第二图像信息确定的所述目标对象的类型是否一致;在两者一致时,确定将依据所述第二图像信息确定的所述目标对象的类型作为所述目标对象的最终识别结果;
所述服务器还用于在将所述第一施药信息发送至无人驾驶设备的控制***之前,在所述初步识别结果所指示的类型和依据所述第二图像信息确定的所述目标对象的类型不一致时,依据所述初步识别结果所指示的类型和所述分布信息确定第二施药信息;从所述目标区域的历史数据中查找第三施药信息;确定所述第一施药信息和第三施药信息的第一相似度,以及所述第二施药信息和所述第三施药信息的第二相似度;比较所述第一相似度和第二相似度的大小;将所述第一相似度和第二相似度中的较大者所对应的施药信息发送至所述无人驾驶设备的控制***。
15.一种存储介质,其特征在于,所述存储介质存储有程序,其中,所述程序由处理器运行时控制所述存储介质所在设备执行权利要求1至6中任意一项所述的目标对象类型的确定方法,或权利要求7至12中任意一项所述的植保方法。
16.一种处理器,其特征在于,所述处理器用于运行程序,其中,所述程序运行时执行权利要求1至6中任意一项所述的目标对象类型的确定方法,或权利要求7至12中任意一项所述的植保方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811217258.1A CN109492541B (zh) | 2018-10-18 | 2018-10-18 | 目标对象类型的确定方法及装置、植保方法、植保*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811217258.1A CN109492541B (zh) | 2018-10-18 | 2018-10-18 | 目标对象类型的确定方法及装置、植保方法、植保*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109492541A CN109492541A (zh) | 2019-03-19 |
CN109492541B true CN109492541B (zh) | 2021-02-19 |
Family
ID=65692113
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811217258.1A Active CN109492541B (zh) | 2018-10-18 | 2018-10-18 | 目标对象类型的确定方法及装置、植保方法、植保*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109492541B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110059678A (zh) * | 2019-04-17 | 2019-07-26 | 上海肇观电子科技有限公司 | 一种检测方法、装置及计算机可读存储介质 |
EP4055516A1 (en) * | 2019-11-08 | 2022-09-14 | BASF Agro Trademarks GmbH | Scouting functionality emergence |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108369635A (zh) * | 2015-11-08 | 2018-08-03 | 阿格洛英公司 | 用于航空图像获取与分析的方法 |
CN108519775A (zh) * | 2017-10-30 | 2018-09-11 | 北京博鹰通航科技有限公司 | 一种精准喷洒的无人机***及其控制方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012046671A1 (ja) * | 2010-10-06 | 2012-04-12 | 日本電気株式会社 | 測位システム |
CN103523224A (zh) * | 2013-10-31 | 2014-01-22 | 无锡同春新能源科技有限公司 | 一种带彩色稻病图像识别仪防治水稻白叶枯病的无人机 |
EP3444688A4 (en) * | 2016-08-11 | 2019-07-10 | Autel Robotics Co., Ltd. | METHOD AND SYSTEM FOR TRACKING AND IDENTIFICATION AND AIRCRAFT |
CN106585992A (zh) * | 2016-12-15 | 2017-04-26 | 上海土是宝农业科技有限公司 | 一种无人机智能识别、精确喷洒农药的方法及*** |
CN108549869A (zh) * | 2018-04-13 | 2018-09-18 | 哈尔滨理工大学 | 一种基于专家***的植保无人机自适应作业方法 |
CN108460972A (zh) * | 2018-05-17 | 2018-08-28 | 南京云思创智信息科技有限公司 | 一种基于无人机的多车牌自主检测和定位***及方法 |
-
2018
- 2018-10-18 CN CN201811217258.1A patent/CN109492541B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108369635A (zh) * | 2015-11-08 | 2018-08-03 | 阿格洛英公司 | 用于航空图像获取与分析的方法 |
CN108519775A (zh) * | 2017-10-30 | 2018-09-11 | 北京博鹰通航科技有限公司 | 一种精准喷洒的无人机***及其控制方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109492541A (zh) | 2019-03-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109197278B (zh) | 作业策略的确定方法及装置、药物喷洒策略的确定方法 | |
Khan et al. | Estimation of vegetation indices for high-throughput phenotyping of wheat using aerial imaging | |
AU2015265625B2 (en) | Methods, systems, and devices relating to real-time object identification | |
CN109446958B (zh) | 施药效果的确定方法及装置、*** | |
EP3741214A1 (en) | Method for plantation treatment based on image recognition | |
CN109446959B (zh) | 目标区域的划分方法及装置、药物的喷洒控制方法 | |
CN109409275B (zh) | 目标对象的识别方法及装置、施药信息的确定方法 | |
WO2020078396A1 (zh) | 分布信息的确定方法、无人飞行器的控制方法及装置 | |
EP3815529A1 (en) | Agricultural plant detection and control system | |
Aravind et al. | Design and development of automatic weed detection and smart herbicide sprayer robot | |
Ajayi et al. | Effect of varying training epochs of a faster region-based convolutional neural network on the accuracy of an automatic weed classification scheme | |
CN109197273B (zh) | 害虫活动时间段的确定方法及装置、施药时间的确定方法 | |
CN109492541B (zh) | 目标对象类型的确定方法及装置、植保方法、植保*** | |
CN113822198B (zh) | 基于uav-rgb图像和深度学习的花生生长监测方法、***及介质 | |
CN114206110A (zh) | 用于生成用于利用农业设备来处理田地的应用地图的方法 | |
Albuquerque et al. | Water spray detection for smart irrigation systems with Mask R-CNN and UAV footage | |
CN116686814A (zh) | 一种植保无人机的施药控制方法、***及介质 | |
Ponnusamy et al. | An IoT-Enabled Augmented Reality Framework for Plant Disease Detection. | |
CN115631421A (zh) | 耕地智慧保护方法及保护*** | |
CN112541383B (zh) | 杂草区域的识别方法和装置 | |
Molin et al. | Precision agriculture and the digital contributions for site-specific management of the fields | |
JP7075171B2 (ja) | コンピュータシステム、病害虫検出方法及びプログラム | |
US20220392214A1 (en) | Scouting functionality emergence | |
CN117274674A (zh) | 对靶施药方法、电子设备、存储介质及*** | |
CN115797764B (zh) | 一种应用于耕地非农化监测的遥感大数据解译方法及*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CP03 | Change of name, title or address | ||
CP03 | Change of name, title or address |
Address after: 510000 Block C, 115 Gaopu Road, Tianhe District, Guangzhou City, Guangdong Province Patentee after: XAG Co., Ltd. Address before: 510000, No. 1, Cheng Cheng Road, Gaotang Software Park, Guangzhou, Guangdong, Tianhe District, 3A01 Patentee before: Guangzhou Xaircraft Technology Co.,Ltd. |