CN115578656A - 一种支持多型号多光谱相机数据全自动处理的方法和*** - Google Patents

一种支持多型号多光谱相机数据全自动处理的方法和*** Download PDF

Info

Publication number
CN115578656A
CN115578656A CN202211273396.8A CN202211273396A CN115578656A CN 115578656 A CN115578656 A CN 115578656A CN 202211273396 A CN202211273396 A CN 202211273396A CN 115578656 A CN115578656 A CN 115578656A
Authority
CN
China
Prior art keywords
images
image
multispectral
research area
ground control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202211273396.8A
Other languages
English (en)
Other versions
CN115578656B (zh
Inventor
李文娟
吴文斌
余强毅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Agricultural Resources and Regional Planning of CAAS
Original Assignee
Institute of Agricultural Resources and Regional Planning of CAAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Agricultural Resources and Regional Planning of CAAS filed Critical Institute of Agricultural Resources and Regional Planning of CAAS
Priority to CN202211273396.8A priority Critical patent/CN115578656B/zh
Publication of CN115578656A publication Critical patent/CN115578656A/zh
Application granted granted Critical
Publication of CN115578656B publication Critical patent/CN115578656B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/194Terrestrial scenes using hyperspectral data, i.e. more or other wavelengths than RGB
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10036Multispectral image; Hyperspectral image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Remote Sensing (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Image Processing (AREA)

Abstract

本发明提出一种支持多型号多光谱相机数据全自动处理的方法,包括:S1,对无人机飞行信息进行提取,以及对无人机拍摄的研究区的多光谱图像进行消除暗角效应和配准;S2,对S1中配准后的多光谱图像拼接和几何校正;S3,对覆盖研究区的多光谱图像进行裁切及辐射定标。本发明还对应提出一种***。本发明的方法适用于多款多光谱相机,能够极大地提升搭载在无人机上的多光谱相机的数据处理能力,简化操作流程。

Description

一种支持多型号多光谱相机数据全自动处理的方法和***
技术领域
本发明涉及相机数据处理技术,更具体地,涉及一种支持多型号多光谱相机数据全自动处理的方法和***。
背景技术
随着无人机技术和多光谱成像相机的发展,搭载多光谱成像相机的无人机在农业监测中的应用日益增加。处理多光谱相机采集的图像涉及到多个步骤,包括:消除图像的暗角效应、同一拍照对象多波段图像之间的配准、影像间的拼接、几何校正、生成三维点云、辐射校正、生成各波段的正射影像以及根据研究区边界在原始图像上裁切出研究区的多角度图像等。目前已有多款商业软件可以进行以上操作,如Pix4D、Agisoft Metashape和大疆智图等。然而,目前的科研人员或者产业领域应用人员处理无人机多光谱影像时仍然面临着诸多问题:
1)很多操作需要人为手动完成,例如几何校正的环节,需要人工目视方式在拼接后的图像中寻找到地面控制点,输入实测的经纬度信息。一般一次飞行会放置3-5个地面控制点,则需要输入相应次数的经度、纬度和海拔高度数据。当待处理的无人机飞行较多、数据量较大时,该环节会耗费大量的人工和时间成本。
2)一些软件***并不支持多波段图像之间的配准,而另一些软件***是在生成正射影像之后进行各波段之间的配准,在一定程度上会影响正射影像的精度。
3)在目前的很多研究中,每个研究区的影像获取是直接从正射影像中裁切,其精度、分辨率直接受到正射影像的影响,同时由于正射影像是软件生成的观测角度垂直向下的图像,丢失了原始无人机飞行时每张图片的多角度信息,不利于后期的农作物参数提取与应用。
4)目前市场上有多款商业多光谱成像相机,而并无一套完全自动化的处理方法,可以兼容不同品牌的相机。
发明内容
针对背景技术中的问题,本发明提出一种可以兼容多型号多光谱成像相机采集的无人机数据自动处理的方法,生成一套多光谱图像的预处理、拼接、辐射定标和研究区裁切的自动化流程。
本发明的一种支持多型号多光谱相机数据全自动处理的方法包括:S1,对无人机飞行信息进行提取,以及对无人机拍摄的研究区的多光谱图像进行消除暗角效应和配准;S2,对S1中配准后的多光谱图像拼接和几何校正;S3,对覆盖研究区的多光谱图像进行裁切及辐射定标。
本发明还抵触一种支持多型号多光谱相机数据全自动处理的***,其包括处理器,所述处理器能够实现所述方法。
本发明的有益效果包括:本发明可以自动进行多光谱图像的配准、自动搜索到地面控制点位置并赋予真实地理坐标、自动搜索到辐射定标板并提取相关实测数据实现辐射定标、自动裁切出包含研究区的图像并计算多角度反射率,且该方法适用于多款多光谱相机,能够极大地提升搭载在无人机上的多光谱相机的数据处理能力,简化操作流程,使非图像处理或遥感专业人员也能很好地进行飞行图像处理。
附图说明
为了更容易理解本发明,将通过参照附图中示出的具体实施方式更详细地描述本发明。这些附图只描绘了本发明的典型实施方式,不应认为对本发明保护范围的限制。
图1为本发明方法的一个实施方式的流程图。
图2为本发明方法的另一个实施方式的流程图。
图3为多光谱相机采集的一张图像的暗角效应校正系数样例。
图4显示了多种包含地面控制点的图像。
具体实施方式
下面参照附图描述本发明的实施方式,以便于本领域的技术人员可以更好的理解本发明并能予以实施,但所列举的实施例不作为本发明的限定,在不冲突的情况下,下述的实施例及实施例中的技术特征可以相互组合,其中相同的部件用相同的附图标记表示。
如图1-图2所示,本发明的方法包括S1-S3。
S1,对无人机飞行信息进行提取,以及对无人机拍摄的多光谱图像进行预处理:消除暗角效应和配准。在一个实施例中,步骤S1包括S11-S14。
S11,从原始的无人机飞行中,获取以下飞行信息:连续飞行次数、波段数量、暗角效应校正系数、图像采集的GPS信息(经度、纬度、高度和时间)、地面辐射定标板的辐射参考值、地面控制点信息(每个控制点的经度、纬度和海拔高度)。
具体来说,逐一获取如下信息。是否是针对同一块地的多次连续飞行。多光谱相机的品牌,对应的波段数量。获得的图像中是否有XMP文件信息,XMP文件中是否包含了暗角效应校正系数。XMP文件信息是否有EXIF头文件信息,EXIF信息中是否包含了图像采集的GPS信息(经度、纬度、高度和时间)。是否有地面辐射定标板的辐射参考值,即每个波段的反射率数据。如果是非RTK无人机采集的数据,还需要判断是否有地面控制点文件,地面控制点文件是否包含了完整的信息(每个控制点的经度、纬度和海拔高度)。若以上信息完整,则继续下一步,若信息有缺失,则在代码运行日志中输出缺失的信息,并提示操作者。
S12,针对同一块地的多次连续飞行获得的多光谱图像,将多次飞行的数据按照飞行次数以及波段进行合并。
在一个实施方式中,可以合并到同一个文件夹中,具体操作步骤如下:第一次飞行有N张图像,图像命名为1_XXnm.tif,直到N_XXnm.tif,其中XX代表波段,第二次飞行有M张图像,则第一个图像命名修改为1+N_XXnm.tif,第M张修改M+N_XXnm.tif,依次类推,直到同一块地的多次飞行合并到同一文件中。将多次飞行的图像按次序放在同一文件夹中,避免了图像名称重复、覆盖。
S13,消除所有图像的暗角效应。
读取图像XMP文件信息中的暗角效应校正系数,并将暗角效应校正系数应用到原始的多光谱图像中进行校正。
如图3所示为大疆Phantom4多光谱相机采集的一张图像的暗角效应校正系数Vignetting Polynomial和暗角效应校正中心Vignetting Center。如图2所示,可以使用常见的多项式方程进行校正,校正前图像中每个像元的数值为DN,校正后为DN1:
DN1=DN×(k6×r6+k5×r5+k4×r4+k3×r3+k2×r2+k×r)
其中,k~k6分别为Vignetting Polynomial中的6个系数,r为图像的每个像素到校正中心Vignetting Center的几何距离。
S14,对不同波段间的图像进行批量配准,得到配准后的多光谱图像。
对同一个目标的多波段图像,使用某个波段图像为参考,优先选择绿波段,根据不同波段间图像的相似性,将其他波段图像进行移动,使之与该参考波段图像间的匹配度达到最高,生成新的图像。同时,生成每个图像移动前后与参考波段图像的匹配度参数,写入运行日志中。
本发明对同一目标的多波段图像自动进行配准,确保在生成正射影像前,各波段的图像就配准到位,且该步骤不仅局限于某一款多光谱相机,而是适用于多型号多光谱相机。
S2,对S1中配准后的多光谱图像拼接、几何校正。在一个实施例中,步骤S2包括S21-S24。
S21,对图像进行拼接生成三维点云。在一个实施方式中,可以使用商业软件Agisoft Metashape的API接口,输入S1获得的多光谱图像,使用某个波段图像为参考,优先选择绿波段进行拼接和三维重建,其余波段的图像与该参考波段位置相同。基于运动结构恢复技术(Structure from motion,SFM),根据多幅图像及其特征的对应关系,实现三维重建,生成研究区地块的三维点云。
目前有多款商业或者开源软件可以实现图像的拼接及三维点云重建,其中Agisoft Metashape最为成熟、稳定,且提供了可进行自定义二次开发的API接口,方便调用。
S22,建立地面控制点图案深度学习模型。
1)在处理无人机数据前,提前采集大量(例如2000张)包含地面控制点的多光谱图像。
2)标注地面控制点图案。选择参考波段图像(例如绿色波段),使用在线深度学习标注工具LabelStudio,将所有的地面控制点用矩形工具框出来。图4显示了多种包含地面控制点的图像。图中显示的是红-绿-蓝三波段合成的图像,为可视化效果更好。
3)将所有进行过标注的图像作为训练数据集,使用网络模型进行训练,得到得到地面控制点图案深度学习模型。优选地,使用Faster R-CNN深度网络进行训练,相较于R-CNN网络和Fast R-CNN网络,该网络具有更好的性能,能捕捉到更多的目标特征信息。
在训练时,随机选用了70%的图像作为训练数据集,剩余30%的图像作为验证数据集,在训练完成后,使用生成的模型在剩余30%的图像上进行预报并与实际结果进行对比,进行精度评价。该精度评价过程共进行多次(例如三次),并将结果输出到运行日志中。
使用深度学习技术在配准后的图像中自动搜索地面控制点,并赋予相应的地面实测的经度、纬度和高度,可以极大的减少人工操作。
S23,针对具有完整地面控制点(真实精度、纬度和海拔高度信息)图案的图像,应用S22生成的模型。
首先在所有的参考波段图像中选择有完整地面控制点图案的图像,然后将地面控制点的图案框出来,并同时输出该图像的编号、地面控制点图案中心在图像上的位置。所有信息写入运行日志中。
S24,对S21生成的三维点云进行优化,得到几何校正后的三维点云。
1)根据S21生成点云后计算得到的每张图像在整个研究区的地理位置,计算S23中识别出的每个控制点的经度、纬度信息。2)与S11中地面控制点文件中每个控制点的经度、纬度数据进行对比,选择最接近的实际的地面控制点,并赋予相应的编号。3)对所有图像进行几何校正(例如通过调用Agisoft Metashape API实现)。优选地,校正后的图像几何精度应当在10mm之内,若超过该范围则报错停止,反之则继续运行。
S25,对所有图像进行几何校正(调用Agisoft Metashape API继续运行),生成整体飞行的正射影像。
S3,对覆盖研究区的多光谱图像进行裁切及辐射定标。基于图像拼接后的信息以及输入的研究区范围,自动从多幅图像中搜索出覆盖研究区的图像,并按照研究区的范围进行裁切,获取研究区的多角度图像。在一个实施例中,步骤S3包括S31-S33。
S31,根据S11获得的研究区的边界范围,根据S24优化后的三维点云以及每张图像的经纬度信息,选择包含有研究区的图像,根据研究区的边界范围进行裁切,获得包含研究区的所有多光谱图像。优选地,按照研究区的命名生成新的文件夹,存入裁切后的所有图像。
S32,建立辐射定标板深度学习模型。
1)在处理无人机数据前,提前采集大量(例如2000张)包含辐射定标板的多光谱图像。
2)标注辐射定标板。选择参考波段图像(例如绿色波段),使用在线深度学习标注工具LabelStudio,将所有的辐射定标板用矩形工具框出来。
3)将所有进行过标注的图像作为训练数据集,使用网络模型进行训练,得到辐射定标板深度学习模型。优选地,使用Faster R-CNN深度网络进行训练,相较于R-CNN网络和Fast R-CNN网络,该网络具有更好的性能,能捕捉到更多的目标特征信息。
使用深度学习技术自动搜索地面放置的辐射定标板,并读取相应的信息,进而进行辐射定标的操作,减少人工手动搜索辐射参考板的操作。
S33,将辐射定标板深度学习模型应用到S31得到所有的多光谱图像中,选择出其中包含辐射定标板的图像,得到研究区辐射定标后的多光谱图像。
如果是带二维码的辐射定标板,则读取二维码信息及其包含的辐射定标板的多波段反射率数据;若是普通的辐射定标板,并读取S11步骤输入的多波段反射率。对两种辐射定标板,定位到中心,画一个正方形缓冲区,边长一般为辐射定标板的边长的一部分,如三分之二以确保缓冲区在辐射定标板上且不受边界影响,读取该区域的实测的DN值,利用如下公式进行每幅图像的辐射定标:
Figure BDA0003896054730000081
其中,DN为S14配准后的多光谱图像,t为该图像对应的积分时间,DNref为如上读取的辐射定标板的DN值,tref为包含辐射定标板的图像对应的积分时间,Ω为几何角度,包括了每幅图像的观测天顶角、观测方位角、太阳天顶角和太阳方位角,λ为波段,BRFref(Ωo,λ)为辐射定标板在波段λ的标准反射率,BRF(Ω,λ)为每幅图像辐射定标后的反射率数据。
最后可以生成辐射定标后的反射率图像,并计算图像的反射率均值,输出到excel表格中。
S34,针对S33中获得的研究区辐射定标后的多光谱图像,基于研究区多角度观测反射率及对应的几何信息,得到辐射定标后的正射影像。
具体地,在S33中选择出的所有包含有辐射定标板的图像中,选择其中观测天顶角最接近星下的图像,提取辐射定标板的DNref,使用公式(1),将S25生成的正射影像进行辐射标定,转化为多波段的反射率正射影像。
本发明已经在多款多光谱相机(Micasense RedEdge-MX,大疆Phantom4M,Airphen等)上测试过,并在多种农作物中测试过,具有很好的效果。
以上所述的实施例,只是本发明较优选的具体实施方式,本说明书使用词组“在一种实施例中”、“在另一个实施例中”、“在又一实施例中”或“在其他实施例中”,其均可指代根据本公开的相同或不同实施例中的一个或多个。本领域的技术人员在本发明技术方案范围内进行的通常变化和替换都应包含在本发明的保护范围内。

Claims (10)

1.一种支持多型号多光谱相机数据全自动处理的方法,其特征在于,包括:
S1,对无人机飞行信息进行提取,以及对无人机拍摄的研究区的多光谱图像进行消除暗角效应和配准;
S2,对S1中配准后的多光谱图像拼接和几何校正;
S3,对覆盖研究区的多光谱图像进行裁切及辐射定标。
2.根据权利要求1所述的方法,其特征在于,步骤S1包括:
S11,从原始的无人机飞行中,获取以下飞行信息:连续飞行次数、波段数量、暗角效应校正系数、图像采集的GPS信息、地面辐射定标板的辐射参考值和地面控制点信息;
S12,针对同一块地的多次连续飞行获得的图像,将多次飞行的数据按照飞行次数以及波段进行合并;
S13,消除所有图像的暗角效应;
S14,对不同波段间的图像进行批量配准,得到配准后的多光谱图像。
3.根据权利要求2所述的方法,其特征在于,步骤S2包括:
S21,对图像进行拼接生成三维点云;
S22,建立地面控制点图案深度学习模型;
S23,针对具有完整地面控制点图案的图像,应用S22生成的模型;
S24,对S21生成的三维点云进行优化,得到几何校正后的三维点云;
S25,对所有图像进行几何校正,生成整体飞行的正射影像。
4.根据权利要求3所述的方法,其特征在于,步骤S3包括:
S31,根据S11获得的研究区的边界范围,根据S24优化后的三维点云以及每张图像的经纬度信息,选择包含有研究区的图像,根据研究区的边界范围进行裁切,获得包含研究区的所有多光谱图像;
S32,建立辐射定标板深度学习模型;
S33,将辐射定标板深度学习模型应用到S31得到的所有多光谱图像中,选择出其中包含辐射定标板的图像,得到研究区辐射定标后的多光谱图像;
S34,针对S33中获得的研究区辐射定标后的多光谱图像,基于研究区多角度观测反射率及对应的几何信息,得到辐射定标后的正射影像。
5.根据权利要求3所述的方法,其特征在于,步骤S22包括:
1)在处理无人机数据前,提前采集多张包含地面控制点的多光谱图像;
2)标注地面控制点图案;
3)将所有进行过标注的图像作为训练数据集,使用网络模型进行训练,得到地面控制点图案深度学习模型。
6.根据权利要求5所述的方法,其特征在于,在步骤S22中,使用绿色波段图像,将所有的地面控制点用矩形工具框出来。
7.根据权利要求4所述的方法,其特征在于,步骤S32包括:
1)在处理无人机数据前,提前采集多张包含辐射定标板的多光谱图像;
2)标注辐射定标板;
3)将所有进行过标注的图像作为训练数据集,使用网络模型进行训练,得到辐射定标板深度学习模型。
8.根据权利要求7所述的方法,其特征在于,在步骤S32中,使用绿色波段图像,将所有的地面控制点用矩形工具框出来。
9.根据权利要求2所述的方法,其特征在于,在步骤S14中,对同一个目标的多波段图像,使用某个波段图像为参考,根据不同波段间图像的相似性,将其他波段图像进行移动,使之与该参考波段图像间的匹配度达到最高,生成新的图像。
10.一种支持多型号多光谱相机数据全自动处理的***,其特征在于,所述***包括处理器,所述处理器中加载有计算机程序,所述计算机程序运行时,所述***完成如权利要求1-9中任一项所述的方法。
CN202211273396.8A 2022-10-18 2022-10-18 一种支持多型号多光谱相机数据全自动处理的方法和*** Active CN115578656B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211273396.8A CN115578656B (zh) 2022-10-18 2022-10-18 一种支持多型号多光谱相机数据全自动处理的方法和***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211273396.8A CN115578656B (zh) 2022-10-18 2022-10-18 一种支持多型号多光谱相机数据全自动处理的方法和***

Publications (2)

Publication Number Publication Date
CN115578656A true CN115578656A (zh) 2023-01-06
CN115578656B CN115578656B (zh) 2023-07-04

Family

ID=84585135

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211273396.8A Active CN115578656B (zh) 2022-10-18 2022-10-18 一种支持多型号多光谱相机数据全自动处理的方法和***

Country Status (1)

Country Link
CN (1) CN115578656B (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102968631A (zh) * 2012-11-22 2013-03-13 中国科学院、水利部成都山地灾害与环境研究所 山区多光谱遥感卫星影像的自动几何纠正与正射校正方法
CN106683068A (zh) * 2015-11-04 2017-05-17 北京文博远大数字技术有限公司 一种三维数字化图像采集方法及设备
CN108111777A (zh) * 2017-12-15 2018-06-01 武汉精立电子技术有限公司 一种暗角校正***及方法
CN109815916A (zh) * 2019-01-28 2019-05-28 成都蝉远科技有限公司 一种基于卷积神经网络算法的植被种植区域识别方法及***
US20200167603A1 (en) * 2018-11-27 2020-05-28 Here Global B.V. Method, apparatus, and system for providing image labeling for cross view alignment
US20210407126A1 (en) * 2017-05-04 2021-12-30 Skydio, Inc. Ground control point center determination
US20220319035A1 (en) * 2019-05-24 2022-10-06 Inria Institut National De Recherche En Informa... Shot-processing device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102968631A (zh) * 2012-11-22 2013-03-13 中国科学院、水利部成都山地灾害与环境研究所 山区多光谱遥感卫星影像的自动几何纠正与正射校正方法
CN106683068A (zh) * 2015-11-04 2017-05-17 北京文博远大数字技术有限公司 一种三维数字化图像采集方法及设备
US20210407126A1 (en) * 2017-05-04 2021-12-30 Skydio, Inc. Ground control point center determination
CN108111777A (zh) * 2017-12-15 2018-06-01 武汉精立电子技术有限公司 一种暗角校正***及方法
US20200167603A1 (en) * 2018-11-27 2020-05-28 Here Global B.V. Method, apparatus, and system for providing image labeling for cross view alignment
CN109815916A (zh) * 2019-01-28 2019-05-28 成都蝉远科技有限公司 一种基于卷积神经网络算法的植被种植区域识别方法及***
US20220319035A1 (en) * 2019-05-24 2022-10-06 Inria Institut National De Recherche En Informa... Shot-processing device

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
TATJANA BÜRGMANN等: ""Matching of TerraSAR-X derived ground control points to optical image patches using deep learning"", 《ISPRS JOURNAL OF PHOTOGRAMMETRY AND REMOTE SENSING》, vol. 158 *
赵宝玮: ""机载多光谱相机数据的高质量获取与处理技术研究"", 《中国博士学位论文全文数据库•信息科技辑》, vol. 2016, no. 04, pages 11 *

Also Published As

Publication number Publication date
CN115578656B (zh) 2023-07-04

Similar Documents

Publication Publication Date Title
Torres-Sánchez et al. Assessing UAV-collected image overlap influence on computation time and digital surface model accuracy in olive orchards
Ballesteros et al. Applications of georeferenced high-resolution images obtained with unmanned aerial vehicles. Part I: Description of image acquisition and processing
AU2021323934A1 (en) System and method for image-based remote sensing of crop plants
CN101685539B (zh) 一种遥感影像在线正射纠正方法和***
US10163194B2 (en) Method of processing an image
Nocerino et al. Multi-temporal analysis of landscapes and urban areas
CN110225264A (zh) 无人机近地航拍检测农田残膜的方法
CN115331130B (zh) 基于地理标志物辅助导航的无人机巡检方法和无人机
CN115453555A (zh) 一种草地生产力的无人机快速监测方法及***
Wierzbicki et al. Method of radiometric quality assessment of NIR images acquired with a custom sensor mounted on an unmanned aerial vehicle
Zhang et al. A 250m annual alpine grassland AGB dataset over the Qinghai-Tibetan Plateau (2000–2019) based on in-situ measurements, UAV images, and MODIS Data
CN114926732A (zh) 一种多传感器融合的农作物深度学习识别方法及***
CN112799430B (zh) 基于可编程无人机的路面图像智能采集方法
Sandino et al. A novel approach for invasive weeds and vegetation surveys using UAS and Artificial Intelligence
Calou et al. Estimation of maize biomass using unmanned aerial vehicles
CN113240648A (zh) 一种多时相可见光影像的植被长势监测分析方法和装置
CN115578656B (zh) 一种支持多型号多光谱相机数据全自动处理的方法和***
KR102015817B1 (ko) 입체 위성영상의 제공 rpc 자동 보정 방법
Mathivanan et al. Utilizing satellite and UAV data for crop yield prediction and monitoring through deep learning
Kakarla et al. Postflight Data Processing Instructions on the Use of Unmanned Aerial Vehicles (UAVs) for Agricultural Applications: AE533, 10/2019
CN115272314B (zh) 农业低空遥感测绘方法、装置
CN118196214A (zh) 基于三维场景模拟的野外摄像机布控方法以及设备
Habib Method of processing an image
CN114819298A (zh) 一种基于遥感和集成学习的作物产量预测方法
Knoefel et al. Germanys First Cloud-Based Web Service for Land Monitoring Using Copernicus SENTINEL-2 Data

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant