CN114998425A - 一种基于人工智能的目标物体地理坐标定位方法和装置 - Google Patents

一种基于人工智能的目标物体地理坐标定位方法和装置 Download PDF

Info

Publication number
CN114998425A
CN114998425A CN202210933498.1A CN202210933498A CN114998425A CN 114998425 A CN114998425 A CN 114998425A CN 202210933498 A CN202210933498 A CN 202210933498A CN 114998425 A CN114998425 A CN 114998425A
Authority
CN
China
Prior art keywords
pixel
coordinates
camera
coordinate
target object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210933498.1A
Other languages
English (en)
Other versions
CN114998425B (zh
Inventor
谢刚
姜孝兵
李倩
魏延峰
张煜辉
凌海锋
姚明
尚建勋
张呈峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Geospace Information Technology Co ltd
Original Assignee
Geospace Information Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Geospace Information Technology Co ltd filed Critical Geospace Information Technology Co ltd
Priority to CN202210933498.1A priority Critical patent/CN114998425B/zh
Publication of CN114998425A publication Critical patent/CN114998425A/zh
Application granted granted Critical
Publication of CN114998425B publication Critical patent/CN114998425B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20101Interactive definition of point of interest, landmark or seed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Image Processing (AREA)

Abstract

本发明适用于自然资源调查监测领域,提供一种基于人工智能的目标物体地理坐标定位方法和装置,所述方法包括:步骤S1、外业标定步骤;步骤S2、样本采集步骤;步骤S3、模型生成步骤;步骤S4、模型执行步骤。本发明通过采集摄像机水平方位角、垂直方位角、倍率、目标物体像素坐标与对应的标定地理坐标样本,迭代训练构建像素坐标与地理坐标转换模型,就可以计算出当前视野下画面上任意一像素点的地理坐标,从而对监测目标进行地理坐标定位,本发明相较于现有技术,减少了参数量、简化了作业流程、降低了安装难度和测量难度。

Description

一种基于人工智能的目标物体地理坐标定位方法和装置
技术领域
本发明属于自然资源调查监测领域,尤其涉及一种基于人工智能的目标物体地理坐标定位方法和装置。
背景技术
随着自然资源调查监测行业的发展,人们对自然资源的监测要求日益提高,对于日常摄像机监测视频内容的需求,不再局限于视频画面,更需直接获取目标地物在真实世界的地理坐标(比如我国广泛使用的2000国家大地坐标系中的坐标值)。
目前的技术方案是利用铁塔摄像机或视频杆来实时监控土地违法行为,在户外的铁塔和视频杆上一般都会设置监控摄像机,但是目前方案只能做到视频监控,无法实现目标物体的智能识别目标,更无法实现对目标物体进行准确地理定位,也无法做到实时预警和保护。为了解决此问题,公开号CN113223087B公开了一种基于视频监测的目标物体地理坐标定位技术,该专利阐述了一种像素坐标向大地坐标的转换方法,通过摄像机的大地坐标、高差、垂直方位角、水平方位角、垂直视野角和水平视野角,来解析监控对象像素坐标与大地坐标的映射关系,再根据方位角、像素坐标来计算地理坐标。
此方法存在的问题的是构建映射关系的逻辑较为复杂,难以测量摄像机距地高差的准确值,且摄像机在空中难以调整至完全水平状态。另外,在具体应用时,会存在以下问题:
(1)计算参数多:须考虑摄像机X、Y、Z坐标、水平方位角、垂直方位角、水平视野角、垂直视野角,当摄像机安装未调平时,还需考虑俯仰角、侧倾角、翻转角等;
(2)逻辑复杂:一般实施人员难以掌握坐标映射关系;
(3)安装困难:在高空作业中,难以确保摄像机水平安装;
(4)测量困难:摄像机在空中,难以测量其距地高差。
发明内容
鉴于上述问题,本发明的目的在于提供一种基于人工智能的目标物体地理坐标定位方法和装置,旨在解决上述问题。
本发明采用如下技术方案:
一方面,所述基于人工智能的目标物体地理坐标定位方法,包括下述步骤:
步骤S1、外业标定步骤:在摄像机监测区域内布置外业标定点,每个点具有相应的地理坐标;
步骤S2、样本采集步骤:通过样本采集工具预览摄像机画面,锁定外业标定点的地理坐标后,通过鼠标点击摄像机画面即可自动捕捉摄像机当前的水平方位角、垂直方位角、倍率、像素x坐标、像素y坐标,与锁定的地理坐标形成样本,进而完成样本采集;
步骤S3、模型生成步骤:根据采集的样本,通过模型训练以及多次迭代,生成模型文件;
步骤S4、模型执行步骤:获取摄像机当前的水平方位角、垂直方位角、倍率以及目标物体的像素坐标共五个参数,输入至模型,前向传播,计算得出该目标物体的真实地理坐标。
进一步的,步骤S2中,所采集样本的样本格式为
Figure 516664DEST_PATH_IMAGE001
,式中,
Figure 914147DEST_PATH_IMAGE002
分别表示水平方位角、垂直方位角和倍率,
Figure 705386DEST_PATH_IMAGE003
分别表示屏幕坐标的像素x坐标和像素y坐标,
Figure 49779DEST_PATH_IMAGE004
分别表示地理坐标的x坐标和y坐标。
进一步的,所述步骤S3具体过程如下:
设置模型训练的神经元前向传播运算式以及激活函数;
经过多级神经元运算后得到前向传播的结果以及平均损失函数;
使用最小二乘法优化损失量,求最优解;
使用链式求导法则更新权重;
使用梯度下降法执行多次迭代,拟合后得到全局最优解,保存为模型文件。
另一方面,所述基于人工智能的目标物体地理坐标定位装置,其特征在于,所述装置包括:
外业标定单元,用于在摄像机监测区域内布置外业标定点,每个点具有相应的地理坐标;
样本采集单元,用于通过样本采集工具预览摄像机画面,锁定外业标定点的地理坐标后,通过鼠标点击摄像机画面即可自动捕捉摄像机当前的水平方位角、垂直方位角、倍率、像素x坐标、像素y坐标,与锁定的地理坐标形成样本,进而完成样本采集;
模型生成单元:根据采集的样本,通过模型训练以及多次迭代,生成模型文件;
模型执行单元,用于获取摄像机当前的水平方位角、垂直方位角、倍率以及目标物体的像素坐标共五个参数,输入至模型,前向传播,计算得出该目标物体的真实地理坐标。
进一步的,所采集样本的样本格式为
Figure 111538DEST_PATH_IMAGE001
,式中,
Figure 945502DEST_PATH_IMAGE002
分别表示水平方位角、垂直方位角和倍率,
Figure 224037DEST_PATH_IMAGE003
分别表示屏幕坐标的像素x坐标和像素y坐标,
Figure 168859DEST_PATH_IMAGE004
分别表示地理坐标的x坐标和y坐标。
进一步的,所述模型生成单元包括:
设置模块,用于设置模型训练的神经元前向传播运算式以及激活函数;
第一计算模块,用于经过多级神经元运算后得到前向传播的结果以及平均损失函数;
第二计算模块,用于使用最小二乘法优化损失量,求最优解;
权重更新模块,用于使用链式求导法则更新权重;
迭代拟合模块,用于使用梯度下降法执行多次迭代,拟合后得到全局最优解,保存为模型文件。
本发明的有益效果是:本发明采用人工智能技术,无需关心摄像机的X、Y、Z坐标和摄像机是否水平,在视频监控下,通过采集摄像机水平方位角、垂直方位角、倍率、目标物体像素坐标与对应的标定地理坐标样本,迭代训练构建像素坐标与地理坐标转换模型,就可以计算出当前视野下画面上任意一像素点的地理坐标,从而对监测目标进行地理坐标定位;因此本发明方法解决了现有技术中的问题,减少了参数量、简化了作业流程、降低了安装难度和测量难度。
附图说明
图1是本发明实施例提供的基于人工智能的目标物体地理坐标定位方法的流程图;
图2是本发明实施例提供的基于人工智能的目标物体地理坐标定位装置的结构图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
为了说明本发明所述的技术方案,下面通过具体实施例来进行说明。
实施例一:
如图1所示,本实施例提供的基于人工智能的目标物体地理坐标定位方法,包括下述步骤:
步骤S1、外业标定步骤:在摄像机监测区域内布置外业标定点,每个点具有相应的地理坐标。
本步骤通过在摄像机监测区域内布置外业标定点,比如可以在区域内均匀布点,然后使用RTK(Real-time kinematic,实时差分定位)测量标定点得到各外业标定点的地理坐标。
RTK实时差分定位是一种能够在野外实时得到厘米级定位精度的测量方法,可极大提高了野外作业效率。本步骤的目的是得到各个外业标定点实际的地理坐标。
步骤S2、样本采集步骤:通过样本采集工具预览摄像机画面,锁定外业标定点的地理坐标后,通过鼠标点击摄像机画面即可自动捕捉摄像机当前的水平方位角、垂直方位角、倍率、像素X坐标、像素Y坐标,与锁定的地理坐标形成样本,进而完成样本采集。
通过样本采集工具可实时预览摄像机的画面,在画面中可以看到外业标定点。操作时,通过遥控器,可调整摄像机监测范围,也可以调整倍率(放大、缩小),点击视频画面,可获取点击目标的像素坐标。当锁定某个外业标定点后,输入外业标定点的地理坐标,通过操作可以控制摄像机的方位角、倍率。摄像机调整后,然后鼠标点击摄像机画面即可自动捕捉摄像机当前的水平方位角、垂直方位角、倍率、像素x坐标、像素y坐标,与锁定的地理坐标形成样本。样本格式为
Figure 786922DEST_PATH_IMAGE001
,式中,
Figure 293252DEST_PATH_IMAGE002
分别表示水平方位角、垂直方位角和倍率,
Figure 793504DEST_PATH_IMAGE003
分别表示屏幕坐标的像素x坐标和像素y坐标,
Figure 73175DEST_PATH_IMAGE004
分别表示地理坐标的x坐标和y坐标。
针对每个外业标定点,均可通过调整摄像机位于不同姿态,点击摄像机画面即可采集包含方位角、倍率、像素坐标和标定点地理坐标的样本。经过多次方位角调整、放大缩小倍率调整,即采集各个维度的样本。
因此本步骤需要采集尽可能多的样本,以保证后续模型训练的准确度。
步骤S3、模型生成步骤:根据采集的样本,通过模型训练以及多次迭代,生成模型文件。
本发明通过标定制作样本,迭代训练的原理,快速建立像素坐标转换为地理坐标的计算模型。具体过程如下:
S31、设置模型训练的神经元前向传播运算式以及激活函数。
模型训练的神经元前向传播运算式如下:
Figure DEST_PATH_IMAGE005
公式简化如下:
Figure 171843DEST_PATH_IMAGE006
式中,
Figure 347610DEST_PATH_IMAGE002
分别表示水平方位角、垂直方位角和倍率,
Figure 335157DEST_PATH_IMAGE003
分别表示屏幕坐标的像素x坐标和像素y坐标,
Figure DEST_PATH_IMAGE007
表示权重,
Figure 377108DEST_PATH_IMAGE008
表示偏置量。
激活函数使用sigmoid函数:
Figure DEST_PATH_IMAGE009
式中,t表示神经元运算后的矩阵,
Figure 828818DEST_PATH_IMAGE010
表示激活后的矩阵。
S32、经过多级神经元运算后得到前向传播的结果以及平均损失函数。
经过多级神经元运算后,得到前向传播的结果为
Figure DEST_PATH_IMAGE011
,设样本实际地理坐标
Figure 739267DEST_PATH_IMAGE012
Figure DEST_PATH_IMAGE013
,得到平均损失函数:
Figure 479690DEST_PATH_IMAGE014
式中,m表示样本数量,i表示样本序号,
Figure DEST_PATH_IMAGE015
分别代表预测值和真实值。
S33、使用最小二乘法优化损失量,求最优解。
求解最优解公式如下:
Figure 399367DEST_PATH_IMAGE016
式中,
Figure DEST_PATH_IMAGE017
表示训练的损失量,
Figure 440004DEST_PATH_IMAGE018
表示样本真实坐标值,
Figure DEST_PATH_IMAGE019
表示训练预测值。
S34、使用链式求导法则更新权重。
使用链式求导法则更新权重,公式如下:
Figure 521355DEST_PATH_IMAGE020
式中,
Figure 686757DEST_PATH_IMAGE017
表示训练的损失量,
Figure DEST_PATH_IMAGE021
表示第i个神经元第j个权重值,
Figure 643080DEST_PATH_IMAGE022
表示第i个神经元运算时第j个样本值。
S35、使用梯度下降法执行多次迭代,拟合后得到全局最优解,保存为模型文件。
梯度下降法是一个一阶最优化算法。使用梯度下降法找到一个函数的局部极小值,必须向函数上当前点对应梯度(或者是近似梯度)的反方向的规定步长距离点进行迭代搜索。具体过程本步骤不再赘述。
步骤S4、模型执行步骤:获取摄像机当前的水平方位角、垂直方位角、倍率以及目标物体的像素坐标共五个参数,输入至模型,前向传播,计算得出该目标物体的真实地理坐标。
前述步骤S1-S3实现了通过训练建立一个像素坐标转换为地理坐标的计算模型。当实际应用时,根据该计算模型即可得到画面中各目标物体的实际地理坐标。
具体的,首先通过调用摄像机的SDK(ftware Development Kit,软件开发工具包),就可以获取摄像机当前的水平方位角、垂直方位角和倍率,为
Figure DEST_PATH_IMAGE023
。然后从摄像机的成像画面中,可直接获取所需目标物体的像素坐标
Figure 774110DEST_PATH_IMAGE012
;最后将前水平方位角、垂直方位角、倍率和目标物体的像素坐标5个参数输入至模型,前向传播计算得出该目标物体的真实地理坐标。前向传播计算以及激活函数使用与前述步骤S3模型生成步骤一致。
本实施例方法相较于现有方法,存在如下优势:
(1)减少了参数数量。实施过程无需关心摄像机的具体坐标和高程,减少了对应的参数。
(2)简化了流程。实施过程中,只需在摄像机监测区域标定部分特征地物坐标,在内业点击摄像机画面,即可采集样本,实施人员无需掌握复杂的数学知识即可开展工作。
(3)降低了安装难度。计算过程无需关心摄像机的俯仰、侧倾、旋转姿态,只需考虑摄像机是否能覆盖监测范围即可。
(4) 降低了测量难度。现有方法须计算摄像机高程,但摄像机一般安装在40米高空中,测量难度大,此方法计算过程无需关心摄像机的高程参数,无需高程测量即可完成坐标转换。
实施例二:
如图2所示,本实施例提供的基于人工智能的目标物体地理坐标定位装置,包括:
外业标定单元1,用于在摄像机监测区域内布置外业标定点,每个点具有相应的地理坐标;
样本采集单元2,用于通过样本采集工具预览摄像机画面,锁定外业标定点的地理坐标后,通过鼠标点击摄像机画面即可自动捕捉摄像机当前的水平方位角、垂直方位角、倍率、像素x坐标、像素y坐标,与锁定的地理坐标形成样本,进而完成样本采集;
模型生成单元3:根据采集的样本,通过模型训练以及多次迭代,生成模型文件;
模型执行单元4,用于获取摄像机当前的水平方位角、垂直方位角、倍率以及目标物体的像素坐标共五个参数,输入至模型,前向传播,计算得出该目标物体的真实地理坐标。
所采集样本的样本格式为
Figure 462580DEST_PATH_IMAGE001
,式中,
Figure 115278DEST_PATH_IMAGE002
分别表示水平方位角、垂直方位角和倍率,
Figure 547396DEST_PATH_IMAGE003
分别表示屏幕坐标的像素x坐标和像素y坐标,
Figure 765888DEST_PATH_IMAGE004
分别表示地理坐标的x坐标和y坐标。
本实施例各个功能单元对于实现了实施例一中的步骤S1-S4,通过外业标定单元进行坐标标定,然后通过样本采集单元采集样本,接着根据模型生成单元生成模型文件,最后通过模型执行单元完成目标物体的真实地理坐标计算。具体过程本实施例不再赘述。
作为一种优选结构,所述模型生成单元4包括:
设置模块,用于设置模型训练的神经元前向传播运算式以及激活函数;
第一计算模块,用于经过多级神经元运算后得到前向传播的结果以及平均损失函数;
第二计算模块,用于使用最小二乘法优化损失量,求最优解;
权重更新模块,用于使用链式求导法则更新权重;
迭代拟合模块,用于使用梯度下降法执行多次迭代,拟合后得到全局最优解,保存为模型文件。
综上,本发明实施过程简单,实施人员无需掌握复杂的数学运算方法,通过点击视频画面的方法即可自动采集样本进行训练,即可简单、快速地构建像素坐标向地理坐标转换的关系。此外,本发明采用的人工智能技术模型无需关注摄像机的位置、高程,可以避免复杂的高程测量工作,从而降低了测量难度,又因模型无需关注摄像机的俯仰角、侧倾角和俯仰角,故而在安装时不必担心摄像机是否调平,从而降低了安装难度。因此,本发明在实施、测量、安装流程实现简化,使得本发明更易于工业应用。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (6)

1.一种基于人工智能的目标物体地理坐标定位方法,其特征在于,所述方法包括下述步骤:
步骤S1、外业标定步骤:在摄像机监测区域内布置外业标定点,每个点具有相应的地理坐标;
步骤S2、样本采集步骤:通过样本采集工具预览摄像机画面,锁定外业标定点的地理坐标后,通过鼠标点击摄像机画面即可自动捕捉摄像机当前的水平方位角、垂直方位角、倍率、像素x坐标、像素y坐标,与锁定的地理坐标形成样本,进而完成样本采集;
步骤S3、模型生成步骤:根据采集的样本,通过模型训练以及多次迭代,生成模型文件;
步骤S4、模型执行步骤:获取摄像机当前的水平方位角、垂直方位角、倍率以及目标物体的像素坐标共五个参数,输入至模型,前向传播,计算得出该目标物体的真实地理坐标。
2.如权利要求1所述基于人工智能的目标物体地理坐标定位方法,其特征在于,步骤S2中,所采集样本的样本格式为
Figure DEST_PATH_IMAGE002
,式中,
Figure DEST_PATH_IMAGE004
分别表示水平方位角、垂直方位角和倍率,
Figure DEST_PATH_IMAGE006
分别表示屏幕坐标的像素x坐标和像素y坐标,
Figure DEST_PATH_IMAGE008
分别表示地理坐标的x坐标和y坐标。
3.如权利要求2所述基于人工智能的目标物体地理坐标定位方法,其特征在于,所述步骤S3具体过程如下:
设置模型训练的神经元前向传播运算式以及激活函数;
经过多级神经元运算后得到前向传播的结果以及平均损失函数;
使用最小二乘法优化损失量,求最优解;
使用链式求导法则更新权重;
使用梯度下降法执行多次迭代,拟合后得到全局最优解,保存为模型文件。
4.一种基于人工智能的目标物体地理坐标定位装置,其特征在于,所述装置包括:
外业标定单元,用于在摄像机监测区域内布置外业标定点,每个点具有相应的地理坐标;
样本采集单元,用于通过样本采集工具预览摄像机画面,锁定外业标定点的地理坐标后,通过鼠标点击摄像机画面即可自动捕捉摄像机当前的水平方位角、垂直方位角、倍率、像素x坐标、像素y坐标,与锁定的地理坐标形成样本,进而完成样本采集;
模型生成单元:根据采集的样本,通过模型训练以及多次迭代,生成模型文件;
模型执行单元,用于获取摄像机当前的水平方位角、垂直方位角、倍率以及目标物体的像素坐标共五个参数,输入至模型,前向传播,计算得出该目标物体的真实地理坐标。
5.如权利要求4所述基于人工智能的目标物体地理坐标定位装置,其特征在于,所采集样本的样本格式为
Figure 262921DEST_PATH_IMAGE002
,式中,
Figure 39116DEST_PATH_IMAGE004
分别表示水平方位角、垂直方位角和倍率,
Figure 336629DEST_PATH_IMAGE006
分别表示屏幕坐标的像素x坐标和像素y坐标,
Figure 794155DEST_PATH_IMAGE008
分别表示地理坐标的x坐标和y坐标。
6.如权利要求4所述基于人工智能的目标物体地理坐标定位装置,其特征在于,所述模型生成单元包括:
设置模块,用于设置模型训练的神经元前向传播运算式以及激活函数;
第一计算模块,用于经过多级神经元运算后得到前向传播的结果以及平均损失函数;
第二计算模块,用于使用最小二乘法优化损失量,求最优解;
权重更新模块,用于使用链式求导法则更新权重;
迭代拟合模块,用于使用梯度下降法执行多次迭代,拟合后得到全局最优解,保存为模型文件。
CN202210933498.1A 2022-08-04 2022-08-04 一种基于人工智能的目标物体地理坐标定位方法和装置 Active CN114998425B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210933498.1A CN114998425B (zh) 2022-08-04 2022-08-04 一种基于人工智能的目标物体地理坐标定位方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210933498.1A CN114998425B (zh) 2022-08-04 2022-08-04 一种基于人工智能的目标物体地理坐标定位方法和装置

Publications (2)

Publication Number Publication Date
CN114998425A true CN114998425A (zh) 2022-09-02
CN114998425B CN114998425B (zh) 2022-10-25

Family

ID=83023239

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210933498.1A Active CN114998425B (zh) 2022-08-04 2022-08-04 一种基于人工智能的目标物体地理坐标定位方法和装置

Country Status (1)

Country Link
CN (1) CN114998425B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116805277A (zh) * 2023-08-18 2023-09-26 吉奥时空信息技术股份有限公司 一种视频监控目标节点像素坐标转换方法及***

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140043436A1 (en) * 2012-02-24 2014-02-13 Matterport, Inc. Capturing and Aligning Three-Dimensional Scenes
CN104501779A (zh) * 2015-01-09 2015-04-08 中国人民解放军63961部队 基于多站测量的无人机高精度目标定位方法
CN110246175A (zh) * 2019-05-24 2019-09-17 国网安徽省电力有限公司检修分公司 全景相机与云台相机结合的变电站巡检机器人图像检测***及方法
CN110660101A (zh) * 2019-08-19 2020-01-07 浙江理工大学 基于rgb图像和坐标系变换的物体6d姿势预测方法
CN110763203A (zh) * 2019-11-05 2020-02-07 西安航天天绘数据技术有限公司 一种城市部件的定位方法、装置及车载移动测量***
CN111754552A (zh) * 2020-06-29 2020-10-09 华东师范大学 一种基于深度学习的多摄像头协同目标跟踪方法
CN111879313A (zh) * 2020-07-31 2020-11-03 中国人民解放军国防科技大学 一种基于无人机图像识别的多目标连续定位方法及***
US20210012165A1 (en) * 2018-03-29 2021-01-14 Shanghai Zttvision Technologies Co.Ltd Data processing method and device based on multi-sensor fusion, and multi-sensor fusion method
CN113011310A (zh) * 2021-03-15 2021-06-22 中国地质大学(武汉) 一种基于图像识别和感应篮板采集投篮运动量的方法、装置、计算机设备及存储介质
CN113223087A (zh) * 2021-07-08 2021-08-06 武大吉奥信息技术有限公司 一种基于视频监控的目标物体地理坐标定位方法和装置
CN113959439A (zh) * 2021-10-21 2022-01-21 重庆邮电大学 稀疏光源下的室内高精度可见光定位方法及***
CN114519742A (zh) * 2022-02-10 2022-05-20 首都医科大学 基于单目光学摄影的三维目标自动定位定姿方法及其应用

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140043436A1 (en) * 2012-02-24 2014-02-13 Matterport, Inc. Capturing and Aligning Three-Dimensional Scenes
CN104501779A (zh) * 2015-01-09 2015-04-08 中国人民解放军63961部队 基于多站测量的无人机高精度目标定位方法
US20210012165A1 (en) * 2018-03-29 2021-01-14 Shanghai Zttvision Technologies Co.Ltd Data processing method and device based on multi-sensor fusion, and multi-sensor fusion method
CN110246175A (zh) * 2019-05-24 2019-09-17 国网安徽省电力有限公司检修分公司 全景相机与云台相机结合的变电站巡检机器人图像检测***及方法
CN110660101A (zh) * 2019-08-19 2020-01-07 浙江理工大学 基于rgb图像和坐标系变换的物体6d姿势预测方法
CN110763203A (zh) * 2019-11-05 2020-02-07 西安航天天绘数据技术有限公司 一种城市部件的定位方法、装置及车载移动测量***
CN111754552A (zh) * 2020-06-29 2020-10-09 华东师范大学 一种基于深度学习的多摄像头协同目标跟踪方法
CN111879313A (zh) * 2020-07-31 2020-11-03 中国人民解放军国防科技大学 一种基于无人机图像识别的多目标连续定位方法及***
CN113011310A (zh) * 2021-03-15 2021-06-22 中国地质大学(武汉) 一种基于图像识别和感应篮板采集投篮运动量的方法、装置、计算机设备及存储介质
CN113223087A (zh) * 2021-07-08 2021-08-06 武大吉奥信息技术有限公司 一种基于视频监控的目标物体地理坐标定位方法和装置
CN113959439A (zh) * 2021-10-21 2022-01-21 重庆邮电大学 稀疏光源下的室内高精度可见光定位方法及***
CN114519742A (zh) * 2022-02-10 2022-05-20 首都医科大学 基于单目光学摄影的三维目标自动定位定姿方法及其应用

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
XU CHENG 等: "High precision passive target localization based on airborne electro-optical payload", 《2015 14TH INTERNATIONAL CONFERENCE ON OPTICAL COMMUNICATIONS AND NETWORKS (ICOCN)》 *
李海: "精密定位平台视觉运动追踪与伺服控制研究", 《中国博士学位论文全文数据库 (信息科技辑)》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116805277A (zh) * 2023-08-18 2023-09-26 吉奥时空信息技术股份有限公司 一种视频监控目标节点像素坐标转换方法及***
CN116805277B (zh) * 2023-08-18 2024-01-26 吉奥时空信息技术股份有限公司 一种视频监控目标节点像素坐标转换方法及***

Also Published As

Publication number Publication date
CN114998425B (zh) 2022-10-25

Similar Documents

Publication Publication Date Title
CN112766274B (zh) 一种基于Mask RCNN算法的水尺图像水位自动读数方法及***
CN109443307B (zh) 一种基于光学测量的输电杆塔沉降和倾斜角的测量***及方法
CN104713491B (zh) 可获取边坡变形三维数据的边坡监测***及其获取边坡变形三维数据的方法
CN109084690A (zh) 基于无人机可见光遥感的作物株高计算方法
CN104976960A (zh) 一种雨滴物理特性观测方法及装置
CN114998425B (zh) 一种基于人工智能的目标物体地理坐标定位方法和装置
CN110490932A (zh) 单目红外共面光标迭代优化测量行车吊臂空间位姿方法
CN111598942A (zh) 一种用于对电力设施仪表进行自动定位的方法及***
CN104410839A (zh) 一种移动式输电线杆塔区域山火与山体滑坡灾害在线监测***与监测方法
CN108959713A (zh) 基于卷积神经网络的目标距离与正对位置偏移测量方法
CN115019254A (zh) 一种输电区域异物入侵检测方法、装置、终端及存储介质
CN106989778A (zh) 一种尾矿库在线安全监测***
CN115326026A (zh) 基于非接触式测量-水动力融合同化获取水力特征的方法及装置
CN114066985B (zh) 一种输电线隐患距离的计算方法及终端
CN117876874A (zh) 基于高点监控视频的森林火灾检测和定位方法及***
CN106845360A (zh) 基于无人机遥感的高分辨率农作物表面模型构造方法
CN112419402B (zh) 一种基于多光谱影像和激光点云的定位方法及***
CN118011450A (zh) 一种智能化移动式辐射测量方法及***
CN115184563B (zh) 一种基于数字孪生的化工车间现场数据采集方法
CN109879170B (zh) 一种起重机吊臂旁弯位移实时检测***
CN115761265A (zh) 一种用于提取激光雷达点云中变电站设备的方法及装置
WO2022126339A1 (zh) 土木结构变形监测方法及相关设备
CN114119670A (zh) 一种基于智能手机获取河流视频的流速测量方法
CN110853080A (zh) 一种田间果实尺寸的测量方法
CN212058660U (zh) 一种实时远程植被监测***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant