CN111461014B - 基于深度学习的天线姿态参数检测方法、装置及存储介质 - Google Patents

基于深度学习的天线姿态参数检测方法、装置及存储介质 Download PDF

Info

Publication number
CN111461014B
CN111461014B CN202010249770.5A CN202010249770A CN111461014B CN 111461014 B CN111461014 B CN 111461014B CN 202010249770 A CN202010249770 A CN 202010249770A CN 111461014 B CN111461014 B CN 111461014B
Authority
CN
China
Prior art keywords
antenna
target
deep learning
learning model
antenna target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010249770.5A
Other languages
English (en)
Other versions
CN111461014A (zh
Inventor
崔江涛
刘嘉煜
王智彬
赵杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN202010249770.5A priority Critical patent/CN111461014B/zh
Publication of CN111461014A publication Critical patent/CN111461014A/zh
Application granted granted Critical
Publication of CN111461014B publication Critical patent/CN111461014B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/176Urban or other man-made structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30184Infrastructure

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Geometry (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了基于深度学习的天线姿态参数检测方法、装置及存储介质,所述方法包括获取航拍图片;将所航拍图片输入至预设的深度学习模型,得到所述深度学习模型的输出结果;若所述输出结果中包含有所述天线目标对应的坐标参数和天线目标的分类结果,所述天线目标对应的坐标参数指向的天线目标框在所述航拍图片中圈定的图像中存在天线目标;获取所述航拍图片的拍摄实体的姿态数据;根据所述述天线目标对应的坐标参数、天线目标的分类结果和所述姿态数据计算所述天线目标的姿态。本发明可以通过航拍减少人工接触式测量的安全隐患,避免测量人员攀爬天线塔,并达到降低操作人员操作难度、简化天线参数测量过程和提升天线测量精度的目的。

Description

基于深度学习的天线姿态参数检测方法、装置及存储介质
技术领域
本发明涉及天线角度测量领域,尤其涉及基于深度学习的天线姿态参数检测方法、装置及存储介质。
背景技术
随着4G、5G网络的不断发展,越来越多的基站建立起来。基站的天线是基站发射和接收信号的核心部件,基站天线的初始设定姿态参数可能会随着气候与外界的干扰发生变化,这样的变化会影响天线对信号的接收与发送,从而影响通信的质量。然而,扇形天线的俯仰角和方位角是两个最重要的姿态影响参数。因此,需要对天线的姿态参数进行相应的测量和维护。
目前,普遍的天线姿态测量的方法都是通过人工手工测量完成的,这样的方法需要依靠工人攀爬到天线基站上,利用物理仪器对天线的姿态参数进行测量,这样的测量方式在效率与安全方面都是巨大的问题。因为天线数量庞大并且天线高度要求一般在10米以上,这就产生了工人的安全问题。而使用非接触式的方式完成天线姿态的测量能够很大程度减少人工成本和安全隐患,就成为可行的天线姿态测量的研究方向。
随着无人机技术的高速发展,结合无人机技术实现的非接触式检测得到了长足的发展。但由于目前的非接触天线姿态测量方法都需要操作人员人工操控无人机并通过手动操作来定位框选天线位置来完成测量,这增加了操作人员的使用难度,对操作人员的要求也随之升高,容易出现较大误差,并且也容易耗费较多时间。
发明内容
为了解决现有技术中非接触式天线姿态测量方法中人力成本存在过大消耗,人工框选天线位置导致精度降低的问题,同时提升非接触式天线姿态测量的自动化智能化程度,本发明实施例提供基于深度学习的天线姿态参数检测方法、装置及存储介质。
一方面,本发明提供了一种基于深度学习的天线姿态参数检测方法,所述方法包括:
获取航拍图片;
将所航拍图片输入至预设的深度学习模型,得到所述深度学习模型的输出结果;
若所述输出结果中包含有所述天线目标对应的坐标参数和天线目标的分类结果,所述天线目标对应的坐标参数指向的天线目标框在所述航拍图片中圈定的图像中存在天线目标;
获取所述航拍图片的拍摄实体的姿态数据;
根据所述述天线目标对应的坐标参数、天线目标的分类结果和所述姿态数据计算所述天线目标的姿态。
另一方面,本发明提供一种基于深度学习的天线姿态参数检测装置,所述装置包括:
航拍图片获取模块,用于获取航拍图片;
机器学习输出模块,用于将所航拍图片输入至预设的深度学习模型,得到所述深度学习模型的输出结果;
判定模块,用于判断所述输出结果中是否包含有所述天线目标对应的坐标参数和天线目标的分类结果,以及所述天线目标对应的坐标参数指向的天线目标框在所述航拍图片中圈定的图像中是否存在天线目标;
姿态数据获取模块,用于获取所述航拍图片的拍摄实体的姿态数据;
姿态计算模块,用于根据所述述天线目标对应的坐标参数、天线目标的分类结果和所述姿态数据计算所述天线目标的姿态。
另一方面,本发明提供了一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有至少一条指令或至少一段程序,所述至少一条指令或至少一段程序由处理器加载并执行以实现上述的一种基于深度学习的天线姿态参数检测方法。
另一方面,本发明提供了种基于深度学习的天线姿态参数检测设备,其特征在于,所述设备包括处理器和存储器,所述存储器中存储有至少一条指令或至少一段程序,所述至少一条指令或至少一段程序由所述处理器加载并执行上述的一种基于深度学习的天线姿态参数检测方法。
本发明提供了一种基于深度学习的天线姿态参数检测方法、装置、设备及存储介质,可以通过航拍减少人工接触式测量的安全隐患,避免测量人员攀爬天线塔,保证测量人员安全。通过基于深度学习的目标检测来达到自动识别检测的效果,比之前需要人工定位天线目标位置来完成测量的方法难度上大大降低,使操作变得更加简单便捷,并且精度提高,以此达到降低操作人员操作难度、简化天线参数测量过程和提升天线测量精度的目的。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案和优点,下面将对实施例或现有技术描述中所需要使用的附图作简单的介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它附图。
图1是本发明提供一种基于深度学习的天线姿态参数检测方法的实施环境示意图;
图2是本发明提供的一种基于深度学习的天线姿态参数检测方法流程图;
图3是本发明提供的预设的深度学习模型获取方法流程图;
图4是本发明提供的基于原始目标检测网络构建深度学习模型流程图;
图5是本发明提供的预设的深度学习模型训练示意图;
图6是本发明提供的根据所述天线目标对应的坐标参数、天线目标的分类结果和所述姿态数据计算所述天线目标的姿态流程图;
图7是本发明提供的天线目标的分类结果为顶面时,能代表天线状态的直线示意图;
图8是本发明提供的方位角测量的示意图;
图9是本发明提供的天线目标的分类结果为侧面时,能代表天线状态的直线示意图;
图10是本发明提供的俯仰角测量的示意图;
图11是本发明提供的一种基于深度学习的天线姿态参数检测方法示意图;
图12是本发明提供的一种基于深度学习的天线姿态参数检测装置框图;
图13是本发明提供的深度学习模型构建模块框图;
图14是本发明提供的设备示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、***、产品或服务器不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
为了使本发明实施例公开的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明实施例进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本发明实施例,并不用于限定本发明实施例。
以下,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征。在本实施例的描述中,除非另有说明,“多个”的含义是两个或两个以上。
为了解决现有技术中非接触式天线姿态测量方法中人力成本存在过大消耗,人工框选天线位置导致精度降低的问题,同时提升非接触式天线姿态测量的自动化智能化程度,本发明实施例提供一种基于深度学习的天线姿态参数检测方法。
首先,本发明实施例公开了在一个可行的实施例中所述一种基于深度学习的天线姿态参数检测方法的实施环境。
参见图1,该实施环境包括:客户端01和服务器03。
客户端01可以是桌面客户端或移动客户端,所述客户端01可以基于客户端/服务器模式(Client/Server,C/S)与所述服务器03通信连接。所述客户端可以通过与无人机通信获取航拍的带有天线目标的图片,并且获取无人机在航拍所述带有天线目标的图片时的姿态数据。
所述服务器03可以包括一个独立运行的服务器,或者分布式服务器,或者由多个服务器组成的服务器集群。所述服务器03通过与所述客户端01通信得到带有天线目标的图片,可以基于预设的深度学习模型对所述带有天线的图片进行识别,进而得到天线目标对应的坐标参数以及对所述天线目标的分类结果,基于所述天线目标对应的坐标参数、天线目标的分类结果和所述无人机在航拍所述带有天线目标的图片时的姿态数据,计算所述天线目标的姿态参数。
进一步地,所述服务器03还可以将所述天线目标的姿态参数回传至所述客户端01,在一个优选的实施例中,所述服务器03还可以根据所述天线目标对应的坐标参数在所述带有天线目标的图片中绘制天线目标框,将所述天线目标的姿态参数标记在所述天线目标框之中,得到天线标记结果,将所述所天线标记结果传输至客户端01以便于所述客户端01可以将所述天线标记结果进行可视化表达。
如图2所示,其示出了一种基于深度学习的天线姿态参数检测方法,所述方法包括:
S101.获取航拍图片。
具体地,所述航拍图片可以通过操控无人机航拍来得到,可以由人工操作无人机使其飞行到能够航拍到天线目标的相关空间后对天线目标进行拍摄。
S103.将所航拍图片输入至预设的深度学习模型,得到所述深度学习模型的输出结果。
为了提升天线姿态参数检测方法的检测精度,并且提升检测速度,本发明实施例基于原始目标检测网络(Single Shot Detector,SSD)构建深度学习模型,对所述深度学习模型进行训练,并将训练好的深度学习模型作为所述预设的深度学习模型。
具体地,本发明实施例公开所述预设的深度学习模型获取方法,所述方法如图3所示,包括:
S1.基于原始目标检测网络构建深度学习模型。
具体地,所述基于原始目标检测网络构建深度学习模型如图4所示,包括:
S11.将原始目标检测网络的特征提取子网络替换为移动网结构,得到第一机器学习模型。
具体地,本发明实施例中所述移动网结构可以为谷歌发布的MobileNet网络。
S12.将所述第一机器学习模型的输出子网络确定为三分类输出网络,得到深度学习模型。
原始目标检测网络的输出网络共可以输出21个分类,本发明实施例修剪掉了冗余分类,只保留三个分类,得到三分类输出网络,所述三分类输出网络可以用于输出天线目标的顶面,天线目标的侧面或天线目标的背景。
S2.获取用于训练所述深度学习模型的先验信息集。
具体地,所述先验信息集包括大量天线目标框选图片,所述天线目标框选图片为根据原始航拍图片得到的对于天线目标的框选结果,所述天线目标框选图片覆盖了天线目标呈现顶面姿态、天线目标呈现侧面姿态和天线目标包含背景这三种分类情况。
本发明实施例中基于所述预设的深度学习模型得到的天线目标的坐标参数裁剪航拍图片即可得到天线目标的框选结果。
S3.基于所述先验信息集训练所述深度学习模型,得到所述预设的深度学习模型,所述预设的深度学习模型能够根据输入的带有天线目标的航拍图片输出天线目标对应的坐标参数和所述天线目标对应的分类结果。
如图5所示,在训练过程中,获取原始的航拍图片,经过MobileNet网络进行高效的特征提取,得到了不同特征提取层输出的特征框,结合先验信息集中的大量天线目标框选图片对所述深度学习模型进行训练,训练过程包括但不限于位置回归、置信度计算、非极大值抑制和目标检测分类,最终可以得到能够根据航拍图片输出其对应的天线目标对应的坐标参数和所述天线目标对应的分类结果的深度学习模型,并将其作为所述预设的深度学习模型。
显然,所述天线目标对应的坐标参数可以通过天线目标框进行可视化表达,所述天线目标对应的分类结果可以为顶面、侧面或背景。所述天线目标对应的坐标参数表征所述天线目标在所述航拍图片的位置,其可以通过所述天线目标框的中心点、所述天线目标框的长度以及宽度来表征。
S105.若所述输出结果中包含有所述天线目标对应的坐标参数和天线目标的分类结果,所述天线目标对应的坐标参数指向的天线目标框在所述航拍图片中圈定的图像中存在天线目标。
具体地,当所述航拍图片中存在天线目标,则可以输出包含有所述天线目标对应的坐标参数和天线目标的分类结果。在这一输出中,基于所述天线目标对应的坐标参数形成的天线目标框在航拍图片中即可圈出所述天线目标。
在一个可行的实施例中,若航拍图片中不存在天线目标,则不会输出包含有所述天线目标对应的坐标参数和天线目标的分类结果。则放弃后续处理,等待获取下一次获取航拍图片。
S107.获取所述航拍图片的拍摄实体的姿态数据。
具体地,所述航拍图片的航拍实体为拍摄所述航拍图片的设备,具体地,其可以是无人机,所述姿态数据即为所述无人机的姿态数据。
具体地,本发明实施例并不限定所述姿态数据的获取契机,步骤S107的执行顺序并不唯一,其仅仅作为一个可行的实施方式给出示例。
S109.根据所述述天线目标对应的坐标参数、天线目标的分类结果和所述姿态数据计算所述天线目标的姿态。
具体地,所述根据所述天线目标对应的坐标参数、天线目标的分类结果和所述姿态数据计算所述天线目标的姿态,如图6所示,包括:
S1091.获取所述天线目标的分类结果,所述天线目标的分类结果包括顶面或侧面。
S1093.若所述天线目标的分类结果为顶面,则基于所述所述天线目标对应的坐标参数和所述姿态数据计算所述天线目标的方位角。
具体地,所述基于所述所述天线目标对应的坐标参数和所述姿态数据计算所述天线目标的方位角,包括:
S10931.基于所述天线目标对应的坐标参数在航拍图片中提取能代表天线状态的直线。
具体地,本发明实施例中,所述能代表天线状态的直线可以为由所述天线目标对应的坐标参数确定的天线目标框在所述航拍图片中所圈定图像中,天线目标所覆盖区域的边界中最长的直线。如图7所示,其示出天线目标的分类结果为顶面时,能代表天线状态的直线。
S10933.若所述直线与水平方向一致,则根据所述姿态数据计算所述天线目标的方位角。
具体地,根据公式,β=(θ+180)%360计算所述天线目标的方位角,其中β,θ分别对应姿态数据中相机的方位角和天线目标的方位角。如果航拍数据基于无人机获得,则姿态数据中相机的方位角即为无人机的方位角。
如图8所示,其示出了方位角测量的示意图,无人机相机的朝向此时与天线的朝向正好相反,即当前图像中天线处于可测量方位角的状态。因为无人机相机的朝向与无人机的朝向始终相同,所以无人机此时的朝向与天线的朝向始终相反。
S1095.若所述天线目标的分类结果为侧面,则基于所述天线目标对应的坐标参数和所述姿态数据计算所述天线目标的俯仰角。
具体地,所述基于所述天线目标对应的坐标参数和所述姿态数据计算所述天线目标的俯仰角,包括:
S10951.基于所述天线目标对应的坐标参数在航拍图片中提取能代表天线状态的直线。
具体地,本发明实施例中,所述能代表天线状态的直线可以为由所述天线目标对应的坐标参数确定的天线目标框在所述航拍图片中所圈定图像中,天线目标所覆盖区域的边界中最长的直线。如图9所示,其示出天线目标的分类结果为侧面时,能代表天线状态的直线。
S10953.将所述能代表天线状态的直线与水平方向的夹角确定为所述天线目标的俯仰角。
如图10所示,其示出俯仰角测量的示意图,根据公式
Figure BDA0002435053200000091
即可得到俯仰角。
如图11所示,其示出本发明实施例公开的一种基于深度学习的天线姿态参数检测方法示意图,所述一种基于深度学习的天线姿态参数检测方法可以基于移动端-服务器架构运行。通过拍摄关于天线目标的航拍图片,将其传输至移动端,移动端记录相关的姿态数据,然后将图片和相关姿态数据传送至服务器端,由服务器端进行自动的目标检测,并且基于姿态数据得到天线目标的姿态的相关参数。当然,还可以根据服务器端的目标检测结果对于航拍图片进行标注,将标注的结果反馈至移动端,以便于移动端进行可视化表达。
本发明实施例公开的一种基于深度学习的天线姿态参数检测方法,可以通过航拍减少人工接触式测量的安全隐患,避免测量人员攀爬天线塔,保证测量人员安全。通过基于深度学习的目标检测来达到自动识别检测的效果,比之前需要人工定位天线目标位置来完成测量的方法难度上大大降低,使操作变得更加简单便捷,并且精度提高,以此达到降低操作人员操作难度、简化天线参数测量过程和提升天线测量精度的目的。
本发明实施例还公开一种基于深度学习的天线姿态参数检测装置,如图12所示,所述装置包括:
航拍图片获取模块201,用于获取航拍图片;
机器学习输出模块203,用于将所航拍图片输入至预设的深度学习模型,得到所述深度学习模型的输出结果;
判定模块205,用于判断所述输出结果中是否包含有所述天线目标对应的坐标参数和天线目标的分类结果,以及所述天线目标对应的坐标参数指向的天线目标框在所述航拍图片中圈定的图像中是否存在天线目标;
姿态数据获取模块207,用于获取所述航拍图片的拍摄实体的姿态数据;
姿态计算模块209,用于根据所述述天线目标对应的坐标参数、天线目标的分类结果和所述姿态数据计算所述天线目标的姿态。
深度学习模型构建模块2011,所述深度学习模型构建模块2011,如图13所示,包括:
网络构建单元20111,用于基于原始目标检测网络构建深度学习模型;
先验信息获取单元20112,用于获取用于训练所述深度学习模型的先验信息集;
训练单元20113,用于基于所述先验信息集训练所述深度学习模型,得到所述预设的深度学习模型,所述预设的深度学习模型能够根据输入的带有天线目标的航拍图片输出天线目标对应的坐标参数和所述天线目标对应的分类结果;
所述网路单元20111,包括:
第一修正子单元201111,用于将原始目标检测网络的特征提取子网络替换为移动网结构,得到第一机器学习模型;
第二修正子单元201112,用于将所述第一机器学习模型的输出子网络确定为三分类输出网络,得到深度学习模型,所述三分类输出网络用于输出天线目标的顶面,天线目标的侧面或天线目标的背景。
具体地,本发明实施例公开一种基于深度学习的天线姿态参数检测装置与上述方法实施例均基于相同发明构思。详情请参见方法实施例,在此不再赘述。
本发明实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质可以存储有多条指令。所述指令可以适于由处理器加载并执行本发明实施例所述的一种基于深度学习的天线姿态参数检测方法,所述方法至少包括下述步骤:
一种基于深度学习的天线姿态参数检测方法,所述方法包括:
获取航拍图片;
将所航拍图片输入至预设的深度学习模型,得到所述深度学习模型的输出结果;
若所述输出结果中包含有所述天线目标对应的坐标参数和天线目标的分类结果,所述天线目标对应的坐标参数指向的天线目标框在所述航拍图片中圈定的图像中存在天线目标;
获取所述航拍图片的拍摄实体的姿态数据;
根据所述述天线目标对应的坐标参数、天线目标的分类结果和所述姿态数据计算所述天线目标的姿态。
优选的,还包括得到预设的深度学习模型,所述得到预设的深度学习模型包括:
基于原始目标检测网络构建深度学习模型;
获取用于训练所述深度学习模型的先验信息集;
基于所述先验信息集训练所述深度学习模型,得到所述预设的深度学习模型,所述预设的深度学习模型能够根据输入的带有天线目标的航拍图片输出天线目标对应的坐标参数和所述天线目标对应的分类结果。
优选的,所述基于原始目标检测网络构建深度学习模型,包括:
将原始目标检测网络的特征提取子网络替换为移动网结构,得到第一机器学习模型;
将所述第一机器学习模型的输出子网络确定为三分类输出网络,得到深度学习模型,所述三分类输出网络用于输出天线目标的顶面,天线目标的侧面或天线目标的背景。
优选的,所述根据所述天线目标对应的坐标参数、天线目标的分类结果和所述姿态数据计算所述天线目标的姿态,包括:
获取所述天线目标的分类结果,所述天线目标的分类结果包括顶面或侧面;
若所述天线目标的分类结果为顶面,则基于所述所述天线目标对应的坐标参数和所述姿态数据计算所述天线目标的方位角;
若所述天线目标的分类结果为侧面,则基于所述天线目标对应的坐标参数和所述姿态数据计算所述天线目标的俯仰角。
优选的,所述基于所述所述天线目标对应的坐标参数和所述姿态数据计算所述天线目标的方位角,包括:
基于所述天线目标对应的坐标参数在航拍图片中提取能代表天线状态的直线;
若所述直线与水平方向一致,则根据所述姿态数据计算所述天线目标的方位角。
优选的,所述基于所述天线目标对应的坐标参数和所述姿态数据计算所述天线目标的俯仰角,包括:
基于所述天线目标对应的坐标参数在航拍图片中提取能代表天线状态的直线;
将所述能代表天线状态的直线与水平方向的夹角确定为所述天线目标的俯仰角。
进一步地,图14示出了一种用于实现本发明实施例所提供的方法的设备的硬件结构示意图,所述设备可以参与构成或包含本发明实施例所提供的装置或***。如图14所示,设备10可以包括一个或多个(图中采用102a、102b,……,102n来示出)处理器102(处理器102可以包括但不限于微处理器MCU或可编程逻辑器件FPGA等的处理装置)、用于存储数据的存储器104、以及用于通信功能的传输装置106。除此以外,还可以包括:显示器、输入/输出接口(I/O接口)、通用串行总线(USB)端口(可以作为I/O接口的端口中的一个端口被包括)、网络接口、电源和/或相机。本领域普通技术人员可以理解,图14所示的结构仅为示意,其并不对上述电子装置的结构造成限定。例如,设备10还可包括比图14中所示更多或者更少的组件,或者具有与图14所示不同的配置。
应当注意到的是上述一个或多个处理器102和/或其他数据处理电路在本文中通常可以被称为“数据处理电路”。该数据处理电路可以全部或部分的体现为软件、硬件、固件或其他任意组合。此外,数据处理电路可为单个独立的处理模块,或全部或部分的结合到设备10(或移动设备)中的其他元件中的任意一个内。如本申请实施例中所涉及到的,该数据处理电路作为一种处理器控制(例如与接口连接的可变电阻终端路径的选择)。
存储器104可用于存储应用软件的软件程序以及模块,如本发明实施例中所述的方法对应的程序指令/数据存储装置,处理器102通过运行存储在存储器104内的软件程序以及模块,从而执行各种功能应用以及数据处理,即实现上述的一种基于深度学习的天线姿态参数检测方法。存储器104可包括高速随机存储器,还可包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器104可进一步包括相对于处理器102远程设置的存储器,这些远程存储器可以通过网络连接至设备10。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
传输装置106用于经由一个网络接收或者发送数据。上述的网络具体实例可包括设备10的通信供应商提供的无线网络。在一个实例中,传输装置106包括一个网络适配器(NetworkInterfaceController,NIC),其可通过基站与其他网络设备相连从而可与互联网进行通讯。在一个实例中,传输装置106可以为射频(RadioFrequency,RF)模块,其用于通过无线方式与互联网进行通讯。
显示器可以例如触摸屏式的液晶显示器(LCD),该液晶显示器可使得用户能够与设备10(或移动设备)的用户界面进行交互。
需要说明的是:上述本发明实施例先后顺序仅仅为了描述,不代表实施例的优劣。且上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置和服务器实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (7)

1.一种基于深度学习的天线姿态参数检测方法,其特征在于,所述方法包括:
获取航拍图片;
将所航拍图片输入至预设的深度学习模型,得到所述深度学习模型的输出结果;
若所述输出结果中包含有所述天线目标对应的坐标参数和天线目标的分类结果,并且所述基于天线目标对应的坐标参数得到的天线目标框在所述航拍图片中圈定的图像中存在天线目标;
获取所述航拍图片的拍摄实体的姿态数据;
根据所述述天线目标对应的坐标参数、天线目标的分类结果和所述姿态数据计算所述天线目标的姿态;
所述方法还包括得到预设的深度学习模型,所述得到预设的深度学习模型包括:
基于原始目标监测网络构建深度学习模型;
获取用于训练所述深度学习模型的先验信息集;
基于所述先验信息集训练所述深度学习模型,得到所述预设的深度学习模型,所述预设的深度学习模型能够根据输入的带有天线目标的航拍图片输出天线目标对应的坐标参数和所述天线目标对应的分类结果;所述基于原始目标监测网络构建深度学习模型,包括:
将原始目标监测网络的特征提取子网络替换为移动网结构,得到第一机器学习模型;
将所述第一机器学习模型的输出子网络确定为三分类输出网络,得到深度学习模型,所述三分类输出网络用于输出天线目标的顶面,天线目标的侧面或天线目标的背景。
2.根据权利要求1所述的方法,其特征在于,所述根据所述天线目标对应的坐标参数、天线目标的分类结果和所述姿态数据计算所述天线目标的姿态,包括:
获取所述天线目标的分类结果,所述天线目标的分类结果包括顶面或侧面;
若所述天线目标的分类结果为顶面,则基于所述所述天线目标对应的坐标参数和所述姿态数据计算所述天线目标的方位角;
若所述天线目标的分类结果为侧面,则基于所述天线目标对应的坐标参数和所述姿态数据计算所述天线目标的俯仰角。
3.根据权利要求2所述的方法,其特征在于,所述基于所述所述天线目标对应的坐标参数和所述姿态数据计算所述天线目标的方位角,包括:
基于所述天线目标对应的坐标参数在航拍图片中提取能代表天线状态的直线;
若所述直线与水平方向一致,则根据所述姿态数据计算所述天线目标的方位角。
4.根据权利要求3所述的方法,其特征在于,所述基于所述天线目标对应的坐标参数和所述姿态数据计算所述天线目标的俯仰角,包括:
基于所述天线目标对应的坐标参数在航拍图片中提取能代表天线状态的直线;
将所述能代表天线状态的直线与水平方向的夹角确定为所述天线目标的俯仰角。
5.一种基于深度学习的天线姿态参数检测装置,其特征在于,所述装置包括:
航拍图片获取模块,用于获取航拍图片;
机器学习输出模块,用于将所航拍图片输入至预设的深度学习模型,得到所述深度学习模型的输出结果;
判定模块,用于判断所述输出结果中是否包含有所述天线目标对应的坐标参数和天线目标的分类结果,以及所述基于天线目标对应的坐标参数得到的天线目标框在所述航拍图片中圈定的图像中是否存在天线目标;
姿态数据获取模块,用于获取所述航拍图片的拍摄实体的姿态数据;
姿态计算模块,用于根据所述述天线目标对应的坐标参数、天线目标的分类结果和所述姿态数据计算所述天线目标的姿态;
所述装置还包括深度学习模型构建模块,所述深度学习模型构建模块包括:
网络构建单元,用于基于原始目标监测网络构建深度学习模型;
先验信息获取单元,用于获取用于训练所述深度学习模型的先验信息集;
训练单元,用于基于所述先验信息集训练所述深度学习模型,得到所述预设的深度学习模型,所述预设的深度学习模型能够根据输入的带有天线目标的航拍图片输出天线目标对应的坐标参数和所述天线目标对应的分类结果;
所述网络构建单元,包括:
第一修正子单元,用于将原始目标监测网络的特征提取子网络替换为移动网结构,得到第一机器学习模型;
第二修正子单元,用于将所述第一机器学习模型的输出子网络确定为三分类输出网络,得到深度学习模型,所述三分类输出网络用于输出天线目标的顶面,天线目标的侧面或天线目标的背景。
6.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有至少一条指令或至少一段程序,所述至少一条指令或至少一段程序由处理器加载并执行以实现如权利要求1-4任意一项所述的一种基于深度学习的天线姿态参数检测方法。
7.一种基于深度学习的天线姿态参数检测设备,其特征在于,所述设备包括处理器和存储器,所述存储器中存储有至少一条指令或至少一段程序,所述至少一条指令或至少一段程序由所述处理器加载并执行如权利要求1-4任意一项所述的一种基于深度学习的天线姿态参数检测方法。
CN202010249770.5A 2020-04-01 2020-04-01 基于深度学习的天线姿态参数检测方法、装置及存储介质 Active CN111461014B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010249770.5A CN111461014B (zh) 2020-04-01 2020-04-01 基于深度学习的天线姿态参数检测方法、装置及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010249770.5A CN111461014B (zh) 2020-04-01 2020-04-01 基于深度学习的天线姿态参数检测方法、装置及存储介质

Publications (2)

Publication Number Publication Date
CN111461014A CN111461014A (zh) 2020-07-28
CN111461014B true CN111461014B (zh) 2023-06-27

Family

ID=71681648

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010249770.5A Active CN111461014B (zh) 2020-04-01 2020-04-01 基于深度学习的天线姿态参数检测方法、装置及存储介质

Country Status (1)

Country Link
CN (1) CN111461014B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113390386A (zh) * 2021-05-28 2021-09-14 广东纳萨斯通信科技有限公司 基于人工智能的天线方位角测量方法、装置及***
CN114004977A (zh) * 2021-10-25 2022-02-01 成都飞机工业(集团)有限责任公司 一种基于深度学习的航拍数据目标定位方法及***
CN114993243A (zh) * 2022-08-04 2022-09-02 深圳粤讯通信科技有限公司 一种基于物联网的天线姿态监控预警***
CN116052003B (zh) * 2023-02-07 2024-05-14 中科星图数字地球合肥有限公司 一种天线角度信息的测量方法、装置及相关设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017156243A1 (en) * 2016-03-11 2017-09-14 Siemens Aktiengesellschaft Deep-learning based feature mining for 2.5d sensing image search
JP2018205929A (ja) * 2017-05-31 2018-12-27 株式会社Preferred Networks 学習装置、学習方法、学習モデル、検出装置及び把持システム
CN109241658A (zh) * 2018-09-27 2019-01-18 中国电子科技集团公司第五十四研究所 基于遥感影像的蝶形卫星天线形态解析方法
CN109951628A (zh) * 2017-12-21 2019-06-28 广东欧珀移动通信有限公司 模型构建方法、拍照方法、装置、存储介质及终端

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017156243A1 (en) * 2016-03-11 2017-09-14 Siemens Aktiengesellschaft Deep-learning based feature mining for 2.5d sensing image search
JP2018205929A (ja) * 2017-05-31 2018-12-27 株式会社Preferred Networks 学習装置、学習方法、学習モデル、検出装置及び把持システム
CN109951628A (zh) * 2017-12-21 2019-06-28 广东欧珀移动通信有限公司 模型构建方法、拍照方法、装置、存储介质及终端
CN109241658A (zh) * 2018-09-27 2019-01-18 中国电子科技集团公司第五十四研究所 基于遥感影像的蝶形卫星天线形态解析方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
深度卷积神经网络在SAR自动目标识别领域的应用综述;许强等;《电讯技术》(第01期);全文 *
自适应航天器态势分析***;雷宇田等;《宇航总体技术》(第01期);全文 *

Also Published As

Publication number Publication date
CN111461014A (zh) 2020-07-28

Similar Documents

Publication Publication Date Title
CN111461014B (zh) 基于深度学习的天线姿态参数检测方法、装置及存储介质
CN102901473B (zh) 量测坐标校正***及方法
CN112258567B (zh) 物体抓取点的视觉定位方法、装置、存储介质及电子设备
CN103697820B (zh) 一种基于终端测量尺寸的方法及终端设备
CN105043271A (zh) 长度测量方法及装置
US20200036953A1 (en) Photogrammetry system and method of operation
CN105513155B (zh) 巡检照片的分类、命名方法及终端设备
CN110232707B (zh) 一种测距方法及装置
WO2019080046A1 (zh) 惯性测量单元的漂移标定方法、设备及无人飞行器
CN113916187B (zh) 基于无人机的基站天线下倾角测量方法、装置和***
CN112991459A (zh) 一种相机标定方法、装置、设备以及存储介质
CN115167529A (zh) 监控方法及***、无人机、移动终端和存储介质
CN111860042B (zh) 仪表读数的方法和装置
CN114943777A (zh) 图像采集设备的外参的标定方法、装置及电子设备
JP2023503750A (ja) ロボットの位置決め方法及び装置、機器、記憶媒体
CN111462089B (zh) 基于光学动捕***的虚拟场景精度测试方法及相关设备
CN110766574A (zh) 一种远程教学***及方法
CN107734324B (zh) 一种闪光灯照度均匀性的测量方法、***及终端设备
CN105468881A (zh) 基于航拍图像的实景距离计算方法及装置
CN107328387A (zh) 夹角测量方法、装置及摄影机
CN110645963A (zh) 一种高塔塔顶未知点三维坐标获取方法及其***
CN113390386A (zh) 基于人工智能的天线方位角测量方法、装置及***
CN117321442A (zh) 位姿偏差获取方法、装置、存储介质及电子设备
CN209170524U (zh) 一种3d结构光模组
CN205482857U (zh) 一种大型工件的标定***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant