CN112327317B - 一种基于卷积神经网络的空间非合作目标角速度测量方法 - Google Patents

一种基于卷积神经网络的空间非合作目标角速度测量方法 Download PDF

Info

Publication number
CN112327317B
CN112327317B CN202011176669.8A CN202011176669A CN112327317B CN 112327317 B CN112327317 B CN 112327317B CN 202011176669 A CN202011176669 A CN 202011176669A CN 112327317 B CN112327317 B CN 112327317B
Authority
CN
China
Prior art keywords
neural network
convolutional neural
angular velocity
distance data
original distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011176669.8A
Other languages
English (en)
Other versions
CN112327317A (zh
Inventor
郑子轩
马川
安效民
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Shenzhen Institute of Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Shenzhen Institute of Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University, Shenzhen Institute of Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN202011176669.8A priority Critical patent/CN112327317B/zh
Publication of CN112327317A publication Critical patent/CN112327317A/zh
Application granted granted Critical
Publication of CN112327317B publication Critical patent/CN112327317B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/006Theoretical aspects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

本发明公开了一种基于卷积神经网络的空间非合作目标角速度测量方法,属于航天领域。本发明利用仿真法生成训练数据,训练卷积神经网络,得到训练好的卷积神经网络;将激光测距雷达测到的原始距离数据进行预处理,将预处理完毕的原始距离数据输入到训练好的卷积神经网络中,得到非合作目标的角速度;预处理的具体过程为:将原始距离数据矩阵中所有元素进行重新排列,对于第i行、第j列的元素,若将其移动到第(2i‑1)行,否则移动到第2(N‑i+1)行;若将其移动到第(2j‑1)列,否则移动到第2(M‑j+1)列。本发明极大地增强了卷积神经网络的识别能力,进而提高对非合作目标角速度的测算精度。

Description

一种基于卷积神经网络的空间非合作目标角速度测量方法
技术领域
本发明属于航天领域,尤其是一种基于卷积神经网络的空间非合作目标角速度测量方法。
背景技术
随着人类对太空探索和开发的规模的扩大,对空间非合作目标进行在轨服务的需求也日益增长。空间非合作目标主要包括在轨的故障或失效卫星和各种空间碎片,对其进行在轨服务有两方面的重要意义:其一,对于故障或失效卫星,对其进行维修、燃料加注等在轨服务,可以大幅延长其在轨寿命,显著降低空间探索与开发任务的成本;其二,对于占据重要轨道的空间碎片进行清除或回收,可以降低卫星与碎片碰撞的风险,提高空间环境的安全性。
对空间翻滚目标进行在轨服务的关键在于对其进行安全地捕获或对接。由于空间环境中空气阻力很小,空间非合作目标在初始角动量的影响下通常处于失控的自由翻滚状态。为避免在捕获或对接过程中出现碰撞造成损害,需要在接触前对非合作目标的姿态角和角速度等运动状态进行精确的测量。由于绝大部分非合作目标都没有明显的可识别特征点,因此,当前主流的基于特征的方法都无法胜任这类任务。对于无需明显识别特征点的方法,主要有基于相机的图像数据和基于激光测距雷达的距离数据两类。基于相机的姿态测量方法对光照环境依赖性很强,实际应用场景有限。因此,基于激光测距雷达的非接触式姿态测量方法是非合作目标在轨服务任务中的首选。然而,传统的基于激光测距雷达的测算方法往往需要先重构目标的三维模型,因此这类算法不但耗时很长,精度也往往难以保证。
近年来,以卷积神经网络为代表的人工智能技术为大幅提升非接触式姿态测量方法的精度和效率提供了可能。然而,卷积神经网络通常被用于处理图像数据,在被直接用于处理激光测距雷达数据时,往往不能准确提取数据的关键特征,很容易出现欠拟合或过拟合的现象,因此很难在实际中应用。
发明内容
本发明的目的在于克服卷积神经网络在处理激光测距雷达原始数据时易出现欠拟合或过拟合的缺点,从而提供一种基于卷积神经网络的空间非合作目标角速度测量方法。
为达到上述目的,本发明采用以下技术方案予以实现:
一种基于卷积神经网络的空间非合作目标角速度测量方法,利用仿真法生成训练数据,训练卷积神经网络,得到训练好的卷积神经网络;
将激光测距雷达测到的原始距离数据进行预处理,将预处理完毕的原始距离数据输入到训练好的卷积神经网络中,得到非合作目标的角速度;
预处理的具体过程为:
将原始距离数据矩阵中所有元素进行重新排列,对于第i行、第j列的元素,若将其移动到第(2i-1)行,否则移动到第2(N-i+1)行;若/>将其移动到第(2j-1)列,否则移动到第2(M-j+1)列;
其中,1≤i≤N,1≤j≤M,N为原始距离数据矩阵的总行数,M为总列数。
进一步的,包括以下步骤:
S1、根据激光测距雷达的原始距离数据维度,构造一个卷积神经网络;
S2、根据所述卷积神经网络的结构,通过计算机仿真生成训练数据;
S3、使用训练数据对卷积神经网络的权重进行训练;
S4、将激光测距雷达测量得到的原始距离数据进行预处理;
S5、将预处理完毕的原始距离数据输入到训练好的神经网络中,得到非合作目标的角速度。
进一步的,S1中的原始距离数据包含两个矩阵,所述两个矩阵中分别存储着两个相邻时刻激光发射器沿空间各方向探测到的距离目标的长度。
进一步的,S1中设计的卷积神经网络包括若干个卷积层、与卷积层数目相等的池化层、一个展开层以及若干个全连接层,以激光测距雷达的原始距离数据为输入,以目标的角速度的三个分量为输出。
进一步的,所述卷积层和池化层的采样窗口均为2×2或3×3;
卷积层和池化层的层数将原始距离数据的总维数降低至500~2000;
全连接层的层数满足其待定权重的总数目在20000个以下。
进一步的,S2中生成的训练数据包含输入部分和输出部分,两部分的数据是一一对应的;
输入部分与输出部分的维度与卷积神经网络相符。
进一步的,训练数据的总数目为卷积神经网络待定权重1~100倍。
进一步的,仿真过程中涉及的虚拟非合作目标的外形和角速度覆盖实际任务中所有出现的目标外形和角速度。
与现有技术相比,本发明具有以下有益效果:
本发明的基于卷积神经网络的空间非合作目标角速度测量方法,在将原始数据输入神经网络之前,首先进行预处理,以帮助卷积神经网络更容易地提取数据的关键特征,从而提高训练效率,避免欠拟合或过拟合的情况。其原理为:卷积神经网络的卷积层窗口擅长提取输入矩阵中相邻元素的相似特征,这对于图像数据的分类与识别是有利的;但是,激光测距雷达的原始数据矩阵中,反映目标角速度的关键特征信息主要集中在矩阵边缘,且对角元素而非相邻元素,更容易表现出数据的相似特征,因此卷积神经网络很难掌握激光测距雷达信息所包含的关键特征信息,导致训练效率低、输出精度低,无法在实际任务中应用;本发明通过预处理的办法,让原始矩阵数据中包含相似特征的元素互相靠拢,以便于卷积神经网络进行关键特征提取,使得训练过程不容易产生欠拟合或过拟合。相比于无预处理的经典卷积神经网络,本发明提出的方法的输出精度得到极大的提升,且网络的训练速度更快、稳定性更高。
进一步地,相比于传统的解析式的姿态测量方法,卷积神经网络具有无需建模、在线计算速度快、适应性强的优点。
进一步地,网络的输入矩阵为相邻时刻的两个距离张量矩阵,这样的观测数据很容易由现有的激光测距雷达设备测量得到。
进一步地,网络的输出为目标在三个坐标轴方向上转过的姿态角,由此可以方便地通过数值积分的方法得到任意时刻目标的姿态角。
进一步地,通过限制卷积神经网络的规模,一方面保证网络的输出精度足以满足实际任务需求,一方面防止网络规模过大,避免训练时间过长或者出现过拟合的情况。
进一步地,限制了训练数据的规模,以消除训练中的随机误差,保证神经网络能够收敛。
进一步地,对训练数据的广泛性和代表性提出了要求,避免产生***性的训练误差。
附图说明
图1为激光测距雷达(LIDAR)获取原始距离数据的示意图;
图2为本发明涉及的卷积神经网络结构的一个实例;
图3为本发明涉及的卷积神经网络输出精度的频数分布图的一个实例。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、***、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
本发明提供了一种不需要提前对目标外形进行三维建模,即可对空间非合作目标的角速度进行实时的非接触式测量的方法。以激光测距雷达(LIDAR)测量得到的距离信息为原始距离数据,以卷积神经网络为基础,可以快速、准确地计算出非合作目标的角速度信息。
本发明包括以下步骤:
(1)获取激光测距雷达的原始距离数据,根据所述激光测距雷达的原始距离数据维度构造一个卷积神经网络
原始距离数据包含两个矩阵,分别存储着两个相邻时刻下,激光发射器沿空间各方向探测到的距离目标的长度。
设计的卷积神经网络包括若干个卷积层、与卷积层数目相等的池化层、一个展开层以及若干个全连接层,以激光测距雷达的原始距离数据为输入,以目标的角速度的三个分量为输出。其中,卷积层和池化层的采样窗口为2×2或3×3,其层数应保证将原始距离数据的总维数降低至500~2000的范围内。全连接层的层数设计应保证其待定权重的总数目在20000个以下。
(2)根据卷积神经网络的结构,通过计算机仿真生成训练数据
训练数据包含输入部分和输出部分,两部分的数据是一一对应的。训练数据的维度与卷积神经网络相符。训练数据的总数目大约为卷积神经网络待定权重的1~100倍;仿真中涉及的虚拟非合作目标的外形和角速度应覆盖实际任务中所有可能出现的目标外形和角速度。
(3)利用训练数据对卷积神经网络的权重进行训练
训练过程是在实际任务开始之前就离线计算完毕的,实际任务中,服务卫星只需存储训练好的卷积神经网络的相关数据。
(4)将激光测距雷达实际测量得到的距离数据进行预处理,这一步骤是显著提升本方法测算精度的关键
预处理过程为:
将原始距离数据矩阵中所有元素进行重新排列,具体规则是,对于第i行、j列的元素(1≤i≤N,1≤j≤M,其中N为原始距离数据矩阵的总行数,M为总列数):
将其移动到第(2i-1)行,否则,移动到第2(N-i+1)行;
将其移动到第(2j-1)列,否则,移动到第2(M-j+1)列。
经过以上预处理过程,原始距离数据矩阵中含有相似位移信息的元素被移动到相邻的位置,极大地增强了卷积神经网络的识别能力,进而提高对非合作目标角速度的测算精度。
(5)将预处理完毕的实际测量数据输入到训练好的神经网络中,得到非合作目标的角速度。
实施例:假设空间中,某未知目标的外形为长方体,其长宽高为0.5~2米的范围内的未知值,目标角速度的波动范围为0~0.2弧度/秒,对目标进行观测的激光测距雷达设备的分辨率为51×51。则使用本发明提供的方法,可以对目标的姿态进行快速、高精度的测算。
首先,设计如图2所示的卷积神经网络,该网络的待定参数数目为17300个。然后,利用计算机仿真方法,生成20000组模拟数据,对网络进行训练。在网络训练完毕后,将真实的测量数据输入网络,即可得到目标姿态角的估计值。
图3给出了本发明所述方法得到的输出误差的频数分布图。由图可见,该卷积神经网络输出的平均误差约为4.8°,与传统解析方法获得的平均误差(3~6°)基本相同,但本方法的平均每次测算的在线计算时间仅为约1毫秒,远小于传统解析方法的平均在线计算时间(1~5秒)。另一方面,未采用本发明所述的数据预处理方法的经典卷积神经网络的输出误差将大于20°,远高于本发明所述方法给出的输出误差。可见,本发明给出的方案不但大幅降低了测算所需的时间成本,同时有效地保障了姿态估计的精度。
以上内容仅为说明本发明的技术思想,不能以此限定本发明的保护范围,凡是按照本发明提出的技术思想,在技术方案基础上所做的任何改动,均落入本发明权利要求书的保护范围之内。

Claims (8)

1.一种基于卷积神经网络的空间非合作目标角速度测量方法,其特征在于,利用仿真法生成训练数据,训练卷积神经网络,得到训练好的卷积神经网络;
将激光测距雷达测到的原始距离数据进行预处理,将预处理完毕的原始距离数据输入到训练好的卷积神经网络中,得到非合作目标的角速度;
预处理的具体过程为:
将原始距离数据矩阵中所有元素进行重新排列,对于第i行、第j列的元素,若将其移动到第(2i-1)行,否则移动到第2(N-i+1)行;若/>将其移动到第(2j-1)列,否则移动到第2(M-j+1)列;
其中,1≤i≤N,1≤j≤M,N为原始距离数据矩阵的总行数,M为总列数。
2.根据权利要求1所述的基于卷积神经网络的空间非合作目标角速度测量方法,其特征在于,包括以下步骤:
S1、根据激光测距雷达的原始距离数据维度,构造一个卷积神经网络;
S2、根据所述卷积神经网络的结构,通过计算机仿真生成训练数据;
S3、使用训练数据对卷积神经网络的权重进行训练;
S4、将激光测距雷达测量得到的原始距离数据进行预处理;
S5、将预处理完毕的原始距离数据输入到训练好的神经网络中,得到非合作目标的角速度。
3.根据权利要求2所述的基于卷积神经网络的空间非合作目标角速度测量方法,其特征在于,S1中的原始距离数据包含两个矩阵,所述两个矩阵中分别存储着两个相邻时刻激光发射器沿空间各方向探测到的距离目标的长度。
4.根据权利要求2所述的基于卷积神经网络的空间非合作目标角速度测量方法,其特征在于,S1中设计的卷积神经网络包括若干个卷积层、与卷积层数目相等的池化层、一个展开层以及若干个全连接层,以激光测距雷达的原始距离数据为输入,以目标的角速度的三个分量为输出。
5.根据权利要求4所述的基于卷积神经网络的空间非合作目标角速度测量方法,其特征在于,所述卷积层和池化层的采样窗口均为2×2或3×3;
卷积层和池化层的层数将原始距离数据的总维数降低至500~2000;
全连接层的层数满足其待定权重的总数目在20000个以下。
6.根据权利要求2所述的基于卷积神经网络的空间非合作目标角速度测量方法,其特征在于,S2中生成的训练数据包含输入部分和输出部分,两部分的数据是一一对应的;
输入部分与输出部分的维度与卷积神经网络相符。
7.根据权利要求6所述的基于卷积神经网络的空间非合作目标角速度测量方法,其特征在于,训练数据的总数目为卷积神经网络待定权重1~100倍。
8.根据权利要求6所述的基于卷积神经网络的空间非合作目标角速度测量方法,其特征在于,仿真过程中涉及的虚拟非合作目标的外形和角速度覆盖实际任务中所有出现的目标外形和角速度。
CN202011176669.8A 2020-10-28 2020-10-28 一种基于卷积神经网络的空间非合作目标角速度测量方法 Active CN112327317B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011176669.8A CN112327317B (zh) 2020-10-28 2020-10-28 一种基于卷积神经网络的空间非合作目标角速度测量方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011176669.8A CN112327317B (zh) 2020-10-28 2020-10-28 一种基于卷积神经网络的空间非合作目标角速度测量方法

Publications (2)

Publication Number Publication Date
CN112327317A CN112327317A (zh) 2021-02-05
CN112327317B true CN112327317B (zh) 2023-09-22

Family

ID=74296165

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011176669.8A Active CN112327317B (zh) 2020-10-28 2020-10-28 一种基于卷积神经网络的空间非合作目标角速度测量方法

Country Status (1)

Country Link
CN (1) CN112327317B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113050109A (zh) * 2021-04-01 2021-06-29 河海大学常州校区 一种基于深度学习的激光测距方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106227851A (zh) * 2016-07-29 2016-12-14 汤平 基于深度卷积神经网络端对端的通过分层深度搜索的图像检索方法
WO2018028255A1 (zh) * 2016-08-11 2018-02-15 深圳市未来媒体技术研究院 基于对抗网络的图像显著性检测方法
CN109284530A (zh) * 2018-08-02 2019-01-29 西北工业大学 基于深度学习的空间非合作目标姿轨一体化参数估计方法
CN111212379A (zh) * 2020-01-06 2020-05-29 天津工业大学 一种基于卷积神经网络的新型csi室内定位方法
WO2020152296A1 (en) * 2019-01-23 2020-07-30 Deepmind Technologies Limited Identifying neural networks that generate disentangled representations

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3525000B1 (en) * 2018-02-09 2021-07-21 Bayerische Motoren Werke Aktiengesellschaft Methods and apparatuses for object detection in a scene based on lidar data and radar data of the scene
US20200217950A1 (en) * 2019-01-07 2020-07-09 Qualcomm Incorporated Resolution of elevation ambiguity in one-dimensional radar processing

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106227851A (zh) * 2016-07-29 2016-12-14 汤平 基于深度卷积神经网络端对端的通过分层深度搜索的图像检索方法
WO2018028255A1 (zh) * 2016-08-11 2018-02-15 深圳市未来媒体技术研究院 基于对抗网络的图像显著性检测方法
CN109284530A (zh) * 2018-08-02 2019-01-29 西北工业大学 基于深度学习的空间非合作目标姿轨一体化参数估计方法
WO2020152296A1 (en) * 2019-01-23 2020-07-30 Deepmind Technologies Limited Identifying neural networks that generate disentangled representations
CN111212379A (zh) * 2020-01-06 2020-05-29 天津工业大学 一种基于卷积神经网络的新型csi室内定位方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Xianghao Hou 等.Parameter estimations of uncooperative space targets using novel mixed artificial neural network.Neurocomputing.2019,全文. *
徐云飞 ; 张笃周 ; 王立 ; 华宝成 ; 石永强 ; 贺盈波 ; .一种卷积神经网络非合作目标姿态测量方法.宇航学报.2020,(05),全文. *
陈诗瑜.空间目标抓捕后欠驱动组合体姿态稳定控制.中国博士学位论文全文数据库工程科技Ⅱ辑.2020,全文. *

Also Published As

Publication number Publication date
CN112327317A (zh) 2021-02-05

Similar Documents

Publication Publication Date Title
CN111429574B (zh) 基于三维点云和视觉融合的移动机器人定位方法和***
CN105371870B (zh) 一种基于星图数据的星敏感器在轨精度测量方法
Opromolla et al. Pose estimation for spacecraft relative navigation using model-based algorithms
Pasqualetto Cassinis et al. Cnn-based pose estimation system for close-proximity operations around uncooperative spacecraft
CN110412868B (zh) 一种使用星间光学图像的非合作航天器轨道确定方法
CN110059439B (zh) 一种基于数据驱动的航天器轨道确定方法
CN110849331A (zh) 基于三维点云数据库模型的单目视觉测量与地面试验方法
CN109631912A (zh) 一种深空球形目标被动测距方法
Long et al. Object detection research of SAR image using improved faster region-based convolutional neural network
Liu et al. High-precision detection method for structure parameters of catenary cantilever devices using 3-D point cloud data
CN112327317B (zh) 一种基于卷积神经网络的空间非合作目标角速度测量方法
CN115343744A (zh) 空中运动目标的光学单双星联合星上定位方法及***
Zhang et al. Global Measurement Method for Large‐Scale Components Based on a Multiple Field of View Combination
Huang et al. Non-model-based monocular pose estimation network for uncooperative spacecraft using convolutional neural network
CN111912295A (zh) 一种弹道落点预测***
Cote et al. A neural network-based method for tracking features from satellitesensor images
CN114879207A (zh) 一种用于l4级自动驾驶车辆的超声波避障方法
Cassinis et al. Leveraging neural network uncertainty in adaptive unscented Kalman Filter for spacecraft pose estimation
Du et al. Autonomous measurement and semantic segmentation of non-cooperative targets with deep convolutional neural networks
CN107194161B (zh) 基于用户需求分级的araim可用性预测方法及装置
Olson Subpixel localization and uncertainty estimation using occupancy grids
Gao et al. Attitude determination of large non-cooperative spacecrafts in final approach
Li et al. On-line monitoring method of transmission tower tilt based on remote sensing satellite optical image and neural network
CN109255150B (zh) 基于双向次序关联的多天线到达角数据关联方法
CN116026325A (zh) 一种基于神经过程与卡尔曼滤波的导航方法及相关装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant