CN111680552B - 一种特征部位智能识别方法 - Google Patents
一种特征部位智能识别方法 Download PDFInfo
- Publication number
- CN111680552B CN111680552B CN202010350572.8A CN202010350572A CN111680552B CN 111680552 B CN111680552 B CN 111680552B CN 202010350572 A CN202010350572 A CN 202010350572A CN 111680552 B CN111680552 B CN 111680552B
- Authority
- CN
- China
- Prior art keywords
- image
- spacecraft
- dimensional geometric
- images
- gray level
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 57
- 238000012549 training Methods 0.000 claims abstract description 26
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 22
- 238000013528 artificial neural network Methods 0.000 claims description 12
- 230000009466 transformation Effects 0.000 claims description 7
- 239000011159 matrix material Substances 0.000 claims description 6
- 230000008859 change Effects 0.000 claims description 5
- 238000012545 processing Methods 0.000 claims description 5
- 230000009467 reduction Effects 0.000 claims description 5
- 238000005259 measurement Methods 0.000 claims description 4
- 238000005096 rolling process Methods 0.000 claims description 4
- 238000002372 labelling Methods 0.000 claims description 3
- 238000005314 correlation function Methods 0.000 claims description 2
- 238000013461 design Methods 0.000 abstract description 6
- 238000012360 testing method Methods 0.000 abstract description 2
- 230000000694 effects Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 238000003384 imaging method Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 230000001537 neural effect Effects 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000012634 optical imaging Methods 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 230000036544 posture Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4023—Scaling of whole images or parts thereof, e.g. expanding or contracting based on decimating pixels or lines of pixels; based on inserting pixels or lines of pixels
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Remote Sensing (AREA)
- Geometry (AREA)
- Astronomy & Astrophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明一种特征部位智能识别方法,适用于空间失效卫星局部典型部位识别领域。传统基于解析算法的目标典型部位识别存在边缘点识别误差大等问题,本发明设计了一种基于卷积神经网络的局部典型特征部位智能识别方法。首先针对失效卫星局部典型部位识别任务,创建包含丰富信息的卫星局部典型部位数据库,对典型部位的构件进行标注,构造训练数据集和测试数据集。然后构建一个深度卷积网络,使用训练数据集进行网络参数的训练,训练完成后,网络即可从输入图像中智能识别出的典型部位。
Description
技术领域
本发明属于空间目标特征识别领域,具体涉及一种特征部位智能识别方法。
背景技术
针对以卫星为主的重要空间目标的保护和在轨服务已成为世界各国航天技术的重要发展方向,而卫星特征部件(如天线、帆板、发动机)的识别技术是其中的关键环节。随着飞行器抵近技术和光学成像技术的日益成熟,使得利用天基平台对空间目标进行高分辨率光学成像成为可能,这也对卫星目标识别,特别是卫星特征部件的精确识别提出了更高的需求。
空间目标识别主要是利用空间目标特性数据,对其身份、姿态、状态等属性进行有效判断和识别。目前,目标特性数据的来源主要为地基探测,包括光学和雷达等设备。然而,地基设备的探测数据与观测角度、目标特征、太阳角度和大气层等多种因素相关,使得探测结果具有极大的不确定性。尽管国内外在天基目标探测识别方面也有研究,但多集中在远距离情况下的点目标探测及在轨运动状态的识别方面,所采用的识别方法依赖于在线的已知特征点,对特征点的具有很强的约束,一旦已知的特征点发生变化,则现有的识别方法难以准确识别特征部位。近年来,深度学习技术的发展,图像目标识别的效果得到了极大地提升,这给空间目标识别领域带来了新的方法手段。
发明内容
本发明解决的技术问题是:克服现有识别技术对已知特征点的过分依赖的不足,提出了一种特征部位智能识别方法,能够实现复杂空间环境下针对目标典型部位与战术特征进行智能识别,为在轨场景深度认知与理解提供技术支撑。
本发明所采用的技术方案是:一种特征部位智能识别方法,步骤如下:
(1)基于姿态旋转方法,构建空间中航天器图像数据库,航天器图像数据库中存储航天器在不同三轴姿态角组合情况下的三维几何图像;
(2)对航天器图像数据库中的每个三维几何图像的红(R)、绿(G)、蓝(B)三个颜色通道的像素值进行加权平均,能得到该三维几何图像的灰度图像;在灰度图像基础上,加入测量噪声能得到带噪声的灰度图像;
(3)采用三次插值方法对航天器图像数据库中的每个三维几何图像的灰度图像进行缩小处理,得到对应的插值后图像;
(4)对步骤(2)航天器图像数据库中的每个三维几何图像的灰度图像进行旋转变化,获取旋转后的灰度图像;
(5)对步骤(2)航天器图像数据库中的各个三维几何图像的灰度图像以及带噪声的灰度图像、步骤(3)各个三维几何图像的灰度图像插值后图像、步骤(4)各个三维几何图像的灰度图像旋转后的灰度图像,分别进行航天器特征部位轮廓标注;并对标注的航天器特征部位轮廓分别进行名称设置,得到特征部分的标签,完成目标航天器特征部位的标注;
(6)构建卷积神经网络,利用航天器图像数据库中航天器特征部位轮廓标注后的图像中的大部分对构建的卷积神经网络进行训练,得到训练后的卷积神经网络;将其余的航天器图像数据库中航天器特征部位轮廓标注后的图像,输入训练后的卷积神经网络进行航天器特征部位识别,输出识别后的结果,实现航天器的特征部位智能识别。
优选的,(1)基于姿态旋转方法,构建空间中航天器图像数据库,航天器图像数据库中存储航天器在不同三轴姿态角组合情况下的三维几何图像,具体为:
(1)基于姿态旋转方法,构建空间中航天器图像数据库,即设置目标航天器三轴姿态角为滚动角俯仰角θ、偏航角ψ。三轴姿态角的变换范围为[0,360°],每隔N°进行取值,形成多组航天器的三轴姿态角组合,导入仿真建模软件,进行航天器在不同三轴姿态角组合情况下的三维几何图像的获取,得到航天器图像数据库。
优选的,(2)对航天器图像数据库中的每个三维几何图像的红(R)、绿(G)、蓝(B)三个颜色通道的像素值进行加权平均,能得到该三维几何图像的灰度图像,具体为:
G(i,j)=0.299×R(i,j)+0.578×G(i,j)+0.114×B(i,j)
式中:i,j为灰度图像的横纵坐标,i大于等于1,j大于等于1,R(i,j)、G(i,j)、B(i,j)分别为灰度图像中i行j列像素红(R)、绿(G)、蓝(B)对应的像素值。G(i,j)为灰度图像中i行j列像素值。
优选的,(3)采用三次插值方法对航天器图像数据库中的每个三维几何图像的灰度图像进行缩小处理,得到对应的插值后图像;具体为:
f(i+u,j+v)=ABC
式中:f(i+u,j+v)为插值后图像的i行j列像素值,u,v为插值间隔,A,B,C为系数矩阵,其形式如下:
A=[S(1+u) S(u) S(1-u) S(2-u)]
C=[S(1+v) S(v) S(1-v) S(2-v)]T
式中:S为插值相关函数,具体为
通过以上的优选的旋转方案及参数要求,大幅提高了图像目标识别的效果。
优选的,(4)对步骤(2)航天器图像数据库中的每个三维几何图像的灰度图像进行旋转变化,获取旋转后的灰度图像;具体为:
设原图像(即三维几何图像的灰度图像)某像素点的坐标为(i,j),旋转后在旋转后的灰度图像中的坐标为(i1,j1),则旋转变换的矩阵表达式为:
逆变换为:
式中,θ表示在原图像所在的平面内,从原图像变为旋转后的灰度图像时,绕原图像(即三维几何图像的灰度图像)中心点旋转的角度;
a、b为图像未旋转时候旋转中心的坐标、c、d为图像旋转后中心点的坐标,为:
式中,w0为原图像(旋转前)的宽度,h0为原图像(旋转前)的长度;w1为旋转后灰度图像的宽度,h1为旋转后灰度图像的长度;为真实模拟光学相机成像的尺寸(长、宽)的约束影响,旋转后的航天器在光学相机内成像的尺寸有所变化,因此,旋转后的图像长度h1和宽度w1和原图像有长度h0和宽度w0有所变化。
通过以上的优选的旋转方案及参数要求,大幅提高了图像目标识别的效果。
优选的,(1)基于姿态旋转方法,构建空间中航天器图像数据库,航天器图像数据库中存储航天器在不同三轴姿态角组合情况下的三维几何图像,具体为:
目标航天器为空间中M种航天器,将多组目标航天器的三轴姿态角组合导入STK软件中,在STK软件中,进行M种航天器不同三轴姿态角组合下的三维几何图像的获取,存入空间中航天器图像数据库中。
优选的,为模拟采用真实拍摄设备对航天器进行拍摄时产生的噪声,在步骤(2)得到灰度图像后,加入噪声,作为步骤(2)最终得到的灰度图像;在灰度图像基础上,加入测量噪声能得到带噪声的灰度图像,具体为:加入高斯噪声进行模糊化,进一步提升了识别的准确性。
加入高斯噪声进行模糊化,具体为:
在三维几何图像的灰度图像基础上,加入高斯噪声进行模糊化,得到带噪声的灰度图像,具体为:
Gnoise(i,j)=G(i,j)+GGB(i,j)
式中:i,j为灰度图像的横纵坐标,Gnoise(i,j)为带噪声的灰度图像中i行j列像素值。σ是高斯噪声正态分布的标准方差;r是带噪声的灰度图像模糊半径。
在加入噪声以后,获得航天器带噪声的灰度图像,能够更加逼真的模拟在空间环境下对航天器成像的图片,为神经网络训练和特征部位识别提供准确的图像,提高特征部位的识别的鲁棒性和准确性。
优选的,对构建的卷积神经网络进行训练具体为:卷积神经网络接收图像数据输入,输出图像特征部位的标签,作为预测标签,将预测标签与步骤(5)特征部分的标签共同输入设定的标签损失函数,通过损失函数计算训练误差,根据训练误差,动态调整神经网络参数,实现误差收敛,当误差收敛到设定的要求后,得到训练后的卷积神经网络。
优选的,步骤(1)不同三轴姿态角组合中,三轴姿态角的变换范围为[0,360°],每隔N°进行取值,N为360的公约数;共形成(360/N)3组目标航天器的三轴姿态角的组合。
优选的,(1)中航天器图像数据库中存储的航天器在不同三轴姿态角组合情况下的三维几何图像,具体为:
将多组目标航天器的三轴姿态角组合导入仿真建模软件中,仿真建模软件优选为卫星***工具包(Satellite Toll Kit,STK)软件,能够构建航天器的三维模型,从而获取航天器在不同三轴姿态角组合情况下的三维几何图像。
本发明与现有技术相比的有益效果为:
(1)本发明提出了一种特征部位智能识别方法,将特征提取和特征识别融合到了一起,避免了对特征的人工设计,具有更强的通用性,且大大提升了空间目标特征部件的识别效率和精度。
(2)本发明基于多种来源的卫星图片数据,包括卫星三维模型投影得到的二维图像等,考虑在轨卫星的实际运行环境,对卫星图像进行模拟渲染,这样不仅可以获取更加真实的卫星图像数据,同时能够增加卫星图像数据的数量,更加有利于卷积网络的训练。
(3)本发明提出了一种特征部位智能识别方法,不依赖与在轨已知的特征点,对不具有特征点的航天器依然具有较强的识别能力,具有更强的通用性和识别的鲁棒能力,大大提升了航天器特征部位、例如帆板等识别效率和精度。
附图说明
图1为本发明方法的示意图;
图2为本发明方法模拟的航天器三维模型;
图3为本发明方法训练过程中损失函数曲线图;
图4为本发明方法得到的识别结果。
具体实施方式
下面结合附图和具体实施例对本发明做进一步详细描述。
本发明一种特征部位智能识别方法,适用于空间失效卫星局部典型部位识别领域。传统基于解析算法的目标典型部位识别存在边缘点识别误差大等问题,本发明设计了一种基于卷积神经网络的局部典型特征部位智能识别方法。首先针对失效卫星局部典型部位识别任务,创建包含丰富信息的卫星局部典型部位数据库,对典型部位的构件进行标注,构造训练数据集和测试数据集。然后构建一个深度卷积网络,使用训练数据集进行网络参数的训练,训练完成后,网络即可从输入图像中智能识别出的典型部位。
空间失效航天器的抓捕、航天器之间交汇对接等任务需要精确获取航天器的相对姿态等信息。而航天器特征部位识别是实现相对姿态等信息估计的重要技术手段。传统基于解析算法的特征部位识别方法存在边缘点识别误差大、过渡依赖人工标识的已知特征点等问题。针对此,本发明设计了一种基于卷积神经网络的局部典型特征部位智能识别方法,解决了识别方法中过渡依赖人工标识的已知特征点的问题,实现了在具有弱光、抖动图像模糊等复杂空间环境下的航天器局部典型特征部位(如太阳翼)的识别。
如图1所示,本发明一种特征部位智能识别方法,包括以下步骤:
(1)基于姿态旋转方法构建空间中航天器图像数据库,即设置目标航天器三轴姿态角为滚动角俯仰角θ、偏航角ψ。优选的,三轴姿态角的变换范围为[0,360°],每隔N°进行取值(所述的N为360的公约数,优选为90°),共形成(360/N)3组目标航天器的三轴姿态角的组合;),形成多组目标航天器的三轴姿态角组合,导入仿真建模软件,进行航天器在不同三轴姿态角组合情况下的三维几何图像的获取,得到航天器图像数据库,进一步优选方案具体为:
(1-1)设置航天器三轴姿态角滚动角俯仰角θ、偏航角ψ在[0,360°],遍历每隔N°进行取值,遍历滚动角/>俯仰角θ、偏航角ψ所有组合,共形成(360/N)3中组合。
(1-2)在仿真建模软件"卫星***工具包"(Satellite Toll Kit,STK)选择第i种航天器,设置该航天器的三轴姿态为(1-1)得到的所有遍历组合的姿态,截取每一种姿态组合下的该航天器的几何图片。
(1-3)在仿真建模软件"卫星***工具包"(Satellite Toll Kit,STK)选择第i+1种航天器,设置该航天器的三轴姿态为(1-1)得到的所有遍历组合的姿态,截取每一种姿态组合下的该航天器的几何图片。设在仿真建模软件"卫星***工具包"(Satellite TollKit,STK)共含有M中航天器,则可获得M×(360/N)3张三维几何图像,得到航天器图像数据库,该数据库包括了多姿态、多特征部位等信息,为准确识别航天器特征部位提供丰富的数据库,进一步为识别效果的提高提供了基础数据。
(2)对航天器图像数据库中的每个三维几何图像的红(R)、绿(G)、蓝(B)三个颜色通道的像素值进行加权平均,能得到该三维几何图像的灰度图像,(标记为子集1)和带噪声的三维几何图像的灰度图像(标记为子集2),优选方案具体为:
(2-1)如图2所示,对航天器图像数据库中的每个三维几何图像的红(R)、绿(G)、蓝(B)三个颜色通道的像素值进行加权平均,能得到该三维几何图像的灰度图像;优选公式具体如下:
G(i,j)=0.299×R(i,j)+0.578×G(i,j)+0.114×B(i,j)
式中:i,j为图像的横纵坐标,i大于等于1,j大于等于1,R(i,j)、G(i,j)、B(i,j)分别为图像中i行j列像素红(R)、绿(G)、蓝(B)对应的像素值。G(i,j)为图像中i行j列像素值。通过以上公式中国系数的搭配,得到的灰度图像,进一步提高了识别的效果。
通过上述步骤(2-1)的灰度化处理可获得M×(360/N)3张航天器三维几何图像的灰度图像,即获得子集1中的全部图像。
(2-2)考虑空间环境下对航天器成像时存在的噪声、抖动模糊等影响因素,在步骤(2-1)的在三维几何图像的灰度图像基础上,加入高斯噪声进行模糊化,得到带噪声的灰度图像,即子集2,优选表达式具体为:
Gnoise(i,j)=G(i,j)+GGB(i,j)
式中:i,j为灰度图像的横纵坐标,Gnoise(i,j)为带噪声的灰度图像中i行j列像素值。σ是高斯噪声正态分布的标准方差;r是带噪声的灰度图像模糊半径。
在加入噪声以后,获得航天器带噪声的灰度图像,能够更加逼真的模拟在空间环境下对航天器成像的图片,为神经网络训练和特征部位识别提供准确的图像,进一步提高特征部位的识别的鲁棒性和准确性。
(3)采用三次插值方法对航天器图像数据库中的每个三维几何图像的灰度图像进行缩小处理,得到对应的插值后图像;,优选方案具体为:
f(i+u,j+v)=ABC
式中:f(i+u,j+v)为插值后图像的i行j列像素值,u,v为插值间隔,A,B,C为系数矩阵,其优选方案形式如下:
A=[S(1+u) S(u) S(1-u) S(2-u)]
C=[S(1+v) S(v) S(1-v) S(2-v)]T
式中:S(·)为插值相关函数,具体为
通过步骤(3)获得的的插值后图像,能够逼真模拟空间环境下不用距离对航天器成像的图片,为神经网路的识别提供更为准确的训练数据集。
(4)对步骤(2)航天器图像数据库中的子集1中的每个三维几何图像的灰度图像进行旋转变化,获取旋转后的灰度图像;优选方案具体为:
设原图像(即三维几何图像的灰度图像)某像素点的坐标为(i,j),旋转后在旋转后的灰度图像中的坐标为(i1,j1),则优选的旋转变换的矩阵表达式为:
优选的逆变换的矩阵表达式为:
式中,θ表示在原图像所在的平面内,从原图像变为旋转后的灰度图像时,绕原图像(即三维几何图像的灰度图像)中心点旋转的角度;
a、b为图像未旋转时候旋转中心的坐标,即为图像中航天器所在位置的几何中心点、c、d为图像旋转后中心点的坐标。旋转后的中心点和旋转后的中心点既存在转动又存在平动。进一步优选方案具体如下:
式中,w0=600为原图像的宽度,h0=1000为原图像的长度;w1=600为旋转后灰度图像的宽度,h1=360为旋转后灰度图像的长度;为真实模拟光学相机成像的尺寸(长宽)的约束影响,旋转后的航天器在光学相机内成像的尺寸有所变化,因此,旋转后的图像长度h1和宽度w1和原图像有长度h0和宽度w0有所变化。
通过以上本步骤的优选公式和参数要求,进一步提高特征部位的识别的准确性。
(5)对步骤(2)航天器图像数据库中的各个三维几何图像的灰度图像的子集1和子集2、步骤(3)各个三维几何图像的灰度图像插值后图像、步骤(4)各个三维几何图像的灰度图像旋转后的灰度图像,分别进行航天器特征部位轮廓标注;并对标注的航天器特征部位轮廓分别进行名称设置,得到特征部分的标签,完成目标航天器特征部位的标注;以航天器太阳帆板为例,优选方案具体如下:
(5-1)剔除无法确定太阳帆板特征部件的位置的图像;
(5-2)对航天器太阳帆板的轮廓采用矩阵方框进行圈定和标志,并记该矩形方框圈定的部位为s1标签。
(5-3)对航天器太阳帆板存在遮挡的图片进行标注,采用折线沿太阳帆板轮廓进行圈定和标志,并记该圈定的部位为s1标签。
通过以上本步骤具体处理后的图像,能够进一步提高特征部位的识别的准确性。
(6)构建卷积神经网络,利用航天器图像数据库中航天器特征部位轮廓标注后的图像中的大部分对构建的卷积神经网络进行训练;得到训练后的卷积神经网络;将其余的航天器图像数据库中航天器特征部位轮廓标注后的图像,输入训练后的卷积神经网络进行航天器特征部位识别,输出识别后的结果,实现航天器的特征部位智能识别,优选方案具体如下:
(6-1)构造了特征部位边缘识别的损失函数为L2,优选表示为
其中y为航天器图像数据库每种图片特征部位标注的区域面积。为神经网络识别出的航天器特征部位区域面积。M2为权重系数(所述的M2选为1)。
(6-2)构造优选的神经卷积网络,设计神经卷积网络共有K个通道,每个通道的权重系数为Wj,1≤j≤K(所述的K优选为10000)。各个通道权重系数初始为Wj(0)(所述的Wj(0)优选为0.001)。
(6-3)利用航天器图像数据库中航天器特征部位轮廓标注后的图像中的大部分进行神经网络的训练。将航天器图像数据库中所有标注好的每一张图片输出到所构造神经卷积网络,标注好图像中已经通过标签可获得航天器特征部位所在区域的面积y。通过神经网络各个通道权重系数Wj(0)计算出航天器特征部位所在区域面积
(6-4)计算(6-1)中的特征部位边缘识别的损失函数为L2。
(6-5)判断L2≤L2min(所述的L2min优选为0.16),是否成立,若成立进行(6-7);否则进行(6-6);
(6-6)更新神经卷积网络各个通道权重系数:Wj(l+1)=Wj(l)*dt。(dt为设计系数。l为神经网络训练的步数,满足1≤l≤lmax)。返回步骤(6-3)进行迭代计算。如图3所示,通过多次迭代训练,能够使边缘损失函数收敛到0.16以内。
(6-7)固化神经网络参数各个通道的权重系数Wj(l),获得训练完毕后的神经网络。
(6-8)将其余的航天器图像数据库中航天器特征部位轮廓标注后的图像,输入获得训练完毕后的神经网络,计算航天器特征部位的所在区域,输出识别后的结果。如图4所示,通过以上优选的卷积神经网络的识别,能够进一步准确识别出航天器帆板所在位置,实现航天器的特征部位智能识别。
本发明将特征提取和特征识别融合到了一起,避免了对特征的人工设计,具有更强的通用性,且大大提升了空间目标特征部件的识别效率和精度。本发明基于多种来源的卫星图片数据,包括卫星三维模型投影得到的二维图像等,考虑在轨卫星的实际运行环境,对卫星图像进行模拟渲染,这样不仅可以获取更加真实的卫星图像数据,同时能够增加卫星图像数据的数量,更加有利于卷积网络的训练。
而且,本发明不依赖与在轨已知的特征点,对不具有特征点的航天器依然具有较强的识别能力,具有更强的通用性和识别的鲁棒能力,大大提升了航天器特征部位、例如帆板等识别效率和精度。
本发明说明书中未作详细描述的内容属本领域技术人员的公知技术。
Claims (10)
1.一种特征部位智能识别方法,其特征在于步骤如下:
(1)基于姿态旋转方法,构建空间中航天器图像数据库,航天器图像数据库中存储航天器在不同三轴姿态角组合情况下的三维几何图像;
(2)对航天器图像数据库中的每个三维几何图像的红R、绿G、蓝B三个颜色通道的像素值进行加权平均,能得到该三维几何图像的灰度图像;在灰度图像基础上,加入测量噪声能得到带噪声的灰度图像;
(3)采用三次插值方法对航天器图像数据库中的每个三维几何图像的灰度图像进行缩小处理,得到对应的插值后图像;
(4)对步骤(2)航天器图像数据库中的每个三维几何图像的灰度图像进行旋转变化,获取旋转后的灰度图像;
(5)对步骤(2)航天器图像数据库中的各个三维几何图像的灰度图像以及带噪声的灰度图像、步骤(3)各个三维几何图像的灰度图像插值后图像、步骤(4)各个三维几何图像的灰度图像旋转后的灰度图像,分别进行航天器特征部位轮廓标注;并对标注的航天器特征部位轮廓分别进行名称设置,得到特征部分的标签,完成目标航天器特征部位的标注;
(6)构建卷积神经网络,利用航天器图像数据库中航天器特征部位轮廓标注后的图像中的大部分对构建的卷积神经网络进行训练,得到训练后的卷积神经网络;将其余的航天器图像数据库中航天器特征部位轮廓标注后的图像,输入训练后的卷积神经网络进行航天器特征部位识别,输出识别后的结果,实现航天器的特征部位智能识别。
2.根据权利要求1所述的一种特征部位智能识别方法,其特征在于:(1)基于姿态旋转方法,构建空间中航天器图像数据库,航天器图像数据库中存储航天器在不同三轴姿态角组合情况下的三维几何图像,具体为:
(1)基于姿态旋转方法,构建空间中航天器图像数据库,即设置目标航天器三轴姿态角为滚动角俯仰角θ、偏航角ψ;三轴姿态角的变换范围为[0,360°],每隔N°进行取值,形成多组航天器的三轴姿态角组合,导入仿真建模软件,进行航天器在不同三轴姿态角组合情况下的三维几何图像的获取,得到航天器图像数据库。
3.根据权利要求1所述的一种特征部位智能识别方法,其特征在于:(2)对航天器图像数据库中的每个三维几何图像的红R、绿G、蓝B三个颜色通道的像素值进行加权平均,能得到该三维几何图像的灰度图像,具体为:
G(i,j)=0.299×R(i,j)+0.578×G(i,j)+0.114×B(i,j)
式中:i,j为灰度图像的横纵坐标,i大于等于1,j大于等于1,R(i,j)、G(i,j)、B(i,j)分别为灰度图像中i行j列像素红R、绿G、蓝B对应的像素值;G(i,j)为灰度图像中i行j列像素值。
4.根据权利要求1所述的一种特征部位智能识别方法,其特征在于:(3)采用三次插值方法对航天器图像数据库中的每个三维几何图像的灰度图像进行缩小处理,得到对应的插值后图像;具体为:
f(i+u,j+v)=ABC
式中:f(i+u,j+v)为插值后图像的i行j列像素值,u,v为插值间隔,A,B,C为系数矩阵,其形式如下:
A=[S(1+u) S(u) S(1-u) S(2-u)]
C=[S(1+v) S(v) S(1-v) S(2-v)]T
式中:G(i,j)为灰度图像中i行j列像素值,S为插值相关函数,具体为
5.根据权利要求1所述的一种特征部位智能识别方法,其特征在于:(1)基于姿态旋转方法,构建空间中航天器图像数据库,航天器图像数据库中存储航天器在不同三轴姿态角组合情况下的三维几何图像,具体为:
目标航天器为空间中M种航天器,将多组目标航天器的三轴姿态角组合导入STK软件中,在STK软件中,进行M种航天器不同三轴姿态角组合下的三维几何图像的获取,存入空间中航天器图像数据库中。
6.根据权利要求1所述的一种特征部位智能识别方法,其特征在于,为模拟采用真实拍摄设备对航天器进行拍摄时产生的噪声,在步骤(2)得到三维几何图像的灰度图像后,加入噪声,作为步骤(2)最终得到的灰度图像;在三维几何图像的灰度图像基础上,加入测量噪声能得到带噪声的灰度图像,具体为:加入高斯噪声进行模糊化。
7.根据权利要求1所述的一种特征部位智能识别方法,其特征在于:对构建的卷积神经网络进行训练具体为:卷积神经网络接收图像数据输入,输出图像特征部位的标签,作为预测标签,将预测标签与步骤(5)特征部分的标签共同输入设定的标签损失函数,通过损失函数计算训练误差,根据训练误差,动态调整神经网络参数,实现误差收敛,当误差收敛到设定的要求后,得到训练后的卷积神经网络。
8.根据权利要求1所述的一种特征部位智能识别方法,其特征在于:步骤(1)不同三轴姿态角组合中,三轴姿态角的变换范围为[0,360°],每隔N°进行取值,N为360的公约数。
9.根据权利要求8所述的一种特征部位智能识别方法,其特征在于:步骤(1)不同三轴姿态角组合,共形成(360/N)3组目标航天器的三轴姿态角的组合。
10.根据权利要求1所述的一种特征部位智能识别方法,其特征在于:(1)中航天器图像数据库中存储的航天器在不同三轴姿态角组合情况下的三维几何图像,具体为:
将多组目标航天器的三轴姿态角组合导入仿真建模软件中,仿真建模软件为卫星***工具包软件,能够构建航天器的三维模型,从而获取航天器在不同三轴姿态角组合情况下的三维几何图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010350572.8A CN111680552B (zh) | 2020-04-28 | 2020-04-28 | 一种特征部位智能识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010350572.8A CN111680552B (zh) | 2020-04-28 | 2020-04-28 | 一种特征部位智能识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111680552A CN111680552A (zh) | 2020-09-18 |
CN111680552B true CN111680552B (zh) | 2023-10-03 |
Family
ID=72452614
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010350572.8A Active CN111680552B (zh) | 2020-04-28 | 2020-04-28 | 一种特征部位智能识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111680552B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114491694B (zh) * | 2022-01-17 | 2024-06-25 | 北京航空航天大学 | 一种基于虚幻引擎的空间目标数据集构建方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103093456A (zh) * | 2012-12-25 | 2013-05-08 | 北京农业信息技术研究中心 | 基于图像的玉米果穗性状指标计算方法 |
CN104482934A (zh) * | 2014-12-30 | 2015-04-01 | 华中科技大学 | 一种多传感器融合的超近距离自主导航装置与方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6959109B2 (en) * | 2002-06-20 | 2005-10-25 | Identix Incorporated | System and method for pose-angle estimation |
US8180112B2 (en) * | 2008-01-21 | 2012-05-15 | Eastman Kodak Company | Enabling persistent recognition of individuals in images |
-
2020
- 2020-04-28 CN CN202010350572.8A patent/CN111680552B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103093456A (zh) * | 2012-12-25 | 2013-05-08 | 北京农业信息技术研究中心 | 基于图像的玉米果穗性状指标计算方法 |
CN104482934A (zh) * | 2014-12-30 | 2015-04-01 | 华中科技大学 | 一种多传感器融合的超近距离自主导航装置与方法 |
Non-Patent Citations (2)
Title |
---|
基于彩色图像的高速目标单目位姿测量方法;刘巍;陈玲;马鑫;李肖;贾振元;;仪器仪表学报(第03期);675-682 * |
基于视觉测量的太阳翼模态参数在轨辨识;吴小猷;李文博;张国琪;关新;郭胜;刘易;;空间控制技术与应用(第03期);9-14 * |
Also Published As
Publication number | Publication date |
---|---|
CN111680552A (zh) | 2020-09-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110853075B (zh) | 一种基于稠密点云与合成视图的视觉跟踪定位方法 | |
CN107679537B (zh) | 一种基于轮廓点orb特征匹配的无纹理空间目标姿态估计算法 | |
CN111862126A (zh) | 深度学习与几何算法结合的非合作目标相对位姿估计方法 | |
CN111563878B (zh) | 一种空间目标定位方法 | |
CN114419147A (zh) | 一种救援机器人智能化远程人机交互控制方法及*** | |
CN108680165B (zh) | 基于光学图像的目标飞行器姿态确定方法和装置 | |
CN109086663A (zh) | 基于卷积神经网络的尺度自适应的自然场景文本检测方法 | |
CN106251282A (zh) | 一种机械臂采样环境仿真图的生成方法及装置 | |
CN108320310B (zh) | 基于图像序列的空间目标三维姿态估计方法 | |
CN106097277B (zh) | 一种基于视觉测量的绳索物质点跟踪方法 | |
CN115908554A (zh) | 一种高精度亚像素模拟星图以及亚像素提取方法 | |
CN114332070A (zh) | 一种基于智能学习网络模型压缩的陨坑检测方法 | |
CN104504691B (zh) | 基于低秩纹理的摄像机位置和姿态测量方法 | |
CN111680552B (zh) | 一种特征部位智能识别方法 | |
CN117351333A (zh) | 一种星敏感器快速星像提取方法 | |
Koizumi et al. | Development of attitude sensor using deep learning | |
CN116661334B (zh) | 基于ccd相机的导弹跟踪目标半物理仿真平台验证方法 | |
CN111260736B (zh) | 一种空间相机内参在轨实时标定方法 | |
CN116740488A (zh) | 一种用于视觉定位的特征提取模型的训练方法及装置 | |
CN115760984A (zh) | 一种立方星基于单目视觉的非合作目标位姿测量方法 | |
CN111366162B (zh) | 基于太阳帆板投影与模板匹配的小天体探测器位姿估计方法 | |
CN112906573B (zh) | 基于轮廓点集的行星表面导航路标匹配方法 | |
CN114419259A (zh) | 一种基于物理模型成像仿真的视觉定位方法及*** | |
CN116755169B (zh) | 基于星图识别和亮度先验信息的小目标检测方法、*** | |
Voynov et al. | AnyLens: A Generative Diffusion Model with Any Rendering Lens |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |