CN113379803B - 一种基于视觉图像的定位方法 - Google Patents

一种基于视觉图像的定位方法 Download PDF

Info

Publication number
CN113379803B
CN113379803B CN202110767673.XA CN202110767673A CN113379803B CN 113379803 B CN113379803 B CN 113379803B CN 202110767673 A CN202110767673 A CN 202110767673A CN 113379803 B CN113379803 B CN 113379803B
Authority
CN
China
Prior art keywords
adjacent
feature
feature expression
sequence
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110767673.XA
Other languages
English (en)
Other versions
CN113379803A (zh
Inventor
陈星翰
朱然
叶葛旺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Qzs Networking Technology Co ltd
Original Assignee
Shanghai Qzs Networking Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Qzs Networking Technology Co ltd filed Critical Shanghai Qzs Networking Technology Co ltd
Priority to CN202110767673.XA priority Critical patent/CN113379803B/zh
Publication of CN113379803A publication Critical patent/CN113379803A/zh
Application granted granted Critical
Publication of CN113379803B publication Critical patent/CN113379803B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于视觉图像的定位方法,通过将原始图像数据中每两个帧图像之间进行几何运动特征提取得到特征表达集,将所述特征表达集中非相邻帧图像之间的非相邻特征表达作为指导图集,然后通过该指导图集对特征表达集中相邻帧图像之间的相邻特征表达进行约束修正得到修正相邻特征表达,以及通过序列学习单元对修正相邻特征表达进行序列学习然后得到序列相邻特征表达,最后通过预设网络将该序列相邻特征表达进行降维拟合确定出帧间位姿,从而完成待定位物体的定位,实现了在进行视觉定位中在不同场景下以及在与训练集差异较大的情况下仍能进行准确的视觉定位。

Description

一种基于视觉图像的定位方法
技术领域
本发明属于定位技术领域,具体涉及一种基于视觉图像的定位方法。
背景技术
自主定位技术作为执行建图、导航等服务的基础,已经成为目前的研究热点,完全自主的高精度定位***在赋能空间位置感知方面有着重要的价值,可广泛地应用在国防领域、航空航天领域、工业领域和日常生活等场景,而全球导航卫星***作为最重要的定位技术之一,能够在全球坐标系下确定传感器的位置信息,但是单纯的依靠该方法不能进行高精度的定位,尤其是在室内场景和室外具有遮挡的场景。
目前对于高精度的定位通常采用的是视觉定位技术,该技术只依靠运动目标所携带的相机就可实现完全自主的高精度定位,可广泛地应用于室内外场景,而传统的视觉定位技术通常采用的是特征点法、直接法和深度学习方法。
其中,特征点法缺乏对不同场景的自适应特点,直接法对光照变化过于敏感,深度学习方法是仅从单幅图像估计相机位姿,无法对连续图像间的时序约束关系进行考量,从而无法在与训练集差异较大的情况下继续准确的定位。
因此,如何在不同场景以及与训练集差异较大的情况下准确地进行视觉定位,是本领域技术人员有待解决的技术问题。
发明内容
本发明的目的是为了解决现有技术无法在不同场景以及与训练集差异较大的情况下进行准确的视觉定位的技术问题,因此,本发明提出了一种基于视觉图像的定位方法。
本发明的技术方案为:一种基于视觉图像的定位方法,所述方法具体包括以下步骤:
S1、将原始图像数据中每两个帧图像之间进行几何运动特征提取得到特征表达集,所述原始图像数据为待定位物体的视觉图像数据;
S2、将所述特征表达集中非相邻帧图像之间的非相邻特征表达作为指导图集,通过所述指导图集对所述特征表达集中相邻帧图像之间的相邻特征表达进行约束修正得到修正相邻特征表达;
S3、通过序列学习单元将所述修正相邻特征表达进行序列学习得到序列相邻特征表达;
S4、通过预设网络将所述序列相邻特征表达进行降维拟合确定出帧间位姿,从而完成待定位物体的定位。
进一步地,所述步骤S2具体包括以下分步骤:
S21、确定出所述相邻特征表达在所述指导图集中对应的多个关联指导图;
S22、确定出每一个所述关联指导图对应的指导约束;
S23、基于所有所述指导约束对所述相邻特征表达进行约束修正。
进一步地,所述S22中的指导约束具体由如下公式进行确定:
其中,maskt+i,t+i+1为指导约束,t为获取所述原始图像数据的t时刻,i和j为区分不同时刻的系数,且为正整数,为关联指导图中高维宏观位姿信息在c通道的指导二维特征图,/>为相邻特征表达的高维特征在c通道的相邻二维特征图,/>表示/>在c通道的约束,Vec为将二维特征特征图映射为一维向量,‖·‖2表示二范数,σ(·)为Sigmoid函数,/>为堆积操作。
进一步地,所述S3具体为通过所述序列学习单元中的预设神经网络对修正相邻特征表达进行序列学习得到序列相邻特征表达。
进一步地,所述S4具体包括以下分步骤:
S41、通过所述预设网络将所述序列相邻特征表达进行降维拟合确定出相邻帧图像之间的相对位移变化和相对欧拉角变化;
S42、基于所述相对位移变化和所述相对欧拉角变化对所述待定位物体进行定位。
与现有技术相比,本发明的有益效果是:
(1)通过将原始图像数据中每两个帧图像之间进行几何运动特征提取得到特征表达集,经所述特征表达集中非相邻帧图像之间的非相邻特征表达作为指导图集,然后通过该指导图集对特征表达集中相邻帧图像之间的相邻特征表达进行约束修正得到修正相邻特征表达,以及通过序列学习单元对修正相邻特征表达进行序列学习然后得到序列相邻特征表达,最后通过预设网络将该序列相邻特征表达进行降维拟合确定出帧间位姿,从而完成待定位物体的定位,实现了在进行视觉定位中在不同场景下以及在与训练集差异较大的情况下仍能进行准确的视觉定位。
(2)本发明通过确定出特征表达集中的指导图集,并通过该指导图集对特征表达集中相邻特征表达进行约束修正,保证了图像序列间的运动一致性。
(3)本发明通过序列学习单元对修正相邻特征表达进行序列学习,充分挖掘时序信号特征,能够起到连续指导当前位姿估计的效果。
附图说明
图1所示为本发明实施例提供的一种基于视觉图像的定位方法的流程示意图;
图2所示为本发明实施例中进行几何运动特征提取时原始图像数据的维度变化。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
如背景技术中所述,现有技术中特征点法缺乏对不同场景的自适应特点,直接法对光照变化过于敏感,深度学习方法是仅从单幅图像估计相机位姿,无法对连续图像间的时序约束关系进行考量,从而无法在与训练集差异较大的情况下进行准确的定位。
为解决现有技术中的不足,本申请提出一种基于视觉图像的定位方法,如图1所示,所述方法包括以下步骤:
步骤S1、将原始图像数据中每两个帧图像之间进行几何运动特征提取得到特征表达集,所述原始图像数据为待定位物体的视觉图像数据。
具体的,原始图像数据也即待定位物体的视觉图像数据可由待定位物体上携带的相机进行获取,且该原始图像数据是连续的多个原始RGB帧图像。
在具体应用场景中,原始图像数据是连续4帧的原始RGB帧图像,其尺寸为3×370×1226,其中3表示图像的RGB三通道,370和1226分别表示原始图像的高和宽,本领域技术人员可根据实际情况选择原始RGB帧图像的帧数。
通过卷积神经网络对原始图像数据中每两个帧图像之间进行几何运动特征提取,在具体场景中,卷积神经网络的参数配置可如下表1所示:
表1
其中,网络感知域的尺寸从7×7到5×5,再到3×3,逐渐减小,以捕捉高维特征中更细微的变化,Zero-padding(零填充)被引入来适应卷积核尺寸以及博阿吃卷积后的空间维度,网络各层通道数即每层中进行特征提取的卷积核的个数越来越多,以提取更加多样和复杂的运动特征,该卷积神经网络在进行几何运动特征提取时原始图像数据的维度变化如图2所示。
卷积神经网络一共包含10个卷积层,且除了Conv6_1层,每层的输出都经过非线性激活函数(RectifiedLinearUnit,ReLU),该非线性激活函数的具体公式可以表示为:
式中,ci为卷积层第i个卷积核的输出,wi为卷积核i中的权值,bi为卷积后特征图的偏置,xa为在第a次卷积操作时处于感受野中的输入数据,k为卷积操作的总运算次数,·表示点乘运算,Relu(·)为激活函数。
上述步骤中,卷积神经网络将原始图像数据进行几何运动特征提取,而不是将经过预处理的图像如光流作为输入,是因为卷积神经网络经过训练,可以学习一种有效的降维的视觉运动特征表达,这种学习到的特征不仅可以将原始的高维图像压缩成一种紧凑的描述,而且提高了连续序列的训练过程。
需要指出并说明的是,以上通过卷积神经网络对每两个帧图像之间进行几何运动特征提取的方式仅为本申请中一种具体实现方式,本领域技术人员可根据实际情况灵活选择任意一种神经网络或者其他方式来对每两个帧图像之间进行几何运动特征提取,同时还可根据选择的原始图像数据中帧图像的帧数,灵活对卷积神经网络或其他方式进行调整,这并不影响本申请的保护范围,同时也不对本申请后续步骤具有影响。
步骤S2、将所述特征表达集中非相邻帧图像之间的非相邻特征表达作为指导图集,通过所述指导图集对所述特征表达集中相邻帧图像之间的相邻特征表达进行约束修正得到修正相邻特征表达。
其中,所述步骤S2具体包括以下分步骤:
S21、确定出所述相邻特征表达在所述指导图集中对应的多个关联指导图;
S22、确定出每一个所述关联指导图对应的指导约束;
S23、基于所有所述指导约束对所述相邻特征表达进行约束修正。
具体的,首先将特征表达集中非相邻帧图像之间的非相邻特征表达作为指导图集,用于对特征表达集中相邻帧图像之间的相邻特征表达进行约束修正,其中,指导图集实质上是跨帧的非相邻特征表达,而每两个非相邻特征表达之间涵盖了哪些相邻特征表达,则该非相邻特征表达是其所涵盖的相邻特征表达的关联指导图。
在具体应用场景中,假设t时刻输入卷积神经网络的4帧连续的帧图像分别为It,It+1,It+2,It+3,那么卷积神经网络分别对(It,It+1),(It,It+2),(It,It+3),(It+1,It+2),(It+1,It+3),(It+2,It+3)间的几何运动特征进行提取,由此提取到6对对应的特征表达,特征表达集表示为
然后将特征表达集中的非相邻特征表达作为指导图集,指导图集中的指导图分别为:Xt,t+2,Xt,t+3,Xt+1,t+3,通过该指导图集对相邻特征表达进行约束修正。
对相邻特征表达进行约束修正的步骤,首先确定出相邻特征表达在所述指导图集中的多个关联指导图,如本申请具体应用场景中,Xt,t+1的关联指导图为Xt,t+2和Xt,t+3,Xt+1,t+2的关联指导图为Xt,t+2、Xt,t+3和Xt+1,t+3,Xt+2,t+3的关联指导图为Xt,t+3和Xt+1,t+3
对于指导图集∪Xt+i,t+j,i≥0,j-i≥2,以及满足图像序列间的运动一致性,可通过指导图集对相邻特征特征表达进行通道级别的指导约束,该指导约束可由如下公式进行确定:
其中,maskt+i,t+i+1为指导约束,t为获取所述原始图像数据的t时刻,i和j为区分不同时刻的系数,且为正整数,为关联指导图中高维宏观位姿信息在c通道的指导二维特征图,c为正整数,例如,当c为1时,/>为关联知道图中高维宏观位姿信息在1通道的指导二维特征图,/>为相邻特征表达的高维特征在c通道的相邻二维特征图,表示/>在c通道的约束,Vec为将二维特征特征图映射为一维向量,‖·‖2表示二范数,σ(·)为Sigmoid函数,/>为堆积操作。
通过上述步骤,可确定出每一个相邻特征表达所有对应的指导约束,以上述具体应用场景中为例,可得出如表2的约束修正关系:
表2
然后可基于所有所述指导约束对相邻特征表达进行约束修正,也即是将相邻特征表达对应的多个指导约束进行求均值操作,将进行求均值操作后的指导约束对相邻特征表达进行约束修正得到修正相邻特征表达,在上述具体应用场景中,可由如下公式进行表示:
式中,X′t,t+1、X′t+1,t+2和X′t+2,t+3为修正相邻特征表达。
步骤S3、通过序列学习单元将所述修正相邻特征表达进行序列学习得到序列相邻特征表达。
具体的,首先将修正相邻特征表达映射为一维向量,然后将该一维向量输入到序列学习单元中,该序列学习单元为两层堆叠的长短期记忆神经网络,每层长短期记忆神经网络中都有1024个隐藏状态,在具体应用场景中,假设t时刻由输入修正后的运动特征X′t-1,t,每层长短期记忆神经网络前一时刻传递来的隐藏状态和记忆单元分别为ht-1和ct-1,那么长短期记忆神经网络在t时刻的操作过程如下:
it=σ(WXiX′t-1,t+Whiht-1+bi)
ft=σ(WXfX′t-1,t+Whfht-1+bf)
gt=tanh(WXgX′t-1,t+Whght-1+bg)
ot=σ(WXoX′t-1,t+Whoht-1+bo)
其中,为两向量间的相乘操作(元素级别)。tanh(·)是双曲正切非线性函数,σ(·)是非线性的Sigmoid函数。W项和b项分别指代相应的权值矩阵和偏置向量。it,f,gt,ct和ot分别是t时刻的输入门、遗忘门、输入调制门、记忆单元和输出门。展开LSTM之后,每个LSTM单元对应一个输入数据的时间步数据,在视觉定位任务中,对应相邻图片帧间的几何运动特征,经过序列学习后,相邻特征表达将会包含输入的序列数据间的序列约束关系,也即局部图像序列中存在的空间点的共视关系。
步骤S4、通过预设网络将所述序列相邻特征表达进行降维拟合确定出帧间位姿,从而完成待定位物体的定位。
所述S4具体包括以下分步骤:
S41、通过所述预设网络将所述序列相邻特征表达进行降维拟合确定出相邻帧图像之间的相对位移变化和相对欧拉角变化;
S42、基于所述相对位移变化和所述相对欧拉角变化对所述待定位物体进行定位。
具体的,序列相邻特征表达为高维度的抽象帧间运动特征,需要通过预设网络例如全连接网络对该序列相邻特征表达进行降维,通过该全连接网络将运动特征映射到6维空间,确定出相邻帧间的相对位移变化和相对欧拉角变化,从而确定出帧间位姿完成待定位物体的定位,降维的过程可以描述为:
其中,x1×1024为预设网络的输入特征,F1×128为全连接层隐藏层的输出,输入特征x1×1024的维度为1×1024,W128×1024为全连接层待训练的隐藏层权重矩阵,维度为128×1024,b1×128为全连接层中隐藏层的偏置矩阵,维度为1×128,F1×6为全连接网络输出层的输出,其维度对应估计的6维相对位姿,W6×128为输出层的待训练权重矩阵,b1×6为该层的偏置矩阵,T为矩阵的转置操作。
本领域的普通技术人员将会意识到,这里所述的实施例是为了帮助读者理解本发明的原理,应被理解为本发明的保护范围并不局限于这样的特别陈述和实施例。本领域的普通技术人员可以根据本发明公开的这些技术启示做出各种不脱离本发明实质的其它各种具体变形和组合,这些变形和组合仍然在本发明的保护范围内。

Claims (5)

1.一种基于视觉图像的定位方法,其特征在于,具体包括以下步骤:
S1、将原始图像数据中每两个帧图像之间进行几何运动特征提取得到特征表达集,所述原始图像数据为待定位物体的视觉图像数据;
S2、将所述特征表达集中非相邻帧图像之间的非相邻特征表达作为指导图集,通过所述指导图集对所述特征表达集中相邻帧图像之间的相邻特征表达进行约束修正得到修正相邻特征表达;
S3、通过序列学习单元将所述修正相邻特征表达进行序列学习得到序列相邻特征表达;
S4、通过预设网络将所述序列相邻特征表达进行降维拟合确定出帧间位姿,从而完成待定位物体的定位。
2.如权利要求1所述的基于视觉图像的定位方法,其特征在于,所述步骤S2具体包括以下分步骤:
S21、确定出所述相邻特征表达在所述指导图集中对应的多个关联指导图;
S22、确定出每一个所述关联指导图对应的指导约束;
S23、基于所有所述指导约束对所述相邻特征表达进行约束修正。
3.如权利要求2所述的基于视觉图像的定位方法,其特征在于,所述S22中的指导约束具体由如下公式进行确定:
其中,maskt+i,t+i+1为指导约束,t为获取所述原始图像数据的t时刻,i和j为区分不同时刻的系数,且为正整数,为关联指导图中高维宏观位姿信息在c通道的指导二维特征图,/>为相邻特征表达的高维特征在c通道的相邻二维特征图,/>表示/>在c通道的约束,Vec为将二维特征图映射为一维向量,||·||2表示二范数,σ(·)为Sigmoid函数,/>为堆积操作。
4.如权利要求1所述的基于视觉图像的定位方法,其特征在于,所述S3具体为通过所述序列学习单元中的预设神经网络对修正相邻特征表达进行序列学习得到序列相邻特征表达。
5.如权利要求1所述的基于视觉图像的定位方法,其特征在于,所述S4具体包括以下分步骤:
S41、通过所述预设网络将所述序列相邻特征表达进行降维拟合确定出相邻帧图像之间的相对位移变化和相对欧拉角变化;
S42、基于所述相对位移变化和所述相对欧拉角变化对所述待定位物体进行定位。
CN202110767673.XA 2021-07-07 2021-07-07 一种基于视觉图像的定位方法 Active CN113379803B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110767673.XA CN113379803B (zh) 2021-07-07 2021-07-07 一种基于视觉图像的定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110767673.XA CN113379803B (zh) 2021-07-07 2021-07-07 一种基于视觉图像的定位方法

Publications (2)

Publication Number Publication Date
CN113379803A CN113379803A (zh) 2021-09-10
CN113379803B true CN113379803B (zh) 2024-02-02

Family

ID=77581271

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110767673.XA Active CN113379803B (zh) 2021-07-07 2021-07-07 一种基于视觉图像的定位方法

Country Status (1)

Country Link
CN (1) CN113379803B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102607535A (zh) * 2012-02-07 2012-07-25 湖州师范学院 一种利用视差空间集束调整的高精度实时立体视觉定位方法
CN110095116A (zh) * 2019-04-29 2019-08-06 桂林电子科技大学 一种基于lift的视觉定位和惯性导航组合的定位方法
WO2021035669A1 (zh) * 2019-08-30 2021-03-04 深圳市大疆创新科技有限公司 位姿预测方法、地图构建方法、可移动平台及存储介质
WO2021098766A1 (zh) * 2019-11-20 2021-05-27 北京影谱科技股份有限公司 基于图像序列的orb特征视觉里程计学习方法和装置
CN112884840A (zh) * 2021-03-29 2021-06-01 湖南国科微电子股份有限公司 一种视觉定位方法、装置、设备及存储介质
EP3842748A2 (en) * 2020-06-04 2021-06-30 Baidu Online Network Technology (Beijing) Co., Ltd. Method and apparatus for visual positioning based on mobile edge computing

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102607535A (zh) * 2012-02-07 2012-07-25 湖州师范学院 一种利用视差空间集束调整的高精度实时立体视觉定位方法
CN110095116A (zh) * 2019-04-29 2019-08-06 桂林电子科技大学 一种基于lift的视觉定位和惯性导航组合的定位方法
WO2021035669A1 (zh) * 2019-08-30 2021-03-04 深圳市大疆创新科技有限公司 位姿预测方法、地图构建方法、可移动平台及存储介质
WO2021098766A1 (zh) * 2019-11-20 2021-05-27 北京影谱科技股份有限公司 基于图像序列的orb特征视觉里程计学习方法和装置
EP3842748A2 (en) * 2020-06-04 2021-06-30 Baidu Online Network Technology (Beijing) Co., Ltd. Method and apparatus for visual positioning based on mobile edge computing
CN112884840A (zh) * 2021-03-29 2021-06-01 湖南国科微电子股份有限公司 一种视觉定位方法、装置、设备及存储介质

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Beyond Tracking: Selecting Memory and Refining Poses for Deep Visual Odometry;Fei Xue 等;IEEE;全文 *
基于ORB特征的单目视觉定位算法研究;朱永丰 等;计算机科学(第S1期);全文 *
基于序列约束的视觉定位算法研究;朱然;中国优秀硕士学位论文全文数据库 信息科技辑;全文 *

Also Published As

Publication number Publication date
CN113379803A (zh) 2021-09-10

Similar Documents

Publication Publication Date Title
US12031842B2 (en) Method and apparatus for binocular ranging
CN107492121B (zh) 一种单目深度视频的二维人体骨骼点定位方法
CN107408211B (zh) 用于物体的再识别的方法
CN115601549B (zh) 基于可变形卷积和自注意力模型的河湖遥感图像分割方法
CN107369166B (zh) 一种基于多分辨率神经网络的目标跟踪方法及***
CN110503680A (zh) 一种基于非监督的卷积神经网络单目场景深度估计方法
CN112232134B (zh) 一种基于沙漏网络结合注意力机制的人体姿态估计方法
CN113283525B (zh) 一种基于深度学习的图像匹配方法
US11106904B2 (en) Methods and systems for forecasting crowd dynamics
RU2665273C2 (ru) Обучаемые визуальные маркеры и способ их продуцирования
US20230118864A1 (en) Lifted semantic graph embedding for omnidirectional place recognition
CN110378250B (zh) 用于场景认知的神经网络的训练方法、装置及终端设备
CN114693557B (zh) 基于姿态引导的行人视频修复方法、***、设备和介质
CN112802197A (zh) 动态场景下基于全卷积神经网络的视觉slam方法及***
CN111833400B (zh) 一种相机位姿定位方法
CN113312973A (zh) 一种手势识别关键点特征提取方法及***
CN116258757A (zh) 一种基于多尺度交叉注意力的单目图像深度估计方法
CN116030498A (zh) 面向虚拟服装走秀的三维人体姿态估计方法
CN112597847A (zh) 人脸姿态估计方法、装置、电子设备和存储介质
CN115035171A (zh) 基于自注意力导向特征融合的自监督单目深度估计方法
CN111914757A (zh) 人脸检测方法和装置、电子设备、存储介质
CN112417991B (zh) 基于沙漏胶囊网络的双注意力人脸对齐方法
CN113379803B (zh) 一种基于视觉图像的定位方法
CN113112547A (zh) 机器人及其重定位方法、定位装置及存储介质
CN114119999B (zh) 基于深度学习的迭代6d位姿估计方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant