CN110660103A - 一种无人车定位方法及装置 - Google Patents

一种无人车定位方法及装置 Download PDF

Info

Publication number
CN110660103A
CN110660103A CN201910875819.5A CN201910875819A CN110660103A CN 110660103 A CN110660103 A CN 110660103A CN 201910875819 A CN201910875819 A CN 201910875819A CN 110660103 A CN110660103 A CN 110660103A
Authority
CN
China
Prior art keywords
image
training
position data
unmanned vehicle
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910875819.5A
Other languages
English (en)
Other versions
CN110660103B (zh
Inventor
任冬淳
郭潇阳
夏华夏
穆荣均
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Sankuai Online Technology Co Ltd
Original Assignee
Beijing Sankuai Online Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Sankuai Online Technology Co Ltd filed Critical Beijing Sankuai Online Technology Co Ltd
Priority to CN201910875819.5A priority Critical patent/CN110660103B/zh
Publication of CN110660103A publication Critical patent/CN110660103A/zh
Application granted granted Critical
Publication of CN110660103B publication Critical patent/CN110660103B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本申请公开了一种无人车定位方法及装置,在无人车定位过程中,该无人车可先根据采集的基准图像,确定基准位置数据。以根据该基准图像以及该基准位置数据,确定该基准图像对应的特征向量。当该无人车需要定位时,再采集定位图像,并根据采集到的定位图像以及该特征向量,确定该无人车当前所在位置。通过采集的图像确定该无人车当前所在位置,而无需基于预先制作的包含点云信息的地图对该无人车进行定位,使得在没有预先制作包含点云信息的地图的区域,也可进行无人车定位,扩大了无人车定位的应用范围。

Description

一种无人车定位方法及装置
技术领域
本申请涉及无人车技术领域,尤其涉及一种无人车定位方法及装置。
背景技术
随着无人驾驶技术的发展,控制无人车行驶的方法越来越成熟。一般在无人车行驶的过程中,无人车需要实时获取自身的位置信息(即,通过无人车定位方法确定位置信息),以便该无人车可以根据获取到的位置信息按照规划的路径行驶。
在现有的无人车定位方法中,常见的一种方法为激光定位法。具体的,在利用激光定位法确定无人车位置信息时,首先,可通过激光雷达扫描获取点云信息,根据获取的点云信息和已有地图信息预先制作包含点云信息的地图。其次,当无人车行驶到预先制作的地图对应的区域中时,可通过无人车上搭载的激光雷达扫描周围环境,获取周围环境的激光点云信息(例如,该无人车周围环境障碍物相对于该无人车的距离、角度等)。最后,将该无人车扫描得到的激光点云信息与预先制作的地图进行匹配,并根据匹配结果确定该无人车的位置信息。
可见激光定位法需要提前制作地图,导致无人车在没有制作包含点云信息地图的区域,无法通过激光定位法进行定位。且由于点云信息包含的数据量较大,制作包含点云信息的地图成本较高,因此限制了激光定位法的应用范围。
发明内容
本说明书实施例提供一种无人车定位方法及装置,用于解决现有技术中由于定位设备型号不统一造成的无人车定位不精准问题。
本说明书实施例采用下述技术方案:
本说明书提供的一种无人车定位方法,包括:
无人车采集周围环境的图像作为基准图像,并确定采集所述基准图像时的位置数据作为基准位置数据;
根据所述基准图像和所述基准位置数据,确定所述基准图像对应的特征向量,所述特征向量用于表征所述基准图像中包含的各物体的大小、形状以及相对位置关系中的至少一种;
当需要对所述无人车进行定位时,所述无人车采集图像作为定位图像;
根据所述定位图像以及所述特征向量,确定所述无人车当前所在的位置。
可选地,无人车采集周围环境的图像作为基准图像,并确定采集所述基准图像时的位置数据作为基准位置数据,具体包括:
根据采集所述基准图像时所述无人车的位置坐标以及所述基准图像的图像采集方向,确定所述基准图像对应的基准位置数据。
可选地,根据所述定位图像以及所述特征向量,确定所述无人车当前所在的位置,具体包括:
遍历所述基准图像中包含的各位置点;
根据所述基准位置数据,确定所述各位置点分别对应的待选位置数据;
针对每个待选位置数据,根据所述特征向量以及该待选位置数据,确定该待选位置数据对应的待匹配图像;
针对每个待匹配图像,确定该待匹配图像与所述定位图像的相似度;
根据确定出的相似度最大的待匹配图像对应的待选位置数据,确定所述无人车的当前位置。
可选地,根据所述基准位置数据,确定所述各位置点分别对应的待选位置数据,具体包括:
根据所述基准位置数据,遍历所述基准图像包含的各位置点,确定各位置点的位置坐标;
针对每个位置点,根据该位置点的位置坐标,遍历各采集方向,确定各待选位置数据。
可选地,根据所述基准图像和所述基准位置数据,确定所述基准图像对应的特征向量,具体包括:
将所述基准图像和所述基准位置数据输入预先训练的第一模型中的卷积神经网络CNN层,得到所述基准图像对应的特征向量;
根据所述特征向量,针对每个待选位置数据,确定所述待选位置数据对应的待匹配图像,具体包括:
将所述待选位置数据以及所述特征向量输入预先训练的第一模型中的长短期记忆网络LSTM层,得到所述待选位置数据对应的待匹配图像。
可选地,训练所述第一模型,具体包括:
确定历史上若干次行驶过程中,采集的第一训练图像及所述第一训练图像对应的第一训练位置数据;
针对每个第一训练图像,遍历该第一训练图像包含的各位置点;
针对每个位置点,确定在该位置点采集的第二训练图像,以及采集所述该第二训练图像时的第二训练位置数据;
针对每个位置点,根据包含该位置点的第一训练图像、包含该位置点的第一训练图像对应的第一训练位置数据、该位置点对应的第二训练图像、该位置点对应的第二训练位置数据,确定训练样本;
针对确定出的每个训练样本,将该训练样本包含的第一训练图像以及第一训练位置数据,输入待训练的第一模型的CNN层,得到所述第一训练图像对应的特征向量;
将得到的特征向量以及该训练样本包含的第二训练位置数据,输入待训练的第一模型的LSTM层,得到待匹配图像;
以最大化该训练样本包含的第二训练图像与得到的待匹配图像的相似度为优化目标,调整待训练的第一模型中的参数,直至达到第一训练结束条件为止。
可选地,根据所述基准图像和所述基准位置数据,确定所述基准图像对应的特征向量,具体包括:
将所述基准图像和所述基准位置数据输入预先训练的第一模型中的卷积神经网络CNN层,得到所述基准图像对应的特征向量;
根据所述定位图像以及所述特征向量,确定所述无人车当前所在的位置,具体包括:
将所述定位图像以及所述特征向量,输入预先训练的第二模型,得到所述定位图像对应的定位位置数据;
根据得到的所述定位位置数据,确定所述无人车的当前位置。
可选地,训练第二模型,具体包括:
确定预设的训练第一模型的训练样本集,所述训练第一模型的训练样本集中的每个训练样本,由第一训练图像、第一训练位置数据以及在所述第一训练图像包含的位置点采集的第二训练图像、第二训练位置数据组成;
根据所述训练第一模型的训练样本集,以各训练样本包含的所述第一训练图像、第一训练位置数据为输入,输出与所述第二训练图像相似度最大的待匹配图像为目标,训练第一模型,所述第一模型包含CNN层和LSTM层,所述CNN层用于生成输入的图像对应的特征向量;
确定预设的训练第二模型的训练样本集,所述训练第二模型训练样本集中的每个训练样本,由第三训练图像、第三训练位置数据以及在所述第三训练图像包含的位置点采集的第四训练图像,第四训练位置数据组成;
针对确定出的训练第二模型的每个训练样本,将该训练样本包含的第三训练图像、第三训练位置数据,输入所述训练完成的第一模型的CNN层,得到该第三训练图像对应的特征向量;
将得到的特征向量以及所述该训练样本包含的第四训练图像,输入待训练的第二模型,得到该训练样本包含的第四训练图像对应的待匹配位置数据;
以最小化该训练样本包含的第三训练位置数据与得到的待匹配位置数据的差值为优化目标,调整所述待训练的第二模型中的参数,直至达到第二训练结束条件为止。
可选地,无人车采集周围环境的图像作为基准图像,并确定采集所述基准图像时的位置数据作为基准位置数据,具体包括:
采集周边环境指定数量的图像,分别作为基准图像;
针对每个基准图像,根据采集该基准图像时所述无人车的位置坐标以及该基准图像的图像采集方向,确定该基准图像对应的基准位置数据;
根据所述基准图像和所述基准位置数据,确定所述基准图像对应的特征向量,具体包括:
根据采集到的各基准图像和确定出的各基准位置数据,确定特征向量,作为各基准图像对应的特征向量。
本说明书提供的一种无人车定位的装置,包括:
第一采集模块,无人车采集周围环境的图像作为基准图像,并确定采集所述基准图像时的位置数据作为基准位置数据;
确定模块,根据所述基准图像和所述基准位置数据,确定所述基准图像对应的特征向量,所述特征向量用于表征所述基准图像中包含的各物体的大小、形状以及相对位置关系中的至少一种;
第二采集模块,当需要对所述无人车进行定位时,所述无人车采集图像作为定位图像;
定位模块,根据所述定位图像以及所述特征向量,确定所述无人车当前所在的位置。
本说明书提供的一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述无人车定位方法。
本说明书提供的一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述无人车定位方法。
本说明书实施例采用的上述至少一个技术方案能够达到以下有益效果:
无人车在进行定位时,该无人车可先根据采集的基准图像,确定基准位置数据。再根据该基准图像以及该基准位置数据,确定该基准图像对应的特征向量。当该无人车需要进行定位时,可采集定位图像,并根据采集的该定位图像以及确定出的该特征向量,确定该无人车当前所在的位置。通过图像采集的方式进行无人车定位,避免了现有技术进行无人车定位时,需要基于预先制作的包含点云信息的地图进行定位。使得在没有预先制作地图的区域,也能够对无人车进行定位。同时,由于无需预先制作包含点云信息的地图,因此可降低无人车定位的成本,扩大了应用范围。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1为本说明书实施例提供的一种无人车定位过程;
图2为本说明书实施例提供的图像和场景对应关系的示意图;
图3为本说明书实施例提供的确定图像相似度的示意图;
图4为本说明书实施例提供的确定各位置点的示意图;
图5为本说明书实施例提供的确定各位置点的示意图;
图6为本说明书实施例提供的第一模型的训练过程;
图7为本说明书实施例提供的第二模型的训练过程;
图8为本说明书实施例提供的一种无人车定位装置的结构示意图;
图9为本说明书实施例提供的对应于图1的电子设备示意图。
具体实施方式
为使本说明书的目的、技术方案和优点更加清楚,下面将结合本说明书具体实施例及相应的附图对本申请技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。基于说明书中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
以下结合附图,详细说明本申请各实施例提供的技术方案。
图1为本说明书实施例提供的一种无人车的定位过程,具体可包括以下步骤:
S100:无人车采集周围环境的图像作为基准图像,并确定采集所述基准图像时的位置数据作为基准位置数据。
在本说明书中该无人车的定位过程,具体可由无人车执行,或者也可由控制无人车行驶的服务器执行,本说明书对于由何种设备执行该定位过程不做限定,具体可根据需要设置。其中,当由该服务器执行该定位过程时,该服务器可接收无人车发送的数据并执行各步骤。为了方便描述,后续以无人车执行该定位过程为例进行说明。
该无人车可基于采集的基准图像,以及采集该基准图像时基准位置数据,通过后续步骤对该无人车进行定位。使得对无人车进行定位之前,无需预先制作包含点云信息的地图,可以减少无人车定位的成本。使得在没有预先制作包含点云信息的地图的区域,无人车也可通过本说明书实施例提供的定位方法对无人车进行定位。
具体的,在本说明书提供的无人车定位过程中,可通过该无人车上设置的图像传感器(如,摄像头),实时采集该无人车周围环境的图像。针对采集的每个图像,该图像中包含的信息,可以反映该图像传感器的可视范围对应的场景所包含的各物体的信息,如图2所示。图2为本说明书提供的图像和场景对应关系的示意图,图2中右边虚线框为图像传感器的可视范围,该可视范围内包含了一个圆柱体和一个立方体,即,图像传感器的可视范围对应的场景包含了一个圆柱体和一个立方体。图2中左边黑线框为该图像传感器采集的图像,该图像中包含了该圆柱体和该立方体。可从采集到的图像中包含的信息,确定该可视范围对应的场景中的各物体信息。当然,由于无人车采集的不同图像包含的信息不完全相同,因此可将不同图像对应的场景视为是不完全相同的场景。
因此在本说明书中,当该无人车行驶至一个新场景时,可以将采集到的图像作为该场景的基准图像,并确定采集基准图像时的基准位置数据,以便该无人车驶入该新场景后对该无人车进行定位。
所谓新场景是指该无人车中没有存储场景对应信息数据的场景。例如,该无人车第一次行驶到某条道路上,但没有存储该道路对应的道路标志线和标志牌等信息数据,那么该道路对应的场景就可以被称为新场景。该无人车先前到达过某公园,但并未存储该公园的路线、建筑物等信息数据,那么该公园仍可以被称为新场景。
另外,该无人车可根据采集该基准图像时该无人车的位置坐标,以及采集该基准图像时的图像采集方向,确定采集该基准图像时的位置数据,作为基准位置数据。具体的,可将无人车上设置的全球定位***(Global Positioning System,GPS)芯片确定的经度、纬度以及海拔高度数据,作为采集该基准图像时该无人车的位置坐标。根据该无人车的朝向以及该无人车上图像传感器采集该基准图像时的朝向,确定图像采集方向。其中,该无人车的朝向可根据该无人车车头朝向与正北方向的夹角确定,该图像传感器的朝向可根据该图像传感器俯仰角以及该图像传感器左右偏向角确定。
在本说明书中,为了方便后续描述将基准位置数据记为(w,y,p),其中,w为位置坐标、y为图像采集方向中的俯仰角、p为图像采集方向与正北方向的夹角,可见该基准位置数据为包含位置坐标和图像采集方向的五维向量。
当然,在本说明书中,对该无人车采集的基准图像的数量不做限定,若该无人车采集了多张基准图像,则可确定各基准图像分别对应的基准位置数据,并执行后续步骤。为了方便理解,后续在本说明书中以步骤S100中该无人车采集一张基准图像为例进行描述。
S102:根据所述基准图像和所述基准位置数据,确定所述基准图像对应的特征向量,所述特征向量用于表征所述基准图像中包含的各物体的大小、形状以及相对位置关系中的至少一种。
在本说明书中,当通过步骤S100确定出该基准图像和该基准位置数据后,该无人车便可将该基准图像和该基准位置数据输入预先训练的第一模型的卷积神经网络(Convolutional Neural Networks,CNN)层,通过该第一模型的CNN层中设置的卷积、反卷积及差分运算等过程,得到该基准图像对应的特征向量。该特征向量中包含的信息可用于表征该基准图像中包含的各物体的大小、形状以及相对位置关系等信息。于是,后续步骤可利用该特征向量,确定在该基准图像的包含区域中各位置点可采集到的图像,并对该无人车进行定位。
例如,当该无人车行驶在高速公路上时,该无人车通过步骤S100采集包含高速架、护栏、路标等信息在内的基准图像,以及确定该基准图像对应的基准位置数据,在步骤S102中该无人车将该基准图像以及该基准位置数据,输入第一模型的CNN层,得到输出用于表征高速公路的特征向量,该特征向量包含有高速公路上高速架、护栏、路标等障碍物的形状大小、颜色以及与该无人车的距离和相对位置关系等信息。
在本说明书中,以历史上若干次行驶过程中采集的数据确定训练样本,训练该第一模型,通过大量训练样本的训练,该第一模型的CNN层对采集的图像对应的场景中各物体的特征“认知”更加全面。例如,若干训练样本的图像中包含有电线杆,则训练第一模型,相当于使该第一模型的CNN“学习”掌握了电线杆的形状、大小等信息。于是,当步骤S100中无人车采集的基准图像中包含有电线杆时,通过训练完成的第一模型的CNN层该CNN层输出的特征向量,包含有电线杆的特征,该电线杆的特征可表征电线杆的形状、大小等信息。
由于预先训练的第一模型的CNN层生成的该特征向量,用于表征该基准图像对应的场景中各物体(如障碍物)的特征,所以可基于该特征向量,在该基准图像对应的场景中对该无人车进行定位。当该无人车驶出该特征向量所表征的场景,驶入其他新场景时,该无人车可通过可重复执行S100和S102,重新确定该其他新场景对应的特征向量,并利用重新确定出的特征向量在该其他新场景中进行定位。
S104:当需要对所述无人车进行定位时,所述无人车采集图像作为定位图像。
在本说明书中,无人车通过第一模型的CNN层确定特征向量的目的,就是为了使该无人车在驶入该基准图像对应的场景时,可以对该无人车进行定位。于是当需要对该无人车进行定位时,该无人车可采集周围环境的图像,作为定位图像。通过后续步骤S106,根据步骤S102确定的特征向量以及采集的定位图像,确定采集该定位图像时该无人车的位置,即该无人车当前所在的位置。
另外,在本说明书中可限制采集该定位图像时的图像采集方向,以避免采集到的定位图像的中包含的信息过少,导致后续步骤难以对该无人车进行准确的定位。例如,若该无人车采集的定位图像为信息较少的天空、地面等,由于不同位置的天空、地面之间的差异较少,所以难以确定具体是在什么位置采集的该定位图像,也就难以准确的对该无人车当前所在位置进行定位。
S106:根据所述定位图像以及所述特征向量,确定所述无人车当前所在的位置。
在本说明书中,当采集该定位图像后,该无人车可基于该基准位置数据,遍历该特征向量对应的基准图像中包含的各位置点,并根据预先训练的第一模型的长短期记忆网络(Long Short-Term Memory,LSTM)层,确定各位置点对应的待匹配图像。最后根据与该定位图像相似度最大的待匹配图像对应的位置点,对该无人车进行定位。
具体的,首先该无人车遍历该基准图像中包含的各位置点,并根据该基准位置数据,确定各位置点分别对应的待选位置数据。之后,针对每个待选位置数据,根据该特征向量以及该待选位置数据,输入该预先训练的第一模型的LSTM层,确定该待选位置数据对应的待匹配图像。然后,再针对每个待匹配图像,确定该待匹配图像与该定位图像的相似度。最后,确定与该定位图像的相似度最大的待匹配图像,并确定该相似度最大的待匹配图像对应的待选位置数据,再根据确定出的待选位置数据中的位置坐标,确定该无人车的位置坐标。
图3为本说明书提供的确定各待匹配图像与定位图像相似度的示意图。其中,基准图像中的实心圆形表示各位置点。由于对于同一个位置点来说,该位置点对应的各待选位置数据包含的位置坐标相同,但是图像采集方向不同,因此在同一个位置点可确定若干待匹配图像。如图3中可确定位置点A、位置点B、位置点C以及位置点D,分别对应的待匹配图像A1~An、B1~Bn、C1~Cn以及D1~Dn。该无人车可针对生成的每个待匹配图像,确定该待匹配图像与采集的定位图像的相似度。以便后续可确定与定位图像相似度最大的待匹配图像,并将确定出的该待匹配图像所在的位置点作为该无人车所在位置。例如,假设图3中与定位图像相似度最大的待匹配图像为待匹配图像B3,则可确定待匹配图像B3对应的位置点B为该无人车当前所在的位置。
另外,该无人车可根据现有的计算图像相似度的算法,确定各待匹配图像与该定位图像的相似度。例如,可通过直方图匹配方法、通过尺度不变特征变换(Scale-invariantfeature transform,SIFT)匹配算法等,确定各待匹配图像与该定位图像的相似度。或者,无人车也可通过确定各待匹配图像分别与该定位图像的证据下界(Evidence LowerBound,ELBO),并确定与该定位图像ELBO最小的待匹配图像,为与该定位图像相似度最大的待匹配图像。再根据与该定位图像的ELBO最小的待匹配图像对应的待选位置数据中的位置坐标,确定该无人车的位置坐标。本说明书对确定图像相似度的具体方法不做限制,可根据需要设置。当然,由于上述的计算图像相似度的算法以及确定ELBO的方法,已经是较为成熟的方法,因此对于具体的计算过程本说明书不再赘述。
进一步地,在本说明书中步骤S106的详细过程可包括以下步骤:
A0:遍历所述基准图像中包含的各位置点。
在本说明书中,由于步骤S102确定出的特征向量,可用于表征该基准图像对应的场景中的各物体的,因此当需要确定该无人车在该基准图像对应的场景中的位置时,该无人车可根据该特征向量,通过该第一模型的LSTM层,“生成”基准图像对应的场景中不同位置不同方向能够获取的图像,并从“生成”出的各图像(即,待匹配图像)中,确定与该定位图像的相似度最大的图像,就可以根据“生成”相似度最大的图像时的位置,确定该无人车的位置。于是,该无人车可先遍历该基准图像中包含的各位置点。
具体的,可以将基准位置数据中的位置坐标,作为参照点,以预设距离遍历得到各位置点,得到的各位置点即为该基准图像中包含的各位置点。例如,假设该参照点的位置坐标为(a,b,c),预设距离为1,则以(a,b,c)为参照点可遍历得到若干位置点的位置坐标,如(a+1,b,c)、(a,b+1,c)、(a+2,b,c)、(a+2,b,c+1)、(a+2,b+1,c)等等,如图4所示。
图4为本说明书提供的遍历确定各位置点的示意图,其中可见参照点为无人车采集基准图像时的基准位置数据对应的点,以预设的距离步长可遍历得到若干位置点的位置坐标。图4中的扇形表示该基准图像的范围,也就是图像传感器采集该基准图像时的可视范围。
另外,由于根据基准图像以及基准位置数据确定出的特征向量,只能表征该基准图像包含的各物体的大小、形状以及相对位置关系等等,因此遍历确定各位置点时,该无人车可遍历确定位于该基准图像的范围内的各位置点。若确定出的位置点不在该基准图像的范围内,则不能根据该特征向量以及该位置点对应的待选位置数据,确定该位置点对应的待匹配图像。于是,在本说明书中,该无人车可在预设的范围内遍历确定各位置点。
继续沿用上例,可根据无人车上图像传感器的可视范围确定,遍历各位置点时的预设的范围,假设无人车上图像传感器的可视范围为一个长宽高分别为100、200、10的立体空间,确定的各位置点的位置坐标的范围为(a,b,c)到(a+100,b+200,c+10)之间。
进一步地,在遍历该基准图像中包含的各位置点时,无人车还可以将该基准图像划分为若干网格,以各网格的中心点分别作为位置点,得到该基准图像中包含的各位置点,如图5所示。其中,在划分该基准图像时,网格的密度越大,则确定出的位置点的数量越多,可提高后续无人车定位的精度。由于该基准图像的大小是固定的,所以该网格的密度应该与该网格的大小成反比,对网格大小本说明书不做限定,可根据需要设置。
通过划分网格确定各位置点后,无人车还可将该基准位置数据中的位置坐标,作为参照点,确定各位置点相对该基准位置数据中的位置坐标的距离和角度。再针对每个位置点,根据该参照点的位置坐标、该位置点相对该参照点位置坐标的距离、该位置点相对该参照点位置坐标的角度,确定该位置点的位置坐标。
A2:根据所述基准位置数据,确定所述各位置点分别对应的待选位置数据。
在本说明书中,预先训练的该第一模型的LSTM层的输入为待选位置数据以及特征向量,输出为待匹配图像。于是,在通过步骤A0遍历确定该基准图像包含的各位置点后,无人车可确定各位置点对应的待选位置数据,以确定各位置点分别对应的各待匹配图像。并通过后续步骤从各待匹配图像中,确定与定位图像相似度最大的待匹配图像,从而确定该无人车的位置。
具体的,该无人车可分别基于该基准位置数据中的位置坐标以及图像采集方向,确定步骤A0遍历的各位置点分别对应的各待选位置数据。其中,该待选位置数据可表示为(w,y,p),其中,w为待选位置数据的位置坐标、y为待选位置数据的图像采集方向中的俯仰角、p为待选位置数据的图像采集方向与正北方向的夹角。
在本说明书中,该无人车可先将该基准位置数据中的位置坐标作为参照点,确定步骤A0遍历的各位置点分别对应的位置坐标,作为各位置点待选的位置坐标。详细过程已经在上述步骤A0中进行过描述,因此不再赘述。
再针对每个位置点,根据该位置点对应的待选位置数据的位置坐标,以一定的角度步长遍历各图像采集方向,确定各待选位置数据。例如,假设某位置点对应的待选位置数据的位置坐标为w=(a,b,c+1),预设的图像采集方向(y,p)为(0°,0°),以1°为单位角度步长,则遍历各图像采集方向得到待选的角度为(0°,0°+1°)、(0°,1°+1°)、(0°,2°+1°),以此类推。则可确定该位置点对应的各待选位置数据分别为(w=(a,b,c+1),y=0°,p=0°+1°)、(w=(a,b,c+1),y=0°,p=1°+1°)、(w=(a,b,c+1),y=0°,p=2°+1°),以此类推。
可见在任一位置点,无人车可确定多个待选位置数据,对应于同一个位置点的各待选位置数据包含的位置坐标相同,但是图像采集方向不完全相同。
对于所遍历的图像采集方向,可以不限制图像采集方向的角度范围,以一定预设角度步长遍历各图像采集方向。当然也可根据该无人车上图像传感器的采集方向的范围,限制可遍历的图像采集方向。例如,无人车上图像传感器的图像采集方向为-60°~60°,则可限制遍历的各图像采集方向的角度为-60°~60°。
A4:针对每个待选位置数据,根据所述特征向量以及该待选位置数据,确定该待选位置数据对应的待匹配图像。
针对每个待选位置数据,将该待选位置数据和特征向量输入到预先训练的第一模型的LSTM层中,得到该LSTM层输出的该待选位置数据对应的待匹配图像。其中,该LSTM输出的待匹配图像,相当于“生成”了该无人车在位于该待选位置数据包含的位置坐标,且图像传感器指向该待选位置数据包含的图像采集方向时,该无人车可采集到的图像。例如,假设输入的待选位置数据为(w0,y0,p0),则该LSTM输出的待匹配图像相当于该无人车在位置坐标为w0的点,以俯仰角为y0、左右偏向角为p0的图像采集方向,采集图像时得到的图像。
A6:针对每个待匹配图像,确定该待匹配图像与所述定位图像的相似度。
在本说明书中,该无人车可分别确定该定位图像与确定出的各待匹配图像的ELBO。并根据确定出的ELBO,确定该定位图像与各待匹配图像的相似度。
本领域技术人员应该可以理解,上述通过比较ELBO确定图像相似度的方法只是示例性的,并不构成对本说明书的限制,任何用于比较图像相似度的方法(例如,基于特征点的图像相似度计算、矩阵分解)均可应用于本说明书提供的方法中。
为了方便后续描述,本说明书以该无人车确定定位图像与各待匹配图像的ELBO为例进行说明。
A8:根据确定出的相似度最大的待匹配图像对应的待选位置数据,确定所述无人车的当前位置。
在本说明书中,在确定出各待匹配图像与定位图像的ELBO之后,该无人车便可从各待匹配图像中,确定与定位图像ELBO最小的待匹配图像,作为与定位图像相似度最大的待匹配图像。再确定与定位图像ELBO最小的待匹配图像对应的待选位置数据包含的位置坐标,作为该无人车的当前位置。即,将与定位图像ELBO最小的待选位置数据(w,y,p)中的w,作为该无人车的位置坐标。
基于图1所示的无人车定位过程是基于图像采集的方式进行定位的,无需提前制作地图,在没有预先制作包含点云信息的地图的区域,也可进行无人车定位,应用范围更广。并且由于无需提前采集点云信息,无需制作数据量较大的包含点云信息的地图,因此也节省了无人车定位的成本。
另外,该第一模型的训练过程可如图6所示。在训练该第一模型时,同时调整该CNN层与该LSTM层的参数。该训练过程具体可包括以下步骤:
S500:确定历史上若干次行驶过程中,采集的第一训练图像及所述第一训练图像对应的第一训练位置数据。
在本说明书中,可由服务器执行该第一模型的训练过程。
首先,该服务器可获取历史上车辆在若干次行驶过程中,采集的各第一训练图像及各第一训练图像分别对应的第一训练位置数据。其中,该车辆可以是无人车也可以是有人驾驶的车辆,本说明书不做限定,只要该车辆可采集图像,并确定采集图像时的位置数据即可。
具体的,服务器可将该车辆将采集的该车辆周围环境的图像,作为第一训练图像。针对每个第一训练图像,确定采集该第一训练图像时的位置数据,并将确定出的位置数据,作为该第一训练图像对应的第一训练位置数据。该第一训练图像与该第一训练位置数据的关系,与步骤S100中所述的基准图像和基准位置数据的关系类似。同样的该第一训练位置数据可包括:位置坐标以及图像采集方向。
在本说明书中,第一训练图像用Xi表示,第一训练位置数据用Vi表示。其中,i在Xi中表示不同的第一训练图像,在Vi中表示采集第一训练图像时的第一训练位置数据,在Vi包含的位置坐标以及图像采集方向采集的图像为Xi。第一训练位置数据Vi具体表示为(w,y,p),w是车辆的位置坐标,y为图像采集方向中的俯仰角,p为图像采集方向与正北方向的夹角。
S502:针对每个第一训练图像,遍历该第一训练图像包含的各位置点。
对于每个第一训练图像,以采集该第一训练图像的第一训练位置数据为参照点,以一定距离步长遍历该第一训练图像对应的训练场景中的位置点的位置坐标,并以一定的角度步长遍历所有位置点的图像采集方向。具体过程可参考上述步骤A0中的描述,本说明书对此不再赘述。
S504:针对每个位置点,确定在该位置点采集的第二训练图像,以及采集所述该第二训练图像时的第二训练位置数据。
针对遍历得到的每个位置点,将在该位置点采集图像作为第二训练图像。
具体的,由于服务器获取的第二训练图像,也是历史上车辆在若干次行驶过程中采集的,因此可能出现在步骤S502确定的位置点,车辆并没有采集第二训练图像的情况。
于是,服务器可针对每个位置点,从历史上车辆在若干次行驶过程中采集的各图像中,确定在该位置点采集的图像,作为该位置点对应的第二训练图像。
并且,服务器还可针对确定出的每个第二训练图像,根据该采集该第二训练图像时车辆的位置坐标,以及采集该第二训练图像时的图像采集方向,确定该第二训练图像对应的第二训练位置数据。
S506:针对每个位置点,根据包含该位置点的第一训练图像、包含该位置点的第一训练图像对应的第一训练位置数据、该位置点对应的第二训练图像、该位置点对应的第二训练位置数据,确定训练样本。
在本说明书中,将在步骤S504中确定出的第二训练图像用Zj表示,将确定出的第二训练位置数据用Oj表示。其中,j在Zj中表示不同的第二训练图像,在Oj中表示采集第二训练图像时的第二训练位置数据,在Oj中的位置坐标以及图像采集方向采集的图像为Zj
针对所遍历的每个位置点,将包含该位置点的第一训练图像Xi及其对应的第一训练位置数据Vi,以及在该位置点采集的第二训练图像Zj及其对应的第二训练位置数据Oj,作为一组训练样本,可记为D={(Xi,Vi),(Zj,Oj)}。
S508:针对确定出的每个训练样本,将该训练样本包含的第一训练图像以及第一训练位置数据,输入待训练的第一模型的CNN层,得到所述第一训练图像对应的特征向量。
将训练样本中的第一训练图像Xi及其对应的第一训练位置数据Vi,输入待训练的第一模型的CNN层,得到该训练样本对应训练场景的特征向量,记作r。
S510:将得到的特征向量以及该训练样本包含的第二训练位置数据,输入待训练的第一模型的LSTM层,得到待匹配图像。
将特征向量r及训练样本中包含的第二训练位置数据Oj,输入待训练的第一模型的LSTM层,得到对应的待匹配图像,其中,待匹配图像用St表示。
S512:以最大化该训练样本包含的第二训练图像与得到的待匹配图像的相似度为优化目标,调整待训练的第一模型中的参数,直至达到第一训练结束条件为止。
在本说明书中,该服务器可将第二训练图像Zj作为监督学习的“标签”,通过比较St与Zj的差异,调整待训练的第一模型的CNN层以及待训练的第一模型的LSTM层中的模型参数。并当达到第一训练结束条件时,确定第一模型训练结束。
其中,该第一训练结束条件具体可根据需要设置,例如,LSTM层输出的待匹配图像与第二训练图像的相似度达到预设的阈值,或者该第一模型的训练迭代次数达到预设的次数,本说明书对于第一训练结束条件不做限制。例如,假设,第一训练结束条件为待匹配图像与第二训练图像的相似度达到90%,或者训练迭代次数达到70万次。
上述训练过程中的第一训练图像相当于定位过程中的基准图像,第一训练图像对应的第一训练位置数据相当于定位过程中的基准图像对应的基准位置数据,第二训练图像相当于定位过程中的定位图像,第二训练图像对应的第二训练位置数据相当于定位过程中无人车的当前位置数据。
由于第一模型的CNN层输出的特征向量,只是用于表征第一训练图像对应场景中各物体大小、形状等,该特征向量的具体内容难以确定,所以针对待训练的第一模型的CNN层,难以将特征向量作为优化目标进行建模。而由于第一模型的LSTM层输出的是图像,可以确定图像具体包含的内容,因此通过训练样本对该第一模型训练时,可以根据模型输出的图像和训练样本中包含的作为“标签”的图像之间的差异确定损失,来调整该第一模型中的参数。于是,在训练该第一模型时,需要将CNN层和LSTM层一同进行训练。另外,在步骤S106中,本说明书还提供另一种确定无人车当前所在位置的方法。具体的,当无人车需要定位时,可将特征向量和采集到的定位图像输入预先训练的第二模型,得到该第二模型输出的定位位置数据。根据得到的该定位位置数据,确定该无人车的当前位置。
具体可包括以下步骤:
B0:将所述定位图像以及所述特征向量,输入预先训练的第二模型,得到所述定位图像对应的定位位置数据。
在本说明书中,可通过训练过程,训练出输入定位图像以及特征向量,输出为定位位置数据的第二模型。无人车可将在步骤S104采集的定位图像,以及在步骤S102确定的特征向量,输入该第二模型,得到定位位置数据。
B2:根据得到的所述定位位置数据,确定所述无人车的当前所在的位置。
在本说明书中,该无人车通过第二模型确定的该定位图像对应的定位位置数据,为该无人车采集该定位图像时的位置数据。因此,可根据该定位位置数据,确定该无人车当前所在的位置。
具体的,该无人车可确定该定位位置数据中包含的位置坐标,并将确定出的位置坐标作为该无人车的当前位置。
进一步地,在本说明书中,该第二模型的训练过程可如图7所示。具体可包括以下步骤:
S600:确定预设的训练第一模型的训练样本集,所述训练第一模型的训练样本集中的每个训练样本,由第一训练图像、第一训练位置数据以及在所述第一训练图像包含的位置点采集的第二训练图像、第二训练位置数据组成。
在本说明书中,该第二模型的训练过程,也可由服务器执行
S602:根据所述训练第一模型的训练样本集,以各训练样本包含的所述第一训练图像、第一训练位置数据为输入,输出与所述第二训练图像相似度最大的待匹配图像为目标,训练第一模型,所述第一模型包含CNN层和LSTM层,所述CNN层用于生成输入的图像对应的特征向量。
在本说明书中,该第二模型的训练过程,也可由服务器执行。其中,步骤S600-步骤S602与图6所示的步骤S500-步骤S512所包含的训练内容相同,为第一模型的训练过程,具体内容可参考步骤S500-步骤S512的描述,本说明书对此不再赘述。
S604:确定预设的训练第二模型的训练样本集,所述训练第二模型训练样本集中的每个训练样本,由第三训练图像、第三训练位置数据以及在所述第三训练图像包含的位置点采集的第四训练图像,第四训练位置数据组成。
第一模型的训练样本集与第二模型的训练样本集可以是同一个训练样本集,也可以是不同的训练样本集。其中,各训练样本的确定过程与步骤S500-步骤S506的过程相同。
S606:针对确定出的训练第二模型的每个训练样本,将该训练样本包含的第三训练图像、第三训练位置数据,输入所述训练完成的第一模型的CNN层,得到该第三训练图像对应的特征向量。
在本说明书中,由于通过步骤S600-步骤S602服务器得到训练完成的第一模型,因此服务器可进一步利用训练完成的第一模型,针对步骤S604中确定出的训练样本集的每个训练样本,将该训练样本包含的第三训练图像、第三训练位置数据该第一模型的CNN层,得到该第一模型的CNN层输出的第三训练图像对应的特征向量。
于是,服务器可得到各第三训练图像分别对应的各特征向量,并继续后续训练第二模型的过程。
S608:将得到的特征向量以及所述该训练样本包含的第四训练图像,输入待训练的第二模型,得到该训练样本包含的第四训练图像对应的待匹配位置数据。
在本说明书中,该第二模型的输入为特征向量以及第四训练图像,输出为第四训练图像对应的待匹配位置数据,因此针对每个训练样本,该服务器可确定该训练样本包含的第四训练图像对应的待匹配位置数据。
由于在确定各训练样本时,服务器已经确定了采集该第四训练样本时的位置数据,即第三训练位置数据。于是,后续可针对每个训练样本,根据该训练样本包含的第三位置数据,以及步骤S608确定的该训练样本对应的待匹配位置数据,调整该第二模型中的参数。
S610:以最小化该训练样本包含的第三训练位置数据与得到的待匹配位置数据的差值为优化目标,调整所述待训练的第二模型中的参数,直至达到第二训练结束条件为止。
在本说明书中,该服务器可以针对训练样本,根据该训练样本包含的第三位置数据与该训练样本对应的待匹配位置数据之差,确定损失。以最小化该第三训练位置数据与该训练样本对应的待匹配位置数据的差值为优化目标,调整该第二模型中的参数,直至达到预设的第二训练结束条件为止,确定该第二模型训练完成。
其中,该第二训练结束条件具体可根据需要设置,例如,第二模型输出的待匹配位置数据与第三训练位置数据的差值达到预设的阈值,或者该第二模型的训练迭代次数达到预设的次数,本说明书对于第二训练结束条件不做限制。
另外,为了减小定位误差,在步骤S104中无人车可采集多张定位图像,并通过步骤S106根据每个定位图像,确定出多个位置坐标。最后,根据确定出的多个位置坐标,确定无人车当前所在位置。例如,将多个位置坐标的平均值,作为无人车当前所在位置。其中,在步骤S104中无人车采集的定位图像的数量可根据需要设置,本说明书对此不作限定。
具体的,当无人车在步骤S104中采集多张定位图像时,在步骤A6中该无人车可针对每个定位图像,确定与该定位图像相似度最大的待匹配图像,之后在步骤A8,确定步骤A6确定出的各待匹配图像,分别对应的待选位置数据,并根据各待选位置数据的位置坐标平均值,确定该无人车的位置坐标。或者,该无人车也可在步骤A6中,各定位图像分别与各待匹配图像的相似度,并确定相似度最大的定位图像与待匹配图像,在步骤A8中,根据在步骤A6中确定出的待匹配图像对应的待选位置数据的位置坐标,确定该无人车的位置坐标。
而在另一种无人车定位的过程中,即步骤B0-B2的过程,该无人车可在步骤B0中可针对每个定位图像,将该定位图像输入该第二模型,得到该定位图像对应的定位位置数据,之后在步骤B2中根据得到的各定位位置数据,确定无人车当前所在的位置。例如,无人车可确定各定位位置数据中的位置坐标,并确定各位置坐标的平均值,作为该无人车的位置坐标。本领域技术人员应该可以理解,上述列举的减小定位误差的方法只是示例性的,任何用于减小定位误差的方法均可应用于本说明书提供的方法中,这并不构成对本说明书的限制。
进一步地,在本说明书步骤S100中,该基准图像可以是预先采集,当需要对该无人车定位时,采用预先采集的基准图像确定特征向量,并继续执行后续步骤对无人车进行定位。或者,该无人车也可以在行驶过程中按照周期采集基准图像,当需要对该无人车定位时,根据最近一次采集的基准图像,确定特征向量,并继续执行后续步骤对无人车进行定位。
上述实施例是仅以一张基准图像为例进行说明的,当然在步骤S100中也可采集多张基准图像。具体需要采集的基准图像的数量,可根据该第一模型的CNN层的设计确定,例如,设计该第一模型的CNN层时,设计输入的基准图像的数量为8张,则在步骤S100中该无人车可采集8张基准图像。同理,在训练过程中输入该待训练的第一模型的CNN层的第一训练图像的数量也是根据该第一模型的CNN层的设计确定的。训练出来的模型在实际使用中应输入的基准图像的数量与训练过程中输入的第一训练图像的数量相同。
具体的,当该无人车采集多张基准图像时,在步骤S100中该无人车在同一个位置,向不同的采集方向采集各基准图像。其中,该无人车选择的各采集方向,可以是预先确定的,或者随机选择的。例如,假设该无人车车头朝向为(y0,p0),预设采集基准图像的图像采集角度为(y0+30°,p0)、(y0-30°,p0)以及(y0,p0),该无人车的当前所在位置的位置坐标为w0,则该无人车可采集3张基准图像,各基准图像分别对应的基准位置数据为(w0,y0,p0)、(w0,y0+30°,p0)以及(w0,y0-30°,p0)。
针对每个基准图像,确定该基准图像对应的基准位置数据。具体的,若无人车上设置一个图像传感器,可根据该图像传感器上设置的GPS芯片确定该图像传感器的位置坐标,并将该图像传感器的位置坐标为各基准图像对应的基准位置数据中的位置坐标。而对于各基准图像对应的基准位置数据中的图像采集方向,针对每个基准图像,该无人车可将该图像传感器采集该基准图像时图像采集方向,作为该基准图像对应的基准位置数据中的图像采集方向。
另外,若无人车上设置的图像传感器的数量为一个,则当该无人车在采集多张基准图像时,为了避免采集的各基准图像的周围环境出现变化,该无人车可在指定时间内采集各基准图像。在该指定时间内采集基准图像时,视为该无人车周围环境没有变化。当然,由于在本说明书中视在该指定时间内无人车的周围环境没有出现变化,因此该指定时间通常为一段较短的时间,具体该指定时间可根据需要设置,如1s,2s等等,本说明书不做限定。
进一步地,在本说明书中该无人车在采集多张基准图像时,也可以通过无人车上设置的多个图像传感器采集多张基准图像。则在采集多张基准图像时,也可由多个图像传感器在指定时间内分别采集各基准图像。在确定各基准图像对应的基准位置数据时,可先根据各图像传感器上分别设置的GPS芯片,确定各图像传感器的位置坐标。再根据各图像传感器的位置坐标,确定各位置坐标的平均值,并将确定出的平均值作为该无人车的位置坐标。在确定各基准图像对应的基准位置数据时,可以将计算出的该无人车的位置坐标作为各基准图像对应的基准位置数据中的位置坐标。针对每个基准图像,以采集该基准图像的图像传感器在采集该基准图像时的图像采集方向,作为该基准图像对应的基准位置数据中的图像采集方向。
在步骤S102中,当该无人车采集多张基准图像时,可将各基准图像输入第一模型的CNN层后再输入各基准位置数据,或将各基准图像和各基准位置数据依次输入第一模型的CNN层。
例如,假设无人车采集了3张基准图像,分别为基准图像A、基准图像B以及基准图像C,且确定各基准图像分别对应的基准位置数据分别为(w1,y1,p1)、(w2,y2,p2)、(w3,y3,p3)。则该无人车在步骤S102中可先将基准图像A、基准图像B、基准图像C顺序输入到第一模型的CNN层中,再将各基准图像分别对应的基准位置数据(w1,y1,p1)、(w2,y2,p2)、(w3,y3,p3)顺序输入到第一模型的CNN层中。以通过该CNN层确定各基准图像对应的一个特征向量。该特征向量表征了基准图像A、基准图像B以及基准图像C中分别包含的各物体的大小、形状以及相对位置关系等。由于该无人车采集基准图像时的周围环境未发生改变,所以各基准图像对应的特征向量是同一个特征向量。
或者,该无人车也可以将基准图像A及其对应的基准位置数据(w1,y1,p1)输入到第一模型的CNN层中,再将基准图像B及其对应的基准位置数据(w2,y2,p2)输入到第一模型的CNN层中,以此类推。其中,基准图像以及基准位置数据的输入方式可在设计该第一模型时确定,本说明书对于具体的基准图像以及基准位置数据的输入方式不做限定,只要根据设计第一模型时确定的输入方式输入各基准图像与各基准位置数据时,该第一模型可以确定输入的各基准图像与各基准位置数据的对应关系即可。
需要说明的是,在本说明书中该第一模型的CNN层输出的特征向量的数量为一个。该特征向量表征了各基准图像中分别包含的各物体的大小、形状以及相对位置关系中的至少一种。
其中,由计算得到的特征向量,与输入的基准图像的数量、采集的先后顺序无关。
在步骤A0中,当该无人车采集多张基准图像时,针对采集到的每个基准图像,都需要遍历该基准图像中包含的各位置点,也就是说,当基准图像为多张时,可确定各基准图像分别对应的各位置点,不同基准图像对应的位置点不完全相同。于是,在步骤A2中,针对每个基准图像,可根据该基准图像对应的基准位置数据,确定该基准图像中包含的各位置点分别对应的待选位置数据。
更进一步地,在步骤S504中,针对遍历得到的每个位置点,车辆在该位置点可以向多个不同方向采集图像,在该位置点不同方向采集的每个图像,都是第二训练图像;对于在同一个位置点采集到的第二训练图像,采集该第二训练图像时的图像采集方向不同,确定出的第二训练位置数据也不同。例如,在某个位置点采集的第二训练图像Zj和Zj+1,分别对应第二训练位置数据Oj和Oj+1,其中,Oj和Oj+1中包含的位置坐标w相同,但是图像采集方向的y和p不完全相同。
基于图1所示的一种无人车定位方法,本说明书实施例还对应提供一种无人车定位装置的结构示意图,如图8所示。
图8为本说明书实施例提供的一种无人车定位装置的结构示意图,包括:
第一采集模块700,无人车采集周围环境的图像作为基准图像,并确定采集所述基准图像时的位置数据作为基准位置数据;
确定模块702,根据所述基准图像和所述基准位置数据,确定所述基准图像对应的特征向量,所述特征向量用于表征所述基准图像中包含的各物体的大小、形状以及相对位置关系中的至少一种;
第二采集模块704,当需要对所述无人车进行定位时,所述无人车采集图像作为定位图像;
定位模块706,根据所述定位图像以及所述特征向量,确定所述无人车当前所在的位置。
可选地,第一采集模块700,根据采集所述基准图像时所述无人车的位置坐标以及所述基准图像的图像采集方向,确定所述基准图像对应的基准位置数据。
可选地,定位模块706,遍历所述基准图像中包含的各位置点;根据所述基准位置数据,确定所述各位置点分别对应的待选位置数据,针对每个待选位置数据,根据所述特征向量以及该待选位置数据,确定该待选位置数据对应的待匹配图像,针对每个待匹配图像,确定该待匹配图像与所述定位图像的相似度;根据确定出的相似度最大的待匹配图像对应的待选位置数据,确定所述无人车的当前位置。
可选地,定位模块706,根据所述基准位置数据,遍历所述基准图像包含的各位置点,确定各位置点的位置坐标,针对每个位置点,根据该位置点的位置坐标,遍历各采集方向,确定各待选位置数据。
可选地,确定模块702与定位模块706,训练所述第一模型,具体包括:确定历史上若干次行驶过程中,采集的第一训练图像及所述第一训练图像对应的第一训练位置数据,针对每个第一训练图像,遍历该第一训练图像包含的各位置点;针对每个位置点,确定在该位置点采集的第二训练图像,以及采集所述该第二训练图像时的第二训练位置数据,针对每个位置点,根据包含该位置点的第一训练图像、包含该位置点的第一训练图像对应的第一训练位置数据、该位置点对应的第二训练图像、该位置点对应的第二训练位置数据,确定训练样本,针对确定出的每个训练样本,将该训练样本包含的第一训练图像以及第一训练位置数据,输入待训练的第一模型的CNN层,得到所述第一训练图像对应的特征向量,将得到的特征向量以及该训练样本包含的第二训练位置数据,输入待训练的第一模型的LSTM层,得到待匹配图像,以最大化该训练样本包含的第二训练图像与得到的待匹配图像的相似度为优化目标,调整待训练的第一模型中的参数,直至达到第一训练结束条件为止。
可选地,定位模块706,将所述定位图像以及所述特征向量,输入预先训练的第二模型,得到所述定位图像对应的定位位置数据,根据得到的所述定位位置数据,确定所述无人车的当前位置。
可选地,确定模块702与定位模块706,训练第二模型,具体包括:确定预设的训练第一模型的训练样本集,所述训练第一模型的训练样本集中的每个训练样本,由第一训练图像、第一训练位置数据以及在所述第一训练图像包含的位置点采集的第二训练图像、第二训练位置数据组成,根据所述训练第一模型的训练样本集,以各训练样本包含的所述第一训练图像、第一训练位置数据为输入,输出与所述第二训练图像相似度最大的待匹配图像为目标,训练第一模型,所述第一模型包含CNN层和LSTM层,所述CNN层用于生成输入的图像对应的特征向量,确定预设的训练第二模型的训练样本集,所述训练第二模型训练样本集中的每个训练样本,由第三训练图像、第三训练位置数据以及在所述第三训练图像包含的位置点采集的第四训练图像,第四训练位置数据组成,针对确定出的训练第二模型的每个训练样本,将该训练样本包含的第三训练图像、第三训练位置数据,输入所述训练完成的第一模型的CNN层,得到该第三训练图像对应的特征向量,将得到的特征向量以及所述该训练样本包含的第四训练图像,输入待训练的第二模型,得到该训练样本包含的第四训练图像对应的待匹配位置数据,以最小化该训练样本包含的第三训练位置数据与得到的待匹配位置数据的差值为优化目标,调整所述待训练的第二模型中的参数,直至达到第二训练结束条件为止。
可选地,第一采集模块700,无人车采集周围环境的图像作为基准图像,并确定采集所述基准图像时的位置数据作为基准位置数据,具体包括:采集周边环境指定数量的图像,分别作为基准图像,针对每个基准图像,根据采集该基准图像时所述无人车的位置坐标以及该基准图像的图像采集方向,确定该基准图像对应的基准位置数据;确定模块702,根据所述基准图像和所述基准位置数据,确定所述基准图像对应的特征向量,具体包括:根据采集到的各基准图像和确定出的各基准位置数据,确定特征向量,作为各基准图像对应的特征向量。
本说明书实施例还提供了一种计算机可读存储介质,该存储介质存储有计算机程序,计算机程序可用于执行上述图1提供的无人车定位方法。
本说明书实施例还提出了图9所示的电子设备的示意结构图。如图9,在硬件层面,该电子设备包括处理器、内部总线、网络接口、内存以及非易失性存储器,当然还可能包括其他业务所需要的硬件。处理器从非易失性存储器中读取对应的计算机程序到内存中然后运行,以实现上述图1所述的无人车定位方法。当然,除了软件实现方式之外,本说明书并不排除其他实现方式,比如逻辑器件抑或软硬件结合的方式等等,也就是说以下处理流程的执行主体并不限定于各个逻辑单元,也可以是硬件或逻辑器件。
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device,PLD)(例如现场可编程门阵列(Field Programmable GateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字***“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC 625D、Atmel AT91SAM、Microchip PIC18F26K20以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的***、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本申请时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本发明的实施例可提供为方法、***、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(***)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本申请的实施例可提供为方法、***或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本申请,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于***实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本申请的实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。

Claims (12)

1.一种无人车定位方法,其特征在于,包括:
无人车采集周围环境的图像作为基准图像,并确定采集所述基准图像时的位置数据作为基准位置数据;
根据所述基准图像和所述基准位置数据,确定所述基准图像对应的特征向量,所述特征向量用于表征所述基准图像中包含的各物体的大小、形状以及相对位置关系中的至少一种;
当需要对所述无人车进行定位时,所述无人车采集图像作为定位图像;
根据所述定位图像以及所述特征向量,确定所述无人车当前所在的位置。
2.如权利要求1所述的方法,其特征在于,无人车采集周围环境的图像作为基准图像,并确定采集所述基准图像时的位置数据作为基准位置数据,具体包括:
根据采集所述基准图像时所述无人车的位置坐标以及所述基准图像的图像采集方向,确定所述基准图像对应的基准位置数据。
3.如权利要求2所述的方法,其特征在于,根据所述定位图像以及所述特征向量,确定所述无人车当前所在的位置,具体包括:
遍历所述基准图像中包含的各位置点;
根据所述基准位置数据,确定所述各位置点分别对应的待选位置数据;
针对每个待选位置数据,根据所述特征向量以及该待选位置数据,确定该待选位置数据对应的待匹配图像;
针对每个待匹配图像,确定该待匹配图像与所述定位图像的相似度;
根据确定出的相似度最大的待匹配图像对应的待选位置数据,确定所述无人车的当前位置。
4.如权利要求3所述的方法,其特征在于,根据所述基准位置数据,确定所述各位置点分别对应的待选位置数据,具体包括:
根据所述基准位置数据,遍历所述基准图像包含的各位置点,确定各位置点的位置坐标;
针对每个位置点,根据该位置点的位置坐标,遍历各采集方向,确定各待选位置数据。
5.如权利要求3所述的方法,其特征在于,根据所述基准图像和所述基准位置数据,确定所述基准图像对应的特征向量,具体包括:
将所述基准图像和所述基准位置数据输入预先训练的第一模型中的卷积神经网络CNN层,得到所述基准图像对应的特征向量;
根据所述特征向量,针对每个待选位置数据,确定所述待选位置数据对应的待匹配图像,具体包括:
将所述待选位置数据以及所述特征向量输入预先训练的第一模型中的长短期记忆网络LSTM层,得到所述待选位置数据对应的待匹配图像。
6.如权利要求5所述的方法,其特征在于,训练所述第一模型,具体包括:
确定历史上若干次行驶过程中,采集的第一训练图像及所述第一训练图像对应的第一训练位置数据;
针对每个第一训练图像,遍历该第一训练图像包含的各位置点;
针对每个位置点,确定在该位置点采集的第二训练图像,以及采集所述该第二训练图像时的第二训练位置数据;
针对每个位置点,根据包含该位置点的第一训练图像、包含该位置点的第一训练图像对应的第一训练位置数据、该位置点对应的第二训练图像、该位置点对应的第二训练位置数据,确定训练样本;
针对确定出的每个训练样本,将该训练样本包含的第一训练图像以及第一训练位置数据,输入待训练的第一模型的CNN层,得到所述第一训练图像对应的特征向量;
将得到的特征向量以及该训练样本包含的第二训练位置数据,输入待训练的第一模型的LSTM层,得到待匹配图像;
以最大化该训练样本包含的第二训练图像与得到的待匹配图像的相似度为优化目标,调整待训练的第一模型中的参数,直至达到第一训练结束条件为止。
7.如权利要求1所述的方法,其特征在于,根据所述基准图像和所述基准位置数据,确定所述基准图像对应的特征向量,具体包括:
将所述基准图像和所述基准位置数据输入预先训练的第一模型中的卷积神经网络CNN层,得到所述基准图像对应的特征向量;
根据所述定位图像以及所述特征向量,确定所述无人车当前所在的位置,具体包括:
将所述定位图像以及所述特征向量,输入预先训练的第二模型,得到所述定位图像对应的定位位置数据;
根据得到的所述定位位置数据,确定所述无人车的当前位置。
8.如权利要求7所述的方法,其特征在于,训练第二模型,具体包括:
确定预设的训练第一模型的训练样本集,所述训练第一模型的训练样本集中的每个训练样本,由第一训练图像、第一训练位置数据以及在所述第一训练图像包含的位置点采集的第二训练图像、第二训练位置数据组成;
根据所述训练第一模型的训练样本集,以各训练样本包含的所述第一训练图像、第一训练位置数据为输入,输出与所述第二训练图像相似度最大的待匹配图像为目标,训练第一模型,所述第一模型包含CNN层和LSTM层,所述CNN层用于生成输入的图像对应的特征向量;
确定预设的训练第二模型的训练样本集,所述训练第二模型训练样本集中的每个训练样本,由第三训练图像、第三训练位置数据以及在所述第三训练图像包含的位置点采集的第四训练图像,第四训练位置数据组成;
针对确定出的训练第二模型的每个训练样本,将该训练样本包含的第三训练图像、第三训练位置数据,输入所述训练完成的第一模型的CNN层,得到该第三训练图像对应的特征向量;
将得到的特征向量以及所述该训练样本包含的第四训练图像,输入待训练的第二模型,得到该训练样本包含的第四训练图像对应的待匹配位置数据;
以最小化该训练样本包含的第三训练位置数据与得到的待匹配位置数据的差值为优化目标,调整所述待训练的第二模型中的参数,直至达到第二训练结束条件为止。
9.如权利要求1所述的方法,其特征在于,无人车采集周围环境的图像作为基准图像,并确定采集所述基准图像时的位置数据作为基准位置数据,具体包括:
采集周边环境指定数量的图像,分别作为基准图像;
针对每个基准图像,根据采集该基准图像时所述无人车的位置坐标以及该基准图像的图像采集方向,确定该基准图像对应的基准位置数据;
根据所述基准图像和所述基准位置数据,确定所述基准图像对应的特征向量,具体包括:
根据采集到的各基准图像和确定出的各基准位置数据,确定特征向量,作为各基准图像对应的特征向量。
10.一种无人车定位装置,其特征在于,包括:
第一采集模块,无人车采集周围环境的图像作为基准图像,并确定采集所述基准图像时的位置数据作为基准位置数据;
确定模块,根据所述基准图像和所述基准位置数据,确定所述基准图像对应的特征向量,所述特征向量用于表征所述基准图像中包含的各物体的大小、形状以及相对位置关系中的至少一种;
第二采集模块,当需要对所述无人车进行定位时,所述无人车采集图像作为定位图像;
定位模块,根据所述定位图像以及所述特征向量,确定所述无人车当前所在的位置。
11.一种计算机可读存储介质,其特征在于,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述权利要求1-9任一所述的方法。
12.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现上述权利要求1-9任一所述的方法。
CN201910875819.5A 2019-09-17 2019-09-17 一种无人车定位方法及装置 Active CN110660103B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910875819.5A CN110660103B (zh) 2019-09-17 2019-09-17 一种无人车定位方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910875819.5A CN110660103B (zh) 2019-09-17 2019-09-17 一种无人车定位方法及装置

Publications (2)

Publication Number Publication Date
CN110660103A true CN110660103A (zh) 2020-01-07
CN110660103B CN110660103B (zh) 2020-12-25

Family

ID=69037143

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910875819.5A Active CN110660103B (zh) 2019-09-17 2019-09-17 一种无人车定位方法及装置

Country Status (1)

Country Link
CN (1) CN110660103B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110988550A (zh) * 2019-12-17 2020-04-10 合肥诺宸智能装备有限公司 一种产品信号自动测试平台
CN111414818A (zh) * 2020-03-09 2020-07-14 北京三快在线科技有限公司 一种基于环境图像的定位方法及装置
CN111722245A (zh) * 2020-06-22 2020-09-29 北京百度网讯科技有限公司 定位方法、定位装置和电子设备
CN112706766A (zh) * 2021-01-25 2021-04-27 广州小鹏自动驾驶科技有限公司 一种自动驾驶的方法和装置

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103324938A (zh) * 2012-03-21 2013-09-25 日电(中国)有限公司 训练姿态分类器及物体分类器、物体检测的方法及装置
CN106407315A (zh) * 2016-08-30 2017-02-15 长安大学 一种基于街景图像数据库的车辆自主定位方法
US20170178358A1 (en) * 2012-09-28 2017-06-22 2D3 Limited Determination of position from images and associated camera positions
CN107170004A (zh) * 2017-05-12 2017-09-15 同济大学 一种无人车单目视觉定位中对匹配矩阵的图像匹配方法
CN107221007A (zh) * 2017-05-12 2017-09-29 同济大学 一种基于图像特征降维的无人车单目视觉定位方法
CN107992817A (zh) * 2017-06-15 2018-05-04 上海联影医疗科技有限公司 自动成像方法和***
CN108038880A (zh) * 2017-12-20 2018-05-15 百度在线网络技术(北京)有限公司 用于处理图像的方法和装置
EP3343431A1 (en) * 2016-12-28 2018-07-04 Volvo Car Corporation Method and system for vehicle localization from camera image
CN108898186A (zh) * 2018-07-03 2018-11-27 北京字节跳动网络技术有限公司 用于提取图像的方法和装置
CN109671119A (zh) * 2018-11-07 2019-04-23 中国科学院光电研究院 一种基于slam的室内定位方法及装置
CN109887028A (zh) * 2019-01-09 2019-06-14 天津大学 一种基于点云数据配准的无人车辅助定位方法
CN109903314A (zh) * 2019-03-13 2019-06-18 腾讯科技(深圳)有限公司 一种图像区域定位的方法、模型训练的方法及相关装置
CN109976153A (zh) * 2019-03-01 2019-07-05 北京三快在线科技有限公司 控制无人驾驶设备及模型训练的方法、装置及电子设备
CN110119768A (zh) * 2019-04-24 2019-08-13 苏州感测通信息科技有限公司 用于车辆定位的视觉信息融合***及方法

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103324938A (zh) * 2012-03-21 2013-09-25 日电(中国)有限公司 训练姿态分类器及物体分类器、物体检测的方法及装置
US20170178358A1 (en) * 2012-09-28 2017-06-22 2D3 Limited Determination of position from images and associated camera positions
CN106407315A (zh) * 2016-08-30 2017-02-15 长安大学 一种基于街景图像数据库的车辆自主定位方法
EP3346418A1 (en) * 2016-12-28 2018-07-11 Volvo Car Corporation Method and system for vehicle localization from camera image
EP3343431A1 (en) * 2016-12-28 2018-07-04 Volvo Car Corporation Method and system for vehicle localization from camera image
CN107170004A (zh) * 2017-05-12 2017-09-15 同济大学 一种无人车单目视觉定位中对匹配矩阵的图像匹配方法
CN107221007A (zh) * 2017-05-12 2017-09-29 同济大学 一种基于图像特征降维的无人车单目视觉定位方法
CN107992817A (zh) * 2017-06-15 2018-05-04 上海联影医疗科技有限公司 自动成像方法和***
CN108038880A (zh) * 2017-12-20 2018-05-15 百度在线网络技术(北京)有限公司 用于处理图像的方法和装置
CN108898186A (zh) * 2018-07-03 2018-11-27 北京字节跳动网络技术有限公司 用于提取图像的方法和装置
CN109671119A (zh) * 2018-11-07 2019-04-23 中国科学院光电研究院 一种基于slam的室内定位方法及装置
CN109887028A (zh) * 2019-01-09 2019-06-14 天津大学 一种基于点云数据配准的无人车辅助定位方法
CN109976153A (zh) * 2019-03-01 2019-07-05 北京三快在线科技有限公司 控制无人驾驶设备及模型训练的方法、装置及电子设备
CN109903314A (zh) * 2019-03-13 2019-06-18 腾讯科技(深圳)有限公司 一种图像区域定位的方法、模型训练的方法及相关装置
CN110119768A (zh) * 2019-04-24 2019-08-13 苏州感测通信息科技有限公司 用于车辆定位的视觉信息融合***及方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
AHMED NASSAR 等: "A Deep CNN-Based Framework For Enhanced Aerial Imagery Registration with Applications to UAV Geolocalization", 《2018 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION WORKSHOPS (CVPRW)》 *
F. WALCH 等: "Image-based localization using LSTMs for structured feature correlation", 《2017 IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION (ICCV)》 *
F. WALCH 等: "Image-based Localization with Spatial LSTMs", 《ARXIV:1611.07890V1》 *
魏湧明 等: "基于CNN及Bi-LSTM的无人机时序图像定位研究", 《电光与控制》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110988550A (zh) * 2019-12-17 2020-04-10 合肥诺宸智能装备有限公司 一种产品信号自动测试平台
CN110988550B (zh) * 2019-12-17 2022-04-01 合肥诺宸智能装备有限公司 一种产品信号自动测试平台
CN111414818A (zh) * 2020-03-09 2020-07-14 北京三快在线科技有限公司 一种基于环境图像的定位方法及装置
CN111722245A (zh) * 2020-06-22 2020-09-29 北京百度网讯科技有限公司 定位方法、定位装置和电子设备
CN111722245B (zh) * 2020-06-22 2023-03-10 阿波罗智能技术(北京)有限公司 定位方法、定位装置和电子设备
US11713970B2 (en) 2020-06-22 2023-08-01 Beijing Baidu Netcom Science Technology Co., Ltd. Positioning method, electronic device and computer readable storage medium
CN112706766A (zh) * 2021-01-25 2021-04-27 广州小鹏自动驾驶科技有限公司 一种自动驾驶的方法和装置

Also Published As

Publication number Publication date
CN110660103B (zh) 2020-12-25

Similar Documents

Publication Publication Date Title
CN110660103B (zh) 一种无人车定位方法及装置
CN112015847B (zh) 一种障碍物的轨迹预测方法、装置、存储介质及电子设备
US11417017B2 (en) Camera-only-localization in sparse 3D mapped environments
CN112212874B (zh) 车辆轨迹预测方法、装置、电子设备及计算机可读介质
CN108279670B (zh) 用于调整点云数据采集轨迹的方法、设备以及计算机可读介质
CN111582189B (zh) 交通信号灯识别方法、装置、车载控制终端及机动车
JP7204823B2 (ja) 車両制御方法、車両制御装置及び車両
CN111508258B (zh) 一种定位方法及装置
CN110262486B (zh) 一种无人驾驶设备运动控制方法及装置
CN111882611B (zh) 一种地图构建方法及装置
KR102218881B1 (ko) 차량 위치 결정 방법 및 시스템
CN110162089B (zh) 一种无人驾驶的仿真方法及装置
CN111652072A (zh) 轨迹获取方法、轨迹获取装置、存储介质和电子设备
CN111288971B (zh) 一种视觉定位方法及装置
CN112258519B (zh) 一种高精度地图制作中道路的让行线自动化提取方法及装置
CN112465029A (zh) 一种实例追踪的方法及装置
CN111797711A (zh) 一种模型训练的方法及装置
CN112327864A (zh) 一种无人驾驶设备的控制方法及控制装置
CN112990099B (zh) 一种车道线检测的方法以及装置
EP4293622A1 (en) Method for training neural network model and method for generating image
CN112818968A (zh) 一种目标物分类方法及装置
CN111414818A (zh) 一种基于环境图像的定位方法及装置
CN116012483A (zh) 一种图像渲染的方法、装置、存储介质及电子设备
CN112734851B (zh) 一种位姿确定的方法以及装置
CN114187355A (zh) 一种图像标定方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant