CN109345589A - 基于自动驾驶车辆的位置检测方法、装置、设备及介质 - Google Patents
基于自动驾驶车辆的位置检测方法、装置、设备及介质 Download PDFInfo
- Publication number
- CN109345589A CN109345589A CN201811056854.6A CN201811056854A CN109345589A CN 109345589 A CN109345589 A CN 109345589A CN 201811056854 A CN201811056854 A CN 201811056854A CN 109345589 A CN109345589 A CN 109345589A
- Authority
- CN
- China
- Prior art keywords
- network model
- neural network
- image
- convolution kernel
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 52
- 238000003062 neural network model Methods 0.000 claims abstract description 120
- 230000001537 neural effect Effects 0.000 claims abstract description 73
- 230000016776 visual perception Effects 0.000 claims description 20
- 230000035800 maturation Effects 0.000 claims description 8
- 230000008447 perception Effects 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 claims description 2
- 210000004218 nerve net Anatomy 0.000 description 9
- 238000010586 diagram Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 210000005036 nerve Anatomy 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 5
- 238000001514 detection method Methods 0.000 description 5
- 241000283070 Equus zebra Species 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 230000004438 eyesight Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000011022 operating instruction Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biodiversity & Conservation Biology (AREA)
- Geometry (AREA)
- Business, Economics & Management (AREA)
- Game Theory and Decision Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
- Navigation (AREA)
Abstract
本申请提供一种基于自动驾驶车辆的位置检测方法、装置、设备及介质,其中,该方法包括:根据细长卷积核神经网络模型中的底层神经网络层对获取的自动驾驶车辆的第一视觉感知图像进行识别,确定出所述目标线状物图像的特征信息,并采用所述细长卷积核神经网络模型中的高层神经网络层对所述目标线状物图像的特征信息进行识别,确定出所述目标线状物图像的尺寸信息;进一步地,将所述目标线状物图像的尺寸信息与预设坐标系地图信息进行匹配,确定所述自动驾驶车辆的位置。本申请实施例,可以准确地确定出目标线状物图像的尺寸信息,从而根据目标线状物图像的尺寸信息和预设坐标系地图信息可以准确地确定出所述自动驾驶车辆的位置。
Description
技术领域
本申请涉及自动驾驶技术领域,尤其涉及一种基于自动驾驶车辆的位置检测方法、装置、设备及介质。
背景技术
在自动驾驶车辆的运行过程中,需要对自动驾驶车辆进行定位。自动驾驶车辆检测的视觉图像中的线状物(例如电线杆、斑马线或车道线等)对于自动驾驶车辆的定位有着非常好的参照作用。因此,关于线状物的检测技术在自动驾驶领域尤为重要。
现有技术中,通常采用传统的深度学习算法对视觉图像中的线状物进行检测。
然而现有技术中,由于视觉图像中的线状物是密集且细长的物体,采用传统的深度学习算法无法准确地检测出视觉图像中的线状物,从而无法准确地确定自动驾驶车辆的位置。
发明内容
本申请提供一种基于自动驾驶车辆的位置检测方法、装置、设备及介质,解决了现有技术中无法准确地确定自动驾驶车辆位置的技术问题。
第一方面,本申请提供一种基于自动驾驶车辆的位置检测方法,包括:
获取自动驾驶车辆的第一视觉感知图像;其中,所述第一视觉感知图像中包括目标线状物图像;
根据细长卷积核神经网络模型中的底层神经网络层对所述第一视觉感知图像进行识别,确定出所述目标线状物图像的特征信息;
采用所述细长卷积核神经网络模型中的高层神经网络层对所述目标线状物图像的特征信息进行识别,确定出所述目标线状物图像的尺寸信息;
将所述目标线状物图像的尺寸信息与预设坐标系地图信息进行匹配,确定所述自动驾驶车辆的位置。
在一种可能的实现方式中,所述采用所述细长卷积核神经网络模型中的高层神经网络层对所述目标线状物图像的特征信息进行识别,确定出所述目标线状物图像的尺寸信息,包括:
沿着所述目标线状物的形态,将所述目标线状物图像的特征信息划分为等间距的特征矩阵;
分别将每一个所述特征矩阵与所述细长卷积核神经网络模型中的细长卷积核进行加权求和运算,得到运算结果;
根据所述细长卷积核神经网络模型中的高层神经网络层对所述运算结果进行识别,确定出所述目标线状物图像的尺寸信息。
在一种可能的实现方式中,所述将所述目标线状物的尺寸信息与预设坐标系地图信息进行匹配,确定所述自动驾驶车辆的位置,包括:
将所述预设坐标系地图信息投影到所述第一视觉感知图像上,得到投影后的坐标系地图信息;
判断所述投影后的坐标系地图信息中,是否具有与所述目标线状物的尺寸信息相匹配的目标对象;
若确定具有所述目标对象,则根据所述第一视觉图像的拍摄角度以及所述投影后的坐标系地图信息,确定所述自动驾驶车辆的位置。
在一种可能的实现方式中,所述方法,还包括:
获取所述细长卷积核神经网络模型。
在一种可能的实现方式中,所述获取所述细长卷积核神经网络模型,包括:
根据预设视觉感知图像、预设线状物图像的特征信息和预设线状物图像的尺寸信息对预设神经网络模型进行训练,生成所述细长卷积核神经网络模型;其中,所述预设视觉感知图像中包括所述预设线状物图像。
在一种可能的实现方式中,所述根据预设视觉感知图像、预设线状物图像的特征信息和预设线状物图像的尺寸信息对预设神经网络模型进行训练,生成所述细长卷积核神经网络模型,包括:
根据所述预设视觉感知图像和所述预设线状物图像的特征信息对所述预设神经网络模型进行训练,生成初期细长卷积核神经网络模型,所述初期细长卷积核神经网络模型中具有成熟的底层神经网络层;
根据所述预设线状物图像的特征信息和所述预设线状物图像的尺寸信息对所述初期细长卷积核神经网络模型进行训练,生成最终的细长卷积核神经网络模型,其中,最终的所述细长卷积核神经网络模型中具有成熟的高层神经网络层和所述成熟的底层神经网络层。
在一种可能的实现方式中,所述获取自动驾驶车辆的第一视觉感知图像,包括:
通过所述自动驾驶车辆中的图像采集装置获取所述第一视觉感知图像。
第二方面,本申请提供一种基于自动驾驶车辆的位置检测装置,包括:
第一获取模块,用于获取自动驾驶车辆的第一视觉感知图像;其中,所述第一视觉感知图像中包括目标线状物图像;
第一确定模块,用于根据细长卷积核神经网络模型中的底层神经网络层对所述第一视觉感知图像进行识别,确定出所述目标线状物图像的特征信息;
第二确定模块,用于采用所述细长卷积核神经网络模型中的高层神经网络层对所述目标线状物图像的特征信息进行识别,确定出所述目标线状物图像的尺寸信息;
第三确定模块,用于将所述目标线状物图像的尺寸信息与预设坐标系地图信息进行匹配,确定所述自动驾驶车辆的位置。
在一种可能的实现方式中,所述第二确定模块,包括:
划分单元,用于沿着所述目标线状物的形态,将所述目标线状物图像的特征信息划分为等间距的特征矩阵;
运算单元,用于分别将每一个所述特征矩阵与所述细长卷积核神经网络模型中的细长卷积核进行加权求和运算,得到运算结果;
第一确定单元,用于根据所述细长卷积核神经网络模型中的高层神经网络层对所述运算结果进行识别,确定出所述目标线状物图像的尺寸信息。
在一种可能的实现方式中,所述第三确定模块,包括:
投影单元,用于将所述预设坐标系地图信息投影到所述第一视觉感知图像上,得到投影后的坐标系地图信息;
判断单元,用于判断所述投影后的坐标系地图信息中,是否具有与所述目标线状物的尺寸信息相匹配的目标对象;
第二确定单元,用于若所述判断单元确定具有所述目标对象,则根据所述第一视觉图像的拍摄角度以及所述投影后的坐标系地图信息,确定所述自动驾驶车辆的位置。
在一种可能的实现方式中,所述装置,还包括:
第二获取模块,用于获取所述细长卷积核神经网络模型。
在一种可能的实现方式中,所述第二获取模块具体用于:
根据预设视觉感知图像、预设线状物图像的特征信息和预设线状物图像的尺寸信息对预设神经网络模型进行训练,生成所述细长卷积核神经网络模型;其中,所述预设视觉感知图像中包括所述预设线状物图像。
在一种可能的实现方式中,所述第二获取模块具体用于:
根据所述预设视觉感知图像和所述预设线状物图像的特征信息对所述预设神经网络模型进行训练,生成初期细长卷积核神经网络模型,所述初期细长卷积核神经网络模型中具有成熟的底层神经网络层;
根据所述预设线状物图像的特征信息和所述预设线状物图像的尺寸信息对所述初期细长卷积核神经网络模型进行训练,生成最终的细长卷积核神经网络模型,其中,最终的所述细长卷积核神经网络模型中具有成熟的高层神经网络层和所述成熟的底层神经网络层。
在一种可能的实现方式中,所述获取自动驾驶车辆的第一视觉感知图像,包括:
通过所述自动驾驶车辆中的图像采集装置获取所述第一视觉感知图像。
第三方面,本申请提供一种控制设备,包括:存储器及处理器;
其中,所述存储器,用于存储计算机指令;
所述处理器,用于运行所述存储器中存储的所述计算机指令实现上述第一方面的任意实现方式所述的基于自动驾驶车辆的位置检测方法。
第四方面,本申请提供一种存储介质,包括:可读存储介质和计算机指令,所述计算机指令存储在所述可读存储介质中;所述计算机指令用于实现上述第一方面的任意实现方式所述的基于自动驾驶车辆的位置检测方法。
本申请实施例提供的基于自动驾驶车辆的位置检测方法、装置、设备及介质,通过根据细长卷积核神经网络模型中的底层神经网络层对获取的自动驾驶车辆的第一视觉感知图像进行识别,确定出所述目标线状物图像的特征信息,并采用所述细长卷积核神经网络模型中的高层神经网络层对所述目标线状物图像的特征信息进行识别,确定出所述目标线状物图像的尺寸信息;进一步地,将所述目标线状物图像的尺寸信息与预设坐标系地图信息进行匹配,确定所述自动驾驶车辆的位置。本申请实施例,通过采用细长卷积核神经网络模型的底层神经网络层和高层神经网络层对待检测的第一视觉感知图像进行识别,可以准确地确定出目标线状物图像的尺寸信息,从而根据目标线状物图像的尺寸信息和预设坐标系地图信息可以准确地确定出所述自动驾驶车辆的位置。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本申请一实施例提供的基于自动驾驶车辆的位置检测方法的流程示意图;
图2为本申请另一实施例提供的基于自动驾驶车辆的位置检测方法的流程示意图;
图3为本申请另一实施例提供的基于自动驾驶车辆的位置检测方法的流程示意图;
图4为本申请另一实施例提供的基于自动驾驶车辆的位置检测方法的流程示意图;
图5为本申请一实施例提供的基于自动驾驶车辆的位置检测装置的结构示意图;
图6为本申请一实施例提供的控制设备的结构示意图。
具体实施方式
首先,对本申请实施例的应用场景和所涉及的部分词汇进行解释说明。
本申请实施例提供的基于自动驾驶车辆的位置检测方法、装置、设备及介质可以应用于自动驾驶车辆定位的应用场景中,可以准确地确定自动驾驶车辆的位置。
本申请实施例提供的基于自动驾驶车辆的位置检测方法的执行主体可以为基于自动驾驶车辆的位置检测装置或控制设备(为了便于描述,本实施例中以执行主体为基于自动驾驶车辆的位置检测装置为例进行说明)。示例性地,该装置可以通过软件和/或硬件实现。
本申请实施例中涉及的目标线状物图像和/或预设线状物图像可以包括但不限于以下至少一项:电线杆图像、斑马线图像或车道线图像。
本申请实施例中涉及的预设神经网络模型可以包括但不限于:预设的底层神经网络层和预设的高层神经网络层。
本申请实施例中涉及的初期细长卷积核神经网络模型是指对预设神经网络模型的底层神经网络层进行训练,所得到的神经网络模型。示例性地,初期细长卷积核神经网络模型可以包括但不限于:成熟的底层神经网络层和预设的高层神经网络层。
本申请实施例中涉及的细长卷积核神经网络模型(或最终的细长卷积核神经网络模型)是指对预设神经网络模型的底层神经网络层和高层神经网络层均进行训练,所得到的神经网络模型。示例性地,细长卷积核神经网络模型可以包括但不限于:成熟的底层神经网络层和成熟的高层神经网络层。
示例性地,细长卷积核神经网络模型中的底层神经网络层用于提取第一视觉感知图像中的目标线状物图像的特征信息;细长卷积核神经网络模型中的高层神经网络层用于对目标线状物图像的特征信息进行学习,以识别出目标线状物图像的尺寸信息。
本申请实施例中涉及的预设坐标系地图信息是指自动驾驶车辆中预先设置的准确的坐标系地图信息,以便于确定自动驾驶车辆的位置。示例性地,预设坐标系地图信息可以实时进行更新,或每隔预设时长进行更新。
本申请实施例提供的基于自动驾驶车辆的位置检测方法、装置、设备及介质,通过采用细长卷积核神经网络模型的底层神经网络层和高层神经网络层对待检测的第一视觉感知图像进行识别,确定出目标线状物图像的尺寸信息,从而根据目标线状物图像的尺寸信息和预设坐标系地图信息确定出所述自动驾驶车辆的位置,解决了现有技术中无法准确地确定自动驾驶车辆位置的技术问题。
下面以具体地实施例对本申请的技术方案以及本申请的技术方案如何解决上述技术问题进行详细说明。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例中不再赘述。
图1为本申请一实施例提供的基于自动驾驶车辆的位置检测方法的流程示意图。如图1所示,本实施例提供的基于自动驾驶车辆的位置检测方法可以包括:
步骤S101、获取自动驾驶车辆的第一视觉感知图像。
本步骤中,基于自动驾驶车辆的位置检测装置获取自动驾驶车辆的第一视觉感知图像(用于指示自动驾驶车辆的周围环境的图像信息);其中,所述第一视觉感知图像中包括目标线状物图像。
可选地,基于自动驾驶车辆的位置检测装置可以通过所述自动驾驶车辆中的图像采集装置获取所述第一视觉感知图像。示例性地,图像采集装置可以包括但不限于以下至少一项:摄像头或激光探测器。
当然,基于自动驾驶车辆的位置检测装置还可通过其它可实现方式,获取自动驾驶车辆的第一视觉感知图像,本申请实施例中对此并不作限制。
步骤S102、根据细长卷积核神经网络模型中的底层神经网络层对所述第一视觉感知图像进行识别,确定出所述目标线状物图像的特征信息。
本申请实施例中,所述细长卷积核神经网络模型可以包括但不限于:成熟的底层神经网络层和成熟的高层神经网络层。
本步骤中,基于自动驾驶车辆的位置检测装置将所述第一视觉感知图像输入到细长卷积核神经网络模型中,由所述细长卷积核神经网络模型中的底层神经网络层对所述第一视觉感知图像进行识别,从而确定出所述目标线状物图像的特征信息。
示例性地,所述目标线状物图像的特征信息可以按照矩阵或列表等形式存储,当然还可以按照其它形式存储,本申请实施例中对此并不作限制。
步骤S103、采用所述细长卷积核神经网络模型中的高层神经网络层对所述目标线状物图像的特征信息进行识别,确定出所述目标线状物图像的尺寸信息。
本步骤中,基于自动驾驶车辆的位置检测装置将所述目标线状物图像的特征信息输入到所述细长卷积核神经网络模型中的高层神经网络层,由所述细长卷积核神经网络模型中的高层神经网络层进一步对所述目标线状物图像的特征信息进行特征学习,以识别出所述目标线状物图像的尺寸信息。
示例性地,所述目标线状物图像的尺寸信息可以包括但不限于:所述目标线状物图像的头尾位置和/或宽度。
步骤S104、将所述目标线状物图像的尺寸信息与预设坐标系地图信息进行匹配,确定所述自动驾驶车辆的位置。
本步骤中,示例性地,基于自动驾驶车辆的位置检测装置可以通过将三维的预设坐标系地图信息转换为二维坐标系地图信息,以便与所述目标线状物图像的尺寸信息(例如包括但不限于:所述目标线状物图像的头尾位置和/或宽度)进行匹配,从而可以准确地确定出所述自动驾驶车辆的位置,以便于进一步控制所述自动驾驶车辆(例如,控制所述自动驾驶车辆停在两个电线杆之间、控制所述自动驾驶车辆在斑马线之前停止或者控制所述自动驾驶车辆与车道线并行行驶等)。
本申请实施例提供的基于自动驾驶车辆的位置检测方法,通过根据细长卷积核神经网络模型中的底层神经网络层对获取的自动驾驶车辆的第一视觉感知图像进行识别,确定出所述目标线状物图像的特征信息,并采用所述细长卷积核神经网络模型中的高层神经网络层对所述目标线状物图像的特征信息进行识别,确定出所述目标线状物图像的尺寸信息;进一步地,将所述目标线状物图像的尺寸信息与预设坐标系地图信息进行匹配,确定所述自动驾驶车辆的位置。本申请实施例,通过采用细长卷积核神经网络模型的底层神经网络层和高层神经网络层对待检测的第一视觉感知图像进行识别,可以准确地确定出目标线状物图像的尺寸信息,从而根据目标线状物图像的尺寸信息和预设坐标系地图信息可以准确地确定出所述自动驾驶车辆的位置。
图2为本申请另一实施例提供的基于自动驾驶车辆的位置检测方法的流程示意图。在上述实施例的基础上,本申请实施例中对上述步骤S103的具体可实现方式进行介绍。如图2所示,本实施例中的步骤S103可以包括:
步骤S103A、沿着所述目标线状物的形态,将所述目标线状物图像的特征信息划分为等间距的特征矩阵。
本步骤中,基于自动驾驶车辆的位置检测装置沿着所述目标线状物的形态(例如长度方向或宽度方向等),将所述目标线状物图像的特征信息划分为等间距的特征矩阵。
例如,假设所述目标线状物的长度为5m以及间距为1m,基于自动驾驶车辆的位置检测装置沿着所述目标线状物的长度方向,将所述目标线状物图像的特征信息划分为等间距的特征矩阵1、特征矩阵2、特征矩阵3、特征矩阵4和特征矩阵5;其中,每个特征矩阵中特征信息所对应的目标线状物的长度均为1m。
步骤S103B、分别将每一个所述特征矩阵与所述细长卷积核神经网络模型中的细长卷积核进行加权求和运算,得到运算结果。
本步骤中,基于自动驾驶车辆的位置检测装置分别将等间隔划分所得到的每一个所述特征矩阵与所述细长卷积核神经网络模型中的细长卷积核进行加权求和运算,得到加权求和的运算结果。
例如,假设等间隔划分所得到的特征矩阵包括:特征矩阵1、特征矩阵2、特征矩阵3、特征矩阵4和特征矩阵5,则基于自动驾驶车辆的位置检测装置将特征矩阵1、特征矩阵2、特征矩阵3、特征矩阵4和特征矩阵5,与所述细长卷积核神经网络模型中的细长卷积核进行加权求和运算,从而得到加权求和的运算结果。
步骤S103C、根据所述细长卷积核神经网络模型中的高层神经网络层对所述运算结果进行识别,确定出所述目标线状物图像的尺寸信息。
本步骤中,基于自动驾驶车辆的位置检测装置将所述加权求和的运算结果输入到所述细长卷积核神经网络模型中的高层神经网络层,由所述细长卷积核神经网络模型中的高层神经网络层对所述加权求和的运算结果进行特征学习,以识别出所述目标线状物图像的尺寸信息。
本申请实施例提供的基于自动驾驶车辆的位置检测方法,通过沿着所述目标线状物的形态,将根据细长卷积核神经网络模型中的底层神经网络层对第一视觉感知图像进行识别所得到的所述目标线状物图像的特征信息划分为等间距的特征矩阵;进一步地,分别将每一个所述特征矩阵与所述细长卷积核神经网络模型中的细长卷积核进行加权求和运算,得到运算结果;进一步地,根据所述细长卷积核神经网络模型中的高层神经网络层对所述运算结果进行识别,可以准确地确定出所述目标线状物图像的尺寸信息,从而根据所述目标线状物图像的尺寸信息和预设坐标系地图信息可以准确地确定出所述自动驾驶车辆的位置。
图3为本申请另一实施例提供的基于自动驾驶车辆的位置检测方法的流程示意图。在上述实施例的基础上,本申请实施例中对上述步骤S104的具体可实现方式进行介绍。如图3所示,本实施例中的步骤S104可以包括:
步骤S104A、将所述预设坐标系地图信息投影到所述第一视觉感知图像上,得到投影后的坐标系地图信息。
本步骤中,为了便于与所述目标线状物的尺寸信息(二维信息)进行匹配,基于自动驾驶车辆的位置检测装置可以将三维的预设坐标系地图信息投影到二维的所述第一视觉感知图像上,得到投影后的二维坐标系地图信息。
步骤S104B、判断所述投影后的坐标系地图信息中,是否具有与所述目标线状物的尺寸信息相匹配的目标对象。
本步骤中,基于自动驾驶车辆的位置检测装置将所述目标线状物的尺寸信息与所述投影后的二维坐标系地图信息进行匹配。示例性地,基于自动驾驶车辆的位置检测装置判断所述投影后的二维坐标系地图信息中,是否具有与所述目标线状物的尺寸信息(例如包括但不限于:所述目标线状物图像的头尾位置和/或宽度)相匹配的目标对象(例如包括但不限于:电线杆、斑马线或车道线);若确定具有与所述目标线状物的尺寸信息相匹配的目标对象,则确定所述自动驾驶车辆的位置在所述目标对象的周围,从而执行步骤S104C,以确定所述自动驾驶车辆的准确位置。
步骤S104C、根据所述第一视觉图像的拍摄角度以及所述投影后的坐标系地图信息,确定所述自动驾驶车辆的位置。
本步骤中,基于自动驾驶车辆的位置检测装置通过结合所述第一视觉图像的拍摄角度与所述投影后的坐标系地图信息中的所述目标对象,可以准确地确定所述自动驾驶车辆在所述投影后的坐标系地图信息中的位置。示例性地,基于自动驾驶车辆的位置检测装置通过检测以所述第一视觉图像的拍摄角度能够查看到所述投影后的坐标系地图信息中所述目标对象的位置,即为所述自动驾驶车辆的准确位置。
本申请实施例中,通过在采用细长卷积核神经网络模型的底层神经网络层和高层神经网络层对待检测的第一视觉感知图像进行识别,准确地确定出目标线状物图像的尺寸信息后,将所述预设坐标系地图信息投影到所述第一视觉感知图像上,得到投影后的坐标系地图信息;进一步地,判断所述投影后的坐标系地图信息中,是否具有与所述目标线状物的尺寸信息相匹配的目标对象;若确定具有与所述目标线状物的尺寸信息相匹配的目标对象,则根据所述第一视觉图像的拍摄角度以及所述投影后的坐标系地图信息,从而可以准确地确定出所述自动驾驶车辆的位置。
图4为本申请另一实施例提供的基于自动驾驶车辆的位置检测方法的流程示意图。在上述实施例的基础上,本申请实施例中在上述步骤S102之前,还包括:
步骤S100、获取所述细长卷积核神经网络模型。
本步骤中,基于自动驾驶车辆的位置检测装置在上述步骤S102中使用细长卷积核神经网络模型之前,需要获取到所述细长卷积核神经网络模型。
本申请实施例的下述部分对上述步骤S100的具体可实现方式进行介绍。
可选地,根据预设视觉感知图像、预设线状物图像的特征信息和预设线状物图像的尺寸信息对预设神经网络模型进行训练,生成所述细长卷积核神经网络模型。
本申请实施例中涉及的预设神经网络模型可以包括但不限于:预设的底层神经网络层和预设的高层神经网络层。
本申请实施例中,基于自动驾驶车辆的位置检测装置根据预设视觉感知图像(包括预设线状物图像)、预设线状物图像的特征信息和预设线状物图像的尺寸信息对预设神经网络模型进行训练,直到神经网络模型收敛为止,从而得到所述细长卷积核神经网络模型。
示例性地,根据所述预设视觉感知图像和所述预设线状物图像的特征信息对所述预设神经网络模型进行训练,生成初期细长卷积核神经网络模型,所述初期细长卷积核神经网络模型中具有成熟的底层神经网络层;进一步地,根据所述预设线状物图像的特征信息和所述预设线状物图像的尺寸信息对所述初期细长卷积核神经网络模型进行训练,生成最终的细长卷积核神经网络模型,其中,最终的所述细长卷积核神经网络模型中具有成熟的高层神经网络层和所述成熟的底层神经网络层。
本申请实施例中,基于自动驾驶车辆的位置检测装置根据所述预设视觉感知图像对所述预设神经网络模型中的预设的底层神经网络层部分进行训练,直到训练所得到的特征信息与所述预设线状物图像的特征信息相同或相似(例如,相同信息所占比例大于第一预设比例)为止,从而得到初期细长卷积核神经网络模型,示例性地,所述初期细长卷积核神经网络模型可以包括但不限于:成熟的底层神经网络层和预设的高层神经网络层。
进一步地,基于自动驾驶车辆的位置检测装置根据所述预设线状物图像的特征信息对所述初期细长卷积核神经网络模型中的预设的高层神经网络层部分进行训练,直到训练所得到的尺寸信息与所述预设线状物图像的尺寸信息相同或相似(例如,相同信息所占比例大于第二预设比例)为止,从而得到最终的细长卷积核神经网络模型,其中,最终的所述细长卷积核神经网络模型中具有成熟的高层神经网络层和所述成熟的底层神经网络层。
当然,本申请实施例中,还可通过其它可实现方式以获取所述细长卷积核神经网络模型,本申请实施例中对此并不作限制。
本申请实施例中,通过获取细长卷积核神经网络模型,以便于根据所述细长卷积核神经网络模型的底层神经网络层和高层神经网络层对待检测的第一视觉感知图像进行识别,可以准确地确定出目标线状物图像的尺寸信息,从而根据目标线状物图像的尺寸信息和预设坐标系地图信息可以准确地确定出所述自动驾驶车辆的位置。
图5为本申请一实施例提供的基于自动驾驶车辆的位置检测装置的结构示意图。如图5所示,本申请实施例提供的基于自动驾驶车辆的位置检测装置50可以包括:第一获取模块501、第一确定模块502、第二确定模块503和第三确定模块504。
期中,第一获取模块501,用于获取自动驾驶车辆的第一视觉感知图像;其中,所述第一视觉感知图像中包括目标线状物图像;
第一确定模块502,用于根据细长卷积核神经网络模型中的底层神经网络层对所述第一视觉感知图像进行识别,确定出所述目标线状物图像的特征信息;
第二确定模块503,用于采用所述细长卷积核神经网络模型中的高层神经网络层对所述目标线状物图像的特征信息进行识别,确定出所述目标线状物图像的尺寸信息;
第三确定模块504,用于将所述目标线状物图像的尺寸信息与预设坐标系地图信息进行匹配,确定所述自动驾驶车辆的位置。
在一种可能的实现方式中,所述第二确定模块503,包括:
划分单元,用于沿着所述目标线状物的形态,将所述目标线状物图像的特征信息划分为等间距的特征矩阵;
运算单元,用于分别将每一个所述特征矩阵与所述细长卷积核神经网络模型中的细长卷积核进行加权求和运算,得到运算结果;
第一确定单元,用于根据所述细长卷积核神经网络模型中的高层神经网络层对所述运算结果进行识别,确定出所述目标线状物图像的尺寸信息。
在一种可能的实现方式中,所述第三确定模块504,包括:
投影单元,用于将所述预设坐标系地图信息投影到所述第一视觉感知图像上,得到投影后的坐标系地图信息;
判断单元,用于判断所述投影后的坐标系地图信息中,是否具有与所述目标线状物的尺寸信息相匹配的目标对象;
第二确定单元,用于若所述判断单元确定具有所述目标对象,则根据所述第一视觉图像的拍摄角度以及所述投影后的坐标系地图信息,确定所述自动驾驶车辆的位置。
在一种可能的实现方式中,所述基于自动驾驶车辆的位置检测装置50,还包括:
第二获取模块,用于获取所述细长卷积核神经网络模型。
在一种可能的实现方式中,所述第二获取模块具体用于:
根据预设视觉感知图像、预设线状物图像的特征信息和预设线状物图像的尺寸信息对预设神经网络模型进行训练,生成所述细长卷积核神经网络模型;其中,所述预设视觉感知图像中包括所述预设线状物图像。
在一种可能的实现方式中,所述第二获取模块具体用于:
根据所述预设视觉感知图像和所述预设线状物图像的特征信息对所述预设神经网络模型进行训练,生成初期细长卷积核神经网络模型,所述初期细长卷积核神经网络模型中具有成熟的底层神经网络层;
根据所述预设线状物图像的特征信息和所述预设线状物图像的尺寸信息对所述初期细长卷积核神经网络模型进行训练,生成最终的细长卷积核神经网络模型,其中,最终的所述细长卷积核神经网络模型中具有成熟的高层神经网络层和所述成熟的底层神经网络层。
在一种可能的实现方式中,所述第一获取模块501具体用于:
通过所述自动驾驶车辆中的图像采集装置获取所述第一视觉感知图像。
本实施例提供的基于自动驾驶车辆的位置检测装置,用于执行本申请上述基于自动驾驶车辆的位置检测方法实施例中的技术方案,其技术原理和技术效果相似,此处不再赘述。
图6为本申请一实施例提供的控制设备的结构示意图。示例性地,本申请实施例的控制设备可以为自动驾驶车辆的控制器或自动驾驶车辆***的控制器等等。如图6所示,本申请实施例提供的控制设备60可以包括:存储器601及处理器602;
其中,所述存储器601,用于存储计算机指令;
所述处理器602,用于运行所述存储器601中存储的所述计算机指令实现本申请上述基于自动驾驶车辆的位置检测方法实施例中的技术方案,其技术原理和技术效果相似,此处不再赘述。
本申请实施例还提供一种存储介质,包括:可读存储介质和计算机指令,所述计算机指令存储在所述可读存储介质中;所述计算机指令用于实现本申请上述基于自动驾驶车辆的位置检测方法实施例中的技术方案,其技术原理和技术效果相似,此处不再赘述。
本申请实施例还提供一种运行指令的芯片,所述芯片用于执行本申请上述基于自动驾驶车辆的位置检测方法实施例中的技术方案,其技术原理和技术效果相似,此处不再赘述。
本申请实施例还提供一种程序产品,所述程序产品包括计算机程序,所述计算机程序存储在存储介质中,至少一个处理器可以从所述存储介质读取所述计算机程序,所述至少一个处理器执行所述计算机程序时可实现本申请上述基于自动驾驶车辆的位置检测方法实施例中的技术方案,其技术原理和技术效果相似,此处不再赘述。
在上述处理器602可以是中央处理单元(英文:Central Processing Unit,简称:CPU),还可以是其他通用处理器、数字信号处理器(英文:Digital Signal Processor,简称:DSP)、专用集成电路(英文:Application Specific Integrated Circuit,简称:ASIC)等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本申请实施例所公开的方法的步骤可以直接体现为硬件处理器执行完成,或者用处理器中的硬件及软件模块组合执行完成。
本领域普通技术人员可以理解:实现上述各方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成。前述的程序可以存储于一计算机可读取存储介质中。该程序在执行时,执行包括上述各方法实施例的步骤;而前述的存储介质包括:只读存储器(英文:read-only memory,缩写:ROM)、RAM、快闪存储器、硬盘、固态硬盘、磁带(英文:magnetictape)、软盘(英文:floppy disk)、光盘(英文:optical disc)及其任意组合。
最后应说明的是:以上各实施例仅用以说明本申请实施例的技术方案,而非对其限制;尽管参照前述各实施例对本申请实施例进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请实施例技术方案的范围。
Claims (16)
1.一种基于自动驾驶车辆的位置检测方法,其特征在于,包括:
获取自动驾驶车辆的第一视觉感知图像;其中,所述第一视觉感知图像中包括目标线状物图像;
根据细长卷积核神经网络模型中的底层神经网络层对所述第一视觉感知图像进行识别,确定出所述目标线状物图像的特征信息;
采用所述细长卷积核神经网络模型中的高层神经网络层对所述目标线状物图像的特征信息进行识别,确定出所述目标线状物图像的尺寸信息;
将所述目标线状物图像的尺寸信息与预设坐标系地图信息进行匹配,确定所述自动驾驶车辆的位置。
2.根据权利要求1所述的方法,其特征在于,所述采用所述细长卷积核神经网络模型中的高层神经网络层对所述目标线状物图像的特征信息进行识别,确定出所述目标线状物图像的尺寸信息,包括:
沿着所述目标线状物的形态,将所述目标线状物图像的特征信息划分为等间距的特征矩阵;
分别将每一个所述特征矩阵与所述细长卷积核神经网络模型中的细长卷积核进行加权求和运算,得到运算结果;
根据所述细长卷积核神经网络模型中的高层神经网络层对所述运算结果进行识别,确定出所述目标线状物图像的尺寸信息。
3.根据权利要求1或2所述的方法,其特征在于,所述将所述目标线状物的尺寸信息与预设坐标系地图信息进行匹配,确定所述自动驾驶车辆的位置,包括:
将所述预设坐标系地图信息投影到所述第一视觉感知图像上,得到投影后的坐标系地图信息;
判断所述投影后的坐标系地图信息中,是否具有与所述目标线状物的尺寸信息相匹配的目标对象;
若确定具有所述目标对象,则根据所述第一视觉图像的拍摄角度以及所述投影后的坐标系地图信息,确定所述自动驾驶车辆的位置。
4.根据权利要求1或2所述的方法,其特征在于,所述方法,还包括:
获取所述细长卷积核神经网络模型。
5.根据权利要求4所述的方法,其特征在于,所述获取所述细长卷积核神经网络模型,包括:
根据预设视觉感知图像、预设线状物图像的特征信息和预设线状物图像的尺寸信息对预设神经网络模型进行训练,生成所述细长卷积核神经网络模型;其中,所述预设视觉感知图像中包括所述预设线状物图像。
6.根据权利要求5所述的方法,其特征在于,所述根据预设视觉感知图像、预设线状物图像的特征信息和预设线状物图像的尺寸信息对预设神经网络模型进行训练,生成所述细长卷积核神经网络模型,包括:
根据所述预设视觉感知图像和所述预设线状物图像的特征信息对所述预设神经网络模型进行训练,生成初期细长卷积核神经网络模型,所述初期细长卷积核神经网络模型中具有成熟的底层神经网络层;
根据所述预设线状物图像的特征信息和所述预设线状物图像的尺寸信息对所述初期细长卷积核神经网络模型进行训练,生成最终的细长卷积核神经网络模型,其中,最终的所述细长卷积核神经网络模型中具有成熟的高层神经网络层和所述成熟的底层神经网络层。
7.根据权利要求1或2所述的方法,其特征在于,所述获取自动驾驶车辆的第一视觉感知图像,包括:
通过所述自动驾驶车辆中的图像采集装置获取所述第一视觉感知图像。
8.一种基于自动驾驶车辆的位置检测装置,其特征在于,包括:
第一获取模块,用于获取自动驾驶车辆的第一视觉感知图像;其中,所述第一视觉感知图像中包括目标线状物图像;
第一确定模块,用于根据细长卷积核神经网络模型中的底层神经网络层对所述第一视觉感知图像进行识别,确定出所述目标线状物图像的特征信息;
第二确定模块,用于采用所述细长卷积核神经网络模型中的高层神经网络层对所述目标线状物图像的特征信息进行识别,确定出所述目标线状物图像的尺寸信息;
第三确定模块,用于将所述目标线状物图像的尺寸信息与预设坐标系地图信息进行匹配,确定所述自动驾驶车辆的位置。
9.根据权利要求8所述的装置,其特征在于,所述第二确定模块,包括:
划分单元,用于沿着所述目标线状物的形态,将所述目标线状物图像的特征信息划分为等间距的特征矩阵;
运算单元,用于分别将每一个所述特征矩阵与所述细长卷积核神经网络模型中的细长卷积核进行加权求和运算,得到运算结果;
第一确定单元,用于根据所述细长卷积核神经网络模型中的高层神经网络层对所述运算结果进行识别,确定出所述目标线状物图像的尺寸信息。
10.根据权利要求8或9所述的装置,其特征在于,所述第三确定模块,包括:
投影单元,用于将所述预设坐标系地图信息投影到所述第一视觉感知图像上,得到投影后的坐标系地图信息;
判断单元,用于判断所述投影后的坐标系地图信息中,是否具有与所述目标线状物的尺寸信息相匹配的目标对象;
第二确定单元,用于若所述判断单元确定具有所述目标对象,则根据所述第一视觉图像的拍摄角度以及所述投影后的坐标系地图信息,确定所述自动驾驶车辆的位置。
11.根据权利要求8或9所述的装置,其特征在于,所述装置,还包括:
第二获取模块,用于获取所述细长卷积核神经网络模型。
12.根据权利要求11所述的装置,其特征在于,所述第二获取模块具体用于:
根据预设视觉感知图像、预设线状物图像的特征信息和预设线状物图像的尺寸信息对预设神经网络模型进行训练,生成所述细长卷积核神经网络模型;其中,所述预设视觉感知图像中包括所述预设线状物图像。
13.根据权利要求12所述的装置,其特征在于,所述第二获取模块具体用于:
根据所述预设视觉感知图像和所述预设线状物图像的特征信息对所述预设神经网络模型进行训练,生成初期细长卷积核神经网络模型,所述初期细长卷积核神经网络模型中具有成熟的底层神经网络层;
根据所述预设线状物图像的特征信息和所述预设线状物图像的尺寸信息对所述初期细长卷积核神经网络模型进行训练,生成最终的细长卷积核神经网络模型,其中,最终的所述细长卷积核神经网络模型中具有成熟的高层神经网络层和所述成熟的底层神经网络层。
14.根据权利要求8或9所述的装置,其特征在于,所述获取自动驾驶车辆的第一视觉感知图像,包括:
通过所述自动驾驶车辆中的图像采集装置获取所述第一视觉感知图像。
15.一种控制设备,其特征在于,包括:存储器及处理器;
其中,所述存储器,用于存储计算机指令;
所述处理器,用于运行所述存储器中存储的所述计算机指令实现如权利要求1-7中任一项所述的基于自动驾驶车辆的位置检测方法。
16.一种存储介质,其特征在于,包括:可读存储介质和计算机指令,所述计算机指令存储在所述可读存储介质中;所述计算机指令用于实现如权利要求1-7中任一项所述的基于自动驾驶车辆的位置检测方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811056854.6A CN109345589A (zh) | 2018-09-11 | 2018-09-11 | 基于自动驾驶车辆的位置检测方法、装置、设备及介质 |
JP2019131144A JP6782821B2 (ja) | 2018-09-11 | 2019-07-16 | 自動運転車両の位置検出方法、自動運転車両の位置検出装置及びコンピュータ読み取り可能記憶媒体 |
US16/512,907 US11170525B2 (en) | 2018-09-11 | 2019-07-16 | Autonomous vehicle based position detection method and apparatus, device and medium |
EP19187119.3A EP3614307A1 (en) | 2018-09-11 | 2019-07-18 | Autonomous vehicle based position detection method and apparatus, device and medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811056854.6A CN109345589A (zh) | 2018-09-11 | 2018-09-11 | 基于自动驾驶车辆的位置检测方法、装置、设备及介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109345589A true CN109345589A (zh) | 2019-02-15 |
Family
ID=65305324
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811056854.6A Pending CN109345589A (zh) | 2018-09-11 | 2018-09-11 | 基于自动驾驶车辆的位置检测方法、装置、设备及介质 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11170525B2 (zh) |
EP (1) | EP3614307A1 (zh) |
JP (1) | JP6782821B2 (zh) |
CN (1) | CN109345589A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110347043A (zh) * | 2019-07-15 | 2019-10-18 | 武汉天喻信息产业股份有限公司 | 一种智能驾驶控制方法及装置 |
CN111311675A (zh) * | 2020-02-11 | 2020-06-19 | 腾讯科技(深圳)有限公司 | 车辆定位方法、装置、设备和存储介质 |
CN111339834A (zh) * | 2020-02-04 | 2020-06-26 | 浙江大华技术股份有限公司 | 车辆行驶方向的识别方法、计算机设备及存储介质 |
CN111401194A (zh) * | 2020-03-10 | 2020-07-10 | 北京百度网讯科技有限公司 | 用于自动驾驶车辆的数据处理方法和装置 |
CN111912416A (zh) * | 2019-05-07 | 2020-11-10 | 北京市商汤科技开发有限公司 | 用于设备定位的方法、装置及设备 |
CN113591843A (zh) * | 2021-07-12 | 2021-11-02 | 中国兵器工业计算机应用技术研究所 | 仿初级视觉皮层的目标检测方法、装置及设备 |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110135356A (zh) * | 2019-05-17 | 2019-08-16 | 北京百度网讯科技有限公司 | 违章停车的检测方法及装置、电子设备、计算机可读介质 |
CN111221340B (zh) * | 2020-02-10 | 2023-04-07 | 电子科技大学 | 一种基于粗粒度特征的可迁移视觉导航设计方法 |
CN111414818A (zh) * | 2020-03-09 | 2020-07-14 | 北京三快在线科技有限公司 | 一种基于环境图像的定位方法及装置 |
CN112598731B (zh) * | 2020-10-28 | 2021-11-23 | 禾多科技(北京)有限公司 | 车辆定位方法、装置、电子设备和计算机可读介质 |
CN112883983B (zh) * | 2021-02-09 | 2024-06-14 | 北京迈格威科技有限公司 | 特征提取方法、装置和电子*** |
CN113112847A (zh) * | 2021-04-12 | 2021-07-13 | 蔚来汽车科技(安徽)有限公司 | 用于固定泊车场景的车辆定位方法及其*** |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105631880A (zh) * | 2015-12-31 | 2016-06-01 | 百度在线网络技术(北京)有限公司 | 车道线分割方法和装置 |
CN108009524A (zh) * | 2017-12-25 | 2018-05-08 | 西北工业大学 | 一种基于全卷积网络的车道线检测方法 |
CN108090456A (zh) * | 2017-12-27 | 2018-05-29 | 北京初速度科技有限公司 | 一种车道线识别方法及装置 |
CN108197619A (zh) * | 2017-12-27 | 2018-06-22 | 百度在线网络技术(北京)有限公司 | 一种基于招牌图像的定位方法、装置、设备和存储介质 |
CN108450034A (zh) * | 2015-12-15 | 2018-08-24 | 本田技研工业株式会社 | 基于图像的车辆测位***及方法 |
Family Cites Families (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4760715B2 (ja) * | 2004-12-28 | 2011-08-31 | 株式会社豊田中央研究所 | 車両運動制御装置 |
JP4720386B2 (ja) * | 2005-09-07 | 2011-07-13 | 株式会社日立製作所 | 運転支援装置 |
US8050458B2 (en) * | 2007-06-18 | 2011-11-01 | Honda Elesys Co., Ltd. | Frontal view imaging and control device installed on movable object |
JP4939564B2 (ja) * | 2009-03-23 | 2012-05-30 | 本田技研工業株式会社 | 車両用情報提供装置 |
DE102009049849B4 (de) * | 2009-10-19 | 2020-09-24 | Apple Inc. | Verfahren zur Bestimmung der Pose einer Kamera, Verfahren zur Erkennung eines Objekts einer realen Umgebung und Verfahren zur Erstellung eines Datenmodells |
US8509526B2 (en) * | 2010-04-13 | 2013-08-13 | International Business Machines Corporation | Detection of objects in digital images |
JP5872923B2 (ja) * | 2012-02-22 | 2016-03-01 | 株式会社マイクロネット | Ar画像処理装置及び方法 |
US9171213B2 (en) * | 2013-03-15 | 2015-10-27 | Xerox Corporation | Two-dimensional and three-dimensional sliding window-based methods and systems for detecting vehicles |
US9406145B2 (en) * | 2014-01-31 | 2016-08-02 | Applied Concepts, Inc. | Mobile radar and visual tracking coordinate transformation |
KR102366402B1 (ko) * | 2015-05-21 | 2022-02-22 | 엘지전자 주식회사 | 운전자 보조 장치 및 그 제어방법 |
US10373338B2 (en) * | 2015-05-27 | 2019-08-06 | Kyocera Corporation | Calculation device, camera device, vehicle, and calibration method |
EP3324359B1 (en) * | 2015-08-21 | 2019-10-02 | Panasonic Intellectual Property Management Co., Ltd. | Image processing device and image processing method |
WO2017042907A1 (ja) * | 2015-09-09 | 2017-03-16 | 三菱電機株式会社 | 航法装置および測量システム |
CN105260699B (zh) * | 2015-09-10 | 2018-06-26 | 百度在线网络技术(北京)有限公司 | 一种车道线数据的处理方法及装置 |
US9965719B2 (en) * | 2015-11-04 | 2018-05-08 | Nec Corporation | Subcategory-aware convolutional neural networks for object detection |
EP3495907A4 (en) * | 2016-08-03 | 2019-10-23 | SZ DJI Osmo Technology Co., Ltd. | METHOD AND SYSTEM FOR SUPPORT CONTROL |
US10304191B1 (en) * | 2016-10-11 | 2019-05-28 | Zoox, Inc. | Three dimensional bounding box estimation from two dimensional images |
JP6828428B2 (ja) * | 2016-12-27 | 2021-02-10 | 株式会社デンソー | 車両用衝突回避支援装置および車両の衝突回避支援方法 |
EP3343172B1 (en) | 2017-01-03 | 2024-03-13 | iOnRoad Technologies Ltd. | Creation and use of enhanced maps |
US10445928B2 (en) * | 2017-02-11 | 2019-10-15 | Vayavision Ltd. | Method and system for generating multidimensional maps of a scene using a plurality of sensors of various types |
US10796204B2 (en) * | 2017-02-27 | 2020-10-06 | Huawei Technologies Co., Ltd. | Planning system and method for controlling operation of an autonomous vehicle to navigate a planned path |
JP6613265B2 (ja) * | 2017-06-01 | 2019-11-27 | 本田技研工業株式会社 | 予測装置、車両、予測方法およびプログラム |
US10325373B2 (en) * | 2017-09-07 | 2019-06-18 | Here Global B.V. | Method, apparatus, and system for constructing a polygon from edges for object detection |
US10754339B2 (en) * | 2017-09-11 | 2020-08-25 | Baidu Usa Llc | Dynamic programming and quadratic programming based decision and planning for autonomous driving vehicles |
US10515321B2 (en) * | 2017-09-11 | 2019-12-24 | Baidu Usa Llc | Cost based path planning for autonomous driving vehicles |
US10331135B2 (en) * | 2017-11-22 | 2019-06-25 | GM Global Technology Operations LLC | Systems and methods for maneuvering around obstacles in autonomous vehicles |
US10816990B2 (en) * | 2017-12-21 | 2020-10-27 | Baidu Usa Llc | Non-blocking boundary for autonomous vehicle planning |
CN110057352B (zh) * | 2018-01-19 | 2021-07-16 | 北京图森智途科技有限公司 | 一种相机姿态角确定方法及装置 |
WO2020014683A1 (en) * | 2018-07-13 | 2020-01-16 | Kache.AI | Systems and methods for autonomous object detection and vehicle following |
KR102483649B1 (ko) * | 2018-10-16 | 2023-01-02 | 삼성전자주식회사 | 차량 위치 결정 방법 및 차량 위치 결정 장치 |
-
2018
- 2018-09-11 CN CN201811056854.6A patent/CN109345589A/zh active Pending
-
2019
- 2019-07-16 US US16/512,907 patent/US11170525B2/en active Active
- 2019-07-16 JP JP2019131144A patent/JP6782821B2/ja active Active
- 2019-07-18 EP EP19187119.3A patent/EP3614307A1/en not_active Withdrawn
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108450034A (zh) * | 2015-12-15 | 2018-08-24 | 本田技研工业株式会社 | 基于图像的车辆测位***及方法 |
CN105631880A (zh) * | 2015-12-31 | 2016-06-01 | 百度在线网络技术(北京)有限公司 | 车道线分割方法和装置 |
CN108009524A (zh) * | 2017-12-25 | 2018-05-08 | 西北工业大学 | 一种基于全卷积网络的车道线检测方法 |
CN108090456A (zh) * | 2017-12-27 | 2018-05-29 | 北京初速度科技有限公司 | 一种车道线识别方法及装置 |
CN108197619A (zh) * | 2017-12-27 | 2018-06-22 | 百度在线网络技术(北京)有限公司 | 一种基于招牌图像的定位方法、装置、设备和存储介质 |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111912416A (zh) * | 2019-05-07 | 2020-11-10 | 北京市商汤科技开发有限公司 | 用于设备定位的方法、装置及设备 |
CN110347043A (zh) * | 2019-07-15 | 2019-10-18 | 武汉天喻信息产业股份有限公司 | 一种智能驾驶控制方法及装置 |
CN110347043B (zh) * | 2019-07-15 | 2023-03-10 | 武汉天喻信息产业股份有限公司 | 一种智能驾驶控制方法及装置 |
CN111339834A (zh) * | 2020-02-04 | 2020-06-26 | 浙江大华技术股份有限公司 | 车辆行驶方向的识别方法、计算机设备及存储介质 |
CN111339834B (zh) * | 2020-02-04 | 2023-06-02 | 浙江大华技术股份有限公司 | 车辆行驶方向的识别方法、计算机设备及存储介质 |
CN111311675A (zh) * | 2020-02-11 | 2020-06-19 | 腾讯科技(深圳)有限公司 | 车辆定位方法、装置、设备和存储介质 |
CN111311675B (zh) * | 2020-02-11 | 2022-09-16 | 腾讯科技(深圳)有限公司 | 车辆定位方法、装置、设备和存储介质 |
CN111401194A (zh) * | 2020-03-10 | 2020-07-10 | 北京百度网讯科技有限公司 | 用于自动驾驶车辆的数据处理方法和装置 |
CN111401194B (zh) * | 2020-03-10 | 2023-09-22 | 北京百度网讯科技有限公司 | 用于自动驾驶车辆的数据处理方法和装置 |
CN113591843A (zh) * | 2021-07-12 | 2021-11-02 | 中国兵器工业计算机应用技术研究所 | 仿初级视觉皮层的目标检测方法、装置及设备 |
CN113591843B (zh) * | 2021-07-12 | 2024-04-09 | 中国兵器工业计算机应用技术研究所 | 仿初级视觉皮层的目标检测方法、装置及设备 |
Also Published As
Publication number | Publication date |
---|---|
EP3614307A1 (en) | 2020-02-26 |
US11170525B2 (en) | 2021-11-09 |
JP2020042015A (ja) | 2020-03-19 |
JP6782821B2 (ja) | 2020-11-11 |
US20190340783A1 (en) | 2019-11-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109345589A (zh) | 基于自动驾驶车辆的位置检测方法、装置、设备及介质 | |
EP3026636B1 (en) | Method and apparatus for generating personalized 3d face model | |
US20200357124A1 (en) | Method and apparatus for tracking object | |
KR20200021626A (ko) | 객체 검출 모델 트레이닝 장치 및 방법 | |
US10482656B2 (en) | 3D face modeling methods and apparatuses | |
US20110110557A1 (en) | Geo-locating an Object from Images or Videos | |
JP2016045946A5 (zh) | ||
JP6817384B2 (ja) | 自動運転車両の視覚感知方法、自動運転車両の視覚感知装置、制御機器及びコンピュータ読み取り可能な記憶媒体 | |
KR101957089B1 (ko) | 스테레오 정합을 위한 심층 자기유도 비용집계 방법 및 시스템 | |
US10255673B2 (en) | Apparatus and method for detecting object in image, and apparatus and method for computer-aided diagnosis | |
CN109446886A (zh) | 基于无人车的障碍物检测方法、装置、设备以及存储介质 | |
KR102137263B1 (ko) | 영상 처리 장치 및 방법 | |
CN108629799B (zh) | 一种实现增强现实的方法及设备 | |
CN107504917A (zh) | 一种三维尺寸测量方法及装置 | |
WO2019012632A1 (ja) | 認識処理装置、認識処理方法及びプログラム | |
CN105630155B (zh) | 用于提供三维(3d)交互的计算设备和方法 | |
CN114972689A (zh) | 执行增强现实姿态确定的方法和装置 | |
CN114794669A (zh) | 鞋面涂胶轨迹生成方法、***、计算机设备以及存储介质 | |
JP6770208B2 (ja) | 情報処理装置 | |
US20230091536A1 (en) | Camera Placement Guidance | |
JP6087218B2 (ja) | 画像解析装置 | |
US11694414B2 (en) | Method and apparatus for providing guide for combining pattern pieces of clothing | |
KR20150058882A (ko) | 관성 센서 및 광학 센서를 이용한 모션 캡쳐 장치 및 방법 | |
KR102389295B1 (ko) | 인스턴스 분할 기반 단일 실내 영상으로부터의 물체 크기 추정 방법 및 장치 | |
CN108534757B (zh) | 一种基于云端的视觉地图比例尺检测方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190215 |