CN111274343B - 一种车辆定位方法、装置、电子设备及存储介质 - Google Patents
一种车辆定位方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN111274343B CN111274343B CN202010067385.9A CN202010067385A CN111274343B CN 111274343 B CN111274343 B CN 111274343B CN 202010067385 A CN202010067385 A CN 202010067385A CN 111274343 B CN111274343 B CN 111274343B
- Authority
- CN
- China
- Prior art keywords
- current vehicle
- identification
- current
- vehicle
- identification element
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 47
- 230000007613 environmental effect Effects 0.000 claims description 27
- 238000005259 measurement Methods 0.000 claims description 22
- 238000013528 artificial neural network Methods 0.000 claims description 21
- 239000002245 particle Substances 0.000 claims description 20
- 230000015654 memory Effects 0.000 claims description 18
- 230000002776 aggregation Effects 0.000 claims description 5
- 238000004220 aggregation Methods 0.000 claims description 5
- 238000009331 sowing Methods 0.000 claims 2
- 238000005516 engineering process Methods 0.000 abstract description 4
- 230000000007 visual effect Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 9
- 230000008901 benefit Effects 0.000 description 7
- 230000009286 beneficial effect Effects 0.000 description 6
- 230000000452 restraining effect Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 238000004590 computer program Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 241000251468 Actinopterygii Species 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000004927 fusion Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000008447 perception Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000001914 filtration Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 241000283070 Equus zebra Species 0.000 description 1
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/29—Geographical information databases
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3602—Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/06—Automatic manoeuvring for parking
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/18—Propelling the vehicle
- B60W30/18009—Propelling the vehicle related to particular drive situations
- B60W30/18072—Coasting
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/10—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B62—LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
- B62D—MOTOR VEHICLES; TRAILERS
- B62D15/00—Steering not otherwise provided for
- B62D15/02—Steering position indicators ; Steering position determination; Steering aids
- B62D15/027—Parking aids, e.g. instruction means
- B62D15/0285—Parking performed automatically
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
- G01C21/1656—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
- G01C21/206—Instruments for performing navigational calculations specially adapted for indoor navigation
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3679—Retrieval, searching and output of POI information, e.g. hotels, restaurants, shops, filling stations, parking facilities
- G01C21/3685—Retrieval, searching and output of POI information, e.g. hotels, restaurants, shops, filling stations, parking facilities the POI's being parking facilities
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/24—Querying
- G06F16/245—Query processing
- G06F16/2457—Query processing with adaptation to user needs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/04—Context-preserving transformations, e.g. by using an importance map
- G06T3/047—Fisheye or wide-angle transformations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/168—Driving aids for parking, e.g. acoustic or visual feedback on parking space
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0002—Automatic control, details of type of controller or control system architecture
- B60W2050/0004—In digital systems, e.g. discrete-time systems involving sampling
- B60W2050/0005—Processor details or data handling, e.g. memory registers or chip architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2520/00—Input parameters relating to overall vehicle dynamics
- B60W2520/28—Wheel speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/40—High definition maps
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Y—INDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
- B60Y2300/00—Purposes or special features of road vehicle drive control systems
- B60Y2300/06—Automatic manoeuvring for parking
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Y—INDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
- B60Y2300/00—Purposes or special features of road vehicle drive control systems
- B60Y2300/18—Propelling the vehicle
- B60Y2300/18008—Propelling the vehicle related to particular drive situations
- B60Y2300/18066—Coasting
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Y—INDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
- B60Y2400/00—Special features of vehicle units
- B60Y2400/30—Sensors
- B60Y2400/303—Speed sensors
- B60Y2400/3032—Wheel speed sensors
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Automation & Control Theory (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- Multimedia (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Aviation & Aerospace Engineering (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Electromagnetism (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Medical Informatics (AREA)
- Navigation (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本申请公开了一种车辆定位方法、装置、电子设备及存储介质,涉及无人驾驶技术。具体实现方案为:获取当前车辆的标识元素和各个非标识元素;将所述当前车辆的标识元素与高精地图中的各个位置元素进行匹配,确定出所述当前车辆的初始化位置;使用所述高精地图中的至少一个位置元素对所述当前车辆的各个非标识元素进行观测约束,获取到所述当前车辆的各个非标识元素对应的位置元素;使用所述当前车辆的各个非标识元素对应的位置元素对所述当前车辆的初始化位置进行调整,得到所述当前车辆的目标位置。本申请实施例可以准确地确定出车辆的经纬度坐标,有效地提高定位精度。
Description
技术领域
本申请涉及智能汽车领域,进一步涉及无人驾驶技术,尤其是一种车辆定位方法、装置、电子设备及存储介质。
背景技术
环视视觉定位技术是指在将车辆车身周围的若干鱼眼图像,拼接成环视图像,并由深度神经网络模型将环视图像中的视觉定位元素,如车位编号、车位角点、车道线、地面交通指示信息(如地面箭头、斑马线等)检测出来,与事先建好的全局高精语义地图做数据关联及匹配,能为安装在车辆中的视觉惯性里程计提供有效观测,在车库等应用场景提升无人车定位的精度和出入库、巡航过程中的车辆定位精度。
自动泊车定位技术目前普遍采用如下方案来解决:1)基于鱼眼的无人车视觉元素定位方案:该方案需在车身上安装四只鱼眼传感器,包括前鱼眼传感器、左鱼眼传感器、后鱼眼传感器、右鱼眼传感器,通过四只鱼眼传感器收集车身四周的视觉元素,包括:车位、车道线、地面箭头等信息,通过去除畸变还原视觉元素的真实位置,然后以一定的频率将视觉元素发送到后端进行处理并定位车身位置。2)基于前广角的无人车视觉定位方案:该方案使用前广角摄像头,一般安装在车身前部,观测车身前方的视觉元素,可识别车位、车道线、地面箭头以及人工标记物等信息,再将视觉元素送入后端进行融合定位。3)基于视觉的环视局部定位方式:在无人车的辅助驾驶出入库中,经常采用的一种方案是将四只鱼眼图像拼接成一张环视图像后,然后从环视图像中识别视觉定位元素,该方法可以有效的去除畸变影响效果,提高精度,可以有效的获取车身与视觉定位元素的相对位置。
现有技术中的三种车辆定位方案均是通过获取车辆的定位元素对车辆进行定位,但是定位元素只能对车辆进行局部定位,无法对车辆进行全局定位,即:只能检测出车辆与周围物体的相对位置,而无法检测出车辆的经纬度坐标。
发明内容
有鉴于此,本申请提出实施例提供一种车辆定位方法、装置、电子设备及存储介质,可以准确地确定出车辆的经纬度坐标,有效地提高定位精度。
第一方面,本申请实施例提供了一种车辆定位方法,所述方法包括:
获取当前车辆的标识元素和各个非标识元素;
将所述当前车辆的标识元素与高精地图中的各个位置元素进行匹配,确定出所述当前车辆的初始化位置;
使用所述高精地图中的至少一个位置元素对所述当前车辆的各个非标识元素进行观测约束,获取到所述当前车辆的各个非标识元素对应的位置元素;
使用所述当前车辆的各个非标识元素对应的位置元素对所述当前车辆的初始化位置进行调整,得到所述当前车辆的目标位置。
上述实施例具有如下优点或有益效果:上述实施例可以通过将当前车辆的标识元素与高精地图中的各个位置元素进行匹配确定出当前车辆的初始化位置;然后使用当前车辆的各个非标识元素对应的位置元素对当前车辆的初始化位置进行调整,得到当前车辆的目标位置,从而达到准确地确定出车辆的经纬度坐标的目的。而现有技术中的三种车辆定位方案均是通过获取车辆的定位元素对车辆进行定位,但是定位元素只能对车辆进行局部定位,无法对车辆进行全局定位,即:只能检测出车辆与周围物体的相对位置,而无法检测出车辆的经纬度坐标。因为本申请采用了通过标识元素确定初始化位置以及通过非标识元素调整初始化位置的技术手段,克服了现有技术中只能对车辆进行局部定位,无法对车辆进行全局定位的技术问题,进而达到了准确地确定出车辆的经纬度坐标,有效地提高定位精度的技术效果。
在上述实施例中,所述获取当前车辆的标识元素和各个非标识元素,包括:
通过设置在所述当前车辆上的四个鱼眼传感器采集所述当前车辆在四个方向上的环境图像;其中,所述当前车辆上的四个鱼眼传感器分别设置在所述当前车辆的前、后、左、右四个方向上;
将各个鱼眼传感器采集到的所述当前车辆在四个方向上的环境图像拼接成一个环视鱼眼图像;
将所述环视鱼眼图像输入至深度神经网络中,通过所述深度神经网络输出所述当前车辆的标识元素和各个非标识元素。
上述实施例具有如下优点或有益效果:上述实施例可以通过四个鱼眼传感器采集到当前车辆在四个方向上的环境图像,通过将四个环境图像拼接成一个环视鱼眼图像,从而可以获取到当前车辆的标识元素和各个非标识元素。通过深度神经网络对环视鱼眼传感器进行识别,可以准确地获取到当前车辆的标识元素和各个非标识元素。
在上述实施例中,所述将所述当前车辆的标识元素与高精地图中的各个位置元素进行匹配,确定出所述当前车辆的初始化位置,包括:
根据所述当前车辆的标识元素在所述高精地图中确定出至少一个参考初始化位置;
计算所述当前车辆的标识元素与各个参考初始化位置的匹配度,将匹配度最高的参考初始化位置确定为所述当前车辆的初始化位置。
上述实施例具有如下优点或有益效果:上述实施例通过计算当前车辆的标识元素与各个参考初始化位置的匹配度,可以准确地确定出当前车辆的初始化位置。本申请可以使用任何类型的匹配度算法,这里不进行限制,在计算匹配度时无需人工参与,可以准确地得到匹配度最高的参考初始化位置,从而可以准确地确定出当前车辆的初始化位置。
在上述实施例中,所述使用所述高精地图中的至少一个位置元素对所述当前车辆的各个非标识元素进行观测约束,获取到所述当前车辆的各个非标识元素对应的位置元素,包括:
在所述当前车辆的各个非标识元素中选择一个非标识元素作为当前非标识元素,根据所述当前非标识元素在所述高精地图中确定出至少一个与其对应的位置元素;
若所述当前非标识元素为点元素且与其对应的位置元素为点原元素,将所述当前非标识元素和与其对应的位置元素进行点点观测约束,获取到所述当前非标识元素对应的位置元素;若所述当前非标识元素为线元素且其对应的位置元素为点原元素,或者,若所述当前非标识元素为点元素且其对应的位置元素为点线元素,将所述当前非标识元素和与其对应的位置元素进行点线观测约束,获取到所述当前非标识元素对应的位置元素;重复执行上述操作,直到获取到当前车辆的各个非标识元素对应的位置元素。
上述实施例具有如下优点或有益效果:上述实施例通过点点观测约束或者点线观测约束,可以准确地获取到当前车辆的各个非标识元素对应的位置元素,从而可以使用当前车辆的各个非标识元素对应的位置元素对当前车辆的初始化位置进行调整,得到当前车辆的目标位置。
在上述实施例中,所述方法还包括:
通过设置在所述当前车辆上的惯性测量单元传感器和轮速传感器分别采集所述当前车辆的惯性测量数据和轮速数据;
使用所述当前车辆的惯性测量数据和轮速数据对所述当前车辆的目标位置进行调整,得到所述当前车辆的最终位置。
上述实施例具有如下优点或有益效果:上述实施例还可以通过惯性测量单元传感器和轮速传感器采集到惯性测量数据和轮速数据,然后使用当前车辆的惯性测量数据和轮速数据对当前车辆的目标位置进行进一步调整,得到所述当前车辆的最终位置,这样可以提高当前车辆的最终位置的准确性。
第二方面,本申请还提供了一种车辆定位装置,所述装置包括:获取模块、确定模块、约束模块和调整模块;其中,
所述获取模块,用于获取当前车辆的标识元素和各个非标识元素;
所述确定模块,用于将所述当前车辆的标识元素与高精地图中的各个位置元素进行匹配,确定出所述当前车辆的初始化位置;
所述约束模块,用于使用所述高精地图中的至少一个位置元素对所述当前车辆的各个非标识元素进行观测约束,获取到所述当前车辆的各个非标识元素对应的位置元素;
所述调整模块,用于使用所述当前车辆的各个非标识元素对应的位置元素对所述当前车辆的初始化位置进行调整,得到所述当前车辆的目标位置。
在上述实施例中,所述获取模块包括:采集子模块和获取子模块;其中,
所述采集子模块,用于通过设置在所述当前车辆上的四个鱼眼传感器采集所述当前车辆在四个方向上的环境图像;其中,所述当前车辆上的四个鱼眼传感器分别设置在所述当前车辆的前、后、左、右四个方向上;
所述获取子模块,用于将各个鱼眼传感器采集到的所述当前车辆在四个方向上的环境图像拼接成一个环视鱼眼图像;将所述环视鱼眼图像输入至深度神经网络中,通过所述深度神经网络输出所述当前车辆的标识元素和各个非标识元素。
在上述实施例中,所述确定模块,具体用于根据所述当前车辆的标识元素在所述高精地图中确定出至少一个参考初始化位置;计算所述当前车辆的标识元素与各个参考初始化位置的匹配度,将匹配度最高的参考初始化位置确定为所述当前车辆的初始化位置。
在上述实施例中,所述约束模块包括:确定子模块和约束子模块;其中,
所述确定子模块,用于在所述当前车辆的各个非标识元素中选择一个非标识元素作为当前非标识元素,根据所述当前非标识元素在所述高精地图中确定出至少一个与其对应的位置元素;
所述约束子模块,用于若所述当前非标识元素为点元素且与其对应的位置元素为点原元素,将所述当前非标识元素和与其对应的位置元素进行点点观测约束,获取到所述当前非标识元素对应的位置元素;若所述当前非标识元素为线元素且其对应的位置元素为点原元素,或者,若所述当前非标识元素为点元素且其对应的位置元素为点线元素,将所述当前非标识元素和与其对应的位置元素进行点线观测约束,获取到所述当前非标识元素对应的位置元素;重复执行上述操作,直到获取到当前车辆的各个非标识元素对应的位置元素。
在上述实施例中,所述获取模块,还用于通过设置在所述当前车辆上的惯性测量单元传感器和轮速传感器分别采集所述当前车辆的惯性测量数据和轮速数据;
所述调整模块,还用于使用所述当前车辆的惯性测量数据和轮速数据对所述当前车辆的目标位置进行调整,得到所述当前车辆的最终位置。
第三方面,本申请实施例提供了一种电子设备,包括:
一个或多个处理器;
存储器,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现本申请任意实施例所述的车辆定位方法。
第四方面,本申请实施例提供了一种存储介质,其上存储有计算机程序,该程序被处理器执行时实现本申请任意实施例所述的车辆定位方法。
上述申请中的一个实施例具有如下优点或有益效果:本申请提出的车辆定位方法、装置、电子设备及存储介质,先获取当前车辆的标识元素和各个非标识元素;然后将当前车辆的标识元素与高精地图中的各个位置元素进行匹配,确定出当前车辆的初始化位置;再使用高精地图中的至少一个位置元素对当前车辆的各个非标识元素进行观测约束,获取到当前车辆的各个非标识元素对应的位置元素;使用当前车辆的各个非标识元素对应的位置元素对当前车辆的初始化位置进行调整,得到当前车辆的目标位置。也就是说,本申请可以通过将当前车辆的标识元素与高精地图中的各个位置元素进行匹配确定出当前车辆的初始化位置;然后使用当前车辆的各个非标识元素对应的位置元素对当前车辆的初始化位置进行调整,得到当前车辆的目标位置,从而达到准确地确定出车辆的经纬度坐标的目的。而现有技术中的三种车辆定位方案均是通过获取车辆的定位元素对车辆进行定位,但是定位元素只能对车辆进行局部定位,无法对车辆进行全局定位,即:只能检测出车辆与周围物体的相对位置,而无法检测出车辆的经纬度坐标。因为本申请采用了通过标识元素确定初始化位置以及通过非标识元素调整初始化位置的技术手段,克服了现有技术中只能对车辆进行局部定位,无法对车辆进行全局定位的技术问题,进而达到了准确地确定出车辆的经纬度坐标,有效地提高定位精度的技术效果;并且,本申请实施例的技术方案实现简单方便、便于普及,适用范围更广。
上述可选方式所具有的其他效果将在下文中结合具体实施例加以说明。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1是本申请实施例一提供的车辆定位方法的流程示意图;
图2是本申请实施例二提供的车辆定位方法的流程示意图;
图3为本申请实施例二提供的位置元素的关联示意图;
图4是本申请实施例三提供的车辆定位装置的结构示意图;
图5是本申请实施例三提供的获取模块的结构示意图;
图6是本申请实施例三提供的约束模块的结构示意图;
图7是用来实现本申请实施例的车辆定位方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
实施例一
图1是本申请实施例一提供的车辆定位方法的流程示意图,该方法可以由车辆定位装置或者电子设备来执行,该装置或者电子设备可以由软件和/或硬件的方式实现,该装置或者电子设备可以集成在任何具有网络通信功能的智能设备中。如图1所示,车辆定位方法可以包括以下步骤:
S101、获取当前车辆的标识元素和各个非标识元素。
在本申请的具体实施例中,电子设备可以获取当前车辆的标识元素和各个非标识元素。具体地,电子设备可以通过设置在当前车辆上的四个鱼眼传感器采集当前车辆在四个方向上的环境图像;其中,当前车辆上的四个鱼眼传感器分别设置在当前车辆的前、后、左、右四个方向上;将各个鱼眼传感器采集到的当前车辆在四个方向上的环境图像拼接成一个环视鱼眼图像;将环视鱼眼图像输入至深度神经网络中,通过深度神经网络输出当前车辆的标识元素和各个非标识元素。
较佳地,在本申请的具体实施例中,当前车辆的标识元素可以是:车位ID;当前车辆的非标识元素可以是:车位点、车位线、车道线、地面交通标志信息等信息。上述鱼眼传感器的镜头为超广角摄像头,可以拍摄当前车辆在前、后、左、右四个方向上一定视角范围内的环境信息。例如,安装在当前车辆的四个方向上的鱼眼传感器(简称:前向鱼眼传感器、后向鱼眼传感器、左侧鱼眼传感器和右侧鱼眼传感器)可以拍摄到当前车辆的车位ID以及在四个方向上的车位点、车位线、车道线、地面交通标志信息。本实施例中,前向鱼眼传感器、后向鱼眼传感器、左侧鱼眼传感器和右侧鱼眼传感器安装的具***置可以根据实际需要进行设置,在此不做进一步的限定。
S102、将当前车辆的标识元素与高精地图中的各个位置元素进行匹配,确定出当前车辆的初始化位置。
在本申请的具体实施例中,电子设备可以将当前车辆的标识元素与高精地图中的各个位置元素进行匹配,确定出当前车辆的初始化位置。具体地,电子设备可以先根据当前车辆的标识元素在高精地图中确定出至少一个参考初始化位置;然后计算当前车辆的标识元素与各个参考初始化位置的匹配度,将匹配度最高的参考初始化位置确定为当前车辆的初始化位置。
S103、使用高精地图中的至少一个位置元素对当前车辆的各个非标识元素进行观测约束,获取到当前车辆的各个非标识元素对应的位置元素。
在本申请的具体实施例中,电子设备可以使用高精地图中的至少一个位置元素对当前车辆的各个非标识元素进行观测约束,获取到当前车辆的各个非标识元素对应的位置元素。具体地,电子设备可以在当前车辆的各个非标识元素中选择一个非标识元素作为当前非标识元素,根据当前非标识元素在高精地图中确定出至少一个与其对应的位置元素;若当前非标识元素为点元素且与其对应的位置元素为点原元素,将当前非标识元素和与其对应的位置元素进行点点观测约束,获取到当前非标识元素对应的位置元素;若当前非标识元素为线元素且其对应的位置元素为点原元素,或者,若当前非标识元素为点元素且其对应的位置元素为点线元素,将当前非标识元素和与其对应的位置元素进行点线观测约束,获取到当前非标识元素对应的位置元素;重复执行上述操作,直到获取到当前车辆的各个非标识元素对应的位置元素。
S104、使用当前车辆的各个非标识元素对应的位置元素对当前车辆的初始化位置进行调整,得到当前车辆的目标位置。
在本申请的具体实施例中,电子设备可以使用当前车辆的各个非标识元素对应的位置元素对当前车辆的初始化位置进行调整,得到当前车辆的目标位置。
本申请实施例提出的车辆定位方法,先获取当前车辆的标识元素和各个非标识元素;然后将当前车辆的标识元素与高精地图中的各个位置元素进行匹配,确定出当前车辆的初始化位置;再使用高精地图中的至少一个位置元素对当前车辆的各个非标识元素进行观测约束,获取到当前车辆的各个非标识元素对应的位置元素;使用当前车辆的各个非标识元素对应的位置元素对当前车辆的初始化位置进行调整,得到当前车辆的目标位置。也就是说,本申请可以通过将当前车辆的标识元素与高精地图中的各个位置元素进行匹配确定出当前车辆的初始化位置;然后使用当前车辆的各个非标识元素对应的位置元素对当前车辆的初始化位置进行调整,得到当前车辆的目标位置,从而达到准确地确定出车辆的经纬度坐标的目的。而现有技术中的三种车辆定位方案均是通过获取车辆的定位元素对车辆进行定位,但是定位元素只能对车辆进行局部定位,无法对车辆进行全局定位,即:只能检测出车辆与周围物体的相对位置,而无法检测出车辆的经纬度坐标。因为本申请采用了通过标识元素确定初始化位置以及通过非标识元素调整初始化位置的技术手段,克服了现有技术中只能对车辆进行局部定位,无法对车辆进行全局定位的技术问题,进而达到了准确地确定出车辆的经纬度坐标,有效地提高定位精度的技术效果;并且,本申请实施例的技术方案实现简单方便、便于普及,适用范围更广。
实施例二
图2是本申请实施例二提供的车辆定位方法的流程示意图。如图2所示,车辆定位方法可以包括以下步骤:
S201、通过设置在当前车辆上的四个鱼眼传感器采集当前车辆在四个方向上的环境图像;其中,当前车辆上的四个鱼眼传感器分别设置在当前车辆的前、后、左、右四个方向上。
在本申请的具体实施例中,电子设备可以通过设置在当前车辆上的四个鱼眼传感器采集当前车辆在四个方向上的环境图像;其中,当前车辆上的四个鱼眼传感器分别设置在当前车辆的前、后、左、右四个方向上。
S202、将各个鱼眼传感器采集到的当前车辆在四个方向上的环境图像拼接成一个环视鱼眼图像。
在本申请的具体实施例中,电子设备可以将各个鱼眼传感器采集到的当前车辆在四个方向上的环境图像拼接成一个环视鱼眼图像。具体地,由于鱼眼传感器的最大拍摄范围为180°,则前向鱼眼传感器采集的环境图像和左侧鱼眼传感器以及右侧鱼眼传感器采集到的环境图像可以有重叠区域,后向眼传感器采集的环境图像和左侧鱼眼传感器以及右侧鱼眼传感器采集到的环境图像也可以有重叠区域;左侧眼传感器采集的环境图像和前向鱼眼传感器以及后向鱼眼传感器采集到的环境图像也可以有重叠区域;右侧眼传感器采集的环境图像和前向鱼眼传感器以及后向鱼眼传感器采集到的环境图像也可以有重叠区域,因此,电子设备可以根据四个鱼眼传感器采集到的四个环境图像之间的位置关系,对各个鱼眼传感器采集的各个环境图像进行拼接,获得这四张环境图像对应的环视鱼眼图像。
S203、将环视鱼眼图像输入至深度神经网络中,通过深度神经网络输出当前车辆的标识元素和各个非标识元素。
在本申请的具体实施例中,电子设备可以将环视鱼眼图像输入至深度神经网络中,通过深度神经网络输出当前车辆的标识元素和各个非标识元素。具体地,深度神经网络可以对环视鱼眼图像中的车位ID进行识别,输出当前车辆的车位ID;还可以对环视鱼眼图像中的车位点、车位线、车道线、地面交通标志信息等信息进行识别,输出当前车辆的车位点、车位线、车道线、地面交通标志信息等信息。
S204、根据当前车辆的标识元素在高精地图中确定出至少一个参考初始化位置。
在本申请的具体实施例中,电子设备可以根据当前车辆的标识元素在高精地图中确定出至少一个参考初始化位置。具体地,电子设备可以根据当前车辆的车位ID在高精地图中确定出一个参考位置区域,该参考位置区域可以是预先设定的规则形状;然后在该参考位置区域中确定出至少一个参考初始化位置;各个参考初始化位置可以反映出当前车辆所处的位姿的各种可能性。
S205、计算当前车辆的标识元素与各个参考初始化位置的匹配度,将匹配度最高的参考初始化位置确定为当前车辆的初始化位置。
在本申请的具体实施例中,电子设备可以计算当前车辆的标识元素与各个参考初始化位置的匹配度,将匹配度最高的参考初始化位置确定为当前车辆的初始化位置。具体地,电子设备可以将当前车辆的标识元素与各个参考初始化位置输入至深度神经网络中;通过该深度神经网络输出当前车辆的初始化位置;该初始化位置可以反映出当前车辆所处的位姿的最大可能性。
S206、使用高精地图中的至少一个位置元素对当前车辆的各个非标识元素进行观测约束,获取到当前车辆的各个非标识元素对应的位置元素。
在本申请的具体实施例中,电子设备可以使用高精地图中的至少一个位置元素对当前车辆的各个非标识元素进行观测约束,获取到当前车辆的各个非标识元素对应的位置元素。具体地,电子设备可以在当前车辆的各个非标识元素中选择一个非标识元素作为当前非标识元素,根据当前非标识元素在高精地图中确定出至少一个与其对应的位置元素;若当前非标识元素为点元素且与其对应的位置元素为点原元素,将当前非标识元素和与其对应的位置元素进行点点观测约束,获取到当前非标识元素对应的位置元素;若当前非标识元素为线元素且其对应的位置元素为点原元素,或者,若当前非标识元素为点元素且其对应的位置元素为点线元素,将当前非标识元素和与其对应的位置元素进行点线观测约束,获取到当前非标识元素对应的位置元素;重复执行上述操作,直到获取到当前车辆的各个非标识元素对应的位置元素。
图3为本申请实施例二提供的位置元素的关联示意图。如图3所示,假设通过前向鱼眼传感器、后向鱼眼传感器、左侧鱼眼传感器和右侧鱼眼传感器感知到的位置元素(这里的位置元素包括:当前车辆的标识元素和各个非标识元素)可以包括:位置元素A、位置元素B和位置元素C;假设高精地图中的位置元素可以包括:位置元素1、位置元素2、位置元素3、位置元素4和位置元素5;其中,位置元素A分别与位置元素1、位置元素2、位置元素3相连,表示位置元素A可能与位置元素1、位置元素2、位置元素3相关联;位置元素B分别与位置元素2、位置元素3、位置元素4相连,表示位置元素B可能与位置元素2、位置元素3、位置元素4相关联;位置元素C分别与位置元素3、位置元素4、位置元素5相连,表示位置元素C可能与位置元素3、位置元素4、位置元素5相关联。在本步骤中,电子设备可以计算位置元素A与位置元素1、位置元素2、位置元素3的关联参数;还可以计算位置元素B与位置元素2、位置元素3、位置元素4的关联参数;还可以计算位置元素C与位置元素3、位置元素4、位置元素5的关联参数;这里的关联参数包括但不限于:平均重叠面积比率、周长比率、3D位置距离。
S207、使用当前车辆的各个非标识元素对应的位置元素对当前车辆的初始化位置进行调整,得到当前车辆的目标位置。
在本申请的具体实施例中,电子设备可以使用当前车辆的各个非标识元素对应的位置元素对当前车辆的初始化位置进行调整,得到当前车辆的目标位置。例如,假设当前车辆的初始化为位置为(x,y,z),方向为:车头对准正北方向;但是前向鱼眼传感器感知到的车道线为偏向西30度角,在本步骤中,电子设备可以将当前车车辆的初始化位置的方向由对准正北方向调整为偏向西30度。
较佳地,在本申请的具体实施例中,电子设备还可以通过设置在当前车辆上的惯性测量单元传感器和轮速传感器分别采集当前车辆的惯性测量数据和轮速数据;然后使用当前车辆的惯性测量数据和轮速数据对当前车辆的目标位置进行调整,得到当前车辆的最终位置。
在本申请的具体实施例中,当前车辆上可以安装:环视感知模块、初始化定位模块、数据关联模块和多传感器融合模块;其中,环视感知模块:该模块对前、左、右、后四个鱼眼传感器,做硬件同步曝光,然后将四个鱼眼传感器采集到的环境图像拼接成环视鱼眼图像,然后送入深度神经网络,输出车位ID、车位点、车位线、车道线、地面交通标志信息等位置元素。初始化定位模块:该模块为当前车辆提供在高精地图中的初始化位姿,输入为感知识别到的标识元素和各个非标识元素以及高精地图,采用粒子滤波算法,首先在高精地图中的车位ID所在位置附近,随机播撒粒子(即当前车辆的非标识元素)不断更新粒子的权重,在粒子权重高的地方重新播撒粒子,如此循环得到权重最高粒子集聚区,即得到无人车的初始化定位。数据关联模块:该模块基于车身当前位姿与环视感知识别的非标识元素自然元素,将二者关联起来,为后端状态估计提供持续的观测,修正里程计误差。多传感器融合模块:该模块的输入为惯性测量单元传感器与轮速传感器以及高精地图的观测数据。多传感器融合模块的作用是根据不同的输入源,估计出最准确、最可靠的当前车身位姿。具体来说,本申请可以根据无人车平台的硬件算力情况,灵活采用基于多状态约束的卡尔曼滤波算法和基于最小二乘估计的优化算法。
本申请实施例提出的车辆定位方法,先获取当前车辆的标识元素和各个非标识元素;然后将当前车辆的标识元素与高精地图中的各个位置元素进行匹配,确定出当前车辆的初始化位置;再使用高精地图中的至少一个位置元素对当前车辆的各个非标识元素进行观测约束,获取到当前车辆的各个非标识元素对应的位置元素;使用当前车辆的各个非标识元素对应的位置元素对当前车辆的初始化位置进行调整,得到当前车辆的目标位置。也就是说,本申请可以通过将当前车辆的标识元素与高精地图中的各个位置元素进行匹配确定出当前车辆的初始化位置;然后使用当前车辆的各个非标识元素对应的位置元素对当前车辆的初始化位置进行调整,得到当前车辆的目标位置,从而达到准确地确定出车辆的经纬度坐标的目的。而现有技术中的三种车辆定位方案均是通过获取车辆的定位元素对车辆进行定位,但是定位元素只能对车辆进行局部定位,无法对车辆进行全局定位,即:只能检测出车辆与周围物体的相对位置,而无法检测出车辆的经纬度坐标。因为本申请采用了通过标识元素确定初始化位置以及通过非标识元素调整初始化位置的技术手段,克服了现有技术中只能对车辆进行局部定位,无法对车辆进行全局定位的技术问题,进而达到了准确地确定出车辆的经纬度坐标,有效地提高定位精度的技术效果;并且,本申请实施例的技术方案实现简单方便、便于普及,适用范围更广。
实施例三
图4是本申请实施例三提供的车辆定位装置的结构示意图。如图4所示,所述装置400包括:获取模块401、确定模块402、约束模块403和调整模块404;其中,
所述获取模块401,用于获取当前车辆的标识元素和各个非标识元素;
所述确定模块402,用于将所述当前车辆的标识元素与高精地图中的各个位置元素进行匹配,确定出所述当前车辆的初始化位置;
所述约束模块403,用于使用所述高精地图中的至少一个位置元素对所述当前车辆的各个非标识元素进行观测约束,获取到所述当前车辆的各个非标识元素对应的位置元素;
所述调整模块404,用于使用所述当前车辆的各个非标识元素对应的位置元素对所述当前车辆的初始化位置进行调整,得到所述当前车辆的目标位置。
图5是本申请实施例三提供的获取模块的结构示意图。如图5所示,所述获取模块401包括:采集子模块4011和获取子模块4012;其中,
所述采集子模块4011,用于通过设置在所述当前车辆上的四个鱼眼传感器采集所述当前车辆在四个方向上的环境图像;其中,所述当前车辆上的四个鱼眼传感器分别设置在所述当前车辆的前、后、左、右四个方向上;
所述获取子模块4012,用于将各个鱼眼传感器采集到的所述当前车辆在四个方向上的环境图像拼接成一个环视鱼眼图像;将所述环视鱼眼图像输入至深度神经网络中,通过所述深度神经网络输出所述当前车辆的标识元素和各个非标识元素。
进一步的,所述确定模块402,具体用于根据所述当前车辆的标识元素在所述高精地图中确定出至少一个参考初始化位置;计算所述当前车辆的标识元素与各个参考初始化位置的匹配度,将匹配度最高的参考初始化位置确定为所述当前车辆的初始化位置。
图6是本申请实施例三提供的约束模块的结构示意图。如图6所示,所述约束模块403包括:确定子模块4031和约束子模块4032;其中,
所述确定子模块4031,用于在所述当前车辆的各个非标识元素中选择一个非标识元素作为当前非标识元素,根据所述当前非标识元素在所述高精地图中确定出至少一个与其对应的位置元素;
所述约束子模块4032,用于若所述当前非标识元素为点元素且与其对应的位置元素为点原元素,将所述当前非标识元素和与其对应的位置元素进行点点观测约束,获取到所述当前非标识元素对应的位置元素;若所述当前非标识元素为线元素且其对应的位置元素为点原元素,或者,若所述当前非标识元素为点元素且其对应的位置元素为点线元素,将所述当前非标识元素和与其对应的位置元素进行点线观测约束,获取到所述当前非标识元素对应的位置元素;重复执行上述操作,直到获取到当前车辆的各个非标识元素对应的位置元素。
进一步的,所述获取模块401,还用于通过设置在所述当前车辆上的惯性测量单元传感器和轮速传感器分别采集所述当前车辆的惯性测量数据和轮速数据;
所述调整模块404,还用于使用所述当前车辆的惯性测量数据和轮速数据对所述当前车辆的目标位置进行调整,得到所述当前车辆的最终位置。
上述车辆定位装置可执行本申请任意实施例所提供的方法,具备执行方法相应的功能模块和有益效果。未在本实施例中详尽描述的技术细节,可参见本申请任意实施例提供的车辆定位方法。
实施例四
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
如图7所示,是根据本申请实施例的车辆定位方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图7所示,该电子设备包括:一个或多个处理器701、存储器702,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器***)。图7中以一个处理器701为例。
存储器702即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的车辆定位方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的车辆定位方法。
存储器702作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的车辆定位方法对应的程序指令/模块(例如,附图4所示的获取模块401、确定模块402、约束模块403和调整模块404)。处理器701通过运行存储在存储器702中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的车辆定位方法。
存储器702可以包括存储程序区和存储数据区,其中,存储程序区可存储操作***、至少一个功能所需要的应用程序;存储数据区可存储根据车辆定位方法的电子设备的使用所创建的数据等。此外,存储器702可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器702可选包括相对于处理器701远程设置的存储器,这些远程存储器可以通过网络连接至车辆定位方法的电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
车辆定位方法的电子设备还可以包括:输入装置703和输出装置704。处理器701、存储器702、输入装置703和输出装置704可以通过总线或者其他方式连接,图7中以通过总线连接为例。
输入装置703可接收输入的数字或字符信息,以及产生与车辆定位方法的电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置704可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的***和技术的各种实施方式可以在数字电子电路***、集成电路***、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程***上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储***、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储***、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的***和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的***和技术实施在包括后台部件的计算***(例如,作为数据服务器)、或者包括中间件部件的计算***(例如,应用服务器)、或者包括前端部件的计算***(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的***和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算***中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将***的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)、互联网和区块链网络。
计算机***可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
根据本申请实施例的技术方案,先获取当前车辆的标识元素和各个非标识元素;然后将当前车辆的标识元素与高精地图中的各个位置元素进行匹配,确定出当前车辆的初始化位置;再使用高精地图中的至少一个位置元素对当前车辆的各个非标识元素进行观测约束,获取到当前车辆的各个非标识元素对应的位置元素;使用当前车辆的各个非标识元素对应的位置元素对当前车辆的初始化位置进行调整,得到当前车辆的目标位置。也就是说,本申请可以通过将当前车辆的标识元素与高精地图中的各个位置元素进行匹配确定出当前车辆的初始化位置;然后使用当前车辆的各个非标识元素对应的位置元素对当前车辆的初始化位置进行调整,得到当前车辆的目标位置,从而达到准确地确定出车辆的经纬度坐标的目的。而现有技术中的三种车辆定位方案均是通过获取车辆的定位元素对车辆进行定位,但是定位元素只能对车辆进行局部定位,无法对车辆进行全局定位,即:只能检测出车辆与周围物体的相对位置,而无法检测出车辆的经纬度坐标。因为本申请采用了通过标识元素确定初始化位置以及通过非标识元素调整初始化位置的技术手段,克服了现有技术中只能对车辆进行局部定位,无法对车辆进行全局定位的技术问题,进而达到了准确地确定出车辆的经纬度坐标,有效地提高定位精度的技术效果;并且,本申请实施例的技术方案实现简单方便、便于普及,适用范围更广。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。
Claims (10)
1.一种车辆定位方法,其特征在于,所述方法包括:
获取当前车辆的标识元素和各个非标识元素;其中,当前车辆的标识元素包括车位ID;当前车辆的非标识元素包括车位点、车位线、车道线以及地面交通标志信息;
将所述当前车辆的标识元素与高精地图中的各个位置元素进行匹配,确定出所述当前车辆的初始化位置;
使用所述高精地图中的至少一个位置元素对所述当前车辆的各个非标识元素进行观测约束,获取到所述当前车辆的各个非标识元素对应的位置元素;
使用所述当前车辆的各个非标识元素对应的位置元素对所述当前车辆的初始化位置进行调整,得到所述当前车辆的目标位置;
其中,所述将所述当前车辆的标识元素与高精地图中的各个位置元素进行匹配,确定出所述当前车辆的初始化位置,包括:
根据所述当前车辆的标识元素在所述高精地图中确定出至少一个参考初始化位置;参考初始化位置反映出当前车辆所处位姿的各种可能性;计算所述当前车辆的标识元素与各个参考初始化位置的匹配度,将匹配度最高的参考初始化位置确定为所述当前车辆的初始化位置;初始化位置反映出当前车辆所处的位姿的最大可能性;
或,在高精地图中的标识元素所在位置附近,随机播撒粒子不断更新粒子的权重;在粒子权重高的地方重新播撒粒子,得到权重最高粒子集聚区,确定为当前车辆的初始化位置;所述粒子用于表征当前车辆的非标识元素;
其中,所述使用所述当前车辆的各个非标识元素对应的位置元素对所述当前车辆的初始化位置进行调整,得到所述当前车辆的目标位置,包括:
确定非标识元素对应的位置元素与高精地图中的初始化位置元素间的关联参数;依据所述关联参数,使用当前车辆的各个非标识元素对应的位置元素对当前车辆的初始化位置进行调整,得到当前车辆的目标位置;其中,所述关联参数包括平均重叠面积比率、周长比率以及3D位置距离。
2.根据权利要求1所述的方法,其特征在于,所述获取当前车辆的标识元素和各个非标识元素,包括:
通过设置在所述当前车辆上的四个鱼眼传感器采集所述当前车辆在四个方向上的环境图像;其中,所述当前车辆上的四个鱼眼传感器分别设置在所述当前车辆的前、后、左、右四个方向上;
将各个鱼眼传感器采集到的所述当前车辆在四个方向上的环境图像拼接成一个环视鱼眼图像;
将所述环视鱼眼图像输入至深度神经网络中,通过所述深度神经网络输出所述当前车辆的标识元素和各个非标识元素。
3.根据权利要求1所述的方法,其特征在于,所述使用所述高精地图中的至少一个位置元素对所述当前车辆的各个非标识元素进行观测约束,获取到所述当前车辆的各个非标识元素对应的位置元素,包括:
在所述当前车辆的各个非标识元素中选择一个非标识元素作为当前非标识元素,根据所述当前非标识元素在所述高精地图中确定出至少一个与其对应的位置元素;
若所述当前非标识元素为点元素且与其对应的位置元素为点原元素,将所述当前非标识元素和与其对应的位置元素进行点点观测约束,获取到所述当前非标识元素对应的位置元素;若所述当前非标识元素为线元素且其对应的位置元素为点原元素,或者,若所述当前非标识元素为点元素且其对应的位置元素为点线元素,将所述当前非标识元素和与其对应的位置元素进行点线观测约束,获取到所述当前非标识元素对应的位置元素;重复执行上述操作,直到获取到当前车辆的各个非标识元素对应的位置元素。
4.根据权利要求1所述的方法,其特征在于,所述方法还包括:
通过设置在所述当前车辆上的惯性测量单元传感器和轮速传感器分别采集所述当前车辆的惯性测量数据和轮速数据;
使用所述当前车辆的惯性测量数据和轮速数据对所述当前车辆的目标位置进行调整,得到所述当前车辆的最终位置。
5.一种车辆定位装置,其特征在于,所述装置包括:获取模块、确定模块、约束模块和调整模块;其中,
所述获取模块,用于获取当前车辆的标识元素和各个非标识元素;其中,当前车辆的标识元素包括车位ID;当前车辆的非标识元素包括车位点、车位线、车道线以及地面交通标志信息;
所述确定模块,用于将所述当前车辆的标识元素与高精地图中的各个位置元素进行匹配,确定出所述当前车辆的初始化位置;
所述约束模块,用于使用所述高精地图中的至少一个位置元素对所述当前车辆的各个非标识元素进行观测约束,获取到所述当前车辆的各个非标识元素对应的位置元素;
所述调整模块,用于使用所述当前车辆的各个非标识元素对应的位置元素对所述当前车辆的初始化位置进行调整,得到所述当前车辆的目标位置;
其中,所述确定模块,具体用于根据所述当前车辆的标识元素在所述高精地图中确定出至少一个参考初始化位置;参考初始化位置反映出当前车辆所处位姿的各种可能性;计算所述当前车辆的标识元素与各个参考初始化位置的匹配度,将匹配度最高的参考初始化位置确定为所述当前车辆的初始化位置;初始化位置反映出当前车辆所处的位姿的最大可能性;
或,在高精地图中的标识元素所在位置附近,随机播撒粒子不断更新粒子的权重;在粒子权重高的地方重新播撒粒子,得到权重最高粒子集聚区,确定为当前车辆的初始化位置;所述粒子用于表征当前车辆的非标识元素;
其中,所述调整模块,具体用于确定非标识元素对应的位置元素与高精地图中的初始化位置元素间的关联参数;依据所述关联参数,使用当前车辆的各个非标识元素对应的位置元素对当前车辆的初始化位置进行调整,得到当前车辆的目标位置;其中,所述关联参数包括平均重叠面积比率、周长比率以及3D位置距离。
6.根据权利要求5所述的装置,其特征在于,所述获取模块包括:采集子模块和获取子模块;其中,
所述采集子模块,用于通过设置在所述当前车辆上的四个鱼眼传感器采集所述当前车辆在四个方向上的环境图像;其中,所述当前车辆上的四个鱼眼传感器分别设置在所述当前车辆的前、后、左、右四个方向上;
所述获取子模块,用于将各个鱼眼传感器采集到的所述当前车辆在四个方向上的环境图像拼接成一个环视鱼眼图像;将所述环视鱼眼图像输入至深度神经网络中,通过所述深度神经网络输出所述当前车辆的标识元素和各个非标识元素。
7.根据权利要求5所述的装置,其特征在于,所述约束模块包括:确定子模块和约束子模块;其中,
所述确定子模块,用于在所述当前车辆的各个非标识元素中选择一个非标识元素作为当前非标识元素,根据所述当前非标识元素在所述高精地图中确定出至少一个与其对应的位置元素;
所述约束子模块,用于若所述当前非标识元素为点元素且与其对应的位置元素为点原元素,将所述当前非标识元素和与其对应的位置元素进行点点观测约束,获取到所述当前非标识元素对应的位置元素;若所述当前非标识元素为线元素且其对应的位置元素为点原元素,或者,若所述当前非标识元素为点元素且其对应的位置元素为点线元素,将所述当前非标识元素和与其对应的位置元素进行点线观测约束,获取到所述当前非标识元素对应的位置元素;重复执行上述操作,直到获取到当前车辆的各个非标识元素对应的位置元素。
8.根据权利要求5所述的装置,其特征在于,所述获取模块,还用于通过设置在所述当前车辆上的惯性测量单元传感器和轮速传感器分别采集所述当前车辆的惯性测量数据和轮速数据;
所述调整模块,还用于使用所述当前车辆的惯性测量数据和轮速数据对所述当前车辆的目标位置进行调整,得到所述当前车辆的最终位置。
9.一种电子设备,其特征在于,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-4中任一项所述的方法。
10.一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使所述计算机执行权利要求1-4中任一项所述的方法。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010067385.9A CN111274343B (zh) | 2020-01-20 | 2020-01-20 | 一种车辆定位方法、装置、电子设备及存储介质 |
US17/018,153 US11586218B2 (en) | 2020-01-20 | 2020-09-11 | Method and apparatus for positioning vehicle, electronic device and storage medium |
EP20196108.3A EP3851802A1 (en) | 2020-01-20 | 2020-09-15 | Method and apparatus for positioning vehicle, electronic device and storage medium |
KR1020200122451A KR102382420B1 (ko) | 2020-01-20 | 2020-09-22 | 차량 위치 결정 방법, 전자 기기 및 저장 매체 |
JP2020160121A JP7240367B2 (ja) | 2020-01-20 | 2020-09-24 | 車両の位置特定に用いられる方法、装置、電子デバイス及び記憶媒体 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010067385.9A CN111274343B (zh) | 2020-01-20 | 2020-01-20 | 一种车辆定位方法、装置、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111274343A CN111274343A (zh) | 2020-06-12 |
CN111274343B true CN111274343B (zh) | 2023-11-24 |
Family
ID=70996863
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010067385.9A Active CN111274343B (zh) | 2020-01-20 | 2020-01-20 | 一种车辆定位方法、装置、电子设备及存储介质 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11586218B2 (zh) |
EP (1) | EP3851802A1 (zh) |
JP (1) | JP7240367B2 (zh) |
KR (1) | KR102382420B1 (zh) |
CN (1) | CN111274343B (zh) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111274974B (zh) * | 2020-01-21 | 2023-09-01 | 阿波罗智能技术(北京)有限公司 | 定位元素检测方法、装置、设备和介质 |
JP7191065B2 (ja) | 2020-07-06 | 2022-12-16 | 本田技研工業株式会社 | 処理装置、処理方法、およびプログラム |
CN112068172A (zh) * | 2020-09-08 | 2020-12-11 | 广州小鹏自动驾驶科技有限公司 | 一种车辆的定位方法和装置 |
CN112184818B (zh) * | 2020-10-09 | 2022-06-10 | 重庆邮电大学 | 基于视觉的车辆定位方法及应用其方法的停车场管理*** |
CN112419739A (zh) * | 2020-11-18 | 2021-02-26 | 联通智网科技有限公司 | 车辆定位方法、装置和电子设备 |
DE102021204030A1 (de) * | 2021-04-22 | 2022-10-27 | Continental Autonomous Mobility Germany GmbH | Detektion von einzelnen freien markierten Zielflächen aus Bildern eines Kamerasystems einer Bewegungsvorrichtung |
EP4356214A1 (en) * | 2021-06-17 | 2024-04-24 | The Toro Company | Autonomous work vehicle using image-based localization |
CN113515126B (zh) * | 2021-07-12 | 2024-05-10 | 北京经纬恒润科技股份有限公司 | 一种车辆定位方法及装置 |
CN113515536B (zh) * | 2021-07-13 | 2022-12-13 | 北京百度网讯科技有限公司 | 地图的更新方法、装置、设备、服务器以及存储介质 |
CN113946151A (zh) * | 2021-10-20 | 2022-01-18 | 北京百度网讯科技有限公司 | 针对自动驾驶车辆的数据处理方法、装置和自动驾驶车辆 |
CN113984072B (zh) * | 2021-10-28 | 2024-05-17 | 阿波罗智能技术(北京)有限公司 | 车辆定位方法、装置、设备、存储介质及自动驾驶车辆 |
CN114111817B (zh) * | 2021-11-22 | 2023-10-13 | 武汉中海庭数据技术有限公司 | 基于slam地图与高精度地图匹配的车辆定位方法及*** |
CN114526722B (zh) * | 2021-12-31 | 2024-05-24 | 易图通科技(北京)有限公司 | 地图对齐处理方法、装置及可读存储介质 |
CN114419590B (zh) * | 2022-01-17 | 2024-03-19 | 北京百度网讯科技有限公司 | 高精地图的验证方法、装置、设备以及存储介质 |
CN114860976B (zh) * | 2022-04-29 | 2023-05-05 | 长沙公交智慧大数据科技有限公司 | 一种基于大数据的图像数据查询方法和*** |
CN117934598B (zh) * | 2024-03-21 | 2024-06-11 | 浙江大学 | 一种基于光学定位技术的桌面级刚体定位设备及方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105637321A (zh) * | 2014-02-15 | 2016-06-01 | 奥迪股份公司 | 用于求得移动单元的绝对位置的方法和移动单元 |
CN107063258A (zh) * | 2017-03-07 | 2017-08-18 | 重庆邮电大学 | 一种基于语义信息的移动机器人室内导航方法 |
CN108332752A (zh) * | 2018-01-09 | 2018-07-27 | 深圳市沃特沃德股份有限公司 | 机器人室内定位的方法及装置 |
CN109720340A (zh) * | 2018-09-17 | 2019-05-07 | 魔门塔(苏州)科技有限公司 | 一种基于视觉识别的自动泊车***及方法 |
CN110411462A (zh) * | 2019-07-22 | 2019-11-05 | 武汉大学 | 一种gnss/惯性/车道线约束/里程计多源融合方法 |
CN110412635A (zh) * | 2019-07-22 | 2019-11-05 | 武汉大学 | 一种环境信标支持下的gnss/sins/视觉紧组合方法 |
CN110440819A (zh) * | 2018-05-04 | 2019-11-12 | 沈阳美行科技有限公司 | 导航方法、装置和*** |
CN110595459A (zh) * | 2019-09-18 | 2019-12-20 | 百度在线网络技术(北京)有限公司 | 车辆定位方法、装置、设备和介质 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0579848A (ja) | 1991-09-19 | 1993-03-30 | Fujitsu Ltd | 車両位置計測装置及び車両運転者支援装置 |
JP2007263385A (ja) | 2006-03-27 | 2007-10-11 | Kurita Water Ind Ltd | ボイラ給水処理装置、ボイラ装置及びボイラ給水処理装置の運転方法 |
JP4935145B2 (ja) | 2006-03-29 | 2012-05-23 | 株式会社デンソー | カーナビゲーション装置 |
JP6606049B2 (ja) | 2015-10-28 | 2019-11-13 | 本田技研工業株式会社 | 自動運転システム及びナビケーションシステム |
WO2018031678A1 (en) | 2016-08-09 | 2018-02-15 | Nauto Global Limited | System and method for precision localization and mapping |
US10474164B2 (en) | 2016-12-30 | 2019-11-12 | DeepMap Inc. | Representing navigable surface boundaries of lanes in high definition maps for autonomous vehicles |
US10794711B2 (en) * | 2016-12-30 | 2020-10-06 | DeepMap Inc. | High definition map updates based on sensor data collected by autonomous vehicles |
WO2019104188A1 (en) | 2017-11-22 | 2019-05-31 | DeepMap Inc. | Improving accuracy of global navigation satellite system based positioning using high definition map based localization |
US10928207B2 (en) | 2018-03-02 | 2021-02-23 | DeepMap Inc. | Camera based localization for autonomous vehicles |
US10726567B2 (en) * | 2018-05-03 | 2020-07-28 | Zoox, Inc. | Associating LIDAR data and image data |
US11003945B2 (en) * | 2019-05-22 | 2021-05-11 | Zoox, Inc. | Localization using semantically segmented images |
KR20190089791A (ko) | 2019-07-11 | 2019-07-31 | 엘지전자 주식회사 | 삼차원 어라운드 뷰 제공 장치 및 방법 |
CN111649739B (zh) | 2020-06-02 | 2023-09-01 | 阿波罗智能技术(北京)有限公司 | 定位方法和装置、自动驾驶车辆、电子设备和存储介质 |
-
2020
- 2020-01-20 CN CN202010067385.9A patent/CN111274343B/zh active Active
- 2020-09-11 US US17/018,153 patent/US11586218B2/en active Active
- 2020-09-15 EP EP20196108.3A patent/EP3851802A1/en not_active Ceased
- 2020-09-22 KR KR1020200122451A patent/KR102382420B1/ko active IP Right Grant
- 2020-09-24 JP JP2020160121A patent/JP7240367B2/ja active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105637321A (zh) * | 2014-02-15 | 2016-06-01 | 奥迪股份公司 | 用于求得移动单元的绝对位置的方法和移动单元 |
US9587948B2 (en) * | 2014-02-15 | 2017-03-07 | Audi Ag | Method for determining the absolute position of a mobile unit, and mobile unit |
CN107063258A (zh) * | 2017-03-07 | 2017-08-18 | 重庆邮电大学 | 一种基于语义信息的移动机器人室内导航方法 |
CN108332752A (zh) * | 2018-01-09 | 2018-07-27 | 深圳市沃特沃德股份有限公司 | 机器人室内定位的方法及装置 |
CN110440819A (zh) * | 2018-05-04 | 2019-11-12 | 沈阳美行科技有限公司 | 导航方法、装置和*** |
CN109720340A (zh) * | 2018-09-17 | 2019-05-07 | 魔门塔(苏州)科技有限公司 | 一种基于视觉识别的自动泊车***及方法 |
CN110411462A (zh) * | 2019-07-22 | 2019-11-05 | 武汉大学 | 一种gnss/惯性/车道线约束/里程计多源融合方法 |
CN110412635A (zh) * | 2019-07-22 | 2019-11-05 | 武汉大学 | 一种环境信标支持下的gnss/sins/视觉紧组合方法 |
CN110595459A (zh) * | 2019-09-18 | 2019-12-20 | 百度在线网络技术(北京)有限公司 | 车辆定位方法、装置、设备和介质 |
Non-Patent Citations (1)
Title |
---|
基于形态学结构元素建模的车道线检测算法;雷涛;樊养余;王小鹏;王履程;;计算机应用(第02期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
KR20210094450A (ko) | 2021-07-29 |
US20210223789A1 (en) | 2021-07-22 |
KR102382420B1 (ko) | 2022-04-06 |
JP7240367B2 (ja) | 2023-03-15 |
JP2021120844A (ja) | 2021-08-19 |
EP3851802A1 (en) | 2021-07-21 |
CN111274343A (zh) | 2020-06-12 |
US11586218B2 (en) | 2023-02-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111274343B (zh) | 一种车辆定位方法、装置、电子设备及存储介质 | |
CN111401208B (zh) | 一种障碍物检测方法、装置、电子设备及存储介质 | |
CN111220154A (zh) | 车辆定位方法、装置、设备和介质 | |
CN111274974B (zh) | 定位元素检测方法、装置、设备和介质 | |
CN111649739B (zh) | 定位方法和装置、自动驾驶车辆、电子设备和存储介质 | |
CN110246182B (zh) | 基于视觉的全局地图定位方法、装置、存储介质和设备 | |
CN107478220B (zh) | 无人机室内导航方法、装置、无人机及存储介质 | |
CN110793544B (zh) | 路侧感知传感器参数标定方法、装置、设备及存储介质 | |
CN112132829A (zh) | 车辆信息的检测方法、装置、电子设备和存储介质 | |
CN111612852B (zh) | 用于验证相机参数的方法和装置 | |
JP7422105B2 (ja) | 路側計算装置に用いる障害物3次元位置の取得方法、装置、電子デバイス、コンピュータ可読記憶媒体、及びコンピュータプログラム | |
CN111324945B (zh) | 传感器方案确定方法、装置、设备及存储介质 | |
CN112101209B (zh) | 用于路侧计算设备的确定世界坐标点云的方法和装置 | |
CN112652016A (zh) | 点云预测模型的生成方法、位姿估计方法及其装置 | |
EP3852065A1 (en) | Data processing method and apparatus | |
CN110794844B (zh) | 自动驾驶方法、装置、电子设备及可读存储介质 | |
CN111721281B (zh) | 位置识别方法、装置和电子设备 | |
CN112344855B (zh) | 障碍物的检测方法、装置、存储介质和路测设备 | |
CN112288825A (zh) | 相机标定方法、装置、电子设备、存储介质和路侧设备 | |
CN112700486B (zh) | 对图像中路面车道线的深度进行估计的方法及装置 | |
CN112668428A (zh) | 车辆变道的检测方法、路侧设备、云控平台和程序产品 | |
CN112487979A (zh) | 目标检测方法和模型训练方法、装置、电子设备和介质 | |
CN111767843B (zh) | 三维位置预测方法、装置、设备以及存储介质 | |
CN115272452A (zh) | 一种目标检测定位方法、装置、无人机及存储介质 | |
CN111783611B (zh) | 无人车的定位方法、装置、无人车及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20211018 Address after: 105 / F, building 1, No. 10, Shangdi 10th Street, Haidian District, Beijing 100085 Applicant after: Apollo Intelligent Technology (Beijing) Co.,Ltd. Address before: 2 / F, *** building, 10 Shangdi 10th Street, Haidian District, Beijing 100085 Applicant before: BEIJING BAIDU NETCOM SCIENCE AND TECHNOLOGY Co.,Ltd. |
|
GR01 | Patent grant | ||
GR01 | Patent grant |