CN110969055B - 用于车辆定位的方法、装置、设备和计算机可读存储介质 - Google Patents
用于车辆定位的方法、装置、设备和计算机可读存储介质 Download PDFInfo
- Publication number
- CN110969055B CN110969055B CN201811151044.9A CN201811151044A CN110969055B CN 110969055 B CN110969055 B CN 110969055B CN 201811151044 A CN201811151044 A CN 201811151044A CN 110969055 B CN110969055 B CN 110969055B
- Authority
- CN
- China
- Prior art keywords
- vehicle
- edge
- edge information
- sensing device
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 38
- 238000006243 chemical reaction Methods 0.000 claims description 11
- 239000011159 matrix material Substances 0.000 claims description 10
- 238000000605 extraction Methods 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 5
- 230000005540 biological transmission Effects 0.000 claims description 2
- 230000009466 transformation Effects 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 11
- 230000008569 process Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/584—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/653—Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/02—Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
- G01S13/06—Systems determining position data of a target
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/752—Contour matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/54—Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/62—Text, e.g. of license plates, overlay texts or captions on TV images
- G06V20/625—License plates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Electromagnetism (AREA)
- Computer Networks & Wireless Communication (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
- Navigation (AREA)
Abstract
根据本公开的实施例,提供了用于车辆定位的方法、装置、设备和计算机可读存储介质。该方法包括从感测设备所获取的与车辆相关的图像中确定车辆的第一边缘信息;确定与车辆相对应的轮廓模型;从与轮廓模型相关联的边缘信息集合中确定与第一边缘信息相匹配的第二边缘信息,边缘信息集合中的各边缘信息与轮廓模型相对于所述感测设备的不同位置相对应;以及基于与第二边缘信息相对应的位置,确定车辆相对于感测设备的位置。由感测设备基于二维图像与轮廓模型的匹配,可以提高车辆定位的精度。
Description
技术领域
本公开的实施例主要涉及智能驾驶领域,并且更具体地,涉及用于车辆定位的方法、装置、设备以及计算机可读存储介质。
背景技术
近年来,自动驾驶和辅助驾驶的相关技术快速发展。在自动驾驶和辅助驾驶领域,对车辆进行高精度的定位尤为重要。在实际应用中,全球卫星导航***(GNSS)定位带来的误差可能高达10米甚至更大。一些自动驾驶和辅助驾驶车辆可以通过结合高精度惯性导航(INS)和全球卫星导航***(GNSS)可以到达较高精度的定位,或者可以通过结合高精地图和激光雷达来达到较高精度的定位,但是这样的方式成本高昂,并且可能受到外界环境的影响。因此,如何实现车辆的高精度定位已经成为关注的焦点。
发明内容
根据本公开的实施例,提供了一种用于控制车辆的自动驾驶的方案。
在本公开的第一方面中,提供了一种用于控制车辆的自动驾驶的方法。该方法包括:从感测设备所获取的与车辆相关的图像中确定车辆的第一边缘信息;确定与车辆相对应的轮廓模型;从与轮廓模型相关联的边缘信息集合中确定与第一边缘信息相匹配的第二边缘信息,边缘信息集合中的各边缘信息与轮廓模型相对于感测设备的不同位置相对应;以及基于与第二边缘信息相对应的位置,确定车辆相对于感测设备的位置。
在本公开的第二方面中,提供了一种用于控制车辆的自动驾驶的装置。该装置包括:第一边缘信息确定模块,被配置为从感测设备所获取的与车辆相关的图像中确定车辆的第一边缘信息;轮廓模型确定模块,被配置为确定与车辆相对应的轮廓模型;第二边缘信息确定模块,被配置为从与轮廓模型相关联的边缘信息集合中确定与第一边缘信息相匹配的第二边缘信息,边缘信息集合中的各边缘信息与轮廓模型相对于感测设备的不同位置相对应;以及位置确定模块,被配置为基于与第二边缘信息相对应的位置,确定车辆相对于感测设备的位置。
在本公开的第三方面中,提供了一种设备,包括一个或多个处理器;以及存储装置,用于存储一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现根据本公开的第一方面的方法。
在本公开的第四方面中,提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现根据本公开的第一方面的方法。
应当理解,发明内容部分中所描述的内容并非旨在限定本公开的实施例的关键或重要特征,亦非用于限制本公开的范围。本公开的其它特征将通过以下的描述变得容易理解。
附图说明
结合附图并参考以下详细说明,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。在附图中,相同或相似的附图标注表示相同或相似的元素,其中:
图1示出了本公开的多个实施例能够在其中实现的示例环境的示意图;
图2示出了根据本公开的一些实施例的用于车辆定位的过程的流程图;
图3A示出了根据本公开的一些实施例的待定位的车辆的示例图像;
图3B示出了根据本公开的一些实施例的车辆的第一边缘信息的示意图;
图4示出了根据本公开的一些实施例的车辆轮廓模型的示意图;
图5示出了根据本公开的一些实施例的确定第二边缘信息的示意图;
图6示出了根据本公开的实施例的用于车辆定位的装置的方框图;以及
图7示出了能够实施本公开的多个实施例的计算设备的框图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例,相反提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
在本公开的实施例的描述中,术语“包括”及其类似用语应当理解为开放性包含,即“包括但不限于”。术语“基于”应当理解为“至少部分地基于”。术语“一个实施例”或“该实施例”应当理解为“至少一个实施例”。术语“第一”、“第二”等等可以指代不同的或相同的对象。下文还可能包括其他明确的和隐含的定义。
如以上提及的,对车辆的高精定位是实现自动驾驶的基础。在传统的定位技术中,全球卫星导航***(GNSS)定位不能够达到自动驾驶的精度要求,而基于高精地图的定位方式需要车辆安装高成本的激光雷达,并且还需要地图供应商对高精地图进行维护以保证高精地图的准确性。
近年来,随着通信技术的进步,V2X技术得到迅速发展,车辆在确定自身位置时可以借助通过路侧设备所确定的定位信息或者通过其他车辆所确定的定位信息来提高定位的精度。例如,可以基于路侧相机所拍摄的车辆图像来对道路上的车辆进行定位。传统地,路侧相机可以通过边缘提取等图像处理算法来从视频图像中提取车辆的轮廓信息,并基于轮廓信息在图像中的位置以及路侧相机的标定信息来推算车辆的地理位置。这样的定位方式往往误差较大,难以达到自动驾驶车辆的精度要求。
根据本公开的实施例,提出了一种利用感测设备来定位车辆的方案。在该方案中,感测设备可以获取预车辆有关的图像,并从图像中确定车辆的边缘信息。感测设备还可以获取与目标车辆相对应的轮廓模型,并从与轮廓模型相关联的边缘信息集合中确定与第一边缘信息相匹配的边缘信息。匹配的边缘信息与轮廓模型相对于感测设备的位置相对应。基于轮廓模型所处的位置,感测设备确定车辆的地理位置。通过调整预存的车辆轮廓模型相对于感测设备的坐标和角度以与视频图像中的车辆边缘信息匹配,感测设备可以更为准确地确定车辆的位置以及角度。
以下将参照附图来具体描述本公开的实施例。
图1示出了本公开的多个实施例能够在其中实现的示例环境100的示意图。在该示例环境100中示意性示出了一些典型物体,包括道路102、一个或多个感测设备105-1、105-2、105-3和105-4以及一个或多个车辆110-1、110-2。为便于描述,多个感测设备105-1、105-2、105-3和105-4统称为感测设备105,多个车辆110-1、110-2统称为车辆110。应当理解,这些示出的设施和物体仅是示例,根据实际情况,不同交通环境中存在可能出现的物体将会变化。本公开的范围在此方面不受限制。
在图1的示例中,一个或多个车辆110-1、110-2正在道路102上行驶。车辆110可以是可以承载人和/或物并且通过发动机等动力***移动的任何类型的车辆,包括但不限于轿车、卡车、巴士、电动车、摩托车、房车、火车等等。环境100中的一个或多个车辆110可以是具有一定自动驾驶能力的车辆,这样的车辆也被称为无人驾驶车辆。当然,环境100中的另外一个或一些车辆110还可以是不具有自动驾驶能力的车辆。
在一些实施例中,环境100中感测设备105(例如,105-1和105-2)可以是独立于车辆110的路侧设备,用于监测环境100的状况,以获得与环境100相关的感知信息。在一些实施例中,感测设备105(例如,感测设备105-1)可以被布置在道路102的上方。在一些实施例中,感测设备105(例如,感测设备105-2)还可以被布置在道路102的两侧。在一些实施例中,感测设备105(例如,105-3和105-4)也可以是安装在车辆110上的感知装置。在本公开的实施例中,感测设备105包括图像传感器,以获取环境100中道路102和车辆110的图像信息。在一些实施例中,感测设备还可以包括一个或多个其他类型的传感器,例如,激光雷达、毫米波雷达等。
下面将结合图2到图5来描述本公开的实施例的车辆定位的过程。为了方便描述,本公开以路侧设备作为示例来描述利用感测设备105来对车辆110进行定位的过程。应当理解,基于本公开的方案,也可以实现利用车辆上所装置感测设备(例如105-3和105-4)来对另一辆车辆进行定位。图2示出了根据本公开的实施例的用于车辆定位的方法200的流程图。方法200可以由图1中所示的感测设备105来执行。
在框202,感测设备105从感测设备所获取的与车辆有关的图像中确定车辆的边缘信息(为了方便描述,下文中称为第一边缘信息)。在一些实施例中,当车辆110通过感测设备105附近的区域时,感测设备105可以获取与车辆110有关的的图像。例如,图3A示出了根据本公开实施例的待定位车辆110的示例图像300。
在一些实施例中,感测设备105可以利用公知的边缘提取算法(例如,Canny边缘检测算法、机器学习目标分割算法等)来从图像300中确定指示车辆110的边缘的第一边缘信息。应当理解,上述的边缘提取算法仅是示意性的,还可以采用其他合适的边缘提取算法来确定车辆110的边缘信息。
图3B示出了根据本公开实施例的待定位车辆110的边缘信息300’。在一些实施例中,感测设备105可以通过利用机器学习等方法来从图像300中确定车辆110的至少一个部件,这些部件的示例包括但不限于:车窗、天窗、车灯、和进气格栅等。感测设备105可以通过上文所述的边缘提取算法提取该至少一个部件在图像300中的边缘。如图3B所示,图3B示出了车辆110在图像300中的经提取的车体边缘302、天窗边缘304、车前窗边缘306、车灯边缘308以及进气格栅边缘310。应当理解,这些部件仅是示意性的,感测设备105还可以提取车辆110的其他部件在图像300中的边缘信息。
在框204,感测设备105确定与车辆相对应的轮廓模型。在一些实施例中,感测设备105可以从图像300中确定车辆110的标识信息。在一些实施例中,该标识信息可以包括车辆110的车牌信息。例如,感测设备105可以通过图像识别算法从图像300中确定车辆110的车牌信息。应当理解,可以采用任何合适的图像识别算法来确定车辆110的车牌信息,在此不再详述。
在一些实施例中,标识信息也可以是车辆110上的其他类型的标识信息,包括但不限于:条形码信息和RFID信息等。例如,条形码信息可以被印刷或者粘贴在车辆110的外壳上,或者,车辆110可以安装RFID标签。通过识别该条形码或读取RFID信息,感测设备105可以确定车辆110的标识信息,例如车辆110的车牌或车辆110的车辆型号等。
在一些实施例中,感测设备105可以基于该标识信息从预定义的轮廓模型集合中确定与车辆110相对应的轮廓模型。在一些实施例中,感测设备105上存储有预定的轮廓模型集合,该轮廓模型集合可以包括与不同的车牌信息相对应的轮廓模型。感测设备可以基于车辆110的车牌信息来确定与车辆110相对应的轮廓模型。
在一些实施例中,该轮廓模型集合也可以包括与不同的车辆型号相对应的轮廓模型。感测设备105可以根据车辆110的车牌信息或条形码/RFID等信息来确定车辆110的车辆型号,并基于车辆110的车辆型号来从轮廓模型中确定与车辆110相对应的轮廓模型。
在一些实施例中,轮廓模型集合也可以被存储在于感测设备105分离的计算设备处,感测设备105可以向该计算设备发送车辆110的标识信息或基于标识信息所确定的车辆110的车辆型号,从而向服务器请求与车辆110相对应的轮廓模型。计算设备在接收到该请求后,可以基于车辆110的标识信息或车辆型号来从轮廓模型集合中确定与车辆110相对应的轮廓模型,并将该轮廓模型发送到感测设备105。
图4示出了根据本公开的一些实施例的车辆轮廓模型400的示意图。在图4所示的示例中,感测设备105从轮廓模型集合中确定与车辆110相对应的轮廓模型400。在一些实施例中,轮廓模型400例如可以包括与车辆110相对应的轮廓信息以及物理尺寸信息。在一些实施例中,轮廓模型400可以包括与车辆110的不同部件相关联的轮廓信息。例如,如图4所示,轮廓模型400可以包括:车后窗轮廓402、天窗轮廓404、车前窗轮廓406、车灯轮廓408以及进气格栅轮廓410。在一些实施例中,轮廓模型400可以被转换为在轮廓模型的中心为原点的坐标系(为了方便描述,下文称为第一坐标系)下的多个线条,这些线条可以表示为在第一坐标系下的方程。
继续参考图2,在框206,感测设备105从与轮廓模型相关联的边缘信息集合中确定与第一边缘信息相匹配的边缘信息(为了方便描述,下文称为第二边缘信息),其中边缘信息集合中的各边缘信息与轮廓模型相对于感测设备105的不同位置相对应。
在一些实施例中,感测设备105可以设置轮廓模型400相对于感测设备105的初始位置为XT=(x,y,z,α,β,γ),其中(x,y,z)指示轮廓模型400的中心在以感测设备105为原点的坐标系(为了方便描述,下文称为第二坐标系)下的坐标,(α,β,γ)指示第一坐标相对于第二坐标系的欧拉角,其体现了轮廓模型400相对于感测设备105的俯仰、翻滚和偏航信息。在一些实施例中,可以根据车辆110在图像300中的中心来确定轮廓模型300相对于感测设备105的初始位置。例如,在一些实施例中,感测设备105可以根据自身的标定信息来将车辆110在图像300中的中心的二维坐标转换为第二坐标系下的位置,并将该位置作为轮廓模型400的初始位置。应当理解,可以采用公知的坐标转换方式来将车辆110在图像300中的中心的二维坐标转换为第二坐标系下的位置,在此不再详述。
在一些实施例中,感测设备105可以基于所确定的轮廓模型400相对于感测设备105的位置以及自身的标定信息来确定图像300的二维坐标系(为了方便描述,下文称为第三坐标系)中与轮廓模型400相对应的边缘信息。例如,图5示出了根据本公开的一些实施例的确定第二边缘信息的示意图500。如图5所示,以车前窗轮廓406为例,根据轮廓模型400的位置,感测设备105可以确定车前窗轮廓406在第三坐标系中对应的轮廓线条502。具体地,感测设备105还可以得到构成轮廓线条502的一个或多个线段在第三坐标系中的方程。
在一些实施例中,感测设备105可以确定第一边缘信息所指示的边缘(为了方便描述,下文称为第一边缘)与轮廓模型400在第三坐标系中所投影的边缘信息所指示的边缘之间的距离。如图5所示,继续以车前窗轮廓406为例,感测设备105可以确定车前窗边缘306与边缘线条502在图像300的坐标下的距离。在一些实施例中,感测设备105确定第一边缘上的多个点。例如,感测设备105可以从车前窗边缘306上采样多个点504和506,并分别计算多个点504和506到轮廓线条502的距离。
在一些实施例中,感测设备105可以确定与点504和点506距离最近的线段,并计算点504到该线段的最短距离。以图5中的点504为例,点504在第三坐标系中的坐标可以表示为(u0,v0),与点504距离最近的线段为线段508,其在第三坐标系中的方程例如可以表示为方程:au+bv+1=0,其中u,v为第三坐标系的坐标轴,a,b为线段508在第三坐标系中的直线方程系数。点504到线段508的距离D可以被表示为:
由于车辆的110轮廓模型400在第一坐标系中的位置是已知的,因此直线方程系数a和b可以表示为与轮廓模型400相对于感测设备105的位置XT=(x,y,z,α,β,γ)的函数,也即a和b可以表示为如下形式:
a=f1(x,y,z,α,β,γ) (2)
b=f2(x,y,z,α,β,γ) (3)
此时,将a与b的函数表示(2)和(3)代入到等式(1)中,则可以得到D=F(x,y,z,α,β,γ)。基于同样的方式,可以确定点506到轮廓线条502的距离为点506到最近线段510的距离,其同样也可以表示位置XT=(x,y,z,α,β,γ)的函数。
在一些实施例中,感测设备105可以确定边缘信息所指示的边缘上的多个点到轮廓线条的距离的总和。具体地,在图5的示例中,在只考虑车前窗边缘306的情况下,车前窗边缘306与轮廓线条502在图像300的坐标下的距离可以表示为多个点504和506到轮廓线条502的距离的总和E。由此,E可以表示为与轮廓模型400在第二坐标系下的位置的函数即:
E=∑Fi(x,y,z,α,β,γ)=g(x,y,z,α,β,γ)
其中i表示该多个点的编号。应当理解,距离总和E可以包括其他部件所对应的边缘(例如,车体边缘302、天窗边缘304、车灯边缘308以及进气格栅边缘310)上的多个点到对应的轮廓线条的距离的总和。
应当理解,当距离的总和E越小时,轮廓模型400将越接近车辆110的真实位置。因此,感测设备105需要使得轮廓模型所对应的第二边缘信息所指示的第二边缘与图像300中的第一边缘信息300’所指示的第一边缘尽可能的重合。
在一些实施例中,感测设备105可以基于轮廓模型400的中心在第二坐标系下的初始位置XT=(x,y,z,α,β,γ)来开始迭代的调整。具体地,感测设备105可以将轮廓模型400位于第二坐标系中的不同位置时所求得距离总和E与预定的距离阈值进行比较,当距离总和E小于该距离阈值时,感测设备105可以与此时的轮廓模型400相对应的第二边缘信息与第一边缘信息匹配。感测设备105可以记录轮廓模型400在第二坐标系中的位置X1T=(x1,y1,z1,α1,β1,γ1),并停止迭代。
在一些实施例中,感测设备105还可以基于牛顿法来调整轮廓模型400在第二坐标系中的位置,从而确定与第一边缘信息300’匹配的第二边缘信息。具体地,感测设备105在每次迭代时根据以下等式来求解更优位置:
其中表示下一次迭代所选择的位置,/>表示调整前的当前位置。感测设备105可以在满足以下收敛条件(即,相邻调整的位置之间的距离小于预定阈值)时终止迭代:
基于牛顿法,感测设备105可以确定当收敛条件被满足时轮廓模型400在第二坐标系中的位置,例如该位置可以被表示X1T=(x1,y1,z1,α1,β1,γ1)o
通过上述的方法,感测设备105可以从边缘信息集合所指示的多个边缘中确定与所述多个点的距离的总和小于预定阈值的第二边缘,并从边缘信息集合中选择指示第二边缘的第二边缘信息。应当理解,以上方法仅是示意性的,还可以采用任何其他适当方法来求解使得距离和最小的位置。
继续参考图2,在框208,感测设备105基于与第二边缘信息相对应的位置,确定车辆110相对于感测设备的位置。如上文所述,感测设备105可以将轮廓模型400在第二坐标系中的位置输出作为车辆110相对于感测设备105的位置。
在一些实施例中,在确定与第一边缘信息300’相匹配的第二边缘信息后,感测设备105可以确定与该第二边缘信息相对应的轮廓模型400在第二坐标系的位置,例如为X1T=(x1,y1,z1,α1,β1,γ1)。在一些实施例中,感测设备105可以基于自身的标定信息来从第二坐标系到世界坐标系的转换矩阵。感测设备105可以基于该转换矩阵,将车辆110相对于感测设备105的位置,也即轮廓模型400在第二坐标系的位置X1T=(x1,y1,z1,α1,β1,γ1)进行坐标系转换以得到在世界坐标系下的地理位置X2T=(x2,y2,z2,α2,β2,γ2),该地理位置可以包括车辆110在世界坐标系中的三维坐标以及欧拉角。
基于这样的定位方式,感测设备不再简单地考虑二维图像中车辆的大概区域,还利用了车辆的精准轮廓模型,并将轮廓模型投影到二维图像中以使得所投影的线条与二维图像中车辆的边缘尽可能的匹配,从而更为精准地确定车辆的地理位置。
在一些实施例中,感测设备105还可以将车辆110的地理位置发送到所述车辆110。在一些实施例中,例如,车辆110可以接收该地理位置信息以与车辆110的自定位信息进行融合以获取更为精准的定位。在一些实施例中,车辆110也可以直接基于所获取的地理位置信息来控制车辆110的行驶。
在一些实施例中,感测设备105也可以将车辆110相对于感测设备105的位置发送到车辆110。车辆110可以基于相对位置信息以及感测设备105的位置来确定车辆110在世界坐标系中的地理位置。
图6示出了根据本公开的实施例的用于车辆定位的装置500的方框图。装置600可以被包括在图1的感测设备105中或者被实现为感测设备105。如图6所示,装置600包括第一边缘信息确定模块602,其被配置为从感测设备所获取的与车辆相关的图像中确定车辆的第一边缘信息。装置600还包括轮廓模型确定模块604,其被配置为确定与车辆相对应的轮廓模型。装置600还包括第二边缘信息确定模块606,其被配置为从与轮廓模型相关联的边缘信息集合中确定与第一边缘信息相匹配的第二边缘信息,边缘信息集合中的各边缘信息与轮廓模型相对于感测设备的不同位置相对应。装置600还包括地理位置确定模块608,其被配置为基于与第二边缘信息相对应的位置,确定车辆相对于感测设备的位置。
在一些实施例中,其中第一边缘信息确定模块602还可以包括:部件配置模块,被配置为从图像中确定车辆的至少一个部件;以及边缘提取模块,被配置为提取至少一个部件的边缘。
在一些实施例中,其中轮廓模型确定模块604还可以包括:标识信息确定模块,被配置为从图像中确定车辆的标识信息;以及第一轮廓模型确定模块,被配置为基于标识信息,从预定义的轮廓模型集合中确定与车辆相对应的轮廓模型。
在一些实施例中,其中标识信息包括车辆的车牌信息。
在一些实施例中,其中第二边缘信息确定模块606包括:点确定模块,被配置为确定与第一边缘信息所指示的第一边缘上的多个点;以及第二边缘确定模块,被配置为从边缘信息集合所指示的多个边缘中确定第二边缘,第二边缘上与多个点的距离的总和小于预定阈值;以及第二边缘信息选择模块,被配置为从边缘信息集合中选择指示第二边缘的第二边缘信息。
在一些实施例中,位置确定模块608可以包括:坐标和欧拉角获取模块,其被配置为获取车辆在以感测设备为原点的路侧坐标系中的坐标和欧拉角。
在一些实施例中,装置600还可以包括:转换矩阵获取模块,其被配置为获取从以感测设备为原点的路侧坐标系到世界坐标系的转换矩阵;以及地理位置转换模块,其被配置为基于转换矩阵将车辆相对于感测设备的位置转换为车辆的地理位置。
在一些实施例中,装置600还可以包括:发送模块,其被配置为向车辆发送地理位置。
图7示出了可以用来实施本公开的实施例的示例设备700的示意性框图。设备700可以用于实现图1的感测设备105。如图所示,设备700包括计算单元701,其可以根据存储在只读存储器(ROM)702中的计算机程序指令或者从存储单元708加载到随机访问存储器(RAM)703中的计算机程序指令,来执行各种适当的动作和处理。在RAM 703中,还可存储设备700操作所需的各种程序和数据。计算单元701、ROM 702以及RAM 703通过总线704彼此相连。输入/输出(I/O)接口705也连接至总线704。
设备700中的多个部件连接至I/O接口705,包括:输入单元706,例如键盘、鼠标等;输出单元707,例如各种类型的显示器、扬声器等;存储单元708,例如磁盘、光盘等;以及通信单元709,例如网卡、调制解调器、无线通信收发机等。通信单元709允许设备700通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元701可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元701的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元701可以执行上文所描述的各个方法和处理,例如过程200。例如,在一些实施例中,过程200可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元708。在一些实施例中,计算机程序的部分或者全部可以经由ROM 702和/或通信单元709而被载入和/或安装到设备700上。当计算机程序加载到RAM 703并由计算单元701执行时,可以执行上文描述的过程200的一个或多个步骤。备选地,在其他实施例中,计算单元701可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行过程200。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上***的***(SOC)、负载可编程逻辑设备(CPLD)等等。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行***、装置或设备使用或与指令执行***、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体***、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
此外,虽然采用特定次序描绘了各操作,但是这应当理解为要求这样操作以所示出的特定次序或以顺序次序执行,或者要求所有图示的操作应被执行以取得期望的结果。在一定环境下,多任务和并行处理可能是有利的。同样地,虽然在上面论述中包含了若干具体实现细节,但是这些不应当被解释为对本公开的范围的限制。在单独的实施例的上下文中描述的某些特征还可以组合地实现在单个实现中。相反地,在单个实现的上下文中描述的各种特征也可以单独地或以任何合适的子组合的方式实现在多个实现中。
尽管已经采用特定于结构特征和/或方法逻辑动作的语言描述了本主题,但是应当理解所附权利要求书中所限定的主题未必局限于上面描述的特定特征或动作。相反,上面所描述的特定特征和动作仅仅是实现权利要求书的示例形式。
Claims (16)
1.一种用于车辆定位的方法,包括:
从感测设备所获取的与车辆相关的图像中确定所述车辆的第一边缘信息;
确定与所述车辆相对应的轮廓模型;
从与所述轮廓模型相关联的边缘信息集合中确定与所述第一边缘信息相匹配的第二边缘信息,所述边缘信息集合中的各边缘信息与所述轮廓模型相对于所述感测设备的不同位置相对应;以及
基于与所述第二边缘信息相对应的位置,确定所述车辆相对于所述感测设备的位置;
其中确定所述轮廓模型包括:从所述图像中确定所述车辆的标识信息;以及基于所述标识信息,从预定义的轮廓模型集合中确定与所述车辆相对应的所述轮廓模型。
2.根据权利要求1所述的方法,其中确定所述第一边缘信息包括:
从所述图像中确定所述车辆的至少一个部件;以及
提取所述至少一个部件的边缘。
3.根据权利要求1所述的方法,其中所述标识信息包括所述车辆的车牌信息。
4.根据权利要求1所述的方法,其中从所述边缘集合中确定与所述第一边缘信息相匹配的所述第二边缘信息包括:
确定与第一边缘信息所指示的第一边缘上的多个点;以及
从所述边缘信息集合所指示的多个边缘中确定第二边缘,所述第二边缘上与所述多个点的距离的总和小于预定阈值;以及
从所述边缘信息集合中选择指示所述第二边缘的第二边缘信息。
5.根据权利要求1所述的方法,其中确定所述车辆相对于所述感测设备的所述位置还包括:
确定所述车辆在以所述感测设备为原点的路侧坐标系中的坐标和欧拉角。
6.根据权利要求1所述的方法,还包括:
获取从以所述感测设备为原点的路侧坐标系到世界坐标系的转换矩阵;以及
基于所述转换矩阵,将所述车辆相对于所述感测设备的所述位置转换为所述车辆的地理位置。
7.根据权利要求6所述的方法,还包括:
向所述车辆发送所述地理位置。
8.一种用于车辆定位的装置,包括:
第一边缘信息确定模块,被配置为从感测设备所获取的与车辆相关的图像中确定所述车辆的第一边缘信息;
轮廓模型确定模块,被配置为确定与所述车辆相对应的轮廓模型;
第二边缘信息确定模块,被配置为从与所述轮廓模型相关联的边缘信息集合中确定与所述第一边缘信息相匹配的第二边缘信息,所述边缘信息集合中的各边缘信息与所述轮廓模型相对于所述感测设备的不同位置相对应;以及
位置确定模块,被配置为基于与所述第二边缘信息相对应的位置,确定所述车辆相对于所述感测设备的位置;
其中所述轮廓模型确定模块包括:标识信息确定模块,被配置为从所述图像中确定所述车辆的标识信息;以及第一轮廓模型确定模块,被配置为基于所述标识信息,从预定义的轮廓模型集合中确定与所述车辆相对应的所述轮廓模型。
9.根据权利要求8所述的装置,其中所述第一边缘信息确定模块包括:
部件配置模块,被配置为从所述图像中确定所述车辆的至少一个部件;以及
边缘提取模块,被配置为提取所述至少一个部件的边缘。
10.根据权利要求8所述的装置,其中所述标识信息包括所述车辆的车牌信息。
11.根据权利要求8所述的装置,其中所述第二边缘信息确定模块包括:
点确定模块,被配置为确定与第一边缘信息所指示的第一边缘上的多个点;以及
第二边缘确定模块,被配置为从所述边缘信息集合所指示的多个边缘中确定第二边缘,所述第二边缘上与所述多个点的距离的总和小于预定阈值;以及
第二边缘信息选择模块,被配置为从所述边缘信息集合中选择指示所述第二边缘的第二边缘信息。
12.根据权利要求8所述的装置,所述位置确定模块包括:
坐标和欧拉角获取模块,被配置为确定所述车辆在以所述感测设备为原点的路侧坐标系中的坐标和欧拉角。
13.根据权利要求8所述的装置,还包括:
转换矩阵获取模块,被配置为获取从以所述感测设备为原点的路侧坐标系到世界坐标系的转换矩阵;以及
地理位置转换模块,被配置为基于所述转换矩阵将所述车辆相对于所述感测设备的位置转换为所述车辆的地理位置。
14.根据权利要求13所述的装置,还包括:
发送模块,被配置为向所述车辆发送所述地理位置。
15.一种电子设备,所述电子设备包括:
一个或多个处理器;以及
存储器,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述电子设备实现根据权利要求1-7中任一项所述的方法。
16.一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现根据权利要求1-7中任一项所述的方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811151044.9A CN110969055B (zh) | 2018-09-29 | 2018-09-29 | 用于车辆定位的方法、装置、设备和计算机可读存储介质 |
EP19194001.4A EP3637308A1 (en) | 2018-09-29 | 2019-08-28 | Method and device for positioning vehicle, device, and computer readable storage medium |
US16/560,548 US11144770B2 (en) | 2018-09-29 | 2019-09-04 | Method and device for positioning vehicle, device, and computer readable storage medium |
JP2019177450A JP6857697B2 (ja) | 2018-09-29 | 2019-09-27 | 車両位置決め方法、車両位置決め装置、電子機器及びコンピュータ読み取り可能な記憶媒体 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811151044.9A CN110969055B (zh) | 2018-09-29 | 2018-09-29 | 用于车辆定位的方法、装置、设备和计算机可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110969055A CN110969055A (zh) | 2020-04-07 |
CN110969055B true CN110969055B (zh) | 2023-12-19 |
Family
ID=67777142
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811151044.9A Active CN110969055B (zh) | 2018-09-29 | 2018-09-29 | 用于车辆定位的方法、装置、设备和计算机可读存储介质 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11144770B2 (zh) |
EP (1) | EP3637308A1 (zh) |
JP (1) | JP6857697B2 (zh) |
CN (1) | CN110969055B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3948779A1 (en) * | 2019-03-29 | 2022-02-09 | Howmedica Osteonics Corp. | Pre-morbid characterization of anatomical object using statistical shape modeling (ssm) |
CN111833717B (zh) * | 2020-07-20 | 2022-04-15 | 阿波罗智联(北京)科技有限公司 | 用于定位交通工具的方法、装置、设备和存储介质 |
CN112697066A (zh) * | 2020-12-02 | 2021-04-23 | 王刚 | 车辆部件定位方法、装置及计算机存储介质 |
CN112598756B (zh) * | 2021-03-03 | 2021-05-25 | 中智行科技有限公司 | 路边传感器标定方法、装置和电子设备 |
CN114119760B (zh) * | 2022-01-28 | 2022-06-14 | 杭州宏景智驾科技有限公司 | 机动车定位方法和装置、电子设备和存储介质 |
CN114943769B (zh) * | 2022-07-26 | 2023-01-13 | 广州镭晨智能装备科技有限公司 | 一种定位方法、装置、电子设备及介质 |
CN116068572A (zh) * | 2022-12-09 | 2023-05-05 | 中建材凯盛机器人(上海)有限公司 | 基于激光雷达实现车体轮廓检测处理的***、方法、装置、处理器及其计算机可读存储介质 |
CN115965688B (zh) * | 2022-12-14 | 2024-02-02 | 重庆赛迪奇智人工智能科技有限公司 | 一种定位方法、装置、电子设备及存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008046947A (ja) * | 2006-08-18 | 2008-02-28 | Alpine Electronics Inc | 周辺監視システム |
JP2008052517A (ja) * | 2006-08-24 | 2008-03-06 | Koito Ind Ltd | 交通量計測方法および交通量計測装置 |
CN102809379A (zh) * | 2011-06-01 | 2012-12-05 | 通用汽车环球科技运作有限责任公司 | 用于基于传感器的环境模型构造的***和方法 |
JP2015219858A (ja) * | 2014-05-21 | 2015-12-07 | 本田技研工業株式会社 | 物体認識装置及び車両 |
CN105301621A (zh) * | 2015-10-19 | 2016-02-03 | 北京星网宇达科技股份有限公司 | 一种车辆定位装置及一种智能驾考*** |
CN105783936A (zh) * | 2016-03-08 | 2016-07-20 | 武汉光庭信息技术股份有限公司 | 用于自动驾驶中的道路标识制图及车辆定位方法及*** |
JP2016212714A (ja) * | 2015-05-12 | 2016-12-15 | 沖電気工業株式会社 | 物体検出装置および物体検出方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7623681B2 (en) * | 2005-12-07 | 2009-11-24 | Visteon Global Technologies, Inc. | System and method for range measurement of a preceding vehicle |
JP6083385B2 (ja) | 2011-12-13 | 2017-02-22 | 日本電気株式会社 | 座標変換テーブル作成システム及び、座標変換テーブル作成方法 |
US9025825B2 (en) * | 2013-05-10 | 2015-05-05 | Palo Alto Research Center Incorporated | System and method for visual motion based object segmentation and tracking |
US9996749B2 (en) * | 2015-05-29 | 2018-06-12 | Accenture Global Solutions Limited | Detecting contextual trends in digital video content |
US20190147255A1 (en) * | 2017-11-15 | 2019-05-16 | Uber Technologies, Inc. | Systems and Methods for Generating Sparse Geographic Data for Autonomous Vehicles |
-
2018
- 2018-09-29 CN CN201811151044.9A patent/CN110969055B/zh active Active
-
2019
- 2019-08-28 EP EP19194001.4A patent/EP3637308A1/en not_active Withdrawn
- 2019-09-04 US US16/560,548 patent/US11144770B2/en active Active
- 2019-09-27 JP JP2019177450A patent/JP6857697B2/ja active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008046947A (ja) * | 2006-08-18 | 2008-02-28 | Alpine Electronics Inc | 周辺監視システム |
JP2008052517A (ja) * | 2006-08-24 | 2008-03-06 | Koito Ind Ltd | 交通量計測方法および交通量計測装置 |
CN102809379A (zh) * | 2011-06-01 | 2012-12-05 | 通用汽车环球科技运作有限责任公司 | 用于基于传感器的环境模型构造的***和方法 |
JP2015219858A (ja) * | 2014-05-21 | 2015-12-07 | 本田技研工業株式会社 | 物体認識装置及び車両 |
JP2016212714A (ja) * | 2015-05-12 | 2016-12-15 | 沖電気工業株式会社 | 物体検出装置および物体検出方法 |
CN105301621A (zh) * | 2015-10-19 | 2016-02-03 | 北京星网宇达科技股份有限公司 | 一种车辆定位装置及一种智能驾考*** |
CN105783936A (zh) * | 2016-03-08 | 2016-07-20 | 武汉光庭信息技术股份有限公司 | 用于自动驾驶中的道路标识制图及车辆定位方法及*** |
Non-Patent Citations (2)
Title |
---|
Real-Time Vehicle Tracking in Image Sequences;J.van Leuven 等;Proceedings of 18th IEEE Instrumentation and Measurement Technology Conference;第2049-2054页 * |
Vehicle detection and tracking with low-angle cameras;Jun Yang 等;《2010 IEEE International Conference on Image Processing》;20101203;第685-688页 * |
Also Published As
Publication number | Publication date |
---|---|
JP2020057387A (ja) | 2020-04-09 |
EP3637308A1 (en) | 2020-04-15 |
US20200104614A1 (en) | 2020-04-02 |
JP6857697B2 (ja) | 2021-04-14 |
CN110969055A (zh) | 2020-04-07 |
US11144770B2 (en) | 2021-10-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110969055B (zh) | 用于车辆定位的方法、装置、设备和计算机可读存储介质 | |
CN110163930B (zh) | 车道线生成方法、装置、设备、***及可读存储介质 | |
KR102483649B1 (ko) | 차량 위치 결정 방법 및 차량 위치 결정 장치 | |
CN111947671B (zh) | 用于定位的方法、装置、计算设备和计算机可读存储介质 | |
AU2018282302B2 (en) | Integrated sensor calibration in natural scenes | |
US9727793B2 (en) | System and method for image based vehicle localization | |
CN110530372B (zh) | 定位方法、路径确定方法、装置、机器人及存储介质 | |
US10369993B2 (en) | Method and device for monitoring a setpoint trajectory to be traveled by a vehicle for being collision free | |
CN110390240B (zh) | 自动驾驶车辆中的车道后处理 | |
CN111507130B (zh) | 车道级定位方法及***、计算机设备、车辆、存储介质 | |
CN112113574A (zh) | 用于定位的方法、装置、计算设备和计算机可读存储介质 | |
US11703344B2 (en) | Landmark location estimation apparatus and method, and computer-readable recording medium storing computer program programmed to perform method | |
US10996337B2 (en) | Systems and methods for constructing a high-definition map based on landmarks | |
CN110728720B (zh) | 用于相机标定的方法、装置、设备和存储介质 | |
US20220205804A1 (en) | Vehicle localisation | |
CN112883058A (zh) | 用于车辆定位的标定方法、装置、设备、车辆和介质 | |
CN114705121A (zh) | 车辆位姿测量方法、装置及电子设备、存储介质 | |
EP2047213B1 (en) | Generating a map | |
US20210264170A1 (en) | Compensation for vertical road curvature in road geometry estimation | |
CN116486377B (zh) | 可行驶区域的生成方法及装置 | |
US20220155455A1 (en) | Method and system for ground surface projection for autonomous driving | |
CN114202574A (zh) | 定位可靠性检测方法及相关设备 | |
WO2021056185A1 (en) | Systems and methods for partially updating high-definition map based on sensor data matching | |
CN116503482B (zh) | 车辆位置的获取方法、装置及电子设备 | |
US20240078749A1 (en) | Method and apparatus for modeling object, storage medium, and vehicle control method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20211018 Address after: 105 / F, building 1, No. 10, Shangdi 10th Street, Haidian District, Beijing 100085 Applicant after: Apollo Intelligent Technology (Beijing) Co.,Ltd. Address before: 100080 No.10, Shangdi 10th Street, Haidian District, Beijing Applicant before: BAIDU ONLINE NETWORK TECHNOLOGY (BEIJING) Co.,Ltd. |
|
TA01 | Transfer of patent application right | ||
GR01 | Patent grant | ||
GR01 | Patent grant |