CN113421325A - 一种基于多传感器融合用于车辆的三维重建方法 - Google Patents
一种基于多传感器融合用于车辆的三维重建方法 Download PDFInfo
- Publication number
- CN113421325A CN113421325A CN202110538817.4A CN202110538817A CN113421325A CN 113421325 A CN113421325 A CN 113421325A CN 202110538817 A CN202110538817 A CN 202110538817A CN 113421325 A CN113421325 A CN 113421325A
- Authority
- CN
- China
- Prior art keywords
- camera
- matrix
- point
- coordinate system
- dimensional reconstruction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 230000004927 fusion Effects 0.000 title claims abstract description 23
- 238000001914 filtration Methods 0.000 claims abstract description 6
- 239000011159 matrix material Substances 0.000 claims description 88
- 238000004364 calculation method Methods 0.000 claims description 21
- 230000009466 transformation Effects 0.000 claims description 17
- 238000000354 decomposition reaction Methods 0.000 claims description 3
- 230000000694 effects Effects 0.000 abstract description 5
- 230000008569 process Effects 0.000 abstract description 2
- 230000001737 promoting effect Effects 0.000 abstract description 2
- 230000008859 change Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 235000019994 cava Nutrition 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
- G06T2207/10044—Radar image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
本发明涉及自动驾驶车辆技术领域,具体为一种基于多传感器融合用于智能车辆的三维重建方法。包括以下步骤:通过安装在车辆上的相机和雷达激光,获取相机图像数据和激光点云数据,然后进行相机的标定、雷达的标定,以及相机和雷达的联合标定,接着分别根据激光点云和图像数据实现三维重建,再进行雷达激光和相机的数据融合,最后通过对数据融合后的降噪和冗余信息的过滤,得到最终的三维重建。本发明相较于传统三维重建,可在特殊环境下,实现对车辆周围环境的更好三维重建,实现适用性、合理性较高的三维重建效果,从而推动了自动驾驶车辆的落地进程,提高自动驾驶车辆的安全性、可靠性。
Description
技术领域
本发明涉及到自动驾驶车辆的技术领域,具体为一种基于多传感器融合用于智能车辆的三维重建方法。
背景技术
智能车辆的三维重建是通过传感器技术获取车辆周围大环境的三维信息实现重建,在智能驾驶、智能交通等领域占据着非常重要的位置,相比于传统的GPS、激光测距仪、IMU等传统三维信息测量方法在特殊环境下(如:隧道、山区、矿洞等恶劣环境)的不稳、不精确等问题。三维重建显得更加实用可靠,在这些环境下,可以获得更有效、精确的三维空间信息。
传统三维重建是基于相机传感器,通过标定、特征点提取、匹配等步骤实现三维重建。传统三维重建不能反馈出空间距离信息,因此,在此基础上融入雷达激光传感器,以此丰富三维重建,使其适用性更广,完善性更高。而目前大多数基于多传感器的融合的三维重建方法,包括了许多冗余的数据信息,使得三维重建的效果不够高效、合理。
发明内容
针对上述现有技术中存在的问题,本发明提出一种基于多传感器融合用于智能车辆的三维重建方法,实现在特殊环境下,对车辆周围环境适用性、合理性较高的三维重建效果,从而推动了自动驾驶车辆的落地进程,提高自动驾驶车辆的安全可靠性。
为实现上述目的,本发明具体技术方案如下:一种基于多传感器融合用于智能车辆的三维重建方法,包括如下步骤:
1)标定相机参数,所述相机参数包括相机内参矩阵M、相机外参旋转矩阵RX和外参平移矩阵TX;
2)标定激光雷达参数,所述激光雷达参数包括激光雷达外参旋转矩阵RL、外参平移矩阵TL;
3)相机和雷达的联合标定,计算激光雷达坐标系到相机坐标系的变换矩阵TDC;
4)通过相机内参矩阵M、相机外参旋转矩阵RX和外参平移矩阵TX得到三维重建坐标系V1,通过激光雷达外参旋转矩阵RL、外参平移矩阵TL得到V2中的三维点坐标,所述V1为图像数据的三维重建坐标系,所述V2为激光点云的三维重建坐标系;
5)利用变换矩阵TDC进行激光雷达和相机的数据融合,实现三维重建。
进一步的,上述步骤1)中,标定相机参数包括如下步骤:
1.1)采集棋盘格图像;
1.2)利用采集的棋盘格图像,采用张正友标定法对相机参数进行标定。
进一步的,上述步骤2)中,标定激光雷达参数包括如下步骤:
2.1)搭建车辆坐标系为xyz和雷达坐标系为XYZ;
2.2)采用RANSAC法提取出雷达坐标系中的地平面方程:Ax+By-z+C=0;
2.3)利用激光雷达采集激光点云数据;
2.4)利用激光雷达采集的激光点云数据计算旋转矩阵Rm和平移矩阵Tm;
2.5)利用激光雷达采集的激光点云数据计算旋转矩阵Rh和平移矩阵Th;
2.6)计算激光雷达外参旋转矩阵RL、外参平移矩阵TL,计算公式如下:
进一步的,上述步骤3)中,相机和雷达的联合标定包括如下步骤:
3.1)将标定相机内外参数的棋盘格图纸贴在定位激光雷达的墙面上,采集图像数据和激光点云数据;
3.2)搭建相机坐标系:x1y1z1;x1y1z1中z1轴为空间竖直方向、x1轴正方向指向车辆正前方、y1轴正方向指向车辆右侧、坐标原点为相机底面正中心;
3.3)利用上述采集数据计算法向量集合矩阵MC、法向量集合矩阵MD、距离值集合矩阵bC、距离值集合矩阵bD;
3.4)计算激光雷达坐标系到相机坐标系的变换矩阵TDC,计算公式如下:
TDC=[RLH TLH]
其中:
进一步的,上述步骤4)中,包括如下步骤:
4.1)利用相机对大环境进行数据采集,得到RGB图像;
4.3)计算V1中各三维点坐标X3W,计算公式如下:
4.4)通过激光雷达对大环境进行数据采集,得到若干点云坐标p1i,i代表第i个点云);
4.5)计算V2中各三维坐标P2。
进一步的,上述步骤5)中,包括如下步骤:
5.1)采用Filter法,过滤无效特征点;
5.2)将三维重建坐标系V1中有效特征点TTi投影到V2;
5.3)采用ICP算法,求解与有效特征点TTDDi匹配的最近点云;
5.4)计算变换矩阵TDC2,即TTi和DDi之间的矩阵变换关系,计算公式如下:
其中:TTi代表V1中第i个有效特征点坐标;DDi代表V2中第i个有效特征点匹配的点云坐标,TD'C2代表V1中每一个有效特征点到V2中匹配点云的变换矩阵;
5.5)实现图像层与点云层的深度融合,得到最终的三维重建,记V1中有效特征点集合包含的像素点集合为XS2,像素点投影到V2中的点集合为XS1,将像素点投影到V2中,计算公式如下:
其中:i代表第i个像素点,TDC2代表V1中有效特征点到V2中匹配点云的变换矩阵。
本发明的有益效果为:提高了对周围环境信息的感知准确度,提高了三维重建对周围大环境的重建稳定性和敏感区域重建的完整性,避免了冗余的环境噪声对三维重建效果的影响,突出了敏感环境区域在三维重建中的重要性。
附图说明
图1为本发明方法流程图。
图2为三维重建数据融合以及冗余信息过滤后的三维重建效果示意图。
具体实施方式
下面结合附图以及具体实施例对本发明作进一步的说明,需要指出的是,下面仅以一种最优化的技术方案对本发明的技术方案以及设计原理进行详细阐述,但本发明的保护范围并不限于此。
所述实施例为本发明的优选的实施方式,但本发明并不限于上述实施方式,在不背离本发明的实质内容的情况下,本领域技术人员能够做出的任何显而易见的改进、替换或变型均属于本发明的保护范围。
本发明提出了一种基于多传感器融合用于智能车辆的三维重建方法,方法流程图如图1所示,具体步骤如下:
1)标定相机参数,相机参数包括相机内参矩阵M、相机外参旋转矩阵RX和外参平移矩阵TX。作为本发明的优选实施例,包括如下步骤:
1.1)采集棋盘格图像,在本发明的具体实施例中,相机安装在车辆的前端,相机的采集频率为15HZ,图像的尺寸为1280×960像素,将棋盘格固定在刚性平整的标定板上,通过移动标定板,在不同角度下采集15-20张棋盘格照片,数据存储在随车电脑中;
1.2)利用采集的棋盘格图像,采用张正友标定法对相机参数进行标定,在本发明的具体实施例中,相机内参矩阵M为3x3矩阵,相机外参旋转矩阵RX为3x3矩阵,外参平移矩阵TX为3x1矩阵;
2)标定激光雷达参数,激光雷达参数包括激光雷达外参旋转矩阵RL、外参平移矩阵TL,作为本发明的优选实施例,包括如下步骤:
2.1)搭建车辆坐标系为xyz和雷达坐标系为XYZ;在车辆坐标系为xyz中,z轴为空间竖直方向、x轴正方向指向车辆正前方、y轴正方向指向车辆右侧、坐标原点为车辆底面正中心;在雷达坐标系为XYZ中Z轴为激光雷达的激光雷达竖直方向的轴心线、Z轴正方向指向车辆正前方、Y轴正方向指向车辆右侧、坐标原点为激光雷达底面正中心;
2.2)采用RANSAC法提取出雷达坐标系中的地平面方程:Ax+By-z+C=0
2.3)利用激光雷达采集激光点云数据,在本发明具体实施例中,激光雷达安装在车辆的顶部中心,激光雷达扫描的频率为15hz,数据存储在随车电脑中;
2.4)利用激光雷达采集的激光点云数据计算旋转矩阵Rm和平移矩阵Tm,其中,旋转矩阵Rm计算公式如下:
式中
平移矩阵Tm的计算公式如下:Tm=[0,0,-C]T
2.5)利用激光雷达采集的激光点云数据计算旋转矩阵Rh和平移矩阵Th,其中,Th计算公式如下:
式中:Pt+1,V是t时刻车辆坐标系中的雷达坐标原点坐标;旋转矩阵Rc,t和平移矩阵Tc,t是t到t+1时刻陀螺仪采集到的车辆的位姿变化矩阵;Rt=Rc,t;
Rh计算公式如下:
2.6)计算激光雷达外参旋转矩阵RL、外参平移矩阵TL,计算公式如下:
RL=RmRh
TL=Tm+Th
3)相机和雷达的联合标定,计算激光雷达坐标系到相机坐标系的变换矩阵TDC,作为本发明的优选实施例,包括如下步骤:
3.1)将标定相机内外参数的棋盘格图纸贴在定位激光雷达的墙面上,采集图像数据和激光点云数据。
3.2)搭建相机坐标系:x1y1z1;x1y1z1中z1轴为空间竖直方向、x1轴正方向指向车辆正前方、y1轴正方向指向车辆右侧、坐标原点为相机底面正中心。
3.3)利用上述采集数据计算法向量集合矩阵MC、法向量集合矩阵MD、距离值集合矩阵bC、距离值集合矩阵bD,计算方法如下:
设棋盘格和墙面所在的平面方程为nTx-δ=0,δ指的是坐标系原点到平面的距离值,n表示该平面的法向量。设该平面到相机坐标系的旋转R1(r11,r12,r13)、平移矩阵t1,则在相机坐标系下nC=r13,δC=r13 Tt1。设该平面到激光雷达坐标系的旋转R2(r21,r22,r23)、平移矩阵t2,则在激光雷达坐标系下nD=r23,δD=r23 Tt2。
nCi代表相机坐标系下第i组图片中的法向量,δCi代表第i组图片中的距离值。
nDi代表激光雷达坐标系下第i组图片中的法向量,δDi代表第i组图片中的距离值。
MC=[nC1,nC2,...,nCn]T,bC=[δC1,δC2,...,δCn]T
MD=[nD1,nD2,...,nDn]T,bD=[δD1,δD2,...,δDn]T
3.4)计算激光雷达坐标系到相机坐标系的变换矩阵TDC,计算公式如下:
TDC=[RLH TLH]
4)采集数据,通过矩阵变换得到三维重建坐标系V1和V2中的三维点坐标,其中,V1为图像数据的三维重建坐标系,V2为激光点云的三维重建坐标系,作为本发明的优选实施例,包括如下步骤:
4.1)利用相机对大环境进行数据采集,得到RGB图像;
4.3)计算V1中各三维点坐标X3W,计算公式如下:
4.4)通过激光雷达对大环境进行数据采集,得到若干点云坐标p1i(i代表第I个点云);
4.5)计算V2中各三维坐标P2,计算公式如下:
其中:i为第i个点云,RL、TL为激光雷达外参。
5)进行激光雷达和相机的数据融合,实现三维重建,作为本发明的优选实施例,如图2所示,包括如下步骤:
5.1)过滤无效特征点
将大环境中的敏感区域(比如道路街景中路边建筑物)提取到的特征点定义为有效特征点,其他非敏感区域(比如道路街景中的树木风景,无关三维重建目的得一些环境信息)的特征点定义为无效特征点。采用Filter法,对不同特征点赋予权重区分,将无效特征点过滤掉,得到V1中的有效特征点集合。
5.2)将三维重建坐标系V1中有效特征点TTi投影到V2,计算公式如下:
其中:TTi代表V1中第i个有效特征点;
TTDDi代表第i个从V1投影到V2的有效特征点;
5.3)求解与有效特征点TTDDi匹配的最近点云,实现方法为:以V1投影到V2中的特征点TTDDi为基准点,采用ICP算法,得到每一个特征点TTDDi的最近匹配点云DDi。
5.4)计算变换矩阵TDC2,即TTi和DDi之间的矩阵变换关系,计算公式如下:
其中:TTi代表V1中第i个有效特征点坐标;DDi代表V2中第i个有效特征点匹配的点云坐标,TD'C2代表V1中每一个有效特征点到V2中匹配点云的变换矩阵;
5.5)实现图像层与点云层的深度融合,得到最终的三维重建,记V1中有效特征点集合包含的像素点集合为XS2,像素点投影到V2中的点集合为XS1,将像素点投影到V2中,计算公式如下:
其中:i代表第i个像素点,TDC2代表V1中有效特征点到V2中匹配点云的变换矩阵;
依据上述,可以最终得到一个包含了像素点集合、有效特征点集合以及激光点云的坐标系V1,从而实现了二维图像层与三维点云层的深度融合,得到最终的三维重建。
Claims (6)
1.一种基于多传感器融合用于智能车辆的三维重建方法,其特征在于,包括如下步骤:
1)标定相机参数,所述相机参数包括相机内参矩阵M、相机外参旋转矩阵RX和外参平移矩阵TX;
2)标定激光雷达参数,所述激光雷达参数包括激光雷达外参旋转矩阵RL、外参平移矩阵TL;
3)相机和雷达的联合标定,计算激光雷达坐标系到相机坐标系的变换矩阵TDC;
4)通过相机内参矩阵M、相机外参旋转矩阵RX和外参平移矩阵TX得到三维重建坐标系V1,通过激光雷达外参旋转矩阵RL、外参平移矩阵TL得到V2中的三维点坐标,其中V1为图像数据的三维重建坐标系,V2为激光点云的三维重建坐标系;
5)利用变换矩阵TDC进行激光雷达和相机的数据融合,实现三维重建。
2.如权利要求1所述的基于多传感器融合用于智能车辆的三维重建方法,其特征在于,所述步骤1)中,标定相机参数包括如下步骤:
1.1)采集棋盘格图像;
1.2)利用采集的棋盘格图像,采用张正友标定法对相机参数进行标定。
4.如权利要求1所述的基于多传感器融合用于智能车辆的三维重建方法,其特征在于所述步骤3)中,相机和雷达的联合标定包括如下步骤:
3.1)将标定相机内外参数的棋盘格图纸贴在定位激光雷达的墙面上,采集图像数据和激光点云数据;
3.2)搭建相机坐标系:x1y1z1;x1y1z1中z1轴为空间竖直方向、x1轴正方向指向车辆正前方、y1轴正方向指向车辆右侧、坐标原点为相机底面正中心;
3.3)利用上述采集数据计算法向量集合矩阵MC、法向量集合矩阵MD、距离值集合矩阵bC、距离值集合矩阵bD;
3.4)计算激光雷达坐标系到相机坐标系的变换矩阵TDC,计算公式如下:
TDC=[RLH TLH]
6.如权利要求1所述的基于多传感器融合用于智能车辆的三维重建方法,其特征在于所述步骤5)包括如下步骤:
5.1)采用Filter法,过滤无效特征点;
5.2)将三维重建坐标系V1中有效特征点TTi投影到V2;
5.3)采用ICP算法,求解与有效特征点TTDDi匹配的最近点云;
5.4)计算变换矩阵TDC2,即TTi和DDi之间的矩阵变换关系,计算公式如下:
其中:TTi代表V1中第i个有效特征点坐标;DDi代表V2中第i个有效特征点匹配的点云坐标,T′DC2代表V1中每一个有效特征点到V2中匹配点云的变换矩阵;
5.5)实现图像层与点云层的深度融合,得到最终的三维重建,记V1中有效特征点集合包含的像素点集合为XS2,像素点投影到V2中的点集合为XS1,将像素点投影到V2中,计算公式如下:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110538817.4A CN113421325B (zh) | 2021-05-18 | 2021-05-18 | 一种基于多传感器融合用于车辆的三维重建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110538817.4A CN113421325B (zh) | 2021-05-18 | 2021-05-18 | 一种基于多传感器融合用于车辆的三维重建方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113421325A true CN113421325A (zh) | 2021-09-21 |
CN113421325B CN113421325B (zh) | 2024-03-19 |
Family
ID=77712467
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110538817.4A Active CN113421325B (zh) | 2021-05-18 | 2021-05-18 | 一种基于多传感器融合用于车辆的三维重建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113421325B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116824067A (zh) * | 2023-08-24 | 2023-09-29 | 成都量芯集成科技有限公司 | 一种室内三维重建方法及其装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190266792A1 (en) * | 2016-11-16 | 2019-08-29 | SZ DJI Technology Co., Ltd. | Three-dimensional point cloud generation |
CN111612845A (zh) * | 2020-04-13 | 2020-09-01 | 江苏大学 | 一种基于移动标定板的激光雷达与相机联合标定方法 |
-
2021
- 2021-05-18 CN CN202110538817.4A patent/CN113421325B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190266792A1 (en) * | 2016-11-16 | 2019-08-29 | SZ DJI Technology Co., Ltd. | Three-dimensional point cloud generation |
CN111612845A (zh) * | 2020-04-13 | 2020-09-01 | 江苏大学 | 一种基于移动标定板的激光雷达与相机联合标定方法 |
Non-Patent Citations (1)
Title |
---|
许小徐;黄影平;胡兴;: "智能汽车激光雷达和相机数据融合***标定", 光学仪器, vol. 41, no. 06, pages 79 - 86 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116824067A (zh) * | 2023-08-24 | 2023-09-29 | 成都量芯集成科技有限公司 | 一种室内三维重建方法及其装置 |
CN116824067B (zh) * | 2023-08-24 | 2023-11-24 | 成都量芯集成科技有限公司 | 一种室内三维重建方法及其装置 |
Also Published As
Publication number | Publication date |
---|---|
CN113421325B (zh) | 2024-03-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110859044B (zh) | 自然场景中的集成传感器校准 | |
Yang et al. | Automatic registration of UAV-borne sequent images and LiDAR data | |
CN103093459B (zh) | 利用机载LiDAR点云数据辅助影像匹配的方法 | |
CN110119698B (zh) | 用于确定对象状态的方法、装置、设备和存储介质 | |
CN110595476B (zh) | 一种基于gps和图像视觉融合的无人机降落导航方法及装置 | |
CN105300403B (zh) | 一种基于双目视觉的车辆里程计算法 | |
JP2020525809A (ja) | 両眼画像に基づき高解像度地図を更新するためのシステムおよび方法 | |
CN105674993A (zh) | 基于双目相机的高精度视觉定位地图生成***及方法 | |
CN109842756A (zh) | 一种镜头畸变矫正和特征提取的方法及*** | |
Li et al. | Automatic registration of panoramic image sequence and mobile laser scanning data using semantic features | |
CN103744661B (zh) | 一种超低空无人机多传感器数据一体化处理方法及*** | |
JP2012185011A (ja) | 移動***置測定装置 | |
CN110197173B (zh) | 一种基于双目视觉的路沿检测方法 | |
WO2022067647A1 (zh) | 一种路面要素确定方法及装置 | |
US20150302611A1 (en) | Vehicle dimension estimation from vehicle images | |
WO2021017211A1 (zh) | 一种基于视觉的车辆定位方法、装置及车载终端 | |
CN113205604A (zh) | 一种基于摄像机和激光雷达的可行区域检测方法 | |
CN108280401A (zh) | 一种路面检测方法、装置、云端服务器及计算机程序产品 | |
WO2023065342A1 (zh) | 车辆及其定位方法、装置、设备、计算机可读存储介质 | |
Li et al. | Automatic parking slot detection based on around view monitor (AVM) systems | |
JP6278790B2 (ja) | 車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラムならびに車両位置検出システム | |
CN113421325A (zh) | 一种基于多传感器融合用于车辆的三维重建方法 | |
CN110197104B (zh) | 基于车辆的测距方法及装置 | |
WO2020113425A1 (en) | Systems and methods for constructing high-definition map | |
CN111260733B (zh) | 车载环视多相机***的外参数估计方法及其*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |