CN111123242B - 一种基于激光雷达和相机的联合标定方法及计算机可读存储介质 - Google Patents
一种基于激光雷达和相机的联合标定方法及计算机可读存储介质 Download PDFInfo
- Publication number
- CN111123242B CN111123242B CN201811290090.7A CN201811290090A CN111123242B CN 111123242 B CN111123242 B CN 111123242B CN 201811290090 A CN201811290090 A CN 201811290090A CN 111123242 B CN111123242 B CN 111123242B
- Authority
- CN
- China
- Prior art keywords
- point
- edge
- foreground
- edge point
- laser radar
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/497—Means for monitoring or calibrating
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
本申请涉及一种基于激光雷达和相机的联合标定方法及计算机可读存储介质,该联合标定方法包括以下步骤:对激光雷达提取的激光雷达点云进行边缘检测,提取背景部分边缘点,通过激光雷达点的深度差寻找每个背景边缘点对应的前景边缘点,通过多次寻找比较得到更接近边缘的前景边缘点,随后分别提取激光雷达边缘点云和同一时刻相机获取边缘图像中的圆的圆心和半径,通过针孔相机模型计算相机和激光雷达间的平移向量,在得到的平移向量的邻域空间内搜索标定参数,以找到使投影误差最小化的标定结果,其能够高精度地提取激光雷达扫在物体边缘的点,避免了由于激光雷达分辨率低导致的精度不够问题。通过得到的精确边缘点,能够得到更准确的标定结果。
Description
技术领域
本申请涉及标定领域,尤其涉及一种基于激光雷达和相机的联合标定方法及计算机可读存储介质。
背景技术
激光雷达和相机的融合被广泛应用于机器人视觉中的三维重建、自主导航和定位以及无人机等领域。单个传感器具有局限性,如相机易受光照、模糊外界环境影响,激光雷达数据点稀疏,而二者的融合可以弥补各自缺陷。
为了融合激光雷达和相机获取的信息,进行两者之间的联合标定是必不可少的。通过标定确定两个传感器空间坐标系之间的相互转换关系,从而使不同传感器获得的信息融合到统一坐标系下。目前多线激光雷达和相机间联合标定的方法大多使用一些具有空间几何特征的标定物,利用激光雷达在边缘处点的深度不连续性,提取距离突变的点作为边缘点,以用作标定的特征点,并和图像中提取的边缘信息进行配准,但由于激光雷达分辨率的影响,距离突变的点不是刚好准确位于物体边缘的点,因此获取的标定边缘点并不准确,从而影响标定结果的准确性。
因此,如何设计一种基于激光雷达和相机的联合标定方法,使激光雷达能过获取准确的边缘点用作标定,是实现激光雷达和相机精细标定需要解决的问题。
发明内容
为了解决上述技术问题或者至少部分地解决上述技术问题,本申请提供了一种基于激光雷达和相机的联合标定方法及计算机可读存储介质
有鉴于此,第一方面,本申请提供了一种基于激光雷达和相机的联合标定方法,该联合标定方法包括以下步骤:步骤1,对相机进行内参标定,以得到相机的内参矩阵;步骤2,提取第n帧获取的激光雷达点云中的第一前景边缘点和背景边缘点,其中,n为正整数;步骤3,对于第n+1帧获取的激光雷达点云,将其中最靠近边缘的距离突变且与背景边缘点水平角度差最小的点作为第二前景边缘点;步骤4,对于第n+2帧的激光雷达点云,重复执行步骤3,以得到第三前景边缘点,并将其与第二前景边缘点进行比较,取两者中更靠近边缘的距离突变点作为第四前景边缘点;步骤5,按照帧顺序依次获取新的一帧,重复执行步骤4,直到第n+k帧,以得到最终的第五前景边缘点,以及记录第n+k帧的时刻,其中,k为正整数;步骤6,根据第五前景边缘点和第n+k帧的时刻,提取第一圆半径和第一圆心坐标,并利用相机模型计算相机和激光雷达坐标系之间的平移向量;步骤7,在平移向量的邻域空间内搜索标定参数,选择使投影误差最小的标定参数作为标定结果。
作为本发明的一个实施例,提取第n帧获取的激光雷达点云中的第一前景边缘点和背景边缘点包括:步骤21,对于第n帧获取的激光雷达点云,计算第i个点和同一扫描线上的其相邻的两个点i-1和i+1到激光雷达的第一距离差的最大值,其中,i均为正整数;步骤22,提取第一距离差的最大值大于阈值的点,以得到边缘点,其中,边缘点包括第一前景边缘点和背景边缘点。
作为本发明的一个实施例,对于第n+1帧获取的激光雷达点云,将其中最靠近边缘的距离突变且与背景边缘点水平角度差最小的点作为第二前景边缘点包括:步骤31,对于第n+1帧获取的激光雷达点云,遍历所有的第一背景边缘点,计算第n+1帧中与第一背景边缘点位于同一扫描线上的点和背景边缘点的第二距离差;步骤32,在第二距离差大于阈值的情况下,将其对应的点存入前景点云中;步骤33,对于前景点云中的每个点,计算其与第一前景边缘点的第一水平角度差;步骤34,将第一水平角度差最小的点作为第二前景边缘点。
作为本发明的一个实施例,对于第n+1帧获取的激光雷达点云,将其中最靠近边缘的距离突变且与背景边缘点水平角度差最小的点作为第二前景边缘点还包括:对于背景边缘点,在第n+1帧获取的激光雷达点云中不存在第二距离差大于阈值的情况,则将第n帧中对应的第一前景边缘点作为第二前景边缘点。
作为本发明的一个实施例,将其与第二前景边缘点进行比较,取两者中更靠近边缘的距离突变点作为第四前景边缘点包括:步骤41,获取第二前景边缘点和背景边缘点的第二水平角度差、以及第三前景边缘点和背景边缘点的第三水平角度差;步骤42,比较第二水平角度差和第三水平角度差,并选取较小的点作为第四前景边缘点。
作为本发明的一个实施例,根据第五前景边缘点和第n+k帧的时刻,提取第一圆半径和第一圆心坐标,并利用相机模型计算相机和激光雷达坐标系之间的平移向量包括:步骤61,根据第五前景边缘点和RANSAC算法,获取第二圆半径和第二圆心坐标;步骤62,根据第n+k帧的时刻和Hough变换,获取第三圆半径和第三圆心坐标;步骤63,根据内参矩阵、第二圆半径、第二圆心坐标、第三圆半径和第三圆心坐标,确定平移向量。
作为本发明的一个实施例,步骤7还包括:根据标定参数和内参矩阵,将第n+k帧的时刻的激光雷达点云投影到图像平面。
第二方面,本申请提供了一种计算机可读存储介质,计算机可读存储介质上存储有可执行程序,可执行程序被处理器执行时实现如第一方面任一项的基于激光雷达和相机的联合标定方法的步骤。
本申请实施例提供的上述技术方案与现有技术相比具有如下优点:
本申请实施例提供的该方法,对激光雷达提取的激光雷达点云进行边缘检测,提取背景部分边缘点,通过激光雷达点的深度差寻找每个背景边缘点对应的前景边缘点,通过多次寻找比较得到更接近边缘的前景边缘点,随后分别提取激光雷达边缘点云和同一时刻相机获取边缘图像中的圆的圆心和半径,通过针孔相机模型计算相机和激光雷达间的平移向量,在得到的平移向量的邻域空间内搜索标定参数,以找到使投影误差最小化的标定结果,其能够高精度地提取激光雷达扫在物体边缘的点,避免了由于激光雷达分辨率低导致的精度不够问题。通过得到的精确边缘点,能够得到更准确的标定结果。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并与说明书一起用于解释本发明的原理。
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的一种基于激光雷达和相机的联合标定方法的流程示意图;
图2为本申请实施例提供的具有空间几何特征的标定物的示意图;
图3为本申请实施例提供的激光雷达和相机联合标定的示意图;
图4为本申请实施例提供的激光雷达扫描到边缘时的示意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请的一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请实施例提供了一种基于激光雷达和相机的联合标定方法,如图1所示,该联合标定方法可以包括以下步骤:
步骤S1,对相机进行内参标定,以得到相机的内参矩阵。
其中,f为相机焦距,[Ox,Oy]为主光轴点。如图2所示,设计具有空间几何特征的标定物,上面有四个半径r相同、任意相邻的两个圆的圆心距离l相同的镂空的圆,继续参见图3,将该标定物放置在相机和激光雷达能够同时获取到的位置,同时,激光雷达和相机的位置相对固定,标定板到激光雷达的距离为L,背景墙与标定板之间距离为d。
步骤S2,提取第n帧获取的激光雷达点云Pn中的第一前景边缘点和背景边缘点,其中,n为正整数。
在该步骤中,提取第n帧获取的激光雷达点云Pn中的第一前景边缘点和背景边缘点包括:步骤S21,对于第n帧获取的激光雷达点云Pn,计算第i个点Pi n与同一扫描线上相邻两点i-1点和i+1点到激光雷达距离差的最大值Xi可表示为:
步骤S22,提取距离差的最大值Xi的值大于阈值R的点,得到边缘点,阈值R的取值略小于标定板和背景墙之间的距离差d。此外,得到的边缘点包括两个部分:扫在背景墙上的最靠近标定板边缘的背景边缘点,以及落在标点板边缘的第一前景边缘点。以及,保留背景部分的角度限制,导致前景部分边缘点为Bn,前景标定板上的边缘点为Fn。
如图4所示,l2表示俯视角度下的标定板平面,l1表示背景墙,由于激光雷达的分辨率有限,同一扫描线上相邻两点P1和P2间存在一定的提取到的边缘点P2不一定刚好扫描到标定板的边缘,由此给边缘提取带来误差。为了提取更精准的标定板边缘点,本发明将Bn作为参考帧,以寻找更靠近标定板边缘的前景边缘点。
步骤S3,对于第n+1帧获取的激光雷达点云Pn+1,将其中最靠近边缘的距离突变且与背景边缘点水平角度差最小的点作为第二前景边缘点。
在该步骤中,获取新的一帧点云,寻找其中最靠近边缘的距离突变的点为前景边缘点。由于激光雷达扫描精度不稳定,同一扫描线上相邻两点间的水平角度差不是完全一样的,因此可能存在图4所示情况,P1和P2为第n次扫描分别提取的背景边缘点和前景边缘点,在n+1次扫描中,在P1和P2之间可能有多个扫描点Q1,Q2,Q3,因此,需对每个距离突变的点比较其与背景点的水平角度差,取最靠近边缘的点。
步骤S4,对于第n+2帧的激光雷达点云Pn+2,重复执行步骤S3,以得到第三前景边缘点,并将其与第二前景边缘点进行比较,取两者中更靠近边缘的距离突变点作为第四前景边缘点。
在该步骤中,继续获取下一帧激光雷达点云,寻找最靠近边缘的距离突变的点,并与上一帧得到的前景边缘点比较,取更靠近边缘的距离突变点为前景边缘点。
即获取第n+2帧获取的激光雷达点云Pn+2,重复上述步骤S3以得到第n+2帧中与同一扫描线上的点和的距离差RangeDiff,并选取与水平角度差最小的点作为新一次找到的边缘点比较精准边缘点Si与的水平角度差,以及新一次找到的边缘点与的水平角度差,选取较小的点作为第四前景边缘点(或新的前景边缘点Si)。
步骤S5,按照帧顺序依次获取新的一帧,重复执行步骤S4,直到第n+k帧,以得到最终的第五前景边缘点,以及记录第n+k帧的时刻,其中,k为正整数。
在该步骤中,继续获取第n+3帧、第n+4帧、第n+5帧等,并重复上述步骤S4,直到第n+k帧,得到第五前景边缘点(或最终的精确边缘点Si),获取该帧的时刻记为ti,其中,k为精确找点循环次数。
步骤S6,根据第五前景边缘点和第n+k帧的时刻,提取第一圆半径和第一圆心坐标,并利用相机模型计算相机和激光雷达坐标系之间的平移向量。
在该实施例中,对ti时刻得到的第五前景边缘点用RANSAC算法去除直线,即标定板两边的直线边缘,以及通过RANSAC算法求得激光雷达点云中标定平面和球的交点即圆,得到圆的半径r3d和圆心坐标[X,Y,Z]。同时对ti时刻获取的图像利用Hough变换检测圆,求出圆的半径r2d和圆心坐标[u,v]。利用相机模型计算相机和激光雷达坐标系之间的平移向量。
其中,[x,y,w]T表示相机坐标系下点的坐标,[X,Y,Z,1]T表示三维激光雷达坐标系下点的坐标,P为相机内参矩阵,C为要求的标定矩阵。这里只考虑平移变换,令
其中,[tx,ty,tz]表示平移向量。假设标定物平面是竖直的,通过针孔相机模型可以得到z方向的平移。
其中,Z是圆心的深度坐标。根据公式(6.1)和公式(6.4)可得tx和ty:
随后,对四个圆计算的平移结果求平均,得到最终的平移向量[tx,ty,tz]。
步骤S7,在平移向量的邻域空间内搜索标定参数,选择使投影误差最小的标定参数作为标定结果。
在该步骤中,用上述步骤S6得到的平移量[tx,ty,tz]来初始化标定参数C为[tx,ty,tz,0,0,0],这里用0初始化旋转参数rx,ry,rz。根据激光雷达点云的距离信息,用Otsu阈值将雷达点云分割为前景和背景,以及通过自适应阈值分割将相机图像也分为前景和背景。此外,使用标定参数C和内参矩阵P将ti时刻的激光雷达点云投影到图像平面。另外,投影误差PE的值可以用错误投影点E的数量(即投影在背景段上的前景点,反之亦然)除以点云中的点的总数P来计算:
密集搜索标定参数C的邻域空间,选择使投影误差PE最小的标定参数C作为最终结果。
本申请实施例提供的该方法,能够高精度地提取激光雷达扫在物体边缘的点,避免了由于激光雷达分辨率低导致的精度不够问题。通过得到的精确边缘点,能够得到更准确的标定结果。
本申请实施例还提供了一种计算机可读存储介质,计算机可读存储介质上存储有可执行程序,可执行程序被处理器执行时实现如图1中任一项的基于激光雷达和相机的联合标定方法的步骤。
以上所述仅是本发明的具体实施方式,使本领域技术人员能够理解或实现本发明。对这些实施例的多种修改对本领域的技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所申请的原理和新颖特点相一致的最宽的范围。
Claims (7)
1.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有可执行程序,所述可执行程序被处理器执行时实现基于激光雷达和相机的联合标定方法,所述基于激光雷达和相机的联合标定方法,包括:
步骤1,对所述相机进行内参标定,以得到所述相机的内参矩阵;
步骤2,提取第n帧获取的激光雷达点云中的第一前景边缘点和背景边缘点,其中,n为正整数;
步骤3,对于第n+1帧获取的激光雷达点云,将其中最靠近边缘的距离突变且与所述背景边缘点水平角度差最小的点作为第二前景边缘点;
步骤4,对于第n+2帧的激光雷达点云,重复执行所述步骤3,以得到第三前景边缘点,并将其与所述第二前景边缘点进行比较,取两者中更靠近边缘的距离突变点作为第四前景边缘点;
步骤5,按照帧顺序依次获取新的一帧,重复执行所述步骤4,直到第n+k帧,以得到最终的第五前景边缘点,以及记录所述第n+k帧的时刻,其中,k为正整数;
步骤6,根据所述第五前景边缘点和所述第n+k帧的时刻,提取第一圆半径和第一圆心坐标,并利用相机模型计算相机和激光雷达坐标系之间的平移向量;
步骤7,在所述平移向量的邻域空间内搜索标定参数,选择使投影误差最小的标定参数作为标定结果。
2.根据权利要求1所述的计算机可读存储介质,其特征在于,提取第n帧获取的激光雷达点云中的第一前景边缘点和背景边缘点包括:
步骤21,对于所述第n帧获取的激光雷达点云,计算第i个点和同一扫描线上的其相邻的两个点i-1和i+1到所述激光雷达的第一距离差的最大值,其中,i均为正整数;
步骤22,提取所述第一距离差的最大值大于阈值的点,以得到边缘点,其中,所述边缘点包括所述第一前景边缘点和所述背景边缘点。
3.根据权利要求1所述的计算机可读存储介质,其特征在于,对于第n+1帧获取的激光雷达点云,将其中最靠近边缘的距离突变且与所述背景边缘点水平角度差最小的点作为第二前景边缘点包括:
步骤31,对于第n+1帧获取的激光雷达点云,遍历所有的第一背景边缘点,计算所述第n+1帧中与所述第一背景边缘点位于同一扫描线上的点和所述背景边缘点的第二距离差;
步骤32,在所述第二距离差大于阈值的情况下,将其对应的点存入前景点云中;
步骤33,对于所述前景点云中的每个点,计算其与所述第一前景边缘点的第一水平角度差;
步骤34,将所述第一水平角度差最小的点作为所述第二前景边缘点。
4.根据权利要求3所述的计算机可读存储介质,其特征在于,对于第n+1帧获取的激光雷达点云,将其中最靠近边缘的距离突变且与所述背景边缘点水平角度差最小的点作为第二前景边缘点还包括:
对于所述背景边缘点,在所述第n+1帧获取的激光雷达点云中不存在所述第二距离差大于所述阈值的情况,则将所述第n帧中对应的第一前景边缘点作为所述第二前景边缘点。
5.根据权利要求1所述的计算机可读存储介质,其特征在于,将其与所述第二前景边缘点进行比较,取两者中更靠近边缘的距离突变点作为第四前景边缘点包括:
步骤41,获取所述第二前景边缘点和所述背景边缘点的第二水平角度差、以及所述第三前景边缘点和所述背景边缘点的第三水平角度差;
步骤42,比较所述第二水平角度差和所述第三水平角度差,并选取较小的点作为所述第四前景边缘点。
6.根据权利要求1所述的计算机可读存储介质,其特征在于,根据所述第五前景边缘点和所述第n+k帧的时刻,提取第一圆半径和第一圆心坐标,并利用相机模型计算相机和激光雷达坐标系之间的平移向量包括:
步骤61,根据所述第五前景边缘点和RANSAC算法,获取第二圆半径和第二圆心坐标;
步骤62,根据所述第n+k帧的时刻和Hough变换,获取第三圆半径和第三圆心坐标;
步骤63,根据所述内参矩阵、所述第二圆半径、所述第二圆心坐标、所述第三圆半径和所述第三圆心坐标,确定所述平移向量。
7.根据权利要求1所述的计算机可读存储介质,其特征在于,所述步骤7还包括:
根据所述标定参数和内参矩阵,将所述第n+k帧的时刻的激光雷达点云投影到图像平面。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811290090.7A CN111123242B (zh) | 2018-10-31 | 2018-10-31 | 一种基于激光雷达和相机的联合标定方法及计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811290090.7A CN111123242B (zh) | 2018-10-31 | 2018-10-31 | 一种基于激光雷达和相机的联合标定方法及计算机可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111123242A CN111123242A (zh) | 2020-05-08 |
CN111123242B true CN111123242B (zh) | 2022-03-15 |
Family
ID=70494303
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811290090.7A Active CN111123242B (zh) | 2018-10-31 | 2018-10-31 | 一种基于激光雷达和相机的联合标定方法及计算机可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111123242B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111638680B (zh) * | 2020-06-15 | 2021-03-12 | 大连誉洋工业智能有限公司 | 一种基于机器人的铸件圆形结构打磨路径规划方法 |
CN113759346B (zh) * | 2020-10-10 | 2024-06-18 | 北京京东乾石科技有限公司 | 一种激光雷达标定方法、装置、电子设备及存储介质 |
CN112446927A (zh) * | 2020-12-18 | 2021-03-05 | 广东电网有限责任公司 | 激光雷达和相机的联合标定方法、装置、设备及存储介质 |
CN113050074B (zh) * | 2021-03-16 | 2023-08-25 | 成都信息工程大学 | 无人驾驶环境感知中相机与激光雷达标定***及标定方法 |
CN115601451B (zh) * | 2022-12-14 | 2023-03-21 | 深圳思谋信息科技有限公司 | 外参数据标定方法、装置、计算机设备和存储介质 |
CN116447977B (zh) * | 2023-06-16 | 2023-08-29 | 北京航天计量测试技术研究所 | 一种基于激光雷达的圆孔特征测量与参数提取方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2728376A1 (en) * | 2012-11-05 | 2014-05-07 | The Chancellor, Masters and Scholars of the University of Oxford | Extrinsic calibration of imaging sensing devices and 2D LIDARs mounted on transportable apparatus |
CN107976668A (zh) * | 2016-10-21 | 2018-05-01 | 法乐第(北京)网络科技有限公司 | 一种确定相机与激光雷达之间的外参数的方法 |
CN107977997A (zh) * | 2017-11-29 | 2018-05-01 | 北京航空航天大学 | 一种结合激光雷达三维点云数据的相机自标定方法 |
CN109300162A (zh) * | 2018-08-17 | 2019-02-01 | 浙江工业大学 | 一种基于精细化雷达扫描边缘点的多线激光雷达和相机联合标定方法 |
-
2018
- 2018-10-31 CN CN201811290090.7A patent/CN111123242B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2728376A1 (en) * | 2012-11-05 | 2014-05-07 | The Chancellor, Masters and Scholars of the University of Oxford | Extrinsic calibration of imaging sensing devices and 2D LIDARs mounted on transportable apparatus |
CN107976668A (zh) * | 2016-10-21 | 2018-05-01 | 法乐第(北京)网络科技有限公司 | 一种确定相机与激光雷达之间的外参数的方法 |
CN107977997A (zh) * | 2017-11-29 | 2018-05-01 | 北京航空航天大学 | 一种结合激光雷达三维点云数据的相机自标定方法 |
CN109300162A (zh) * | 2018-08-17 | 2019-02-01 | 浙江工业大学 | 一种基于精细化雷达扫描边缘点的多线激光雷达和相机联合标定方法 |
Non-Patent Citations (1)
Title |
---|
Calibration of RGB Camera with Velodyne Lidar;Martin Velas etc.;《WSCG2014 Conference on Computer Graphics,Visualization and Computer Vision》;20141231;正文第135-144页 * |
Also Published As
Publication number | Publication date |
---|---|
CN111123242A (zh) | 2020-05-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109300162B (zh) | 一种基于精细化雷达扫描边缘点的多线激光雷达和相机联合标定方法 | |
CN111123242B (zh) | 一种基于激光雷达和相机的联合标定方法及计算机可读存储介质 | |
Pusztai et al. | Accurate calibration of LiDAR-camera systems using ordinary boxes | |
CN109961468B (zh) | 基于双目视觉的体积测量方法、装置及存储介质 | |
Kang et al. | Automatic targetless camera–lidar calibration by aligning edge with gaussian mixture model | |
CN109801333B (zh) | 体积测量方法、装置、***及计算设备 | |
US8792726B2 (en) | Geometric feature extracting device, geometric feature extracting method, storage medium, three-dimensional measurement apparatus, and object recognition apparatus | |
JP6573419B1 (ja) | 位置決め方法、ロボット及びコンピューター記憶媒体 | |
CN113256729B (zh) | 激光雷达与相机的外参标定方法、装置、设备及存储介质 | |
CN113096183B (zh) | 一种基于激光雷达与单目相机的障碍物检测与测量方法 | |
Muñoz-Bañón et al. | Targetless camera-LiDAR calibration in unstructured environments | |
US20110235898A1 (en) | Matching process in three-dimensional registration and computer-readable storage medium storing a program thereof | |
CN110458952B (zh) | 一种基于三目视觉的三维重建方法和装置 | |
KR102490521B1 (ko) | 라이다 좌표계와 카메라 좌표계의 벡터 정합을 통한 자동 캘리브레이션 방법 | |
CN113049184A (zh) | 一种质心测量方法、设备及存储介质 | |
KR20220025028A (ko) | 시각적 비콘 기반의 비콘 맵 구축 방법, 장치 | |
CN115685160A (zh) | 基于标靶的激光雷达与相机标定方法、***、电子设备 | |
CN115661252A (zh) | 一种实时位姿估计方法、装置、电子设备以及存储介质 | |
JPH07103715A (ja) | 視覚に基く三次元位置および姿勢の認識方法ならびに視覚に基く三次元位置および姿勢の認識装置 | |
GB2569609A (en) | Method and device for digital 3D reconstruction | |
KR100933304B1 (ko) | 단일 카메라를 이용한 객체 정보 추정기, 그 방법, 상기 추정기를 포함하는 멀티미디어 기기 및 컴퓨터 기기, 및 상기 방법을 수행하기 위한 프로그램을 기록한 컴퓨터로 판독 가능한 기록매체 | |
CN113405532B (zh) | 基于视觉***结构参数的前方交会测量方法及*** | |
CN115393381A (zh) | 一种直线度的检测方法、装置、计算机设备及存储介质 | |
JP2567923B2 (ja) | 距離計測方法 | |
CN113223163A (zh) | 点云地图构建方法及装置、设备、存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20230822 Address after: Room 3001, 3rd Floor, Incubation Building, Hainan Ecological Software Park, Laocheng High tech Industry Demonstration Zone, Chengmai County, Sansha City, Hainan Province, 571900 Patentee after: Hainan Zhibo Rui Technology Co.,Ltd. Address before: Room zt325, science and technology building, No. 45, Zhaitang street, Mentougou District, Beijing 102300 Patentee before: Beijing Yaxing Zhishu Technology Co.,Ltd. |
|
TR01 | Transfer of patent right |