CN116342708A - 基于单应性变换的毫米波雷达与摄像头自动标定方法 - Google Patents

基于单应性变换的毫米波雷达与摄像头自动标定方法 Download PDF

Info

Publication number
CN116342708A
CN116342708A CN202211545766.9A CN202211545766A CN116342708A CN 116342708 A CN116342708 A CN 116342708A CN 202211545766 A CN202211545766 A CN 202211545766A CN 116342708 A CN116342708 A CN 116342708A
Authority
CN
China
Prior art keywords
millimeter wave
wave radar
homography
target
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211545766.9A
Other languages
English (en)
Inventor
黄海遵
陈倩
宁武
王池华
甘雯雯
李晓欢
霍科辛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangxi Comprehensive Transportation Big Data Research Institute
Guangxi Beigang Big Data Technology Co ltd
Original Assignee
Guangxi Comprehensive Transportation Big Data Research Institute
Guangxi Beigang Big Data Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangxi Comprehensive Transportation Big Data Research Institute, Guangxi Beigang Big Data Technology Co ltd filed Critical Guangxi Comprehensive Transportation Big Data Research Institute
Priority to CN202211545766.9A priority Critical patent/CN116342708A/zh
Publication of CN116342708A publication Critical patent/CN116342708A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

本发明属于多传感器自动标定技术领域,具体涉及一种基于单应性变换的毫米波雷达与摄像头自动标定方法,包括以下步骤:S1、通过毫米波雷达目标可视化界面确定参考目标的ID,记录下毫米波雷达的坐标作为关键点;S2、通过目标检测算法识别参考目标在图像上的位置,并将目标的中心像素点记为关键点;S3、选取当前帧图像中的关键点和毫米波雷达的关键点作为对应点,判断当前保存的对应点组数是否大于4组,满足单应性变换的最低条件;S4、当达到满足单应性变换的最低条件时,利用当前保存的对应点组进行单应性变换,输出一个单应性变换矩阵,利用这个单应性变换矩阵,将当前帧所有毫米波雷达目标映射到图像上,观测转换的效果是否符合要求。

Description

基于单应性变换的毫米波雷达与摄像头自动标定方法
技术领域
本发明属于多传感器自动标定技术领域,具体涉及一种基于单应性变换的毫米波雷达与摄像头自动标定方法。
背景技术
毫米波雷达是指工作波长介于1-10mm的电磁波雷达。毫米波雷达具有频段宽,容易实现窄波速,分辨率高,不容易受干扰等特点。毫米波雷达时测量物体相对距离、相对速度、相对方位的高精度传感器,早期被应用于军属领域。随着雷达技术的发展与进步,毫米波雷达传感器开始用于汽车电子、无人机、智能交通等多个领域。
传统的毫米波雷达标定需要先计算出相机的内参,再通过角反找出毫米波雷达与摄像头图像的对应点计算出外参。采集到摄像头和毫米波雷达的数据后,后期人工标记毫米波雷达目标对应图像中的像素点。这种方法需要特定的设备,且过程过于繁琐费时。因此,本申请提出一种基于单应性变换的毫米波雷达与摄像头自动标定方法。
公开于该背景技术部分的信息仅仅旨在增加对本发明的总体背景的理解,而不应当被视为承认或以任何形式暗示该信息构成已为本领域一般技术人员所公知的现有技术。
发明内容
本发明的目的是在于提供一种基于单应性变换的毫米波雷达与摄像头自动标定方法,以解决传统的标定方法后期人工标记毫米波雷达目标对应图像中的像素点的过程过于繁琐费时的问题。
为了实现上述目的,本发明提供了如下技术方案:
基于单应性变换的毫米波雷达与摄像头自动标定方法,包括以下步骤:
S1、通过毫米波雷达目标可视化界面确定参考目标的ID,记录下毫米波雷达的坐标作为关键点;
S2、通过目标检测算法识别参考目标在图像上的位置,并将目标的中心像素点记为关键点;
S3、选取当前帧图像中的关键点和毫米波雷达的关键点作为对应点,判断当前保存的对应点组数是否大于4组,满足单应性变换的最低条件;
S4、当达到满足单应性变换的最低条件时,利用当前保存的对应点组进行单应性变换,输出一个单应性变换矩阵,利用这个单应性变换矩阵,将当前帧所有毫米波雷达目标映射到图像上,观测转换的效果是否符合要求;若转换点位置与实际目标位置存在偏差,则继续选取关键点。
作为优选,定义步骤S1毫米波雷达上的关键点为(xr,yr),步骤S2中像素坐标系上的关键点为(uo,vo),单应性矩阵如式
Figure BDA0003979756090000021
所示,两坐标系间的转换关系可以表示为:/>
Figure BDA0003979756090000022
将矩阵展开后可以得到/>
Figure BDA0003979756090000023
变换可得/>
Figure BDA0003979756090000024
作为优选,单应性变换模型是通过采集多组对应点后利用随机抽样一致算法来计算。
作为优选,步骤S2中以行人作为参考对象,通过目标检测算法获得行人在图片上检测框左上的坐标以及检测框的长宽left,top,width,height,定义毫米波雷达高度与人体的高度之比为κ,行人中心点(uqi,vqi)作为像素坐标系上的关键点,并可由式
Figure BDA0003979756090000031
得到。
与现有技术相比,本发明具有如下有益效果:
(1)本发明的基于单应性变换的毫米波雷达与摄像头自动标定方法,使用基于深度学习的关键点提取方法,利用卷积神经网络行人检测模块,可以实时识别参考对象行人在图像上的位置,解决了传统的标定方法后期人工标记毫米波雷达目标对应图像中的像素点的过程过于繁琐费时的问题。
(2)本发明的基于单应性变换的毫米波雷达与摄像头自动标定方法,选择行人作为标定的参考对象,减少了使用铁皮或是角反等器材作为参考对象时的成本,并且避免了携带时不方便的情况发生。
(3)本发明的基于单应性变换的毫米波雷达与摄像头自动标定方法,利用深度学习算法识别图片中的目标,不受背景的影响,可以在背景复杂的环境下使用。
附图说明
图1是本发明的标定流程图;
图2是InceptionNet的结构示意图;
图3是YOLOv4-tiny网络的网络架构示意图;
图4是本发明的图像关键点提取示意图;
图5是本发明的毫米波雷达可视化信息界面示意图。
具体实施方式
下面对本发明专利的技术方案进行清楚、完整的描述,显然,所描述的实施例是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域所属的技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参照附图1,基于单应性变换的毫米波雷达与摄像头自动标定方法,包括以下步骤:
S1、通过毫米波雷达目标可视化界面确定参考目标的ID,记录下毫米波雷达的坐标作为关键点;每个目标被毫米波雷达检测到后都会被标记上ID序号,通过观察找出可视化界面中与参考目标行动路径一致的目标,记录下ID序号,即可实时获取到参考对象在毫米波雷达坐标系上的坐标点;
S2、通过目标检测算法识别参考目标在图像上的位置,利用卷积神经网络行人检测模块实时识别参考对象行人在图像上的位置,并将目标的中心像素点记为关键点;
S3、选取当前帧图像中的关键点和毫米波雷达的关键点作为对应点,判断当前保存的对应点组数是否大于4组,满足单应性变换的最低条件;
S4、当达到满足单应性变换的最低条件时,利用当前保存的对应点组进行单应性变换,输出一个单应性变换矩阵,利用这个单应性变换矩阵,将当前帧所有毫米波雷达目标映射到图像上,观测转换的效果是否符合要求;若转换点位置与实际目标位置存在偏差,则继续选取关键点。
传统的毫米波雷达标定需要先计算出相机的内参,再通过角反找出毫米波雷达与摄像头图像的对应点计算出外参。这种方法需要特定的设备,且过程过于繁琐。因此,本发明提出一种基于单应性变换的毫米波雷达与摄像头自动标定方法。
定义毫米波雷达上的点(xr,yr)与像素坐标系上的点(uo,vo)是一组对应点,单应性矩阵如式所示:
Figure BDA0003979756090000041
则两坐标系间的转换关系可以表示为:
Figure BDA0003979756090000051
将矩阵展开后可以得到两个等式:
Figure BDA0003979756090000052
由上式可知,一组对应点可以得到2个等式。将式(3)变换可得:
Figure BDA0003979756090000053
设有N组对应点,根据式(4)可得:
Figure BDA0003979756090000054
由于单应性变换矩阵有9个待定参数,因此至少需要5组对应点进行求解。而通过式(6)与式(3)可以得到式(7):
Figure BDA0003979756090000055
Figure BDA0003979756090000056
由式(7)可知,在毫米波雷达坐标系上的点不管是经过aHh还是Hh的转换,都可以得到像素坐标系上的对应点。因此,可以设a=1/h33,则式(4)可以变换为:
Figure BDA0003979756090000061
这样就只有8个待定参数,最少使用4组对应点即可求出的解。但对应点中可能会出现误匹配的情况,仅用4组点会出现比较大的误差。为了使数值更加准确,通常会采集更多的对应点计算。
本发明采集多组对应点后利用随机抽样一致(Random Sample Consensus,RANSAC)算法来计算单应性变换模型。算法的原理是:假定有M个数据组成的数据集P,而P中多数点可以由一个模型生成,则可以由以下的步骤得到模型:
Figure BDA0003979756090000062
由于通常集合的数量都会很大,进行k次迭代时运算负担也会很大。因此迭代次数k的取值很关键。k是一个不断更新的参数,设ω为内点占所有点的比例,z为经过k次选取后,至少有一次选取的n个点都为内点的概率,因此可得:
z=1-(1-ωn)k (9)
(1-ωn)表示选取的n个点不都是内点的概率,(1-ωn)k表示k次选取中,没有一次选取的点都是内点的概率。则可以得到k的公式为:
Figure BDA0003979756090000071
z的取值一般大于95%。
单应性变换需要多组对应点数据,传统的标定方法一般是采集到摄像头和毫米波雷达的数据后,后期人工标记毫米波雷达目标对应图像中的像素点。这种方法比较繁琐费时,本发明使用了一种基于深度学习的关键点提取方法,通过深度学习算法找出图像中的关键点,减少了后期标记的麻烦。
标定中作为参考对象的器材一般是铁皮或是角反,这些不常见的器材不仅增加了成本且携带不方便。为了减少标定所需的设备,本发明选择行人作为标定的参考对象。毫米波雷达利用聚类的方法获取目标的信息,基于这一点,可以认为毫米波雷达返回的是目标中心的坐标信息,因此图像中的对应点应该为行人的中心点位置。
传统行人检测算法在识别图像目标时,需要通过边缘检测获取目标轮廓的二值图像,根据二值图像中最小和最大的边缘像素点来计算出中心点位置。这种方法的弊端在于无法在背景复杂的环境下使用,因此为了获取图片中行人中心点的像素坐标,不会受背景的影响,能学习并识别到行人特征的深度学习方法更有优势,本发明利用深度学习算法识别图片中的目标。
为了提取更全面的特征点信息,进一步提高检测的精度,本发明参考了InceptionNet的思路,用不同大小的卷积核来提取图中不同感受野的信息,并将结果融合以获得更强的图像表征能力。InceptionNet是深度学习中一个经典的网络架构,它改变了当时多数网络框架仅通过加深网络来提升性能的状况。
InceptionNet提出用增加网络宽度的方法来提升检测性能的思路,是由于图像中目标特征可能在尺寸上有很大的变化。由于特征位置尺寸的巨大变化,为卷积操作选择正确的卷积核大小变得十分困难。而通过让多个不同尺寸的卷积层并列,让网络变得更宽是解决这个问题的有效手段。
参照附图2,Conv 1×1表示卷积核尺寸为1×1的卷积层,Conv 5×5表示卷积核尺寸为5×5的卷积层,Conv 3×3表示卷积核尺寸为3×3的卷积层。Maxpooling 3×3表示尺寸为3×3的最大池化层,Concat表示沿通道方向特征图拼接操作。Inception由4个分支组成,输入的特征图经过不同分支下尺寸不同的卷积层处理后,各分支输出结果经过Concat操作连接,发送到下一个模块。为了降低计算成本,InceptionNet的作者将一个大小为1×1的卷积层添加在大小为3×3和5×5的卷积层前面,通过这个卷积层将输入特征图的通道数减少到一定数值,以此来减少后续卷积操作的计算量。
通过目标检测算法,可以获得行人在图片上检测框左上的坐标以及检测框的长宽left,top,width,height,行人中心点(uqi,vqi)可由式(11)得到:
Figure BDA0003979756090000081
YOLOv4-tiny是YOLOv4的精简版本,拥有更快的检测速度,计算资源的消耗更少,适合在移动端设备使用。YOLOv4-tiny网络,其网络架构如附图3所示。YOLOv4-tiny的Backbone主要由DBL和Resblock两个模块构成。其中DBL由一个卷积层,BN层,Leaky激活函数组成,为网络中常用的一个基础模块。Resblock由输入卷积层和多个Res模块Concate组成。Concate为特征图拼接操作,增加特征图的维度。Res模块为残差结构,其是为了防止随着网络层加深,训练效果变差的问题发生。
网络中借鉴了特征金字塔网络(Feature Pyramid Networks,FPN)。当卷积神经网络的网络层数不断加深,网络能获取的特征信息也就更丰富,但图像的尺寸也在变小,不利于小物体的检测,同时经过网络深层提取的特征图也可能丢失在浅层获取的初级信息。特征金字塔网络正是为了解决这个问题而提出的。特征金字塔网络的思路是通过将深层分辨率低的特征图上采样调整尺寸成浅层分辨率高的特征图相同尺寸,并将两者沿着通道方向拼接融合,这样形成的特征图不仅具有高分辨率还具有深层特征的强语义信息。
由于毫米波雷达扫描的区域为一个扇形的二维平面,没有高度信息,因此高度根据毫米波雷达距离地面的垂直距离来确定。设毫米波雷达高度与人体的高度之比为κ,根据此信息可以确定毫米波雷达检测到目标映射到图像中的高度位置。
参照附图4,图中人体周围的绿框即为行人检测算法获取的检测框,因此可以得出表示人体检测点的红点,这个像素点就是像素坐标系中的关键点。
在开阔场景下,将毫米波雷达目标可视化可以轻易找出与参考对象匹配的目标,可视化界面如附图5所示。
本发明的基于单应性变换的毫米波雷达与摄像头自动标定方法,可以解决传统的标定方法后期人工标记毫米波雷达目标对应图像中的像素点的过程过于繁琐费时的问题,具有较好的市场应用前景。
前述对本发明的具体示例性实施方案的描述是为了说明和例证的目的。这些描述并非想将本发明限定为所公开的精确形式,并且很显然,根据上述教导,可以进行很多改变和变化。对示例性实施例进行选择和描述的目的在于解释本发明的特定原理及其实际应用,从而使得本领域的技术人员能够实现并利用本发明的各种不同的示例性实施方案以及各种不同的选择和改变。本发明的范围意在由权利要求书及其等同形式所限定。

Claims (4)

1.基于单应性变换的毫米波雷达与摄像头自动标定方法,其特征在于,包括以下步骤:
S1、通过毫米波雷达目标可视化界面确定参考目标的ID,记录下毫米波雷达的坐标作为关键点;
S2、通过目标检测算法识别参考目标在图像上的位置,并将目标的中心像素点记为关键点;
S3、选取当前帧图像中的关键点和毫米波雷达的关键点作为对应点,判断当前保存的对应点组数是否大于4组,满足单应性变换的最低条件;
S4、当达到满足单应性变换的最低条件时,利用当前保存的对应点组进行单应性变换,输出一个单应性变换矩阵,利用这个单应性变换矩阵,将当前帧所有毫米波雷达目标映射到图像上,观测转换的效果是否符合要求;若转换点位置与实际目标位置存在偏差,则继续选取关键点。
2.根据权利要求1所述的基于单应性变换的毫米波雷达与摄像头自动标定方法,其特征在于,定义步骤S1毫米波雷达上的关键点为(xr,yr),步骤S2中像素坐标系上的关键点为(uo,vo),单应性矩阵如式
Figure FDA0003979756080000011
所示,两坐标系间的转换关系可以表示为:
Figure FDA0003979756080000012
将矩阵展开后可以得到/>
Figure FDA0003979756080000013
变换可得/>
Figure FDA0003979756080000014
3.根据权利要求1所述的基于单应性变换的毫米波雷达与摄像头自动标定方法,其特征在于,单应性变换模型是通过采集多组对应点后利用随机抽样一致算法来计算。
4.根据权利要求1所述的基于单应性变换的毫米波雷达与摄像头自动标定方法,其特征在于,步骤S2中以行人作为参考对象,通过目标检测算法获得行人在图片上检测框左上的坐标以及检测框的长宽left,top,width,height,定义毫米波雷达高度与人体的高度之比为κ,行人中心点(uqi,vqi)作为像素坐标系上的关键点,并可由式
Figure FDA0003979756080000021
得到。
CN202211545766.9A 2022-12-05 2022-12-05 基于单应性变换的毫米波雷达与摄像头自动标定方法 Pending CN116342708A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211545766.9A CN116342708A (zh) 2022-12-05 2022-12-05 基于单应性变换的毫米波雷达与摄像头自动标定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211545766.9A CN116342708A (zh) 2022-12-05 2022-12-05 基于单应性变换的毫米波雷达与摄像头自动标定方法

Publications (1)

Publication Number Publication Date
CN116342708A true CN116342708A (zh) 2023-06-27

Family

ID=86879610

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211545766.9A Pending CN116342708A (zh) 2022-12-05 2022-12-05 基于单应性变换的毫米波雷达与摄像头自动标定方法

Country Status (1)

Country Link
CN (1) CN116342708A (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102176243A (zh) * 2010-12-30 2011-09-07 浙江理工大学 一种基于可见光和红外摄像机的目标测距方法
CN110660186A (zh) * 2018-06-29 2020-01-07 杭州海康威视数字技术股份有限公司 基于雷达信号在视频图像中识别目标对象的方法及装置
CN110658518A (zh) * 2018-06-29 2020-01-07 杭州海康威视数字技术股份有限公司 一种目标入侵检测方法及装置
CN111383285A (zh) * 2019-11-25 2020-07-07 的卢技术有限公司 一种基于毫米波雷达与摄像机传感器融合标定方法及***
CN114155501A (zh) * 2021-12-03 2022-03-08 北京理工大学 一种无人车在烟雾遮挡环境下的目标检测方法
CN114170303A (zh) * 2021-10-19 2022-03-11 深圳市金溢科技股份有限公司 雷达和摄像头的联合标定方法、装置、***、设备及介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102176243A (zh) * 2010-12-30 2011-09-07 浙江理工大学 一种基于可见光和红外摄像机的目标测距方法
CN110660186A (zh) * 2018-06-29 2020-01-07 杭州海康威视数字技术股份有限公司 基于雷达信号在视频图像中识别目标对象的方法及装置
CN110658518A (zh) * 2018-06-29 2020-01-07 杭州海康威视数字技术股份有限公司 一种目标入侵检测方法及装置
CN111383285A (zh) * 2019-11-25 2020-07-07 的卢技术有限公司 一种基于毫米波雷达与摄像机传感器融合标定方法及***
CN114170303A (zh) * 2021-10-19 2022-03-11 深圳市金溢科技股份有限公司 雷达和摄像头的联合标定方法、装置、***、设备及介质
CN114155501A (zh) * 2021-12-03 2022-03-08 北京理工大学 一种无人车在烟雾遮挡环境下的目标检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
席军强: "《车辆信息技术》", 北京理工大学出版社, pages: 119 *
李洋 等: "基于单应性变换的交通监测毫米波雷达与摄像头标定方法", 《第十五届全国信号和智能信息处理与应用学术会议论文集》, pages 77 - 82 *

Similar Documents

Publication Publication Date Title
CN109753903B (zh) 一种基于深度学习的无人机检测方法
CN104574347B (zh) 基于多源遥感数据的在轨卫星图像几何定位精度评价方法
CN113065558A (zh) 一种结合注意力机制的轻量级小目标检测方法
CN110781756A (zh) 基于遥感图像的城市道路提取方法及装置
CN114565860B (zh) 一种多维度增强学习合成孔径雷达图像目标检测方法
CN112084869A (zh) 一种基于紧致四边形表示的建筑物目标检测方法
CN109934857B (zh) 一种基于卷积神经网络与orb特征的回环检测方法
CN106373088A (zh) 大倾斜低重叠率航空图像的快速拼接方法
CN103955888A (zh) 一种基于sift的高清视频图像拼接方法及装置
CN113408594A (zh) 一种基于注意力网络尺度特征融合的遥感场景分类方法
CN113052170A (zh) 一种无约束场景下的小目标车牌识别方法
CN112464704B (zh) 一种基于特征融合与旋转目标检测器的遥感图像识别方法
CN107944354A (zh) 一种基于深度学习的车辆检测方法
CN117409339A (zh) 一种用于空地协同的无人机作物状态视觉识别方法
CN111126303B (zh) 一种面向智能停车的多车位检测方法
CN115908946A (zh) 基于多种注意力语义分割的土地利用分类方法
CN106971402B (zh) 一种基于光学辅助的sar图像变化检测方法
CN116403115B (zh) 一种大幅面遥感影像目标检测方法
CN112528994A (zh) 一种自由角度车牌检测方法、车牌识别方法和识别***
CN116385477A (zh) 一种基于图像分割的杆塔图像配准方法
CN114998630B (zh) 一种从粗到精的地对空图像配准方法
CN116777953A (zh) 基于多尺度特征聚合增强的遥感图像目标跟踪方法
CN111275680A (zh) 基于Gabor卷积网络的SAR图像变化检测方法
Liu et al. Road mapping in LiDAR images using a joint-task dense dilated convolutions merging network
CN116342708A (zh) 基于单应性变换的毫米波雷达与摄像头自动标定方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20230627