CN116342708A - 基于单应性变换的毫米波雷达与摄像头自动标定方法 - Google Patents
基于单应性变换的毫米波雷达与摄像头自动标定方法 Download PDFInfo
- Publication number
- CN116342708A CN116342708A CN202211545766.9A CN202211545766A CN116342708A CN 116342708 A CN116342708 A CN 116342708A CN 202211545766 A CN202211545766 A CN 202211545766A CN 116342708 A CN116342708 A CN 116342708A
- Authority
- CN
- China
- Prior art keywords
- millimeter wave
- wave radar
- homography
- target
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 36
- 230000009466 transformation Effects 0.000 title claims abstract description 25
- 238000006243 chemical reaction Methods 0.000 claims abstract description 26
- 238000001514 detection method Methods 0.000 claims abstract description 23
- 239000011159 matrix material Substances 0.000 claims abstract description 15
- 230000000007 visual effect Effects 0.000 claims abstract description 7
- 230000000694 effects Effects 0.000 claims abstract description 5
- 238000005070 sampling Methods 0.000 claims description 3
- 238000013135 deep learning Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- XEEYBQQBJWHFJM-UHFFFAOYSA-N Iron Chemical compound [Fe] XEEYBQQBJWHFJM-UHFFFAOYSA-N 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 229910052742 iron Inorganic materials 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/867—Combination of radar systems with cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/40—Means for monitoring or calibrating
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
本发明属于多传感器自动标定技术领域,具体涉及一种基于单应性变换的毫米波雷达与摄像头自动标定方法,包括以下步骤:S1、通过毫米波雷达目标可视化界面确定参考目标的ID,记录下毫米波雷达的坐标作为关键点;S2、通过目标检测算法识别参考目标在图像上的位置,并将目标的中心像素点记为关键点;S3、选取当前帧图像中的关键点和毫米波雷达的关键点作为对应点,判断当前保存的对应点组数是否大于4组,满足单应性变换的最低条件;S4、当达到满足单应性变换的最低条件时,利用当前保存的对应点组进行单应性变换,输出一个单应性变换矩阵,利用这个单应性变换矩阵,将当前帧所有毫米波雷达目标映射到图像上,观测转换的效果是否符合要求。
Description
技术领域
本发明属于多传感器自动标定技术领域,具体涉及一种基于单应性变换的毫米波雷达与摄像头自动标定方法。
背景技术
毫米波雷达是指工作波长介于1-10mm的电磁波雷达。毫米波雷达具有频段宽,容易实现窄波速,分辨率高,不容易受干扰等特点。毫米波雷达时测量物体相对距离、相对速度、相对方位的高精度传感器,早期被应用于军属领域。随着雷达技术的发展与进步,毫米波雷达传感器开始用于汽车电子、无人机、智能交通等多个领域。
传统的毫米波雷达标定需要先计算出相机的内参,再通过角反找出毫米波雷达与摄像头图像的对应点计算出外参。采集到摄像头和毫米波雷达的数据后,后期人工标记毫米波雷达目标对应图像中的像素点。这种方法需要特定的设备,且过程过于繁琐费时。因此,本申请提出一种基于单应性变换的毫米波雷达与摄像头自动标定方法。
公开于该背景技术部分的信息仅仅旨在增加对本发明的总体背景的理解,而不应当被视为承认或以任何形式暗示该信息构成已为本领域一般技术人员所公知的现有技术。
发明内容
本发明的目的是在于提供一种基于单应性变换的毫米波雷达与摄像头自动标定方法,以解决传统的标定方法后期人工标记毫米波雷达目标对应图像中的像素点的过程过于繁琐费时的问题。
为了实现上述目的,本发明提供了如下技术方案:
基于单应性变换的毫米波雷达与摄像头自动标定方法,包括以下步骤:
S1、通过毫米波雷达目标可视化界面确定参考目标的ID,记录下毫米波雷达的坐标作为关键点;
S2、通过目标检测算法识别参考目标在图像上的位置,并将目标的中心像素点记为关键点;
S3、选取当前帧图像中的关键点和毫米波雷达的关键点作为对应点,判断当前保存的对应点组数是否大于4组,满足单应性变换的最低条件;
S4、当达到满足单应性变换的最低条件时,利用当前保存的对应点组进行单应性变换,输出一个单应性变换矩阵,利用这个单应性变换矩阵,将当前帧所有毫米波雷达目标映射到图像上,观测转换的效果是否符合要求;若转换点位置与实际目标位置存在偏差,则继续选取关键点。
作为优选,定义步骤S1毫米波雷达上的关键点为(xr,yr),步骤S2中像素坐标系上的关键点为(uo,vo),单应性矩阵如式所示,两坐标系间的转换关系可以表示为:/>将矩阵展开后可以得到/>变换可得/>
作为优选,单应性变换模型是通过采集多组对应点后利用随机抽样一致算法来计算。
作为优选,步骤S2中以行人作为参考对象,通过目标检测算法获得行人在图片上检测框左上的坐标以及检测框的长宽left,top,width,height,定义毫米波雷达高度与人体的高度之比为κ,行人中心点(uqi,vqi)作为像素坐标系上的关键点,并可由式得到。
与现有技术相比,本发明具有如下有益效果:
(1)本发明的基于单应性变换的毫米波雷达与摄像头自动标定方法,使用基于深度学习的关键点提取方法,利用卷积神经网络行人检测模块,可以实时识别参考对象行人在图像上的位置,解决了传统的标定方法后期人工标记毫米波雷达目标对应图像中的像素点的过程过于繁琐费时的问题。
(2)本发明的基于单应性变换的毫米波雷达与摄像头自动标定方法,选择行人作为标定的参考对象,减少了使用铁皮或是角反等器材作为参考对象时的成本,并且避免了携带时不方便的情况发生。
(3)本发明的基于单应性变换的毫米波雷达与摄像头自动标定方法,利用深度学习算法识别图片中的目标,不受背景的影响,可以在背景复杂的环境下使用。
附图说明
图1是本发明的标定流程图;
图2是InceptionNet的结构示意图;
图3是YOLOv4-tiny网络的网络架构示意图;
图4是本发明的图像关键点提取示意图;
图5是本发明的毫米波雷达可视化信息界面示意图。
具体实施方式
下面对本发明专利的技术方案进行清楚、完整的描述,显然,所描述的实施例是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域所属的技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参照附图1,基于单应性变换的毫米波雷达与摄像头自动标定方法,包括以下步骤:
S1、通过毫米波雷达目标可视化界面确定参考目标的ID,记录下毫米波雷达的坐标作为关键点;每个目标被毫米波雷达检测到后都会被标记上ID序号,通过观察找出可视化界面中与参考目标行动路径一致的目标,记录下ID序号,即可实时获取到参考对象在毫米波雷达坐标系上的坐标点;
S2、通过目标检测算法识别参考目标在图像上的位置,利用卷积神经网络行人检测模块实时识别参考对象行人在图像上的位置,并将目标的中心像素点记为关键点;
S3、选取当前帧图像中的关键点和毫米波雷达的关键点作为对应点,判断当前保存的对应点组数是否大于4组,满足单应性变换的最低条件;
S4、当达到满足单应性变换的最低条件时,利用当前保存的对应点组进行单应性变换,输出一个单应性变换矩阵,利用这个单应性变换矩阵,将当前帧所有毫米波雷达目标映射到图像上,观测转换的效果是否符合要求;若转换点位置与实际目标位置存在偏差,则继续选取关键点。
传统的毫米波雷达标定需要先计算出相机的内参,再通过角反找出毫米波雷达与摄像头图像的对应点计算出外参。这种方法需要特定的设备,且过程过于繁琐。因此,本发明提出一种基于单应性变换的毫米波雷达与摄像头自动标定方法。
定义毫米波雷达上的点(xr,yr)与像素坐标系上的点(uo,vo)是一组对应点,单应性矩阵如式所示:
则两坐标系间的转换关系可以表示为:
将矩阵展开后可以得到两个等式:
由上式可知,一组对应点可以得到2个等式。将式(3)变换可得:
设有N组对应点,根据式(4)可得:
由于单应性变换矩阵有9个待定参数,因此至少需要5组对应点进行求解。而通过式(6)与式(3)可以得到式(7):
由式(7)可知,在毫米波雷达坐标系上的点不管是经过aHh还是Hh的转换,都可以得到像素坐标系上的对应点。因此,可以设a=1/h33,则式(4)可以变换为:
这样就只有8个待定参数,最少使用4组对应点即可求出的解。但对应点中可能会出现误匹配的情况,仅用4组点会出现比较大的误差。为了使数值更加准确,通常会采集更多的对应点计算。
本发明采集多组对应点后利用随机抽样一致(Random Sample Consensus,RANSAC)算法来计算单应性变换模型。算法的原理是:假定有M个数据组成的数据集P,而P中多数点可以由一个模型生成,则可以由以下的步骤得到模型:
由于通常集合的数量都会很大,进行k次迭代时运算负担也会很大。因此迭代次数k的取值很关键。k是一个不断更新的参数,设ω为内点占所有点的比例,z为经过k次选取后,至少有一次选取的n个点都为内点的概率,因此可得:
z=1-(1-ωn)k (9)
(1-ωn)表示选取的n个点不都是内点的概率,(1-ωn)k表示k次选取中,没有一次选取的点都是内点的概率。则可以得到k的公式为:
z的取值一般大于95%。
单应性变换需要多组对应点数据,传统的标定方法一般是采集到摄像头和毫米波雷达的数据后,后期人工标记毫米波雷达目标对应图像中的像素点。这种方法比较繁琐费时,本发明使用了一种基于深度学习的关键点提取方法,通过深度学习算法找出图像中的关键点,减少了后期标记的麻烦。
标定中作为参考对象的器材一般是铁皮或是角反,这些不常见的器材不仅增加了成本且携带不方便。为了减少标定所需的设备,本发明选择行人作为标定的参考对象。毫米波雷达利用聚类的方法获取目标的信息,基于这一点,可以认为毫米波雷达返回的是目标中心的坐标信息,因此图像中的对应点应该为行人的中心点位置。
传统行人检测算法在识别图像目标时,需要通过边缘检测获取目标轮廓的二值图像,根据二值图像中最小和最大的边缘像素点来计算出中心点位置。这种方法的弊端在于无法在背景复杂的环境下使用,因此为了获取图片中行人中心点的像素坐标,不会受背景的影响,能学习并识别到行人特征的深度学习方法更有优势,本发明利用深度学习算法识别图片中的目标。
为了提取更全面的特征点信息,进一步提高检测的精度,本发明参考了InceptionNet的思路,用不同大小的卷积核来提取图中不同感受野的信息,并将结果融合以获得更强的图像表征能力。InceptionNet是深度学习中一个经典的网络架构,它改变了当时多数网络框架仅通过加深网络来提升性能的状况。
InceptionNet提出用增加网络宽度的方法来提升检测性能的思路,是由于图像中目标特征可能在尺寸上有很大的变化。由于特征位置尺寸的巨大变化,为卷积操作选择正确的卷积核大小变得十分困难。而通过让多个不同尺寸的卷积层并列,让网络变得更宽是解决这个问题的有效手段。
参照附图2,Conv 1×1表示卷积核尺寸为1×1的卷积层,Conv 5×5表示卷积核尺寸为5×5的卷积层,Conv 3×3表示卷积核尺寸为3×3的卷积层。Maxpooling 3×3表示尺寸为3×3的最大池化层,Concat表示沿通道方向特征图拼接操作。Inception由4个分支组成,输入的特征图经过不同分支下尺寸不同的卷积层处理后,各分支输出结果经过Concat操作连接,发送到下一个模块。为了降低计算成本,InceptionNet的作者将一个大小为1×1的卷积层添加在大小为3×3和5×5的卷积层前面,通过这个卷积层将输入特征图的通道数减少到一定数值,以此来减少后续卷积操作的计算量。
通过目标检测算法,可以获得行人在图片上检测框左上的坐标以及检测框的长宽left,top,width,height,行人中心点(uqi,vqi)可由式(11)得到:
YOLOv4-tiny是YOLOv4的精简版本,拥有更快的检测速度,计算资源的消耗更少,适合在移动端设备使用。YOLOv4-tiny网络,其网络架构如附图3所示。YOLOv4-tiny的Backbone主要由DBL和Resblock两个模块构成。其中DBL由一个卷积层,BN层,Leaky激活函数组成,为网络中常用的一个基础模块。Resblock由输入卷积层和多个Res模块Concate组成。Concate为特征图拼接操作,增加特征图的维度。Res模块为残差结构,其是为了防止随着网络层加深,训练效果变差的问题发生。
网络中借鉴了特征金字塔网络(Feature Pyramid Networks,FPN)。当卷积神经网络的网络层数不断加深,网络能获取的特征信息也就更丰富,但图像的尺寸也在变小,不利于小物体的检测,同时经过网络深层提取的特征图也可能丢失在浅层获取的初级信息。特征金字塔网络正是为了解决这个问题而提出的。特征金字塔网络的思路是通过将深层分辨率低的特征图上采样调整尺寸成浅层分辨率高的特征图相同尺寸,并将两者沿着通道方向拼接融合,这样形成的特征图不仅具有高分辨率还具有深层特征的强语义信息。
由于毫米波雷达扫描的区域为一个扇形的二维平面,没有高度信息,因此高度根据毫米波雷达距离地面的垂直距离来确定。设毫米波雷达高度与人体的高度之比为κ,根据此信息可以确定毫米波雷达检测到目标映射到图像中的高度位置。
参照附图4,图中人体周围的绿框即为行人检测算法获取的检测框,因此可以得出表示人体检测点的红点,这个像素点就是像素坐标系中的关键点。
在开阔场景下,将毫米波雷达目标可视化可以轻易找出与参考对象匹配的目标,可视化界面如附图5所示。
本发明的基于单应性变换的毫米波雷达与摄像头自动标定方法,可以解决传统的标定方法后期人工标记毫米波雷达目标对应图像中的像素点的过程过于繁琐费时的问题,具有较好的市场应用前景。
前述对本发明的具体示例性实施方案的描述是为了说明和例证的目的。这些描述并非想将本发明限定为所公开的精确形式,并且很显然,根据上述教导,可以进行很多改变和变化。对示例性实施例进行选择和描述的目的在于解释本发明的特定原理及其实际应用,从而使得本领域的技术人员能够实现并利用本发明的各种不同的示例性实施方案以及各种不同的选择和改变。本发明的范围意在由权利要求书及其等同形式所限定。
Claims (4)
1.基于单应性变换的毫米波雷达与摄像头自动标定方法,其特征在于,包括以下步骤:
S1、通过毫米波雷达目标可视化界面确定参考目标的ID,记录下毫米波雷达的坐标作为关键点;
S2、通过目标检测算法识别参考目标在图像上的位置,并将目标的中心像素点记为关键点;
S3、选取当前帧图像中的关键点和毫米波雷达的关键点作为对应点,判断当前保存的对应点组数是否大于4组,满足单应性变换的最低条件;
S4、当达到满足单应性变换的最低条件时,利用当前保存的对应点组进行单应性变换,输出一个单应性变换矩阵,利用这个单应性变换矩阵,将当前帧所有毫米波雷达目标映射到图像上,观测转换的效果是否符合要求;若转换点位置与实际目标位置存在偏差,则继续选取关键点。
3.根据权利要求1所述的基于单应性变换的毫米波雷达与摄像头自动标定方法,其特征在于,单应性变换模型是通过采集多组对应点后利用随机抽样一致算法来计算。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211545766.9A CN116342708A (zh) | 2022-12-05 | 2022-12-05 | 基于单应性变换的毫米波雷达与摄像头自动标定方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211545766.9A CN116342708A (zh) | 2022-12-05 | 2022-12-05 | 基于单应性变换的毫米波雷达与摄像头自动标定方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116342708A true CN116342708A (zh) | 2023-06-27 |
Family
ID=86879610
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211545766.9A Pending CN116342708A (zh) | 2022-12-05 | 2022-12-05 | 基于单应性变换的毫米波雷达与摄像头自动标定方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116342708A (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102176243A (zh) * | 2010-12-30 | 2011-09-07 | 浙江理工大学 | 一种基于可见光和红外摄像机的目标测距方法 |
CN110660186A (zh) * | 2018-06-29 | 2020-01-07 | 杭州海康威视数字技术股份有限公司 | 基于雷达信号在视频图像中识别目标对象的方法及装置 |
CN110658518A (zh) * | 2018-06-29 | 2020-01-07 | 杭州海康威视数字技术股份有限公司 | 一种目标入侵检测方法及装置 |
CN111383285A (zh) * | 2019-11-25 | 2020-07-07 | 的卢技术有限公司 | 一种基于毫米波雷达与摄像机传感器融合标定方法及*** |
CN114155501A (zh) * | 2021-12-03 | 2022-03-08 | 北京理工大学 | 一种无人车在烟雾遮挡环境下的目标检测方法 |
CN114170303A (zh) * | 2021-10-19 | 2022-03-11 | 深圳市金溢科技股份有限公司 | 雷达和摄像头的联合标定方法、装置、***、设备及介质 |
-
2022
- 2022-12-05 CN CN202211545766.9A patent/CN116342708A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102176243A (zh) * | 2010-12-30 | 2011-09-07 | 浙江理工大学 | 一种基于可见光和红外摄像机的目标测距方法 |
CN110660186A (zh) * | 2018-06-29 | 2020-01-07 | 杭州海康威视数字技术股份有限公司 | 基于雷达信号在视频图像中识别目标对象的方法及装置 |
CN110658518A (zh) * | 2018-06-29 | 2020-01-07 | 杭州海康威视数字技术股份有限公司 | 一种目标入侵检测方法及装置 |
CN111383285A (zh) * | 2019-11-25 | 2020-07-07 | 的卢技术有限公司 | 一种基于毫米波雷达与摄像机传感器融合标定方法及*** |
CN114170303A (zh) * | 2021-10-19 | 2022-03-11 | 深圳市金溢科技股份有限公司 | 雷达和摄像头的联合标定方法、装置、***、设备及介质 |
CN114155501A (zh) * | 2021-12-03 | 2022-03-08 | 北京理工大学 | 一种无人车在烟雾遮挡环境下的目标检测方法 |
Non-Patent Citations (2)
Title |
---|
席军强: "《车辆信息技术》", 北京理工大学出版社, pages: 119 * |
李洋 等: "基于单应性变换的交通监测毫米波雷达与摄像头标定方法", 《第十五届全国信号和智能信息处理与应用学术会议论文集》, pages 77 - 82 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109753903B (zh) | 一种基于深度学习的无人机检测方法 | |
CN104574347B (zh) | 基于多源遥感数据的在轨卫星图像几何定位精度评价方法 | |
CN113065558A (zh) | 一种结合注意力机制的轻量级小目标检测方法 | |
CN110781756A (zh) | 基于遥感图像的城市道路提取方法及装置 | |
CN114565860B (zh) | 一种多维度增强学习合成孔径雷达图像目标检测方法 | |
CN112084869A (zh) | 一种基于紧致四边形表示的建筑物目标检测方法 | |
CN109934857B (zh) | 一种基于卷积神经网络与orb特征的回环检测方法 | |
CN106373088A (zh) | 大倾斜低重叠率航空图像的快速拼接方法 | |
CN103955888A (zh) | 一种基于sift的高清视频图像拼接方法及装置 | |
CN113408594A (zh) | 一种基于注意力网络尺度特征融合的遥感场景分类方法 | |
CN113052170A (zh) | 一种无约束场景下的小目标车牌识别方法 | |
CN112464704B (zh) | 一种基于特征融合与旋转目标检测器的遥感图像识别方法 | |
CN107944354A (zh) | 一种基于深度学习的车辆检测方法 | |
CN117409339A (zh) | 一种用于空地协同的无人机作物状态视觉识别方法 | |
CN111126303B (zh) | 一种面向智能停车的多车位检测方法 | |
CN115908946A (zh) | 基于多种注意力语义分割的土地利用分类方法 | |
CN106971402B (zh) | 一种基于光学辅助的sar图像变化检测方法 | |
CN116403115B (zh) | 一种大幅面遥感影像目标检测方法 | |
CN112528994A (zh) | 一种自由角度车牌检测方法、车牌识别方法和识别*** | |
CN116385477A (zh) | 一种基于图像分割的杆塔图像配准方法 | |
CN114998630B (zh) | 一种从粗到精的地对空图像配准方法 | |
CN116777953A (zh) | 基于多尺度特征聚合增强的遥感图像目标跟踪方法 | |
CN111275680A (zh) | 基于Gabor卷积网络的SAR图像变化检测方法 | |
Liu et al. | Road mapping in LiDAR images using a joint-task dense dilated convolutions merging network | |
CN116342708A (zh) | 基于单应性变换的毫米波雷达与摄像头自动标定方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20230627 |