CN110208793B - 基于毫米波雷达的辅助驾驶***、方法、终端和介质 - Google Patents
基于毫米波雷达的辅助驾驶***、方法、终端和介质 Download PDFInfo
- Publication number
- CN110208793B CN110208793B CN201910343795.9A CN201910343795A CN110208793B CN 110208793 B CN110208793 B CN 110208793B CN 201910343795 A CN201910343795 A CN 201910343795A CN 110208793 B CN110208793 B CN 110208793B
- Authority
- CN
- China
- Prior art keywords
- target
- dynamic
- static
- millimeter wave
- individuals
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/932—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles using own vehicle data, e.g. ground speed, steering wheel direction
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Physics & Mathematics (AREA)
- Radar Systems Or Details Thereof (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明提供一种基于毫米波雷达的辅助驾驶***、方法、终端和存储介质,包括:至少一个毫米波(mmW)收发器(Tx/Rx)、原始数据处理单元、动静分离单元、融合单元、分析单元、决策单元,发明可以不依靠视觉传感器,单以毫米波雷达获得的点云数据进行预处理、融合、动静分离、获取个体语义、跟踪、分析,可以达到与视觉传感器处理图像获得目标同样的效果,本发明也可以利用视觉感知数据与雷达感知数据融合,再进行处理或分析;本发明对于目标物体跟踪时在相对距离、速度、角度数据上更精准,更适合在复杂场景比如人流量较大的停车场、园区、地库等等环境中使用。
Description
技术领域
本发明涉及汽车电子技术领域,特别是涉及一种基于毫米波雷达的辅助驾驶***、方法、终端和介质。
背景技术
辅助驾驶技术现如今日渐成熟,就以现在的技术看,高级辅助驾驶***(AdvancedDriver Assistance System,ADAS)及无人驾驶***中常用的感知设备是视觉感知设备、超声波雷达、激光雷达。
应用摄像头作为感知设备是因为摄像头分辨率进高于其他传感器,可以获取足够多的环境细节,帮助车辆进行环境认知,车载摄像头可以描绘物体的外观和形状、读取标志等。视觉感知设备的局限在于:无法准确检测出物体的距离、受光照影响很大,光照较差容易引起误检。
超声波雷达作为感知设备存在以下劣势:由于超声波在空气中的传播衰减较大,超声波传感器最大检测距离一般小于6米,无法在泊车过程中对远距离及速度较快的物体做出反应。超声波***无法提供准确的物体信息,例如水平角度和垂直角度,速度,物体的轮廓等。超声波***的错误检测率很高,而且环境比如湿度、风会很大影响检测性能。另外,超声波传感器需要破坏保险杠的外型,钻孔,安装和标定工作非常繁琐。
激光雷达作为感知设备的最大优势在于使用环境限制较小,即不管在白天或是夜晚都能正常使用,限制因素是激光雷达的成本高昂。
有些ADAS***(Advanced Driver Assistance Systems,高级驾驶员辅助***)采用视觉和超声波融合的方式,利用了两种传感器的优势,但对物体的距离检测精度不够,动态物体误检率高而且不准确,动态物体的速度检测精度很差,应用场景局限度高。
毫米波雷达作为感知设备,一般采用24GHz或77GHz的工作频率。77GHz的优势在于其对测距和测速的准确性更高,水平角度的分辨率也更好,同时天线体积更小,也更少出现信号干扰的情况。雷达主要包括两种:SRR即Short-range radar短程雷达***、MRR/LRR即mid-range radar,long-range radar中/长程雷达***。
现有公开车在毫米波雷达应用专利,例如公开号为DE19912370、DE102010051207、DE102010048896、DE102010015723、DE102009030075、DE102009016479、DE102014218092的一系列文献公开了毫米波雷达车载应用的技术路线,但创新点在于如何处理单个雷达数据以获得精准的速度、距离和角度信息。但是对于如何处理点云以获得车载雷达覆盖范围内点云的语义信息没有做出贡献。
需要一种支持多场景、环境局限度低的驾驶员辅助驾驶***,既降低了量产成本,又可以弥补单依靠传统视觉设备、视觉和超声波融合、激光雷达等感知、定位、决策方案的缺陷。
发明内容
为了解决上述的以及其他潜在的技术问题,本发明提供了一种基于毫米波雷达的辅助驾驶***、方法、终端和存储介质,本发明可以不依靠视觉传感器,单以毫米波雷达获得的点云数据进行预处理、融合、动静分离、获取个体语义、跟踪、分析,可以达到与视觉传感器处理图像获得目标同样的效果,本发明也可以利用视觉感知数据与雷达感知数据融合,再进行处理或分析;本发明对于目标物体跟踪时在相对距离、速度、角度数据上更精准,更适合在复杂场景比如人流量较大的停车场、园区、地库等等环境中使用。
一种基于毫米波雷达的辅助驾驶***,包括:
至少一个毫米波(mmW)收发器(Tx/Rx),其被配置成放射发射雷达信号且接收所述发射雷达信号的回波信号;
原始数据处理单元,所述原始数据处理单元用于对毫米波(mmW)收发器(Tx/Rx)发射/接收信号进行预处理,获得包括但不限于目标速度、目标距离、方位角和仰角在内的目标点信息;
动静分离单元,所述动态静态分离单元对雷达视线范围内的所有检测到的目标进行动态静态分类、识别:
对动态点聚类、跟踪,再分类获得动态个体;
对静态点聚类、识别、分类,获得静态个体。
进一步地,还包括融合单元,多组原始数据获得的点云信息汇聚于融合单元,融合单元转换不同坐标维度下的点云信息,并融合成单一坐标系下密集的三维点云数据集,将每一个毫米波传感器的点云信息坐标系转换到笛卡尔坐标系下,形成360°范围内目标点云。
进一步地,还包括分析单元,所述分析单元获取车身信号、动态个体、静态个体以及环境信息中的一种或几种,分析环境信息、动态个体的意图和/或静态个体对自身路径规划的影响,并将分析结果输出至决策单元。
进一步地,还包括决策单元,所述决策单元自获取到的毫米波分析结果做决策或融合视觉感知、分析结果做决策。
其中,融合单元对多组原始数据进行数据融合,是根据毫米波雷达在车辆上的安装数量、安装方位和角度、标定参数等等参量进行融合。例如,车辆在前方两侧安装角雷达,并在前方安装远距离雷达,这种雷达布局方式和安装方式使融合单元可以获取前方180°范围内的水平角-+75°、垂直角-+20°,覆盖范围10厘米到1米范围内的感受野,前方远距离雷达在主方向有更长距离的感受野。再例如,车辆在后方两侧安装角雷达,并在后方安装远距离雷达,这种雷达布局方式使融合单元可以获取后方180°范围内的水平角-+75°、垂直角-+20°,覆盖范围10厘米到1米范围内的感受野,后方远距离雷达在主方向有更长距离的感受野。再例如,车辆在前方、后方安装远距离雷达、在四角安装角雷达,这种雷达局部方式使融合单元可以获取前方180°范围内的10厘米到1米范围内的感受野,并获取后方180°范围内的水平角-+75°、垂直角-+20°,覆盖范围10厘米到1米范围内的感受野,但在左侧、右侧两个侧方向上存在盲区。再例如,车辆在前方、后方均安装有角雷达和长距离雷达,使车辆前方和后方180°范围内融合单元均获取10厘米到1米范围内的感受野并在主方向上获取长距离的感受野,并在左侧和右侧分别安装有两个远距离雷达,使车辆左侧、右侧180°范围内融合单元均获取长距离感受野范围。
进一步地,还包括跟踪单元,跟踪单元对于每个可以跟踪的动态物体来说,跟踪个体信息的包括但不限于位置、姿态、尺寸、矢量速度。
进一步地,所述收发器被配置为多个接收单元(Rx)、多个发射单元Tx,通过MIMO(Multiple-Input Multiple-Output)使信号通过发射端与接收端的多个天线传送和接收,在不增加频谱资源和天线发射功率的情况下,可以成倍的提高***信道容量。
进一步地,对多发射单元(Tx)和多接收单元(Rx)检测原理通过频域分类、时域分类、编码分类的方式;
其中频域分类即将总频段划分成若干个等间隔的频道(或称信道),根据频率区分发射单元、接收单元之间的信道;
其中时域分类即将时间分割成周期性的帧,每一帧再分割成若干个时隙,然后根据一定的时隙分配原则,分配发射单元发射时间间隙、接收单元接收的时间间隙,达到发射单元和接收单元信号不混扰的效果;
其中编码分类是指不同发射单元和接收单元传输信息所用的信号不是靠频率不同或时隙不同来区分,而是用各自不同的编码序列来区分。
优选地,多发射单元和多接收单元采用时域分类的方式通信。
进一步地,所述原始数据处理单元计算Azimuth和Eelevation(方位角和仰角)时:通过发射单元(Tx)和接收单元(Rx)特定的编码规则设置以及天线布局设置,获得点的方位角和仰角数据输出。天线布局包括但不限于横向阵列分布的天线阵列、纵向阵列分布的天线阵列或横向分布天线阵列和纵向分布天线阵列交叠的阵列分布。
其中,360°雷达的布局方案如图1所示,车身的前侧左右两边各设置一个角雷达,车身的后侧两边各设置一个角雷达,角雷达是短距离雷达,通过增加收发通道数量,增大天线虚拟孔径尺寸、采用MIMO技术等等方式增强水平和垂直的角度检测的分辨率,具有较大的水平和垂直FoV,且可以检测物体的绝对高度,角雷达有效信号带宽为大于1GHz提高对物体检测的距离分辨率,使最小检测距离可以小于15cm。角雷达安装时设置在前保险杠、后保险杠内,通过卡接结构或者粘接结构安装,或者固定安装在汽车底盘上,使外部不可见,这样增加了车辆外观的美感。
优选地,如图2-3所示,车身正前方和/或正后方设置有长距离雷达,长距离雷达用于探测车辆正前方、正后方覆盖范围内出现的物体。优选地,车身左侧和车身右侧设置有长距离雷达,用于探测车辆左侧目标物体和车辆右侧目标物体。车身正前方、正后方、左侧、右侧的长距离雷达可以选择性的设置。
进一步地,所述原始数据处理单元预处理:将原始数据二维傅里叶变换2D-FFT得到二维的距离多普勒频谱图,通过二维CFAR(adaptive constant false alarm rate)可对雷达覆盖范围内的多目标同时检测,通过ultra wide bandwidth超带宽(厘米级的距离分辨率)及MIMO方案的合成孔径得到的超角分辨能力,会使对雷达天线可视范围内每个目标获得多个点云信息,目标点云信息包括但不限于目标速度、目标距离、水平角和垂直角。
进一步地,所述动静分离单元是(目标点云信息还包括高度信息)毫米波传感器内置的,它会根据CAN总线接收到的车体信息。
进一步地,还包括视觉感知数据融合单元,所述视觉感知数据融合单元将视觉感知设备获取的包括但不限于图像、视频在内的视觉感知数据通过统一的时序处理之后,将处理过的视觉感知数据与融合单元获得的360°雷达点云数据做融合,获得统一的时序、障碍物的表述与存储方式。
一种基于毫米波雷达的辅助驾驶方法,包括:
S01:毫米波(mmW)收发器(Tx/Rx)放射发射雷达信号且接收所述发射雷达信号的回波信号,于对毫米波(mmW)收发器(Tx/Rx)发射/接收信号进行预处理,获得包括但不限于目标速度、目标距离、方位角和仰角在内的目标点信息;
S02:对雷达视线范围内的所有检测到的目标进行动态静态分类、识别:
对动态点聚类、跟踪,再分类获得动态个体;
对静态点聚类、识别、分类,获得静态个体。
S03:将每一个毫米波传感器的点云信息坐标系转换到笛卡尔坐标系下,形成360°范围内目标点云。
进一步地,还包括分析单元,所述分析单元获取车身信号、动态个体、静态个体以及环境信息中的一种或几种,分析环境信息、动态个体的意图和/或静态个体对自身路径规划的影响,并将分析结果输出至决策单元。
进一步地,还包括决策单元,所述决策单元自获取到的毫米波分析结果做决策或融合视觉感知、分析结果做决策。
进一步地,动静分离单元对动态静态分类的具体方式:
当目标是动态物体时:结合车体多普勒速度VD及角速度ωH,其中车体矢量速度用表示,其中动态目标速度用V′T表示,则V″T表示动态目标速度V′T在动态目标与车体连线方向的投影;多普勒速度VD就等于车体矢量速度在动态目标与车体连线方向的投影之和再加上动态目标速度V′T在动态目标与车体连线方向上的投影V″T,用公式表示:
VD=V″T-(V′x+V′y)。
其中VH表示车辆在主方向的速度,V′H表示车辆在主方向的速度在车辆与目标连线方向上的分量,VD表示多普勒速度,其中多普勒速度VD包括来自车辆的运动和目标的运动。
当目标是静态物体时:静态目标速度用V′T表示,V″T表示动态目标速度V′T在动态目标与车体连线方向的投影,则静态目标的V″T为0。多普勒速度VD就等于车体矢量速度在静态目标与车体连线方向的投影之和,用公式表示:
VD=V′x+V′y。
以检测目标在目标与车体连线方向连线方向的投影V″T是否为0来判断该目标是静态目标还是动态目标。
进一步地,对静态点分类获得静态个体的过程中,并提取这些静态障碍点所在静态个体的信息。在泊车场景中,根据车身意图/路径规划预测潜在的静态障碍点,提取障碍点所在静态个体的信息。在静态个体分类中(由于已经获取物体轮廓,可以采用机器学习/深度学习等等方式,建立一个网络模型,用一些同一类别的标注语义的静态个体轮廓点云的样本作为输入,训练网络模型给静态个体分类。)可能获取静态个体的语义信息,比如是路边沿、是地锁、是立柱、是防撞条。
在短暂的驾驶中,收集并绘制数多帧的点云,以产生三维地图上的自由空间、汽车、路缘和各种障碍的轮廓。通过估计障碍物高度的能力,还可以确定汽车是否应该越过或避开障碍物,这是对停车及避障功能非常有利的特征。
进一步地,聚类过程具体表述:
优选地,聚类过程可以用K-means算法模型,即对可能的聚类定义一个代价函数,聚类算法的目标是寻找一种使代价最小的划分。
用100-1000帧标注好的360°融合点云训练一个Kmeans分类器,用训练好的Kmeans分类器对当前输入帧360°融合点云进行聚类处理,获得聚类中心。
使用Kmeans分类器时,虽然第一个中心点仍然随机选择,但其他的点则优先选择那些彼此相距很远的点。
更优选地,通过机器学习/深度学习获得融合后各部分点云所代表的物体含义,以及每一类物体中每一个物体个体所在的大致方位和大致轮廓,以此先确定单次聚类所感兴趣的区域。再从感兴趣区域中,用分类器聚类找出个体中心点以及这些个体***轮廓簇。
优选地,聚类过程也可以通过链接聚类模型获取。决定链接算法具体形式的最重要的因素就是“域间相似性度量函数”,因此可分为单链接、平均链接、最大链接这三种。
优选地,聚类过程也可以通过基于密度的聚类方法(DBSCAN,即Density-BasedSpatial Clustering of Application with Noise)获取。基于密度的聚类方法与其他方法的一个根本区别是:它不是基于距离度量的,而是基于密度的。因此它能克服基于距离的算法只能发现“类圆形”的聚类的缺点。
优选地,聚类过程也可以通过基于模型的方法获取。基于模型的方法给每个聚类假定一个模型(预先设定),然后寻找能够很好地满足这个模型的数据集。通常有两种尝试方向:统计方案和神经网络方案。
进一步地,跟踪过程具体表述:ECU内置的跟踪单元,跟踪动态个体过程中,ECU会根据当前车身意图/路径规划选择感兴趣的动态个体,这种动态个体可能包括一个或者几个。当动态个体离开车身感知覆盖范围后,跟踪终止。当动态个体持续靠近车身,则增加该动态个体跟踪的优先级。跟踪目标通过车身意图和路径规划不断的迭代。
其中,跟踪算法可以使用连续蒙特卡罗方法(Sequential Monte CarloMethods)、粒子滤波器(particle filter)、卡尔曼滤波器(kalman filter).扩展卡尔曼滤波器(Extend Kalman filter)等等等。
进一步地,以静态点做SLAM,实时构建三维地图,毫米波感知设备构建的地图可以通过与视觉感知设备SLAM构建地图融合、互补。不仅提高地图的距离、高度的精准度,也获取静态个体、动态个体的语义信息(匹配静态个体,从视觉SLAM中获取语义信息)。
一种基于毫米波雷达的辅助驾驶***在泊车场景中的应用,其中
基于毫米波雷达的辅助驾驶***中:
分类单元将目标点按照其移动属性分类,将目标点分为静态点和动态点:
对动态点跟踪、聚类,再分类获得动态个体,所述动态个体包括但不限于行人、推车、机动车辆、自行车;
对静态点聚类、分类,再分类获得静态个体;所述静态个体包括但不限于墙、立柱、收费亭和道闸机、防撞条、障碍物、减速带、指示牌、电线杆、路边沿、树、灌木、隔离带和护栏;
分析单元获取车身信号、动态个体、静态个体以及环境信息,分析环境信息、动态个体的意图和/或静态个体对当前路径规划的影响,并将分析结果输出至决策单元;
其中,所述环境信息包括地图中加载泊车元素的语义信息,所述动态个体的意图包括但不限于车基感知范围内行人和车辆的路径预测、车灯的分类和使用规则的语义;
其中,所述静态个体对当前路径规划的影响包括但不限于路边沿、护栏、墙、树、灌木、立柱、障碍物、地锁、防撞条对泊车路径规划的影响。
一种计算机存储介质,所述计算机存储介质用于存储上述基于毫米波雷达的辅助驾驶方法所对应的软件程序和/或基于毫米波雷达的辅助驾驶***。
如上所述,本发明的具有以下有益效果:
本发明可以不依靠视觉传感器,单以毫米波雷达获得的点云数据进行预处理、融合、动静分离、获取个体语义、跟踪、分析,可以达到与视觉传感器处理图像获得目标同样的效果,本发明也可以利用视觉感知数据与雷达感知数据融合,再进行处理或分析;本发明对于目标物体跟踪时在相对距离、速度、角度数据上更精准,更适合在复杂场景比如人流量较大的停车场、园区、地库等等环境中使用。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1显示为本发明车载毫米波雷达安装方案的示意图。
图2显示为另一实施例本发明车载毫米波雷达安装方案的示意图。
图3显示为另一实施例本发明车载毫米波雷达安装方案的示意图。
图4显示为本发明动态物体识别的示意图。
图5显示为本发明静态物体识别的示意图。
图6显示为本发明车辆主方向速度矢量、主方向在多普勒方向分量、转角的图示。
图7显示为主方向速度矢量在多普勒方向分量分解的图示。
图8显示为车辆毫米波雷达感知点云以及自由区域的示意图。
图9显示为车辆毫米波雷达感知静态点云、自由区域和静态目标检测的示意图。
图10显示为车辆毫米波雷达感知动态点云、自由区域的示意图。
图11显示为车辆毫米波雷达感知动态点云、自由区域和动态目标检测的示意图。
图12显示为车辆毫米波雷达跟踪动态目标的示意图。
图13显示为本发明的流程示意图。
具体实施方式
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需说明的是,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
须知,本说明书所附图式所绘示的结构、比例、大小等,均仅用以配合说明书所揭示的内容,以供熟悉此技术的人士了解与阅读,并非用以限定本发明可实施的限定条件,故不具技术上的实质意义,任何结构的修饰、比例关系的改变或大小的调整,在不影响本发明所能产生的功效及所能达成的目的下,均应仍落在本发明所揭示的技术内容得能涵盖的范围内。同时,本说明书中所引用的如“上”、“下”、“左”、“右”、“中间”及“一”等的用语,亦仅为便于叙述的明了,而非用以限定本发明可实施的范围,其相对关系的改变或调整,在无实质变更技术内容下,当亦视为本发明可实施的范畴。
参见图1~图13,
一种基于毫米波雷达的辅助驾驶***,包括:
至少一个毫米波(mmW)收发器(Tx/Rx),其被配置成放射发射雷达信号且接收所述发射雷达信号的回波信号;原始数据处理单元,所述原始数据处理单元用于对毫米波(mmW)收发器(Tx/Rx)发射/接收信号进行预处理,获得包括但不限于目标速度、目标距离、方位角和仰角在内的目标点信息;动静分离单元,所述动态静态分离单元对雷达视线范围内的所有检测到的目标进行动态静态分类、识别:对动态点聚类、跟踪,再分类获得动态个体;对静态点聚类、识别、分类,获得静态个体。
作为优选实施例,其中对于每个可以跟踪的动态物体来说,跟踪个体信息的包括但不限于位置、姿态、尺寸、矢量速度。
作为优选实施例,基于毫米波雷达的辅助驾驶***还包括融合单元,多组原始数据获得的点云信息汇聚于融合单元,融合单元转换不同坐标维度下的点云信息,并融合成单一坐标系下密集的三维点云数据集,将每一个毫米波传感器的点云信息坐标系转换到笛卡尔坐标系下,形成360°范围内目标点云。其中,融合单元对多组原始数据进行数据融合,是根据毫米波雷达在车辆上的安装数量、安装方位和角度、标定参数等等参量进行融合。例如,车辆在前方两侧安装角雷达,并在前方安装远距离雷达,这种雷达布局方式和安装方式使融合单元可以获取前方180°范围内的水平角-+75°、垂直角-+20°,覆盖范围10厘米到1米范围内的感受野,前方远距离雷达在主方向有更长距离的感受野。再例如,车辆在后方两侧安装角雷达,并在后方安装远距离雷达,这种雷达布局方式使融合单元可以获取后方180°范围内的水平角-+75°、垂直角-+20°,覆盖范围10厘米到1米范围内的感受野,后方远距离雷达在主方向有更长距离的感受野。再例如,车辆在前方、后方安装远距离雷达、在四角安装角雷达,这种雷达局部方式使融合单元可以获取前方180°范围内的10厘米到1米范围内的感受野,并获取后方180°范围内的水平角-+75°、垂直角-+20°,覆盖范围10厘米到1米范围内的感受野,但在左侧、右侧两个侧方向上存在盲区。再例如,车辆在前方、后方均安装有角雷达和长距离雷达,使车辆前方和后方180°范围内融合单元均获取10厘米到1米范围内的感受野并在主方向上获取长距离的感受野,并在左侧和右侧分别安装有两个远距离雷达,使车辆左侧、右侧180°范围内融合单元均获取长距离感受野范围。
作为优选实施例,基于毫米波雷达的辅助驾驶***还包括分析单元,所述分析单元获取车身信号、动态个体、静态个体以及环境信息中的一种或几种,分析环境信息、动态个体的意图和/或静态个体对自身路径规划的影响,并将分析结果输出至决策单元。
作为优选实施例,基于毫米波雷达的辅助驾驶***还包括决策单元,所述决策单元自获取到的毫米波分析结果做决策或融合视觉感知、分析结果做决策。
作为优选实施例,所述收发器被配置为多个接收单元(Rx)、多个发射单元Tx,通过MIMO(Multiple-Input Multiple-Output)使信号通过发射端与接收端的多个天线传送和接收,在不增加频谱资源和天线发射功率的情况下,可以成倍的提高***信道容量。
作为优选实施例,对多发射单元(Tx)和多接收单元(Rx)检测原理通过频域分类、时域分类、编码分类的方式;其中频域分类即将总频段划分成若干个等间隔的频道(或称信道),根据频率区分发射单元、接收单元之间的信道;其中时域分类即将时间分割成周期性的帧,每一帧再分割成若干个时隙,然后根据一定的时隙分配原则,分配发射单元发射时间间隙、接收单元接收的时间间隙,达到发射单元和接收单元信号不混扰的效果;其中编码分类是指不同发射单元和接收单元传输信息所用的信号不是靠频率不同或时隙不同来区分,而是用各自不同的编码序列来区分。优选地,多发射单元和多接收单元采用时域分类的方式通信。
作为优选实施例,所述原始数据处理单元计算Azimuth和Eelevation(方位角和仰角)时:通过发射单元(Tx)和接收单元(Rx)特定的编码规则设置以及天线布局设置,获得点的方位角和仰角数据输出。天线布局包括但不限于横向阵列分布的天线阵列、纵向阵列分布的天线阵列或横向分布天线阵列和纵向分布天线阵列交叠的阵列分布。
其中,360°雷达的布局方案如图1所示,车身的前侧左右两边各设置一个角雷达,车身的后侧两边各设置一个角雷达,角雷达是短距离雷达,通过增加收发通道数量,增大天线虚拟孔径尺寸、采用MIMO技术等等方式增强水平和垂直的角度检测的分辨率,具有较大的水平和垂直FoV,且可以检测物体的绝对高度,角雷达有效信号带宽为大于1GHz提高对物体检测的距离分辨率,使最小检测距离可以小于15cm。角雷达安装时设置在前保险杠、后保险杠内,通过卡接结构或者粘接结构安装,或者固定安装在汽车底盘上,使外部不可见,这样增加了车辆外观的美感。
优选地,如图2-3所示,车身正前方和/或正后方设置有长距离雷达,长距离雷达用于探测车辆正前方、正后方覆盖范围内出现的物体。优选地,车身左侧和车身右侧设置有长距离雷达,用于探测车辆左侧目标物体和车辆右侧目标物体。车身正前方、正后方、左侧、右侧的长距离雷达可以选择性的设置。
作为优选实施例,所述原始数据处理单元预处理:将原始数据二维傅里叶变换2D-FFT得到二维的距离多普勒频谱图,通过二维CFAR(adaptive constant false alarmrate)可对雷达覆盖范围内的多目标同时检测,通过ultra wide bandwidth超带宽(厘米级的距离分辨率)及MIMO方案的合成孔径得到的超角分辨能力,会使对雷达天线可视范围内每个目标获得多个点云信息,目标点云信息包括但不限于目标速度、目标距离、水平角和垂直角。
作为优选实施例,所述动静分离单元是(目标点云信息还包括高度信息)毫米波传感器内置的,它会根据CAN总线接收到的车体信息。
进一步地,还包括视觉感知数据融合单元,所述视觉感知数据融合单元将视觉感知设备获取的包括但不限于图像、视频在内的视觉感知数据通过统一的时序处理之后,将处理过的视觉感知数据与融合单元获得的360°雷达点云数据做融合,获得统一的时序、障碍物的表述与存储方式。
一种基于毫米波雷达的辅助驾驶方法,包括:
S01:毫米波(mmW)收发器(Tx/Rx)放射发射雷达信号且接收所述发射雷达信号的回波信号,于对毫米波(mmW)收发器(Tx/Rx)发射/接收信号进行预处理,获得包括但不限于目标速度、目标距离、方位角和仰角在内的目标点信息;
S02:对雷达视线范围内的所有检测到的目标进行动态静态分类、识别:
对动态点聚类、跟踪,再分类获得动态个体;
对静态点聚类、识别、分类,获得静态个体。
S03:将每一个毫米波传感器的点云信息坐标系转换到笛卡尔坐标系下,形成360°范围内目标点云。
作为优选实施例,基于毫米波雷达的辅助驾驶方法还包括分析单元,所述分析单元获取车身信号、动态个体、静态个体以及环境信息中的一种或几种,分析环境信息、动态个体的意图和/或静态个体对自身路径规划的影响,并将分析结果输出至决策单元。
作为优选实施例,基于毫米波雷达的辅助驾驶方法还包括决策单元,所述决策单元自获取到的毫米波分析结果做决策或融合视觉感知、分析结果做决策。
作为优选实施例,动静分离单元对动态静态分类的具体方式:
当目标是动态物体时:结合车体多普勒速度VD及角速度ωH,其中车体矢量速度用表示,其中动态目标速度用V′T表示,则V″T表示动态目标速度V′T在动态目标与车体连线方向的投影;多普勒速度VD就等于车体矢量速度在动态目标与车体连线方向的投影之和再加上动态目标速度V′T在动态目标与车体连线方向上的投影V″T,用公式表示:
VD=V″T-(V′x+V′y)。
其中VH表示车辆在主方向的速度,V′H表示车辆在主方向的速度在车辆与目标连线方向上的分量,VD表示多普勒速度,其中多普勒速度VD包括来自车辆的运动和目标的运动。
当目标是静态物体时:静态目标速度用V′T表示,V″T表示动态目标速度V′T在动态目标与车体连线方向的投影,则静态目标的V″T为0。多普勒速度VD就等于车体矢量速度在静态目标与车体连线方向的投影之和,用公式表示:
VD=V′x+V′y。
以检测目标在目标与车体连线方向连线方向的投影V″T是否为0来判断该目标是静态目标还是动态目标。
作为优选实施例,对静态点分类获得静态个体的过程中,并提取这些静态障碍点所在静态个体的信息。在泊车场景中,根据车身意图/路径规划预测潜在的静态障碍点,提取障碍点所在静态个体的信息。在静态个体分类中(由于已经获取物体轮廓,可以采用机器学习/深度学习等等方式,建立一个网络模型,用一些同一类别的标注语义的静态个体轮廓点云的样本作为输入,训练网络模型给静态个体分类。)可能获取静态个体的语义信息,比如是路边沿、是地锁、是立柱、是防撞条。
在短暂的驾驶中,收集并绘制数多帧的点云,以产生三维地图上的自由空间、汽车、路缘和各种障碍的轮廓。通过估计障碍物高度的能力,还可以确定汽车是否应该越过或避开障碍物,这是对停车及避障功能非常有利的特征。
作为优选实施例,聚类过程具体表述:
优选地,聚类过程可以用K-means算法模型,即对可能的聚类定义一个代价函数,聚类算法的目标是寻找一种使代价最小的划分。
用100-1000帧标注好的360°融合点云训练一个Kmeans分类器,用训练好的Kmeans分类器对当前输入帧360°融合点云进行聚类处理,获得聚类中心。
使用Kmeans分类器时,虽然第一个中心点仍然随机选择,但其他的点则优先选择那些彼此相距很远的点。
更优选地,通过机器学习/深度学习获得融合后各部分点云所代表的物体含义,以及每一类物体中每一个物体个体所在的大致方位和大致轮廓,以此先确定单次聚类所感兴趣的区域。再从感兴趣区域中,用分类器聚类找出个体中心点以及这些个体***轮廓簇。
优选地,聚类过程也可以通过链接聚类模型获取。决定链接算法具体形式的最重要的因素就是“域间相似性度量函数”,因此可分为单链接、平均链接、最大链接这三种。
优选地,聚类过程也可以通过基于密度的聚类方法(DBSCAN,即Density-BasedSpatial Clustering of Application with Noise)获取。基于密度的聚类方法与其他方法的一个根本区别是:它不是基于距离度量的,而是基于密度的。因此它能克服基于距离的算法只能发现“类圆形”的聚类的缺点。
优选地,聚类过程也可以通过基于模型的方法获取。基于模型的方法给每个聚类假定一个模型(预先设定),然后寻找能够很好地满足这个模型的数据集。通常有两种尝试方向:统计方案;和神经网络方案。
作为优选实施例,跟踪过程具体表述:ECU内置的跟踪单元,跟踪动态个体过程中,ECU会根据当前车身意图/路径规划选择感兴趣的动态个体,这种动态个体可能包括一个或者几个。当动态个体离开车身感知覆盖范围后,跟踪终止。当动态个体持续靠近车身,则增加该动态个体跟踪的优先级。跟踪目标通过车身意图和路径规划不断的迭代。
其中,跟踪算法可以使用连续蒙特卡罗方法(Sequential Monte CarloMethods)、粒子滤波器(particle filter)、卡尔曼滤波器(kalman filter).扩展卡尔曼滤波器(Extend Kalman filter)等等等。
作为优选实施例,以静态点做SLAM,实时构建三维地图,毫米波感知设备构建的地图可以通过与视觉感知设备SLAM构建地图融合、互补。不仅提高地图的距离、高度的精准度,也获取静态个体、动态个体的语义信息(匹配静态个体,从视觉SLAM中获取语义信息)。
一种基于毫米波雷达的辅助驾驶***在泊车场景中的应用,其中
基于毫米波雷达的辅助驾驶***中:
分类单元将目标点按照其移动属性分类,将目标点分为静态点和动态点:
对动态点跟踪、聚类,再分类获得动态个体,所述动态个体包括但不限于行人、推车、机动车辆、自行车;
对静态点聚类、分类,再分类获得静态个体;所述静态个体包括但不限于墙、立柱、收费亭和道闸机、防撞条、障碍物、减速带、指示牌、电线杆、路边沿、树、灌木、隔离带和护栏;
分析单元获取车身信号、动态个体、静态个体以及环境信息,分析环境信息、动态个体的意图和/或静态个体对当前路径规划的影响,并将分析结果输出至决策单元;
其中,所述环境信息包括地图中加载泊车元素的语义信息,所述动态个体的意图包括但不限于车基感知范围内行人和车辆的路径预测、车灯的分类和使用规则的语义;
其中,所述静态个体对当前路径规划的影响包括但不限于路边沿、护栏、墙、树、灌木、立柱、障碍物、地锁、防撞条对泊车路径规划的影响。
一种计算机存储介质,所述计算机存储介质用于存储上述基于毫米波雷达的辅助驾驶方法所对应的软件程序和/或基于毫米波雷达的辅助驾驶***。
上述实施例仅例示性说明本发明的原理及其功效,而非用于限制本发明。任何熟悉此技术的人士皆可在不违背本发明的精神及范畴下,对上述实施例进行修饰或改变。因此,举凡所属技术领域中包括通常知识者在未脱离本发明所揭示的精神与技术思想下所完成的一切等效修饰或改变,仍应由本发明的权利要求所涵盖。
Claims (14)
1.一种基于毫米波雷达的辅助驾驶***,其特征在于,应用于泊车场景中;所述基于毫米波雷达的辅助驾驶***包括:
至少一个毫米波(mmW)收发器(Tx/Rx),其被配置成放射发射雷达信号且接收所述发射雷达信号的回波信号;
原始数据处理单元,所述原始数据处理单元用于对毫米波(mmW)收发器(Tx/Rx)发射/接收信号进行预处理,获得包括但不限于目标速度、目标距离、方位角和仰角在内的目标点信息;
动静分离单元,所述动静分离单元对雷达视线范围内的所有检测到的目标进行动态静态分类、识别;其中,所述动静分离单元通过检测目标速度在目标与车体连线方向上的投影速度是否为0来判断该目标是静态目标还是动态目标,当检测目标速度在目标与车体连线方向上的投影速度为0时,该检测目标为静态目标,不为0时,该检测目标为动态目标:其中,所述动静分离单元对动态静态分类的具体方式包括:
计算多普勒速度;其中,多普勒速度就等于车体矢量速度在动态目标与车体连线方向上的投影速度之和再加上动态目标速度在动态目标与车体连线方向上的投影速度;
目标速度在动态目标与车体连线方向上的投影速度亦不为0时,该检测目标为动态目标;或
检测到目标速度在目标与车体连线方向上的投影速度为0时,该检测目标为静态目标;对动态点聚类、跟踪,再分类获得动态个体;
对静态点聚类、识别、分类,获得静态个体;
分析单元,所述分析单元获取车身信号、动态个体、静态个体以及环境信息中的一种或几种,分析环境信息、动态个体的意图和/或静态个体对自身路径规划的影响,并将分析结果输出;
决策单元,所述决策单元自获取到的毫米波分析结果做决策或融合视觉感知、分析结果做决策。
2.根据权利要求1所述的基于毫米波雷达的辅助驾驶***,其特征在于,还包括融合单元,多组原始数据获得的点云信息汇聚于融合单元,融合单元转换不同坐标维度下的点云信息,并融合成单一坐标系下密集的三维点云数据集。
3.根据权利要求1所述的基于毫米波雷达的辅助驾驶***,其特征在于,所述原始数据处理单元预处理:将原始数据二维傅里叶变换2D-FFT得到二维的距离多普勒频谱图,通过二维CFAR可对雷达覆盖范围内的多目标同时检测,通过ultra wide bandwidth超带宽及MIMO方案的合成孔径得到的超角分辨能力,会使对雷达天线可视范围内每个目标获得多个点云信息,目标点云信息包括但不限于目标速度、目标距离、水平角和垂直角。
4.根据权利要求1所述的基于毫米波雷达的辅助驾驶***,其特征在于,还包括跟踪单元,跟踪单元对于每个可以跟踪的动态物体来说,跟踪个体信息包括但不限于位置、姿态、尺寸、矢量速度。
5.根据权利要求1所述的基于毫米波雷达的辅助驾驶***,其特征在于,还包括视觉感知数据融合单元,所述视觉感知数据融合单元将视觉感知设备获取的包括但不限于图像、视频在内的视觉感知数据通过统一的时序处理之后,将处理过的视觉感知数据与融合单元获得的360°雷达点云数据做融合,获得统一的时序表述与存储方式、障碍物的表述与存储方式。
6.一种基于毫米波雷达的辅助驾驶方法,其特征在于,应用于泊车场景中;所述基于毫米波雷达的辅助驾驶方法包括:
S01:毫米波(mmW)收发器(Tx/Rx)放射发射雷达信号且接收所述发射雷达信号的回波信号,于对毫米波(mmW)收发器(Tx/Rx)发射/接收信号进行预处理,获得包括但不限于目标速度、目标距离、方位角和仰角在内的目标点信息;
S02:对雷达视线范围内的所有检测到的目标进行动态静态分类、识别:S02中通过检测目标在目标与车体连线方向的投影是否为0来判断该目标是静态目标还是动态目标,当检测目标在目标与车体连线方向连线方向的投影为0时,该检测目标为静态目标,不为0时,该检测目标为动态目标;对动态点聚类、跟踪,再分类获得动态个体;对静态点聚类、识别、分类,获得静态个体;所述S02对动态静态分类的具体方式包括:计算多普勒速度;其中,多普勒速度就等于车体矢量速度在动态目标与车体连线方向上的投影速度之和再加上动态目标速度在动态目标与车体连线方向上的投影速度;动态目标速度在动态目标与车体连线方向上的投影速度亦不为0时,该检测目标为动态目标;或检测到目标速度在目标与车体连线方向上的投影速度为0时,该检测目标为静态目标;
S03:将每一个毫米波传感器的点云信息坐标系转换到笛卡尔坐标系下,形成360°范围内目标点云;
所述基于毫米波雷达的辅助驾驶方法还包括:
获取车身信号、动态个体、静态个体以及环境信息中的一种或几种,分析环境信息、动态个体的意图和/或静态个体对自身路径规划的影响,并将分析结果输出;
决策单元,获取到的毫米波分析结果做决策或融合视觉感知、分析结果做决策。
7.根据权利要求6所述的基于毫米波雷达的辅助驾驶方法,其特征在于,对动态静态分类的具体方式:
当目标是动态物体时:其中车体矢量速度用表示,其中动态目标速度用V′T表示,则V″T表示动态目标速度V′T在动态目标与车体连线方向的投影;多普勒速度VD就等于车体矢量速度在动态目标与车体连线方向的投影之和再加上动态目标速度V′T在动态目标与车体连线方向上的投影V″T,用公式表示:
VD=V″T-(V′x+V′y)
其中VD表示多普勒速度,其中多普勒速度VD包括来自车辆的运动和目标的运动;
当目标是静态物体时:静态目标速度用V′T表示,V″T表示动态目标速度V′T在动态目标与车体连线方向的投影,则静态目标的V″T为0;多普勒速度VD就等于车体矢量速度在静态目标与车体连线方向的投影之和,用公式表示:
VD=V′x+V′y;
以检测目标速度在目标与车体连线方向上的投影速度V″T是否为0来判断该目标是静态目标还是动态目标。
8.根据权利要求6所述的基于毫米波雷达的辅助驾驶方法,其特征在于,对静态点分类获得静态个体的过程中,提取这些静态障碍点所在静态个体的信息,根据车身意图/路径规划预测潜在的静态障碍点,提取障碍点所在静态个体的信息以机器学习/深度学习建立一个静态个体语义识别网络模型,用一些同一类别的标注语义的静态个体轮廓点云作为样本输入,训练静态个体语义识别网络,可能获取静态个体的语义信息。
9.根据权利要求6所述的基于毫米波雷达的辅助驾驶方法,其特征在于,所述聚类过程具体表述:
S021:聚类过程可以用K-means算法模型,将标注好的360°融合点云训练一个Kmeans分类器,用训练好的Kmeans分类器对当前输入帧360°融合点云进行聚类处理,获得聚类中心;
S022:通过机器学习/深度学习获得融合后各部分点云所代表的物体含义,以及每一类物体中每一个物体个体所在的大致方位和大致轮廓,以此先确定单次聚类所感兴趣的区域;
S023:再从感兴趣区域中,用分类器聚类找出个体中心点以及这些个体***轮廓簇。
10.一种终端设备,其特征在于:所述终端设备为调度上述权利要求1-5任一项所述基于毫米波雷达的辅助驾驶***的车载终端控制设备。
11.一种计算机可读存储介质,其上存储有计算机程序,其特征在于:该程序被处理器执行时实现如权利要求6至9任一权利要求所述的方法中的步骤。
12.一种基于毫米波雷达的辅助驾驶***在泊车场景中的应用,其特征在于,基于毫米波雷达的辅助驾驶***为权利要求1至权利要求5任一项所述的基于毫米波雷达的辅助驾驶***;所述基于毫米波雷达的辅助驾驶***在泊车场景中的应用包括:
动静分离单元将点云按照其移动属性分类,将目标点分为静态点和动态点:
对动态点聚类,跟踪,再分类获得动态个体,所述动态个体包括但不限于行人、推车、机动车辆、自行车;
对静态点聚类、识别、分类,获得静态个体;所述静态个体包括但不限于墙、立柱、收费亭和道闸机、防撞条、障碍物、减速带、指示牌、电线杆、路边沿、树、灌木、隔离带和护栏。
13.根据权利要求12所述的基于毫米波雷达的辅助驾驶***在泊车场景中的应用,其特征在于,还包括分析单元,分析单元获取车身信号、动态个体、静态个体以及环境信息,分析环境信息、动态个体的意图和/或静态个体对当前路径规划的影响,并将分析结果输出至决策单元;所述环境信息包括地图中加载泊车元素的语义信息,所述动态个体的意图包括但不限于车基感知范围内行人和车辆的路径预测、车灯的分类和使用规则的语义。
14.根据权利要求12所述的基于毫米波雷达的辅助驾驶***在泊车场景中的应用,其特征在于,所述静态个体对当前路径规划的影响包括但不限于路边沿、护栏、墙、树、灌木、立柱、障碍物、地锁、防撞条对泊车路径规划的影响;所述动态个体的意图对当前路径规划的影响包括但不限于行人、推车、机动车辆、自行车对对泊车路径规划的影响。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910343795.9A CN110208793B (zh) | 2019-04-26 | 2019-04-26 | 基于毫米波雷达的辅助驾驶***、方法、终端和介质 |
PCT/CN2020/086578 WO2020216316A1 (zh) | 2019-04-26 | 2020-04-24 | 基于毫米波雷达的辅助驾驶***、方法、终端和介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910343795.9A CN110208793B (zh) | 2019-04-26 | 2019-04-26 | 基于毫米波雷达的辅助驾驶***、方法、终端和介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110208793A CN110208793A (zh) | 2019-09-06 |
CN110208793B true CN110208793B (zh) | 2022-03-11 |
Family
ID=67786415
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910343795.9A Active CN110208793B (zh) | 2019-04-26 | 2019-04-26 | 基于毫米波雷达的辅助驾驶***、方法、终端和介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN110208793B (zh) |
WO (1) | WO2020216316A1 (zh) |
Families Citing this family (97)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110208793B (zh) * | 2019-04-26 | 2022-03-11 | 纵目科技(上海)股份有限公司 | 基于毫米波雷达的辅助驾驶***、方法、终端和介质 |
CN111175716B (zh) * | 2019-09-24 | 2024-04-19 | 纵目科技(上海)股份有限公司 | 可抑制雷达近距离谐波的辅助驾驶方法 |
CN110764080B (zh) * | 2019-10-30 | 2023-08-15 | 武汉理工大学 | 基于毫米波雷达的船闸内领航-跟随船舶编队目标检测方法 |
CN110865365B (zh) * | 2019-11-27 | 2022-05-24 | 江苏集萃智能传感技术研究所有限公司 | 一种基于毫米波雷达的停车场噪声消除方法 |
CN111160385B (zh) * | 2019-11-27 | 2023-04-18 | 北京中交兴路信息科技有限公司 | 海量位置点聚合的方法、装置、设备及存储介质 |
WO2021109033A1 (en) * | 2019-12-04 | 2021-06-10 | Huawei Technologies Co., Ltd. | Apparatus and method for collecting and auto-labelling measurement data in traffic scenario |
CN112946623B (zh) * | 2019-12-11 | 2024-03-19 | 长沙莫之比智能科技有限公司 | 基于车辆上安装77g毫米波雷达的测速方法和装置 |
CN110969855A (zh) * | 2019-12-13 | 2020-04-07 | 长沙莫之比智能科技有限公司 | 一种基于毫米波雷达的交通流量监测*** |
CN113033586B (zh) * | 2019-12-24 | 2024-04-16 | 大富科技(安徽)股份有限公司 | 目标识别方法及设备 |
CN113052846B (zh) * | 2019-12-27 | 2024-05-28 | 小米汽车科技有限公司 | 一种多线雷达点云稠密化方法和装置 |
CN111338336B (zh) * | 2020-02-11 | 2021-07-13 | 腾讯科技(深圳)有限公司 | 一种自动驾驶方法及装置 |
CN113296086A (zh) * | 2020-02-21 | 2021-08-24 | 华为技术有限公司 | 目标识别方法及装置 |
CN111401321A (zh) * | 2020-04-17 | 2020-07-10 | Oppo广东移动通信有限公司 | 对象识别模型训练方法、装置、电子设备和可读存储介质 |
KR20210136631A (ko) * | 2020-05-08 | 2021-11-17 | 주식회사 만도모빌리티솔루션즈 | 차량용 레이더의 수직 장착 오정렬 감지 장치, 방법 및 그를 포함하는 레이더 장치 |
CN111649740B (zh) * | 2020-06-08 | 2022-09-20 | 武汉中海庭数据技术有限公司 | 一种基于imu进行车辆高精度定位的方法及*** |
CN111708021B (zh) * | 2020-07-15 | 2022-04-15 | 四川长虹电器股份有限公司 | 一种基于毫米波雷达的人员跟踪与识别算法 |
CN111862157B (zh) * | 2020-07-20 | 2023-10-10 | 重庆大学 | 一种机器视觉与毫米波雷达融合的多车辆目标跟踪方法 |
CN111986232B (zh) * | 2020-08-13 | 2021-09-14 | 上海高仙自动化科技发展有限公司 | 目标物体的检测方法、装置、机器人及存储介质 |
CN112034445B (zh) * | 2020-08-17 | 2022-04-12 | 东南大学 | 基于毫米波雷达的车辆运动轨迹跟踪方法和*** |
CN114167404A (zh) * | 2020-09-11 | 2022-03-11 | 华为技术有限公司 | 目标跟踪方法及装置 |
TWI770621B (zh) * | 2020-09-29 | 2022-07-11 | 為昇科科技股份有限公司 | 具長短距離模態偵測之雷達系統 |
CN112406687A (zh) * | 2020-10-16 | 2021-02-26 | 常州通宝光电股份有限公司 | 一种“人-车-路”协同的可编程矩阵式前照灯***及方法 |
CN112415522A (zh) * | 2020-10-27 | 2021-02-26 | 衡阳市智谷科技发展有限公司 | 一种实时及感知动态物体信息的语义slam方法 |
CN112417757B (zh) * | 2020-11-18 | 2022-10-14 | 中国汽车技术研究中心有限公司 | 车载雷达信号级仿真方法、装置、设备及可读存储介质 |
CN112363143B (zh) * | 2020-11-24 | 2023-11-07 | 北京小米移动软件有限公司 | 一种空调设备基于毫米波进行空间识别的方法和*** |
TWI769602B (zh) * | 2020-11-30 | 2022-07-01 | 群邁通訊股份有限公司 | 利用毫米波雷達的人體姿態識別方法及電腦可讀存儲介質 |
CN112651405B (zh) * | 2020-12-10 | 2024-04-26 | 深兰人工智能(深圳)有限公司 | 目标检测方法及装置 |
CN112590781A (zh) * | 2020-12-22 | 2021-04-02 | 南京理工大学 | 基于毫米波相控阵雷达的车辆防撞警示方法及装置 |
CN112764022A (zh) * | 2020-12-24 | 2021-05-07 | 珠海格力电器股份有限公司 | 公共安全管理方法及公共安全管理*** |
CN112835026B (zh) * | 2020-12-31 | 2024-02-20 | 福瑞泰克智能***有限公司 | 雷达镜像目标检测方法、装置、雷达设备和车辆 |
CN112835045A (zh) * | 2021-01-05 | 2021-05-25 | 北京三快在线科技有限公司 | 一种雷达探测方法、装置、存储介质及电子设备 |
CN112835051A (zh) * | 2021-01-12 | 2021-05-25 | 广州主塔智能科技有限公司 | 一种车载雷达警示*** |
CN112946654B (zh) * | 2021-01-27 | 2023-06-23 | 中国人民解放军国防科技大学 | 雷达滤除动态杂波的方法、装置、计算机***及存储介质 |
CN112946630B (zh) * | 2021-01-27 | 2022-11-01 | 上海兰宝传感科技股份有限公司 | 一种基于毫米波雷达的人员计数跟踪方法 |
CN113219507B (zh) * | 2021-01-29 | 2024-02-23 | 重庆长安汽车股份有限公司 | 基于rt3000的自动驾驶车辆感知融合数据的精度测量方法 |
CN113759331B (zh) * | 2021-02-07 | 2024-04-12 | 贵州京邦达供应链科技有限公司 | 一种雷达定位方法、装置、设备及存储介质 |
CN112859033A (zh) * | 2021-02-23 | 2021-05-28 | 加特兰微电子科技(上海)有限公司 | 目标探测的方法、装置及相关设备 |
CN112937556B (zh) * | 2021-03-08 | 2022-08-09 | 重庆长安汽车股份有限公司 | 一种远程挪车***及远程挪车方法 |
CN113033340A (zh) * | 2021-03-10 | 2021-06-25 | 郑景粲 | 一种基于深度信息的视觉盲区预警装置 |
CN113066299A (zh) * | 2021-03-25 | 2021-07-02 | 上海智能新能源汽车科创功能平台有限公司 | 一种基于车路云一体的客运数字交通*** |
CN113189580A (zh) * | 2021-04-02 | 2021-07-30 | 天地(常州)自动化股份有限公司 | 一种基于毫米波雷达与uwb标签的无轨胶轮车辅助驾驶方法 |
CN113189583B (zh) * | 2021-04-26 | 2022-07-01 | 天津大学 | 一种时-空同步的毫米波雷达和视觉信息融合方法 |
CN113267779A (zh) * | 2021-05-17 | 2021-08-17 | 南京师范大学 | 一种基于雷达与图像数据融合的目标检测方法及*** |
CN115407345A (zh) * | 2021-05-29 | 2022-11-29 | 上海追势科技有限公司 | 一种基于车载超声传感器的车辆实时定位方法 |
CN113370994A (zh) * | 2021-06-16 | 2021-09-10 | 上海追势科技有限公司 | 一种基于周围车辆行为的自动驾驶行为决策方法 |
CN113589288A (zh) * | 2021-06-24 | 2021-11-02 | 广西综合交通大数据研究院 | 基于毫米波雷达的目标筛选方法、装置、设备及存储介质 |
CN113309169A (zh) * | 2021-07-01 | 2021-08-27 | 吉林大学 | 一种无人驾驶装载机室内自主卸料***及方法 |
CN113484863A (zh) * | 2021-07-07 | 2021-10-08 | 上海商汤临港智能科技有限公司 | 一种车辆及其车载传感器***、以及行车数据采集方法 |
CN113435404B (zh) * | 2021-07-14 | 2023-05-12 | 深圳市比一比网络科技有限公司 | 基于雷达及图像检测的电客车调车安全辅助驾驶方法与*** |
CN113433946A (zh) * | 2021-07-14 | 2021-09-24 | 北京华科软通科技有限公司 | 一种防撞预警方法、装置、***、电子设备以及存储介质 |
CN113835074B (zh) * | 2021-08-04 | 2024-01-16 | 南京常格科技发展有限公司 | 一种基于毫米波雷达的人流量动态监测方法 |
CN113807168A (zh) * | 2021-08-05 | 2021-12-17 | 北京蜂云科创信息技术有限公司 | 一种车辆行驶环境感知方法、车载设备和存储介质 |
CN113479218B (zh) * | 2021-08-09 | 2022-05-31 | 哈尔滨工业大学 | 一种路基自动驾驶辅助探测***及其控制方法 |
CN113671491A (zh) * | 2021-08-16 | 2021-11-19 | 珠海格力电器股份有限公司 | 一种路况检测及预警方法及装置 |
CN113721234B (zh) * | 2021-08-30 | 2023-09-01 | 南京慧尔视智能科技有限公司 | 一种车载毫米波雷达点云数据动静分离过滤方法和装置 |
CN113763717A (zh) * | 2021-08-31 | 2021-12-07 | 广州文远知行科技有限公司 | 一种车辆的识别方法、装置、计算机设备和存储介质 |
CN113867334B (zh) * | 2021-09-07 | 2023-05-05 | 华侨大学 | 一种移动机械无人驾驶的路径规划方法和*** |
CN113777601A (zh) * | 2021-09-14 | 2021-12-10 | 无锡威孚高科技集团股份有限公司 | 一种基于特征的目标跟踪优化方法、装置和存储介质 |
CN113850995B (zh) * | 2021-09-14 | 2022-12-27 | 华设设计集团股份有限公司 | 一种基于隧道雷视数据融合的事件检测方法、装置及*** |
CN113682259B (zh) * | 2021-09-22 | 2023-07-04 | 海南大学 | 一种车用开门预警防撞***及控制方法 |
CN114035570A (zh) * | 2021-09-24 | 2022-02-11 | 山西省交通科技研发有限公司 | 基于脑机接口与激光雷达融合感知的防撞控制方法 |
CN113740848B (zh) * | 2021-09-30 | 2023-11-17 | 中科芯集成电路有限公司 | 一种基于毫米波雷达的独居老人追踪式跌倒检测装置 |
CN114037707A (zh) * | 2021-10-29 | 2022-02-11 | 天津大学 | 一种网络带宽自适应的自动驾驶点云数据协作感知*** |
CN114124299B (zh) * | 2021-11-08 | 2024-04-23 | 国汽智控(北京)科技有限公司 | 一种雷达数据的传输方法、装置、设备及介质 |
CN114091601B (zh) * | 2021-11-18 | 2023-05-05 | 业成科技(成都)有限公司 | 人员状况侦测的传感器融合方法 |
CN114199168A (zh) * | 2021-12-16 | 2022-03-18 | 珠海格力电器股份有限公司 | 一种室内体积探测方法、装置、设备及介质 |
CN114216412B (zh) * | 2021-12-22 | 2023-12-26 | 北京行易道科技有限公司 | 一种交通参与者的角度信息获取方法、装置和存储介质 |
CN114495026A (zh) * | 2022-01-07 | 2022-05-13 | 武汉市虎联智能科技有限公司 | 一种激光雷达识别方法、装置、电子设备和存储介质 |
CN114419152B (zh) * | 2022-01-14 | 2024-04-26 | 中国农业大学 | 一种基于多维度点云特征的目标检测与跟踪方法及*** |
CN114387672A (zh) * | 2022-01-18 | 2022-04-22 | 北京理工大学 | 一种基于时-空-频三维雷达点云的人体行为分类方法 |
CN114442101B (zh) * | 2022-01-28 | 2023-11-14 | 南京慧尔视智能科技有限公司 | 基于成像毫米波雷达的车辆导航方法、装置、设备及介质 |
CN114460598A (zh) * | 2022-01-30 | 2022-05-10 | 中国第一汽车股份有限公司 | 一种目标识别方法、装置、设备及存储介质 |
CN114740970B (zh) * | 2022-02-23 | 2024-05-24 | 广东工业大学 | 一种基于联邦学习的毫米波手势识别方法及*** |
CN115214624B (zh) * | 2022-03-04 | 2023-12-26 | 广州汽车集团股份有限公司 | 泊车路径的确定方法、装置、车辆及存储介质 |
CN114814825B (zh) * | 2022-03-23 | 2023-04-07 | 合肥工业大学 | 一种基于雷达和视频融合的车辆轨迹感知与状态提取方法 |
CN114924274B (zh) * | 2022-04-08 | 2023-06-30 | 苏州大学 | 一种基于固定网格的高动态铁路环境雷达感知方法 |
CN114814826B (zh) * | 2022-04-08 | 2023-06-16 | 苏州大学 | 一种基于目标网格的雷达轨行区环境感知方法 |
CN114884543A (zh) * | 2022-05-06 | 2022-08-09 | 星谷晶微科技(深圳)有限公司 | 一种基于uwb频段的通信感知一体化mimo*** |
CN114884994B (zh) * | 2022-05-09 | 2023-06-27 | 山东高速建设管理集团有限公司 | 一种基于迁移学习的车路协同信息融合方法及*** |
CN115050192B (zh) * | 2022-06-09 | 2023-11-21 | 南京矽典微***有限公司 | 基于毫米波雷达的停车位检测的方法及应用 |
CN115236674B (zh) * | 2022-06-15 | 2024-06-04 | 北京踏歌智行科技有限公司 | 一种基于4d毫米波雷达的矿区环境感知方法 |
CN114872712B (zh) * | 2022-06-29 | 2022-10-18 | 小米汽车科技有限公司 | 静态车辆检测方法、装置、设备、车辆及存储介质 |
CN114924249B (zh) * | 2022-07-22 | 2022-10-28 | 中国科学技术大学 | 基于毫米波雷达的人体姿态估计方法、装置及电子设备 |
CN115236627B (zh) * | 2022-09-21 | 2022-12-16 | 深圳安智杰科技有限公司 | 一种基于多帧多普勒速度扩维的毫米波雷达数据聚类方法 |
CN115376365B (zh) * | 2022-10-21 | 2023-01-13 | 北京德风新征程科技有限公司 | 车辆控制方法、装置、电子设备和计算机可读介质 |
CN115985122A (zh) * | 2022-10-31 | 2023-04-18 | 内蒙古智能煤炭有限责任公司 | 无人驾驶***感知方法 |
CN115685185B (zh) * | 2022-12-30 | 2023-03-21 | 苏州尚同墨方智能科技有限公司 | 一种4d毫米波雷达与视觉融合感知方法 |
CN116052420B (zh) * | 2023-01-05 | 2023-09-22 | 北京清丰智行科技有限公司 | 一种用于园区的车路云协同大数据管理*** |
CN116106853B (zh) * | 2023-04-12 | 2023-09-01 | 陕西欧卡电子智能科技有限公司 | 基于毫米波雷达的水面场景目标动静状态识别方法 |
CN116176579B (zh) * | 2023-04-27 | 2023-06-27 | 安徽中科星驰自动驾驶技术有限公司 | 自动驾驶跟车车距测量计算装置及方法 |
CN116630394B (zh) * | 2023-07-25 | 2023-10-20 | 山东中科先进技术有限公司 | 一种三维建模约束的多模态目标物体姿态估计方法及*** |
CN117289255A (zh) * | 2023-10-19 | 2023-12-26 | 广州行深智能科技有限公司 | 目标检测方法、装置、终端设备及存储介质 |
CN117111053B (zh) * | 2023-10-23 | 2024-02-27 | 武汉未来幻影科技有限公司 | 一种毫米波雷达跟踪结果的处理方法、装置以及处理设备 |
CN117611638B (zh) * | 2023-12-07 | 2024-05-17 | 北京擎锋精密科技有限公司 | 一种基于图像处理的车辆行人多目标跟踪方法 |
CN117470254B (zh) * | 2023-12-28 | 2024-03-08 | 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) | 一种基于雷达服务的车载导航***和方法 |
CN117593650B (zh) * | 2024-01-18 | 2024-04-26 | 上海几何伙伴智能驾驶有限公司 | 基于4d毫米波雷达与sam图像分割的动点滤除视觉slam方法 |
CN117649583B (zh) * | 2024-01-30 | 2024-05-14 | 科大国创合肥智能汽车科技有限公司 | 一种自动驾驶车辆行驶实时道路模型融合方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10235877B1 (en) * | 2017-12-27 | 2019-03-19 | Christ G. Ellis | Self-driving vehicles safety system |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN202608661U (zh) * | 2012-04-20 | 2012-12-19 | 广州汽车集团股份有限公司 | 一种车辆安全控制*** |
CN104635233B (zh) * | 2015-02-17 | 2017-12-26 | 苏州安智汽车零部件有限公司 | 基于车载毫米波雷达的前方物体运动状态估计及分类方法 |
US10408932B2 (en) * | 2016-12-16 | 2019-09-10 | Automotive Research & Testing Center | Environment recognition system using vehicular millimeter wave radar |
CN107607953A (zh) * | 2017-06-01 | 2018-01-19 | 王玲 | 一种侧向车辆防碰撞***及其方法 |
US10602242B2 (en) * | 2017-06-14 | 2020-03-24 | GM Global Technology Operations LLC | Apparatus, method and system for multi-mode fusion processing of data of multiple different formats sensed from heterogeneous devices |
CN107817488B (zh) * | 2017-09-28 | 2021-08-03 | 西安电子科技大学昆山创新研究院 | 基于毫米波雷达与视觉融合的无人机避障装置及避障方法 |
US10754021B2 (en) * | 2017-10-04 | 2020-08-25 | Infineon Technologies Ag | System and method for controlling operation of a vehicle using a millimeter-wave radar sensor |
CN108226924B (zh) * | 2018-01-11 | 2020-11-10 | 南京楚航科技有限公司 | 基于毫米波雷达的汽车行驶环境探测方法、装置及其应用 |
CN109212521B (zh) * | 2018-09-26 | 2021-03-26 | 同济大学 | 一种基于前视相机与毫米波雷达融合的目标跟踪方法 |
CN109447161B (zh) * | 2018-10-31 | 2021-07-13 | 桂林电子科技大学 | 一种基于汽车雷达数据的实时增量与自适应聚类方法 |
CN109581345A (zh) * | 2018-11-28 | 2019-04-05 | 深圳大学 | 基于毫米波雷达的目标检测与跟踪方法及*** |
CN110208793B (zh) * | 2019-04-26 | 2022-03-11 | 纵目科技(上海)股份有限公司 | 基于毫米波雷达的辅助驾驶***、方法、终端和介质 |
-
2019
- 2019-04-26 CN CN201910343795.9A patent/CN110208793B/zh active Active
-
2020
- 2020-04-24 WO PCT/CN2020/086578 patent/WO2020216316A1/zh active Application Filing
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10235877B1 (en) * | 2017-12-27 | 2019-03-19 | Christ G. Ellis | Self-driving vehicles safety system |
Non-Patent Citations (1)
Title |
---|
汽车前方静动目标状态转移机理与分类算法;高振海等;《汽车工程》;20160525(第05期);正文全文 * |
Also Published As
Publication number | Publication date |
---|---|
WO2020216316A1 (zh) | 2020-10-29 |
CN110208793A (zh) | 2019-09-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110208793B (zh) | 基于毫米波雷达的辅助驾驶***、方法、终端和介质 | |
US11630197B2 (en) | Determining a motion state of a target object | |
CN108226951B (zh) | 一种基于激光传感器的快速运动障碍物实时跟踪方法 | |
US11494979B2 (en) | Bounding box estimation and lane vehicle association | |
US11195028B2 (en) | Real-time simultaneous detection of lane marker and raised pavement marker for optimal estimation of multiple lane boundaries | |
Meinl et al. | An experimental high performance radar system for highly automated driving | |
CN113167860A (zh) | 雷达深度学习 | |
US11475678B2 (en) | Lane marker detection and lane instance recognition | |
US11544940B2 (en) | Hybrid lane estimation using both deep learning and computer vision | |
Prophet et al. | Semantic segmentation on automotive radar maps | |
WO2021218388A1 (zh) | 高精度地图的生成方法、定位方法及装置 | |
CN115031981A (zh) | 一种车辆、传感器的仿真方法及装置 | |
Akita et al. | Object tracking and classification using millimeter-wave radar based on LSTM | |
Cui et al. | 3D detection and tracking for on-road vehicles with a monovision camera and dual low-cost 4D mmWave radars | |
US10839522B2 (en) | Adaptive data collecting and processing system and methods | |
Yusuf et al. | Vehicle-to-everything (V2X) in the autonomous vehicles domain–A technical review of communication, sensor, and AI technologies for road user safety | |
WO2023025777A1 (en) | Automotive sensor fusion of radar, lidar, camera systems with improved safety by use of machine learning | |
Mahlisch et al. | Heterogeneous fusion of Video, LIDAR and ESP data for automotive ACC vehicle tracking | |
Segawa et al. | Preceding vehicle detection using stereo images and non-scanning millimeter-wave radar | |
Gao | Efficient and Enhanced Radar Perception for Autonomous Driving Systems | |
US20230213640A1 (en) | Electronic device, method for controlling electronic device, and program | |
EP4239367A1 (en) | Electronic device, method for controlling electronic device, and program | |
TWI841695B (zh) | 用於雷達輔助之單一影像三維深度重建之方法、車載電腦及非暫時性電腦可讀媒體 | |
US20230393257A1 (en) | Fractalet radar processing | |
US20230128484A1 (en) | Intelligent radar systems and methods |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB03 | Change of inventor or designer information |
Inventor after: Li Xuyang Inventor after: Li Gang Inventor after: Qiu Zongde Inventor after: Zheng Bo Inventor before: Li Xuyang Inventor before: Li Gang Inventor before: Qiu Zongde Inventor before: Zheng Bo |
|
CB03 | Change of inventor or designer information | ||
GR01 | Patent grant | ||
GR01 | Patent grant |