CN110378202B - 一种基于鱼眼镜头的全方位行人碰撞预警方法 - Google Patents

一种基于鱼眼镜头的全方位行人碰撞预警方法 Download PDF

Info

Publication number
CN110378202B
CN110378202B CN201910487362.0A CN201910487362A CN110378202B CN 110378202 B CN110378202 B CN 110378202B CN 201910487362 A CN201910487362 A CN 201910487362A CN 110378202 B CN110378202 B CN 110378202B
Authority
CN
China
Prior art keywords
vehicle
human body
axis
coordinate system
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910487362.0A
Other languages
English (en)
Other versions
CN110378202A (zh
Inventor
刘鹭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Motovis Technology Shanghai Co ltd
Original Assignee
Motovis Technology Shanghai Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Motovis Technology Shanghai Co ltd filed Critical Motovis Technology Shanghai Co ltd
Priority to CN201910487362.0A priority Critical patent/CN110378202B/zh
Publication of CN110378202A publication Critical patent/CN110378202A/zh
Application granted granted Critical
Publication of CN110378202B publication Critical patent/CN110378202B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • B60Q9/008Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for anti-collision purposes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S11/00Systems for determining distance or velocity not using reflection or reradiation
    • G01S11/12Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Mechanical Engineering (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种基于鱼眼镜头的全方位行人碰撞预警方法,包括:步骤a:在车辆四周安装规定角度的多个鱼眼镜头,相邻鱼眼镜头的视角范围至少部分重叠;步骤b:通过所述多个鱼眼镜头实时采集车辆周围的行人图像;步骤c:使用经过训练的分类器对实时采集到的图像计算人体语义分割,获得同一人体不同部位分割区域在图像坐标系下的位置;步骤d:将步骤c得到的位置信息通过投影变换矩阵从图像坐标系转换到世界坐标系下,得到目标人体或目标人体部位在XY平面上对应的位置;步骤e:计算追踪期间世界坐标系下所述目标轮廓坐标和/或2D框坐标与本车中心点的欧式距离等数值;以及步骤f:根据步骤e计算得到的数据评估预警等级。

Description

一种基于鱼眼镜头的全方位行人碰撞预警方法
技术领域
本发明涉及机器视觉领域,尤其涉及一种基于鱼眼镜头的全方位行人碰撞预警方法。
背景技术
行人检测是安全驾驶领域的一个重要环节,因为行人移动不确定性极高,高矮胖瘦不同、各种图案的衣着面料、各个年龄层各种姿态均有可能出现,行走速度随时可变,轨迹也不如其他类型目标有较为明确的方向,在人群密集的情况下汽车驾驶更需要谨慎处理,中国每年因交通事故致死的事件中有三分之一是行人。为了解决这一问题,要求高端的辅助驾驶***或者自动驾驶***需要有能力预先对危险情况和错误的人为驾驶行为做出预警或者直接干涉,与此对应的是前方行人碰撞预警的功能。
激光和红外传感器不需要照亮周围环境就可以被动完成行人检测,这类传感器尽管受光照的干扰较小但是鉴于价格问题,不适合大面积推广量产,越来越多地被视觉传感器所取代,还有一类是使用毫米波段雷达来检测行人,该类传感器虽然灵敏准确,但是受天气影响较大,在雨天和雾天这种更加危险的天气情况下反而会出现误检。
目前更多的行人检测普遍是基于一组摄像头的设备下,该组摄像头普遍包含一个焦距较长可看到150米以内但视角较小的摄像头(用于远距离行人检测预警),一个焦距较短但是视角较大的摄像头(用于60米以内近距离行人检测预警)和一个车尾用于倒车时对路面监控的视角较小距离也较短的摄像头。因此大量的专利或者研究论文多是关注在司机盲区之外的行人检测,算法也更多是针对人体整体或者人体头部的检测计算一个大概的距离。另外也有不少专利是使用多个鱼眼摄像头安装在车身一圈,但是目的更多是用于自动泊车功能却不是行人检测方向,主要原因也是鱼眼镜头采集的图像畸变很大,对于简单线条的目标(例如车道线、车位线等)尚可通过畸变矫正技术得到平直的轮廓,对于行人这类纹理、线条和轮廓更加复杂的目标并不太适合畸变矫正,因此虽然鱼眼镜头的视角满足了大视角的需求却也同时限制了检测目标的类型。
因此基于上述常规镜头视觉盲区的问题、鱼眼摄像头对于复杂纹理不适合畸变纠正问题所共同作用生成的行人识别问题提出了一种新的基于全车环视鱼眼镜头的行人预警方法。
发明内容
针对现有技术的上述缺陷,本发明提出了一种基于鱼眼镜头的全方位行人碰撞预警方法,通过安装在车辆一周的鱼眼摄像头可以解决全车周边路况监控的问题,同时使用基于深度神经网络的人体语义分割方法可以很好的解决行人图像互相覆盖、仅有部分人体出现等难以识别的问题,在此基础上得到更加精确的行人距离使得本***的预警功能更为全面准确。
本发明的一种基于全车环视鱼眼镜头的行人预警方法,包括如下步骤:
步骤a:在车辆四周安装规定角度的多个鱼眼镜头,相邻鱼眼镜头的视角范围至少部分重叠;
步骤b:通过所述多个鱼眼镜头实时采集车辆周围的行人图像;
步骤c:使用经过训练的分类器对实时采集到的图像计算人体语义分割,获得同一人体不同部位的分割区域在图像坐标系下的位置;
步骤d:将步骤c得到的位置信息通过投影变换矩阵从图像坐标系转换到世界坐标系下,得到目标人体或目标人体部位在XY平面上对应的位置;
步骤e:通过行人追踪方法对目标人体或目标人体部位做持续动态跟踪直到离开监控范围,计算追踪期间世界坐标系下所述目标轮廓坐标和/或2D框坐标与本车中心点的欧式距离、X轴方向垂直距离、Y轴方向垂直距离和X轴/Y轴方向相对速度与加速度;以及
步骤f:根据步骤e计算得到的数据评估预警等级。
优选地,步骤a中,所述多个鱼眼镜头为四个,分别安装在车辆的前后保险杠中间和左右反光镜下方,所述鱼眼镜头以能够观察到紧贴车身的地面为佳。
优选地,步骤c中,根据实际需求可以将人体分割为上半身或者下半身,或者更进一步分割成头部、上半身躯干、上肢、下半身躯干、下肢,或者更进一步分割成头部、手部、脚部、上肢、下肢、上半身躯干、下半身躯干。
优选地,步骤c中,分类器进行如下训练:
使用安装好多个鱼眼镜头的车辆大量采集车辆周围影像作为训练用数据集,所述车辆周围影像包括高密度行人人群图像、超近距离人体图像、特殊人体姿态图像和人体不全的图像;
使用深度神经网络对训练用数据集中的图像做人体语义学习,以得到语义分割鲁棒性最优的分类器。
优选地,步骤c中,所述位置包括:人体形态外轮廓,人体2D框,人体3D框,人体不同部位形态外轮廓,人体不同部位2D框。
优选地,步骤e中,
所述欧氏距离通过如下方式计算:
步骤e1:查找轮廓或2D框上距离图像坐标系下X轴最近的点坐标pI;
步骤e2:将该点坐标通过投影变换转换到世界坐标系下pW;
步骤e3:计算pW点的x,y值与本车中心坐标点的x,y值的差值的绝对值;
步骤e4:计算x绝对值和y绝对值的平方和的开方,
所述X轴方向垂直距离通过如下方式计算:从欧氏距离的步骤e3开始,计算pW点的x值到世界坐标系X轴的差值的绝对值,
所述Y轴方向垂直距离通过如下方式计算:从欧氏距离的步骤e3开始,计算pW点的y值到世界坐标系Y轴的差值的绝对值,
所述X轴/Y轴方向相对速度与加速度通过如下方式计算:Vx为X轴方向垂直距离与指定帧所用时间t的比值,Vy为Y轴方向垂直距离与指定帧所用时间t的比值,Ax为Vx与指定帧所用时间t的比值,Ay为Vy与指定帧所用时间t的比值。
优选地,步骤d中,所述世界坐标系按照如下方式建立:以车辆中心点在地面上的垂直投影点为原点,通过该原点与车纵轴平行为X轴,方向为车辆前进方向,通过该原点与车横轴平行为Y轴,方向为向右,通过该原点垂直向上为Z轴;并针对每个鱼眼镜头标定其内参和系数外参系数。
优选地,根据鱼眼镜头的内参系数和外参系数计算得到图像坐标系到世界坐标系的投影变换矩阵。
优选地,步骤f中,不论本车当前车速为多少,对于一切检测到在本车车身四周一米范围内的人体目标均予以最高等级预警。
优选地,步骤f中,当本车速度大于零,对于检测到的车身四周一米以外的人体目标根据步骤e得到的值计算X方向和Y方向上的碰撞时间Tx和Ty:
根据Tx和Ty中最小的值来评估预警等级,时间越短,预警等级越高;
当目标在指定帧内到X轴或者Y轴的距离始终不变或者变化范围很小的情况下不予预警,
此碰撞时间为0;
当目标在指定帧内到X轴或者Y轴的距离呈现逐渐远离的趋势的情况下不予预警,此时碰撞时间越来越大。
本发明具有如下有益效果:本专利方法不但在行人距离测量上精度大大提高,在人体目标检测的准确方面大大提高了鲁棒性,也同时将监控视角扩展到了全车周边,监控距离扩展到了紧贴车身一圈。
附图说明
图1是本发明的一个实施例的基于鱼眼镜头的全方位行人碰撞预警方法的流程图。
图2是本发明的一个实施例的侧面可视区域示意图。
图3是本发明的一个实施例的前面可视区域示意图。
图4是本发明的一个实施例的可视区域俯视图。
具体实施方式
下面通过实施例对本发明作进一步说明,其目的仅在于更好地理解本发明的研究内容而非限制本发明的保护范围。
如图1所示为本发明的另一个实施例的基于全车环视鱼眼镜头的行人预警方法,包括如下步骤a~f。下面对各步骤进行详细说明。
步骤a:在车辆四周安装规定角度的多个鱼眼镜头,相邻鱼眼镜头的视角范围至少部分重叠。本实施例中,所述多个鱼眼镜头为四个,分别安装在车辆的前后保险杠中间和左右反光镜下方,所述鱼眼镜头以能够观察到紧贴车身的地面为佳。在其他实施例中,鱼眼镜头的数量和具体安装位置也可以根据实际需要而改变。
步骤b:通过所述多个鱼眼镜头实时采集车辆周围的行人图像。
步骤c:使用经过训练的分类器对实时采集到的图像计算人体语义分割,获得同一人体不同部位的分割区域在图像坐标系下的位置。本步骤中,根据实际需求可以将人体分割为上半身或者下半身,或者更进一步分割成头部、上半身躯干、上肢、下半身躯干、下肢,或者更进一步分割成头部、手部、脚部、上肢、下肢、上半身躯干、下半身躯干。
步骤c中,分类器进行如下训练:
使用安装好多个鱼眼镜头的车辆大量采集车辆周围影像作为训练用数据集,所述车辆周围影像包括高密度行人人群图像、超近距离人体图像、特殊人体姿态图像和人体不全的图像;
使用深度神经网络对训练用数据集中的图像做人体语义学习,以得到语义分割鲁棒性最优的分类器。通过深度神经网络训练的分类器,可以精确地对图形进行分类。
另外,步骤c中,所述位置包括:人体形态外轮廓,人体2D框,人体3D框,人体不同部位形态外轮廓,人体不同部位2D框。
步骤d:将步骤c得到的位置信息通过投影变换矩阵从图像坐标系转换到世界坐标系下,得到目标人体或目标人体部位在XY平面上对应的位置。本步骤中,所述世界坐标系按照如下方式建立:以车辆中心点在地面上的垂直投影点为原点,通过该原点与车纵轴平行为X轴,方向为车辆前进方向,通过该原点与车横轴平行为Y轴,方向为向右,通过该原点垂直向上为Z轴;并针对每个鱼眼镜头标定其内参和系数外参系数。其中,根据鱼眼镜头的内参系数和外参系数计算得到图像坐标系到世界坐标系的投影变换矩阵。
步骤e:通过行人追踪方法对目标人体或目标人体部位做持续动态跟踪直到离开监控范围,计算追踪期间世界坐标系下所述目标轮廓坐标和/或2D框坐标与本车中心点的欧式距离、X轴方向垂直距离、Y轴方向垂直距离和X轴/Y轴方向相对速度与加速度。
步骤e中,所述欧氏距离通过如下方式计算:
步骤e1:查找轮廓或2D框上距离图像坐标系下X轴最近的点坐标pI;
步骤e2:将该点坐标通过投影变换转换到世界坐标系下pW;
步骤e3:计算pW点的x,y值与本车中心坐标点的x,y值的差值的绝对值;
步骤e4:计算x绝对值和y绝对值的平方和的开方。
另外,所述X轴方向垂直距离通过如下方式计算:从欧氏距离的步骤e3开始,计算pW点的x值到世界坐标系X轴的差值的绝对值,
所述Y轴方向垂直距离通过如下方式计算:从欧氏距离的步骤e3开始,计算pW点的y值到世界坐标系Y轴的差值的绝对值,
所述X轴/Y轴方向相对速度与加速度通过如下方式计算:Vx为X轴方向垂直距离与指定帧所用时间t的比值,Vy为Y轴方向垂直距离与指定帧所用时间t的比值,Ax为Vx与指定帧所用时间t的比值,Ay为Vy与指定帧所用时间t的比值。
最后是步骤f:根据步骤e计算得到的数据评估预警等级。步骤f中预警等级评估分两种情况。首先,不论本车当前车速为多少,对于一切检测到在本车车身四周一米范围内的人体目标均予以最高等级预警。其次,当本车速度大于零,对于检测到的车身四周一米以外的人体目标根据步骤e得到的值计算X方向和Y方向上的碰撞时间Tx和Ty:
根据Tx和Ty中最小的值来评估预警等级,时间越短,预警等级越高;这里最小值是指非零值。
当目标在指定帧内到X轴或者Y轴的距离始终不变或者变化范围很小的情况下不予预警,此碰撞时间为无穷大;这种情况说明行人在平行于车体某个面行进,不会发生行人与本车碰撞的风险。
当目标在指定帧内到X轴或者Y轴的距离呈现逐渐远离(线性或者非线性变化)的趋势的情况下不予预警,此时碰撞时间越来越大。这种情况说明行人在远离车辆,不会发生行人与本车碰撞的风险。
如图2和图3中虚线所示区域为驾驶员可视范围,双点划线所示区域为摄像头可视范围区域,可以发现如果目标(例如小狗、小孩或蹲卧的人体等)正好在车窗下或者车头前方约6米以内,有极大可能无法被驾驶员发现,而通过本发明的鱼眼环视像头可以很好地的解决这个视觉盲区的问题。
图3示出了本发明的一个实施例的可视区域俯视图,当行人只有部分身体(比如脚部)进入到监控范围之内,也会被识别并追踪,根据预警等级变换预警方式直到彻底离开本车监控范围。
本发明不仅使用的设备价格便宜,支持量产,而且在成本低的条件下针对车体全方位视角可以精准计算各种形态的行人(包括该目标人体的各个部位)到车体的直线距离、相对速度和相对加速度,解决了鱼眼镜头下畸变较重行人人体难以识别追踪的问题。
显然,本技术领域中的普通技术人员应当认识到,以上的实施例仅是用来说明本发明,而并非用作为对本发明的限定,只要在本发明的实质精神范围内,对以上所述实施例的变化、变型都将落在本发明的权利要求书范围。

Claims (10)

1.一种基于鱼眼镜头的全方位行人碰撞预警方法,其特征在于,包括如下步骤:
步骤a:在车辆四周安装规定角度的多个鱼眼镜头,相邻鱼眼镜头的视角范围至少部分重叠;
步骤b:通过所述多个鱼眼镜头实时采集车辆周围的行人图像;
步骤c:使用经过训练的分类器对实时采集到的图像计算人体语义分割,获得同一人体不同部位的分割区域在图像坐标系下的位置;
步骤d:将步骤c得到的位置信息通过投影变换矩阵从图像坐标系转换到世界坐标系下,得到目标人体或目标人体部位在XY平面上对应的位置;
步骤e:通过行人追踪方法对目标人体或目标人体部位做持续动态跟踪直到离开监控范围,计算追踪期间世界坐标系下目标轮廓坐标和/或2D框坐标与本车中心点的欧氏距离、X轴方向垂直距离、Y轴方向垂直距离和X轴/Y轴方向相对速度与加速度;以及
步骤f:根据步骤e计算得到的数据评估预警等级。
2.根据权利要求1所述的方法,其特征在于,步骤a中,所述多个鱼眼镜头为四个,分别安装在车辆的前后保险杠中间和左右反光镜下方,所述鱼眼镜头以能够观察到紧贴车身的地面为佳。
3.根据权利要求1所述的方法,其特征在于,步骤c中,根据实际需求可以将人体分割为上半身或者下半身,或者更进一步分割成头部、上半身躯干、上肢、下半身躯干、下肢,或者更进一步分割成头部、手部、脚部、上肢、下肢、上半身躯干、下半身躯干。
4.根据权利要求1所述的方法,其特征在于,步骤c中,分类器进行如下训练:
使用安装好多个鱼眼镜头的车辆大量采集车辆周围影像作为训练用数据集,所述车辆周围影像包括高密度行人人群图像、超近距离人体图像、特殊人体姿态图像和人体不全的图像;
使用深度神经网络对训练用数据集中的图像做人体语义学习,以得到语义分割鲁棒性最优的分类器。
5.根据权利要求1所述的方法,其特征在于,步骤c中,所述位置包括:人体形态外轮廓,人体2D框,人体3D框,人体不同部位形态外轮廓,人体不同部位2D框。
6.根据权利要求4所述的方法,其特征在于,步骤e中,
所述欧氏距离通过如下方式计算:
步骤e1:查找轮廓或2D框上距离图像坐标系下X轴最近的点坐标pI;
步骤e2:将该点坐标通过投影变换转换到世界坐标系下pW;
步骤e3:计算pW点的x,y值与本车中心坐标点的x,y值的差值的绝对值;
步骤e4:计算x绝对值和y绝对值的平方和的开方,
所述X轴方向垂直距离通过如下方式计算:从欧氏距离的步骤e3开始,计算pW点的x值到世界坐标系X轴的差值的绝对值,
所述Y轴方向垂直距离通过如下方式计算:从欧氏距离的步骤e3开始,计算pW点的y值到世界坐标系Y轴的差值的绝对值,
所述X轴/Y轴方向相对速度与加速度通过如下方式计算:Vx为X轴方向垂直距离与指定帧所用时间t的比值,Vy为Y轴方向垂直距离与指定帧所用时间t的比值,Ax为Vx与指定帧所用时间t的比值,Ay为Vy与指定帧所用时间t的比值。
7.根据权利要求1所述的方法,其特征在于,步骤d中,所述世界坐标系按照如下方式建立:以车辆中心点在地面上的垂直投影点为原点,通过该原点与车纵轴平行为X轴,方向为车辆前进方向,通过该原点与车横轴平行为Y轴,方向为向右,通过该原点垂直向上为Z轴;并针对每个鱼眼镜头标定其内参和系数外参系数。
8.根据权利要求1所述的方法,其特征在于,根据鱼眼镜头的内参系数和外参系数计算得到图像坐标系到世界坐标系的投影变换矩阵。
9.根据权利要求8所述的方法,其特征在于,步骤f中,不论本车当前车速为多少,对于一切检测到在本车车身四周一米范围内的人体目标均予以最高等级预警。
10.根据权利要求1所述的方法,其特征在于,步骤f中,当本车速度大于零,对于检测到的车身四周一米以外的人体目标根据步骤e得到的值计算X方向和Y方向上的碰撞时间Tx和Ty:
根据Tx和Ty中最小的值来评估预警等级,时间越短,预警等级越高;
当目标在指定帧内到X轴或者Y轴的距离始终不变或者变化范围很小的情况下不予预警,
此碰撞时间为0;
当目标在指定帧内到X轴或者Y轴的距离呈现逐渐远离的趋势的情况下不予预警,此时碰撞时间越来越大。
CN201910487362.0A 2019-06-05 2019-06-05 一种基于鱼眼镜头的全方位行人碰撞预警方法 Active CN110378202B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910487362.0A CN110378202B (zh) 2019-06-05 2019-06-05 一种基于鱼眼镜头的全方位行人碰撞预警方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910487362.0A CN110378202B (zh) 2019-06-05 2019-06-05 一种基于鱼眼镜头的全方位行人碰撞预警方法

Publications (2)

Publication Number Publication Date
CN110378202A CN110378202A (zh) 2019-10-25
CN110378202B true CN110378202B (zh) 2022-12-09

Family

ID=68249835

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910487362.0A Active CN110378202B (zh) 2019-06-05 2019-06-05 一种基于鱼眼镜头的全方位行人碰撞预警方法

Country Status (1)

Country Link
CN (1) CN110378202B (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111582080B (zh) * 2020-04-24 2023-08-08 杭州鸿泉物联网技术股份有限公司 车辆360度环视监控实现方法及装置
CN112001229B (zh) * 2020-07-09 2021-07-20 浙江大华技术股份有限公司 视频行为识别的方法、装置、***和计算机设备
CN112249021B (zh) * 2020-10-14 2022-06-24 广州汽车集团股份有限公司 一种道路行人碰撞风险预测方法及其***
CN112257692B (zh) * 2020-12-22 2021-03-12 湖北亿咖通科技有限公司 一种行人目标的检测方法、电子设备及存储介质
CN113052009A (zh) * 2021-03-02 2021-06-29 北京经纬恒润科技股份有限公司 一种车辆防撞方法、模型训练方法及装置
CN113033441B (zh) * 2021-03-31 2024-05-10 广州敏视数码科技有限公司 一种基于广角成像的行人碰撞预警方法
CN113705403B (zh) * 2021-08-18 2023-08-08 广州敏视数码科技有限公司 一种与全景成像***融合的前方目标车辆碰撞预警方法
CN114648639B (zh) * 2022-05-19 2022-08-23 魔视智能科技(武汉)有限公司 一种目标车辆的检测方法、***及装置
CN117275102A (zh) * 2023-10-13 2023-12-22 佛山佳立电气科技有限公司 一种立体车库离线收费***

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017000115A1 (zh) * 2015-06-29 2017-01-05 北京旷视科技有限公司 行人再识别方法及设备
CN108638999A (zh) * 2018-05-16 2018-10-12 浙江零跑科技有限公司 一种基于360度环视输入的防碰撞预警***及方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017000115A1 (zh) * 2015-06-29 2017-01-05 北京旷视科技有限公司 行人再识别方法及设备
CN108638999A (zh) * 2018-05-16 2018-10-12 浙江零跑科技有限公司 一种基于360度环视输入的防碰撞预警***及方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于全景相机的3D坐标测量方法;王启超等;《电子测量技术》;20171231(第12期);全文 *

Also Published As

Publication number Publication date
CN110378202A (zh) 2019-10-25

Similar Documents

Publication Publication Date Title
CN110378202B (zh) 一种基于鱼眼镜头的全方位行人碰撞预警方法
CN110244322B (zh) 基于多源传感器的路面施工机器人环境感知***及方法
CN110531376B (zh) 用于港口无人驾驶车辆的障碍物检测和跟踪方法
JP7157054B2 (ja) 整合画像及びlidar情報に基づいた車両ナビゲーション
CN106228110B (zh) 一种基于车载双目相机的障碍物及可行驶区域检测方法
CN110065494B (zh) 一种基于车轮检测的车辆防碰撞方法
US20180194286A1 (en) Determining a road surface characteristic
US10984557B2 (en) Camera calibration using traffic sign recognition
CN109084724A (zh) 一种基于双目视觉的深度学习障碍物测距方法
CN108596058A (zh) 基于计算机视觉的行车障碍物测距方法
CN102194239B (zh) 用于处理图像数据的方法和***
CN111712731A (zh) 目标检测方法、***及可移动平台
CN106054174A (zh) 使用雷达和摄像机用于横越交通应用的融合方法
JP4956453B2 (ja) 物体検出装置
EP2293588A1 (en) Method for using a stereovision camera arrangement
JP6758160B2 (ja) 車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラム
US10554951B2 (en) Method and apparatus for the autocalibration of a vehicle camera system
CN109827516B (zh) 一种通过车轮来测量距离的方法
CN112597839B (zh) 基于车载毫米波雷达的道路边界检测方法
CN107796373A (zh) 一种基于车道平面几何模型驱动的前方车辆单目视觉的测距方法
JP2023184572A (ja) 電子機器、移動体、撮像装置、および電子機器の制御方法、プログラム、記憶媒体
Raguraman et al. Intelligent drivable area detection system using camera and LiDAR sensor for autonomous vehicle
KR101568745B1 (ko) 적외선 영상 기반의 차량 보조 장치 및 방법
CN111353481A (zh) 基于激光点云与视频图像的道路障碍物识别方法
Li et al. Composition and application of current advanced driving assistance system: A review

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant