CN108268831A - 一种无人车视觉检测的鲁棒性测试方法和*** - Google Patents

一种无人车视觉检测的鲁棒性测试方法和*** Download PDF

Info

Publication number
CN108268831A
CN108268831A CN201711248427.3A CN201711248427A CN108268831A CN 108268831 A CN108268831 A CN 108268831A CN 201711248427 A CN201711248427 A CN 201711248427A CN 108268831 A CN108268831 A CN 108268831A
Authority
CN
China
Prior art keywords
scene
unmanned vehicle
tested
image
test
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201711248427.3A
Other languages
English (en)
Inventor
冯西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Baidu Online Network Technology Beijing Co Ltd
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN201711248427.3A priority Critical patent/CN108268831A/zh
Publication of CN108268831A publication Critical patent/CN108268831A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/13Receivers
    • G01S19/14Receivers specially adapted for specific applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Image Analysis (AREA)

Abstract

本申请提供一种无人车视觉检测的鲁棒性测试方法和***,所述方法包括,获取无人车采集的包含检测目标的原始图像;利用待测试场景对应的测试参数,对所述原始图像进行异常处理,构建待测试场景对应的测试图像;利用针对原始图像和测试图像中的检测目标的视觉检测结果,得到无人车视觉检测在所述待测试场景下的鲁棒性测试结果。采用本实施例所述方法和***,测试场景更具有针对性和可重复性,大大提高了鲁棒性测试的效率。

Description

一种无人车视觉检测的鲁棒性测试方法和***
【技术领域】
本申请涉及图像识别领域,尤其涉及一种无人车视觉检测的鲁棒性测试方法和***。
【背景技术】
视觉检测算法在无人车***中起着至关重要的作用,在马路上行驶的无人车,若要经过路口,首先需要识别交通信号灯(以下简称信号灯)。
现有技术中,在识别信号灯的过程中,无人车可以通过拍摄装置对信号灯进行拍摄,通过拍摄装置获得的图像只有见过视觉检测算法才能得知该图像中是否有信号灯、信号灯的类型、信号灯的颜色等,并发送给决策控制模块,由决策控制模块根据检测结果做出符合交通规则的操作,即停车或通行。
因为拍摄装置会面对各种不同场景,比如在雨雪雾天气、拍摄装置角度移动等情况,无人车可能无法对信号灯进行识别。由此可能造成违章行为,甚至引起交通事故。
为了保证安全驾驶,需要在各种场景下都能正确识别信号灯,这就要求无人车视觉检测算法具有极高的鲁棒性。
在无人车开发过程中,需要进行真实道路测试,以测试出无人车对于真实道路中遇到的场景的视觉检测是否能达到实际需求。但是,对于不同场景,尤其是雨雪雾天气等场景受自然条件影响较大,而且可能存在不可再现性。为了完成各种不同场景的测试,需要耗费较多的时间、人力、金钱成本。
【发明内容】
本申请的多个方面提供一种无人车视觉检测的鲁棒性测试方法和***,用以测试无人车视觉算法的鲁棒性。
本申请的一方面,提供一种无人车视觉检测的鲁棒性测试方法,包括:
获取无人车采集的包含检测目标的原始图像;
利用待测试场景对应的测试参数,对所述原始图像进行异常处理,构建待测试场景对应的测试图像;
利用针对原始图像和测试图像中的检测目标的视觉检测结果,得到无人车视觉检测在所述待测试场景下的鲁棒性测试结果。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述获取无人车采集的包含检测目标的原始图像包括:
当监测到无人车与检测目标在预设的距离范围内,则启动无人车上的拍摄装置拍摄并存储包含检测目标的原始图像。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述视觉检测结果包括:
检测目标的类型、颜色和位置中的至少一种。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述待测试场景包括恶劣天气场景;
利用待测试场景对应的测试参数,对所述原始图像进行异常处理,构建待测试场景对应的测试图像包括:
根据气象参数对所述原始图像进行加噪、亮度处理,得到恶劣天气场景对应的测试图像。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述待测试场景包括拍摄装置位置移动场景;
利用待测试场景对应的测试参数,对所述原始图像进行异常处理,构建待测试场景对应的测试图像包括:
根据拍摄装置在无人车中的位置信息参数,对所述原始图像进行移动、缩放处理,得到拍摄装置位置移动场景对应的测试图像。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述待测试场景包括拍摄装置角度移动场景;
利用待测试场景对应的测试参数,对所述原始图像进行异常处理,构建待测试场景对应的测试图像包括:
根据拍摄装置在无人车中的姿态信息参数,对所述图像进行移动、旋转处理,得到拍摄装置角度移动场景对应的测试图像。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述利用针对原始图像和测试图像中的检测目标进行的视觉检测结果,得到所述待测试场景下无人车视觉检测的鲁棒性测试结果包括:
将针对原始图像和测试图像中的检测目标进行的视觉检测结果进行对比,得到无人车视觉检测在待测试场景下的错误率。
本申请的一方面,提供一种无人车视觉检测的鲁棒性测试***,包括:
原始图像获取模块,用于获取无人车采集的包含检测目标的原始图像;
图像处理模块,用于利用待测试场景对应的测试参数,对所述原始图像进行异常处理,构建待测试场景对应的测试图像;
视觉检测模块,用于利用针对原始图像和测试图像中的检测目标的视觉检测结果,得到无人车视觉检测在所述待测试场景下的鲁棒性测试结果。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述原始图像获取模块具体用于:
当监测到无人车与检测目标在预设的距离范围内,则启动无人车上的拍摄装置拍摄并存储包含检测目标的原始图像。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述视觉检测结果包括:
检测目标的类型、颜色和位置中的至少一种。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述待测试场景包括恶劣天气场景;
所述图像处理模块具体用于:
根据气象参数对所述原始图像进行加噪、亮度处理,得到恶劣天气场景对应的测试图像。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述待测试场景包括拍摄装置位置移动场景;
所述图像处理模块具体用于:
根据拍摄装置在无人车中的位置信息参数,对所述原始图像进行移动、缩放处理,得到拍摄装置位置移动场景对应的测试图像。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述待测试场景包括拍摄装置角度移动场景;
所述图像处理模块具体用于:
根据拍摄装置在无人车中的姿态信息参数,对所述图像进行移动、旋转处理,得到拍摄装置角度移动场景对应的测试图像。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述视觉检测模块具体用于:
将针对原始图像和测试图像中的检测目标进行的视觉检测结果进行对比,得到无人车视觉检测在待测试场景下的错误率。
本申请的另一方面,提供一种设备,其特征在于,所述设备包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现任一上述的方法。
本申请的另一方面,提供一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现任一上述的方法。
由所述技术方案可知,本申请实施例能够有效的测试无人车视觉检测的鲁棒性。
【附图说明】
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本申请一实施例提供的无人车视觉检测的鲁棒性测试方法的流程示意图;
图2为本申请另一实施例提供的无人车视觉检测的鲁棒性测试***的结构示意图;
图3为适于用来实现本发明实施例的示例性计算机***/服务器的框图。
【具体实施方式】
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的全部其他实施例,都属于本申请保护的范围。
另外,本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。
图1为本申请一实施例提供的无人车视觉检测的鲁棒性测试方法的流程示意图,如图1所示,包括以下步骤:
步骤S11、获取无人车采集的包含检测目标的原始视频;
步骤S12、根据测试请求中待测试场景的测试参数,对所述原始视频进行异常处理,构建待测试场景对应的测试视频;
步骤S13、利用针对原始视频和测试视频中的检测目标的视觉检测结果,得到无人车视觉检测在所述待测试场景下的鲁棒性测试结果。
在步骤S11的一种优选实现方式中,
通过无人车上的拍摄装置拍摄实际测试场景中带有检测目标的原始视频,在本实施例中,所述监测目标以信号灯为例,包括以下子步骤:
子步骤S111,构建与无人车测试场地对应的测试地图。
在本实施例中,可以首先构建测试场地的测试地图。
在构建测试地图时,可以根据测试场地各个点的坐标、各个点的高度,绘制至少一个测试地图;也可以采用已有的高精度地图,对其进行修改,得到可以适用于测试场地的至少一个测试地图。其中,所述测试地图中包括了信号灯的位置信息和方向信息。
子步骤S112,在测试地图上确定自预设的起始位置至终止位置的期望行驶轨迹。
在构建完成上述测试地图后,可以在上述测试地图上确定无人车的起始位置至终止位置的期望行驶轨迹。
子步骤S113,将期望行驶轨迹发送给无人车,以使无人车在测试场地上按照期望行驶轨迹行驶。
服务器在确定了上述期望行驶轨迹后,可以将上述期望行驶轨迹发送给无人车。无人车在接收了上述期望行驶轨迹后,可以按照期望行驶轨迹自起始位置出发行驶至终止位置。可以理解的是,服务器还可以同时将测试地图一起发送给无人车。
子步骤S114,控制无人车上的拍摄装置拍摄并存储包含信号灯的原始视频,
在本实施例的一种优选实现方式中,也可以控制无人车上的拍摄装置拍摄并存储包含信号灯的原始图像,直接以图像方式进行存储。
在本实施例中,在对视频进行检测、处理的过程中,都是针对视频中一帧帧的图像进行的检测、处理。
优选地,当监测到在无人车的行进方向上,与待拍摄的信号灯在预设的距离范围内,则启动无人车上的拍摄装置拍摄包含信号灯的视频。通过无人车的位置信息、信号灯的位置信息可以确定拍摄装置与信号灯的距离信息。
待拍摄的信号灯为无人车经过路口需要拍摄并检测的,以使其确定通行或停止的信号灯。该信号灯所针对的是该无人车行进方向上的车辆。
预设距离范围是预先设定的无人车到信号灯的距离的数值范围。预设距离范围可以是一个数值区间,比如40-60米,也可以是一个数值,比如50米。
在本实施例中,可以对所述原始视频的每一帧图像进行视觉检测,并记录检测结果。也可以直接记录所述原始视频的每一帧图像所对应的信号灯的实际状态,即不需要对所述原始视频进行视觉检测,而只需根据所述原始视频中每一帧图像的时间戳,获取信号灯在对应时间的实际状态。
所述检测结果包括每一帧图像中信号灯的种类和颜色,例如:
所述信号灯为机动车信号灯,且所述机动车信号灯为绿灯亮;或者
所述信号灯为机动车信号灯,且所述机动车信号灯为黄灯亮;或者
所述信号灯为机动车信号灯,且所述机动车信号灯为红灯亮。
所述信号灯为车道信号灯,且所述车道信号灯为绿色箭头灯亮;或者
所述信号灯为车道信号灯,且所述车道信号灯为红色叉形灯。
所述信号灯为方向信号灯,且箭头方向为向左;或者
所述信号灯为方向信号灯,且箭头方向为向上;或者
所述信号灯为方向信号灯,且箭头方向为向右。
所述检测结果还可以包括每一帧图像中信号灯的位置。
优选的,所述检测结果还包括每一帧图像对应的无人车的位置信息,以便后续进行对比。无人车的位置信息为无人车所在的地理位置的信息,该位置信息可以是利用无人车的IMS惯性导航***或GPS***获取到的。
优选地,无人车是基于ROS这一机器人操作***为核心的,无人车在运行时的数据会存储为格式为.bag的bag文件。bag文件中会记录无人车ROS操作***中所有topic的详细信息,包括对应的拍摄装置topic以及信号灯感知的topic。拍摄装置topic输出到信号灯感知这一topic,由信号灯感知这一topic根据拍摄装置topic检测是否存在信号灯以及信号灯的位置、类型、颜色。
在步骤S12的一种优选实现方式中,
当接收到测试请求时,根据测试请求中待测试场景对应的测试参数,对所述原始视频的每一帧图像进行异常处理,构建待测试场景对应的测试视频。
所述测试请求中包括测试地图、待测试场景,其中,待测试场景包括:恶劣天气、拍摄装置位置移动、拍摄装置角度移动等;恶劣天气场景的测试参数为气象参数、拍摄装置位置移动场景的测试参数为拍摄装置在无人车中的位置信息、拍摄装置角度移动场景的测试参数为拍摄装置的姿态信息。
气象参数为雨、雪、雾、沙尘、霾、阴天等具体气象参数。拍摄装置在无人车中的位置信息参数为指示拍摄装置在无人车中的位置的信息。姿态信息参数为与拍摄装置的姿态相关的信息,指示拍摄装置的姿态。
通过对气象参数的设定,能够实现恶劣天气情况下的待测场景;通过对拍摄装置在无人车中的位置信息的设定,能够实现拍摄装置位置移动情况下的待测场景;通过对拍摄装置的姿态信息的设定,能够实现拍摄装置角度移动情况下的待测场景;
优选地,上述参数可以同时进行设定,以实现复杂情况下的待测场景。例如,恶劣天气下,拍摄装置位置和角度都发生移动的场景。
提取视频容器中存储的所述原始视频,根据测试请求中待测试场景对应的测试参数对所述原始视频中的每一帧进行异常处理,将异常处理得到的异常图像数据合成为待测试场景对应的测试视频。
首先提取出与视频相关的topic,视频是以压缩后的格式存储于topic中,提取方法为遍历整个bag文件中所有的topic,选出指定的与信号灯相关的topic。然后将信号灯对应的topic一帧帧的处理,这里首先需要将信号灯topic转换为OpenCV可以处理的格式
利用OpenCV等计算机视觉库对所述原始视频中的每一帧图像进行移动、缩放、偏移、旋转处理,生成对应的异常图像;
优选地,根据拍摄装置在无人车中的位置信息参数,对所述图像进行移动、缩放处理,得到拍摄装置位置移动场景对应的测试图像;
根据拍摄装置的姿态信息参数,对所述图像进行移动、旋转处理,得到拍摄装置角度移动场景对应的测试图像。
由于OpenCV等计算机视觉库无法对图像进行的加噪、亮度处理,所以需要利用其他图像处理工具根据气象参数对视频中的每一帧图像进行加噪、亮度处理,生成恶劣天气场景对应的测试图像。
将生成的测试图像通过OpenCV转换为ROS可以读取的视频数据作为测试视频,从而将其写到待测试场景对应的测试视频topic中,存储为格式为.bag的文件。
在步骤S13的一种优选实现方式中,
利用针对原始视频和测试视频中的检测目标进行的视觉检测结果,得到所述待测试场景下无人车视觉检测的鲁棒性测试结果。
根据所述待测试场景对应的测试视频进行无人车视觉检测,记录检测结果。
在无人车操作***ROS上播放新生成的bag文件,同时启动信号灯感知这一topic,根据待测试场景对应的测试视频topic检测是否存在信号灯以及信号灯的位置、类型、颜色。
根据所述待测试场景对应的测试视频进行无人车视觉检测的检测结果包括每一帧图像中信号灯的种类和颜色,例如:
所述信号灯为机动车信号灯,且所述机动车信号灯为绿灯亮;或者
所述信号灯为机动车信号灯,且所述机动车信号灯为黄灯亮;或者
所述信号灯为机动车信号灯,且所述机动车信号灯为红灯亮。
所述信号灯为车道信号灯,且所述车道信号灯为绿色箭头灯亮;或者
所述信号灯为车道信号灯,且所述车道信号灯为红色叉形灯或者箭头灯亮。
所述信号灯为方向信号灯,所述箭头方向为向左;或者
所述信号灯为方向信号灯,且箭头方向为向上;或者
所述信号灯为方向信号灯,且箭头方向为向右。
所述检测结果还可以包括每一帧图像中信号灯的位置。
优选的,所述检测结果还包括每一帧图像对应的无人车的位置信息,无人车的位置信息为通过携带在无人车上的拍摄装置拍摄实际测试场景中带有信号灯的视频过程中记录的无人车所在的地理位置的信息。
优选地,将原始视频的检测结果与待测试场景对应的测试视频的检测结果进行对比,得到无人车视觉算法在待测试场景下的错误率,确定无人车在所述待测试场景下能否正常运行。也可以将待测试场景视频的检测结果与信号灯的实际状态进行对比。
例如,在不同测试场景下,在相对应的帧中,无人车视觉检测算法对信号灯检测准确率等信息对比,可以得到无人车视觉检测算法对不同测试场景的鲁棒性。
根据所述鲁棒性测试结果对无人车视觉算法进行针对性改进,增强视觉检测算法的鲁棒性。
本申请的上述实施例提供的无人车视觉检测的鲁棒性测试方法,测试场景更具有针对性和可重复性,大大提高了鲁棒性测试的效率。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本申请所必须的。
在所述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
图2为本申请另一实施例提供的无人车视觉检测的鲁棒性测试***的结构示意图,如图2所示,包括以下模块:
原始视频获取模块21,用于获取无人车采集的包含检测目标的原始视频;
视频处理模块22,用于根据测试请求中待测试场景的测试参数,对所述原始视频进行异常处理,构建待测试场景对应的测试视频;
视觉检测模块23,用于利用针对原始视频和测试视频中的检测目标的视觉检测结果,得到无人车视觉检测在所述待测试场景下的鲁棒性测试结果。
在原始视频获取模块21的一种优选实现方式中,
通过无人车上的拍摄装置拍摄实际测试场景中带有检测目标的原始视频,在本实施例中,所述监测目标以信号灯为例。
构建与无人车测试场地对应的测试地图。
在本实施例中,可以首先构建测试场地的测试地图。
在构建测试地图时,可以根据测试场地各个点的坐标、各个点的高度,绘制至少一个测试地图;也可以采用已有的高精度地图,对其进行修改,得到可以适用于测试场地的至少一个测试地图。其中,所述测试地图中包括了信号灯的位置信息和方向信息。
在测试地图上确定自预设的起始位置至终止位置的期望行驶轨迹。
在构建完成上述测试地图后,可以在上述测试地图上确定无人车的起始位置至终止位置的期望行驶轨迹。
将期望行驶轨迹发送给无人车,以使无人车在测试场地上按照期望行驶轨迹行驶。
服务器在确定了上述期望行驶轨迹后,可以将上述期望行驶轨迹发送给无人车。无人车在接收了上述期望行驶轨迹后,可以按照期望行驶轨迹自起始位置出发行驶至终止位置。可以理解的是,服务器还可以同时将测试地图一起发送给无人车。
控制无人车上的拍摄装置拍摄并存储包含信号灯的原始视频,
在本实施例的一种优选实现方式中,也可以控制无人车上的拍摄装置拍摄并存储包含信号灯的原始图像,直接以图像方式进行存储。
在本实施例中,在对视频进行检测、处理的过程中,都是针对视频中一帧帧的图像进行的检测、处理。
优选地,当监测到在无人车的行进方向上,与待拍摄的信号灯在预设的距离范围内,则启动无人车上的拍摄装置拍摄包含信号灯的视频。通过无人车的位置信息、信号灯的位置信息可以确定拍摄装置与信号灯的距离信息。
待拍摄的信号灯为无人车经过路口需要拍摄并检测的,以使其确定通行或停止的信号灯。该信号灯所针对的是该无人车行进方向上的车辆。
预设距离范围是预先设定的无人车到信号灯的距离的数值范围。预设距离范围可以是一个数值区间,比如40-60米,也可以是一个数值,比如50米。
在本实施例,可以对所述原始视频的每一帧图像进行视觉检测,并记录检测结果。也可以直接记录所述视频的每一帧图像所对应的信号灯的实际状态,即不需要对所述原始视频进行视觉检测,而只需根据所述原始视频中每一帧图像的时间戳,获取信号灯在对应时间的实际状态。
所述检测结果包括每一帧图像中信号灯的种类和颜色,例如:
所述信号灯为机动车信号灯,且所述机动车信号灯为绿灯亮;或者
所述信号灯为机动车信号灯,且所述机动车信号灯为黄灯亮;或者
所述信号灯为机动车信号灯,且所述机动车信号灯为红灯亮。
所述信号灯为车道信号灯,且所述车道信号灯为绿色箭头灯亮;或者
所述信号灯为车道信号灯,且所述车道信号灯为红色叉形灯。
所述信号灯为方向信号灯,且箭头方向为向左;或者
所述信号灯为方向信号灯,且箭头方向为向上;或者
所述信号灯为方向信号灯,且箭头方向为向右。
所述检测结果还可以包括每一帧图像中信号灯的位置。
优选的,所述检测结果还包括每一帧图像对应的无人车的位置信息,以便后续进行对比。无人车的位置信息为无人车所在的地理位置的信息,该位置信息可以是利用无人车的IMS惯性导航***或GPS***获取到的。
优选地,无人车是基于ROS这一机器人操作***为核心的,无人车在运行时的数据会存储为格式为.bag的bag文件。bag文件中会记录无人车ROS操作***中所有topic的详细信息,包括对应的拍摄装置topic以及信号灯感知的topic。拍摄装置topic输出到信号灯感知这一topic,由信号灯感知这一topic根据拍摄装置topic检测是否存在信号灯以及信号灯的位置、类型、颜色。
在图像处理模块22的一种优选实现方式中,
当接收到测试请求时,图像处理模块22根据测试请求中待测试场景对应的测试参数,对所述原始视频的每一帧图像进行异常处理,构建待测试场景对应的测试视频。
所述测试请求中包括测试地图、待测试场景,其中,待测试场景包括:恶劣天气、拍摄装置位置移动、拍摄装置角度移动等;恶劣天气场景的测试参数为气象参数、拍摄装置位置移动场景的测试参数为拍摄装置在无人车中的位置信息、拍摄装置角度移动场景的测试参数为拍摄装置的姿态信息。
气象参数为雨、雪、雾、沙尘、霾、阴天等具体气象参数。拍摄装置在无人车中的位置信息参数为指示拍摄装置在无人车中的位置的信息。姿态信息参数为与拍摄装置的姿态相关的信息,记录拍摄装置的姿态。
通过对气象参数的设定,能够实现恶劣天气情况下的待测场景;通过对拍摄装置在无人车中的位置信息的设定,能够实现拍摄装置位置移动情况下的待测场景;通过对拍摄装置的姿态信息的设定,能够实现拍摄装置角度移动情况下的待测场景。
优选地,上述参数可以同时进行设定,以实现复杂情况下的待测场景。例如,恶劣天气下,拍摄装置位置和角度都发生移动的场景。
提取视频容器中存储的所述原始视频,根据测试请求中待测试场景对应的测试参数对所述原始视频中的每一帧进行异常处理,将异常处理得到的异常图像数据合成为待测试场景对应的测试视频。
首先提取出与视频相关的topic,视频是以压缩后的格式存储于topic中,提取方法为遍历整个bag文件中所有的topic,选出指定的与信号灯相关的topic。然后将信号灯对应的topic一帧帧的处理,这里首先需要将信号灯topic转换为OpenCV可以处理的格式
利用OpenCV等计算机视觉库对所述原始视频中的每一帧图像进行移动、缩放、偏移、旋转处理,生成对应的异常图像;
优选地,根据拍摄装置在无人车中的位置信息参数,对所述图像进行移动、缩放处理,得到拍摄装置位置移动场景对应的测试图像;
根据拍摄装置的姿态信息参数,对所述图像进行移动、旋转处理,得到拍摄装置角度移动场景对应的测试图像。
由于OpenCV等计算机视觉库无法对图像进行加噪、亮度处理,所以需要利用其他图像处理工具根据气象参数对视频中的每一帧图像进行加噪、亮度处理,得到恶劣天气场景对应的测试图像。
将生成的测试图像通过OpenCV转换为ROS可以读取的视频数据作为测试视频,从而将其写到待测试场景对应的测试视频topic中,存储为格式为.bag的文件。
在视觉检测模块23的一种优选实现方式中,
视觉检测模块23利用针对原始视频和测试视频中的检测目标进行的视觉检测结果,得到所述待测试场景下无人车视觉检测的鲁棒性测试结果。
根据所述待测试场景对应的测试视频进行无人车视觉检测,记录检测结果。
在无人车操作***ROS上播放新生成的bag文件,同时启动信号灯感知这一topic,根据待测试场景对应的测试视频topic检测是否存在信号灯以及信号灯的位置、类型、颜色。
根据所述待测试场景对应的测试视频进行无人车视觉检测的检测结果包括每一帧图像中信号灯的种类和颜色,例如:
所述信号灯为机动车信号灯,且所述机动车信号灯为绿灯亮;或者
所述信号灯为机动车信号灯,且所述机动车信号灯为黄灯亮;或者
所述信号灯为机动车信号灯,且所述机动车信号灯为红灯亮。
所述信号灯为车道信号灯,且所述车道信号灯为绿色箭头灯亮;或者
所述信号灯为车道信号灯,且所述车道信号灯为红色叉形灯或者箭头灯亮。
所述信号灯为方向信号灯,所述箭头方向为向左;或者
所述信号灯为方向信号灯,且箭头方向为向上;或者
所述信号灯为方向信号灯,且箭头方向为向右。
所述检测结果还可以包括每一帧图像中信号灯的位置。
优选的,所述检测结果还包括每一帧图像对应的无人车的位置信息,无人车的位置信息为通过携带在无人车上的拍摄装置拍摄实际测试场景中带有信号灯的视频过程中记录的无人车所在的地理位置的信息。
优选地,将原始视频的检测结果与待测试场景对应的测试视频的检测结果进行对比,得到无人车视觉算法在待测试场景下的错误率,确定无人车在所述待测试场景下能否正常运行。也可以将待测试场景视频的检测结果与信号灯的实际状态进行对比。
例如,在不同测试场景下,在相对应的帧中,无人车视觉检测算法对信号灯检测准确率等信息对比,可以得到无人车视觉检测算法对不同测试场景的鲁棒性。
根据所述鲁棒性测试结果对无人车视觉算法进行针对性改进,增强视觉检测算法的鲁棒性。
本申请的上述实施例提供的无人车视觉检测的鲁棒性测试***,测试场景更具有针对性和可重复性,大大提高了鲁棒性测试的效率。
在本申请所提供的几个实施例中,应该理解到,所揭露的方法和装置,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。所述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
图3示出了适于用来实现本发明实施方式的示例性计算机***/服务器012的框图。图3显示的计算机***/服务器012仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图3所示,计算机***/服务器012以通用计算设备的形式表现。计算机***/服务器012的组件可以包括但不限于:一个或者多个处理器或者处理单元016,***存储器028,连接不同***组件(包括***存储器028和处理单元016)的总线018。
总线018表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,***总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及***组件互连(PCI)总线。
计算机***/服务器012典型地包括多种计算机***可读介质。这些介质可以是任何能够被计算机***/服务器012访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
***存储器028可以包括易失性存储器形式的计算机***可读介质,例如随机存取存储器(RAM)030和/或高速缓存存储器032。计算机***/服务器012可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机***存储介质。仅作为举例,存储***034可以用于读写不可移动的、非易失性磁介质(图3未显示,通常称为“硬盘驱动器”)。尽管图3中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线018相连。存储器028可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块042的程序/实用工具040,可以存储在例如存储器028中,这样的程序模块042包括——但不限于——操作***、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块042通常执行本发明所描述的实施例中的功能和/或方法。
计算机***/服务器012也可以与一个或多个外部设备014(例如键盘、指向设备、显示器024等)通信,在本发明中,计算机***/服务器012与外部雷达设备进行通信,还可与一个或者多个使得用户能与该计算机***/服务器012交互的设备通信,和/或与使得该计算机***/服务器012能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口022进行。并且,计算机***/服务器012还可以通过网络适配器020与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器020通过总线018与计算机***/服务器012的其它模块通信。应当明白,尽管图3中未示出,可以结合计算机***/服务器012使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID***、磁带驱动器以及数据备份存储***等。
处理单元016通过运行存储在***存储器028中的程序,从而执行本发明所描述的实施例中的功能和/或方法。
上述的计算机程序可以设置于计算机存储介质中,即该计算机存储介质被编码有计算机程序,该程序在被一个或多个计算机执行时,使得一个或多个计算机执行本发明上述实施例中所示的方法流程和/或装置操作。
随着时间、技术的发展,介质含义越来越广泛,计算机程序的传播途径不再受限于有形介质,还可以直接从网络下载等。可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括——但不限于——电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于——无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
最后应说明的是:以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。

Claims (16)

1.一种无人车视觉检测的鲁棒性测试方法,其特征在于,包括:
获取无人车采集的包含检测目标的原始图像;
利用待测试场景对应的测试参数,对所述原始图像进行异常处理,构建待测试场景对应的测试图像;
利用针对原始图像和测试图像中的检测目标的视觉检测结果,得到无人车视觉检测在所述待测试场景下的鲁棒性测试结果。
2.根据权利要求1所述的方法,其特征在于,所述获取无人车采集的包含检测目标的原始图像包括:
当监测到无人车与检测目标在预设的距离范围内,则启动无人车上的拍摄装置拍摄并存储包含检测目标的原始图像。
3.根据权利要求1所述的方法,其特征在于,所述视觉检测结果包括:
检测目标的类型、颜色和位置中的至少一种。
4.根据权利要求1所述的方法,其特征在于,所述待测试场景包括恶劣天气场景;
利用待测试场景对应的测试参数,对所述原始图像进行异常处理,构建待测试场景对应的测试图像包括:
根据气象参数对所述原始图像进行加噪、亮度处理,得到恶劣天气场景对应的测试图像。
5.根据权利要求1所述的方法,其特征在于,所述待测试场景包括拍摄装置位置移动场景;
利用待测试场景对应的测试参数,对所述原始图像进行异常处理,构建待测试场景对应的测试图像包括:
根据拍摄装置在无人车中的位置信息参数,对所述原始图像进行移动、缩放处理,得到拍摄装置位置移动场景对应的测试图像。
6.根据权利要求1所述的方法,其特征在于,所述待测试场景包括拍摄装置角度移动场景;
利用待测试场景对应的测试参数,对所述原始图像进行异常处理,构建待测试场景对应的测试图像包括:
根据拍摄装置在无人车中的姿态信息参数,对所述图像进行移动、旋转处理,得到拍摄装置角度移动场景对应的测试图像。
7.根据权利要求1所述的方法,其特征在于,所述利用针对原始图像和测试图像中的检测目标进行的视觉检测结果,得到所述待测试场景下无人车视觉检测的鲁棒性测试结果包括:
将针对原始图像和测试图像中的检测目标进行的视觉检测结果进行对比,得到无人车视觉检测在待测试场景下的错误率。
8.一种无人车视觉检测的鲁棒性测试***,其特征在于,包括:
原始图像获取模块,用于获取无人车采集的包含检测目标的原始图像;
图像处理模块,用于利用待测试场景对应的测试参数,对所述原始图像进行异常处理,构建待测试场景对应的测试图像;
视觉检测模块,用于利用针对原始图像和测试图像中的检测目标的视觉检测结果,得到无人车视觉检测在所述待测试场景下的鲁棒性测试结果。
9.根据权利要求8所述的***,其特征在于,所述原始图像获取模块具体用于:
当监测到无人车与检测目标在预设的距离范围内,则启动无人车上的拍摄装置拍摄并存储包含检测目标的原始图像。
10.根据权利要求8所述的***,其特征在于,所述视觉检测结果包括:
检测目标的类型、颜色和位置中的至少一种。
11.根据权利要求8所述的***,其特征在于,所述待测试场景包括恶劣天气场景;
所述图像处理模块具体用于:
根据气象参数对所述原始图像进行加噪、亮度处理,得到恶劣天气场景对应的测试图像。
12.根据权利要求8所述的***,其特征在于,所述待测试场景包括拍摄装置位置移动场景;
所述图像处理模块具体用于:
根据拍摄装置在无人车中的位置信息参数,对所述原始图像进行移动、缩放处理,得到拍摄装置位置移动场景对应的测试图像。
13.根据权利要求8所述的***,其特征在于,所述待测试场景包括拍摄装置角度移动场景;
所述图像处理模块具体用于:
根据拍摄装置在无人车中的姿态信息参数,对所述图像进行移动、旋转处理,得到拍摄装置角度移动场景对应的测试图像。
14.根据权利要求8所述的***,其特征在于,所述视觉检测模块具体用于:
将针对原始图像和测试图像中的检测目标进行的视觉检测结果进行对比,得到无人车视觉检测在待测试场景下的错误率。
15.一种设备,其特征在于,所述设备包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-7中任一所述的方法。
16.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-7中任一所述的方法。
CN201711248427.3A 2017-12-01 2017-12-01 一种无人车视觉检测的鲁棒性测试方法和*** Pending CN108268831A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711248427.3A CN108268831A (zh) 2017-12-01 2017-12-01 一种无人车视觉检测的鲁棒性测试方法和***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711248427.3A CN108268831A (zh) 2017-12-01 2017-12-01 一种无人车视觉检测的鲁棒性测试方法和***

Publications (1)

Publication Number Publication Date
CN108268831A true CN108268831A (zh) 2018-07-10

Family

ID=62771819

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711248427.3A Pending CN108268831A (zh) 2017-12-01 2017-12-01 一种无人车视觉检测的鲁棒性测试方法和***

Country Status (1)

Country Link
CN (1) CN108268831A (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112200217A (zh) * 2020-09-09 2021-01-08 天津津航技术物理研究所 基于红外图像大数据的识别算法评价方法及***
CN112614372A (zh) * 2020-12-24 2021-04-06 奇瑞汽车股份有限公司 车辆安全通过十字路口的方法和装置
CN112699765A (zh) * 2020-12-25 2021-04-23 北京百度网讯科技有限公司 评估视觉定位算法的方法、装置、电子设备及存储介质
CN112995656A (zh) * 2021-03-04 2021-06-18 黑芝麻智能科技(上海)有限公司 用于图像处理电路的异常检测方法及***
WO2022068468A1 (zh) * 2020-09-29 2022-04-07 京东科技信息技术有限公司 机器人测试场地和机器人测试方法
CN115222610A (zh) * 2022-03-11 2022-10-21 广州汽车集团股份有限公司 图像方法、装置、电子设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105954048A (zh) * 2016-07-07 2016-09-21 百度在线网络技术(北京)有限公司 测试无人车正常驾驶的方法及装置
CN106096192A (zh) * 2016-06-27 2016-11-09 百度在线网络技术(北京)有限公司 一种无人驾驶车辆的测试场景的构建方法和装置
CN107330105A (zh) * 2017-07-07 2017-11-07 上海木爷机器人技术有限公司 一种相似图像检索算法的鲁棒性评测方法及装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106096192A (zh) * 2016-06-27 2016-11-09 百度在线网络技术(北京)有限公司 一种无人驾驶车辆的测试场景的构建方法和装置
CN105954048A (zh) * 2016-07-07 2016-09-21 百度在线网络技术(北京)有限公司 测试无人车正常驾驶的方法及装置
CN107330105A (zh) * 2017-07-07 2017-11-07 上海木爷机器人技术有限公司 一种相似图像检索算法的鲁棒性评测方法及装置

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112200217A (zh) * 2020-09-09 2021-01-08 天津津航技术物理研究所 基于红外图像大数据的识别算法评价方法及***
CN112200217B (zh) * 2020-09-09 2023-06-09 天津津航技术物理研究所 基于红外图像大数据的识别算法评价方法及***
WO2022068468A1 (zh) * 2020-09-29 2022-04-07 京东科技信息技术有限公司 机器人测试场地和机器人测试方法
CN112614372A (zh) * 2020-12-24 2021-04-06 奇瑞汽车股份有限公司 车辆安全通过十字路口的方法和装置
CN112699765A (zh) * 2020-12-25 2021-04-23 北京百度网讯科技有限公司 评估视觉定位算法的方法、装置、电子设备及存储介质
CN112995656A (zh) * 2021-03-04 2021-06-18 黑芝麻智能科技(上海)有限公司 用于图像处理电路的异常检测方法及***
CN112995656B (zh) * 2021-03-04 2024-05-17 黑芝麻智能科技(上海)有限公司 用于图像处理电路的异常检测方法及***
CN115222610A (zh) * 2022-03-11 2022-10-21 广州汽车集团股份有限公司 图像方法、装置、电子设备及存储介质

Similar Documents

Publication Publication Date Title
CN108268831A (zh) 一种无人车视觉检测的鲁棒性测试方法和***
CN107153363B (zh) 无人驾驶汽车的仿真测试方法及装置、设备与可读介质
CN108318043A (zh) 用于更新电子地图的方法、装置和计算机可读存储介质
CN109931945B (zh) Ar导航方法、装置、设备和存储介质
CN109345510A (zh) 物体检测方法、装置、设备、存储介质及车辆
CN109343061A (zh) 传感器标定方法、装置、计算机设备、介质和车辆
CN109101861A (zh) 障碍物类型识别方法、装置、设备及存储介质
CN109345596A (zh) 多传感器标定方法、装置、计算机设备、介质和车辆
CN109271944A (zh) 障碍物检测方法、装置、电子设备、车辆及存储介质
CN109598066A (zh) 预测模块的效果评估方法、装置、设备和存储介质
CN111856963B (zh) 一种基于车载环视***的泊车仿真方法及装置
CN109116374A (zh) 确定障碍物距离的方法、装置、设备及存储介质
CN109145680A (zh) 一种获取障碍物信息的方法、装置、设备和计算机存储介质
CN109633688A (zh) 一种激光雷达障碍物识别方法和装置
CN107450088A (zh) 一种基于位置的服务lbs的增强现实定位方法及装置
CN109032103A (zh) 无人驾驶车辆的测试方法、装置、设备及存储介质
CN109211575A (zh) 无人驾驶汽车及其场地测试方法、装置及可读介质
CN108230437A (zh) 场景重建方法和装置、电子设备、程序和介质
CN109035831A (zh) 交通指示灯的识别方法、装置、设备、存储介质及车辆
CN109344804A (zh) 一种激光点云数据的识别方法、装置、设备和介质
CN108399752A (zh) 一种驾驶违章预判方法、装置、服务器和介质
CN106023622B (zh) 一种确定红绿灯识别***识别性能的方法和装置
CN113535569B (zh) 自动驾驶的控制效果确定方法
CN109961522A (zh) 图像投射方法、装置、设备和存储介质
CN108876857A (zh) 无人驾驶车辆的定位方法、***、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20180710

RJ01 Rejection of invention patent application after publication