CN109977845B - 一种可行驶区域检测方法及车载终端 - Google Patents
一种可行驶区域检测方法及车载终端 Download PDFInfo
- Publication number
- CN109977845B CN109977845B CN201910218775.9A CN201910218775A CN109977845B CN 109977845 B CN109977845 B CN 109977845B CN 201910218775 A CN201910218775 A CN 201910218775A CN 109977845 B CN109977845 B CN 109977845B
- Authority
- CN
- China
- Prior art keywords
- image
- data
- travelable
- travelable region
- detection model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明提供一种可行驶区域检测方法及车载终端,该方法包括:获取单目视觉传感器采集的第一图像;将所述第一图像输入到可行驶区域检测模型,得到所述第一图像的可行驶区域;其中,所述可行驶区域检测模型根据多张第二图像以及车道线和障碍物的推理模型训练得到。本发明实施例提高了可行驶区域检测的距离。
Description
技术领域
本发明涉及通信技术领域,尤其涉及一种可行驶区域检测方法及车载终端。
背景技术
可行驶区域检测(Free Space Detection)技术是一项应用于自动驾驶***解决方案中的关键技术,用来判断某个区域的可行驶或者不可行驶状态,以此来辅助驾驶***做决策和异常驾驶边界判断。道路上的静态/动态障碍物(车辆、行人等)、道路两侧的路沿、道路中间的护栏、道路上的锥筒/三脚架等等都是不可行驶区域的一部分,自动驾驶***需要将这些影响驾驶安全的区域全部区分出来,因此可行驶区域检测技术应运而生。
现有技术中对可行驶区域的检测通常采用激光雷达的点云分析方案。这种方案使用激光雷达产生的点云数据,可有效分析周围区域的可行驶和不可行驶状态。由于激光雷达的探测距离有限,例如64线激光雷达的探测距离通常在60m,这样只能适用于低速行驶场景。因此现有技术中存在可行驶区域检测的距离较短的问题。
发明内容
本发明实施例提供一种可行驶区域检测方法及车载终端,以解决可行驶区域检测的距离较短的问题。
第一方面,本发明实施例提供了一种可行驶区域检测方法,包括:
获取单目视觉传感器采集的第一图像;
将所述第一图像输入到可行驶区域检测模型,得到所述第一图像的可行驶区域;
其中,所述可行驶区域检测模型根据多张第二图像以及车道线和障碍物的推理模型训练得到。
第二方面,本发明实施例还提供了一种车载终端,其特征在于,包括:
获取模块,用于获取单目视觉传感器采集的第一图像;
第一输入模块,用于将所述第一图像输入到可行驶区域检测模型,得到所述第一图像的可行驶区域;
其中,所述可行驶区域检测模型根据多张第二图像以及车道线和障碍物的推理模型训练得到。
第三方面,本发明实施例还提供了一种车载终端,包括处理器、存储器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现上述可行驶区域检测方法的步骤。
第四方面,本发明实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述可行驶区域检测方法的步骤。
本发明实施例通过将单目视觉传感器采集的第一图像输入到基于多张第二图像以及车道线和障碍物的推理模型训练得到的可行驶区域检测模型,推理获得所述第一图像的可行驶区域。这样,由于单目视觉传感器采集的第一图像可以包括较远距离的图像数据,因此可以提高可行驶区域检测的距离。此外,由于无需对第二图像进行可行驶区域标注,从而有效降低数据标注成本。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的可行驶区域检测方法的流程图;
图2是本发明实施例提供的可行驶区域检测方法中第二图像的示意图;
图3是本发明实施例提供的可行驶区域检测方法中基于第二图像进行可行驶区域检测模型训练的示意图;
图4是本发明实施例提供的车载终端的结构图之一;
图5是本发明实施例提供的车载终端的结构图之二。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参见图1,图1是本发明实施例提供的一种可行驶区域检测方法的流程图,如图1所示,包括以下步骤:
步骤101,获取单目视觉传感器采集的第一图像;
本发明实施提供的可行驶区域检测方法主要应用在车载终端上,该车载终端,用于对车辆的可行驶区域进行检测。
具体的,在车辆上可以安装单目摄像头,上述单目视觉传感器为单目摄像头的一部分,通过单目视觉传感器获取车辆前方的图像。该车载终端可以与单目视觉传感器电连接,以获取单目视觉传感器采集的第一图像。
步骤102,将所述第一图像输入到可行驶区域检测模型,得到所述第一图像的可行驶区域;
其中,所述可行驶区域检测模型根据多张第二图像以及车道线和障碍物的推理模型训练得到。
上述第二图像可以为单目视觉传感器预先采集的图像,具体的,可以为现有用于训练进行车道先和障碍物识别的推理模型的训练图像,该第二图像预先对车道线和障碍物进行了标注。基于多张第二图像以及各第二图像中的标注数据可以对可行驶区域检测模型进行训练,具体的训练过程在以下实施例中进行详细说明。
本发明实施例中,可以将获取的第一图像以单帧方式输入到可行驶区域检测模型中,在经过可行驶区域检测模型的推理后,最终可以得到当前帧的第一图像中的可行驶区域检测结果,基于该可行驶区域的检测结果可以辅助自动驾驶的控制。
本发明实施例通过将单目视觉传感器采集的第一图像输入到基于多张第二图像以及车道线和障碍物的推理模型训练得到的可行驶区域检测模型,推理获得所述第一图像的可行驶区域。这样,由于单目视觉传感器采集的第一图像可以包括较远距离的图像数据,因此可以提高可行驶区域检测的距离。此外,由于无需对第二图像进行可行驶区域标注,从而有效降低数据标注成本。
进一步的,上述可行驶区域检测模型的训练过程可以根据实际需要进行设置,例如,在本实施例中,在上述步骤101之前还包括对可行驶区域检测模型的训练的过程,具体包括:
将所述多张第二图像输入到车道线和障碍物的推理模型得到每一所述第二图像的车道线数据和障碍物数据;
根据车道线数据和障碍物数据确定每一所述第二图像的可行驶区域标注数据;
基于所述第二图像和所述第二图像的可行驶区域标注数据训练得到可行驶区域检测模型。
本发明实施例中,上述车道线数据包括车道线的坐标信息,上述障碍物数据包括障碍物的坐标信息。具体的,对于每一第二图像均对应有车道线数据和障碍物数据。其中,障碍物可以包括人和车等任一种或者多种障碍物,在此不做进一步的限定。
在本实施例中,可以根据第二图像中的车道线数据和障碍物数据进行后续处理得到可行驶区域标注数据。例如,在一可选实施例中,基于车道线数据可以确定车辆行驶区域,计算车辆行驶区域中除障碍物区域之外的区域,得到可行驶区域,障碍物的区域根据障碍物数据确定,该可行驶区域的坐标信息即为上述可行驶区域标注数据。
在确定每一第二图像的可行驶区域标注数据后,可以根据第二图像以及对应的可行驶区域标注数据进行训练,最终获得可行驶区域检测模型。
由于在本实施例中,可以基于车道线和障碍物的推理模型进行自监督学习得到可行驶区域标注数据,从而无需用户手动的对可行驶区域进行标注,从而降低了标注的成本。
进一步的,基于上述实施例,本实施例中,可以将可行驶区域检测问题转换为回归问题,即使用深度神经网络提取图像特征得到特征图,然后回归特征图中每一列上最近的不可行驶区域边界。具体的,上述基于所述第二图像和所述第二图像的可行驶区域标注数据训练得到可行驶区域检测模型包括:
利用深度神经网络提取所述第二图像的图像特征得到特征图;
基于所述第二图像的可行驶区域标注数据以及针对所述特征图的每一维对应设置的损失函数对所述特征图中每一列上最近的不可行驶区域边界点进行回归处理,得到所述可行驶区域检测模型;
其中,所述损失函数包括边界点位置损失函数、边界点位置偏移损失函数和边界点类别损失函数。
本实施例中,上述特征图为三维特征图,在其他实施例中还可以设置更多维度的特征图,其中每一维度分表对应设置了不同的损失函数。例如第一维可以设置边界点位置损失函数、第二维可以设置边界点位置偏移损失函数,第三维设置边界点类别损失函数。其中,边界点位置损失函数和边界点位置偏移损失函数可以采用欧式距离进行计算,边界点类别损失函数可以使用Sigmoid交叉熵计算。边界点位置损失函数用于计算自由空间点损失(free space point loss),边界点位置偏移损失函数用于计算自由空间点抵消损失(free space point offset loss),边界点位置偏移损失函数用于计算自由空间点类丢失(free space point class loss)。
如图2所示,图2为一张第二图像的示意图。在图2中,图2的下边缘线为X轴,且左边缘线的右侧为正轴;左边缘线为Y轴,且下边缘线的上侧为正轴。上述每一列上最近的不可行驶区域边界点是指每一列的不可行驶区域坐标点中距离该列的目标坐标点最近的一坐标点,该目标坐标点为Y轴取值为0的坐标点。
由于在本实施例中设置了边界点类别损失函数,可以定义不同类别的区域的边界的损失权重不同,从而增加可行驶区域检测的准确性。如图2所示,对于车道线、障碍物A和障碍物B进行分类。如将车道线标记为第一类边界线,将障碍物A的边界标记为第二类边界线,将障碍物C的边界标记为第三类边界线。在上述边界点类别损失函数针对不同的类别的边界线可以有不同的损失权重。
如图3所示,第二图像301可以为1920*640的图像,经过全卷积神经网络302后得到120*40*3的特征图303。其中特征图对不同维度设置了对应的损失函数。例如特征图的第一维3041设置边界点位置损失函数,特征图的第二维3042设置边界点位置偏移损失函数,特征图的第一维3043设置边界点类别损失函数。
进一步的,第一图像可以为单目视觉传感器采集的一帧完整或裁剪后的图像,为了提高可行驶区域检测模型对可行驶区域计算的速度,在本实施例中,优选的,可以采用单目视觉传感器采集的图像进行裁剪后的图像作为第一图像。具体的,上述获取单目视觉传感器采集的第一图像,包括:
获取单目视觉传感器采集的初始图像;
对所述初始图像进行感兴趣区域(Region Of Interest,ROI)选取和裁剪后得到所述第一图像。
在本实施例中,对初始图像裁切的比例可以根据实际进行设置,例如,可以为1/2,也就是说,上述初始图像的尺寸与第一图像的尺寸之比为2:1。具体的,裁切后的第一图像与初始图像的长宽之比可以一致。
例如,第二图像可以为960*320的图像,经过全卷积神经网络后得到60*20*3的特征图。由于输入的图像裁切为初始图像的1/2,从而可以减少特征提取网络的反卷积操作,因此可以提高可行驶区域计算的速度。
需要说明的是,本发明实施例中介绍的多种可选的实施方式,彼此可以相互结合实现,也可以单独实现,对此本发明实施例不作限定。
参见图4,图4是本发明实施例提供的车载终端的结构图,如图4所示,车载终端400包括:
获取模块401,用于获取单目视觉传感器采集的第一图像;
第一输入模块402,用于将所述第一图像输入到可行驶区域检测模型,得到所述第一图像的可行驶区域;
其中,所述可行驶区域检测模型根据多张第二图像以及车道线和障碍物的推理模型训练得到。
可选的,所述车载终端400还包括:
第二输入模块,用于将所述多张第二图像输入到车道线和障碍物的推理模型得到每一所述第二图像的车道线数据和障碍物数据;
确定模块,用于根据车道线数据和障碍物数据确定每一所述第二图像的可行驶区域标注数据;
训练模块,用于基于所述第二图像和所述第二图像的可行驶区域标注数据训练得到可行驶区域检测模型。
可选的,所述训练模块包括:
提取单元,用于利用深度神经网络提取所述第二图像的图像特征得到特征图;
处理单元,用于基于所述第二图像的可行驶区域标注数据以及针对所述特征图的每一维对应设置的损失函数对所述特征图中每一列上最近的不可行驶区域边界点进行回归处理,得到所述可行驶区域检测模型;
其中,所述损失函数包括边界点位置损失函数、边界点位置偏移损失函数和边界点类别损失函数。
可选的,所述获取模块401包括:
获取单元,用于获取单目视觉传感器采集的初始图像;
裁剪单元,用于对所述初始图像进行感兴趣区域ROI选取和裁剪后得到所述第一图像。
可选的,所述初始图像的尺寸与所述第一图像的尺寸的之比为2:1。
本发明实施例提供的车载终端能够实现图1至图3的方法实施例中车载终端实现的各个过程,为避免重复,这里不再赘述。
图5为实现本发明各个实施例的一种车载终端的硬件结构示意图。
该车载终端500包括但不限于:射频单元501、网络模块502、音频输出单元503、输入单元504、传感器505、显示单元506、用户输入单元507、接口单元508、存储器509、处理器510、以及电源511等部件。本领域技术人员可以理解,图5中示出的车载终端结构并不构成对车载终端的限定,车载终端可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
其中,处理器510,用于获取单目视觉传感器采集的第一图像;将所述第一图像输入到可行驶区域检测模型,得到所述第一图像的可行驶区域;其中,所述可行驶区域检测模型根据多张第二图像以及车道线和障碍物的推理模型训练得到。
可选的,处理器510,还用于:
将所述多张第二图像输入到车道线和障碍物的推理模型得到每一所述第二图像的车道线数据和障碍物数据;
根据车道线数据和障碍物数据确定每一所述第二图像的可行驶区域标注数据;
基于所述第二图像和所述第二图像的可行驶区域标注数据训练得到可行驶区域检测模型。
可选的,处理器510,具体用于:
利用深度神经网络提取所述第二图像的图像特征得到特征图;
基于所述第二图像的可行驶区域标注数据以及针对所述特征图的每一维对应设置的损失函数对所述特征图中每一列上最近的不可行驶区域边界点进行回归处理,得到所述可行驶区域检测模型;
其中,所述损失函数包括边界点位置损失函数、边界点位置偏移损失函数和边界点类别损失函数。
可选的,处理器510,具体用于:
获取单目视觉传感器采集的初始图像;
对所述初始图像进行感兴趣区域ROI选取和裁剪后得到所述第一图像。
可选的,所述初始图像的尺寸与所述第一图像的尺寸的之比为2:1。
本发明实施例通过将单目视觉传感器采集的第一图像输入到基于多张第二图像以及车道线和障碍物的推理模型训练得到的可行驶区域检测模型,推理获得所述第一图像的可行驶区域。这样,由于单目视觉传感器采集的第一图像可以包括较远距离的图像数据,因此可以提高可行驶区域检测的距离。此外,由于无需对第二图像进行可行驶区域标注,从而有效降低数据标注成本。
应理解的是,本发明实施例中,射频单元501可用于收发信息或通话过程中,信号的接收和发送,具体的,将来自基站的下行数据接收后,给处理器510处理;另外,将上行的数据发送给基站。通常,射频单元501包括但不限于天线、至少一个放大器、收发信机、耦合器、低噪声放大器、双工器等。此外,射频单元501还可以通过无线通信***与网络和其他设备通信。
车载终端通过网络模块502为用户提供了无线的宽带互联网访问,如帮助用户收发电子邮件、浏览网页和访问流式媒体等。
音频输出单元503可以将射频单元501或网络模块502接收的或者在存储器509中存储的音频数据转换成音频信号并且输出为声音。而且,音频输出单元503还可以提供与车载终端500执行的特定功能相关的音频输出(例如,呼叫信号接收声音、消息接收声音等等)。音频输出单元503包括扬声器、蜂鸣器以及受话器等。
输入单元504用于接收音频或视频信号。输入单元504可以包括图形处理器(Graphics Processing Unit,GPU)5041和麦克风5042,图形处理器5041对在视频捕获模式或图像捕获模式中由图像捕获装置(如摄像头)获得的静态图片或视频的图像数据进行处理。处理后的图像帧可以显示在显示单元506上。经图形处理器5041处理后的图像帧可以存储在存储器509(或其它存储介质)中或者经由射频单元501或网络模块502进行发送。麦克风5042可以接收声音,并且能够将这样的声音处理为音频数据。处理后的音频数据可以在电话通话模式的情况下转换为可经由射频单元501发送到移动通信基站的格式输出。
车载终端500还包括至少一种传感器505,比如光传感器、运动传感器以及其他传感器。具体地,光传感器包括环境光传感器及接近传感器,其中,环境光传感器可根据环境光线的明暗来调节显示面板5061的亮度,接近传感器可在车载终端500移动到耳边时,关闭显示面板5061和/或背光。作为运动传感器的一种,加速计传感器可检测各个方向上(一般为三轴)加速度的大小,静止时可检测出重力的大小及方向,可用于识别车载终端姿态(比如横竖屏切换、相关游戏、磁力计姿态校准)、振动识别相关功能(比如计步器、敲击)等;传感器505还可以包括指纹传感器、压力传感器、虹膜传感器、分子传感器、陀螺仪、气压计、湿度计、温度计、红外线传感器等,在此不再赘述。
显示单元506用于显示由用户输入的信息或提供给用户的信息。显示单元506可包括显示面板5061,可以采用液晶显示器(Liquid Crystal Display,LCD)、有机发光二极管(Organic Light-Emitting Diode,OLED)等形式来配置显示面板5061。
用户输入单元507可用于接收输入的数字或字符信息,以及产生与车载终端的用户设置以及功能控制有关的键信号输入。具体地,用户输入单元507包括触控面板5071以及其他输入设备5072。触控面板5071,也称为触摸屏,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板5071上或在触控面板5071附近的操作)。触控面板5071可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器510,接收处理器510发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触控面板5071。除了触控面板5071,用户输入单元507还可以包括其他输入设备5072。具体地,其他输入设备5072可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆,在此不再赘述。
进一步的,触控面板5071可覆盖在显示面板5061上,当触控面板5071检测到在其上或附近的触摸操作后,传送给处理器510以确定触摸事件的类型,随后处理器510根据触摸事件的类型在显示面板5061上提供相应的视觉输出。虽然在图5中,触控面板5071与显示面板5061是作为两个独立的部件来实现车载终端的输入和输出功能,但是在某些实施例中,可以将触控面板5071与显示面板5061集成而实现车载终端的输入和输出功能,具体此处不做限定。
接口单元508为外部装置与车载终端500连接的接口。例如,外部装置可以包括有线或无线头戴式耳机端口、外部电源(或电池充电器)端口、有线或无线数据端口、存储卡端口、用于连接具有识别模块的装置的端口、音频输入/输出(I/O)端口、视频I/O端口、耳机端口等等。接口单元508可以用于接收来自外部装置的输入(例如,数据信息、电力等等)并且将接收到的输入传输到车载终端500内的一个或多个元件或者可以用于在车载终端500和外部装置之间传输数据。
存储器509可用于存储软件程序以及各种数据。存储器509可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作***、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器509可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
处理器510是车载终端的控制中心,利用各种接口和线路连接整个车载终端的各个部分,通过运行或执行存储在存储器509内的软件程序和/或模块,以及调用存储在存储器509内的数据,执行车载终端的各种功能和处理数据,从而对车载终端进行整体监控。处理器510可包括一个或多个处理单元;优选的,处理器510可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作***、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器510中。
车载终端500还可以包括给各个部件供电的电源511(比如电池),优选的,电源511可以通过电源管理***与处理器510逻辑相连,从而通过电源管理***实现管理充电、放电、以及功耗管理等功能。
另外,车载终端500包括一些未示出的功能模块,在此不再赘述。
优选的,本发明实施例还提供一种车载终端,包括处理器510,存储器509,存储在存储器509上并可在所述处理器510上运行的计算机程序,该计算机程序被处理器510执行时实现上述可行驶区域检测方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
本发明实施例还提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现上述可行驶区域检测方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。其中,所述的计算机可读存储介质,如只读存储器(Read-Only Memory,简称ROM)、随机存取存储器(Random AccessMemory,简称RAM)、磁碟或者光盘等。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的***、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本发明实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。
Claims (8)
1.一种可行驶区域检测方法,其特征在于,包括:
获取单目视觉传感器采集的第一图像;
将所述第一图像输入到可行驶区域检测模型,得到所述第一图像的可行驶区域;
其中,所述可行驶区域检测模型根据多张第二图像以及车道线和障碍物的推理模型训练得到;
所述获取基于单目视觉传感器采集的第一图像之前所述方法还包括:
将所述多张第二图像输入到车道线和障碍物的推理模型得到每一所述第二图像的车道线数据和障碍物数据;
根据车道线数据和障碍物数据确定每一所述第二图像的可行驶区域标注数据;
基于所述第二图像和所述第二图像的可行驶区域标注数据训练得到可行驶区域检测模型;
所述基于所述第二图像和所述第二图像的可行驶区域标注数据训练得到可行驶区域检测模型包括:
利用深度神经网络提取所述第二图像的图像特征得到特征图;
基于所述第二图像的可行驶区域标注数据以及针对所述特征图的每一维对应设置的损失函数对所述特征图中每一列上最近的不可行驶区域边界点进行回归处理,得到所述可行驶区域检测模型;
其中,所述损失函数包括边界点位置损失函数、边界点位置偏移损失函数和边界点类别损失函数。
2.根据权利要求1所述的方法,其特征在于,所述获取单目视觉传感器采集的第一图像,包括:
获取单目视觉传感器采集的初始图像;
对所述初始图像进行感兴趣区域ROI选取和裁剪后得到所述第一图像。
3.根据权利要求2所述的方法,其特征在于,所述初始图像的尺寸与所述第一图像的尺寸的之比为2:1。
4.一种车载终端,其特征在于,包括:
获取模块,用于获取单目视觉传感器采集的第一图像;
第一输入模块,用于将所述第一图像输入到可行驶区域检测模型,得到所述第一图像的可行驶区域;
其中,所述可行驶区域检测模型根据多张第二图像以及车道线和障碍物的推理模型训练得到;
所述车载终端还包括:
第二输入模块,用于将所述多张第二图像输入到车道线和障碍物的推理模型得到每一所述第二图像的车道线数据和障碍物数据;
确定模块,用于根据车道线数据和障碍物数据确定每一所述第二图像的可行驶区域标注数据;
训练模块,用于基于所述第二图像和所述第二图像的可行驶区域标注数据训练得到可行驶区域检测模型;
所述训练模块包括:
提取单元,用于利用深度神经网络提取所述第二图像的图像特征得到特征图;
处理单元,用于基于所述第二图像的可行驶区域标注数据以及针对所述特征图的每一维对应设置的损失函数对所述特征图中每一列上最近的不可行驶区域边界点进行回归处理,得到所述可行驶区域检测模型;
其中,所述损失函数包括边界点位置损失函数、边界点位置偏移损失函数和边界点类别损失函数。
5.根据权利要求4所述的车载终端,其特征在于,所述获取模块包括:
获取单元,用于获取单目视觉传感器采集的初始图像;
裁剪单元,用于对所述初始图像进行感兴趣区域ROI选取和裁剪后得到所述第一图像。
6.根据权利要求5所述的车载终端,其特征在于,所述初始图像的尺寸与所述第一图像的尺寸的之比为2:1。
7.一种车载终端,其特征在于,包括处理器、存储器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如权利要求1至3中任一项所述的可行驶区域检测方法的步骤。
8.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1-3中任一项所述的可行驶区域检测方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910218775.9A CN109977845B (zh) | 2019-03-21 | 2019-03-21 | 一种可行驶区域检测方法及车载终端 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910218775.9A CN109977845B (zh) | 2019-03-21 | 2019-03-21 | 一种可行驶区域检测方法及车载终端 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109977845A CN109977845A (zh) | 2019-07-05 |
CN109977845B true CN109977845B (zh) | 2021-08-17 |
Family
ID=67079862
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910218775.9A Active CN109977845B (zh) | 2019-03-21 | 2019-03-21 | 一种可行驶区域检测方法及车载终端 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109977845B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111105590A (zh) * | 2019-12-27 | 2020-05-05 | 深圳前海微众银行股份有限公司 | 一种报警方法及装置 |
CN111231977B (zh) * | 2020-01-14 | 2022-04-08 | 浙江吉利汽车研究院有限公司 | 一种车辆速度的确定方法、装置、车辆及存储介质 |
CN111552289B (zh) * | 2020-04-28 | 2021-07-06 | 苏州高之仙自动化科技有限公司 | 检测方法及虚拟雷达装置、电子设备、存储介质 |
CN113705272A (zh) * | 2020-05-20 | 2021-11-26 | 华为技术有限公司 | 可行驶区域检测方法、装置、设备及存储介质 |
CN112793567A (zh) * | 2021-01-14 | 2021-05-14 | 史鹏飞 | 一种基于路况检测的辅助驾驶方法及*** |
CN113052009A (zh) * | 2021-03-02 | 2021-06-29 | 北京经纬恒润科技股份有限公司 | 一种车辆防撞方法、模型训练方法及装置 |
CN116052122B (zh) * | 2023-01-28 | 2023-06-27 | 广汽埃安新能源汽车股份有限公司 | 一种可行驶空间的检测方法、装置、电子设备及存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103679127A (zh) * | 2012-09-24 | 2014-03-26 | 株式会社理光 | 检测道路路面的可行驶区域的方法和装置 |
CN107389084A (zh) * | 2017-06-09 | 2017-11-24 | 深圳市速腾聚创科技有限公司 | 行车路径规划方法及存储介质 |
CN107545263A (zh) * | 2017-08-02 | 2018-01-05 | 清华大学 | 一种物体检测方法及装置 |
CN108345875A (zh) * | 2018-04-08 | 2018-07-31 | 北京初速度科技有限公司 | 可行驶区域检测模型训练方法、检测方法和装置 |
CN108470138A (zh) * | 2018-01-24 | 2018-08-31 | 博云视觉(北京)科技有限公司 | 用于目标检测的方法和装置 |
CN109117690A (zh) * | 2017-06-23 | 2019-01-01 | 百度在线网络技术(北京)有限公司 | 可行驶区域检测方法、装置、设备及存储介质 |
CN109472309A (zh) * | 2018-11-12 | 2019-03-15 | 南京烽火星空通信发展有限公司 | 一种x光安检机图片物体检测方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6637399B2 (ja) * | 2016-09-30 | 2020-01-29 | 株式会社デンソー | 領域認識装置及び領域認識方法 |
CN106485233B (zh) * | 2016-10-21 | 2020-01-17 | 深圳地平线机器人科技有限公司 | 可行驶区域检测方法、装置和电子设备 |
CN109117691A (zh) * | 2017-06-23 | 2019-01-01 | 百度在线网络技术(北京)有限公司 | 可行驶区域检测方法、装置、设备及存储介质 |
CN108197669B (zh) * | 2018-01-31 | 2021-04-30 | 北京陌上花科技有限公司 | 卷积神经网络的特征训练方法及装置 |
CN109344921B (zh) * | 2019-01-03 | 2019-04-23 | 湖南极点智能科技有限公司 | 一种基于深度神经网络模型的图像识别方法、装置及设备 |
-
2019
- 2019-03-21 CN CN201910218775.9A patent/CN109977845B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103679127A (zh) * | 2012-09-24 | 2014-03-26 | 株式会社理光 | 检测道路路面的可行驶区域的方法和装置 |
CN107389084A (zh) * | 2017-06-09 | 2017-11-24 | 深圳市速腾聚创科技有限公司 | 行车路径规划方法及存储介质 |
CN109117690A (zh) * | 2017-06-23 | 2019-01-01 | 百度在线网络技术(北京)有限公司 | 可行驶区域检测方法、装置、设备及存储介质 |
CN107545263A (zh) * | 2017-08-02 | 2018-01-05 | 清华大学 | 一种物体检测方法及装置 |
CN108470138A (zh) * | 2018-01-24 | 2018-08-31 | 博云视觉(北京)科技有限公司 | 用于目标检测的方法和装置 |
CN108345875A (zh) * | 2018-04-08 | 2018-07-31 | 北京初速度科技有限公司 | 可行驶区域检测模型训练方法、检测方法和装置 |
CN109472309A (zh) * | 2018-11-12 | 2019-03-15 | 南京烽火星空通信发展有限公司 | 一种x光安检机图片物体检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109977845A (zh) | 2019-07-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109977845B (zh) | 一种可行驶区域检测方法及车载终端 | |
CN107749194B (zh) | 一种变道辅助方法及移动终端 | |
CN107977652B (zh) | 一种屏幕显示内容的提取方法及移动终端 | |
CN108846663B (zh) | 一种二维码调整方法、装置及移动终端 | |
CN108153422B (zh) | 一种显示对象控制方法和移动终端 | |
CN110110571B (zh) | 一种扫码方法及移动终端 | |
CN109495641B (zh) | 一种提醒方法及移动终端 | |
CN109993234B (zh) | 一种无人驾驶训练数据分类方法、装置及电子设备 | |
CN110807405A (zh) | 一种偷拍装置检测方法及电子设备 | |
CN110519503B (zh) | 一种扫描图像的获取方法及移动终端 | |
CN109784234B (zh) | 一种基于前向鱼眼镜头的直角弯识别方法及车载设备 | |
CN109711477B (zh) | 一种自动驾驶模型的训练方法及装置 | |
CN112927539B (zh) | 用于自动泊车的建图方法及装置 | |
CN109657643A (zh) | 一种图像处理方法及装置 | |
CN107798662B (zh) | 一种图像处理方法及移动终端 | |
CN111432122B (zh) | 一种图像处理方法及电子设备 | |
CN109189517B (zh) | 一种显示切换的方法及移动终端 | |
CN107730030B (zh) | 一种路径规划方法及移动终端 | |
CN110046569B (zh) | 一种无人驾驶数据处理方法、装置及电子设备 | |
CN108550182B (zh) | 一种三维建模方法和终端 | |
CN109685850B (zh) | 一种横向定位方法及车载设备 | |
CN110647892A (zh) | 违章报警提示方法、终端及计算机可读存储介质 | |
CN112464831B (zh) | 视频分类方法、视频分类模型的训练方法及相关设备 | |
CN112200130B (zh) | 一种三维目标检测方法、装置及终端设备 | |
CN109855643B (zh) | 一种车道引导方法及导航设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |