CN107506711B - 基于卷积神经网络的双目视觉障碍物检测***及方法 - Google Patents
基于卷积神经网络的双目视觉障碍物检测***及方法 Download PDFInfo
- Publication number
- CN107506711B CN107506711B CN201710697239.2A CN201710697239A CN107506711B CN 107506711 B CN107506711 B CN 107506711B CN 201710697239 A CN201710697239 A CN 201710697239A CN 107506711 B CN107506711 B CN 107506711B
- Authority
- CN
- China
- Prior art keywords
- image
- parallax
- disparity map
- neural network
- convolutional neural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开一种基于卷积神经网络的双目视觉障碍物检测***及方法。所述***由图像采集模块和障碍物检测模块两个部分组成,图像采集模块采集双目图像,传输给障碍物检测模块对采集的图像数据进行相应的数据处理,获得精确的障碍物区域。所述检测方法:首先将采集的原始图像作中值滤波处理;再根据摄像机参数对双目图像进行校正;设计一种新的卷积核应用于卷积神经网络结构,用于生成精确视差图;最后,利用改进的V视差法检测图像中精确障碍物区域。本发明具有对复杂光线和较小障碍物等条件下良好的障碍物检测精度,以及表现出的良好的鲁棒性。
Description
技术领域
本发明涉及双目视觉图像处理技术领域,尤其涉及一种基于卷积神经网络的双目视觉障碍物检测***及其检测方法。
背景技术
随着计算机技术的进步,智能车得到了快速的发展,广泛的应用于国防、科研和日常生活等领域中。其中,障碍物检测是智能车导航中的核心问题。
卷积神经网络是一种前馈网络,其人工神经元可以响应覆盖范围内的单元,包括了卷积层和池化层,对图像处理有着出色的表现。近年来受到人们越来越多的关注,且应用领域也越来越广泛。
目前,基于双目视觉的障碍检测方法逐渐成为研究的热点问题,通过双目匹配寻找双目图像中的同一场景,生成改空间场景的视差关系图,在运用特定的检测方法对视差图进行处理得到对应的障碍检测区域。
然而,当场景出现复杂的光线以及较小的障碍物等情况时,现有的方法很难做到精确的障碍物区域检测和维持***的鲁棒性。因此,对于智能车的复杂环境而言,如何精确的检测障碍物区域以及维持***的鲁棒性成为了一个亟待解决的问题。
发明内容
针对上述问题,本发明的目的是提供一种基于卷积神经网络的双目视觉障碍物检测***及其检测方法,以解决传统双目视觉障碍物检测方法在障碍物检测精度以及***鲁棒性等方面的不足。
为实现上述目的,本发明采取以下技术方案:
一种基于卷积神经网络的双目视觉障碍物检测***,由相连接的图像采集模块和障碍物检测模块组成。其中所述的图像采集模块用于采集场景中的左图像和右图像,其中左右图像均为光学图像。所述的障碍物检测模块用于对采集的图像数据进行相应的数据处理,获取最终精确的障碍物区域。
进一步,上述所述图像采集模块为两个水平平行放置的型号为Pike F-100的工业摄像机,并用IEEE-1394b接口通过采集卡将图像数据传输给计算机进行后续处理。
进一步,上述所述障碍检测模块为配有NVIDIAGTX 1070的GPU的计算机。
为了实现上述的目的,本发明采用如下另一技术方案予以实现。
一种基于卷积神经网络的双目视觉障碍物检测***的检测方法,其步骤为:
(1)从图像采集模块获取双目图像,并对双目图像进行预处理,消除图像中噪声;
(2)标定图像采集模块,获取图像采集模块内参与畸变参数,对双目图像进行校正处理;
(3)设计孪生卷积神经网络生成精确的双目图像的视差图;
(4)利用改进的V视差法对视差图处理从而检测图像中的障碍物区域。
上述步骤(3)所述的设计孪生卷积神经网络生成精确的双目图像视差图的具体方法,包括:
a)设计孪生卷积神经网络结构,其左右分支参数共享。该孪生卷积神经网络由特征提取子网络和特征分类子网络组成。特征提取子网络左右分支能够分别从输入的图像方块和图像长条中提取对应的特征描述;特征分类子网络将提取的左右分支特征描述作点积运算,得到视差搜索范围内待匹配像素点的相似性得分,然后作为softmax层的输入得到视差概率分布。
其中,特征提取子网络左右分支均由卷积层构成。卷积层采用一种新的卷积核来提取各层信息,该卷积核采用间隔传递信息的方式,仅可调整通道部分的权值。这样设计卷积核有着与传统卷积核同样的感受野,同时将传统卷积核(2n-1)×(2n-1)个参数减少到(2n-3)×(2n-3)个参数,降低计算量,并且较少的参数量也能克服过拟合现象。同时,使用BatchNormalization技术以弱化网络对初始化的依赖,使得网络更容易训练。卷积层上使用PRELU(Parametric Rectified Linear Unit)激活函数,输出卷积层结果,但是在最后一层卷积层中不使用激活函数是为了保留输出的特征描述负值信息。最终,特征提取层左右分支输出多维特征描述。
b)样本裁剪。根据KITTI数据集中真实视差数据,在左图像中选取具有真实视差的像素点p(xi,yi),提取以该像素点为中心的图像块;在右图像中选取像素点q,使其坐标为(xi,yi),并以q为中心选择同样大小的图像块。根据视差搜索范围,在右图像中选择以q为中心的图像方块右边界左侧的图像长条。以此方法完成样本裁剪。
c)标准化样本数据,构建训练集。利用公式(1)将步骤b)裁剪的图像块灰度值变换到[-1,1]范围内,以此作为网络的输入。
其中,
d)训练孪生卷积神经网络。采用自适应矩估计的随机梯度下降算法(Adam)来训练由步骤a)设计的孪生卷积神经网络。并根据本发明的应用场景,修改互熵损失函数为:
其中,
式中,j(ω)表示一组样本的互熵损失;pi(di,ω)表示第i个样本的概率分布;di为预测视差值;为真实视差值;λ1,λ2,λ3为预设值。本发明中,分别设定λ1=0.5,λ2=0.2,λ3=0.05。
e)视差图计算。取双目图像对,采用步骤c)对其标准化。运用由步骤d)训练好的网络模型提取左右图像中像素点的64维特征,分别记作SL(p)和SR(q);将SL(p)和SR(q)作点积运算得到图像对相似性得分,取相反数作为匹配代价:
CCNN(p,d)=-s(<SL(p),SR(q)>) (6)
其中,s(<SL(p),SR(q)>)表示图像对相似性得分。最后,在视差搜索范围内,选择匹配代价最小的点作为匹配点进行视差选择,进而生成视差图。
上述步骤(4)所述的利用改进的V视差法对步骤(3)获得的视差图处理从而检测图像中的障碍物区域的具体方法,,包括:
f)采用Prewitt算子计算由步骤(4)生成的视差图列方向的梯度,并保留梯度为负值位置的视差,将其他位置视差值置0,滤除障碍物像素点,生成滤波后的视差图。
g)对由步骤f)生成的滤波后视差图统计每一行像素相同灰度值个数生成其V视差图I1。
h)搜索V视差图I1中的每一行最大值并保留,其余的像素点灰度值置0,生成最大值V视差图I2。
i)设定阈值T,将I2中大于T的像素灰度值置1,其余置0,生成仅包含道路信息的V视差二值图I3,阈值T的计算公式为:
式中,xi为I2中各像素值;N为I2中像素总个数;1{xi≠0}表示xi不等于0时取1,否则取0。
j)运用hough直线检测方法提取I3中道路直线。
k)利用直线两点方程计算步骤j)提取的道路直线在V视差图中图像坐标系的斜率k和截距b。
l)按照光栅扫描法,从下往上从左往右逐点扫描视差图D(x,y,d),对每个像素点计算f=kd+b。
m)若(f-y)>T1,则视差图中像素点投影在V视差图中路面直线上方,即高于路面,则该像素点为障碍点。本发明实施例取阈值T1=5。
n)重复步骤l)、m),直至完全扫面视差图,得到图像中障碍物区域。
本发明具有以下优点和有益效果:
(1)本发明运用卷积神经网络进行视差图计算,在复杂光线以及较小障碍物等情况下鲁棒性好,并可获取精确的视差图;从而再通过改进V视差法可以获取精确的障碍物区域以及拥有好的鲁棒性。
(2)本发明设计了一种卷积核,与传统的卷积核相比,该卷积核有着与传统卷积核同样的感受野,同时极大的减少了参数量,进而减少了计算量并且更少的参数量有利于克服过拟合现象。
(3)本发明改进了V视差法用于障碍物区域检测,可以有效、稳定提取V视差图中的道路直线,进而实现图像中障碍物区域检测,拥有较高检测精度与检测鲁棒性。
附图说明
图1是本发明公开的障碍物检测***示意图,
图2是本发明公开的障碍物检测方法总体流程图,
图3是设计孪生卷积神经网络生成视差图部分的流程图,
图4是改进V视差法检测障碍物部分的流程图,
图5是本发明设计的卷积神经网络结构示意图,
图6是本发明设计的新的卷积核结构示意图。
具体实施方式
下面结合附图和实施例对本发明进行详细的描述。
参考图1,为本发明的一种基于卷积神经网络的双目视觉障碍物检测***的结构示意图。该基于卷积神经网络的双目视觉障碍物检测***,包括:图像采集模块和障碍物检测模块。在实施例中,本发明图像采集模块中采用两个水平平行放置的型号为PikeF-100的工业摄像机用于采集实际场景中的左右光学图像,并用IEEE-1394b接口通过采集卡将图像数据传输给计算机进行后续处理。本发明实施例中,障碍检测模块采用一台配有NVIDIAGTX1070的GPU的计算机对采集到的双目图像数据进行处理,完成障碍物区域检测的目的。
本发明还公开了一种基于卷积神经网络的双目视觉障碍物检测方法,图2为本发明公开的障碍物检测方法总体流程图;图3为设计孪生卷积神经网路生成视差图部分流程图;图4为本发明改进V视差法检测障碍物部分流程图,具体包括以下步骤:
(1)利用双目摄像机获取待检测场景的图像对,然后将采集到图像传送到计算机,进行处理;
(2)对图像对进行去噪处理。本发明实施例中采用3×3大小的窗口对图像对进行中值滤波,有效的去除图像中椒盐噪声和斑点噪声,保留图像轮廓与细节;
(3)本发明实施例运用张正友标定方法对双目摄像机进行标定,取得内参与畸变参数,对双目图像对进行校正处理,获得共面且行对准的图像对;
(4)设计孪生卷积神经网络生成精确双目图像的视差图,其具体步骤包括:
a)设计如图5所示的孪生卷积神经网络结构,其左右分支参数共享。该孪生卷积神经网络由特征提取子网络(L1-L9)和特征分类子网络(L10-L11)组成。特征提取子网络左右分支能够分别从输入的图像方块和图像长条中提取对应的特征描述;特征分类子网络将提取的左右分支特征描述作点积运算,得到视差搜索范围内待匹配像素点的相似性得分,然后作为softmax层的输入得到视差概率分布。
其中,特征提取子网络左右分支均包含9个卷积层。卷积层采用如图6所示的卷积核来提取各层信息,白色块可通过数据且可正常学习其权重,灰色块不可通过数据,在实施例中其值设置为0。这样设计卷积核有着与传统卷积核同样的感受野,同时将传统卷积核25个参数减少到9个参数,降低计算量,并且较少的参数量也能减缓过拟合。同时,使用BatchNormalization技术以弱化网络对初始化的依赖,使得网络更容易训练。最后在卷积层上使用PRELU激活函数,输出卷积层结果。在L9卷积层中不使用激活函数是为了保留输出的特征描述负值信息。最终,特征提取层左分支输出1×64维特征描述,右分支输出201×64维特征描述。
b)样本裁剪。根据KITTI数据集中真实视差数据,在左图像中选取具有真实视差的像素点p(xi,yi),提取以该像素点为中心的37×37图像块;在右图像中选取像素点q,使其坐标为(xi,yi),并以q为中心选择37×37的图像块。根据视差搜索范围,在右图像中选择以q为中心的图像方块右边界左侧大小为37×237的图像长条。以此方法完成样本裁剪。
c)标准化样本数据,构建训练集。利用公式(1)将步骤b)裁剪的图像块灰度值变换到[-1,1]范围内,以此作为网络的输入。
其中,
d)训练孪生卷积神经网络。采用自适应矩估计的随机梯度下降算法(Adam)来训练由步骤a)设计的孪生卷积神经网络。并根据本发明的应用场景,修改互熵损失函数为:
其中,
式中,j(ω)表示一组样本的互熵损失;pi(di,ω)表示第i个样本的概率分布;di为预测视差值;为真实视差值;λ1,λ2,λ3为预设值。本发明中,分别设定λ1=0.5,λ2=0.2,λ3=0.05。
e)视差图计算。取双目图像对,采用步骤c)对其标准化。运用由步骤d)训练好的网络模型提取左右图像中像素点的64维特征,分别记作SL(p)和SR(q);将SL(p)和SR(q)作点积运算得到图像对相似性得分,取相反数作为匹配代价:
CCNN(p,d)=-s(<SL(p),SR(q)>) (6)
其中,s(<SL(p),SR(q)>)表示图像对相似性得分。最后,以赢者通吃策略(Winner-Take-All,WTA)在视差搜索范围内,选择匹配代价最小的点作为匹配点进行视差选择,进而生成视差图。
(5)改进V视差法对视差图处理从而检测图像中障碍物区域,其步骤具体如下:
f)采用Prewitt算子计算由步骤(4)生成的视差图列方向的梯度,并保留梯度为负值位置的视差,将其他位置视差值置0,滤除障碍物像素点,生成滤波后的视差图。
g)对由步骤f)生成的滤波后视差图统计每一行像素相同灰度值个数生成其V视差图I1。
h)搜索V视差图I1中的每一行最大值并保留,其余的像素点灰度值置0,生成最大值V视差图I2。
i)设定阈值T,将I2中大于T的像素灰度值置1,其余置0,生成仅包含道路信息的V视差二值图I3,阈值T的计算公式为:
式中,xi为I2中各像素值;N为I2中像素总个数;1{xi≠0}表示xi不等于0时取1,否则取0。
j)运用hough直线检测方法提取I3中道路直线。
k)利用直线两点方程计算步骤j)提取的道路直线在V视差图中图像坐标系的斜率k和截距b。
l)按照光栅扫描法,从下往上从左往右逐点扫描视差图D(x,y,d),对每个像素点计算f=kd+b,其中d视差值,f为视差图像素点投影在V视差图中的纵坐标。
m)若(f-y)>T1,则视差图中像素点投影在V视差图中路面直线上方,即高于路面,则该像素点为障碍点。本发明实施例取阈值T1=5。
n)重复步骤l)、m),直至完全扫面视差图,得到图像中障碍物区域。
以上所述,仅为本发明较佳的具体实施方式。当然,本发明还可有其它多种实施例,在不背离本发明精神及其实质的情况下,任何熟悉本技术领域的技术人员,当可根据本发明作出各种相应的等效改变和变形,都应属于本发明所附的权利要求的保护范围。
Claims (1)
1.一种基于卷积神经网络的双目视觉障碍物检测***的检测方法,基于的检测***由相连接的图像采集模块和障碍物检测模块组成;其中所述的图像采集模块,用于采集场景中的左图像和右图像;所述的障碍物检测模块用于对采集的图像数据进行相应的数据处理,获取最终精确的障碍物区域;其中所述图像采集模块为两个水平平行放置的型号为Pike F-100的工业摄像机,并采用IEEE-1394b接口通过采集卡将图像数据传输给计算机进行后续处理;所述障碍检测模块为配有NVIDIAGTX 1070的GPU的计算机;其特征在于,所述的检测方法包括如下步骤:
(1)从图像采集模块获取双目图像,并对双目图像进行预处理,消除图像中噪声;
(2)标定图像采集模块,获取图像采集模块内参与畸变参数,对步骤(1)获取的双目图像进行校正处理;
(3)设计孪生卷积神经网络生成精确双目图像的视差图;
(4)利用改进的V视差法对步骤(3)获取的视差图处理,从而检测图像中的障碍物区域;
其中,步骤(3)所述的设计孪生卷积神经网络生成精确双目图像的视差图的具体方法,包括:
a)设计孪生卷积神经网络结构,其左右分支参数共享,所述孪生卷积神经网络由特征提取子网络和特征分类子网络组成;其中特征提取子网络左右分支能够分别从输入的图像方块和图像长条中提取对应的特征描述;特征分类子网络将提取的左右分支特征描述作点积运算,得到视差搜索范围内待匹配像素点的相似性得分,然后作为softmax层的输入得到视差概率分布;
其中,特征提取子网络均由卷积层构成,卷积层中的卷积核采用间隔传递信息的方式,同时各层使用BatchNormalization技术和PRELU激活函数,最后一层卷积层不使用激活函数;
b)样本裁剪;根据KITTI数据集中真实视差数据,在左图像中选取具有真实视差的像素点p(xi,yi),提取以该像素点为中心的图像块;在右图像中选取像素点q,使其坐标为(xi,yi),并以q为中心选择图像块;根据视差搜索范围,在右图像中选择以q为中心的图像方块右边界左侧图像长条,以此方法完成样本裁剪;
c)标准化样本数据,构建训练集;将步骤b)裁剪的图像块灰度值变换到[-1,1]范围内,以此作为网络的输入;
d)训练孪生卷积神经网络;采用自适应矩估计的随机梯度下降算法(Adam)来训练由步骤a)设计的孪生卷积神经网络;
e)视差图计算;取双目图像对,采用步骤c)对其标准化,运用由步骤d)训练好的网络模型提取左右图像中像素点特征描述,分别记作SL(p)和SR(q);将SL(p)和SR(q)作点积运算得到图像对相似性得分,取相反数作为匹配代价:
CCNN(p,d)=-s(<SL(p),SR(q)>)
其中,s(<SL(p),SR(q)>)表示图像对相似性得分;最后,在视差搜索范围内,选择匹配代价最小的点作为匹配点进行视差选择,进而生成视差图;
步骤(4)所述的利用改进V视差法对步骤(3)获取的视差图处理,从而检测图像中的障碍物区域的具体方法,包括:
f)采用Prewitt算子计算视差图列方向的梯度,并保留梯度为负值位置的视差,滤除障碍物像素点,生成滤波后的视差图;
g)对由步骤f)生成的滤波后视差图统计每一行像素相同灰度值个数生成V视差图I1;
h)搜索V视差图I1中的每一行最大值并保留,其余的像素点灰度值置0,生成最大值V视差图I2;
i)设定阈值T,将I2中大于T的像素灰度值置1,其余置0,生成仅包含道路信息的V视差二值图I3,阈值T的计算公式为:
式中,xi为I2中各像素值;N为I2中像素总个数;1{xi≠0}表示xi不等于0时取1,否则取0;
j)运用hough直线检测方法提取I3中道路直线;
k)利用直线两点方程计算步骤j)提取的道路直线在V视差图中图像坐标系的斜率k和截距b;
l)按照光栅扫描法,从下往上从左往右逐点扫描视差图D(x,y,d),对每个像素点计算f=kd+b,其中d为视差值,f为视差图像素点投影在V视差图的纵轴坐标;
m)当(f-y)>T1,则视差图中像素点投影在V视差图中路面直线上方,即高于路面,则判定该像素点为障碍点;
n)重复步骤l)、m),直至完全扫描 视差图,得到图像中障碍物区域。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710697239.2A CN107506711B (zh) | 2017-08-15 | 2017-08-15 | 基于卷积神经网络的双目视觉障碍物检测***及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710697239.2A CN107506711B (zh) | 2017-08-15 | 2017-08-15 | 基于卷积神经网络的双目视觉障碍物检测***及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107506711A CN107506711A (zh) | 2017-12-22 |
CN107506711B true CN107506711B (zh) | 2020-06-30 |
Family
ID=60690941
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710697239.2A Active CN107506711B (zh) | 2017-08-15 | 2017-08-15 | 基于卷积神经网络的双目视觉障碍物检测***及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107506711B (zh) |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108596009A (zh) * | 2017-12-29 | 2018-09-28 | 西安智加科技有限公司 | 一种用于农机自动驾驶的障碍物检测方法和*** |
CN108734693B (zh) * | 2018-03-30 | 2019-10-25 | 百度在线网络技术(北京)有限公司 | 用于生成信息的方法和装置 |
CN110443841B (zh) * | 2018-05-02 | 2022-08-05 | 杭州海康威视数字技术股份有限公司 | 地面深度的测量方法、装置及*** |
CN108648161B (zh) * | 2018-05-16 | 2020-09-01 | 江苏科技大学 | 非对称核卷积神经网络的双目视觉障碍物检测***及方法 |
CN109241855B (zh) * | 2018-08-10 | 2022-02-11 | 西安交通大学 | 基于立体视觉的智能车辆可行驶区域探测方法 |
JP7166108B2 (ja) | 2018-08-31 | 2022-11-07 | 株式会社小松製作所 | 画像処理システム、表示装置、画像処理方法、学習済みモデルの生成方法、および学習用データセット |
CN109460709B (zh) * | 2018-10-12 | 2020-08-04 | 南京大学 | 基于rgb和d信息融合的rtg视觉障碍物检测的方法 |
CN111353331B (zh) * | 2018-12-20 | 2023-09-05 | 浙江欣奕华智能科技有限公司 | 一种目标物的检测方法、检测装置及机器人 |
CN109631850B (zh) * | 2019-01-03 | 2021-01-01 | 甘肃大禹九洲空间信息科技有限公司 | 一种基于深度学习的倾斜摄像相对定位方法 |
CN109887019B (zh) * | 2019-02-19 | 2022-05-24 | 北京市商汤科技开发有限公司 | 一种双目匹配方法及装置、设备和存储介质 |
CN111723926B (zh) * | 2019-03-22 | 2023-09-12 | 北京地平线机器人技术研发有限公司 | 用于确定图像视差的神经网络模型的训练方法和训练装置 |
CN111898396A (zh) * | 2019-05-06 | 2020-11-06 | 北京四维图新科技股份有限公司 | 障碍物检测方法和装置 |
CN112926368B (zh) * | 2019-12-06 | 2024-01-16 | 北京京东乾石科技有限公司 | 一种识别障碍物的方法和装置 |
CN110989636B (zh) * | 2020-02-26 | 2020-08-07 | 北京三快在线科技有限公司 | 一种障碍物的轨迹预测方法及装置 |
CN111399505B (zh) * | 2020-03-13 | 2023-06-30 | 浙江工业大学 | 一种基于神经网络的移动机器人避障方法 |
EP4145339A4 (en) * | 2020-05-11 | 2023-05-24 | Huawei Technologies Co., Ltd. | VEHICLE DRIVING ZONE DETECTION METHOD AND SYSTEM, AND SELF-DRIVING VEHICLE IMPLEMENTING THE SYSTEM |
CN112233136B (zh) * | 2020-11-03 | 2021-10-22 | 上海西井信息科技有限公司 | 基于双目识别的集卡对位方法、***、设备及存储介质 |
CN112348293A (zh) * | 2021-01-07 | 2021-02-09 | 北京三快在线科技有限公司 | 一种障碍物的轨迹预测方法及装置 |
CN112861976B (zh) * | 2021-02-11 | 2024-01-12 | 温州大学 | 一种基于孪生图卷积哈希网络的敏感图像识别方法 |
CN114638898A (zh) * | 2022-05-23 | 2022-06-17 | 中国人民解放军国防科技大学 | 一种小型飞行目标检测方法和装置 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102164296A (zh) * | 2011-06-16 | 2011-08-24 | 上海大学 | 基于单台dlp投影的全角视差立体成像***及方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103679127B (zh) * | 2012-09-24 | 2017-08-04 | 株式会社理光 | 检测道路路面的可行驶区域的方法和装置 |
KR20150120805A (ko) * | 2014-04-18 | 2015-10-28 | 한양대학교 산학협력단 | 거리 영상에서 사람을 검출하는 방법 및 시스템 |
CN105335955B (zh) * | 2014-07-17 | 2018-04-10 | 株式会社理光 | 对象检测方法和对象检测装置 |
CN105550665B (zh) * | 2016-01-15 | 2019-01-25 | 北京理工大学 | 一种基于双目视觉的无人驾驶汽车可通区域检测方法 |
CN105956597A (zh) * | 2016-05-04 | 2016-09-21 | 浙江大学 | 一种基于卷积神经网络的双目立体匹配方法 |
CN106952274B (zh) * | 2017-03-14 | 2019-06-21 | 西安电子科技大学 | 基于立体视觉的行人检测与测距方法 |
-
2017
- 2017-08-15 CN CN201710697239.2A patent/CN107506711B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102164296A (zh) * | 2011-06-16 | 2011-08-24 | 上海大学 | 基于单台dlp投影的全角视差立体成像***及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN107506711A (zh) | 2017-12-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107506711B (zh) | 基于卷积神经网络的双目视觉障碍物检测***及方法 | |
CN110569704B (zh) | 一种基于立体视觉的多策略自适应车道线检测方法 | |
CN110487562B (zh) | 一种用于无人驾驶的车道保持能力检测***及方法 | |
CN108648161B (zh) | 非对称核卷积神经网络的双目视觉障碍物检测***及方法 | |
CN107274445B (zh) | 一种图像深度估计方法和*** | |
CN111723721A (zh) | 基于rgb-d的三维目标检测方法、***及装置 | |
CN109034184B (zh) | 一种基于深度学习的均压环检测识别方法 | |
CN116258817B (zh) | 一种基于多视图三维重建的自动驾驶数字孪生场景构建方法和*** | |
CN111738071B (zh) | 一种基于单目摄像机的运动变化的逆透视变换方法 | |
CN111209840B (zh) | 一种基于多传感器数据融合的3d目标检测方法 | |
CN111832461A (zh) | 一种基于视频流的非机动车骑行人员头盔佩戴检测方法 | |
CN114972968A (zh) | 基于多重神经网络的托盘识别和位姿估计方法 | |
CN107944350B (zh) | 一种基于外观和几何信息融合的单目视觉道路识别方法 | |
CN114120283A (zh) | 一种道路场景三维语义分割中未知障碍物的判别方法 | |
CN115308732A (zh) | 一种融合毫米波雷达与深度视觉的多目标检测与跟踪方法 | |
CN112836573A (zh) | 一种基于对抗生成网络的车道线图像增强与补全方法 | |
CN116279592A (zh) | 一种用于无人物流车的可行驶区域划分方法 | |
CN116978009A (zh) | 基于4d毫米波雷达的动态物体滤除方法 | |
CN115909268A (zh) | 一种动态障碍物检测方法及装置 | |
CN117284320A (zh) | 一种点云数据的车辆特征识别方法及*** | |
CN115100618B (zh) | 一种多源异构感知信息多层级融合表征与目标识别方法 | |
CN113723432B (zh) | 一种基于深度学习的智能识别、定位追踪的方法及*** | |
CN105740805B (zh) | 一种基于多区域联合车道线检测方法 | |
CN114140698A (zh) | 一种基于FasterR-CNN的水系信息提取算法 | |
WO2021111482A1 (en) | Method to determine the depth from images by self-adaptive learning of a neural network and system thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |