CN105469088A - 一种适用于目标识别的物体预测区域优化方法 - Google Patents
一种适用于目标识别的物体预测区域优化方法 Download PDFInfo
- Publication number
- CN105469088A CN105469088A CN201510789565.7A CN201510789565A CN105469088A CN 105469088 A CN105469088 A CN 105469088A CN 201510789565 A CN201510789565 A CN 201510789565A CN 105469088 A CN105469088 A CN 105469088A
- Authority
- CN
- China
- Prior art keywords
- pixel
- super
- sliding window
- estimation range
- bounding box
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种适用于目标识别的物体预测区域优化方法,该方法通过对物体预测区域膨胀,然后进行图像分割,接着进行超像素包围盒计算和超像素显著性评价,最后基于超像素的滑窗搜索,最终得到优化后的物体预测区域。本发明通过控制超像素的尺寸可以增大图像分割的尺度,从而降低超像素的搜索范围,因此本算法的时间复杂度较小,只与图像中超像素的数目有关;由于超像素中的像素具有一致性,且对局部边缘的分割更好,因此相比于单一像素点,将超像素作为滑窗搜索的基本元素可以产生更好的定位效果;本发明可以有效降低搜索区域,从而加速传统基于像素点的滑窗搜索算法;另外,通过级联本发明的方法,可以提高现有目标识别算法对目标的识别精度。
Description
【技术领域】
本发明属于图像处理与计算机视觉领域,具体涉及一种适用于目标识别的物体预测区域优化方法。
【背景技术】
视觉是人类获取外界信息的重要途径,而图像则是信息的重要载体。随着图像处理技术的日益发展,图像的尺寸、分辨率逐渐增大,其包含的信息也在不断丰富。研究表明,人类在观察图像时视线通常在图像所包含的物体之间移动,而对背景等其他区域并不感兴趣,大部分的视觉技术,如行人检测、人脸识别、目标跟踪和目标识别等,也是作用于上述包含物体的区域。因此如何在整幅图像中快速、有效地定位感兴趣物体区域的位置具有重要的研究意义。
目标定位是图像理解、目标识别领域的重要内容,主要包括将物体从背景区域分离,分析图像中物体间的相对位置关系等,其中基于滑窗搜索的方法在目标定位中应用最为广泛。上述方法将分类函数应用于不同位置、尺度和长宽比下的窗口,具有最大响应的窗口视为物体的预测区域。但基于滑窗搜索的方法在实际应用中主要面临两个问题:1、由于要搜索整幅图像,并在所有可能的位置应用分类器,算法的时间复杂度较高;2、如何有效地训练具有位置判别特征的分类器仍需要进一步研究。对于第一个问题,现有的改进大都采用启发式算法加快搜索过程,但会增大物体区域误检的概率。因此采用一种运行速度快、误检率低的搜索方法,同时保证检测结果与实际物体尽可能吻合,具有十分重要的意义。
本发明基于SLIC(SimpleLinearIterativeClustering)方法和物体分布的统计特性,通过与传统滑窗搜索算法的比较,进一步验证了本算法在目标定位精度、运行效率上的优势,同时算法对噪声具有一定的鲁棒性,有广泛的应用前景。
【发明内容】
本发明的目的在于弥补现有目标定位算法在运行速度、适应范围和鲁棒性上的不足,提供一种无需标记信息,并实现图像目标快速定位的适用于目标识别的物体预测区域优化方法。
为达到上述目的,本发明采用以下技术方案予以实现:
一种适用于目标识别的物体预测区域优化方法,包括以下步骤:
1)物体预测区域膨胀:
对预测区域进行膨胀,使膨胀后的区域能够包含完整的物体,进而对物体进行精确定位;
2)图像分割:
选取包含目标的图像作为待处理图像,应用SLIC算法将图像分割为多个超像素,超像素尺寸为其中M表示图像包含的像素总数,N表示超像素的总数目;对于任一超像素,其特征与当前超像素内像素特征之间的欧氏距离小于与其他超像素内像素特征之间的欧氏距离;超像素互不重合,且有唯一的标记信息i(i=0,1,2,…N-1);其中,任一超像素的特征表示为(l,a,b,x,y),其中l,a,b表示CIELAB颜色空间的值,x,y表示距图像中心的位置;
3)超像素包围盒计算:
选取i=0所对应的超像素区域xi,计算xi中所有像素点横坐标的最小值作为包围盒的左边界,最大值作为包围盒的右边界;同理,计算xi中所有像素点纵坐标的最小值作为包围盒的上边界,最大值作为包围盒的下边界;依次遍历N个超像素,得到所有超像素对应的包围盒;
4)超像素显著性评价:
对图像中的每一超像素进行显著性评价;
5)基于超像素的滑窗搜索:
从步骤3得到的所有超像素的包围盒边界出发,得到滑窗左上角和右下角顶点分布的位置集合;采用不同长宽比下的滑窗在图像中的不同位置进行搜索,滑窗左上角和右下角顶点的位置应从对应集合中选取,而非按像素移动;
对于当前滑窗,滑窗响应表示为当前窗口所包含的超像素显著性的和,最大响应对应的滑窗即为优化后的物体预测区域。
本发明进一步的改进在于:
所述步骤1)中,物体预测区域膨胀的具体方法如下:
1-1)从标准数据集中选取15,000个目标的真实标记信息,统计得到包围盒的基准尺寸wb,hb;
1-2)计算当前预测区域的宽度wi和高度hi,若wi>hi,则执行1-3),否则执行1-4);
1-3)通过Sigmoid函数计算沿宽度方向的膨胀系数α:
其中,λ1和λ3用于控制膨胀系数的上下界,λ2用于控制α的变化速度;通过wα=hβ计算得到沿高度方向的膨胀系数β;
1-4)通过Sigmoid函数计算沿高度方向的膨胀系数β:
其中,λ1和λ3用于控制膨胀系数的上下界,λ2用于控制α的变化速度;通过wα=hβ计算得到沿宽度方向的膨胀系数α;
1-5)对预测区域进行膨胀,膨胀后预测区域的左上角顶点位置为右下角顶点位置为
所述步骤2)中,图像分割的具体方法如下:
2-1)按固定采样步长s初始化聚类中心点,每个像素的标记设为-1,距最近中心点的距离设为正无穷;
2-2)对每一个中心点,计算其2s×2s邻域中每个像素点距此中心点的距离,并与该像素点已有的距离进行比较,较小的值设为当前像素点的距离,并保持像素点标记与该聚类中心点标记一致;
2-3)更新聚类中心点,计算分割误差;
2-4)重复执行步骤2-2)和2-3),直到误差小于预先设定的阈值。
所述步骤4)中,显著性评价包括颜色差异和中心先验;
颜色差异:
将超像素与背景超像素依次比较,若差异值小于所有超像素差异值的平均值,则当前超像素属于非物体区域;否则,属于物体区域;颜色差异ri定义为:
其中,Nb表示紧邻图像边界的超像素的数目,d(si,bj)表示当前超像素si和边界超像素bj在CIELAB和RGB颜色空间平均值的χ2距离,为:
其中,n表示颜色空间的维度;
中心先验:
引入高斯权重函数,定义为:
其中,w,h分别表示图像的宽度和高度,xi,yi表示第i个超像素中所有像素点距图像中心点的平均距离,λx,λy用于调整滑窗的不同维度对权重变化的影响;
当前超像素区域的显著性表示为其颜色差异和中心先验的乘积,即:
fi=ri·wi。
与现有技术相比,本发明具有以下有益效果:
本发明通过控制超像素的尺寸可以增大图像分割的尺度,从而降低超像素的搜索范围,因此本算法的时间复杂度较小,只与图像中超像素的数目有关;由于超像素中的像素具有一致性,且对局部边缘的分割更好,因此相比于单一像素点,将超像素作为滑窗搜索的基本元素可以产生更好的定位效果;本发明的方法易于实现,可以有效降低搜索区域,从而加速传统基于像素点的滑窗搜索算法;另外,通过级联本发明的方法,可以提高现有目标识别算法对目标的识别精度。
【附图说明】
图1为本发明的流程图;
图2为本发明的不同阶段的算法效果图,其中,(a)为原图像的物体预测区域,(b)为膨胀后的预测区域,(c)生成膨胀后区域的超像素,(d)为物体预测区域优化的结果。
【具体实施方式】
以下结合附图对本发明进行详细的描述。应当指出的是,所描述的实施例仅旨在便于对本发明的理解,而对其不起任何限定作用。
参见图1,本发明一种适用于目标识别的物体预测区域优化方法,其主要由物体预测区域膨胀、图像分割、超像素包围盒计算、超像素显著性评价和基于超像素的滑窗搜索五部分构成。
该方法具体包括步骤如下:
1.物体预测区域膨胀:
由于物体区域被正确预测的标准是预测区域与物体真实区域的重叠部分超过其并集的50%,因此对于正确预测的区域,其与真实区域必然存在不同程度的偏差。为了修正上述偏差,对预测区域进行膨胀,使膨胀后的区域能够包含完整的物体,进而对物体进行精确定位。简要做法如下:
1)从标准数据集中选取15,000个目标的真实标记信息,统计得到包围盒的基准尺寸wb,hb;
2)计算当前预测区域的宽度wi和高度hi,若wi>hi,则执行3),否则执行4);
3)通过Sigmoid函数计算沿宽度方向的膨胀系数α,
其中,λ1和λ3用于控制膨胀系数的上下界,λ2用于控制α的变化速度。通过wα=hβ计算得到沿高度方向的膨胀系数β;
4)通过Sigmoid函数计算沿高度方向的膨胀系数β,
其中,λ1和λ3用于控制膨胀系数的上下界,λ2用于控制α的变化速度。通过wα=hβ计算得到沿宽度方向的膨胀系数α。
5)对预测区域进行膨胀,膨胀后预测区域的左上角顶点位置为右下角顶点位置为
2.图像分割:
选取包含目标的图像作为待处理图像,应用SLIC(SimpleLinearIterativeClustering)算法将图像分割为尺寸相当、内部元素特征相似的超像素。超像素互不重合,且有唯一的标记信息i(i=0,1,2,…N-1),N表示超像素的总数目。简要做法如下:
1)按固定采样步长s初始化聚类中心点,每个像素的标记设为-1,距最近中心点的距离设为正无穷;
2)对每一个中心点,计算其2s×2s邻域中每个像素点距此中心点的距离,并与该像素点已有的距离进行比较,较小的值设为当前像素点的距离,并保持像素点标记与该聚类中心点标记一致;
3)更新聚类中心点,计算分割误差;
4)重复执行步骤2和3,直到误差满足条件。
3.超像素包围盒计算:
选取i=0所对应的超像素区域xi,计算xi中所有像素点横坐标的最小值作为包围盒的左边界,最大值作为包围盒的右边界;同理,计算xi中所有像素点纵坐标的最小值作为包围盒的上边界,最大值作为包围盒的下边界。依次遍历N个超像素,得到所有超像素对应的包围盒。
4.超像素显著性评价:
通过对图像中的每一超像素进行显著性评价,物体区域的超像素显著性高于非物体区域的超像素显著性,因此包括物体区域的滑窗具有搜索区域的极大值响应。显著性评价主要分为两个方面:颜色差异和中心先验。
由于紧挨图像边界的超像素更有可能属于背景区域,因此将超像素与背景超像素依次比较,若差异较小,则当前超像素属于非物体区域的可能性较大;否则,属于物体区域的可能性较大。颜色差异ri定义为:
其中Nb表示紧邻图像边界的超像素的数目,d(si,bj)表示当前超像素si和边界超像素bj在CIELAB和RGB颜色空间平均值的χ2距离,为:
其中n表示颜色空间的维度。
由于靠近图像中心的超像素更有可能属于物体区域,因此引入高斯权重函数,定义为:
其中w,h分别表示图像的宽度和高度,xi,yi表示第i个超像素中所有像素点距图像中心点的平均距离,λx,λy用于调整滑窗的不同维度对权重变化的影响。
当前超像素区域的显著性表示为其颜色差异和中心先验的乘积,即:fi=ri·wi。
5.基于超像素的滑窗搜索:
从步骤3得到的所有超像素的包围盒边界出发,得到滑窗左上角和右下角顶点分布的位置集合。采用不同长宽比下的滑窗在图像中的不同位置进行搜索,滑窗左上角和右下角顶点的位置应从对应集合中选取,而非按像素移动。
对于当前滑窗,滑窗响应表示为当前窗口所包含的超像素显著性的和,最大响应对应的滑窗即为优化后的物体预测区域。
以上内容仅为说明本发明的技术思想,不能以此限定本发明的保护范围,凡是按照本发明提出的技术思想,在技术方案基础上所做的任何改动,均落入本发明权利要求书的保护范围之内。
Claims (4)
1.一种适用于目标识别的物体预测区域优化方法,其特征在于,包括以下步骤:
1)物体预测区域膨胀:
对预测区域进行膨胀,使膨胀后的区域能够包含完整的物体,进而对物体进行精确定位;
2)图像分割:
选取包含目标的图像作为待处理图像,应用SLIC算法将图像分割为多个超像素,超像素尺寸为其中M表示图像包含的像素总数,N表示超像素的总数目;对于任一超像素,其特征与当前超像素内像素特征之间的欧氏距离小于与其他超像素内像素特征之间的欧氏距离;超像素互不重合,且有唯一的标记信息i(i=0,1,2,…N-1);其中,任一超像素的特征表示为(l,a,b,x,y),其中l,a,b表示CIELAB颜色空间的值,x,y表示距图像中心的位置;
3)超像素包围盒计算:
选取i=0所对应的超像素区域xi,计算xi中所有像素点横坐标的最小值作为包围盒的左边界,最大值作为包围盒的右边界;同理,计算xi中所有像素点纵坐标的最小值作为包围盒的上边界,最大值作为包围盒的下边界;依次遍历N个超像素,得到所有超像素对应的包围盒;
4)超像素显著性评价:
对图像中的每一超像素进行显著性评价;
5)基于超像素的滑窗搜索:
从步骤3得到的所有超像素的包围盒边界出发,得到滑窗左上角和右下角顶点分布的位置集合;采用不同长宽比下的滑窗在图像中的不同位置进行搜索,滑窗左上角和右下角顶点的位置应从对应集合中选取,而非按像素移动;
对于当前滑窗,滑窗响应表示为当前窗口所包含的超像素显著性的和,最大响应对应的滑窗即为优化后的物体预测区域。
2.根据权利要求1所述的适用于目标识别的物体预测区域优化方法,其特征在于,所述步骤1)中,物体预测区域膨胀的具体方法如下:
1-1)从标准数据集中选取15,000个目标的真实标记信息,统计得到包围盒的基准尺寸wb,hb;
1-2)计算当前预测区域的宽度wi和高度hi,若wi>hi,则执行1-3),否则执行1-4);
1-3)通过Sigmoid函数计算沿宽度方向的膨胀系数α:
其中,λ1和λ3用于控制膨胀系数的上下界,λ2用于控制α的变化速度;通过wα=hβ计算得到沿高度方向的膨胀系数β;
1-4)通过Sigmoid函数计算沿高度方向的膨胀系数β:
其中,λ1和λ3用于控制膨胀系数的上下界,λ2用于控制α的变化速度;通过wα=hβ计算得到沿宽度方向的膨胀系数α;
1-5)对预测区域进行膨胀,膨胀后预测区域的左上角顶点位置为右下角顶点位置为
3.根据权利要求1所述的适用于目标识别的物体预测区域优化方法,其特征在于,所述步骤2)中,图像分割的具体方法如下:
2-1)按固定采样步长s初始化聚类中心点,每个像素的标记设为-1,距最近中心点的距离设为正无穷;
2-2)对每一个中心点,计算其2s×2s邻域中每个像素点距此中心点的距离,并与该像素点已有的距离进行比较,较小的值设为当前像素点的距离,并保持像素点标记与该聚类中心点标记一致;
2-3)更新聚类中心点,计算分割误差;
2-4)重复执行步骤2-2)和2-3),直到误差小于预先设定的阈值。
4.根据权利要求1所述的适用于目标识别的物体预测区域优化方法,其特征在于,所述步骤4)中,显著性评价包括颜色差异和中心先验;
颜色差异:
将超像素与背景超像素依次比较,若差异值小于所有超像素差异值的平均值,则当前超像素属于非物体区域;否则,属于物体区域;颜色差异ri定义为:
其中,Nb表示紧邻图像边界的超像素的数目,d(si,bj)表示当前超像素si和边界超像素bj在CIELAB和RGB颜色空间平均值的χ2距离,为:
其中,n表示颜色空间的维度;
中心先验:
引入高斯权重函数,定义为:
其中,w,h分别表示图像的宽度和高度,xi,yi表示第i个超像素中所有像素点距图像中心点的平均距离,λx,λy用于调整滑窗的不同维度对权重变化的影响;
当前超像素区域的显著性表示为其颜色差异和中心先验的乘积,即:
fi=ri·wi。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510789565.7A CN105469088B (zh) | 2015-11-17 | 2015-11-17 | 一种适用于目标识别的物体预测区域优化方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510789565.7A CN105469088B (zh) | 2015-11-17 | 2015-11-17 | 一种适用于目标识别的物体预测区域优化方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105469088A true CN105469088A (zh) | 2016-04-06 |
CN105469088B CN105469088B (zh) | 2018-10-19 |
Family
ID=55606759
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510789565.7A Active CN105469088B (zh) | 2015-11-17 | 2015-11-17 | 一种适用于目标识别的物体预测区域优化方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105469088B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108171193A (zh) * | 2018-01-08 | 2018-06-15 | 西安电子科技大学 | 基于超像素局部信息度量的极化sar舰船目标检测方法 |
CN109509345A (zh) * | 2017-09-15 | 2019-03-22 | 富士通株式会社 | 车辆检测装置和方法 |
CN110315535A (zh) * | 2019-06-10 | 2019-10-11 | 西北工业大学 | 一种基于连续路径的机器人目标抓取检测方法 |
CN115598025A (zh) * | 2022-12-13 | 2023-01-13 | 四川亿欣新材料有限公司(Cn) | 图像处理方法及使用该方法的碳酸钙粉质检*** |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102637253A (zh) * | 2011-12-30 | 2012-08-15 | 清华大学 | 基于视觉显著性和超像素分割的视频前景目标提取方法 |
CN102722891A (zh) * | 2012-06-12 | 2012-10-10 | 大连理工大学 | 一种图像显著度检测的方法 |
CN102968782A (zh) * | 2012-09-12 | 2013-03-13 | 苏州大学 | 一种彩色图像中显著对象的自动抠取方法 |
CN103390279A (zh) * | 2013-07-25 | 2013-11-13 | 中国科学院自动化研究所 | 联合显著性检测与判别式学习的目标前景协同分割方法 |
CN103996198A (zh) * | 2014-06-04 | 2014-08-20 | 天津工业大学 | 复杂自然环境下感兴趣区域的检测方法 |
EP2788918A1 (en) * | 2011-12-05 | 2014-10-15 | University of Lincoln | Method and apparatus for automatic detection of features in an image and method for training the apparatus |
-
2015
- 2015-11-17 CN CN201510789565.7A patent/CN105469088B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2788918A1 (en) * | 2011-12-05 | 2014-10-15 | University of Lincoln | Method and apparatus for automatic detection of features in an image and method for training the apparatus |
CN102637253A (zh) * | 2011-12-30 | 2012-08-15 | 清华大学 | 基于视觉显著性和超像素分割的视频前景目标提取方法 |
CN102722891A (zh) * | 2012-06-12 | 2012-10-10 | 大连理工大学 | 一种图像显著度检测的方法 |
CN102968782A (zh) * | 2012-09-12 | 2013-03-13 | 苏州大学 | 一种彩色图像中显著对象的自动抠取方法 |
CN103390279A (zh) * | 2013-07-25 | 2013-11-13 | 中国科学院自动化研究所 | 联合显著性检测与判别式学习的目标前景协同分割方法 |
CN103996198A (zh) * | 2014-06-04 | 2014-08-20 | 天津工业大学 | 复杂自然环境下感兴趣区域的检测方法 |
Non-Patent Citations (1)
Title |
---|
云红全 等,: ""基于超像素时空显著性的运动目标检测算法"", 《图像处理与仿真》 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109509345A (zh) * | 2017-09-15 | 2019-03-22 | 富士通株式会社 | 车辆检测装置和方法 |
CN108171193A (zh) * | 2018-01-08 | 2018-06-15 | 西安电子科技大学 | 基于超像素局部信息度量的极化sar舰船目标检测方法 |
CN108171193B (zh) * | 2018-01-08 | 2021-09-10 | 西安电子科技大学 | 基于超像素局部信息度量的极化sar舰船目标检测方法 |
CN110315535A (zh) * | 2019-06-10 | 2019-10-11 | 西北工业大学 | 一种基于连续路径的机器人目标抓取检测方法 |
CN110315535B (zh) * | 2019-06-10 | 2022-05-17 | 西北工业大学 | 一种基于连续路径的机器人目标抓取检测方法 |
CN115598025A (zh) * | 2022-12-13 | 2023-01-13 | 四川亿欣新材料有限公司(Cn) | 图像处理方法及使用该方法的碳酸钙粉质检*** |
CN115598025B (zh) * | 2022-12-13 | 2023-03-10 | 四川亿欣新材料有限公司 | 图像处理方法及使用该方法的碳酸钙粉质检*** |
Also Published As
Publication number | Publication date |
---|---|
CN105469088B (zh) | 2018-10-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Wei et al. | Multi-vehicle detection algorithm through combining Harr and HOG features | |
CN103065331B (zh) | 基于空时域边缘和颜色特征关联的目标跟踪方法 | |
Ye et al. | Self-learning scene-specific pedestrian detectors using a progressive latent model | |
CN103886619B (zh) | 一种融合多尺度超像素的目标跟踪方法 | |
CN105528794A (zh) | 基于混合高斯模型与超像素分割的运动目标检测方法 | |
CN107103326A (zh) | 基于超像素聚类的协同显著性检测方法 | |
CN103578119A (zh) | 基于超像素的Codebook动态场景中目标检测方法 | |
CN103839279A (zh) | 一种目标检测中基于vibe的粘连目标分割方法 | |
CN105469088A (zh) | 一种适用于目标识别的物体预测区域优化方法 | |
CN102521597B (zh) | 一种基于分级策略的影像直线特征匹配方法 | |
Zou et al. | Attention guided neural network models for occluded pedestrian detection | |
CN107369158A (zh) | 基于rgb‑d图像的室内场景布局估计及目标区域提取方法 | |
Tian et al. | Vehicle detection grammars with partial occlusion handling for traffic surveillance | |
CN103577832B (zh) | 一种基于时空上下文的人流量统计方法 | |
CN103106409A (zh) | 一种针对头肩检测的混合特征提取方法 | |
CN113159215A (zh) | 一种基于Faster Rcnn的小目标检测识别方法 | |
CN103745197A (zh) | 一种车牌检测方法及装置 | |
CN103295026B (zh) | 基于空间局部聚合描述向量的图像分类方法 | |
CN105335703B (zh) | 基于运动重构技术的交通场景异常检测方法 | |
Wang et al. | Smart road vehicle sensing system based on monocular vision | |
Gu et al. | Vision-based multi-scaled vehicle detection and distance relevant mix tracking for driver assistance system | |
CN112613565B (zh) | 基于多特征融合与自适应学习率更新的抗遮挡跟踪方法 | |
CN103714517A (zh) | 视频去雨方法 | |
Potje et al. | XFeat: Accelerated Features for Lightweight Image Matching | |
Hänisch et al. | Free-space detection with fish-eye cameras |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |