CN110378341A - 一种双目视觉行人距离检测方法 - Google Patents
一种双目视觉行人距离检测方法 Download PDFInfo
- Publication number
- CN110378341A CN110378341A CN201910672581.6A CN201910672581A CN110378341A CN 110378341 A CN110378341 A CN 110378341A CN 201910672581 A CN201910672581 A CN 201910672581A CN 110378341 A CN110378341 A CN 110378341A
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- image
- binocular
- point
- pedestrian target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 42
- 239000011159 matrix material Substances 0.000 claims description 12
- 238000013519 translation Methods 0.000 claims description 12
- 238000000034 method Methods 0.000 claims description 7
- 230000004927 fusion Effects 0.000 claims description 4
- 239000000284 extract Substances 0.000 claims description 3
- 230000008569 process Effects 0.000 claims description 3
- 238000000746 purification Methods 0.000 claims description 3
- 230000009467 reduction Effects 0.000 claims description 3
- 238000000638 solvent extraction Methods 0.000 claims description 3
- 239000007787 solid Substances 0.000 abstract description 4
- 238000003384 imaging method Methods 0.000 abstract description 3
- 230000008901 benefit Effects 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 206010039203 Road traffic accident Diseases 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/40—Image enhancement or restoration using histogram techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/757—Matching configurations of points or features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/467—Encoded features or binary features, e.g. local binary patterns [LBP]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Computational Biology (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- Geometry (AREA)
- General Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种双目视觉行人距离检测方法,其包括步骤S1‑S10,本方案利用双目立体视觉并基于视差原理,利用成像设备从不同位置获取被测物体的两幅图像,通过计算图像对应点之间的位置偏差,得到物体的三维几何信息。利用双目立体相机采集前方图像信息并进行预处理,通过K‑SVD算法计算图像的方向梯度特征和局部二值模式特征,对现有的行人检测算法进行改进,提高行人检测精度,缩短检测时间;然后利用SURF算法左、右图像的立体匹配,并根据匹配数据进行三维重建,确定车辆质心坐标,从而测量出行人与双目相机之间的距离。
Description
技术领域
本发明涉及图像处理技术领域,具体涉及一种双目视觉行人距离检测方法。
背景技术
行人是脆弱的交通参与者。世界卫生组织提供的数据显示,全球每年因为道路交通事故死亡人数约125万。为了减少交通事故的发生,汽车公司联合高校积极开发先进的驾驶辅助***。在各种交通环境和天气条件下,实现了诸如障碍物检测和障碍识别等功能,以此保障行人及驾驶员的人身安全。
对于人类来说,行人检测是一个简单问题,但是对于人工视觉***却是十分困难的。即使经过几十年的发展,人工视觉***仍不完善,依然存在许多问题,比如遮挡严重,图像分辨率低和背景复杂等等。同时,也提出了许多方法来对行人检测进行改进,并在深度学习领域行人检测取得了大量的成果,大大提高了行人检测的精度和检测时间。然而,由于背景和大小的影响,深度学习方法在行人检测领域的应用并不理想,实时性并不是很好。因此,为了追求实时性和准确性,人们提出了许多机器学习方法来改进行人检测,如S-RF算法等等。
事实上,早在2015年,学者们就开始使用双目视觉来检测行人。对于双目视觉,通常使用两种功能,一种是扩大视野以提高行人检测的效率,另一种是测量距离。文献Pedestrian Detection in Binocular Stereo Sequence based on AppearanceConsistency Segmentation提出了一种用于双目立体序列的行人联合检测框架。通过使用双目视觉和单目视觉,它可以提供比连续帧更多的信息,然后使用这些信息来减少行人检测的低置信候选检测窗口的数量,或增强高置信候选检测窗口以提高检测性能。文献Pedestrian detection aided by fusion of binocular information提出了行人检测框架。该方法结合双目视觉,融合左右图像,提高行人检测率。以上两篇文章充分利用了双目视觉可以提供更多信息和提高行人检测率的优点。文献Parallel binocular stereo-vision-based GPU accelerated pedestrian detection and distance computation结合了双眼视觉,从距离测量的角度检测行人。是Nvidia的GPU加速了行人检测,此外,根据行人检测结果,测量了双目摄像头与行人之间的距离。虽然文献使用tk1和gpu加速图像处理,以实现实时行人检测和测距,但特征提取的精度并不理想。在距离测量中,所有的行人头部点都被收集并平均,但是质心应该比头部采样点更有说服力。
发明内容
针对现有技术的上述不足,本发明提供了一种可用于对车辆前方行人距离进行检测的双目视觉行人距离检测方法。
为达到上述发明目的,本发明所采用的技术方案为:
提供一种双目视觉行人距离检测方法,其包括以下步骤:
S1:对双目相机拍摄前方行人的左、右图像进行预处理,得到左、右灰度图像;
S2:计算左、右灰度图像的局部二值模式特征直方图和方向梯度特征直方图;
S3:分别将左、右图像的方向梯度特征直方图和局部二值模式特征直方图均进行串行连接,形成左、右两张联合直方图;
S4:将左、右两张联合直方图分别输入训练好的SVM分类器中,分别识别出左、右两张联合直方图中的行人目标,并对行人目标进行分类;
S5:通过Matlab对双目相机进行标定,获得双目相机的旋转矩阵R和平移向量T;
S6:在左、右图像的行人目标上分别标记出若干对应的匹配点,并采用SURF算法将若干匹配点与双目相机的旋转矩阵R和平移向量T进行立体匹配,对双目相机的拍摄场景进行三维重建;
S7:将左图像上的行人目标输入重建的拍摄场景中,并将行人目标设为感兴趣区域,利用图像语义分割算法提取出感兴趣区域内的行人目标轮廓;
S8:将行人目标轮廓输入Matlab中,找出行人目标的质心点,并计算质心点的质心参数;
S9:在右图像上找出与质心点对应匹配的质心匹配点,并利用质心匹配点和质心点的质心参数在三维场景内计算质心的三维坐标;
S10:利用质心的三维坐标计算检测到的行人目标距离双目相机的距离。
进一步地,步骤S2包括:
S21:采用特征融合算法分别提取左、右灰度图像的方向梯度特征和局部二值模式特征;
S22:采用K-SVD算法对左、右灰度图像的方向梯度特征进行稀疏表示,并计算方向梯度特征直方图;
S23:采用PCA算法对左、右灰度图像的局部二值模式特征均进行降维,并计算局部二值模式特征直方图;
进一步地,步骤S5包括:
S51:向双目相机的两个左、右相机分别输入标定的棋盘格图片;
S52:提取棋盘格图片的角点;
S53:在Matlab内提取角点的坐标,计算双目相机的旋转矩阵R和平移向量T。
进一步地,步骤S6包括:
S61:在左图像上的行人目标上选定出若干左图像特征点;
S62:在右图像上的行人目标上对应左图像特征点进行匹配搜索,获得一对匹配点集合;
S63:重复步骤S61-S62,在左图像上的行人目标对应匹配搜索右图像行人目标上选定的若干右图像特征点,获得一对新的匹配点集合;
S64:利用RANSAC算法将步骤S62和S63中的两组匹配点集合进行提纯,然后再利用SURF算法对提纯后的两组匹配点与双目相机的旋转矩阵R和平移向量T进行立体匹配,对双目相机的拍摄场景进行三维重建。
本发明的有益效果为:本方案利用双目立体视觉并基于视差原理,利用成像设备从不同位置获取被测物体的两幅图像,通过计算图像对应点之间的位置偏差,得到物体的三维几何信息。与单目视觉相比,双目视觉具有较高的准确度。利用双目立体相机采集前方图像信息并进行预处理,通过K-SVD算法计算图像的方向梯度特征和局部二值模式特征,对现有的行人检测算法进行改进,提高行人检测精度,缩短检测时间;然后利用SURF算法左、右图像的立体匹配,并根据匹配数据进行三维重建,确定车辆质心坐标,从而测量出行人与双目相机之间的距离。
附图说明
图1为双目视觉行人距离检测方法的流程图。
具体实施方式
下面对本发明的具体实施方式进行描述,以便于本技术领域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。
如图1所示一种双目视觉行人距离检测方法,其包括以下步骤:
S1:对双目相机拍摄前方行人的左、右图像进行预处理,得到左、右灰度图像,将采集的RGB彩色图像转化为只有一个通道的灰度图像,便于后续对行人目标进行检测与识别;
S2:计算左、右灰度图像的局部二值模式特征直方图和方向梯度特征直方图;
步骤S2具体包括以下步骤:
S21:采用特征融合算法分别提取左、右灰度图像的方向梯度特征和局部二值模式特征;
S22:采用K-SVD算法对左、右灰度图像的方向梯度特征进行稀疏表示,并计算方向梯度特征直方图;
S23:采用PCA算法对左、右灰度图像的局部二值模式特征均进行降维,并计算局部二值模式特征直方图。
S3:分别将左、右图像的方向梯度特征直方图和局部二值模式特征直方图均进行串行连接,形成左、右两张联合直方图;
S4:将左、右两张联合直方图分别输入训练好的SVM分类器中,分别识别出左、右两张联合直方图中的行人目标,并对行人目标进行分类;
S5:通过Matlab对双目相机进行标定,获得双目相机的旋转矩阵R和平移向量T;
步骤S5具体包括以下步骤:
S51:向双目相机的两个左、右相机分别输入标定的棋盘格图片;
S52:提取棋盘格图片的角点;
S53:在Matlab内提取角点的坐标,计算双目相机的旋转矩阵R和平移向量T。
S6:在左、右图像的行人目标上分别标记出若干对应的匹配点,并采用SURF算法将若干匹配点与双目相机的旋转矩阵R和平移向量T进行立体匹配,对双目相机的拍摄场景进行三维重建;
步骤S6具体包括以下步骤:
S61:在左图像上的行人目标上选定出若干左图像特征点;
S62:在右图像上的行人目标上对应左图像特征点进行匹配搜索,获得一对匹配点集合;
S63:重复步骤S61-S62,在左图像上的行人目标对应匹配搜索右图像行人目标上选定的若干右图像特征点,获得一对新的匹配点集合;
S64:利用RANSAC算法将步骤S62和S63中的两组匹配点集合进行提纯,然后再利用SURF算法对提纯后的两组匹配点与双目相机的旋转矩阵R和平移向量T进行立体匹配,对双目相机的拍摄场景进行三维重建。
将两张图像上的行人目标分开进行匹配,消除其中一张图像与另一张图像匹配是的假匹配和误匹配,提高匹配精度。
S7:将左图像上的行人目标输入重建的拍摄场景中,并将行人目标设为感兴趣区域,利用图像语义分割算法提取出感兴趣区域内的行人目标轮廓;
S8:将行人目标轮廓输入Matlab中,找出行人目标的质心点,并计算质心点的质心参数;
S9:在右图像上找出与质心点对应匹配的质心匹配点,并利用质心匹配点和质心点的质心参数在三维场景内计算质心的三维坐标;
S10:利用质心的三维坐标计算检测到的行人目标距离双目相机的距离。
本方案利用双目立体视觉并基于视差原理,利用成像设备从不同位置获取被测物体的两幅图像,通过计算图像对应点之间的位置偏差,得到物体的三维几何信息。与单目视觉相比,双目视觉具有较高的准确度。利用双目立体相机采集前方图像信息并进行预处理,通过K-SVD算法计算图像的方向梯度特征和局部二值模式特征,对现有的行人检测算法进行改进,提高行人检测精度,缩短检测时间;然后利用SURF算法左、右图像的立体匹配,并根据匹配数据进行三维重建,确定车辆质心坐标,从而测量出行人与双目相机之间的距离。
Claims (4)
1.一种双目视觉行人距离检测方法,其特征在于,包括以下步骤:
S1:对双目相机拍摄前方行人的左、右图像进行预处理,得到左、右灰度图像;
S2:计算左、右灰度图像的局部二值模式特征直方图和方向梯度特征直方图;
S3:分别将左、右图像的方向梯度特征直方图和局部二值模式特征直方图均进行串行连接,形成左、右两张联合直方图;
S4:将左、右两张联合直方图分别输入训练好的SVM分类器中,分别识别出左、右两张联合直方图中的行人目标,并对行人目标进行分类;
S5:通过Matlab对双目相机进行标定,获得双目相机的旋转矩阵R和平移向量T;
S6:在左、右图像的行人目标上分别标记出若干对应的匹配点,并采用SURF算法将若干匹配点与双目相机的旋转矩阵R和平移向量T进行立体匹配,重建出双目相机的三维拍摄场景;
S7:将左图像上的行人目标输入三维拍摄场景中,并将行人目标设为感兴趣区域,利用图像语义分割算法提取出感兴趣区域内的行人目标轮廓;
S8:将行人目标轮廓输入Matlab中,找出行人目标轮廓的质心点,并计算质心点的质心参数;
S9:在右图像上找出与质心点对应匹配的质心匹配点,并利用质心匹配点和质心点的质心参数在三维拍摄场景内计算质心的三维坐标;
S10:利用质心的三维坐标计算行人目标距离双目相机的距离。
2.根据权利要求1所述的双目视觉行人距离检测方法,其特征在于,所述步骤S2包括:
S21:采用特征融合算法分别提取左、右灰度图像的方向梯度特征和局部二值模式特征;
S22:采用K-SVD算法对左、右灰度图像的方向梯度特征进行稀疏表示,并计算方向梯度特征直方图;
S23:采用PCA算法对左、右灰度图像的局部二值模式特征均进行降维,并计算局部二值模式特征直方图。
3.根据权利要求1所述的双目视觉行人距离检测方法,其特征在于,所述步骤S5包括:
S51:向双目相机的两个左、右相机分别输入标定的棋盘格图片;
S52:提取棋盘格图片的角点;
S53:在Matlab内提取角点的坐标,计算双目相机的旋转矩阵R和平移向量T。
4.根据权利要求1所述的双目视觉行人距离检测方法,其特征在于,所述步骤S6包括:
S61:在左图像上的行人目标上选定出若干左图像特征点;
S62:在右图像上的行人目标上对应左图像特征点进行匹配搜索,获得一对匹配点集合;
S63:重复步骤S61-S62,在左图像上的行人目标对应匹配搜索右图像行人目标上选定的若干右图像特征点,获得一对新的匹配点集合;
S64:利用RANSAC算法将步骤S62和S63中的两组匹配点集合进行提纯,然后再利用SURF算法对提纯后的两组匹配点与双目相机的旋转矩阵R和平移向量T进行立体匹配,对双目相机的拍摄场景进行三维重建。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910672581.6A CN110378341A (zh) | 2019-07-24 | 2019-07-24 | 一种双目视觉行人距离检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910672581.6A CN110378341A (zh) | 2019-07-24 | 2019-07-24 | 一种双目视觉行人距离检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110378341A true CN110378341A (zh) | 2019-10-25 |
Family
ID=68255646
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910672581.6A Pending CN110378341A (zh) | 2019-07-24 | 2019-07-24 | 一种双目视觉行人距离检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110378341A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111145254A (zh) * | 2019-12-13 | 2020-05-12 | 上海新时达机器人有限公司 | 一种基于双目视觉的门阀毛坯定位方法 |
CN111563516A (zh) * | 2020-07-16 | 2020-08-21 | 浙江大华技术股份有限公司 | 行人掩码与三维场景融合显示的方法、终端及存储介质 |
CN113208731A (zh) * | 2021-04-23 | 2021-08-06 | 上海大学 | 基于双目视觉***的手术穿刺机器人手眼标定方法 |
CN113240740A (zh) * | 2021-05-06 | 2021-08-10 | 四川大学 | 基于相位引导双目视觉密集标记点匹配的姿态测量方法 |
CN113627273A (zh) * | 2021-07-19 | 2021-11-09 | 成都圭目机器人有限公司 | 一种基于视觉的高速公路里程桩号定位方法 |
CN115534801A (zh) * | 2022-08-29 | 2022-12-30 | 深圳市欧冶半导体有限公司 | 车灯自适应调光方法、装置、智能终端及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103337094A (zh) * | 2013-06-14 | 2013-10-02 | 西安工业大学 | 一种应用双目摄像机实现运动三维重建的方法 |
CN104166841A (zh) * | 2014-07-24 | 2014-11-26 | 浙江大学 | 一种视频监控网络中指定行人或车辆的快速检测识别方法 |
CN104850857A (zh) * | 2015-05-15 | 2015-08-19 | 浙江大学 | 基于视觉空间显著性约束的跨摄像机行人目标匹配方法 |
-
2019
- 2019-07-24 CN CN201910672581.6A patent/CN110378341A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103337094A (zh) * | 2013-06-14 | 2013-10-02 | 西安工业大学 | 一种应用双目摄像机实现运动三维重建的方法 |
CN104166841A (zh) * | 2014-07-24 | 2014-11-26 | 浙江大学 | 一种视频监控网络中指定行人或车辆的快速检测识别方法 |
CN104850857A (zh) * | 2015-05-15 | 2015-08-19 | 浙江大学 | 基于视觉空间显著性约束的跨摄像机行人目标匹配方法 |
Non-Patent Citations (4)
Title |
---|
KAIMING HE ET AL.: ""Mask R-CNN"", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 * |
XIAOYU WANG ET AL.: ""An HOG-LBP human detector with partial occlusion handling"", 《COMPUTER VISION, 2009 IEEE 12TH INTERNATIONAL CONFERENCE》 * |
张治国: ""前方道路行人检测和距离估计研究"", 《中国博士学位论文全文数据库 工程科技Ⅱ辑》 * |
张琦等: ""改进Fast—RCNN的双目视觉车辆检测方法"", 《应用光学》 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111145254A (zh) * | 2019-12-13 | 2020-05-12 | 上海新时达机器人有限公司 | 一种基于双目视觉的门阀毛坯定位方法 |
CN111145254B (zh) * | 2019-12-13 | 2023-08-11 | 上海新时达机器人有限公司 | 一种基于双目视觉的门阀毛坯定位方法 |
CN111563516A (zh) * | 2020-07-16 | 2020-08-21 | 浙江大华技术股份有限公司 | 行人掩码与三维场景融合显示的方法、终端及存储介质 |
CN113208731A (zh) * | 2021-04-23 | 2021-08-06 | 上海大学 | 基于双目视觉***的手术穿刺机器人手眼标定方法 |
CN113240740A (zh) * | 2021-05-06 | 2021-08-10 | 四川大学 | 基于相位引导双目视觉密集标记点匹配的姿态测量方法 |
CN113240740B (zh) * | 2021-05-06 | 2022-07-12 | 四川大学 | 基于相位引导双目视觉密集标记点匹配的姿态测量方法 |
CN113627273A (zh) * | 2021-07-19 | 2021-11-09 | 成都圭目机器人有限公司 | 一种基于视觉的高速公路里程桩号定位方法 |
CN113627273B (zh) * | 2021-07-19 | 2023-05-26 | 成都圭目机器人有限公司 | 一种基于视觉的高速公路里程桩号定位方法 |
CN115534801A (zh) * | 2022-08-29 | 2022-12-30 | 深圳市欧冶半导体有限公司 | 车灯自适应调光方法、装置、智能终端及存储介质 |
CN115534801B (zh) * | 2022-08-29 | 2023-07-21 | 深圳市欧冶半导体有限公司 | 车灯自适应调光方法、装置、智能终端及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110378341A (zh) | 一种双目视觉行人距离检测方法 | |
WO2018024030A1 (zh) | 一种夜视红外图像中的基于显著性的道路目标提取方法 | |
Fritsch et al. | Monocular road terrain detection by combining visual and spatial information | |
CN105260712B (zh) | 一种车辆前方行人检测方法及*** | |
CN109934848B (zh) | 一种基于深度学习的运动物体精准定位的方法 | |
CN103426200B (zh) | 基于无人机航拍序列图像的树木三维重建方法 | |
CA2812117C (en) | A method for enhancing depth maps | |
CN103310194B (zh) | 视频中基于头顶像素点梯度方向的行人头肩部检测方法 | |
CN104036488B (zh) | 一种基于双目视觉的人体姿态动作研究方法 | |
CN110032278A (zh) | 一种人眼感兴趣物体的位姿识别方法、装置及*** | |
CN104794737B (zh) | 一种深度信息辅助粒子滤波跟踪方法 | |
CN104835175B (zh) | 一种基于视觉注意机制的核环境中目标检测方法 | |
CN107481315A (zh) | 一种基于Harris‑SIFT‑BRIEF算法的单目视觉三维环境重建方法 | |
CN104715238A (zh) | 一种基于多特征融合的行人检测方法 | |
CN108108667B (zh) | 一种基于窄基线双目视觉的前方车辆快速测距方法 | |
CN112801074B (zh) | 一种基于交通摄像头的深度图估计方法 | |
CN105404857A (zh) | 一种基于红外的夜间智能车前方行人检测方法 | |
CN102902355A (zh) | 移动设备的空间交互方法 | |
CN104794449A (zh) | 基于人体hog特征的步态能量图获取及身份识别方法 | |
CN104517095A (zh) | 一种基于深度图像的人头分割方法 | |
CN105326507A (zh) | 超像素分割和曲线波相融合的三维人体测量方法 | |
Zielke et al. | CARTRACK: computer vision-based car following. | |
CN109443319A (zh) | 基于单目视觉的障碍物测距***及其测距方法 | |
CN104331705B (zh) | 融合时空信息的步态周期自动检测方法 | |
CN114596657B (zh) | 一种基于深度数据的闸机通行*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20191025 |