CN112825192B - 基于机器学习的对象辨识***及其方法 - Google Patents
基于机器学习的对象辨识***及其方法 Download PDFInfo
- Publication number
- CN112825192B CN112825192B CN201911278275.0A CN201911278275A CN112825192B CN 112825192 B CN112825192 B CN 112825192B CN 201911278275 A CN201911278275 A CN 201911278275A CN 112825192 B CN112825192 B CN 112825192B
- Authority
- CN
- China
- Prior art keywords
- dimensional image
- dimensional
- coordinates
- image
- module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本公开提供了一种基于机器学习的对象辨识***,包括二维影像撷取模块、三维空间撷取模块、一数据框选模块、一数据对齐模块、一特征撷取模块以及一侦测模块。二维影像撷取模块用以撷取二维影像。三维空间撷取模块用以撷取三维空间点云数据。数据框选模块根据三维空间点云数据进行对象分割,并进行深度识别,以框选至少一关注区域。数据对齐模块映射至少一关注区域的坐标至二维影像的坐标中。特征撷取模块计算二维影像的特征,并由二维影像的特征中提取对应关注区域的坐标的至少一关注特征。侦测模块取得关注特征,并根据关注特征,对二维影像中至少一对象进行识别。
Description
技术领域
本公开是有关于一种基于机器学习的对象辨识***及其方法。
背景技术
传统利用深度学习网络对彩色二维影像进行对象识别过程中,在框选彩色二维影像的候选区域阶段,会利用卷积神经网络所获得大量对象特征,在彩色二维影像中生成候选区域,然而,这个步骤需要高速运算资源并消耗大量时间才能获得计算结果,这是传统深度学习网络的主要缺点。
中国专利公开第105975915A号提出一种基于多任务卷积神经网络的前方车辆参数识别方法,卷积神经网络(Convolutional Neural Network,CNN)的输入RGB-D图像,即一种包含彩色及深度信息的四信道颜色深度图像;将输入图像RGB-D图像进行局部对比度归一化的预处理,处理后的数据交给卷积神经网络进行训练,训练前初始化所有的权值为随机数;训练分为两个阶段:信号前向传播阶段和误差后向回馈阶段;当卷积神经网络的实际输出值与期望输出值的误差保持在预设范围内即终止卷积神经网络训练,并保存卷积神经网络结构,适用于交通场景的车辆参数识别的多任务卷积神经网络训练完毕。上述方法通过卷积神经网络进行学习分类能够识别其他车辆、行人等,RGB-D图像信息与普通的图像信息相比具有距离信息,在一定程度上提高了精确性。但是上述方法中RGB-D只能识别距离较近范围的物体,距离较远的物体识别精度低,如果应用在无人车上容易造成事故。
此外,中国专利公开第107576960A号提出一种视觉雷达时空信息融合的目标检测方法及***,将RGB图像和LIDAR深度图片融合成RGB-LIDAR图片,将连续M次采集的RGB-LIDAR图片进行叠加,获得叠加后的RGB-LIDAR图片,以多个所述的叠加后的RGB-LIDAR图片建立RGB-LIDAR数据集,输入到深度学习网络进行训练学习,建立分类模型。根据分类模型对目标的分析结果采取相对应的决策。但是上述方法中融合成RGB-LIDAR图片需消耗大量时间及运算资源,且大量的RGB-LIDAR数据集输入到深度学习网络中才能获得计算结果,不符合实时辨识的需求。
公开内容
本公开有关于一种基于机器学习的对象辨识***及其方法,可根据三维空间点云数据进行对象分割,并进行深度识别,以预先框选一关注区域,进而节省后续运算模块的运算时间。
根据本公开的一方面,提出一种基于机器学习的对象辨识***,包括二维影像撷取模块、三维空间撷取模块、一数据框选模块、一数据对齐模块、一特征撷取模块以及一侦测模块。二维影像撷取模块用以撷取二维影像。三维空间撷取模块用以撷取三维空间点云数据。数据框选模块根据三维空间点云数据进行对象分割,并进行深度识别,以框选至少一关注区域。数据对齐模块映射关注区域的坐标至二维影像的坐标中。特征撷取模块计算二维影像的特征,并由二维影像的特征中提取对应关注区域的坐标的至少一关注特征。侦测模块用以取得至少一关注特征,并根据关注特征,对二维影像中的至少一对象进行识别。
根据本公开的一方面,提出一种基于机器学习的对象辨识方法,包括下列步骤。撷取二维影像。撷取三维空间点云数据。根据三维空间点云数据进行对象分割,并进行深度识别,以框选至少一关注区域。映射关注区域的坐标至二维影像的坐标中。计算二维影像的特征,并由二维影像的特征中提取对应关注区域的坐标的至少一关注特征。根据关注特征,对二维影像中的至少一对象进行识别。
附图说明
图1绘示依照本公开一实施例的基于机器学习的对象辨识***的示意图。
图2绘示依照本公开一实施例的基于机器学习的对象辨识***的具体架构的示意图。
图3绘示依照本公开一实施例的基于机器学习的对象辨识方法的示意图。
图4绘示图3中基于机器学习的对象辨识方法的进一步具体步骤的示意图。
附图标记说明
100:对象辨识***
110:二维影像撷取模块
111:二维影像
120:三维空间撷取模块
121:三维空间点云数据
130:运算模块
132:数据框选模块
134:数据对齐模块
136:特征撷取模块
138:侦测模块
S11~S16、S111~S171:各个步骤
具体实施方式
以下系提出实施例进行详细说明,实施例仅用以作为范例说明,并非用以限缩本公开欲保护之范围。以下是以相同/类似的符号表示相同/类似的组件做说明。以下实施例中所提到的方向用语,例如:上、下、左、右、前或后等,仅是参考所附图式的方向。因此,使用的方向用语是用来说明并非用来限制本公开。
依照本公开的一个实施例,提出一种基于机器学习的对象辨识***及其方法,例如采用卷积神经网络进行深度学习,并在深度学习网络中进行训练,以建立分类模型。卷积神经网络由一个或多个卷积层和顶端的全连通层组成,同时也包括关联权重和池化层(pooling layer),使得卷积神经网络能够利用输入数据的二维结构进行演算。与其他深度学习结构相比,卷积神经网络在图像和对象辨识方面具有更好的结果,且需要考虑的参数更少,因此对象辨识准确率相对较高,例如大于90%。卷积神经网络还可分为区域卷积神经网络(R-CNN)、快速型区域卷积神经网络(Fast R-CNN)及更快速型区域卷积神经网络(Faster R-CNN),通过对输入数据分成多个区域,并将每个区域分到对应的类别中,再将所有的区域结合在一起,以完成目标物体的检测。
传统的基于机器学习的对象辨识方法,系利用卷积神经网络直接对二维影像的RGB图像、RGB-D图像或融合的RGB-LIDAR图像进行机器学习并进行对象特征撷取,由于传统的方法需进行高速运算并消耗大量时间及运算资源,才能获得计算结果,因而无法减少运算时间。
相对地,本实施例中基于机器学习的对象辨识***及其方法,其中运算模块可先利用卷积神经网络、K-means分群法或基于SVM及K-means分群架构进行机器学习,以对三维空间点云数据进行对象分割,并进行深度识别,以得到粗框选的至少一关注区域(简称为“粗关注区域”)。被框选之关注区域可为一个或多个,本实施例不加以限定。接着,再根据「粗关注区域」的坐标数据,对二维影像中对应「粗关注区域」的至少一关注特征进行特征提取及“细关注区域”的微调,以供运算模块能更快速地辨识“细关注区域”中的对象种类,因此能有效减少运算时间,例如少于90微秒(ms)。
请参照图1,其绘示依照本公开一实施例的基于机器学习的对象辨识***100的示意图。对象辨识***100包括二维影像撷取模块110、三维空间撷取模块120以及一运算模块130。二维影像撷取模块110例如为相机,用以撷取二维影像111。三维空间撷取模块120例如为光学雷达(LIDAR)模块或三维光学扫描模块,可利用时差测距(time-of-flight)或三角测距(triangulation)技术撷取三维空间点云数据121,以建立三维空间中的物体模型。在另一实施例中,三维空间撷取模块120也可利用结构光投影在目标物上,并以二维影像撷取模块110撷取具有结构光的二维影像111,以产生深度影像的数据。
运算模块130用以同步取得二维影像撷取模块110及三维空间撷取模块120撷取的二维影像111及三维空间点云数据121,并通过机器学习,对三维空间点云数据121进行对象分割,并进行深度识别。同时,运算模块130还可通过机器学习,对二维影像111中对应关注区域的至少一对象进行识别,以判断对象的种类和对象的距离。有关运算模块130的具体架构请参照图2的说明。
请参照图2,其绘示依照本公开一实施例的基于机器学习的对象辨识***100的具体架构的示意图。运算模块130可包括一数据框选模块132、一数据对齐模块134、一特征撷取模块136以及一侦测模块138。数据框选模块132根据三维空间点云数据121进行对象分割,并进行深度识别,以框选至少一关注区域。数据对齐模块134映射关注区域的坐标至二维影像111的坐标中。特征撷取模块136计算二维影像的特征,并由二维影像的特征中提取对应关注区域的坐标的至少一关注特征。侦测模块138用以取得关注特征,并根据关注特征,对二维影像111中的至少一影像进行识别。
在一实施例中,数据框选模块132可利用特征侦测器(feature detector)来选取三维空间点云数据121中的一些局部特征,并可结合选择性搜寻、卷积神经网络模型以及支持向量机(SVM)分类器来进行机器学习,以找到目标对象可能所在的位置。选择性搜寻可考虑点云的空间分布、距离相似度、尺寸相似度与填充相似度等相似度演算,将局部特征从点云数据中分割出来,以成为至少一关注区域。被框选之关注区域可为一个或多个,本实施例不加以限定。同时,数据框选模块132只需针对目标对象可能所在的位置的关注区域进行粗框选,不需进一步判断对象的特征,相对减少演算时间。
此外,数据对齐模块134映射关注区域的坐标至二维影像111的坐标中,以使特征撷取模块136取得关注区域的坐标与二维影像111的坐标的对应关系。也就是说,将三维空间的坐标(x,y,z)映射至二维影像111的每个像素坐标中(pixel x,pixel y),其中pixel x表示对应X轴坐标的像素,pixely表示对应Y轴坐标的像素,z为深度信息。在本实施例中,数据对齐模块134只需将关注区域的坐标映射至二维影像111的坐标中,不需将所有的三维空间点云数据121映射至二维影像111的坐标中,以减少数据处理量。
此外,特征撷取模块136取得关注区域的坐标与二维影像111的坐标的对应关系之后,计算二维影像的特征,并由二维影像的特征中提取对应关注区域的坐标的至少一关注特征。也就是说,特征撷取模块136只对二维影像111的局部区域进行分析,以对二维影像111中对应“粗关注区域”的一关注特征进行特征提取。
另外,侦测模块138取得关注特征之后,可根据关注特征,对二维影像111中的一对象进行识别。同时,侦测模块138还能通过对象分割结果,在二维影像111上精确地得到对应此对象的一细关注区域,以缩小“粗关注区域”的范围。
请参照图3,其绘示依照本公开一实施例的基于机器学习的对象辨识方法的示意图。对象辨识方法包括下列步骤S11~S17。在步骤S11中,撷取二维影像111。在步骤S12中,撷取三维空间点云数据121。在步骤S13中,根据三维空间点云数据121进行对象分割,并进行深度识别,以框选至少一关注区域。被框选之关注区域可为一个或多个,本实施例不加以限定。在步骤S14中,映射关注区域的坐标至二维影像111的坐标中。在步骤S15中,计算二维影像111的特征,并由二维影像111的特征中提取对应关注区域的坐标的至少一关注特征。在步骤S16中,根据关注特征,对二维影像111中的至少一对象进行识别。
请参照图2及图4,其中图4绘示图3中基于机器学***面坐标的对应关系,以供后续映射关注区域的坐标至二维影像111的坐标中,以产生一映射数据。在步骤S151中,特征撷取模块136取得二维影像111与映射数据之后,计算二维影像的所有特征(但不用分析所有特征代表的含义),并由二维影像111的特征中提取对应关注区域的坐标的至少一关注特征(不需要对所有特征进行提取)。在步骤S161中,侦测模块138根据关注特征,对二维影像111中的至少一对象进行识别,且侦测模块138还可根据深度影像计算此对象的一深度信息。此外,在步骤S171中,当侦测模块138得知此对象的深度信息之后,还可重新定义二维影像111中对应此对象的一框选区域(即细框选区域),并以深度信息为一对象遮罩,去除二维影像111中对应框选区域的对象以外的一背景影像(即对象表面轮廓外的背景影像)。
也就是说,在步骤S171中,由于二维影像111中对应框选区域的对象以外的一背景影像已被去除,因此对象的关注特征更为明显,以排除二维影像111的背景对对象辨识度的影响,故能提高对象辨识准确率,例如高于93%以上。
本公开上述实施例所述的基于机器学习的对象辨识***及其方法,利用三维点云数据辅助二维影像识别网络,数据框选模块采用来自三维空间的点云数据来辅助二维影像的识别,是通过由三维空间的点云数据直接框选二维影像中对应关注区域的一关注特征,不需获得二维影像识别的数据后再转为三维点云数据与数据库进行比对,也不需将深度数据D与二维影像的RGB数据结合为RGB-D图像或将LIDAR数据与二维影像的RGB数据融合为RGB-LIDAR图像,因此可有效减少运算时间。同时,本实施例的对象辨识***及其方法能应用在无人车或自动化驾驶的领域中,除了可提高对象辨识速度之外,更可进一步提高对象辨识准确率,符合实时辨识的需求。
综上所述,虽然本公开已以实施例揭露如上,然其并非用以限定本公开。本公开所属技术领域中具有通常知识者,在不脱离本公开之精神和范围内,当可作各种的更动与润饰。因此,本公开的保护范围当视后附的申请专利范围所界定者为准。
Claims (7)
1.一种基于机器学习的对象辨识***,包括:
二维影像撷取模块,用以撷取二维影像;
三维空间撷取模块,用以撷取三维空间点云数据;
数据框选模块,根据该三维空间点云数据进行对象分割,并进行深度识别,以框选至少一关注区域;
数据对齐模块,映射该至少一关注区域的坐标至该二维影像的坐标中;
特征撷取模块,计算该二维影像的特征,并由该二维影像的特征中提取对应该至少一关注区域的坐标的至少一关注特征;以及
侦测模块,取得该至少一关注特征,并根据该至少一关注特征,对该二维影像中的至少一对象进行识别;
其中该数据框选模块将该三维空间点云数据转换至深度影像,并根据该深度影像进行对象分割;
其中该侦测模块以该深度影像为对象遮罩,去除该二维影像中对应该至少一关注区域的该至少一对象以外的背景影像。
2.根据权利要求1所述的对象辨识***,其中该数据对齐模块建立该三维空间点云数据的空间坐标与该二维影像的平面坐标的对应关系,以供映射该关注区域的坐标至该二维影像的坐标中,以产生映射数据。
3.根据权利要求1所述的对象辨识***,其中该侦测模块根据该深度影像计算该至少一对象的深度信息,重新定义该二维影像中对应该至少一对象的框选区域,并以该深度信息为对象遮罩,去除该二维影像中对应该框选区域的该至少一对象以外的背景影像。
4.一种基于机器学习的对象辨识方法,包括
撷取二维影像;
撷取三维空间点云数据;
根据该三维空间点云数据进行对象分割,并进行深度识别,以框选至少一关注区域;
映射该至少一关注区域的坐标至该二维影像的坐标中;以及
计算该二维影像的特征,并由该二维影像的特征中提取对应关注区域的坐标的至少一关注特征;以及
根据该关注特征,对该二维影像中的至少一对象进行识别;
其中,包括将该三维空间点云数据转换至深度影像,并根据该深度影像进行对象分割;
包括以该深度影像为对象遮罩,去除该二维影像中对应该关注区域的该对象以外的背景影像。
5.根据权利要求4所述的对象辨识方法,包括建立该三维空间点云数据的空间坐标与该二维影像的平面坐标的对应关系,以供映射该关注区域的坐标至该二维影像的坐标中,以产生映射数据。
6.根据权利要求4所述的对象辨识方法,更包括根据该深度影像计算该至少一对象的深度信息。
7.根据权利要求6所述的对象辨识方法,更包括重新定义该二维影像中对应该至少一对象的框选区域,并以该深度信息为对象遮罩,去除该二维影像中对应该框选区域的该至少一对象以外的背景影像。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW108142344A TWI759651B (zh) | 2019-11-21 | 2019-11-21 | 基於機器學習的物件辨識系統及其方法 |
TW108142344 | 2019-11-21 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112825192A CN112825192A (zh) | 2021-05-21 |
CN112825192B true CN112825192B (zh) | 2023-10-17 |
Family
ID=75907754
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911278275.0A Active CN112825192B (zh) | 2019-11-21 | 2019-12-12 | 基于机器学习的对象辨识***及其方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11288828B2 (zh) |
CN (1) | CN112825192B (zh) |
TW (1) | TWI759651B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220187076A1 (en) * | 2020-12-11 | 2022-06-16 | Hitachi, Ltd. | Guided inspection with object recognition models and navigation planning |
CN112767418B (zh) * | 2021-01-21 | 2022-10-14 | 大连理工大学 | 基于深度感知的镜子图像分割方法 |
CN113781389A (zh) * | 2021-07-27 | 2021-12-10 | 武汉市异方体科技有限公司 | 一种基于深度图的多视角货物掩膜方法 |
CN113808096B (zh) * | 2021-09-14 | 2024-01-30 | 成都主导软件技术有限公司 | 一种非接触式的螺栓松动检测方法及其*** |
US20240037189A1 (en) * | 2022-07-29 | 2024-02-01 | Plusai, Inc. | Data augmentation by manipulating object contents |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140141174A (ko) * | 2013-05-31 | 2014-12-10 | 한국과학기술원 | 3차원 객체 인식을 위한 rgb-d 영상 기반 객체 구역화 및 인식 방법 및 장치 |
CN108010036A (zh) * | 2017-11-21 | 2018-05-08 | 江南大学 | 一种基于rgb-d相机的物体对称轴检测方法 |
CN109658398A (zh) * | 2018-12-12 | 2019-04-19 | 华中科技大学 | 一种基于三维测量点云的零件表面缺陷识别与评估方法 |
CN110263652A (zh) * | 2019-05-23 | 2019-09-20 | 杭州飞步科技有限公司 | 激光点云数据识别方法及装置 |
CN110414577A (zh) * | 2019-07-16 | 2019-11-05 | 电子科技大学 | 一种基于深度学习的激光雷达点云多目标地物识别方法 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9619691B2 (en) * | 2014-03-07 | 2017-04-11 | University Of Southern California | Multi-view 3D object recognition from a point cloud and change detection |
CN107918753B (zh) * | 2016-10-10 | 2019-02-22 | 腾讯科技(深圳)有限公司 | 点云数据处理方法及装置 |
US20180300531A1 (en) * | 2017-04-17 | 2018-10-18 | Htc Corporation | Computer-implemented 3d model analysis method, electronic device, and non-transitory computer readable storage medium |
JP6865110B2 (ja) * | 2017-05-31 | 2021-04-28 | Kddi株式会社 | オブジェクト追跡方法および装置 |
US11392133B2 (en) | 2017-06-06 | 2022-07-19 | Plusai, Inc. | Method and system for object centric stereo in autonomous driving vehicles |
IT201700064268A1 (it) * | 2017-06-09 | 2018-12-09 | Mectho S R L | Dispositivo e procedimento di rilevazione |
CN107576960B (zh) | 2017-09-04 | 2021-03-16 | 赵建辉 | 视觉雷达时空信息融合的目标检测方法及*** |
CN108460348B (zh) | 2018-02-12 | 2022-04-22 | 杭州电子科技大学 | 基于三维模型的道路目标检测方法 |
CN109102547A (zh) | 2018-07-20 | 2018-12-28 | 上海节卡机器人科技有限公司 | 基于物体识别深度学习模型的机器人抓取位姿估计方法 |
CN109523552B (zh) | 2018-10-24 | 2021-11-02 | 青岛智能产业技术研究院 | 基于视锥点云的三维物体检测方法 |
US10846818B2 (en) * | 2018-11-15 | 2020-11-24 | Toyota Research Institute, Inc. | Systems and methods for registering 3D data with 2D image data |
US11494937B2 (en) * | 2018-11-16 | 2022-11-08 | Uatc, Llc | Multi-task multi-sensor fusion for three-dimensional object detection |
CN109858450B (zh) | 2019-02-12 | 2020-10-23 | 中国科学院遥感与数字地球研究所 | 一种十米级空间分辨率遥感影像城镇提取方法及*** |
-
2019
- 2019-11-21 TW TW108142344A patent/TWI759651B/zh active
- 2019-12-12 CN CN201911278275.0A patent/CN112825192B/zh active Active
-
2020
- 2020-01-17 US US16/745,640 patent/US11288828B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140141174A (ko) * | 2013-05-31 | 2014-12-10 | 한국과학기술원 | 3차원 객체 인식을 위한 rgb-d 영상 기반 객체 구역화 및 인식 방법 및 장치 |
CN108010036A (zh) * | 2017-11-21 | 2018-05-08 | 江南大学 | 一种基于rgb-d相机的物体对称轴检测方法 |
CN109658398A (zh) * | 2018-12-12 | 2019-04-19 | 华中科技大学 | 一种基于三维测量点云的零件表面缺陷识别与评估方法 |
CN110263652A (zh) * | 2019-05-23 | 2019-09-20 | 杭州飞步科技有限公司 | 激光点云数据识别方法及装置 |
CN110414577A (zh) * | 2019-07-16 | 2019-11-05 | 电子科技大学 | 一种基于深度学习的激光雷达点云多目标地物识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112825192A (zh) | 2021-05-21 |
TW202121331A (zh) | 2021-06-01 |
US11288828B2 (en) | 2022-03-29 |
TWI759651B (zh) | 2022-04-01 |
US20210158556A1 (en) | 2021-05-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112825192B (zh) | 基于机器学习的对象辨识***及其方法 | |
CN110175576B (zh) | 一种结合激光点云数据的行驶车辆视觉检测方法 | |
US20230014874A1 (en) | Obstacle detection method and apparatus, computer device, and storage medium | |
CN112396650B (zh) | 一种基于图像和激光雷达融合的目标测距***及方法 | |
EP2811423B1 (en) | Method and apparatus for detecting target | |
Teoh et al. | Symmetry-based monocular vehicle detection system | |
CN113506318B (zh) | 一种车载边缘场景下的三维目标感知方法 | |
EP2813973B1 (en) | Method and system for processing video image | |
CN115049700A (zh) | 一种目标检测方法及装置 | |
CN103310194A (zh) | 视频中基于头顶像素点梯度方向的行人头肩部检测方法 | |
CN114359181B (zh) | 一种基于图像和点云的智慧交通目标融合检测方法及*** | |
Wang et al. | An overview of 3d object detection | |
CN113989784A (zh) | 一种基于车载激光点云的道路场景类型识别方法及*** | |
CN114495064A (zh) | 一种基于单目深度估计的车辆周围障碍物预警方法 | |
CN106446785A (zh) | 基于双目视觉的可行道路检测方法 | |
Li et al. | Road markings extraction based on threshold segmentation | |
CN117058646B (zh) | 基于多模态融合鸟瞰图的复杂道路目标检测方法 | |
CN112683228A (zh) | 单目相机测距方法及装置 | |
CN113408324A (zh) | 目标检测方法、装置及***、高级驾驶辅助*** | |
CN114359876A (zh) | 一种车辆目标识别方法及存储介质 | |
CN110675442B (zh) | 一种结合目标识别技术的局部立体匹配方法及*** | |
WO2017161544A1 (zh) | 一种基于单摄像头视频序列匹配的车辆测速方法及其*** | |
CN114463713A (zh) | 一种车辆在3d空间的信息检测方法、装置及电子设备 | |
CN112733678A (zh) | 测距方法、装置、计算机设备和存储介质 | |
Giosan et al. | Superpixel-based obstacle segmentation from dense stereo urban traffic scenarios using intensity, depth and optical flow information |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |