CN102930246B - 一种基于点云片段分割的室内场景识别方法 - Google Patents
一种基于点云片段分割的室内场景识别方法 Download PDFInfo
- Publication number
- CN102930246B CN102930246B CN201210393488.XA CN201210393488A CN102930246B CN 102930246 B CN102930246 B CN 102930246B CN 201210393488 A CN201210393488 A CN 201210393488A CN 102930246 B CN102930246 B CN 102930246B
- Authority
- CN
- China
- Prior art keywords
- scene
- information
- classification
- represent
- point cloud
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 34
- 239000012634 fragment Substances 0.000 title claims abstract description 16
- 230000011218 segmentation Effects 0.000 claims description 19
- 238000004040 coloring Methods 0.000 claims description 6
- 230000001174 ascending effect Effects 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
Landscapes
- Image Analysis (AREA)
Abstract
本发明涉及一种基于点云片段分割的室内场景识别方法,该方法包括以下步骤:结合图论方法,根据三维点云的平面法向量和颜色信息对三维点云图像进行场景预分割,将图像分割成为不同点云片段,且保证每个片段属于不同的物体;构建一个同时合并和识别的概率模型框架对点云片段进行合并和物体分类,实现对场景空间中不同物体的识别;采用融合语义信息和拓扑关系的场景空间层次模型来表示场景空间的图像特征、物体类别、物体间的关系及场景所在的区域信息,并构建一个基于有向图的场景空间信息推理模型获得场景的空间语义信息。与现有技术相比,本发明具有识别精确、操作简便等优点。
Description
技术领域
本发明涉及一种场景识别方法,尤其是涉及一种基于点云片段分割的室内场景识别方法。
背景技术
随着机器人技术的发展、机器人应用领域也开始从传统的工厂制造领域拓展到家庭、医院、老年关怀中心、军事、旅游、运输、勘探、抢险救灾等现场和服务领域。这类环境的特征往往是不确定的或者变化的,机器人如何感知与理解环境成为一个挑战,而机器人环境感知和理解的基础和核心问题就是场景识别。对于场景识别问题,常用的方法有Spatial Envelope场景描述子(也被称为场景的Gist)方法,对场景图像的自然度、开放度、粗糙度等特性进行描述,舍弃了识别物体的过程,通过直接对场景全局特征分类进行场景识别。这种场景识别方法由于不需要进行图像分割和物体识别过程,因而得到了广泛的应用。另一种思路是通过首先提取图像局部特征算子,再形成图像的全局描述。近年来,局域不变特征算子如SIFT(ScaleInvariant Feature Transform)、SURF(Speed Up Robust Features)等在机器人视觉中开始广泛应用,词包模型(Bag-of-Word,BoW)图像分类以及图像匹配开始兴起,其衍生出的许多方法在场景识别领域也取得了不错的效果。还有一些方法使用生成模型(Generative Model)引入隐含变量(latent variable)对场景进行建模,图像由一些局部特征的集合来表示,同时每一块区域都被赋予了一种“主题”,通过Graphical model的推演来判断场景的类别。随机潜在语义分析(probabilistic Latent SemanticAnalysis,pLSA)方法通过学习图片的向量描述,利用支持向量机(SVM)或者K近邻(KNN)算法对场景进行识别。
以上场景识别方法主要是通过对场景全局或局部基本特征的提取,生成图像描述对整个场景建模,然后进行识别。实际上,一个特定的场景是由很多不同的物体组成,现有方法更多的考虑到了场景特征的统计特性而较少关心场景中的物体语义,或者区域的空间分布与关系;场景和物体通常作为独立的部分或者只是建立了简单的对应关系,还没有形成一套完善的模型体系。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种识别精确、操作简便的基于点云片段分割的室内场景识别方法。
本发明的目的可以通过以下技术方案来实现:
一种基于点云片段分割的室内场景识别方法,该方法包括以下步骤:
步骤一,结合图论方法,根据三维点云的平面法向量和颜色信息对三维点云图像进行场景预分割,将图像分割成为不同点云片段,且保证每个片段属于不同的物体;
步骤二,构建一个同时合并和识别的概率模型框架对点云片段进行合并和物体分类,实现对场景空间中不同物体的识别;
步骤三,采用融合语义信息和拓扑关系的场景空间层次模型来表示场景空间的图像特征、物体类别、物体间的关系及场景所在的区域信息,并构建一个基于有向图的场景空间信息推理模型获得场景的空间语义信息。
所述的场景预分割具体包括以下步骤:
1)构建一个无向图G(V,E),其中V表示图中的顶点,每一个顶点代表场景空间中的一个数据点,每个点vi=(xi,yi,zi,ri,gi,bi,nxi,nyi,nzi),包括点的几何坐标(X,Y,Z)、颜色信息(R,G,B)和法向量(NX,NY,NZ),(NX,NY,NZ)(NX,NY,NZ)T=1;E表示相邻两个点之间的边eij=(vi,vj),用d(eij)和w(eij)分别表示边的法向量权值和颜色权值,d(eij)=1-|nxi·nxj+nyi·nyj+nzi·nzj|,
2)对E中所有的边,按d(eij)的值进行升序排列,然后依次检查每条边,如果边上的权值满足d(eij)≤Td且w(eij)≤Tw,则将边上的两个顶点分割为同一个区域,其中Td和Tw分别为合并边上两个顶点的法向量阈值和颜色阈值。
所述的同时合并和识别的概率模型框架具体为:
其中,si和sj为相邻的两个区域片段,D表示相应的数据特征,它们相应的类别分别为xi和xj,si+j表示两个区域片段的联合,xi+j为相应的区域类别,l∈L,L表示物体的类别;P(si+j|D)表示区域片段si和sj合并的概率,P(xi=l|si,D)和P(xj=l|sj,D)分别表示区域片段si和sj属于物体类别l的概率;P(si+j|xi+j=l,D)表示当物体类别均为l时,区域片段si和sj合并为单一区域片段的概率;
对于每一个数据片段si,相应的数据特征D=d1,d2,…,依次表示数据片段的平面度、平面法向量与垂直地面法向量的差值、数据点的个数、最大长度、最大宽度、最大高度和颜色直方图,则P(xi=l|si,D)可以表示为
其中P(xi=l)表示物体类别l的先验概率;P(dk|xi=l)表示物体类别为l时数据特征dk的似然概率;Z是归一化常数,
所述的拓扑关系包括场景中物体之间的相对位置关系和物体间精确的距离关系;所述的语义信息包括场景中物体的类别及属性关系信息。
与现有其他方法主要通过对场景全局或局部基本特征的提取,生成图像描述对整个场景建模并进行场景识别不同,本发明通过点云片段分割和同时合并与识别的概率模型框架对室内场景空间中的物体进行识别,然后通过场景空间层次模型和基于有向图的场景空间信息推理模型识别场景,形成了一套完善的模型体系,能够精确识别场景空间中的各个物体,识别操作简便。
附图说明
图1为本发明中场景空间层次模型的示意图;
图2为本发明中场景空间信息推理模型的示意图。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。
实施例
一种基于点云片段分割的室内场景识别方法,该方法包括以下步骤:
步骤一,结合图论方法,根据三维点云的平面法向量和颜色信息对三维点云图像进行场景预分割,将图像分割成为不同点云片段,且保证每个片段属于不同的物体。室内场景空间中包含很多物体,如墙壁、门、地板、天花板、桌子、椅子等,为了获取场景中的语义信息,更好的理解环境,场景分割是必不可少的先决条件。
所述的场景预分割具体包括以下步骤:
1)构建一个无向图G(V,E),其中V表示图中的顶点,每一个顶点代表场景空间中的一个数据点,每个点vi=(xi,yi,zi,ri,gi,bi,nxi,nyi,nzi),包括点的几何坐标(X,Y,Z)、颜色信息(R,G,B)和法向量(NX,NY,NZ),(NX,NY,NZ)(NX,NY,NZ)T=1;E表示相邻两个点之间的边eij=(vi,vj),用d(eij)和w(eij)分别表示边的法向量权值和颜色权值,d(eij)=1-|nxi·nxj+nyi·nyj+nzi·nzj|,
2)对E中所有的边,按d(eij)的值进行升序排列,然后依次检查每条边,如果边上的权值满足d(eij)≤Td且w(eij)≤Tw,则将边上的两个顶点分割为同一个区域,其中Td和Tw分别为合并边上两个顶点的法向量阈值和颜色阈值。这样,就把三维点云数据分割为不同的片段,通过对合并阈值的调节,保证每个片段属于同一个物体,不同的物体上的点不要出现在同一个片段上。
步骤二,构建一个同时合并和识别的概率模型框架对点云片段进行合并和物体分类,实现对场景空间中不同物体的识别。
所述的同时合并和识别的概率模型框架具体为:
用L表示物体的类别,x=l∈L表示区域片段的类别,用s表示区域片段,D表示相应的数据特征,则可通过计算片段s和类别x的联合概率P(s,x|D)来同时判断是否需要合并相邻的片段和识别片段的类型。
设si和sj为相邻的两个区域片段,它们相应的类别分别为xi和xj,用si+j表示两个区域片段的联合,xi+j为相应的区域类别,用P(si+j|D)表示区域片段si和sj合并的概率:
其中,P(xi=l|si,D)和P(xj=l|sj,D)分别表示区域片段si和sj属于物体类别l的概率;P(si+j|xi+j=l,D)表示当物体类别均为l时,区域片段si和sj合并为单一区域片段的概率;
对于每一个数据片段si,相应的数据特征D=d1,d2,…,依次表示数据片段的平面度、平面法向量与垂直地面法向量的差值、数据点的个数、最大长度、最大宽度、最大高度和颜色直方图,则P(xi=l|si,D)可以表示为
其中P(xi=l)表示物体类别l的先验概率;P(dk|xi=l)表示物体类别为l时数据特征dk的似然概率;Z是归一化常数,
当物体的类别x已知时,区域s是单一物体类别的概率P(s|x=l,D)可以根据相关的先验知识计算,如当类别x为墙壁时,区域是单一物体类别的概率就和区域的平面度和平面法向量与垂直地面法向量的差值成正比。
步骤三,采用融合语义信息和拓扑关系的场景空间层次模型来表示场景空间的图像特征、物体类别、物体间的关系及场景所在的区域信息,并构建一个基于有向图的场景空间信息推理模型获得场景的空间语义信息。
场景空间中的图像特征、物体类别、物体间的关系、场景所在的区域信息等如何表达是空间信息描述的基础。为了更好的理解场景,需要建立一种多层次的场景模型,将场景的图像特征、物体类别、物体之间的关系、场景所在的区域等信息结合在一起,有效的表达场景,并可以在该模型下进行场景推理。本实施例采用一种融合拓扑关系和语义信息的场景空间层次模型,能够有效描述场景的图像特征、物体的属性与类别、物体之间的拓扑关系和场景的位置语义等信息,并可以在该模型下进行场景推理。如图1所示场景空间层次模型,它包含了场景的拓扑关系、语义关系和位置类别三部分。拓扑关系表示场景中物体之间的相对位置关系,主要包括前、后、左、右、上、下、平行、垂直等关系,如桌子在柜子的左后方,柜子在地方上且离墙壁的距离很近等。同时,拓扑关系中还包含物体间精确的距离关系,如桌子距离门1m等,这些信息能够为场景识别推理提供有力的证据。语义关系描述场景中物体的类别及属性关系信息,主要是is-a和part-of关系,如房间中的桌子、柜子可以归为家具一类;墙壁、门、地板是房间的框架信息;家具和框架又可以归为室内物体一类;通过物体之间的属性关系可以判断物体的识别是否准确、场景的推断是否合理。最后,通过物体之间的拓扑关系和物体类别及属性关系可以推断出物体所在的场景,即场景的语义。
基于上述场景空间层次模型,本发明通过监督学习识别物体,并构建一个有向图模型推理场景语义信息。基于有向图的场景空间信息推理模型如图2所示,其中q表示场景的位置语义,O表示场景中的物体,S表示场景中物体的位置,A表示场景中物体的外观特征,G表示场景中的几何特征,V表示场景中的基本图像特征,图中的外框表示场景中的所有物体,内框表示每个物体的多个特征。我们可以看到,在该模型中场景q生成很多的物体O,每个物体O包括外观特征A和位置S,同时每个特征A和位置S分别对应多个特征G和V,场景中物体的数量可以用N表示,每个物体的基本特征数量可以用n表示。
根据该模型,首先用有监督地学习场景中的单个物体模型,然后利用贝叶斯原理计算位置和物体的联合后验概率分布:
P(q,O,S|A,Z)=P(O,S|A,Z)P(q|O,S,A,Z)
其中Z={G,V}。上式右侧两部分中,前一部分为位置模型,后一部分为语义识别,位置模型推断物体和它们的位置,语义识别根据场景中的物体推断出场景的语义标签。通过该推理模型,根据学习到的物体模型、场景的基本几何特征和图像特征,可以推断出物体的种类,物体的位置关系,并最终可以推断出场景的语义信息。
Claims (3)
1.一种基于点云片段分割的室内场景识别方法,其特征在于,该方法包括以下步骤:
步骤一,结合图论方法,根据三维点云的平面法向量和颜色信息对三维点云图像进行场景预分割,将图像分割成为不同点云片段,且保证每个片段属于不同的物体;
步骤二,构建一个同时合并和识别的概率模型框架对点云片段进行合并和物体分类,实现对场景空间中不同物体的识别;
步骤三,采用融合语义信息和拓扑关系的场景空间层次模型来表示场景空间的图像特征、物体类别、物体间的关系及场景所在的区域信息,并构建一个基于有向图的场景空间信息推理模型获得场景的空间语义信息;
所述的场景预分割具体包括以下步骤:
1)构建一个无向图G(V,E),其中V表示图中的顶点,每一个顶点代表场景空间中的一个数据点,每个点vi=(xi,yi,zi,ri,gi,bi,nxi,nyi,nzi),包括点的几何坐标(X,Y,Z)、颜色信息(R,G,B)和法向量(NX,NY,NZ),(NX,NY,NZ)(NX,NY,NZ)T=1;E表示相邻两个点之间的边eij=(vi,vj),用d(eij)和w(eij)分别表示边的法向量权值和颜色权值,d(eij)=1-|nxi·nxj+nyi·nyj+nzi·nzj|,
2)对E中所有的边,按d(eij)的值进行升序排列,然后依次检查每条边,如果边上的权值满足d(eij)≤Td且w(eij)≤Tw,则将边上的两个顶点分割为同一个区域,其中Td和Tw分别为合并边上两个顶点的法向量阈值和颜色阈值。
2.根据权利要求1所述的一种基于点云片段分割的室内场景识别方法,其特征在于,所述的同时合并和识别的概率模型框架具体为:
其中,si和sj为相邻的两个区域片段,D表示相应的数据特征,它们相应的类别分别为xi和xj,si+j表示两个区域片段的联合,xi+j为相应的区域类别,l∈L,L表示物体的类别;P(si+j|D)表示区域片段si和sj合并的概率,P(xi=l|si,D)和P(xj=l|sj,D)分别表示区域片段si和sj属于物体类别l的概率;P(si+j|xi+j=l,D)表示当物体类别均为l时,区域片段si和sj合并为单一区域片段的概率;
对于每一个数据片段si,相应的数据特征D=d1,d2,…,依次表示数据片段的平面度、平面法向量与垂直地面法向量的差值、数据点的个数、最大长度、最大宽度、最大高度和颜色直方图,则P(xi=l|si,D)表示为
其中P(xi=l)表示物体类别l的先验概率;P(dk|xi=l)表示物体类别为l时数据特征dk的似然概率;Z是归一化常数,
3.根据权利要求1所述的一种基于点云片段分割的室内场景识别方法,其特征在于,所述的拓扑关系包括场景中物体之间的相对位置关系和物体间精确的距离关系;所述的语义信息包括场景中物体的类别及属性关系信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210393488.XA CN102930246B (zh) | 2012-10-16 | 2012-10-16 | 一种基于点云片段分割的室内场景识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210393488.XA CN102930246B (zh) | 2012-10-16 | 2012-10-16 | 一种基于点云片段分割的室内场景识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102930246A CN102930246A (zh) | 2013-02-13 |
CN102930246B true CN102930246B (zh) | 2015-04-08 |
Family
ID=47645043
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201210393488.XA Active CN102930246B (zh) | 2012-10-16 | 2012-10-16 | 一种基于点云片段分割的室内场景识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102930246B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109034077A (zh) * | 2018-08-01 | 2018-12-18 | 湖南拓视觉信息技术有限公司 | 一种基于多尺度特征学习的三维点云标记方法和装置 |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103500176B (zh) * | 2013-09-06 | 2016-08-31 | 清华大学 | 片网模型及其构建方法 |
CN104867094B (zh) * | 2014-02-20 | 2018-11-13 | 联想(北京)有限公司 | 一种图像处理的方法及电子设备 |
CN104091321B (zh) * | 2014-04-14 | 2016-10-19 | 北京师范大学 | 适用于地面激光雷达点云分类的多层次点集特征的提取方法 |
CN103914875B (zh) * | 2014-04-17 | 2016-07-06 | 中国科学院深圳先进技术研究院 | 室内场景的功能性建模方法 |
CN104298971B (zh) * | 2014-09-28 | 2017-09-19 | 北京理工大学 | 一种3d点云数据中的目标识别方法 |
CN105740777B (zh) * | 2016-01-25 | 2019-06-25 | 联想(北京)有限公司 | 信息处理方法及装置 |
US10795725B2 (en) * | 2016-03-24 | 2020-10-06 | Fuji Xerox Co., Ltd. | Image processing device, image processing method, and non-transitory computer readable medium for image processing |
CN107247926B (zh) * | 2017-05-19 | 2019-09-17 | 浙江大华技术股份有限公司 | 一种人体检测方法及装置 |
CN107424166B (zh) * | 2017-07-18 | 2020-05-19 | 深圳市速腾聚创科技有限公司 | 点云分割方法及装置 |
CN107832795B (zh) * | 2017-11-14 | 2021-07-27 | 深圳码隆科技有限公司 | 物品识别方法、***以及电子设备 |
WO2019232782A1 (zh) * | 2018-06-08 | 2019-12-12 | 深圳蓝胖子机器人有限公司 | 一种物体特征的识别方法、视觉识别装置及机器人 |
EP3614299A1 (de) * | 2018-08-21 | 2020-02-26 | Siemens Aktiengesellschaft | Verfahren und anordnung zum erkennen von objekten an anlagen |
US10878580B2 (en) * | 2018-10-15 | 2020-12-29 | Tusimple, Inc. | Point cluster refinement processing of image data for LiDAR-based vehicle tracking system and method |
CN109800802A (zh) * | 2019-01-10 | 2019-05-24 | 深圳绿米联创科技有限公司 | 视觉传感器及应用于视觉传感器的物体检测方法和装置 |
CN110223297A (zh) * | 2019-04-16 | 2019-09-10 | 广东康云科技有限公司 | 基于扫描点云数据的分割与识别方法、***及存储介质 |
CN110516751A (zh) * | 2019-08-29 | 2019-11-29 | 上海交通大学 | 三维数据的处理方法、***及设备 |
US11640708B1 (en) | 2020-04-16 | 2023-05-02 | Apple Inc. | Scene graph-based scene re-identification |
CN112287790A (zh) * | 2020-10-20 | 2021-01-29 | 北京字跳网络技术有限公司 | 影像处理方法、装置、存储介质及电子设备 |
CN112633064B (zh) * | 2020-11-19 | 2023-12-15 | 深圳银星智能集团股份有限公司 | 一种场景识别方法和电子设备 |
CN112904437B (zh) * | 2021-01-14 | 2023-03-24 | 支付宝(杭州)信息技术有限公司 | 基于隐私保护的隐藏组件的检测方法及隐藏组件检测装置 |
CN112767424B (zh) * | 2021-04-08 | 2021-07-13 | 深圳大学 | 一种基于室内三维点云空间自动剖分方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101877128A (zh) * | 2009-12-23 | 2010-11-03 | 中国科学院自动化研究所 | 一种三维场景中不同物体的分割方法 |
-
2012
- 2012-10-16 CN CN201210393488.XA patent/CN102930246B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101877128A (zh) * | 2009-12-23 | 2010-11-03 | 中国科学院自动化研究所 | 一种三维场景中不同物体的分割方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109034077A (zh) * | 2018-08-01 | 2018-12-18 | 湖南拓视觉信息技术有限公司 | 一种基于多尺度特征学习的三维点云标记方法和装置 |
CN109034077B (zh) * | 2018-08-01 | 2021-06-25 | 湖南拓视觉信息技术有限公司 | 一种基于多尺度特征学习的三维点云标记方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN102930246A (zh) | 2013-02-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102930246B (zh) | 一种基于点云片段分割的室内场景识别方法 | |
Yang et al. | Learning object bounding boxes for 3d instance segmentation on point clouds | |
Martinovic et al. | 3d all the way: Semantic segmentation of urban scenes from start to end in 3d | |
Ren et al. | Three-dimensional object detection and layout prediction using clouds of oriented gradients | |
Zhang et al. | Estimating the 3d layout of indoor scenes and its clutter from depth sensors | |
Bazazian et al. | Fast and robust edge extraction in unorganized point clouds | |
Chen et al. | 3d object proposals for accurate object class detection | |
Floros et al. | Joint 2d-3d temporally consistent semantic segmentation of street scenes | |
Martinović et al. | A three-layered approach to facade parsing | |
Koppula et al. | Semantic labeling of 3d point clouds for indoor scenes | |
US8175412B2 (en) | Method and apparatus for matching portions of input images | |
CN104899883B (zh) | 一种深度图像场景的室内对象立方体检测方法 | |
Yang et al. | Efficient plane extraction using normal estimation and RANSAC from 3D point cloud | |
Liu et al. | 3D Point cloud analysis | |
Redondo-Cabrera et al. | All together now: Simultaneous object detection and continuous pose estimation using a hough forest with probabilistic locally enhanced voting | |
Khan et al. | Separating objects and clutter in indoor scenes | |
CN110111365B (zh) | 基于深度学习的训练方法和装置以及目标跟踪方法和装置 | |
CN106022359A (zh) | 基于有序信息熵的模糊熵空间聚类分析方法 | |
Hu | Learning 3D object templates by hierarchical quantization of geometry and appearance spaces | |
Gomez-Donoso et al. | Three-dimensional reconstruction using SFM for actual pedestrian classification | |
Ran et al. | Normal estimation algorithm for point cloud using KD-Tree | |
CN110264562A (zh) | 颅骨模型特征点自动标定方法 | |
Lim et al. | Integration of Vehicle Detection and Distance Estimation using Stereo Vision for Real-Time AEB System. | |
Kang et al. | Robust data association for object-level semantic slam | |
Luo et al. | Scene-layout compatible conditional random field for classifying terrestrial laser point clouds |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |