CN106529394B - 一种室内场景物体同时识别与建模方法 - Google Patents

一种室内场景物体同时识别与建模方法 Download PDF

Info

Publication number
CN106529394B
CN106529394B CN201610832845.6A CN201610832845A CN106529394B CN 106529394 B CN106529394 B CN 106529394B CN 201610832845 A CN201610832845 A CN 201610832845A CN 106529394 B CN106529394 B CN 106529394B
Authority
CN
China
Prior art keywords
feature
dimensional
similarity
identified
fpfh
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610832845.6A
Other languages
English (en)
Other versions
CN106529394A (zh
Inventor
曾碧
陈佳洲
黄文�
曹军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong University of Technology
Original Assignee
Guangdong University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong University of Technology filed Critical Guangdong University of Technology
Priority to CN201610832845.6A priority Critical patent/CN106529394B/zh
Publication of CN106529394A publication Critical patent/CN106529394A/zh
Application granted granted Critical
Publication of CN106529394B publication Critical patent/CN106529394B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/653Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种室内场景物体同时识别与建模方法,包括步骤:输入RGB‑D图像;物体分割;提取SIFT特征和FPFH特征;SIFT特征和FPFH特征融合;物体识别;物体建模。其中物体建模是计算物体部分之间的位姿关系并且设定一个阈值,如果位姿变化小于阈值,则将两个物体部分进行融合,并且在视图图中作为一个节点,否则,两个物体部分都保留到视图图中,即为两个节点。与现有技术相比,本发明可以实现物体在线识别和建模,并且提出了改进的视图图方法,减少数据冗余,降低了数据存储负担,提高了识别效率。

Description

一种室内场景物体同时识别与建模方法
技术领域
本发明涉及信息处理领域,尤其涉及一种室内场景物体同时识别与建模方法。
背景技术
目前,在机器人物体识别和场景理解研究领域中,大量算法研究都集中在通过将测试图片与训练数据集匹配或通过训练分类器达到识别的目的,并且一般都不会考虑到物体的姿态问题。如梁明杰等人提出了基于视图图的物体模型表示方法,并在该物体表示的基础上给出物体的概率观测模型,最后将识别与建模归结为概率推理,并通过最大似然估计实现了识别与建模的同时最优化;Alvaro Collet Romea提出了基于约束框架的室内物体识别与建模方法,这个方法可以自动的处理整个视频数据流,并且发现物体,最主要的特点是加入了约束框架,可以通过数学方式将日常生活中的某些约束融入到框架中去,可以根据场景的不同添加、减少或改变约束条件,增加物体识别率和物体识别效率。
但是,在很多物体识别应用中都会用到精确的姿态信息,例如机器人操作,路径规划,增强现实等等,并且算法需要训练数据,所以无法达到在线识别效果,严重影响了机器人在室内场景中的性能。在建模方面,机器人长时间在室内环境中行走,室内物体的观察部分会经常被获取到,从而使得建立的模型产生冗余数据,机器人行走的时间越长,获取同一个物体的观察数据越多,建立的物体模型就越大,冗余数据也会增多,这不仅不利于物体建模和数据存储,还对后期物体识别效率产生不良的影响。
发明内容
为克服现有技术的不足,实现物体在线识别与建模,并且解决数据冗余问题,降低存储器负担,有效提高识别效率,本发明提出一种室内场景物体同时识别与建模方法。
本发明的技术方案是这样实现的:
一种室内场景物体同时识别与建模方法,包括步骤S1:输入RGB-D图像;
S2:物体分割;
S3:提取SIFT特征和FPFH特征;
S4:SIFT特征和FPFH特征融合,物体识别;
S5:物体建模,计算物体部分之间的位姿关系并且设定一个阈值,如果位姿变化小于阈值,则将两个物体部分进行融合,并且在视图图中作为一个节点,否则,两个物体部分都保留到视图图中,即为两个节点。
进一步地,所述步骤S2包括步骤
S21:采用RANSAC方法提取平面点云;
S22:剔除与物体数据无关的点云;
S23:通过欧式距离聚类算法获得物体点云;
S24:将点云数据映射回RGB-D图像.
进一步地:步骤S3包括步骤
S31:采用SIFT特征提取方法提取物体二维局部特征点和特征描述子;
S32:将所述二维局部特征点映射到三维空间中,获得三维特征点;
S33:使用FPFH算法,生成三维特征描述子。
进一步地,步骤S4包括步骤
S41:采用RANSAC算法剔除一些错误的匹配点;
S42:计算待识别物体与物体模型之间的二维特征配准距离;
S43:计算待识别物体与物体模型之间三维特征配准距离;
S44:融合物体二维信息与三维信息,并且保存相似度结果;
S45:对所有的相似度结果做比较,取出相似度最大的结果作为本次物体识别的最终结果。
本发明的有益效果在于,与现有技术相比,本发明可以实现物体在线识别和建模,并且提出了改进的视图图方法,减少了数据冗余,降低了数据存储负担,提高了识别效率。
附图说明
图1是本发明室内场景物体同时识别与建模方法流程图。
图2是本发明一个实施例的原始点云图。
图3是图2滤波后的点云图。
图4是本发明一个实施例RANSAC分割点云图。
图5是聚类分割点云图。
图6是分割前的物体图。
图7是图6经过分割后的物体图。
图8是部分错误点配准结果示意图。
图9是图8采用RANSAC算法剔除一些错误的匹配点后配准结果示意图。
图10是错误配准结果示意图。
图11是图10三维配准结果示意图。
图12融合二维和三维信息的识别算法流程图。
图13为视图图模型示意图。
图14为图13改进的视图图模型示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参见图1,一种室内场景物体同时识别与建模方法,包括步骤S1:输入RGB-D图像;
S2:物体分割;
S3:提取SIFT特征和FPFH特征;
S4:SIFT特征和FPFH特征融合,物体识别;
S5:物体建模,计算物体部分之间的位姿关系并且设定一个阈值,如果位姿变化小于阈值,则将两个物体部分进行融合,并且在视图图中作为一个节点,否则,两个物体部分都保留到视图图中,即为两个节点。
步骤S2中,首先,通过RGB图像和深度图像计算点云数据C,如图2所示。由于获得的点云数据太大,对后期分割、识别等操作产生影响,于是通过体素化网格方法实现下采样,减少点云数据,如图3所示。为了获取场景中的物体,本文采用RANSAC方法(随机抽样一致性算法)提取平面点云,由于平面点云一般为桌面或墙面等与物体数据无关的点云,所以可以将其剔除,如图4所示。由图4可以看出剩下的点云包括物体和噪声,最后通过欧式距离聚类算法获得物体点云{Cm},m=1,…M,如图5所示。点云数据映射回RGB图可以得到分割后的物体RGB图{Im},m=1,…M,如图6、7所示。于是可以将分割后的物体表示为{Im,Cm},m=1,…M。
步骤S3中,对于每一帧场景图都可以分割出一系列物体{Im,Cm},我们采用SIFT(尺度不变特征变换)特征提取方法在RGB图Im中提取物体二维局部特征点和特征描述子{Xmr,Smr},将二维局部特征点映射到三维空间中,获得三维特征点,并且运用FPFH(快速点特征直方图)算法生成三维特征描述子{Zmr,Fmr},其中X表示二维特征点,S表示二维特征描述子,Z表示三维特征点,F表示三维特征描述子,m表示第m个物体,r表示第r个特征点。
步骤S4中,我们通过融合物体二维和三维信息对物体进行识别,提高了物体识别率。首先,利用待识别物体的SIFT特征点和特征描述子,采用KNN(K最近邻)算法匹配物体模型,但是SIFT特征配准同样也会产生错误的匹配点,如图8所示,图中产生了几对错误的特征点配准结果,如果利用了错误的结果,则会严重影响到后期物***姿计算的准确性,所以我们采用RANSAC算法剔除一些错误的匹配点,如图9所示。但有时由于二维图像表面可识别性太弱,纹理特征不明显,导致SIFT特征配准产生很大的错误,如图10所示,会导致最终识别错误。我们在二维的基础上融入了三维物体结构特征,三维特征配准结果如图11所示,有效的弥补了二维特征配准的不足。
采用融合二维和三维信息的识别算法如下所示:
Step1:计算待识别物体与物体模型之间二维特征配准距离,如式(1)所示:
C1(s,t)=d(SS,St) (1)
其中s表示待识别物体,t表示物体模型,d(·)表示欧式距离,S表示SIFT特征描述子,C1(s,t)表示待识别物体SIFT特征与物体模型SIFT特征之间的欧式距离,即二维相似度,并且进行归一化处理,本文要求C1(s,t)<0.5时,两物体相似,执行step2,否则,继续执行step1。
Step2:计算待识别物体与物体模型之间三维特征配准距离,如式(2)所示:
C2(s,t)=1-d(FS,Ft) (2)
其中s表示待识别物体,t表示物体模型,d(·)表示欧式距离,F表示FPFH特征描述子,C2(s,t)表示待识别物体FPFH特征与物体模型FPFH特征之间的欧式距离,即三维相似度,并且进行归一化处理,本文要求C2(s,t)>0.5时,两物体相似,执行step3,否则执行step1。
Step3:融合物体二维信息与三维信息,并且保存相似度结果,如式(3)所示:
T(s,t)=C2(s,t)·exp(-k·C1(s,t)) (3)
其中T(s,t)表示融合物体二维和三维信息后的相似度,将C1放在指数位置主要考虑了二维SIFT特征对物体识别来说更具有判断力和意义,k可以调节权重大小。如果匹配的物体模型为最后一个模型,则执行step4,否则执行step1。
Step4:对所有的相似度结果做比较,取出相似度最大的结果作为本次物体识别的最终结果。算法流程图如图12所示。
步骤S5中,通过计算物体部分之间的位姿关系,并且设定一个阈值,如果位姿变化小于阈值,则将两个物体部分进行融合,并且在视图图中作为一个节点,否则,两个物体部分都保留到视图图中,即为两个节点,如此一来,既保留了视图图易修改的功能,又降低了数据的冗余度,提高了运行效率。
相似视图之间的融合保留的数据有:(1)模型视图相对位姿,融合后对图来说不会产生新的节点,但是会产生新的边,所以需要记录模型视图相对位姿;(2)两个视图特征点位置,原模型视图的特征点位置和变换后新视图的特征点位置,两个视图相互匹配的特征点位置只保留一次;(3)特征描述子,包括SIFT特征描述子和FPFH特征描述子,用于视图之间的匹配,两个视图相互匹配的特征描述子只保留一次;(4)两个视图的点云数据,原模型视图的点云数据和变换后新视图的点云数据,将融合后的点云数据通过体素化网格方法实现下采样,减少点云数据。那么改进视图图的生产过程可以由如下算法表示:
其中V0表示原有的视图图节点,E0表示原有的视图图边,hi表示新产生的第i个视图,P(hi)表示hi视图与数据库物体模型的相似度,pmin表示相似度阈值,Pangle(hi)表示与数据库最相近的视图之间的相对角度,Panglemin表示角度阈值,Pdistance(hi)表示与数据库相近的视图之间的相对距离,Pdismin表示距离阈值,即如果hi视图与数据库最相近的视图之间的相对角度和相对距离都小于某个阈值,则将两个视图进行融合,否则不进行融合,直接加到视图图中,产生一个节点。P(hi,hj)表示第i个视图与数据库模型中第j个视图之间的相似度,如果这个相似度大于阈值,则说明两个视图之间存在相似关系,于是将第i个视图和第j个视图之间的变换关系加入到数据库物体模型中,成为一条新的边。图13和图14为视图图模型与改进的视图图模型之间的对比,其中黑色节点表示融合后的节点,灰色节点为新加入的节点,虚线边表示新加入或改变的边,由上图可以看出,改进的视图图模型没有增加节点,新增一条边,而视图图模型则新加了一个节点和三条边,所以本文的方法理论上可以降低数据冗余,达到更好的物体建模效果。
以上所述是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也视为本发明的保护范围。

Claims (4)

1.一种室内场景物体同时识别与建模方法,其特征在于,包括步骤
S1:输入RGB-D图像;
S2:物体分割;
S3:提取SIFT特征和FPFH特征;
S4:SIFT特征和FPFH特征融合,物体识别;
S5:物体建模,计算物体部分之间的位姿关系并且设定一个阈值,如果位姿变化小于阈值,则将两个物体部分进行融合,并且在视图图中作为一个节点,否则,两个物体部分都保留到视图图中,即为两个节点;
所述步骤4包括步骤
Step1:计算待识别物体与物体模型之间二维特征配准距离,如式(1)所示:
C1(s,t)=d(SS,St) (1)
其中s表示待识别物体,t表示物体模型,d(·)表示欧式距离,S表示SIFT特征描述子,C1(s,t)表示待识别物体SIFT特征与物体模型SIFT特征之间的欧式距离,即二维相似度,并且进行归一化处理,当C1(s,t)<0.5时,两物体相似,执行step2,否则,继续执行step1;
Step2:计算待识别物体与物体模型之间三维特征配准距离,如式(2)所示:
C2(s,t)=1-d(FS,Ft) (2)
其中s表示待识别物体,t表示物体模型,d(·)表示欧式距离,F表示FPFH特征描述子,C2(s,t)表示待识别物体FPFH特征与物体模型FPFH特征之间的欧式距离,即三维相似度,并且进行归一化处理,当C2(s,t)>0.5时,两物体相似,执行step3,否则执行step1;
Step3:融合物体二维信息与三维信息,并且保存相似度结果,如式(3)所示:
T(s,t)=C2(s,t)·exp(-k·C1(s,t)) (3)
其中T(s,t)表示融合物体二维和三维信息后的相似度,将C1放在指数位置主要考虑了二维SIFT特征对物体识别来说更具有判断力和意义,k可以调节权重大小, 如果匹配的物体模型为最后一个模型,则执行step4,否则执行step1;
Step4:对所有的相似度结果做比较,取出相似度最大的结果作为本次物体识别的最终结果。
2.如权利要求1所述的室内场景物体同时识别与建模方法,其特征在于,所述步骤S2包括步骤
S21:采用RANSAC方法提取平面点云;
S22:剔除与物体数据无关的点云;
S23:通过欧式距离聚类算法获得物体点云;
S24:将点云数据映射回RGB-D图像。
3.如权利要求1所述的室内场景物体同时识别与建模方法,步骤S3包括步骤
S31:采用SIFT特征提取方法提取物体二维局部特征点和特征描述子;
S32:将所述二维局部特征点映射到三维空间中,获得三维特征点;
S33:使用FPFH算法,生成三维特征描述子。
4.如权利要求1所述的室内场景物体同时识别与建模方法,步骤S4包括步骤
S41:采用RANSAC算法剔除一些错误的匹配点;
S42:计算待识别物体与物体模型之间的二维特征配准距离;
S43:计算待识别物体与物体模型之间三维特征配准距离;
S44:融合物体二维信息与三维信息,并且保存相似度结果;
S45:对所有的相似度结果做比较,取出相似度最大的结果作为本次物体识别的最终结果。
CN201610832845.6A 2016-09-19 2016-09-19 一种室内场景物体同时识别与建模方法 Active CN106529394B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610832845.6A CN106529394B (zh) 2016-09-19 2016-09-19 一种室内场景物体同时识别与建模方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610832845.6A CN106529394B (zh) 2016-09-19 2016-09-19 一种室内场景物体同时识别与建模方法

Publications (2)

Publication Number Publication Date
CN106529394A CN106529394A (zh) 2017-03-22
CN106529394B true CN106529394B (zh) 2019-07-19

Family

ID=58344928

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610832845.6A Active CN106529394B (zh) 2016-09-19 2016-09-19 一种室内场景物体同时识别与建模方法

Country Status (1)

Country Link
CN (1) CN106529394B (zh)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107123027B (zh) * 2017-04-28 2021-06-01 广东工业大学 一种基于深度学习的化妆品推荐方法及***
CN108133181B (zh) * 2017-12-12 2022-03-18 北京小米移动软件有限公司 获取指示信息的方法、ar设备及存储介质
CN108537163A (zh) * 2018-04-04 2018-09-14 天目爱视(北京)科技有限公司 一种基于可见光拍照的生物特征四维数据识别方法及***
CN110553849A (zh) * 2018-06-01 2019-12-10 上汽通用汽车有限公司 一种行车状况评估***以及评估方法
CN109360174B (zh) * 2018-08-29 2020-07-07 清华大学 基于相机位姿的三维场景重建方法及***
CN109360234B (zh) * 2018-08-29 2020-08-21 清华大学 基于总体不确定度的三维场景重建方法及***
CN109242959B (zh) * 2018-08-29 2020-07-21 清华大学 三维场景重建方法及***
CN109344813B (zh) * 2018-11-28 2023-11-28 北醒(北京)光子科技有限公司 一种基于rgbd的目标识别和场景建模方法
CA3122868A1 (en) * 2018-12-13 2020-06-18 Continental Automotive Gmbh Method and system for generating an environment model for positioning
CN110097598B (zh) * 2019-04-11 2021-09-07 暨南大学 一种基于pvfh特征的三维物***姿估计方法
CN111797268B (zh) * 2020-07-17 2023-12-26 中国海洋大学 Rgb-d图像检索方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101271469A (zh) * 2008-05-10 2008-09-24 深圳先进技术研究院 一种基于三维模型库下二维图像的识别和物体的重建方法
CN101877143A (zh) * 2009-12-09 2010-11-03 中国科学院自动化研究所 一种二维图像组的三维场景重建方法
CN102609979A (zh) * 2012-01-17 2012-07-25 北京工业大学 一种基于傅里叶梅林域的二维三维图像配准方法
CN104715254A (zh) * 2015-03-17 2015-06-17 东南大学 一种基于2d和3d sift特征融合的一般物体识别方法
CN105261060A (zh) * 2015-07-23 2016-01-20 东华大学 基于点云压缩和惯性导航的移动场景实时三维重构方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101271469A (zh) * 2008-05-10 2008-09-24 深圳先进技术研究院 一种基于三维模型库下二维图像的识别和物体的重建方法
CN101877143A (zh) * 2009-12-09 2010-11-03 中国科学院自动化研究所 一种二维图像组的三维场景重建方法
CN102609979A (zh) * 2012-01-17 2012-07-25 北京工业大学 一种基于傅里叶梅林域的二维三维图像配准方法
CN104715254A (zh) * 2015-03-17 2015-06-17 东南大学 一种基于2d和3d sift特征融合的一般物体识别方法
CN105261060A (zh) * 2015-07-23 2016-01-20 东华大学 基于点云压缩和惯性导航的移动场景实时三维重构方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Generic Object Recognition Based on the Fusion of 2D and 3D SIFT Descriptors;Miaomiao Liu 等;《Information Fusion》;20150709;1085-1092
HerbDisc: Towards Lifelong Robotic Object Discovery;Alvaro Collet 等;《Robotics Research archive》;20150131;第34卷(第1期);3-25
Object Recognition Robust to Imperfect Depth Data;David F. Fouhey 等;《Computer Vision》;20121013;第2卷;83-92

Also Published As

Publication number Publication date
CN106529394A (zh) 2017-03-22

Similar Documents

Publication Publication Date Title
CN106529394B (zh) 一种室内场景物体同时识别与建模方法
Song et al. Region-based quality estimation network for large-scale person re-identification
Zhang et al. From discriminant to complete: Reinforcement searching-agent learning for weakly supervised object detection
WO2016110005A1 (zh) 基于灰度和深度信息的多层融合的多模态人脸识别装置及方法
CN107886129B (zh) 一种基于视觉词袋的移动机器人地图闭环检测方法
CN107424161B (zh) 一种由粗至精的室内场景图像布局估计方法
CN106407958B (zh) 基于双层级联的面部特征检测方法
JP5394959B2 (ja) 判別器生成装置および方法並びにプログラム
Xiao et al. Joint affinity propagation for multiple view segmentation
CN110866934B (zh) 基于规范性编码的复杂点云分割方法及***
CN103530894B (zh) 一种基于多尺度块稀疏表示的视频目标追踪方法及其***
US20170011291A1 (en) Finding semantic parts in images
CN111681274A (zh) 基于深度相机点云数据的3d人体骨骼识别和提取方法
JP2016018538A (ja) 画像認識装置、方法及びプログラム
CN106815824B (zh) 一种提高大规模三维重建效率的图像近邻优化方法
CN112562081B (zh) 一种用于视觉分层定位的视觉地图构建方法
WO2023151237A1 (zh) 人脸位姿估计方法、装置、电子设备及存储介质
CN109101864A (zh) 基于关键帧和随机森林回归的人体上半身动作识别方法
CN107291936A (zh) 一种基于视觉特征和征象标签的超图哈希图像检索实现肺结节征象识别的方法
CN104834894B (zh) 一种结合二进制编码和类-Hausdorff距离的手势识别方法
Liu et al. Regularization based iterative point match weighting for accurate rigid transformation estimation
CN104732247B (zh) 一种人脸特征定位方法
CN113888603A (zh) 基于光流跟踪和特征匹配的回环检测及视觉slam方法
CN110942453A (zh) 一种基于神经网络的ct影像肺叶识别方法
CN112200076B (zh) 基于头部躯干特征进行多目标跟踪的方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant