CN117115434A - 数据分割装置和方法 - Google Patents
数据分割装置和方法 Download PDFInfo
- Publication number
- CN117115434A CN117115434A CN202210512475.3A CN202210512475A CN117115434A CN 117115434 A CN117115434 A CN 117115434A CN 202210512475 A CN202210512475 A CN 202210512475A CN 117115434 A CN117115434 A CN 117115434A
- Authority
- CN
- China
- Prior art keywords
- coordinate
- point cloud
- dimensional image
- image data
- cloud data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 50
- 230000011218 segmentation Effects 0.000 claims abstract description 84
- 230000009466 transformation Effects 0.000 claims abstract description 22
- 238000006243 chemical reaction Methods 0.000 claims description 21
- 238000004364 calculation method Methods 0.000 claims description 4
- 238000012549 training Methods 0.000 abstract description 11
- 238000010586 diagram Methods 0.000 description 18
- 239000011159 matrix material Substances 0.000 description 15
- 238000003384 imaging method Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 238000012986 modification Methods 0.000 description 8
- 230000004048 modification Effects 0.000 description 8
- 238000013135 deep learning Methods 0.000 description 6
- 238000013519 translation Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000004075 alteration Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000003709 image segmentation Methods 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000009022 nonlinear effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本申请提供一种数据分割装置和方法,获取与二维图像数据对应的三维点云数据的第一坐标,并且对该第一坐标进行坐标变换得到三维点云数据的第二坐标;对二维图像数据进行分割;进而确定该第二坐标与二维图像数据的第三坐标是否匹配,在匹配的情况下,基于二维图像数据的分割结果进一步分割三维点云数据。由此,能够在不采用大规模的传感设备、也不需要较大数据集训练模型的前提下,进行更加准确、便捷的三维点云数据的分割,进一步提高三维点云数据的分割准确性。
Description
技术领域
本申请涉及数据分割领域,特别涉及一种数据分割装置和方法。
背景技术
点云是表示同一空间参考坐标系下目标空间分布和目标表面特征的海量点的集合。得到物体表面每个采样点的空间坐标后,能够得到一个点的集合,称为“点云”,计算机视觉的最终表现形式是三维(3D)视觉,并且三维视觉的表达方式是通过点云得到的。因此,点云处理在整个三维视觉领域中占有非常重要的地位,几乎涉及所有相关领域。
三维点云语义分割(point cloud semantic segmentation,PCSS)在计算机视觉和机器人领域有着广泛的应用需求。例如,城市规划和建筑信息模型(buildinginformation modeling,BIM)需要参考建筑物或人造物体,森林的遥感监测需要基于树木的几何结构信息,以及机器人地图的同步定位换个构图(Simultaneous Localization andMapping SLAM)等需要室内环境来绘制地图。在自动驾驶中,构建高精度地图也需要目标检测、分割和分类。因此,三维点云语义分割是3D视觉领域的基础性和关键性的任务。
应该注意,上面对技术背景的介绍只是为了方便对本申请的技术方案进行清楚、完整的说明,并方便本领域技术人员的理解而阐述的。不能仅仅因为这些方案在本申请的背景技术部分进行了阐述而认为上述技术方案为本领域技术人员所公知。
发明内容
发明人发现,随着深度学习技术的发展,为PCSS领域提供了新的可能性,使得PCSS也越来越受到关注。当前三维点云语义分割的输入数据是3D点云数据,进而针对3D点云数据通过各深度学习网络进行分割,但是相比于2D图像数据的分割,为了克服3D点云数据的稀疏性需要增强深度学习模型的表达能力,进而需要针对大规模数据集(ImageNet)来进行预训练。但是,由于3D点云数据较难收集,并且对3D点云数据分割时的标签、标注的过程也更加困难,此外采用大量的各种传感器设备来收集3D点云数据可能会引入较大的域差异而导致没有全面的数据集。因此,会导致在进行PCSS时直接使用收集的3D点云数据是困难的。
为了解决上述问题或其他类似问题,本申请实施例提供一种数据分割装置和方法。
根据本申请实施例的第一方面,提供一种数据分割装置,其中,所述装置包括:
获取单元,其用于获取与二维图像数据对应的点云数据的第一坐标;
转换单元,其对所述点云数据的第一坐标进行坐标变换得到所述点云数据的第二坐标;
分割单元,其对所述二维图像数据进行分割;
第一确定单元,其确定所述第二坐标与所述二维图像数据的第三坐标是否匹配;
第二确定单元,其在所述第一确定单元确定结果为匹配时,根据所述分割单元的分割结果,得到所述点云数据的分割结果。
根据本申请实施例的另一方面,提供一种数据分割方法,其中,所述方法包括:
获取与二维图像数据对应的点云数据的第一坐标;
对所述点云数据的第一坐标进行坐标变换得到所述点云数据的第二坐标;
对所述二维图像数据进行分割;
确定所述第二坐标与所述二维图像数据的第三坐标是否匹配;
在确定结果为匹配时,根据对所述二维图像数据进行分割的分割结果,得到所述点云数据的分割结果。
本申请实施例的有益效果之一在于:获取与二维图像数据对应的三维点云数据的第一坐标,并且对该第一坐标进行坐标变换得到三维点云数据的第二坐标;对二维图像数据进行分割;进而确定该第二坐标与二维图像数据的第三坐标是否匹配,在匹配的情况下,基于二维图像数据的分割结果进一步分割三维点云数据。由此,能够在不采用大规模的传感设备、也不需要较大数据集训练模型的前提下,进行更加准确、便捷的三维点云数据的分割,进一步提高三维点云数据的分割准确性。
参照后文的说明和附图,详细公开了本申请的特定实施方式,指明了本申请的原理可以被采用的方式。应该理解,本申请的实施方式在范围上并不因而受到限制。在所附权利要求的条款的范围内,本申请的实施方式包括许多改变、修改和等同。
针对一种实施方式描述和/或示出的特征可以以相同或类似的方式在一个或更多个其它实施方式中使用,与其它实施方式中的特征相组合,或替代其它实施方式中的特征。
应该强调,术语“包括/包含”在本文使用时指特征、整件、步骤或组件的存在,但并不排除一个或更多个其它特征、整件、步骤或组件的存在或附加。
附图说明
在本申请实施例的一个附图或一种实施方式中描述的元素和特征可以与一个或更多个其它附图或实施方式中示出的元素和特征相结合。此外,在附图中,类似的标号表示几个附图中对应的部件,并可用于指示多于一种实施方式中使用的对应部件。
所包括的附图用来提供对本申请实施例的进一步的理解,其构成了说明书的一部分,用于例示本申请的实施方式,并与文字描述一起来阐释本申请的原理。显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。在附图中:
图1是本申请实施例的数据分割装置的一个示例的示意图;
图2是本申请实施例的各个坐标系的示意图;
图3为本申请实施例的世界坐标系与相机坐标系的坐标转换的示例图;
图4为本申请实施例的相机坐标系与图像坐标系的坐标转换的示例图;
图5为本申请实施例的图像坐标系与像素坐标系的坐标转换的示例图;
图6是本申请实施例的获取单元的一个示例的示意图;
图7是本申请实施例的技术方案的流程图;
图8是本申请实施例的数据分割方法的一个示例的示意图;
图9是本申请实施例的电子设备的一示意图;
图10是本申请实施例的电子设备的***构成的一示意框图。
具体实施方式
参照附图,通过下面的说明书,本申请的前述以及其它特征将变得明显。在说明书和附图中,具体公开了本申请的特定实施方式,其表明了其中可以采用本申请的原则的部分实施方式,应了解的是,本申请不限于所描述的实施方式,相反,本申请包括落入所附权利要求的范围内的全部修改、变型以及等同物。
在本申请实施例中,术语“第一”、“第二”等用于对不同元素从称谓上进行区分,但并不表示这些元素的空间排列或时间顺序等,这些元素不应被这些术语所限制。术语“和/或”包括相关联列出的术语的一种或多个中的任何一个和所有组合。术语“包含”、“包括”、“具有”等是指所陈述的特征、元素、元件或组件的存在,但并不排除存在或添加一个或多个其他特征、元素、元件或组件。
在本申请实施例中,单数形式“一”、“该”等包括复数形式,应广义地理解为“一种”或“一类”而并不是限定为“一个”的含义;此外术语“所述”应理解为既包括单数形式也包括复数形式,除非上下文另外明确指出。此外术语“根据”应理解为“至少部分根据……”,术语“基于”应理解为“至少部分基于……”,除非上下文另外明确指出。
以下为便于理解,先对本申请实施例涉及到的部分技术术语进行说明。
世界坐标系是指客观三维世界的绝对坐标系,也可称为客观坐标系,例如,在环境中选择一个参考坐标系来描述摄像机和物体的位置,该坐标系即为世界坐标系,在世界坐标系下坐标点的单位为米;相机坐标系为以相机光点为中心,X,Y轴平行于图像的两条边,光轴为Z轴所建立的坐标系,在相机坐标系下坐标点的单位为米;图像坐标系通常情况下是成像平面的图像坐标系,原点为成像平面的中点,在图像坐标系下坐标点的单位为毫米;像素坐标系,原点为图像的左上角,在像素坐标系下坐标点的单位为像素。
图2是本申请实施例的各个坐标系的示意图。例如,设物体P在世界坐标系下的坐标为(Xw,Yw,Zw),原点为Ow;在相机坐标系下的坐标为(Xc,Yc,Zc),原点为Oc;p为物体P在图像中的成像点,其在图像坐标系下的坐标为(x,y),原点为o;p在像素坐标系下的坐标为(u,v);此外,f是相机的焦距,其等于o和Oc之间的距离,即,可通过式(1)表示:
f=‖o-Oc‖ (1)
图3为本申请实施例的世界坐标系与相机坐标系的坐标转换的示例图。其中,世界坐标系和相机坐标系的坐标转换为刚体变换,即,物体并不会发生变形,世界坐标系中的某一点可以通过旋转(旋转矩阵R)和平移(平移向量t)转换成相机坐标系中的一点。
其中,点P在相机坐标系中的坐标可以基于在世界坐标系中的坐标得到,例如可通过式(2)表示为:
此外,也可以通过齐次坐标将点P在世界坐标系的坐标转换为在相机坐标系中的坐标,例如可通过式(3)表示为:
图4为本申请实施例的相机坐标系与图像坐标系的坐标转换的示例图。其中,相机坐标系到图像坐标系的转换是一种透视投影关系。如图4所示,在得到了物体在相机坐标系下的坐标后,可以进一步将物体的坐标系从三维的相机坐标系转换到二维的图像坐标系,例如可通过式(4)表示为:
图5为本申请实施例的图像坐标系与像素坐标系的坐标转换的示例图。例如,图像坐标系和像素坐标系均为成像平面上的二维坐标系,但它们的原点和测量单位不同。如图5所示,图像坐标系的原点是相机光轴与成像平面的交点,通常是成像平面的中点或主点,此外,图像坐标系的单位是毫米,是物理单位;而像素坐标系的单位是像素,像素是用几行几列来描述的,因此,用dx和dy表示每一列和每一行有多少毫米。并且,图像坐标系到像素坐标系的转换可以用式(5)表示为:
由此,通过上述坐标系之间的转换,可以将一个物体的世界坐标系下的坐标转换为在像素坐标系下的坐标,例如可通过式(6)表示为:
相机参数包括内参和外参,其中,内参包括物理成像平面和光心的距离(即为焦距f),外参包括相机坐标系和世界坐标系的旋转矩阵R和平移向量t。
因此,矩阵也可称为相机的内参矩阵;矩阵/>也可称为相机的外参矩阵。
此外,通过公式(6)的逆过程与相机参数,例如相机的内参矩阵和相机的外参矩阵,也可以将物体在像素坐标系中的坐标转换为在世界坐标系中的坐标。
其中,一个特殊情况是世界坐标系和相机坐标系的坐标原点重合,那么将不需要进行旋转和平移,对应的旋转矩阵R和和平移向量t可以表示为:
例如,对于输入图像,相机的焦距f为525.0,主点的像素坐标(u,v)为(319.5,239.5)的情况下,那么相机的内参矩阵为:例如,对于旋转矩阵R为/>平移向量t为/>的情况下,相机的外参矩阵为/>
其中,世界坐标系和相机坐标系中的同一物体具有相同的深度,即,Zc=Zw,由此,公式(6)可以进一步简化为:
进一步的,能够基于式(7)推导出像素点坐标[u,v]T与对应的世界坐标系中坐标点[Xw,Yw,Zw]T的变换公式为:
下面结合附图对本申请实施例的各种实施方式进行说明。在以下的说明中,以光通信***为例,但本申请不限于此,本申请实施例的方法也适用于其他存在非线性效应的通信***。
第一方面的实施例
本申请实施例提供一种数据分割装置。图1是本申请实施例的数据分割装置100的一个示例的示意图,如图1所示,该装置100包括:
获取单元101,其用于获取与二维图像数据对应的点云数据的第一坐标;
转换单元102,其对该点云数据的第一坐标进行坐标变换得到该点云数据的第二坐标;
分割单元103,其对该二维图像数据进行分割;
第一确定单元104,其确定该第二坐标与该二维图像数据的第三坐标是否匹配;
第二确定单元105,其在该第一确定单元确定结果为匹配时,根据分割单元103的分割结果,得到该点云数据的分割结果。
根据本申请的实施例,获取与二维图像数据对应的三维点云数据的第一坐标,并且对该第一坐标进行坐标变换得到三维点云数据的第二坐标;对二维图像数据进行分割;进而确定该第二坐标与二维图像数据的第三坐标是否匹配,在匹配的情况下,基于二维图像数据的分割结果进一步分割三维点云数据。由此,能够在不采用大规模的传感设备、也不需要较大数据集训练模型的前提下,进行更加准确、便捷的三维点云数据的分割,进一步提高三维点云数据的分割准确性。
在一些实施例中,上述二维图像数据是从室外或室内所在区域进行拍摄的摄像装置得到的,例如,通过设置的监控摄像头拍摄得到的,在获取得到实时监控视频的一帧图像后,将该一帧图像作为二维图像数据。
在一些实施例中,该第二坐标与第三坐标处于相同坐标系下,第一坐标与第二坐标和第三坐标处于不同坐标系下,例如该第一坐标是世界坐标系下的坐标,该第二坐标和该第三坐标是像素坐标系下的坐标。但本申请实施例并不以此作为限制。
在一些实施例中,对于输入的二维图像数据,获取单元101获取与该二维图像数据对应的点云数据的第一坐标,例如点云数据在世界坐标系下的坐标;获取单元101可以通过传感器设备(例如雷达等)直接采集与二维图像数据对应的点云数据,例如设置于同一位置和朝向的雷达和摄像头,由摄像头拍摄一个区域的二维图像数据后,由雷达采集该一个区域的点云数据,并获取点云数据的第一坐标,但本申请实施例并不以此作为限制,例如,获取单元101还可以仅基于二维图像数据通过计算获取点云数据的第一坐标,以下进行说明。
在一些实施方式中,图6是本申请实施例的获取单元的一个示例的示意图。如图6所示,获取单元101还包括:
第一估计模块1011,其根据二维图像数据估计相机参数;
第二估计模块1012,其根据该二维图像数据估计二维图像数据的深度图;
计算模块1013,其根据该相机参数和该深度图计算点云数据的第一坐标。
例如,第一估计模块1011可以使用深度学***面的像素坐标,基于每张棋盘图的三维空间坐标以及对应的二维像素坐标的一一对应的投影关系,能够进而求出相机的内参数。此外,采用深度学习方法、消失点法等方法估计相机参数,可以参考现有技术,本申请对此不进行限制。
例如,第二估计模块1012估计的二维图像数据的深度图也称为距离图像,其是指以图像采集器到场景中各点的距离(深度)值作为像素值的图像。一般可以通过激光雷达、立体相机或TOF(Time of flight)相机等设备直接获取二维图像数据的深度图,也可以通过处理RGB图像或视频来获取二维图像数据的深度图。随着深度学习神经网络的快速发展,基于深度学习的单目深度估计最近得到了广泛的研究,同时,深度神经网络以端到端的方式从单个图像中估计密集深度图,通过不同种类的网络框架、损失函数和训练策略能够进一步提高深度估计的准确性。例如,通过Multi-Scale的深度神经网络基于单目深度估计估计二维图像数据的深度图,其具体内容可以参见现有技术,本申请对此不进行限定。
例如,计算模块101根据该相机参数和该深度图计算点云数据;例如,基于相机的内参矩阵以及相机的外参矩阵以及二维图像数据的深度图的像素值,例如深度图中的像素值单位为米,代表距离,进而基于式(6)的逆变换以及式(7)-(8),得到与二维图像数据对应的点云数据的第一坐标。
由此,能够仅基于二维图像数据获取点云数据的第一坐标,避免采用大规模的传感设备收据点云数据,也不需要针对大规模数据集来进行预训练,能够更加便捷的进行三维点云数据的分割。
在一些实施例中,转换单元102基于上述坐标变换的过程,结合上述公式(6)以及相机参数(例如内参矩阵和外参矩阵)将点云数据的第一坐标(例如在世界坐标系下的坐标)变换得到该点云数据的第二坐标,即在像素坐标系下的坐标。
以下对二维图像数据的分割进行举例说明。
在一些实施方式中,分割单元103对二维图像数据进行分割。例如,分割单元103对该二维图像数据进行如下分割的至少一种:语义分割,实例分割,全景分割。
在一些实施方式中,图像分割是指将图像划分为具有相似属性的若干区域的过程。从数学的角度来看,图像分割是将图像划分为不相交区域的过程。例如,语义分割是预测图像中每个像素的语义类别,得到每个像素的类别标签;实例分割是预测图像中每个实例对象所包含的像素区域;一个像素区域内的每个像素实例标签相同,全景分割是为图像中的每个像素分配一个类别标签和一个实例标签,以生成全局统一的分割图像。
在一些实施方式中,分割单元103在对二维图像数据进行分割后,得到该二维图像数据的分割结果,该分割结果包括每个像素的类别信息(类别标签)和/或每个类别包括的像素区域,一个像素区域内的每个像素实例标签相同,其中,作为分割结果还包括对将每个像素的RGB值赋予一个特定颜色值,不同类别的像素对应的颜色值不同,例如,分割后区域A和C中的像素类别为1,区域B中的像素类别为2,区域D中的像素类别为3,则区域A和C中的像素可以都显示为红色,区域B中的像素可以都显示为蓝色,区域D中的像素可以都显示为绿色,也就是说,像素的颜色值与其类别是一一对应的。此处仅为示例说明,本申请实施例并不以此作为限制。
由此,能够更加直观的显示对二维图像进行分割后的结果。
需要说明的是,上述分割单元103的分割操作可以与获取单元101和转换单元101的操作同时进行,或者先后执行,但本申请不限定其执行顺序。
在获得点云数据的第一坐标后,通过结果二维图像数据的分割结果,可以对点云数据进行分割,将分割结果添加到点云数据中,以下对点云数据的分割进行举例说明。
在一些实施方式中,第一确定单元104,确定第二坐标与二维图像数据的第三坐标是否匹配。
在一些实施方式中,确定第二坐标与二维图像数据的第三坐标是否匹配包括,第一确定单元104在该第二坐标和该第三坐标的差值不超过第一阈值,或者在该第二坐标和该第三坐标的差别不超于第一阈值且满足第一条件时,确定该第二坐标和所述第三坐标匹配。例如,该第一条件包括该二维图像数据的像素数和该点云数据对应的像素数的差值不超过第二阈值。
以第一阈值为2个像素,第二阈值为10个像素为例,例如,对于二维图像数据具有1000个像素点的情况下,对于其中的每个像素点,例如,二维图像数据的像素坐标系的一个像素点坐标为(319,239),其对应的点云数据的像素坐标系下的像素点的范围应为(319±2,239±2);因此,若转换得到的第二坐标与第三坐标的误差范围均在2个像素以内,则认为该第二坐标与该第三坐标匹配;或者,除了需要满足转换得到的第二坐标与第三坐标的误差范围均在2个像素以内外,在点云数据在像素坐标系下的像素数为995时,1000-995小于第二阈值10时,认为该第二坐标与该第三坐标匹配,此处仅为示例说明,本申请并不以此作为限制。
在一些实施方式中,在第一确定单元104确定的结果为匹配时,二维图像数据的像素点就可以与点云数据中的点一一对应,第二确定单元105根据分割单元103的分割结果,得到点云数据的分割结果。
由此,即使不采用大规模的传感设备收据点云数据,也不需要针对大规模数据集来进行预训练的基础上,仍然能够得到准确的点云数据的分割结果。
在一些实施方式中,在第一确定单元104的确定结果为匹配时,第二确定单元105将分割单元103分割得到的不同像素对应的颜色值添加到与各个像素对应的点云数据中,可选的,第二确定单元105可以将分割单元103分割得到的不同像素对应的类别信息(例如类别标签)添加到与各个像素对应的点云数据中,实现点云的分割。
由此,能够根据点云数据的分割结果的颜色,更加直观、准确的选择感兴趣的对象。
在一些实施方式中,
在第一确定单元104确定结果为不匹配的情况下,第一估计模块1011重新估计相机参数和/或第二估计模块1022重新估计深度图;
并且,获取单元101根据重新估计后的结果更新点云数据的第一坐标;
转换单元102根据更新后的该第一坐标更新第二坐标;
第一确定单元104确定更新后的该第二坐标与该第三坐标是否匹配。
由此,第一估计模块估计1011和/或第二估计模块1022能够重新估计相机参数和/或重新估计深度图,并且基于重新估计后的结果得到点云数据的分割结果,能够进一步增强点云数据的分割的准确性。
图7是本申请实施例的技术方案的流程图。如图7所示:
步骤700:输入二维图像数据,例如,通过照相机得到的二维图像数据;
步骤701:第一估计模块1011根据二维图像数据估计相机参数;
步骤702:第二估计模块1012根据该二维图像数据估计二维图像数据的深度图;
步骤703:分割单元103对该二维图像数据进行分割;
步骤704:计算模块1013,根据该相机参数和该深度图计算点云数据的第一坐标;
步骤705:转换单元102对点云数据的第一坐标进行坐标变换得到该点云数据的第二坐标;
步骤706:第一确定单元104,确定该第二坐标是否与二维图像数据的第三坐标匹配,在匹配的情况下,进入步骤707,在不匹配的情况下,返回步骤701和702,即该第一估计模块1011重新估计相机参数,该第二估计模块1012重新估计深度图;
步骤707:第二确定单元105,在该第一确定单元104确定的结果为匹配时,根据分割单元103的二维图像数据的分割结果,得到点云数据的分割结果;
步骤708:输出点云数据的分割结果。
由此,获取与二维图像数据对应的三维点云数据的第一坐标,并且对该第一坐标进行坐标变换得到三维点云数据的第二坐标;对二维图像数据进行分割;进而确定该第二坐标与二维图像数据的第三坐标是否匹配,在匹配的情况下,基于二维图像数据的分割结果进一步分割三维点云数据。由此,能够在不采用大规模的传感设备、也不需要较大数据集训练模型的前提下,进行更加准确、便捷的三维点云数据的分割,进一步提高三维点云数据的分割准确性。
值得注意的是,以上附图1至图7仅对本申请实施例进行了示意性说明,但本申请不限于此。例如可以适当地调整各个部件,此外还可以增加其他的一些部件或者减少其中的某些部件。本领域的技术人员可以根据上述内容进行适当地变型,而不仅限于上述附图1至图7的记载。
以上各个实施例仅对本申请实施例进行了示例性说明,但本申请不限于此,还可以在以上各个实施例的基础上进行适当的变型。例如,可以单独使用上述各个实施例,也可以将以上各个实施例中的一种或多种结合起来。
通过本申请实施例的装置,获取与二维图像数据对应的三维点云数据的第一坐标,并且对该第一坐标进行坐标变换得到三维点云数据的第二坐标;对二维图像数据进行分割;进而确定该第二坐标与二维图像数据的第三坐标是否匹配,在匹配的情况下,基于二维图像数据的分割结果进一步分割三维点云数据。由此,能够在不采用大规模的传感设备、也不需要较大数据集训练模型的前提下,进行更加准确、便捷的三维点云数据的分割,进一步提高三维点云数据的分割准确性。
第二方面的实施例
本申请实施例提供了一种数据分割方法,由于该方法解决问题的原理与第一方面的实施例的装置类似,因此其具体的实施可以参考第一方面的实施例的装置的实施,内容相同之处不再重复说明。
图8是本申请实施例的非线性信噪比的测量方法的一个实施方式的示意图,如图8所示,该方法包括:
801:获取与二维图像数据对应的点云数据的第一坐标;
802:对该点云数据的第一坐标进行坐标变换得到该点云数据的第二坐标;
803:对该二维图像数据进行分割;
804:确定所述第二坐标与该二维图像数据的第三坐标是否匹配;
805:在确定结果为匹配时,根据对该二维图像数据进行分割的分割结果,得到所述点云数据的分割结果。
通过本实施例的方法,获取与二维图像数据对应的三维点云数据的第一坐标,并且对该第一坐标进行坐标变换得到三维点云数据的第二坐标;对二维图像数据进行分割;进而确定该第二坐标与二维图像数据的第三坐标是否匹配,在匹配的情况下,基于二维图像数据的分割结果进一步分割三维点云数据。由此,能够在不采用大规模的传感设备、也不需要较大数据集训练模型的前提下,进行更加准确、便捷的三维点云数据的分割,进一步提高三维点云数据的分割准确性。
在一些实施方式中,根据二维图像数据估计相机参数;根据该二维图像数据估计二维图像数据的深度图;根据该相机参数和该深度图计算点云数据的第一坐标。
在一些实施方式中,该第一坐标是世界坐标系下的坐标,该第二坐标和该第三坐标是像素坐标系下的坐标。
在一些实施方式中,对二维图像数据进行如下分割的至少一种:语义分割,实例分割,全景分割。
在一些实施方式中,在对二维图像数据进行分割后,得到该二维图像数据的分割结果,该分割结果包括每个像素的类别信息和/或每个类别包括的像素区域,其中,不同类别的像素对应的颜色值不同。
在一些实施方式中,在该第二坐标和该第三坐标的差值不超过第一阈值,或者在该第二坐标和该第三坐标的差别不超于第一阈值且满足第一条件时,确定该第二坐标和该第三坐标匹配。
在一些实施方式中,该第一条件包括二维图像数据的像素数和点云数据对应的像素数的差值不超过第二阈值。
在一些实施方式中,在确定第二坐标与二维图像数据的第三坐标匹配时,将分割得到的不同像素对应的颜色值添加到与各个像素对应的该点云数据中。
在一些实施方式中,在确定第二坐标与二维图像数据的第三坐标不匹配的情况下,重新估计相机参数和/或重新估计深度图;
并且,根据重新估计后的结果更新点云数据的第一坐标;
根据更新后的该第一坐标更新该第二坐标;
确定更新后的该第二坐标是否与该第三坐标匹配。
在一些实施例中,801-805的实施方式可以参考第一方面实施例中获取单元101,转换单元102,分割单元103,第一确定单元104,第二确定单元105,此处不再赘述。
值得注意的是,以上附图8仅对本申请实施例进行了示意性说明,但本申请不限于此。例如可以适当地调整各个步骤,此外还可以增加其他的一些步骤或者减少其中的某些步骤。本领域的技术人员可以根据上述内容进行适当地变型,而不仅限于上述附图8的记载。
以上各个实施例仅对本申请实施例进行了示例性说明,但本申请不限于此,还可以在以上各个实施例的基础上进行适当的变型。例如,可以单独使用上述各个实施例,也可以将以上各个实施例中的一种或多种结合起来。
通过本申请实施例的方法,获取与二维图像数据对应的三维点云数据的第一坐标,并且对该第一坐标进行坐标变换得到三维点云数据的第二坐标;对二维图像数据进行分割;进而确定该第二坐标与二维图像数据的第三坐标是否匹配,在匹配的情况下,基于二维图像数据的分割结果进一步分割三维点云数据。由此,能够在不采用大规模的传感设备、也不需要较大数据集训练模型的前提下,进行更加准确、便捷的三维点云数据的分割,进一步提高三维点云数据的分割准确性。
第三方面的实施例
本申请实施例还提供了一种电子设备,图9是本申请第三方面的实施例的电子设备的一示意图。如图9所示,电子设备1000包括数据分割装置100,数据分割装置100的结构和功能与第一方面实施例中的记载相同,此处不再赘述。
在本申请实施例的一种实施方式中,电子设备1000可以是各种类别的电子设备,例如,车载终端、移动终端或者计算机。
图10是本申请第三方面的实施例的电子设备的***构成的一示意框图。如图10所示,电子设备1000可以包括处理器1001和存储器1002;该存储器1002耦合到该处理器1001。该图是示例性的;还可以使用其它类别的结构,来补充或代替该结构,以实现电信功能或其它功能。
如图10所示,电子设备1000还可以包括:输入单元1003、显示器1004、电源1005。
在本申请实施例的一个实施方式中,第一方面的实施例所述的数据分割装置的功能可以被集成到处理器1001中。其中,处理器1001可以被配置为:获取与二维图像数据对应的点云数据的第一坐标;对该点云数据的第一坐标进行坐标变换得到该点云数据的第二坐标;对该二维图像数据进行分割;确定该第二坐标与该二维图像数据的第三坐标是否匹配;在确定结果为匹配时,根据对该二维图像数据进行分割的分割结果,得到该点云数据的分割结果。
在一些实施例中,处理器1001的实施方式可以参考第一方面的实施例,此处不再赘述。
在本申请实施例的另一个实施方式中,第一方面的实施例所述的数据分割装置可以与该处理器1001分开配置,例如可以将数据分割装置配置为与处理器1001连接的芯片,通过处理器1001的控制来实现该数据分割装置的功能。
在本申请实施例的一种实施方式中,电子设备1000也并不是必须要包括图10中所示的所有部件。
如图10所示,处理器1001有时也称为控制器或操作控件,可以包括微处理器或其它处理器装置和/或逻辑装置,处理器1001接收输入并控制电子设备1000的各个部件的操作。
该存储器1002,例如可以是缓存器、闪存、硬驱、可移动介质、易失性存储器、非易失性存储器或其它合适装置中的一种或更多种。并且该处理器1001可执行该存储器1002存储的该程序,以实现信息存储或处理等。其它部件的功能与现有类似,此处不再赘述。电子设备1000的各部件可以通过专用硬件、固件、软件或其结合来实现,而不偏离本申请的范围。
由上述实施例可知,获取与二维图像数据对应的三维点云数据的第一坐标,并且对该第一坐标进行坐标变换得到三维点云数据的第二坐标;对二维图像数据进行分割;进而确定该第二坐标与二维图像数据的第三坐标是否匹配,在匹配的情况下,基于二维图像数据的分割结果进一步分割三维点云数据。由此,能够在不采用大规模的传感设备、也不需要较大数据集训练模型的前提下,进行更加准确、便捷的三维点云数据的分割,进一步提高三维点云数据的分割准确性。
另外,可以根据二维图像数据确定各类别物体在三维空间中的坐标位置。
在一个应用场景中,本申请实施例的数据分割方法和装置可以应用于无人超市,检测货架上的货物是否售卖,例如,超市的摄像头用于捕捉含有货架的二维图像数据,通过本申请实施例的上述方法,可以得到对应货架的点云数据的分割结果,每个点云里的点对应一个货架上的位置,且该点还被添加了分割结果(例如货物或者货架),也就是说,通过本申请实施例的上述方法,可以得到数据包括:货物对应的三维空间坐标位置和货架对应的三维空间坐标位置,将该得到的数据与上货后预先存储的数据(货架上货物对应的三维空间坐标位置)进行比较,如果相同三维空间坐标位置上,对应的类别由货物变为货架,则该三维空间坐标位置上的货物被售卖,***可以提示补货。或者说,如果在得到的数据(货物对应的三维空间坐标位置)中找不到预先存储的货物对应的三维空间坐标位置,则该三维空间坐标位置上的货物被售卖,***可以提示补货。
本申请以上的装置和方法可以由硬件实现,也可以由硬件结合软件实现。本申请涉及这样的计算机可读程序,当该程序被逻辑部件所执行时,能够使该逻辑部件实现上文所述的装置或构成部件,或使该逻辑部件实现上文所述的各种方法或步骤。本申请还涉及用于存储以上程序的存储介质,如硬盘、磁盘、光盘、DVD、flash存储器等。
结合本申请实施例描述的方法/装置可直接体现为硬件、由处理器执行的软件模块或二者组合。例如,图中所示的功能框图中的一个或多个和/或功能框图的一个或多个组合,既可以对应于计算机程序流程的各个软件模块,亦可以对应于各个硬件模块。这些软件模块,可以分别对应于图中所示的各个步骤。这些硬件模块例如可利用现场可编程门阵列(FPGA)将这些软件模块固化而实现。
软件模块可以位于RAM存储器、闪存、ROM存储器、EPROM存储器、EEPROM存储器、寄存器、硬盘、移动磁盘、CD-ROM或者本领域已知的任何其它形式的存储介质。可以将一种存储介质耦接至处理器,从而使处理器能够从该存储介质读取信息,且可向该存储介质写入信息;或者该存储介质可以是处理器的组成部分。处理器和存储介质可以位于ASIC中。该软件模块可以存储在移动终端的存储器中,也可以存储在可***移动终端的存储卡中。例如,若设备(如移动终端)采用的是较大容量的MEGA-SIM卡或者大容量的闪存装置,则该软件模块可存储在该MEGA-SIM卡或者大容量的闪存装置中。
针对附图中描述的功能方框中的一个或多个和/或功能方框的一个或多个组合,可以实现为用于执行本申请所描述功能的通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或者其它可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件或者其任意适当组合。针对附图描述的功能方框中的一个或多个和/或功能方框的一个或多个组合,还可以实现为计算设备的组合,例如,DSP和微处理器的组合、多个微处理器、与DSP通信结合的一个或多个微处理器或者任何其它这种配置。
以上结合具体的实施方式对本申请进行了描述,但本领域技术人员应该清楚,这些描述都是示例性的,并不是对本申请保护范围的限制。本领域技术人员可以根据本申请的精神和原理对本申请做出各种变型和修改,这些变型和修改也在本申请的范围内。
关于包括以上实施例的实施方式,还公开下述的附记:
1.一种数据分割装置,包括:
获取单元,其用于获取与二维图像数据对应的点云数据的第一坐标;
转换单元,其对所述点云数据的第一坐标进行坐标变换得到所述点云数据的第二坐标;
分割单元,其对所述二维图像数据进行分割;
第一确定单元,其确定所述第二坐标与所述二维图像数据的第三坐标是否匹配;
第二确定单元,其在所述第一确定单元确定结果为匹配时,根据所述分割单元的分割结果,得到所述点云数据的分割结果
2.根据附记1所述的装置,其中,所述获取单元包括:
第一估计模块,其用于根据所述二维图像数据估计相机参数;
第二估计模块,其用于根据所述二维图像数据估计二维图像数据的深度图;
计算模块,其用于根据所述相机参数和所述深度图计算所述点云数据。
3.根据附记1所述的装置,其中,所述第一坐标是世界坐标系下的坐标,所述第二坐标和所述第三坐标是像素坐标系下的坐标。
4.根据附记1所述的装置,其中,所述分割单元对所述二维图像数据进行如下分割的至少一种:
语义分割;
实例分割;
全景分割。
5.根据附记1所述的装置,其中,所述分割单元在对所述二维图像数据进行分割后,得到所述二维图像数据的分割结果,所述分割结果包括每个像素的类别信息和/或每个类别包括的像素区域,其中,不同类别的像素对应的颜色值不同。
6.根据附记1所述的装置,其中,所述第一确定单元在所述第二坐标和所述第三坐标的差值不超过第一阈值,或者在所述第二坐标和所述第三坐标的差别不超于第一阈值且满足第一条件时,确定所述第二坐标和所述第三坐标匹配。
7.根据附记6所述的装置,其中,所述第一条件包括所述二维图像数据的像素数和所述点云数据对应的像素数的差值不超过第二阈值。
8.根据附记5所述的装置,其中,在所述第一确定单元确定结果为匹配时,所述第二确定单元将所述分割单元分割得到的不同像素对应的颜色值添加到与各个像素对应的所述点云数据中。
9.根据附记2所述的装置,其中,所述装置还包括:
在所述第一确定单元确定结果为不匹配的情况下,所述第一估计模块重新估计所述相机参数和/或所述第二估计模块重新估计所述深度图;
并且,所述获取单元根据重新估计后的结果更新所述点云数据的所述第一坐标;
所述转换单元根据更新后的所述第一坐标更新所述第二坐标;
所述第一确定单元确定更新后的所述第二坐标是否与所述第三坐标匹配。
10.一种数据分割方法,包括:
获取与二维图像数据对应的点云数据的第一坐标;
对所述点云数据的第一坐标进行坐标变换得到所述点云数据的第二坐标;
对所述二维图像数据进行分割;
确定所述第二坐标与所述二维图像数据的第三坐标是否匹配;
在确定结果为匹配时,根据对所述二维图像数据进行分割的分割结果,得到所述点云数据的分割结果。
11.如附记10所述的方法,其中,获取与二维图像数据对应的点云数据的第一坐标包括:
根据所述二维图像数据估计相机参数;
根据所述二维图像数据估计二维图像数据的深度图;
根据所述相机参数和所述深度图计算所述点云数据的第一坐标。
12.如附记10所述的方法,其中,所述第一坐标是世界坐标系下的坐标,所述第二坐标和所述第三坐标是像素坐标系下的坐标。
13.如附记10所述的方法,其中,对所述二维图像数据进行如下分割的至少一种:
语义分割;
实例分割;
全景分割。
14.如附记10所述的方法,其中,对所述二维图像数据进行分割后,得到所述二维图像数据的分割结果,所述分割结果包括每个像素的类别信息和/或每个类别包括的像素区域,其中,不同类别的像素对应的颜色值不同。
15.如附记10所述的方法,其中,在所述第二坐标和所述第三坐标的差值不超过第一阈值,或者在所述第二坐标和所述第三坐标的差别不超于第一阈值且满足第一条件时,确定所述第二坐标和所述第三坐标匹配。
16.如附记15所述的方法,其中,所述第一条件包括所述二维图像数据的像素数和所述点云数据对应的像素数的差值不超过第二阈值。
17.如附记14所述的方法,其中,在确定所述第二坐标与所述二维图像数据的第三坐标匹配时,将所述分割单元分割得到的不同像素对应的颜色值添加到与各个像素对应的所述点云数据中。
18.如附记11所述的方法,其中,所述方法还包括:
在确定所述第二坐标与所述二维图像数据的第三坐标不匹配的情况下,重新估计所述相机参数和/或重新估计所述深度图;
并且,根据重新估计后的结果更新所述点云数据的所述第一坐标;
根据更新后的所述第一坐标更新所述第二坐标;
确定更新后的所述第二坐标是否与所述第三坐标匹配。
Claims (10)
1.一种数据分割装置,其特征在于,所述装置包括:
获取单元,其用于获取与二维图像数据对应的点云数据的第一坐标;
转换单元,其对所述点云数据的第一坐标进行坐标变换得到所述点云数据的第二坐标;
分割单元,其对所述二维图像数据进行分割;
第一确定单元,其确定所述第二坐标与所述二维图像数据的第三坐标是否匹配;
第二确定单元,其在所述第一确定单元确定结果为匹配时,根据所述分割单元的分割结果,得到所述点云数据的分割结果。
2.如权利要求1所述的装置,其中,所述获取单元包括:
第一估计模块,其用于根据所述二维图像数据估计相机参数;
第二估计模块,其用于根据所述二维图像数据估计二维图像数据的深度图;
计算模块,其用于根据所述相机参数和所述深度图计算所述点云数据的第一坐标。
3.如权利要求1所述的装置,其中,所述第一坐标是世界坐标系下的坐标,所述第二坐标和所述第三坐标是像素坐标系下的坐标。
4.如权利要求1所述的装置,其中,所述分割单元对所述二维图像数据进行如下分割的至少一种:
语义分割;
实例分割;
全景分割。
5.如权利要求1所述的装置,其中,所述分割单元在对所述二维图像数据进行分割后,得到所述二维图像数据的分割结果,所述分割结果包括每个像素的类别信息和/或每个类别包括的像素区域,其中,不同类别的像素对应的颜色值不同。
6.如权利要求1所述的装置,其中,所述第一确定单元在所述第二坐标和所述第三坐标的差值不超过第一阈值,或者在所述第二坐标和所述第三坐标的差别不超于第一阈值且满足第一条件时,确定所述第二坐标和所述第三坐标匹配。
7.如权利要求6所述的装置,其中,所述第一条件包括所述二维图像数据的像素数和所述点云数据对应的像素数的差值不超过第二阈值。
8.如权利要求5所述的装置,其中,在所述第一确定单元确定结果为匹配时,所述第二确定单元将所述分割单元分割得到的不同像素对应的颜色值添加到与各个像素对应的所述点云数据中。
9.如权利要求2所述的装置,其中,在所述第一确定单元确定结果为不匹配的情况下,所述第一估计模块重新估计所述相机参数和/或所述第二估计模块重新估计所述深度图;
并且,所述获取单元根据重新估计后的结果更新所述点云数据的所述第一坐标;
所述转换单元根据更新后的所述第一坐标更新所述第二坐标;
所述第一确定单元确定更新后的所述第二坐标是否与所述第三坐标匹配。
10.一种数据分割方法,其特征在于,所述方法包括:
获取与二维图像数据对应的点云数据的第一坐标;
对所述点云数据的第一坐标进行坐标变换得到所述点云数据的第二坐标;
对所述二维图像数据进行分割;
确定所述第二坐标与所述二维图像数据的第三坐标是否匹配;
在确定结果为匹配时,根据对所述二维图像数据进行分割的分割结果,得到所述点云数据的分割结果。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210512475.3A CN117115434A (zh) | 2022-05-12 | 2022-05-12 | 数据分割装置和方法 |
JP2023076216A JP2023168262A (ja) | 2022-05-12 | 2023-05-02 | データ分割装置及び方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210512475.3A CN117115434A (zh) | 2022-05-12 | 2022-05-12 | 数据分割装置和方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117115434A true CN117115434A (zh) | 2023-11-24 |
Family
ID=88797130
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210512475.3A Pending CN117115434A (zh) | 2022-05-12 | 2022-05-12 | 数据分割装置和方法 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2023168262A (zh) |
CN (1) | CN117115434A (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118011421A (zh) * | 2024-04-10 | 2024-05-10 | 中国科学院西安光学精密机械研究所 | 基于激光雷达深度估计的经纬仪图像自动调焦方法及*** |
-
2022
- 2022-05-12 CN CN202210512475.3A patent/CN117115434A/zh active Pending
-
2023
- 2023-05-02 JP JP2023076216A patent/JP2023168262A/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
JP2023168262A (ja) | 2023-11-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110568447B (zh) | 视觉定位的方法、装置及计算机可读介质 | |
US9965870B2 (en) | Camera calibration method using a calibration target | |
US10334168B2 (en) | Threshold determination in a RANSAC algorithm | |
US9420265B2 (en) | Tracking poses of 3D camera using points and planes | |
EP2111530B1 (en) | Automatic stereo measurement of a point of interest in a scene | |
US7768527B2 (en) | Hardware-in-the-loop simulation system and method for computer vision | |
CN111735439B (zh) | 地图构建方法、装置和计算机可读存储介质 | |
CN109934873B (zh) | 标注图像获取方法、装置及设备 | |
CN109613974B (zh) | 一种大场景下的ar家居体验方法 | |
EP3185212A1 (en) | Dynamic particle filter parameterization | |
Yamaguchi et al. | Superimposing thermal-infrared data on 3D structure reconstructed by RGB visual odometry | |
KR100574227B1 (ko) | 카메라 움직임을 보상한 객체 움직임 추출 장치 및 그 방법 | |
CN117115434A (zh) | 数据分割装置和方法 | |
Chen et al. | Epipole Estimation under Pure Camera Translation. | |
Bartczak et al. | Extraction of 3D freeform surfaces as visual landmarks for real-time tracking | |
CN116136408A (zh) | 室内导航方法、服务器、装置和终端 | |
CN113177975A (zh) | 基于球幕相机及激光雷达的深度计算方法及三维建模方法 | |
Liu et al. | Absolute orientation and localization estimation from an omnidirectional image | |
Penne et al. | Planar segmentation by time-of-flight cameras | |
CN117726687B (zh) | 一种融合实景三维与视频的视觉重定位方法 | |
Arslan | Accuracy assessment of single viewing techniques for metric measurements on single images | |
Masher | Accurately scaled 3-D scene reconstruction using a moving monocular camera and a single-point depth sensor | |
US11282280B2 (en) | Method and system for node vectorisation | |
Kshirsagar et al. | Camera Calibration Using Robust Intrinsic and Extrinsic Parameters | |
Ramli et al. | Enhancement of Depth Value Approximation for 3D Image-Based Modelling using Noise Filtering and Inverse Perspective Mapping Techniques for Complex Object |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |