CN114863021A - 一种基于三维重建场景的仿真数据集分析方法及*** - Google Patents
一种基于三维重建场景的仿真数据集分析方法及*** Download PDFInfo
- Publication number
- CN114863021A CN114863021A CN202210473451.1A CN202210473451A CN114863021A CN 114863021 A CN114863021 A CN 114863021A CN 202210473451 A CN202210473451 A CN 202210473451A CN 114863021 A CN114863021 A CN 114863021A
- Authority
- CN
- China
- Prior art keywords
- scene
- data set
- model
- simulation
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000004088 simulation Methods 0.000 title claims abstract description 63
- 238000004458 analytical method Methods 0.000 title claims abstract description 36
- 238000000034 method Methods 0.000 claims abstract description 34
- 238000012545 processing Methods 0.000 claims abstract description 9
- 230000008569 process Effects 0.000 claims description 18
- 230000009466 transformation Effects 0.000 claims description 18
- 238000003384 imaging method Methods 0.000 claims description 14
- 238000013507 mapping Methods 0.000 claims description 14
- 239000011159 matrix material Substances 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 11
- 238000004364 calculation method Methods 0.000 claims description 4
- 230000004888 barrier function Effects 0.000 claims description 3
- 230000035622 drinking Effects 0.000 claims description 3
- 238000012216 screening Methods 0.000 claims description 3
- 238000003860 storage Methods 0.000 claims description 3
- 230000002093 peripheral effect Effects 0.000 claims description 2
- 238000005457 optimization Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 5
- 230000004927 fusion Effects 0.000 description 3
- 230000000903 blocking effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000007499 fusion processing Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000009776 industrial production Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/04—Texture mapping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明提出了一种基于三维重建场景的仿真数据集分析方法及***,属于三维数据集处理分析的技术领域。其中,所述方法具体包括以下步骤:步骤1、通过信息采集设备获取实际应用场景数据;步骤2、对场景数据进行处理分析;步骤3、基于分析结果构建三维场景模型;步骤4、在三维场景模型中进行仿真作业;步骤5、实时获取仿真数据,构建仿真数据集。本发明通过融合具备色彩信息和深度信息的方式对三维场景进行重建,同时使用重建的三维场景模型进行仿真获取相应的仿真数据集,与现有技术相比,本发明生成的数据集解决了通用性差,以及数据单一的问题。
Description
技术领域
本发明涉及三维数据集处理分析的技术领域,特别涉及一种基于三维重建场景的仿真数据集分析方法及***。
背景技术
随着智能化技术的发展,智能化工业生产也逐渐替代冗余的人工作业,在智能设备的生产过程中,为了有效提高其实用性能,常会采用数据集训练的方式,优化相关的个性化参数。
现有技术中,针对三维重建场景的训练过程,常采用人工构建的场景进行训练和验证。但是人工构建的场景往往与实际应用环境存在纹理和光照等方面的差异,因此常常会出现相关产品在测试过程中呈良好状态,而在实际应用中出现预期不足的现象。
发明内容
发明目的:提出一种基于三维重建场景的仿真数据集分析方法及***,以解决现有技术存在的上述问题。
技术方案:第一方面,提出了一种基于三维重建场景的仿真数据集分析方法,该方法具体包括以下步骤:
步骤1、通过信息采集设备获取实际应用场景数据;
步骤2、对场景数据进行处理分析;
步骤3、基于分析结果构建三维场景模型;
步骤4、在三维场景模型中进行仿真作业;
步骤5、实时获取仿真数据,构建仿真数据集。
在第一方面的一些可实现方式中,实际应用场景数据包括:彩色照片和深度照片,通过融合彩色照片和深度照片的图像信息,解决视觉上的差异。融合彩色照片和深度照片图像信息的过程具体包括以下步骤:
步骤2.1、构建成像坐标系;
步骤2.2、转换坐标系表达式为矩阵;
步骤2.3、获取坐标系变换预设值;
步骤2.4、基于预设值获取信息采集设备的内部参数,并在完成标定后获取两种状态之间的相对变换姿态;
步骤2.5、将信息表示统一至同一坐标系;
步骤2.6、通过遍历操作整合相关的图像信息,获取符合需求的图像数据。
在对场景数据进行处理分析时,进一步通过构建标定模型对信息采集设备的畸变进行标定消除。
在第一方面的一些可实现方式中,步骤5中生成仿真数据集的过程具体包括以下步骤:
步骤5.1、构建空间导航网格,限定空间阻碍物的正确方位,形成区域内可存在路径;
步骤5.2、对三维重建模型进行表面纹理映射;
步骤5.3、在模拟平台中,基于完成好的路径以及三位重建模型进行仿真,并获取对饮产生的仿真数据。
其中,构建空间导航网格,对导航网格的计算包括以下步骤:
步骤5.1.1、通过人为调整模型坐标系使其与地面平行,从而避免引入不必要的坡度产生的误差;
步骤5.1.2、通过体素化筛选障碍物的空间位置,剔除无法通行的路径;
步骤5.1.3、划分可行走区域,并连接可互通的行走区域;
步骤5.1.4、通过遍历的方式判断可行走区域与原点是否连通,若判断结果为不连通,则删除当前区域;
步骤5.1.5、将可行走区域从体素化空间转换至向量空间;
步骤5.1.6、将已生成轮廓的可行走区域划分为凸多边形,形成通用多边形网络。
对三维重建模型进行表面纹理映射的过程进一步包括以下步骤:
步骤5.2.1、划分三维重建模型表面;
步骤5.2.2、对划分后的模型表面进行编码;
步骤5.2.3、对每一个划分后的表面使用模型的点贴图与自身预设周边范围内的进行差值运算;
步骤5.2.4、基于运算结果,获取每一个划分后表面对应的贴图方案。
第二方面,提出一种基于三维重建场景的仿真数据集分析***,该***具体包括以下模块:
用于获取实际应用场景数据的信息采集模块;
用于对场景数据进行分析的信息分析模块;
用于构建三维场景模型的模型构建模块;
用于进行仿真作业的作业执行模块;
用于构建仿真数据集的数据集仿真模块。
第三方面,提出一种基于三维重建场景的仿真数据集分析设备,该设备包括:
处理器以及存储有计算机程序指令的存储器;处理器读取并执行计算机程序指令,以实现仿真数据集分析方法。
第四方面,提出一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序指令;计算机程序指令被处理器执行时以实现仿真数据集分析方法。
有益效果:本发明提出了一种基于三维重建场景的仿真数据集分析方法及***,通过融合具备色彩信息和深度信息的方式对三维场景进行重建,同时使用重建的三维场景模型进行仿真获取相应的仿真数据集,与现有技术相比,本发明生成的数据集解决了通用性差,以及数据单一的问题。
附图说明
图1为本发明的数据处理流程图。
具体实施方式
在下文的描述中,给出了大量具体的细节以便提供对本发明更为彻底的理解。然而,对于本领域技术人员而言显而易见的是,本发明可以无需一个或多个这些细节而得以实施。在其他的例子中,为了避免与本发明发生混淆,对于本领域公知的一些技术特征未进行描述。
申请人认为,在三维场景的重建过程中,针对现有技术中对数据集的处理方式及分析结果,往往存在通用性差、数据单一等问题,无法满足同一数据集适配多种传感器的需求,以及无法动态适配多种场景对数据多样化的需求。在本申请中,我们提出了一种基于三维重建场景的仿真数据集分析方法及***,通过构建数字化三维模型生成所需的仿真数据集,并用于作为后续的测评依据,有效克服传统数据集通用性差、数据单一的问题。
实施例一
现有技术中的数据集基本都为采用确定的传感器并在预设的轨迹下完成采集,在数据集生成后往往无法根据数据集意外的轨迹产生新的数据,因此,有限的信息量常常难以满足智能化设备对视觉算法需求。针对现有技术中的问题,本实施例提出一种基于三维重建场景的仿真数据集分析方法,如图1所示,该方法具体包括以下步骤:
步骤1、通过信息采集设备获取实际应用场景数据;
步骤2、对场景数据进行处理分析;
步骤3、基于分析结果构建三维场景模型;
步骤4、在三维场景模型中进行仿真作业;
步骤5、实时获取仿真数据,构建仿真数据集。
在进一步的实施例中,获取到的场景数据包括具备彩色和深度的照片,为了克服获取到的数据无法直接融合颜色信息和深度信息,导致在视觉上的差异,进一步对获取到的信息进行融合处理。
具体的,融合过程包括以下步骤:
步骤2.1、构建成像坐标系;
步骤2.2、转换坐标系表达式为矩阵;
步骤2.3、获取坐标系变换预设值;
步骤2.4、基于预设值获取信息采集设备的内部参数,并在完成标定后获取两种状态之间的相对变换姿态;
步骤2.5、将信息表示统一至同一坐标系;
步骤2.6、通过遍历操作整合相关的图像信息,获取符合需求的图像数据。
优选实施例中,针对采集得到的信息首先以中心点O为原点,y轴向下,z轴与相机广州重合并指向外侧,x轴水平向右,建立相机坐标系,成像平面为Z=-f,其中f表示信息采集设备的等效焦距。实际应用中,由于成像过程的坐标系原点不同,因此存在映射偏差,因此,构建两种坐标系之间的变换关系表达式:
式中,fx和fy表示以像素为单位的焦距;[cx,cy]T表示原点在图像坐标系的坐标;变换关系表达式转换为矩阵形式后为:
空间中的一点P在彩色成像坐标系和深度成像坐标系中的坐标分别为:
p1=π1(P1)
p2=π2(T(P2))
式中,P1表示点P在彩色成像坐标系中的坐标;π1、π2表示在两个坐标系中的投影操作;通过标定,获取信息采集设备的内参K1和K2,随后基于标定,获得空间点和世界坐标及图像坐标,从而获取彩色成像坐标系和深度成像坐标系之间的相对变换姿态,即:
式中,R表示旋转矩阵;t表示平移矩阵。由于信息采集设备中可获取点P相对于成像面的深度,因此P2与P1的投影关系也是确认的,所以便可以获取P1对应的深度信息,P1点本身由彩色信息获取设备捕捉,包含RGB信息,因此在彩色成像坐标系中,将融合两种信息时所需的单应性变换整合到新的内参矩阵M中:
通过遍历上述过程,便可获取空间中所有融合色彩信息和深度信息的点。本实施例克服了简单叠加会出现的视差问题,获取到既包含颜色信息有包含深度信息的场景图像。
在进一步的实施例中,由于信息采集设备在获取相关信息时,光线投过镜片组会对成像产生影响,另外透镜与成像芯片不平行也会导致光线与理想情况产生偏离。因此需要建立标定该模型进一步对产生的畸变进行标定消除。
在进一步的实施例中,在构建三维场景模型时,包括数据融合和表面重构两大方面;其中,数据融合为计算采集到的图像数据并将相关的信息融合到同一个坐标系中;表面重构为从融合的数据中恢复待重建场景的表面。
具体的,数据融合的过程中采用计算图像获取过程中的位姿,同时以计算的全局位姿为依据将所有的图像信息融合到同一坐标系中。实施过程中采用基于图像特征的关键点追踪,以此作为依据解算相邻帧位姿,并通过全局位姿优化降低解算位姿的整体误差,从而通过优化过的全局位姿数据实现图像数据的融合。对于同一场景下采集到的图像数据,当确定了足够多在不同图片中由相同空间中的点确定的对应关系,便可以以此为依据获取信息采集设备的位姿变化。
全局位姿优化的目的是调整全部解算出的传感器位姿,从而减少全局误差,使得重建效果更优。相较于现有技术,本实施例采用分层优化的位姿优化策略,在内层进行局部的位置优化,随后再在每个内层抽取关键帧进行全局的位姿优化,最后在进行表面恢复的过程中仅采用关键帧数据。进行全局位姿优化时侯建能量函数并进行最小二乘计算,实现全局优化的过程包括内层优化和外层优化,具体步骤如下:
步骤3.1、内层优化;
步骤3.1.1、计算相邻帧的位姿变换,并同时验证帧与帧之间的匹配;
步骤3.1.2、按照采集时间对所有帧进行排序,以及分块;优选实施例中,分块的需求为块内帧数不大于11且块内所有帧与其相邻帧的匹配关系为通过验证;
步骤3.1.3、在块内将第2到11帧与第一帧对齐,计算他们之间的欧式匹配误差,并根据误差构建能量函数;
式中,pi,k表示在第i帧中第k个点的三维坐标;|S|表示块内所有帧的集合;Ti表示将帧i变换到块内第一帧坐标系下的对应变换;
步骤3.1.4、采用高斯牛顿法进行非线性优化,获取是能函数最小的第一帧位姿变换矩阵T;
步骤3.1.5、利用位子变换矩阵T将块内所有帧的特征信息变换到第一帧上。
其中,每个块内的第一帧为整个块的关键帧,关键帧中包含所有帧的特征信息。
步骤3.2、外层优化;
步骤3.2.1、将第一个块的关键帧坐标系作为全局的世界坐标系;
步骤3.2.2、基于世界坐标系,所有关键帧与特征点进行匹配;
步骤3.2.3、基于匹配过计算获取世界坐标的变换矩阵,并将当前帧关键点转移到世界坐标系;
步骤3.2.4、构建全局位姿变换矩阵的能量函数,构建能量函数时需要兼具稀疏的特征信息、稠密的光度和集合信息,对应表达式为:
式中,ωsparse表示稀疏匹配项权重;ωdense表示稠密匹配项权重;p′i,k表示第i帧中检测到的第k个特征点;C(i,j)表示第i和第j个坐标系所有配对对应的集合。
步骤3.2.5、在每新采集到的块像素并计算关键帧后重新进行非线性优化;
步骤3.2.6、根据新计算出的全局位姿变换矩阵将所有关键帧的关键点重新对齐到世界坐标系上。
在进一步的实施例中,在重建的三维场景中获取仿真数据集的时候,由于三维重建的模型无表面纹理,因此在不进行纹理映射的时候将无法根据视角的更改生成正确的图像序列。因此,生成仿真数据集的过程具体包括以下步骤:
步骤5.1、构建空间导航网格,限定空间阻碍物的正确方位,形成区域内可存在路径;
具体的,对导航网格的计算包括以下步骤:
步骤5.1.1、通过人为调整模型坐标系使其与地面平行,从而避免引入不必要的坡度产生的误差;
步骤5.1.2、通过体素化筛选障碍物的空间位置,剔除无法通行的路径;
步骤5.1.3、划分可行走区域,并连接可互通的行走区域;
步骤5.1.4、通过遍历的方式判断可行走区域与原点是否连通,若判断结果为不连通,则删除当前区域;
步骤5.1.5、将可行走区域从体素化空间转换至向量空间;
步骤5.1.6、将已生成轮廓的可行走区域划分为凸多边形,形成通用多边形网络。
通过对三维重建模型计算导航网络的结果,使得导航网格满足重建的三维场景模型中生成仿真数据集对可行走区域的正确约束需求。
步骤5.2、对三维重建模型进行表面纹理映射;
具体的,由于本实施例中的三维重建生成的模型为点贴图,而仿真过程中生成的数据集需要能根据视角变换生成不同视角下的观测图,所以需要对模型的表明进行纹理映射。首先,对模型表面进行分割,并对分割后获取到的平面进行编码;然后,对于分割后的每一个小平面采用模型自带的点贴图与自身临近的进行差值运算;最后,基于运算的结果获取当前小平面上的贴图方案。
步骤5.3、在模拟平台中,基于完成好的路径以及三位重建模型进行仿真,并获取对饮产生的仿真数据。
本实施例通过对三维场景模型约束模型内可通行区域,以及提出纹理映射的实现方法,获取到模型在仿真过程中不同视角、位置下的正确渲染图像。
在一个实施例中,提出一种基于三维重建场景的仿真数据集分析***,该***具体包括以下模块:
用于获取实际应用场景数据的信息采集模块;
用于对场景数据进行分析的信息分析模块;
用于构建三维场景模型的模型构建模块;
用于进行仿真作业的作业执行模块;
用于构建仿真数据集的数据集仿真模块。
在进一步的实施例中,信息采集模块首先采用信息采集设备获取实际应用场景数据,并传输至信息分析模块中;其次,信息分析模块对获取到的场景数据进行处理分析,获取兼备彩色信息和深度信息的图像数据;再次,模型构建模块根据分析结果构建三维场景模型;从次,作业执行模块利用三维场景模型进行仿真作业,并实时记录产生的仿真数据;最后,数据集仿真模块根据记录的仿真数据构建仿真数据集。
在一个实施例中,提出一种基于三维重建场景的仿真数据集分析设备,该设备包括:
处理器以及存储有计算机程序指令的存储器;处理器读取并执行计算机程序指令,以实现仿真数据集分析方法。
在一个实施例中,提出一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序指令;计算机程序指令被处理器执行时以实现仿真数据集分析方法。
如上所述,尽管参照特定的优选实施例已经表示和表述了本发明,但其不得解释为对本发明自身的限制。在不脱离所附权利要求定义的本发明的精神和范围前提下,可对其在形式上和细节上做出各种变化。
Claims (10)
1.一种基于三维重建场景的仿真数据集分析方法,其特征在于,该方法具体包括以下步骤:
步骤1、通过信息采集设备获取实际应用场景数据;
步骤2、对场景数据进行处理分析;
步骤3、基于分析结果构建三维场景模型;
步骤4、在三维场景模型中进行仿真作业;
步骤5、实时获取仿真数据,构建仿真数据集。
2.根据权利要求1所述的一种基于三维重建场景的仿真数据集分析方法,其特征在于,所述实际应用场景数据包括:彩色照片和深度照片,通过融合彩色照片和深度照片的图像信息,解决视觉上的差异。
3.根据权利要求2所述的一种基于三维重建场景的仿真数据集分析方法,其特征在于,融合彩色照片和深度照片图像信息的过程具体包括以下步骤:
步骤2.1、构建成像坐标系;
步骤2.2、转换坐标系表达式为矩阵;
步骤2.3、获取坐标系变换预设值;
步骤2.4、基于预设值获取信息采集设备的内部参数,并在完成标定后获取两种状态之间的相对变换姿态;
步骤2.5、将信息表示统一至同一坐标系;
步骤2.6、通过遍历操作整合相关的图像信息,获取符合需求的图像数据。
4.根据权利要求1所述的一种基于三维重建场景的仿真数据集分析方法,其特征在于,在对场景数据进行处理分析时,进一步通过构建标定模型对信息采集设备的畸变进行标定消除。
5.根据权利要求1所述的一种基于三维重建场景的仿真数据集分析方法,其特征在于,步骤5中生成仿真数据集的过程具体包括以下步骤:
步骤5.1、构建空间导航网格,限定空间阻碍物的正确方位,形成区域内可存在路径;
步骤5.2、对三维重建模型进行表面纹理映射;
步骤5.3、在模拟平台中,基于完成好的路径以及三位重建模型进行仿真,并获取对饮产生的仿真数据。
6.根据权利要求5所述的一种基于三维重建场景的仿真数据集分析方法,其特征在于,构建空间导航网格,对导航网格的计算包括以下步骤:
步骤5.1.1、通过人为调整模型坐标系使其与地面平行,从而避免引入不必要的坡度产生的误差;
步骤5.1.2、通过体素化筛选障碍物的空间位置,剔除无法通行的路径;
步骤5.1.3、划分可行走区域,并连接可互通的行走区域;
步骤5.1.4、通过遍历的方式判断可行走区域与原点是否连通,若判断结果为不连通,则删除当前区域;
步骤5.1.5、将可行走区域从体素化空间转换至向量空间;
步骤5.1.6、将已生成轮廓的可行走区域划分为凸多边形,形成通用多边形网络。
7.根据权利要求5所述的一种基于三维重建场景的仿真数据集分析方法,其特征在于,对三维重建模型进行表面纹理映射的过程进一步包括以下步骤:
步骤5.2.1、划分三维重建模型表面;
步骤5.2.2、对划分后的模型表面进行编码;
步骤5.2.3、对每一个划分后的表面使用模型的点贴图与自身预设周边范围内的进行差值运算;
步骤5.2.4、基于运算结果,获取每一个划分后表面对应的贴图方案。
8.一种基于三维重建场景的仿真数据集分析***,用于实现权利要求1-7任意一项方法,其特征在于,该***具体包括以下模块:
用于获取实际应用场景数据的信息采集模块;
用于对场景数据进行分析的信息分析模块;
用于构建三维场景模型的模型构建模块;
用于进行仿真作业的作业执行模块;
用于构建仿真数据集的数据集仿真模块。
9.一种基于三维重建场景的仿真数据集分析设备,其特征在于,所述设备包括:
处理器以及存储有计算机程序指令的存储器;
所述处理器读取并执行所述计算机程序指令,以实现如权利要求1-7任意一项所述的仿真数据集分析方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序指令,所述计算机程序指令被处理器执行时实现如权利要求1-7任意一项所述的仿真数据集分析方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210473451.1A CN114863021A (zh) | 2022-04-29 | 2022-04-29 | 一种基于三维重建场景的仿真数据集分析方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210473451.1A CN114863021A (zh) | 2022-04-29 | 2022-04-29 | 一种基于三维重建场景的仿真数据集分析方法及*** |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114863021A true CN114863021A (zh) | 2022-08-05 |
Family
ID=82635766
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210473451.1A Pending CN114863021A (zh) | 2022-04-29 | 2022-04-29 | 一种基于三维重建场景的仿真数据集分析方法及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114863021A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116150530A (zh) * | 2023-04-23 | 2023-05-23 | 星杓(成都)信息科技有限公司 | 一种基于可视域的三维数据的管理加载方法及*** |
-
2022
- 2022-04-29 CN CN202210473451.1A patent/CN114863021A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116150530A (zh) * | 2023-04-23 | 2023-05-23 | 星杓(成都)信息科技有限公司 | 一种基于可视域的三维数据的管理加载方法及*** |
CN116150530B (zh) * | 2023-04-23 | 2023-07-11 | 星杓(成都)信息科技有限公司 | 一种基于可视域的三维数据的管理加载方法及*** |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109461180B (zh) | 一种基于深度学习的三维场景重建方法 | |
CN111063021B (zh) | 一种空间运动目标的三维重建模型建立方法及装置 | |
CN115082639B (zh) | 图像生成方法、装置、电子设备和存储介质 | |
CN111968129A (zh) | 具有语义感知的即时定位与地图构建***及方法 | |
CN112270249A (zh) | 一种融合rgb-d视觉特征的目标位姿估计方法 | |
CN111126304A (zh) | 一种基于室内自然场景图像深度学习的增强现实导航方法 | |
CN106780592A (zh) | 基于相机运动和图像明暗的Kinect深度重建算法 | |
CN107240129A (zh) | 基于rgb‑d相机数据的物体及室内小场景恢复与建模方法 | |
CN111768452B (zh) | 一种基于深度学习的非接触式自动贴图方法 | |
CN115345822A (zh) | 一种面向航空复杂零件的面结构光自动化三维检测方法 | |
CN107369204B (zh) | 一种从单幅照片恢复出场景基本三维结构的方法 | |
CN113362247A (zh) | 一种激光融合多目相机的语义实景三维重建方法及*** | |
CN113256698B (zh) | 一种具有深度预测的单目3d重建方法 | |
CN108648264A (zh) | 基于运动恢复的水下场景重建方法及存储介质 | |
CN112862736B (zh) | 一种基于点的实时三维重建与优化方法 | |
WO2023116430A1 (zh) | 视频与城市信息模型三维场景融合方法、***及存储介质 | |
CN112929626A (zh) | 一种基于智能手机影像的三维信息提取方法 | |
CN111860651A (zh) | 一种基于单目视觉的移动机器人半稠密地图构建方法 | |
CN113160421A (zh) | 一种基于投影的空间式实物交互虚拟实验方法 | |
CN110176041B (zh) | 一种基于双目视觉算法的新型列车辅助装配方法 | |
CN113393524A (zh) | 一种结合深度学习和轮廓点云重建的目标位姿估计方法 | |
CN115830135A (zh) | 一种图像处理方法、装置及电子设备 | |
CN114998448A (zh) | 一种多约束双目鱼眼相机标定与空间点定位的方法 | |
CN114863021A (zh) | 一种基于三维重建场景的仿真数据集分析方法及*** | |
CN114494582A (zh) | 一种基于视觉感知的三维模型动态更新方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |