CN116503567B - 基于ai大数据的智慧建模管理*** - Google Patents

基于ai大数据的智慧建模管理*** Download PDF

Info

Publication number
CN116503567B
CN116503567B CN202310752347.0A CN202310752347A CN116503567B CN 116503567 B CN116503567 B CN 116503567B CN 202310752347 A CN202310752347 A CN 202310752347A CN 116503567 B CN116503567 B CN 116503567B
Authority
CN
China
Prior art keywords
image
depth
processing
pixel points
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310752347.0A
Other languages
English (en)
Other versions
CN116503567A (zh
Inventor
付刚
杨杰聪
陈绍栋
付琳林
林涌瀚
朱芸贞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Intelligent Computing Information Technology Co ltd
Original Assignee
Guangzhou Intelligent Computing Information Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Intelligent Computing Information Technology Co ltd filed Critical Guangzhou Intelligent Computing Information Technology Co ltd
Priority to CN202310752347.0A priority Critical patent/CN116503567B/zh
Publication of CN116503567A publication Critical patent/CN116503567A/zh
Application granted granted Critical
Publication of CN116503567B publication Critical patent/CN116503567B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)

Abstract

本发明属于建模领域,公开了基于AI大数据的智慧建模管理***,包括相机模块、图像处理模块和建模模块;相机模块用于获取待建模的物体的深度图像的集合;图像处理模块用于获得预处理图像的集合;建模模块用于基于预处理图像的集合建立待建模的物体的三维模型;相机模块包括深度相机、水平移动装置和计算装置;获取待建模的物体在拍摄角度A的深度图像的过程包括:获得待建模的物体在拍摄角度A的第一图像;计算出水平移动距离;将深度相机移动至第一位置和第二位置并获得对应的第二图像和第三图像,基于第二图像和第三图像对第一图像进行优化处理,获得拍摄角度A的深度图像。本发明能够有效地减少深度图像中缺失深度信息的像素点的比例。

Description

基于AI大数据的智慧建模管理***
技术领域
本发明涉及建模领域,尤其涉及基于AI大数据的智慧建模管理***。
背景技术
对物体进行三维建模的过程中,一般需要先对物体进行拍摄,获得物体的深度图像,对深度图像进行预处理后,基于深度图像来进行建模。现有技术中获取深度图像时,深度图像可能会因为某个位置的物体对当前位置的深度相机所发出的光线的反射角度较大,使得深度相机发出的光线被物体以较大的角度反射出去,造成无法获得该位置的所反射回来的光线,从而导致无法获得该位置的深度信息,使得深度图像中该位置所对应的像素点的缺失深度信息,导致建模的结果不够准确。
发明内容
本发明的目的在于公开基于AI大数据的智慧建模管理***,解决如何减少深度图像中缺失深度信息的像素点的比例,从而提高建模的结果的准确程度的问题。
为了达到上述目的,本发明提供如下技术方案:
本发明提供了基于AI大数据的智慧建模管理***,包括相机模块、图像处理模块和建模模块;
相机模块用于从预设的多个拍摄角度对待建模的物体进行拍摄,获取待建模的物体的深度图像的集合;
图像处理模块用于对深度图像的集合中的深度图像进行预处理,获得预处理图像的集合;
建模模块用于基于预处理图像的集合建立待建模的物体的三维模型;
相机模块包括深度相机、水平移动装置和计算装置;
获取待建模的物体在拍摄角度A的深度图像的过程包括:
深度相机从预设的拍摄角度A对待建模的物体进行拍摄,获得待建模的物体在拍摄角度A的第一图像;
计算装置根据第一图像计算出水平移动距离;
水平移动装置根据水平移动距离对深度相机进行水平移动,将深度相机移动至第一位置和第二位置;
深度相机在第一位置获取待建模的物体的第二图像以及在第二位置获取待建模的物体第三图像;
计算装置基于第二图像和第三图像对第一图像进行优化处理,获得拍摄角度A的深度图像。
优选地,根据第一图像计算出水平移动距离,包括:
获取第一图像中的无效像素点的数量
使用如下计算函数获取水平移动距离:
表示水平移动距离,/>表示第一图像中的像素点的总数,/>表示预设的水平移动距离标准值。
优选地,获取第一图像中的无效像素点的数量,包括:
对于第一图像中的像素点,若该第一图像中不包含像素点/>的深度值,则表示像素点/>为无效像素点。
优选地,根据水平移动距离对深度相机进行水平移动,将深度相机移动至第一位置和第二位置,包括:
以深度相机拍摄第一图像时,深度相机的镜头的主光轴的方向为x轴,以垂直于主光轴的方向为y轴,以深度相机的位置为坐标原点建立水平移动坐标系
则第一位置的坐标为,第二位置的坐标为/>
将深度相机从坐标原点移动至的位置,从而实现将深度相机移动至第一位置;
将深度相机从坐标原点移动至的位置,从而实现将深度相机移动至第二位置。
优选地,基于第二图像和第三图像对第一图像进行优化处理,获得拍摄角度A的深度图像,包括:
对第一图像和第二图像进行配准处理,获得第一处理信息;
基于第一处理信息对第一图像进行优化处理,获得中间图像;
对中间图像和第三图像进行配准处理,获得第二处理信息;
基于第二处理信息对中间图像进行优化处理,获得拍摄角度A的深度图像。
优选地,对深度图像的集合中的深度图像进行预处理,包括:
对深度图像进行边缘检测计算,获得深度图像中的边缘像素点;
基于边缘像素点获取第一处理集合;
基于第一处理集合获取第二处理集合;
分别对第一处理集合和第二处理集合中的像素点进行滤波处理,获得预处理图像。
优选地,对深度图像进行边缘检测计算,获得深度图像中的边缘像素点,包括:
使用边缘检测算法对深度图像进行计算,获得深度图像中的边缘像素点。
优选地,基于边缘像素点获取第一处理集合,包括:
将边缘像素点及边缘像素点的预设大小的邻域中的像素点作为第一处理集合中的像素点。
优选地,基于第一处理集合获取第二处理集合,包括:
将深度图像中除了第一处理集合中的像素点之外的像素点作为第二处理集合中的像素点。
优选地,分别对第一处理集合和第二处理集合中的像素点进行滤波处理,获得预处理图像,包括:
在深度图像中,先使用基于深度学习去噪算法对第一处理集合中的像素点进行滤波处理,然后使用基于空间域的图像降噪方法对第二处理集合中的像素点进行滤波处理,获得预处理图像。
本发明对建模的过程进行管理时,对于拍摄角度A,采用的不是只获取一张深度图像的方式来得到拍摄角度A的深度图像,而是基于第一图像、第二图像和第三图像来综合计算得到深度图像,能够有效地减少深度图像中缺失深度信息的像素点的比例,从而有效地提高建模结果的准确程度。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明基于AI大数据的智慧建模管理***的一种示意图。
图2为本发明坐标系的一种示意图。
图3为本发明第一图像的坐标系的一种示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本申请及其应用或使用的任何限制。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
如图1所示的一种实施例,本发明提供了基于AI大数据的智慧建模管理***,包括相机模块、图像处理模块和建模模块;
相机模块用于从预设的多个拍摄角度对待建模的物体进行拍摄,获取待建模的物体的深度图像的集合;
图像处理模块用于对深度图像的集合中的深度图像进行预处理,获得预处理图像的集合;
建模模块用于基于预处理图像的集合建立待建模的物体的三维模型;
相机模块包括深度相机、水平移动装置和计算装置;
获取待建模的物体在拍摄角度A的深度图像的过程包括:
深度相机从预设的拍摄角度A对待建模的物体进行拍摄,获得待建模的物体在拍摄角度A的第一图像;
计算装置根据第一图像计算出水平移动距离;
水平移动装置根据水平移动距离对深度相机进行水平移动,将深度相机移动至第一位置和第二位置;
深度相机在第一位置获取待建模的物体的第二图像以及在第二位置获取待建模的物体第三图像;
计算装置基于第二图像和第三图像对第一图像进行优化处理,获得拍摄角度A的深度图像。
本发明对建模的过程进行管理时,对于拍摄角度A,采用的不是只获取一张深度图像的方式来得到拍摄角度A的深度图像,而是基于第一图像、第二图像和第三图像来综合计算得到深度图像,能够有效地减少深度图像中缺失深度信息的像素点的比例,从而有效地提高建模结果的准确程度。
当从拍摄角度A中对待建模的物体进行拍摄时,待建模的物体上可能存在能够对深度相机所发出的光线的进行反射角度的反射的区域,此时,若直接将第一图像作为进行建模的深度图像,那么,在建立的模型中,将会缺少该区域的信息,因此,本发明通过对深度相机进行水平移动,从拍摄角度A的右侧和左侧分别对待建模的物体进行拍摄,获得第二图像和第三图像,由于深度相机发出的光线在该区域的入射角度发生变化,从而能够提高获得该区域的深度信息的概率。基于得到的第二图像和第三图像对第一图像进行优化处理,便能够降低第一图像中缺少深度信息的像素点的比例。
具体的,不同拍摄角度的集合可以通过大数据分析的方式得到,即对现有的三维模型的深度图像数据进行大数据分析,判断从哪些角度进行拍摄能够获取足以建立完整的三维模型的深度图像。例如,当需要对一个正方体进行建模时,拍摄角度为垂直于正方体的平面的角度。
当相邻的深度图像之间的重叠程度越低时,所需要的深度图像的数量便越少,从而能够减少数据获取的压力。
优选地,基于AI大数据的智慧建模管理***还包括数据库模块,数据库模块用于保存不同类型的待建模物体的拍摄角度。
优选地,根据第一图像计算出水平移动距离,包括:
获取第一图像中的无效像素点的数量
使用如下计算函数获取水平移动距离:
表示水平移动距离,/>表示第一图像中的像素点的总数,/>表示预设的水平移动距离标准值。
在本发明中,水平移动距离的大小与无效像素点的数量有关,无效像素点的数量越多,则水平移动距离越大,从而实现了水平移动距离的自适应计算,能够在提高第二图像和第三图像的有效性的同时,避免水平移动距离过大导致后续的图像配准困难,无法得到准确的配准结果,影响优化处理的效果的问题。因为图像配准是需要两张图像存在重合的地方的,重合的比例越大,则配准的准确率越高。
优选地,获取第一图像中的无效像素点的数量,包括:
对于第一图像中的像素点,若该第一图像中不包含像素点/>的深度值,则表示像素点/>为无效像素点。
在本发明中,对于无法获得深度值的像素点,本发明将其深度值设置为0,用以表示没有包含该像素点的深度值。
优选地,根据水平移动距离对深度相机进行水平移动,将深度相机移动至第一位置和第二位置,包括:
以深度相机拍摄第一图像时,深度相机的镜头的主光轴的方向为x轴,以垂直于主光轴的方向为y轴,以深度相机的位置为坐标原点建立水平移动坐标系
则第一位置的坐标为,第二位置的坐标为
将深度相机从坐标原点移动至的位置,从而实现将深度相机移动至第一位置;
将深度相机从坐标原点移动至的位置,从而实现将深度相机移动至第二位置。
这本发明中,仅进行水平移动,能够有效地降低后续图像配准的难度。
具体的,建立的坐标系如图2所示,在图2中,箭头a为深度相机拍摄第一图像时,深度相机的镜头的主光轴的方向为,O表示坐标原点,即深度相机拍摄第一图像时的位置。
优选地,基于第二图像和第三图像对第一图像进行优化处理,获得拍摄角度A的深度图像,包括:
对第一图像和第二图像进行配准处理,获得第一处理信息;
基于第一处理信息对第一图像进行优化处理,获得中间图像;
对中间图像和第三图像进行配准处理,获得第二处理信息;
基于第二处理信息对中间图像进行优化处理,获得拍摄角度A的深度图像。
由于拍摄的位置发生了变化,因此,对于待建模的物体上的点D而言,点D在第一图像和第二图像及第三图像中的坐标与发生了变化,而且,点D可能处于弯曲的区域中,因此,无法直接利用第二图像及第三图像中的深度信息来计算第一图像中的无效像素点的深度信息。因此,本发明通过图像配准的方式来获取第一图像中的像素点和第二图像中的像素点的对应关系,以及获取中间图像中的像素点和第三图像中的像素点的对应关系,从而实现基于第二图像和第三图像对第一图像进行优化处理。
而在处理的过程中,本发明先利用第二图像中对第一图像进行了优化处理,然后,对于第一图像中剩余的没有进行优化处理的像素点,本发明利用第三图像来进行优化处理。这样设置,能够避免分别利用第二图像、第三图像对第一图像进行优化处理导致的重复优化的问题,因为分别进行优化处理后,还需要将两个优化处理结果进行合并才能得到最终的深度图像。而由于两个优化处理过程是分开的,对于第一图像中的无效像素点,可能会分别被基于第一图像和第二图像被计算出深度值,这样就导致了重复的计算,降低了获得深度图像的效率。
优选地,对第一图像和第二图像进行配准处理,获得第一处理信息,包括:
以第一图像为参考图像,第二图像为待配准图像,对第二图像进行配准处理,将第二图像中的像素点映射到第一图像的坐标系中,获得第二临时图像;
获取第一图像中与第二临时图像中的像素点坐标相同的像素点的集合
在第一图像中获取中的无效像素点的集合/>
在第二临时图像中获取与中的像素点坐标相同的像素点的集合/>
获取中的像素点在第二图像中对应的像素点的集合/>
中的无效像素点删除,获得集合/>
获取集合中的像素点在第一图像中对应的像素点的集合/>
中的像素点在第二图像中的对应的像素点的深度值、集合/>作为第一处理信息。
具体的,上述配准处理的过程主要是为了获得第一图像中的无效像素点在第二图像中对应的像素点。由于拍摄角度不同,第一图像中的像素点无法直接与第二图像中的像素点对应上。
因此,本发明先进行图像配准,将第二图像的像素点映射到第一图像的坐标系中,获得第二临时图像,然后基于第二临时图像来建立第一图像和第二图像之间的关系。
具体的映射方法属于现有技术,例如申请号为CN201510382287.3 的专利等现有技术已经公开,这里不再赘述。
具体的,中的无效像素点为第二图像中不包含深度信息的像素点。
优选地,基于第一处理信息对第一图像进行优化处理,获得中间图像,包括:
对第一图像中的无效像素点进行优化处理,获得中间图像;
对第一图像中的无效像素点进行优化处理的过程包括:
对于集合中的无效像素点/>,采用如下公式获取/>的深度值:
表示/>在中间图像中的深度值;/>表示/>在第二图像中的对应的像素点的深度值,S表示深度相机拍摄第二图像时镜头的主光轴与深度相机拍摄第二图像时的位置与坐标原点之间的连线之间的夹角。
由于对第一图像、第二图像、第三图像的进行拍摄时,深度相机的高度相同,因此,本发明利用余弦定理来获得第一图像中的无效像素点的深度值,从而实现优化处理,降低第一图像中的无效像素点的比例。
建立的第一图像的坐标系如图3所示,深度相机拍摄第二图像时的位置为F,待建模的物体为G。E表示深度相机拍摄第二图像时的位置在第一图像的坐标系中对应的点。
EF表示第一位置与坐标原点之间的距离,而第一位置的坐标已知,则EF的距离已知,而FG表示的是第二相机与像素点在现实世界中对应的位置之间的距离,因此EF和FG的距离已知,且夹角S已知,利用余弦定理便可以知道EG的距离,即/>的深度值。
优选地,对中间图像和第三图像进行配准处理,获得第二处理信息,包括:
以中间图像为参考图像,第三图像为待配准图像,对第三图像进行配准处理,将第三图像中的像素点映射到中间图像的坐标系中,获得第三临时图像;
获取中间图像中与第三临时图像中的像素点坐标相同的像素点的集合
在中间图像中获取中的无效像素点的集合/>
在第三临时图像中获取与中的像素点坐标相同的像素点的集合/>
获取中的像素点在第三图像中对应的像素点的集合/>
中的无效像素点删除,获得集合/>
获取集合中的像素点在中间图像中对应的像素点的集合/>
中的像素点在第三图像中对应的像素点的深度值、集合/>作为第二处理信息。
具体的,上述配准处理的过程主要是为了获得第一图像中的无效像素点在第三图像中对应的像素点。由于拍摄角度不同,第一图像中的像素点无法直接与第三图像中的像素点对应上。
因此,本发明先进行图像配准,将第三图像的像素点映射到中间图像的坐标系中,获得第三临时图像,然后基于第三临时图像来建立中间图像和第二图像之间的关系。
具体的,中的无效像素点为第三图像中不包含深度信息的像素点。
优选地,基于第二处理信息对中间图像进行优化处理,获得拍摄角度A的深度图像,包括:
对中间图像中的无效像素点进行优化处理,获得拍摄角度A的深度图像;
对中间图像中的无效像素点进行优化处理的过程包括:
对于集合中的无效像素点/>,采用如下公式获取/>的深度值:
表示/>在深度图像/>中的深度值;/>表示/>在第三图像中的对应的像素点的深度值,T表示深度相机拍摄第三图像时镜头的主光轴与与深度相机拍摄第三图像时的位置与坐标原点之间的连线之间的夹角。
具体的,对中间图像的坐标系的理解可以参考第一图像的坐标系,这里不再赘述。
优选地,对深度图像的集合中的深度图像进行预处理,包括:
对深度图像进行边缘检测计算,获得深度图像中的边缘像素点;
基于边缘像素点获取第一处理集合;
基于第一处理集合获取第二处理集合;
分别对第一处理集合和第二处理集合中的像素点进行滤波处理,获得预处理图像。
具体的,由于深度图像的边缘区域与非边缘区域的复杂程度并不相同,因此,本发明利用边缘像素点来获得第一处理集合和第二处理集合,从而能够对不同的复杂程度的区域采用不同的降噪算法来进行滤波处理,在保证滤波结果的同时,避免对所有的像素点采用较为耗时的滤波算法进行滤波处理,能够缩短滤波处理的时间。
优选地,对深度图像进行边缘检测计算,获得深度图像中的边缘像素点,包括:
使用边缘检测算法对深度图像进行计算,获得深度图像中的边缘像素点。
优选地,基于边缘像素点获取第一处理集合,包括:
将边缘像素点及边缘像素点的预设大小的邻域中的像素点作为第一处理集合中的像素点。
例如,预设大小的邻域可以是以边缘像素点为中心的,大小的区域。
优选地,基于第一处理集合获取第二处理集合,包括:
将深度图像中除了第一处理集合中的像素点之外的像素点作为第二处理集合中的像素点。
优选地,分别对第一处理集合和第二处理集合中的像素点进行滤波处理,获得预处理图像,包括:
在深度图像中,先使用基于深度学习去噪算法对第一处理集合中的像素点进行滤波处理,然后使用基于空间域的图像降噪方法对第二处理集合中的像素点进行滤波处理,获得预处理图像。
具体的,基于深度学习去噪算法可以是基于卷积神经网络的去噪方法、基于残差网络的去噪方法等。
最后应说明的是:以上实施例仅用以说明本发明的技术方案而非对其进行限制,尽管参照较佳实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对本发明的技术方案进行修改或者等同替换,而这些修改或者等同替换亦不能使修改后的技术方案脱离本发明技术方案的精神和范围。

Claims (7)

1.基于AI大数据的智慧建模管理***,其特征在于,包括相机模块、图像处理模块和建模模块;
相机模块用于从预设的多个拍摄角度对待建模的物体进行拍摄,获取待建模的物体的深度图像的集合;
图像处理模块用于对深度图像的集合中的深度图像进行预处理,获得预处理图像的集合;
建模模块用于基于预处理图像的集合建立待建模的物体的三维模型;
相机模块包括深度相机、水平移动装置和计算装置;
获取待建模的物体在拍摄角度A的深度图像的过程包括:
深度相机从预设的拍摄角度A对待建模的物体进行拍摄,获得待建模的物体在拍摄角度A的第一图像;
计算装置根据第一图像计算出水平移动距离;
水平移动装置根据水平移动距离对深度相机进行水平移动,将深度相机移动至第一位置和第二位置;
深度相机在第一位置获取待建模的物体的第二图像以及在第二位置获取待建模的物体第三图像;
计算装置基于第二图像和第三图像对第一图像进行优化处理,获得拍摄角度A的深度图像;
根据第一图像计算出水平移动距离,包括:
获取第一图像中的无效像素点的数量
使用如下计算函数获取水平移动距离:
表示水平移动距离,/>表示第一图像中的像素点的总数,/>表示预设的水平移动距离标准值;
根据水平移动距离对深度相机进行水平移动,将深度相机移动至第一位置和第二位置,包括:
以深度相机拍摄第一图像时,深度相机的镜头的主光轴的方向为x轴,以垂直于主光轴的方向为y轴,以深度相机的位置为坐标原点建立水平移动坐标系
则第一位置的坐标为,第二位置的坐标为/>
将深度相机从坐标原点移动至的位置,从而实现将深度相机移动至第一位置;
将深度相机从坐标原点移动至的位置,从而实现将深度相机移动至第二位置;
基于第二图像和第三图像对第一图像进行优化处理,获得拍摄角度A的深度图像,包括:
对第一图像和第二图像进行配准处理,获得第一处理信息;
基于第一处理信息对第一图像进行优化处理,获得中间图像;
对中间图像和第三图像进行配准处理,获得第二处理信息;
基于第二处理信息对中间图像进行优化处理,获得拍摄角度A的深度图像;
对第一图像和第二图像进行配准处理,获得第一处理信息,包括:
以第一图像为参考图像,第二图像为待配准图像,对第二图像进行配准处理,将第二图像中的像素点映射到第一图像的坐标系中,获得第二临时图像;
获取第一图像中与第二临时图像中的像素点坐标相同的像素点的集合
在第一图像中获取中的无效像素点的集合/>
在第二临时图像中获取与中的像素点坐标相同的像素点的集合/>
获取中的像素点在第二图像中对应的像素点的集合/>
中的无效像素点删除,获得集合/>
获取集合中的像素点在第一图像中对应的像素点的集合/>
中的像素点在第二图像中的对应的像素点的深度值、集合/>作为第一处理信息。
2.根据权利要求1所述的基于AI大数据的智慧建模管理***,其特征在于,获取第一图像中的无效像素点的数量,包括:
对于第一图像中的像素点,若该第一图像中不包含像素点/>的深度值,则表示像素点/>为无效像素点。
3.根据权利要求1所述的基于AI大数据的智慧建模管理***,其特征在于,对深度图像的集合中的深度图像进行预处理,包括:
对深度图像进行边缘检测计算,获得深度图像中的边缘像素点;
基于边缘像素点获取第一处理集合;
基于第一处理集合获取第二处理集合;
分别对第一处理集合和第二处理集合中的像素点进行滤波处理,获得预处理图像。
4.根据权利要求3所述的基于AI大数据的智慧建模管理***,其特征在于,对深度图像进行边缘检测计算,获得深度图像中的边缘像素点,包括:
使用边缘检测算法对深度图像进行计算,获得深度图像中的边缘像素点。
5.根据权利要求3所述的基于AI大数据的智慧建模管理***,其特征在于,基于边缘像素点获取第一处理集合,包括:
将边缘像素点及边缘像素点的预设大小的邻域中的像素点作为第一处理集合中的像素点。
6.根据权利要求5所述的基于AI大数据的智慧建模管理***,其特征在于,基于第一处理集合获取第二处理集合,包括:
将深度图像中除了第一处理集合中的像素点之外的像素点作为第二处理集合中的像素点。
7.根据权利要求6所述的基于AI大数据的智慧建模管理***,其特征在于,分别对第一处理集合和第二处理集合中的像素点进行滤波处理,获得预处理图像,包括:
在深度图像中,先使用基于深度学习的去噪算法对第一处理集合中的像素点进行滤波处理,然后使用基于空间域的图像降噪方法对第二处理集合中的像素点进行滤波处理,获得预处理图像。
CN202310752347.0A 2023-06-26 2023-06-26 基于ai大数据的智慧建模管理*** Active CN116503567B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310752347.0A CN116503567B (zh) 2023-06-26 2023-06-26 基于ai大数据的智慧建模管理***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310752347.0A CN116503567B (zh) 2023-06-26 2023-06-26 基于ai大数据的智慧建模管理***

Publications (2)

Publication Number Publication Date
CN116503567A CN116503567A (zh) 2023-07-28
CN116503567B true CN116503567B (zh) 2024-03-12

Family

ID=87316839

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310752347.0A Active CN116503567B (zh) 2023-06-26 2023-06-26 基于ai大数据的智慧建模管理***

Country Status (1)

Country Link
CN (1) CN116503567B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117075730B (zh) * 2023-08-18 2024-04-30 广东早安文化发展有限公司 一种基于图像识别技术的3d虚拟展厅控制***

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107113420A (zh) * 2014-12-23 2017-08-29 麦穆斯驱动有限公司 利用单个像机的三维成像
CN112734862A (zh) * 2021-02-10 2021-04-30 北京华捷艾米科技有限公司 深度图像的处理方法、装置、计算机可读介质以及设备

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9251590B2 (en) * 2013-01-24 2016-02-02 Microsoft Technology Licensing, Llc Camera pose estimation for 3D reconstruction

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107113420A (zh) * 2014-12-23 2017-08-29 麦穆斯驱动有限公司 利用单个像机的三维成像
CN112734862A (zh) * 2021-02-10 2021-04-30 北京华捷艾米科技有限公司 深度图像的处理方法、装置、计算机可读介质以及设备

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
刘星明 等.基于计算机视觉的三维重建技术研究.深圳信息职业技术学院学报.2013,第11卷(第3期),第13-17页. *

Also Published As

Publication number Publication date
CN116503567A (zh) 2023-07-28

Similar Documents

Publication Publication Date Title
CN110264567B (zh) 一种基于标记点的实时三维建模方法
CN111429533B (zh) 一种相机镜头畸变参数估计装置及方法
CN110189375B (zh) 一种基于单目视觉测量的图像目标识别方法
CN116503567B (zh) 基于ai大数据的智慧建模管理***
CN110634138A (zh) 一种基于视觉感知的桥梁变形的监测方法、装置及设备
CN107680035B (zh) 一种参数标定方法和装置、服务器及可读存储介质
CN111127556B (zh) 基于3d视觉的目标物体识别和位姿估算方法以及装置
CN109919832A (zh) 一种用于无人驾驶的交通图像拼接方法
CN111325828A (zh) 一种基于三目相机的三维人脸采集方法及装置
JP2008158984A (ja) 画像処理装置および領域追跡プログラム
CN115222884A (zh) 一种基于人工智能的空间对象分析及建模优化方法
CN110348344A (zh) 一种基于二维和三维融合的特殊人脸表情识别的方法
CN111023994B (zh) 一种基于多重测量的光栅三维扫描方法及***
CN110969650B (zh) 一种基于中心投影的强度图像与纹理序列间的配准方法
CN111160233B (zh) 基于三维成像辅助的人脸活体检测方法、介质及***
CN113409242A (zh) 一种轨交弓网点云智能监测方法
CN114998532B (zh) 一种基于数字图像重建的三维影像视觉传达优化方法
CN116402904A (zh) 一种基于激光雷达间和单目相机的联合标定方法
CN115049815A (zh) 基于自注意力蒸馏和图像增强的水下目标检测方法及***
CN111160278A (zh) 基于单个图像传感器的人脸纹理结构数据采集方法
CN113313764B (zh) 定位方法、装置、电子设备和存储介质
CN117388831B (zh) 相机和激光雷达联合标定方法、装置、电子设备及介质
CN115797995B (zh) 人脸活体检测方法、电子设备及存储介质
Zhang et al. Research on binocular real-time ranging method in window area
US12026929B2 (en) Method for using target pixels to remove objects from texture

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant