CN114782623A - 一种物体建模方法、装置、电子设备及存储介质 - Google Patents
一种物体建模方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN114782623A CN114782623A CN202210346396.XA CN202210346396A CN114782623A CN 114782623 A CN114782623 A CN 114782623A CN 202210346396 A CN202210346396 A CN 202210346396A CN 114782623 A CN114782623 A CN 114782623A
- Authority
- CN
- China
- Prior art keywords
- processed
- image
- target
- images
- vertex
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/187—Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Image Processing (AREA)
Abstract
本公开关于一种物体建模方法、装置、电子设备及存储介质。该方法包括:获取多张待处理图像及对应的相机参数信息,多张待处理图像是从目标物体的不同角度采集的;识别待处理图像中目标物体所在区域,作为待处理图像的连通域;根据相机参数信息,确定图像采集设备对应的视角顶点;连接连通域的各个顶点与所述视角顶点,得到所述连通域对应的多边形棱锥,所述多边形棱锥的顶点分别对应于所述连通域的各个顶点及所述图像采集设备;确定多张待处理图像对应的多边形棱锥的交集,作为目标物体的三维模型。这样,在三维模型构建过程中,无需用到复杂的立体匹配算法,而且,物体的纹理和光照对模型精度的影响也比较小,因此具有较强的鲁棒性。
Description
技术领域
本公开涉及计算机图像领域,尤其涉及一种物体建模方法、装置、电子设备及存储介质。
背景技术
在一些场景中,为了便于对物体的分析,可以由传感器采集物体的数据,然后,利用传感器采集到的数据,构建物体的三维模型,三维模型在文物保护、游戏开发、建筑设计、临床医学等研究领域都可以起到辅助的作用。
现有技术中,可以利用双目相机构建物体的三维模型,具体来说,通过两个相机对物体进行拍摄,得到同一物体不同角度的两张图片,再对这两张图片进行立体匹配,通过视差来计算每个匹配点的深度,从而重建整个场景,得到该物体的三维模型。
但是,上述方法中需要采用立体匹配算法,立体匹配算法的复杂度较高,而且,容易受物体的纹理和光照干扰,导致对两张图片的立体匹配精准度降低,得到的三维模型精度也不够高。
发明内容
本公开提供一种物体建模方法、装置、电子设备及存储介质,以至少解决相关技术中立体匹配算法的复杂度较高,而且,容易受物体的纹理和光照干扰,导致对两张图片的立体匹配精准度降低,得到的三维模型精度也不够高的问题。本公开的技术方案如下:
根据本公开实施例的第一方面,提供一种物体建模方法,包括:
获取多张待处理图像及对应的相机参数信息,所述多张待处理图像是从目标物体的不同角度采集的,所述相机参数信息为图像采集设备在采集所述待处理图像时的相机参数信息;
识别所述待处理图像中所述目标物体所在区域,作为所述待处理图像的连通域;
根据所述相机参数信息,确定所述图像采集设备对应的视角顶点;
连接所述连通域的各个顶点与所述视角顶点,得到所述连通域对应的多边形棱锥;
确定多张所述待处理图像对应的多边形棱锥的交集,作为所述目标物体的三维模型。
可选的,所述根据所述相机参数信息,确定所述图像采集设备对应的视角顶点,包括:
根据所述相机参数信息,构建所述待处理图像对应的视锥体,所述视锥体表征所述图像采集设备在采集所述待处理图像时的可见范围,所述视锥体中包括视角顶点。
可选的,所述连接所述连通域的各个顶点与所述视角顶点,得到所述连通域对应的多边形棱锥,包括:
根据所述相机参数信息,确定所述待处理图像在所述视锥体中的位置;
基于所述待处理图像在所述视锥体中的位置,确定所述连通域的各个顶点在所述视锥体中对应的多边形棱锥顶点;
分别建立所述视角顶点与所述多边形棱锥顶点之间的连线,得到所述连通域对应的多边形棱锥。
可选的,所述相机参数信息包括内参数及外参数,所述内参数包括视场角及焦距,所述外参数包括所述图像采集设备的位置及拍摄角度。
可选的,在所述确定多张所述待处理图像对应的多边形棱锥的交集,作为所述目标物体的三维模型之后,所述方法还包括:
获取从所述目标物体的不同角度采集的目标图像及所述图像采集设备在采集所述目标图像时的目标相机参数信息,其中,所述目标图像与所述待处理图像的采集角度不同;
识别所述目标图像中所述目标物体所在区域,作为所述目标图像的目标连通域;
根据所述目标相机参数信息,确定所述目标连通域对应的目标多边形棱锥;
确定所述目标多边形棱锥与所述目标物体的三维模型的交集,得到更新后的所述目标物体的三维模型。
根据本公开实施例的第二方面,提供一种物体建模装置,包括:
获取单元,被配置为执行获取多张待处理图像及对应的相机参数信息,所述多张待处理图像是从目标物体的不同角度采集的,所述相机参数信息为图像采集设备在采集所述待处理图像时的相机参数信息;
识别单元,被配置为执行识别所述待处理图像中所述目标物体所在区域,作为所述待处理图像的连通域;
确定单元,被配置为执行根据所述相机参数信息,确定所述图像采集设备对应的视角顶点;
连接单元,被配置为执行连接所述连通域的各个顶点与所述视角顶点,得到所述连通域对应的多边形棱锥;
构建单元,被配置为执行确定多张所述待处理图像对应的多边形棱锥的交集,作为所述目标物体的三维模型。
可选的,所述确定单元,具体被配置为执行:
根据所述相机参数信息,构建所述待处理图像对应的视锥体,所述视锥体表征所述图像采集设备在采集所述待处理图像时的可见范围,所述视锥体中包括视角顶点。
可选的,所述连接单元,具体被配置为执行:
根据所述相机参数信息,确定所述待处理图像在所述视锥体中的位置;
基于所述待处理图像在所述视锥体中的位置,确定所述连通域的各个顶点在所述视锥体中对应的多边形棱锥顶点;
分别建立所述视角顶点与所述多边形棱锥顶点之间的连线,得到所述连通域对应的多边形棱锥。
可选的,所述相机参数信息包括内参数及外参数,所述内参数包括视场角及焦距,所述外参数包括所述图像采集设备的位置及拍摄角度。
可选的,所述构建单元,还被配置为执行:
获取从所述目标物体的不同角度采集的目标图像及所述图像采集设备在采集所述目标图像时的目标相机参数信息,其中,所述目标图像与所述待处理图像的采集角度不同;
识别所述目标图像中所述目标物体所在区域,作为所述目标图像的目标连通域;
根据所述目标相机参数信息,确定所述目标连通域对应的目标多边形棱锥;
确定所述目标多边形棱锥与所述目标物体的三维模型的交集,得到更新后的所述目标物体的三维模型。
根据本公开实施例的第三方面,提供一种电子设备,包括:
处理器;
用于存储所述处理器可执行指令的存储器;
其中,所述处理器被配置为执行所述指令,以实现上述第一方面任一所述的物体建模方法。
根据本公开实施例的第四方面,提供一种计算机可读存储介质,当所述计算机可读存储介质中的指令由电子设备的处理器执行时,使得电子设备能够执行上述第一方面任一所述的物体建模方法。
根据本公开实施例的第五方面,提供一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现上述第一方面任一所述的物体建模方法。
本公开的实施例提供的技术方案至少带来以下有益效果:
获取多张待处理图像及对应的相机参数信息,多张待处理图像是从目标物体的不同角度采集的,相机参数信息为图像采集设备在采集待处理图像时的相机参数信息;识别待处理图像中目标物体所在区域,作为待处理图像的连通域;根据相机参数信息,确定图像采集设备对应的视角顶点;连接连通域的各个顶点与所述视角顶点,得到所述连通域对应的多边形棱锥,所述多边形棱锥的顶点分别对应于所述连通域的各个顶点及所述图像采集设备;确定多张待处理图像对应的多边形棱锥的交集,作为目标物体的三维模型。
这样,根据从目标物体的不同角度采集的多张待处理图像及其对应的相机参数信息,就可以实现对目标物体的三维模型的构建,在三维模型构建过程中,无需用到复杂的立体匹配算法,而且,物体的纹理和光照对模型精度的影响也比较小,因此,本方案提供的模型构建方法具有较强的鲁棒性。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理,并不构成对本公开的不当限定。
图1是根据一示例性实施例示出的一种物体建模方法的流程图。
图2是根据一示例性实施例示出的另一种物体建模方法的流程图。
图3是根据一示例性实施例示出的一种图像采集设备采集待处理图像的示意图。
图4是根据一示例性实施例示出的一种构建待处理图像对应的视锥体的示意图。
图5是根据一示例性实施例示出的一种连通域对应的多边形棱锥的示意图。
图6是根据一示例性实施例示出的一种目标物体的三维模型的示意图。
图7是根据一示例性实施例示出的一种对目标物体的三维模型进行更新的示意图。
图8是根据一示例性实施例示出的一种物体建模装置的框图。
图9是根据一示例性实施例示出的一种用于物体建模的电子设备的框图。
图10是根据一示例性实施例示出的一种物体建模装置的框图。
具体实施方式
为了使本领域普通人员更好地理解本公开的技术方案,下面将结合附图,对本公开实施例中的技术方案进行清楚、完整地描述。
需要说明的是,本公开的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本公开的实施例能够以除了在这里图示或描述的那些以外的顺序实施。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
图1是根据一示例性实施例示出的一种物体建模方法的流程图,如图1所示,该物体建模方法包括以下步骤。
在步骤S11中,获取多张待处理图像及对应的相机参数信息,多张待处理图像是从目标物体的不同角度采集的,相机参数信息为图像采集设备在采集待处理图像时的相机参数信息。
在本公开中,目标物体可以是任意形状的三维物体,电子设备可以为计算机、移动设备或具有计算能力的图像采集设备,图像采集设备具体可以为相机阵列、带旋转臂的相机设备或任意电子设备中配置的摄像头,等等,具体不做限定。也就是说,在本公开提供的物体建模方法中,无需采用特殊设备,从而可以降低物体建模的成本。
图像采集设备采集不同的待处理图像时,对应于不同的相机参数信息,其中,相机参数信息包括内参数及外参数,内参数是与图像采集设备自身特性相关的参数,比如图像采集设备的视场角、焦距、采集到的待处理图像的像素大小等,外参数是图像采集设备在世界坐标系中的参数,比如图像采集设备的位置、拍摄角度、旋转方向等。因此,根据相机参数信息可以确定采集待处理图像时相机的位置信息及角度信息等,便于对待处理图像进行进一步的分析,从而确定目标物体的三维模型。
在本步骤中,所获取的待处理图像的数量越多、待处理图像的采集角度越全面,则获取到的目标物体的光场数据越丰富,后续得到的目标物体的三维模型的精度也越高。
在步骤S12中,识别待处理图像中目标物体所在区域,作为待处理图像的连通域。
其中,每个待处理图像中的连通域可能有一个,也可能有多个,连通域的形状、大小和数量由目标物体的形状及图像采集设备的采集角度有关,连通域可以理解为目标物体经过以图像采集设备为透射中心的透视投影后,在待处理图像中得到的投影。
在本步骤中,可以采用抠图算法,将待处理图像中的前景信息和背景信息分离,前景信息也就是目标物体,从而识别出待处理图像的连通域。其中,抠图算法可以为阿尔法消光(Alpha matting)算法、形态学分水岭方法或贝叶斯算法,等等。
或者,还可以采用边缘检测算法,在待处理图像中检测目标物体的边缘,进而将识别出的边缘形成的区域作为待处理图像的连通域。其中,可以采用不同的边缘检测算子,比如一阶边缘检测算子、二阶边缘检测算子、索贝尔算子或拉普拉斯算子,等等。
或者,也可以采用目标检测算法,在待处理图像中检测目标物体,进而将检测到的目标物体所在的区域作为待处理图像的连通域。其中,对待处理图像的目标检测可以采用HOG(Histogram of Oriented Gradient,方向梯度直方图)算法、支持向量机算法或神经网络模型算法,等等。
另外,还可以响应于用户的操作指令,根据用户的输入确定待处理图像中目标物体所在区域,作为待处理图像的连通域,本公开对此不做限定。
在步骤S13中,根据相机参数信息,确定图像采集设备对应的视角顶点。
具体而言,在本步骤中,根据相机参数信息,确定图像采集设备对应的视角顶点的步骤,可以包括:根据相机参数信息,构建待处理图像对应的视锥体,视锥体表征图像采集设备在采集待处理图像时的可见范围。
其中,视锥体(frustum)是指图像采集设备的可见的一个锥体范围,以图像采集设备作为视锥体的一个顶点,该顶点也可以称为视角顶点,与视角顶点相接的四个平面中,相对的两个平面之间的夹角分别为图像采集设备在垂直方向和水平方向的两个视场角。在图像采集设备进行图像采集后得到的待处理图像中,在视锥体内的景物可见,反之则不可见,也就是说,目标物体一定位于视锥体内部,因此,基于视锥体可以确定目标物体的三维模型。
根据相机参数信息,构建待处理图像对应的视锥体的方式有多种,可以根据获取的相机参数信息的种类的精度构建待处理图像对应的视锥体,比如,根据图像采集设备的视场角以及位置和拍摄角度,可以唯一确定对应的视锥体,或者,根据图像采集设备的焦距、采集到的待处理图像的像素大小、位置和拍摄角度,也可以唯一确定对应的视锥体,本公开对此不作限定。另外,也可以对通过各种算法得到的视锥体数据进行求平均,以尽可能消除误差影响,得到更准确的视锥体,从而进一步提高目标物体的三维模型的精度。
在步骤S14中,连接连通域的各个顶点与所述视角顶点,得到连通域对应的多边形棱锥。
由前述可知,视锥体中包括视角顶点,视角顶点为图像采集设备对应的顶点,那么,连接连通域的各个顶点与所述视角顶点,得到连通域对应的多边形棱锥的步骤,可以包括:根据相机参数信息,确定待处理图像在视锥体中的位置;然后,基于待处理图像在视锥体中的位置,确定连通域的各个顶点在视锥体中对应的多边形棱锥顶点;进而,分别建立视角顶点与多边形棱锥顶点之间的连线,得到连通域对应的多边形棱锥。
可以理解,待处理图像即为视锥体中相对于视角顶点的一个横截面,而连通域是待处理图像中的一部分,也就是说,根据待处理图像在视锥体中的位置,可以确定连通域中的各个顶点在视锥体中的位置,也就是多边形棱锥顶点,进而,建立视角顶点与多边形棱锥顶点之间的连线,就可以得到连通域对应的多边形棱锥。
其中,待处理图像在视锥体中的位置,可以根据图像采集设备的焦距确定,焦距即为成像平面与视角顶点之间的距离,或者,也可以根据图像采集设备的视场角及采集到的待处理图像的像素大小确定,本公开对此不作限定。
在步骤S15中,确定多张待处理图像对应的多边形棱锥的交集,作为目标物体的三维模型。
由前述可知,视锥体表征图像采集设备在采集待处理图像时的可见范围,而连通域为目标物体经过以图像采集设备为透射中心的透视投影后,在待处理图像中得到的投影,那么,可以理解,真实世界中的目标物***于多边形棱锥对应的空间之内,因此,通过确定多张待处理图像对应的多边形棱锥的交集,可以得到目标物体的三维模型。
进一步地,在本公开中,在确定多张待处理图像对应的多边形棱锥的交集,作为目标物体的三维模型之后,还可以:获取从目标物体的不同角度采集的目标图像及图像采集设备在采集目标图像时的目标相机参数信息,其中,目标图像与所述待处理图像的采集角度不同;识别目标图像中目标物体所在区域,作为目标图像的目标连通域;根据目标相机参数信息,确定目标连通域对应的目标多边形棱锥;确定目标多边形棱锥与目标物体的三维模型的交集,得到更新后的目标物体的三维模型。
也就是说,可以通过获取的新的目标物体的不同角度地目标图像及其对应的相机参数信息,确定新的目标多边形棱锥,进而不断求得目标多边形棱锥与此前得到的目标物体的三维模型的交集,对目标物体的三维模型进行更新,从而得到更为精确的目标物体的三维模型。
由以上可见,本公开的实施例提供的技术方案,根据从目标物体的不同角度采集的多张待处理图像及其对应的相机参数信息,就可以实现对目标物体的三维模型的构建,在三维模型构建过程中,无需用到复杂的立体匹配算法,而且,物体的纹理和光照对模型精度的影响也比较小,因此,本方案提供的模型构建方法具有较强的鲁棒性。
图2是根据一示例性实施例示出的一种物体建模方法的流程图,如图2所示,该物体建模方法包括以下步骤。
在步骤S21中,获取多张待处理图像及对应的相机参数信息,多张待处理图像是从目标物体的不同角度采集的,相机参数信息为图像采集设备在采集待处理图像时的相机参数信息。
图像采集设备采集不同的待处理图像时,对应于不同的相机参数信息,其中,相机参数信息包括内参数及外参数,内参数是与图像采集设备自身特性相关的参数,比如图像采集设备的视场角、焦距、采集到的待处理图像的像素大小等,外参数是图像采集设备在世界坐标系中的参数,比如图像采集设备的位置、拍摄角度、旋转方向等。
在本步骤中,所获取的待处理图像的数量越多、待处理图像的采集角度越全面,则获取到的目标物体的光场数据越丰富,后续得到的目标物体的三维模型的精度也越高。
如图3所示,为图像采集设备采集待处理图像的示意图。其中,图像采集设备分别从A、B、C三个角度进行图像采集,得到目标物体的三张待处理图像,分别为待处理图像A、待处理图像B、待处理图像C,由于采集角度的不同及透视效果,目标物体在待处理图像中的投影形状也有算不同。
在步骤S22中,识别待处理图像中目标物体所在区域,作为待处理图像的连通域。
其中,每个待处理图像中的连通域可能有一个,也可能有多个,连通域的形状、大小和数量由目标物体的形状及图像采集设备的采集角度有关,连通域可以理解为目标物体经过以图像采集设备为透射中心的透视投影后,在待处理图像中得到的投影。
在本步骤中,可以采用抠图算法,将待处理图像中的前景信息和背景信息分离,前景信息也就是目标物体,从而识别出待处理图像的连通域。其中,抠图算法可以为阿尔法消光(Alpha matting)算法、形态学分水岭方法或贝叶斯算法,等等。
以图3所示得到的待处理图像A为例,其中的三角形区域即为目标物体在待处理图像A中的连通域。
在步骤S23中,根据相机参数信息,构建待处理图像对应的视锥体,视锥体表征图像采集设备在采集待处理图像时的可见范围,视锥体中包括视角顶点。
其中,视锥体(frustum)是指图像采集设备的可见的一个锥体范围,以图像采集设备作为视锥体的一个顶点,该顶点也可以称为视角顶点,与视角顶点相接的四个平面中,相对的两个平面之间的夹角分别为图像采集设备在垂直方向和水平方向的两个视场角。在图像采集设备进行图像采集后得到的待处理图像中,在视锥体内的景物可见,反之则不可见。
根据相机参数信息,构建待处理图像对应的视锥体的方式有多种,可以根据获取的相机参数信息的种类的精度构建待处理图像对应的视锥体,比如,根据图像采集设备的视场角以及位置和拍摄角度,可以唯一确定对应的视锥体。
如图4所示,为构建待处理图像对应的视锥体的示意图。其中,最左侧的顶点即为图像采集设备对应的视角顶点,θx和θy分别为图像采集设备在水平方向和垂直方向的视场角。
在步骤S24中,根据相机参数信息,确定待处理图像在视锥体中的位置。
在步骤S25中,基于待处理图像在视锥体中的位置,确定连通域的各个顶点在视锥体中对应的多边形棱锥顶点。
可以理解,待处理图像即为视锥体中相对于视角顶点的一个横截面,而连通域是待处理图像中的一部分,也就是说,根据待处理图像在视锥体中的位置,可以确定连通域中的各个顶点在视锥体中的位置,也就是多边形棱锥顶点。
在步骤S26中,分别建立视角顶点与多边形棱锥顶点之间的连线,得到连通域对应的多边形棱锥。
前述可知,视锥体表征图像采集设备在采集待处理图像时的可见范围,而连通域为目标物体经过以图像采集设备为透射中心的透视投影后,在待处理图像中得到的投影,那么,可以理解,真实世界中的目标物***于多边形棱锥对应的空间之内。
举例而言,如图5所示,为图4所示的视锥体中,连通域对应的多边形棱锥的示意图。其中,最左侧的顶点即为图像采集设备对应的视角顶点,三角形区域即为连通域。
在步骤S27中,确定多张待处理图像对应的多边形棱锥的交集,作为目标物体的三维模型。
由于真实世界中的目标物***于多边形棱锥对应的空间之内,换句话说,目标物体应当位于每张待处理图像对应的多边形棱锥对应的空间之内,即,目标物体的三维模型可以为多张待处理图像对应的多边形棱锥的交集。
举例而言,如图6所示,为确定目标物体的三维模型的示意图,其中,左侧为图1所示的三张待处理图像对应的多边形棱锥,保留多边形棱锥的交集之后,得到右侧的目标物体的三维模型。可以看到,仅仅通过对三张待处理图像的多边形棱锥求交集,就可以将目标物体的三维模型限制到很小的范围。
进一步地,在本公开中,在确定多张待处理图像对应的多边形棱锥的交集,作为目标物体的三维模型之后,还可以:获取从目标物体的不同角度采集的目标图像及图像采集设备在采集目标图像时的目标相机参数信息,其中,目标图像与待处理图像的采集角度不同;识别目标图像中目标物体所在区域,作为目标图像的目标连通域;根据目标相机参数信息,确定目标连通域对应的目标多边形棱锥;确定目标多边形棱锥与目标物体的三维模型的交集,得到更新后的目标物体的三维模型。
也就是说,可以通过获取的新的目标物体的不同角度地目标图像及其对应的相机参数信息,确定新的目标多边形棱锥,进而不断求得目标多边形棱锥与此前得到的目标物体的三维模型的交集,对目标物体的三维模型进行更新,从而得到更为精确的目标物体的三维模型。
如图7所示,为对目标物体的三维模型进行更新的示意图,其中,左侧为根据图1所示的三张待处理图像得到的目标物体的三维模型,右侧为更多的待处理图像得到的目标物体的三维模型,可以看到,随着待处理图像的数量的增加,目标物体的三维模型的精度也越来越高,最终会非常接近目标物体的理想模型。
由以上可见,本公开的实施例提供的技术方案,根据从目标物体的不同角度采集的多张待处理图像及其对应的相机参数信息,就可以实现对目标物体的三维模型的构建,在三维模型构建过程中,无需用到复杂的立体匹配算法,而且,物体的纹理和光照对模型精度的影响也比较小,因此,本方案提供的模型构建方法具有较强的鲁棒性。
图8是根据一示例性实施例示出的一种物体建模装置框图,应用于电子设备,该装置包括:
获取单元301,被配置为执行获取多张待处理图像及对应的相机参数信息,所述多张待处理图像是从目标物体的不同角度采集的,所述相机参数信息为图像采集设备在采集所述待处理图像时的相机参数信息;
识别单元302,被配置为执行识别所述待处理图像中所述目标物体所在区域,作为所述待处理图像的连通域;
确定单元303,被配置为执行根据所述相机参数信息,确定所述图像采集设备对应的视角顶点;
连接单元304,被配置为执行连接所述连通域的各个顶点与所述视角顶点,得到所述连通域对应的多边形棱锥;
构建单元305,被配置为执行确定多张所述待处理图像对应的多边形棱锥的交集,作为所述目标物体的三维模型。
一种实现方式中,所述确定单元303,具体被配置为执行:
根据所述相机参数信息,构建所述待处理图像对应的视锥体,所述视锥体表征所述图像采集设备在采集所述待处理图像时的可见范围,所述视锥体中包括视角顶点。
一种实现方式中,所述连接单元304,具体被配置为执行:
根据所述相机参数信息,确定所述待处理图像在所述视锥体中的位置,得到所述连通域中的各个顶点在所述视锥体中对应的多边形棱锥顶点;
基于所述待处理图像在所述视锥体中的位置,确定所述连通域的各个顶点在所述视锥体中对应的多边形棱锥顶点;
分别建立所述视角顶点与所述多边形棱锥顶点之间的连线,得到所述连通域对应的多边形棱锥。
一种实现方式中,所述相机参数信息包括内参数及外参数,所述内参数包括视场角及焦距,所述外参数包括所述图像采集设备的位置及拍摄角度。
一种实现方式中,所述构建单元304,还被配置为执行:
获取从所述目标物体的不同角度采集的目标图像及所述图像采集设备在采集所述目标图像时的目标相机参数信息,其中,所述目标图像与所述待处理图像的采集角度不同;
识别所述目标图像中所述目标物体所在区域,作为所述目标图像的目标连通域;
根据所述目标相机参数信息,确定所述目标连通域对应的目标多边形棱锥;
确定所述目标多边形棱锥与所述目标物体的三维模型的交集,得到更新后的所述目标物体的三维模型。
由以上可见,本公开的实施例提供的技术方案,根据从目标物体的不同角度采集的多张待处理图像及其对应的相机参数信息,就可以实现对目标物体的三维模型的构建,在三维模型构建过程中,无需用到复杂的立体匹配算法,而且,物体的纹理和光照对模型精度的影响也比较小,因此,本方案提供的模型构建方法具有较强的鲁棒性。
图9是根据一示例性实施例示出的一种用于物体建模的电子设备的框图。
在示例性实施例中,还提供了一种包括指令的计算机可读存储介质,例如包括指令的存储器,上述指令可由电子设备的处理器执行以完成上述方法。可选地,计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光物体建模设备等。
在示例性实施例中,还提供一种计算机程序产品,当其在计算机上运行时,使得计算机实现上述物体建模的方法。
由以上可见,本公开的实施例提供的技术方案,根据从目标物体的不同角度采集的多张待处理图像及其对应的相机参数信息,就可以实现对目标物体的三维模型的构建,在三维模型构建过程中,无需用到复杂的立体匹配算法,而且,物体的纹理和光照对模型精度的影响也比较小,因此,本方案提供的模型构建方法具有较强的鲁棒性。
图10是根据一示例性实施例示出的一种物体建模装置800的框图。
例如,装置800可以是移动电话,计算机,数字广播电子设备,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等。
参照图10,装置800可以包括以下一个或多个组件:处理组件802,存储器804,电力组件806,多媒体组件808,音频组件810,输入/输出(I/O)的接口812,传感器组件814,以及通信组件816。
处理组件802通常控制装置800的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理组件802可以包括一个或多个处理器820来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件802可以包括一个或多个模块,便于处理组件802和其他组件之间的交互。例如,处理组件802可以包括多媒体模块,以方便多媒体组件808和处理组件802之间的交互。
存储器804被配置为存储各种类型的数据以支持在设备800的操作。这些数据的示例包括用于在装置800上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器804可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程直读存储器(EEPROM),可擦除可编程直读存储器(EPROM),可编程直读存储器(PROM),直读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电源组件807为装置800的各种组件提供电力。电源组件807可以包括电源管理***,一个或多个电源,及其他与为装置800生成、管理和分配电力相关联的组件。
多媒体组件808包括在所述装置800和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件808包括一个前置摄像头和/或后置摄像头。当设备800处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜***或具有焦距和光学变焦能力。
音频组件810被配置为输出和/或输入音频信号。例如,音频组件810包括一个麦克风(MIC),当装置800处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器804或经由通信组件816发送。在一些实施例中,音频组件810还包括一个扬声器,用于输出音频信号。
I/O接口812为处理组件802和***接口模块之间提供接口,上述***接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件814包括一个或多个传感器,用于为装置800提供各个方面的状态评估。例如,传感器组件814可以检测到设备800的打开/关闭状态,组件的相对定位,例如所述组件为装置800的显示器和小键盘,传感器组件814还可以检测装置800或装置800一个组件的位置改变,用户与装置800接触的存在或不存在,装置800方位或加速/减速和装置800的温度变化。传感器组件814可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件814还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件814还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件816被配置为便于装置800和其他设备之间有线或无线方式的通信。装置800可以接入基于通信标准的无线网络,如WiFi,运营商网络(如2G、3G、4G或5G),或它们的组合。在一个示例性实施例中,通信组件816经由广播信道接收来自外部广播管理***的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件816还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,装置800可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行第一方面和第二方面所述的方法。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器804,上述指令可由装置800的处理器820执行以完成上述方法。可选地,例如,存储介质可以是非临时性计算机可读存储介质,例如,所述非临时性非临时性计算机可读存储介质计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光物体建模设备等。
在示例性实施例中,还提供了一种计算机程序产品,当其在计算机上运行时,使得计算机执行上述实施例中所述的物体建模方法。
由以上可见,本公开的实施例提供的技术方案,根据从目标物体的不同角度采集的多张待处理图像及其对应的相机参数信息,就可以实现对目标物体的三维模型的构建,在三维模型构建过程中,无需用到复杂的立体匹配算法,而且,物体的纹理和光照对模型精度的影响也比较小,因此,本方案提供的模型构建方法具有较强的鲁棒性。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。
Claims (10)
1.一种物体建模方法,其特征在于,包括:
获取多张待处理图像及对应的相机参数信息,所述多张待处理图像是从目标物体的不同角度采集的,所述相机参数信息为图像采集设备在采集所述待处理图像时的相机参数信息;
识别所述待处理图像中所述目标物体所在区域,作为所述待处理图像的连通域;
根据所述相机参数信息,确定所述图像采集设备对应的视角顶点;
连接所述连通域的各个顶点与所述视角顶点,得到所述连通域对应的多边形棱锥;
确定多张所述待处理图像对应的多边形棱锥的交集,作为所述目标物体的三维模型。
2.根据权利要求1所述的物体建模方法,其特征在于,所述根据所述相机参数信息,确定所述图像采集设备对应的视角顶点,包括:
根据所述相机参数信息,构建所述待处理图像对应的视锥体,所述视锥体表征所述图像采集设备在采集所述待处理图像时的可见范围,所述视锥体中包括视角顶点。
3.根据权利要求2所述的物体建模方法,其特征在于,所述连接所述连通域的各个顶点与所述视角顶点,得到所述连通域对应的多边形棱锥,包括:
根据所述相机参数信息,确定所述待处理图像在所述视锥体中的位置;
基于所述待处理图像在所述视锥体中的位置,确定所述连通域的各个顶点在所述视锥体中对应的多边形棱锥顶点;
分别建立所述视角顶点与所述多边形棱锥顶点之间的连线,得到所述连通域对应的多边形棱锥。
4.根据权利要求1所述的物体建模方法,其特征在于,所述相机参数信息包括内参数及外参数,所述内参数包括视场角及焦距,所述外参数包括所述图像采集设备的位置及拍摄角度。
5.根据权利要求1所述的物体建模方法,其特征在于,在所述确定多张所述待处理图像对应的多边形棱锥的交集,作为所述目标物体的三维模型之后,所述方法还包括:
获取从所述目标物体的不同角度采集的目标图像及所述图像采集设备在采集所述目标图像时的目标相机参数信息,其中,所述目标图像与所述待处理图像的采集角度不同;
识别所述目标图像中所述目标物体所在区域,作为所述目标图像的目标连通域;
根据所述目标相机参数信息,确定所述目标连通域对应的目标多边形棱锥;
确定所述目标多边形棱锥与所述目标物体的三维模型的交集,得到更新后的所述目标物体的三维模型。
6.一种物体建模装置,其特征在于,包括:
获取单元,被配置为执行获取多张待处理图像及对应的相机参数信息,所述多张待处理图像是从目标物体的不同角度采集的,所述相机参数信息为图像采集设备在采集所述待处理图像时的相机参数信息;
识别单元,被配置为执行识别所述待处理图像中所述目标物体所在区域,作为所述待处理图像的连通域;
确定单元,被配置为执行根据所述相机参数信息,确定所述图像采集设备对应的视角顶点;
连接单元,被配置为执行连接所述连通域的各个顶点与所述视角顶点,得到所述连通域对应的多边形棱锥;
构建单元,被配置为执行确定多张所述待处理图像对应的多边形棱锥的交集,作为所述目标物体的三维模型。
7.根据权利要求6所述的物体建模装置,其特征在于,所述确定单元,具体被配置为执行:
根据所述相机参数信息,构建所述待处理图像对应的视锥体,所述视锥体表征所述图像采集设备在采集所述待处理图像时的可见范围,所述视锥体中包括视角顶点。
8.一种电子设备,其特征在于,包括:
处理器;
用于存储所述处理器可执行指令的存储器;
其中,所述处理器被配置为执行所述指令,以实现如权利要求1至5中任一项所述的物体建模方法。
9.一种计算机可读存储介质,其特征在于,当所述计算机可读存储介质中的指令由电子设备的处理器执行时,使得所述电子设备能够执行如权利要求1至5中任一项所述的物体建模方法。
10.一种计算机程序产品,包括计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至5任一项所述的物体建模方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210346396.XA CN114782623A (zh) | 2022-04-02 | 2022-04-02 | 一种物体建模方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210346396.XA CN114782623A (zh) | 2022-04-02 | 2022-04-02 | 一种物体建模方法、装置、电子设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114782623A true CN114782623A (zh) | 2022-07-22 |
Family
ID=82426923
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210346396.XA Pending CN114782623A (zh) | 2022-04-02 | 2022-04-02 | 一种物体建模方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114782623A (zh) |
-
2022
- 2022-04-02 CN CN202210346396.XA patent/CN114782623A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11636653B2 (en) | Method and apparatus for synthesizing virtual and real objects | |
US11403763B2 (en) | Image segmentation method and apparatus, computer device, and storage medium | |
CN110148178B (zh) | 相机定位方法、装置、终端及存储介质 | |
CN110097576B (zh) | 图像特征点的运动信息确定方法、任务执行方法和设备 | |
CN106296570B (zh) | 图像处理方法及装置 | |
CN109302632B (zh) | 获取直播视频画面的方法、装置、终端及存储介质 | |
CN108154466B (zh) | 图像处理方法及装置 | |
CN113643356B (zh) | 相机位姿确定、虚拟物体显示方法、装置及电子设备 | |
CN114170302A (zh) | 相机外参标定方法、装置、电子设备及存储介质 | |
CN110853095A (zh) | 相机定位方法、装置、电子设备及存储介质 | |
CN110152293B (zh) | 操控对象的定位方法及装置、游戏对象的定位方法及装置 | |
US20220245839A1 (en) | Image registration, fusion and shielding detection methods and apparatuses, and electronic device | |
CN114581525A (zh) | 姿态确定方法及装置、电子设备和存储介质 | |
CN108304841B (zh) | ***定位方法、装置及存储介质 | |
CN113345000A (zh) | 深度检测方法及装置、电子设备和存储介质 | |
CN109934168B (zh) | 人脸图像映射方法及装置 | |
CN106469446B (zh) | 深度图像的分割方法和分割装置 | |
CN111325674A (zh) | 图像处理方法、装置及设备 | |
CN114782623A (zh) | 一种物体建模方法、装置、电子设备及存储介质 | |
CN115423692A (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN110012208B (zh) | 拍照对焦方法、装置、存储介质及电子设备 | |
CN114390189A (zh) | 图像处理方法、装置、存储介质及移动终端 | |
CN112950535A (zh) | 视频处理方法、装置、电子设备及存储介质 | |
CN115147466A (zh) | 图像配准方法及装置、图像处理方法及装置以及存储介质 | |
CN113747113A (zh) | 图像显示方法及装置、电子设备、计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |