CN111223114A - 一种图像区域的分割方法、装置及电子设备 - Google Patents
一种图像区域的分割方法、装置及电子设备 Download PDFInfo
- Publication number
- CN111223114A CN111223114A CN202010023167.5A CN202010023167A CN111223114A CN 111223114 A CN111223114 A CN 111223114A CN 202010023167 A CN202010023167 A CN 202010023167A CN 111223114 A CN111223114 A CN 111223114A
- Authority
- CN
- China
- Prior art keywords
- image
- ground
- segmentation result
- map
- pixel point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/005—General purpose rendering architectures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/187—Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/08—Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30181—Earth observation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
Abstract
本公开关于一种图像区域的分割方法、装置、电子设备及存储介质。该方法应用于:电子设备,该方法包括:获取图像采集设备所采集到的待分割图像;利用预设的地面分割算法,对所述待分割图像中的目标地面区域进行分割,得到初始分割结果;基于所述初始分割结果和当前累积地图,确定所述待分割图像的地面分割结果;其中,所述当前累积地图为:待分割图像的上一帧图像的地面分割结果。与现有技术相比,应用本公开实施例提供的一种图像区域的分割方法,可以减少地面分割结果中,分割得到的待添加虚拟世界中的物品的目标地面区域与其他区域的交界处所存在的抖动,提高地面分割结果的稳定性,进而,提高地面分割结果的效果。
Description
技术领域
本公开涉及图像处理技术领域,尤其涉及一种图像区域的分割方法、装置及电子设备。
背景技术
随着移动互联网技术的不断发展,移动设备所能提供使用功能越来越多,从而,移动设备在用户的生产生活中所占据的重要性也越来越大。其中,在移动设备所提供的多种功能中,拍摄功能已经成为用户日常使用的一项基本功能。
当前,为了提供用户体验,增加拍摄的趣味性和生动性,一些基于拍摄功能的客户端开发商将AR(Augmented Reality,增强现实)技术与移动设备的拍摄功能相结合,从而,使得用户拍摄图像或者视频时,可以在所拍摄得到的真实世界中添加虚拟世界中的物品。
在相关技术中,虚拟世界中的物品通常是添加至所拍摄到的真实世界中的某个区域中的,因此,需要首先对所拍摄得到的图像进行图像区域分割,得到区域分割结果,该区域分割结果即为待添加虚拟世界中的物品的区域,进而,对该区域进行AR渲染,得到添加虚拟世界中的物品后的图像。
例如,如图1(a)-图1(c)所示,分别在拍摄得到视频图像时,对该视频图像中的地面区域进行分割,得到视频图像中的地面区域,进而,将虚拟的花的图像添加至该地面区域中,从而,使得所拍摄得到的视频更具有趣味性。
然而,在上述相关技术中,对图像中地面区域的分割是基于预设的地面分割算法实现的,然而,由于所采集到的各帧图像所包括的真实世界存在差异,因此,利用预设的地面分割算法得到的地面分割结果中,分割得到的待添加虚拟世界中的物品的地面区域与其他区域的交界处会存在抖动,从而,导致所得到的地面分割结果的效果较差。
发明内容
本公开提供一种图像区域的分割方法、装置、电子设备及存储介质,以至少解决相关技术中地面分割结果效果较差的问题。本公开的技术方案如下:
根据本公开实施例的第一方面,提供一种图像区域的分割方法,应用于电子设备,包括:
获取图像采集设备所采集到的待分割图像;
利用预设的地面分割算法,对所述待分割图像中的目标地面区域进行分割,得到初始分割结果;
基于所述初始分割结果和当前累积地图,确定所述待分割图像的地面分割结果;其中,所述当前累积地图为:待分割图像的上一帧图像的地面分割结果。
可选的,一种具体实现方式中,所述基于所述初始分割结果和当前累积地图,确定所述待分割图像的地面分割结果的步骤,包括:
利用预设的3D渲染引擎和与所述3D渲染引擎对应的3D虚拟场景,基于所述初始分割结果和当前累积地图,确定所述待分割图像的地面分割结果。
可选的,一种具体实现方式中,所述3D虚拟场景包括:主相机、地图相机、第一平面模型和第二平面模型;
其中,所述第一平面模型和所述第二平面模型水平放置在所述3D虚拟场景中;
所述主相机对应的第一相机坐标系与所述图像采集设备的第三相机坐标系同步,用于对所述第二平面模型进行渲染;
所述地图相机为:位置与所述主相机同步,且摄像头朝向所述3D虚拟场景的水平面的相机,用于对所述第一平面模型进行渲染。
可选的,一种具体实现方式中,所述利用预设的3D渲染引擎和与所述3D渲染引擎对应的3D虚拟场景,基于所述初始分割结果和当前累积地图,确定所述待分割图像的地面分割结果的步骤,包括:
将所述第一平面模型、所述第二平面模型与所述地图相机移动至与所述主相机垂直对齐的位置;
确定所述当前累积地图在所述地图相机对应的第二相机坐标系中的第一俯视地图;
基于所述初始分割结果和所述第一俯视地图,对所述第一平面模型进行渲染,得到所述初始分割结果在所述第二相机坐标系中的第二俯视地图;
基于所述初始分割结果和所述第二俯视地图,对所述第二平面模型进行渲染,得到所述待分割图像的地面分割结果。
可选的,一种具体实现方式中,所述基于所述初始分割结果和所述第一俯视地图,对所述第一平面模型进行渲染,得到所述初始分割结果在所述第二相机坐标系中的第二俯视地图的步骤,包括:
获取所述初始分割结果在预设的世界坐标系中的世界区域坐标;
计算所述世界区域坐标在所述第一俯视地图中的俯视区域坐标和所述世界区域坐标在所述主相机对应的第一相机坐标系中的主相机空间坐标;
从所述当前累积地图中采样得到所述俯视区域坐标对应的像素点的第一地面概率值和倒计时值;其中,所述当前累积地图中,各个像素点的倒计时值用于表征继续保留该像素点的第一地面概率值的帧数;
从所述初始分割结果中采集得到所述主相机空间坐标对应的像素点的第二平面概率值;
针对所述世界区域坐标对应的每一像素点,当该像素点的倒计时值大于零时,将该像素点对应的第一地面概率值和第二地面概率中的最大值确定为该像素点的目标地面概率值;
针对所述世界区域坐标对应的每一像素点,当该像素点的倒计时值等于零时,将该像素点对应的第二地面概率确定为该像素点的目标地面概率值;
基于所述世界区域坐标对应的各个像素点的目标地面概率值,确定所述初始分割结果在所述第二相机坐标系中的第二俯视地图。
可选的,一种具体实现方式中,所述基于所述初始分割结果和所述第二俯视地图,对所述第二平面模型进行渲染,得到所述待分割图像的地面分割结果的步骤,包括:
采样得到所述初始分割结果中的各个像素点的第三地面概率值;
计算所述世界区域坐标中的每个像素点在所述第二俯视地图中的俯视像素点坐标,当所述俯视像素点坐标位于预设范围内时,采样得到该像素点在所述第二俯视地图中的第四地面概率值;
针对具有第四地面概率值的每个像素点,将该像素点的第三地面概率值和第四地面概率值中的最大值,确定为该像素点的最终地面概率值;
针对不具有第四地面概率值的每个像素点,将该像素点的第三地面概率值确定为该像素点的最终地面概率值;
基于所述初始分割结果中的各个像素点的最终地面概率值,确定所述待分割图像的地面分割结果。
根据本公开实施例的第二方面,提供一种图像区域的分割装置,应用于电子设备,包括:
图像获取模块,用于获取图像采集设备所采集到的待分割图像;
初始分割模块,用于利用预设的地面分割算法,对所述待分割图像中的目标地面区域进行分割,得到初始分割结果;
最终分割模块,用于基于所述初始分割结果和当前累积地图,确定所述待分割图像的地面分割结果;其中,所述当前累积地图为:待分割图像的上一帧图像的地面分割结果。
可选的,一种具体实现方式中,所述最终分割模块具体用于:
利用预设的3D渲染引擎和与所述3D渲染引擎对应的3D虚拟场景,基于所述初始分割结果和当前累积地图,确定所述待分割图像的地面分割结果。
可选的,一种具体实现方式中,所述3D虚拟场景包括:主相机、地图相机、第一平面模型和第二平面模型;
其中,所述第一平面模型和所述第二平面模型水平放置在所述3D虚拟场景中;
所述主相机对应的第一相机坐标系与所述图像采集设备的第三相机坐标系同步,用于对所述第二平面模型进行渲染;
所述地图相机为:位置与所述主相机同步,且摄像头朝向所述3D虚拟场景的水平面的相机,用于对所述第一平面模型进行渲染。
可选的,一种具体实现方式中,所述最终分割模块包括:
要素移动子模块,用于将所述第一平面模型、所述第二平面模型与所述地图相机移动至与所述主相机垂直对齐的位置;
当前地图转换子模块,用于确定所述当前累积地图在所述地图相机对应的第二相机坐标系中的第一俯视地图;
第一渲染子模块,用于基于所述初始分割结果和所述第一俯视地图,对所述第一平面模型进行渲染,得到所述初始分割结果在所述第二相机坐标系中的第二俯视地图;
第二渲染子模块,用于基于所述初始分割结果和所述第二俯视地图,对所述第二平面模型进行渲染,得到所述待分割图像的地面分割结果。
可选的,一种具体实现方式中,所述第一渲染子模块具体用于:
获取所述初始分割结果在预设的世界坐标系中的世界区域坐标;
计算所述世界区域坐标在所述第一俯视地图中的俯视区域坐标和所述世界区域坐标在所述主相机对应的第一相机坐标系中的主相机空间坐标;
从所述当前累积地图中采样得到所述俯视区域坐标对应的像素点的第一地面概率值和倒计时值;其中,所述当前累积地图中,各个像素点的倒计时值用于表征继续保留该像素点的第一地面概率值的帧数;
从所述初始分割结果中采集得到所述主相机空间坐标对应的像素点的第二平面概率值;
针对所述世界区域坐标对应的每一像素点,当该像素点的倒计时值大于零时,将该像素点对应的第一地面概率值和第二地面概率中的最大值确定为该像素点的目标地面概率值;
针对所述世界区域坐标对应的每一像素点,当该像素点的倒计时值等于零时,将该像素点对应的第二地面概率确定为该像素点的目标地面概率值;
基于所述世界区域坐标对应的各个像素点的目标地面概率值,确定所述初始分割结果在所述第二相机坐标系中的第二俯视地图。
可选的,一种具体实现方式中,所述第二渲染子模块具体用于:
采样得到所述初始分割结果中的各个像素点的第三地面概率值;
计算所述世界区域坐标中的每个像素点在所述第二俯视地图中的俯视像素点坐标,当所述俯视像素点坐标位于预设范围内时,采样得到该像素点在所述第二俯视地图中的第四地面概率值;
针对具有第四地面概率值的每个像素点,将该像素点的第三地面概率值和第四地面概率值中的最大值,确定为该像素点的最终地面概率值;
针对不具有第四地面概率值的每个像素点,将该像素点的第三地面概率值确定为该像素点的最终地面概率值;
基于所述初始分割结果中的各个像素点的最终地面概率值,确定所述待分割图像的地面分割结果。
根据本公开实施例的第三方面,提供一种电子设备,包括:
处理器;
用于存储所述处理器可执行指令的存储器;
其中,所述处理器被配置为执行所述指令,以实现上述第一方面提供的任一图像区域的分割方法的步骤。
根据本公开实施例的第四方面,提供一种存储介质,当所述存储介质中的指令由电子设备的处理器执行时,使得服务器能够执行上述第一方面提供的任一图像区域的分割方法的步骤。
根据本公开实施例的第五方面,提供一种计算机程序产品,当其在计算机上运行时,使得计算机执行上述第一方面提供的任一图像区域的分割方法的步骤。
本公开的实施例提供的技术方案至少带来以下有益效果:
针对图像采集设备所采集到的待分割图像,在利用预设的地面分割算法,对该待分割图像中的目标地面区域进行分割,得到初始分割结果后,该初始分割结果并不是在后续进行AR渲染时所采用的地面分割结果。而是利用该待分割图像的上一帧图像的地面分割结果,对所得到的初始分割结果进行优化,进而,得到该待分割图像的地面分割结果。
这样,在确定待分割图像的地面分割结果时,参考了该待分割图像的上一帧图像的地面分割结果,使得各帧待分割图像的地面分割结果之间可以实现平滑过渡,从而,减少所得到的地面分割结果中,待添加虚拟世界中的物品的目标地面区域与其他区域的交界处所存在的抖动,从而,提高所得到的地面分割结果的效果。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理,并不构成对本公开的不当限定。
图1(a)-图1(c)为对采集到的图像进行地面分割和AR渲染的效果示意图。
图2是根据一示例性实施例示出的一种图像区域的分割方法的流程图。
图3是根据一示例性实施例示出的一种3D渲染引擎对应的3D虚拟空间的示意图。
图4是根据一示例性实施例示出的一种利用预设的3D渲染引擎和与3D渲染引擎对应的3D虚拟场景,基于初始分割结果和当前累积地图,确定待分割图像的地面分割结果的流程图。
图5是根据一示例性实施例示出的将图2中步骤S22所得到的初始分割结果投影到世界坐标系中的水平面的示意图。
图6是图4中,步骤S43的一种具体实现方式的流程图。
图7是图4中,步骤S44的一种具体实现方式的流程图。
图8是根据一示例性实施例示出的一种图像区域的分割装置的框图。
图9是根据一示例性实施例示出的一种电子设备的框图。
图10是根据一示例性实施例示出的一种服务器的框图。
具体实施方式
为了使本领域普通人员更好地理解本公开的技术方案,下面将结合附图,对本公开实施例中的技术方案进行清楚、完整地描述。
需要说明的是,本公开的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本公开的实施例能够以除了在这里图示或描述的那些以外的顺序实施。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
上述相关技术中,对图像中地面区域的分割是基于预设的地面分割算法实现的,然而,由于所采集到的各帧图像所包括的真实世界存在差异,因此,利用预设的地面分割算法得到的地面分割结果中,分割得到的待添加虚拟世界中的物品的地面区域与其他区域的交界处会存在抖动,从而,导致所得到的地面分割结果的效果较差。为了解决上述技术问题,本公开的实施例提供了一种图像区域的分割方法。
下面,对本公开实施例提供的一种图像区域的分割方法进行说明。
图2是根据一示例性实施例示出的一种图像区域的分割方法的流程图,其中,该方法可以应用于任一需要对图像中的目标地面区域进行分割的电子设备,例如,手机、摄像机、笔记本电脑、平板电脑等。
具体的,该电子设备可以是用于采集待分割图像的图像采集设备,例如,利用手机摄像头或者摄像机采集到真实世界的图像后,将该图像作为待分割图像,进而,对该待分割图像执行本公开实施例提供的一种图像区域的分割方法;该电子设备还可以是用于对图像采集设备提供服务的服务器,图像采集设备在采集到待分割图像后,便可以将该待分割图像发送给所对应的服务器,进而,服务器对该待分割图像执行本公开实施例提供的一种图像区域的分割方法,并将所得到的地面分割结果反馈给图像采集设备。对此,本发明实施例不做具体限定,以下简称电子设备。
如图2所示,一种图像区域的分割方法,包括以下步骤。
在步骤S21中,获取图像采集设备所采集到的待分割图像;
在步骤S22中,利用预设的地面分割算法,对待分割图像中的目标地面区域进行分割,得到初始分割结果;
在步骤S23中,基于初始分割结果和当前累积地图,确定待分割图像的地面分割结果;
其中,当前累积地图为:待分割图像的上一帧图像的地面分割结果。
针对图像采集设备所采集到的待分割图像,在利用预设的地面分割算法,对该待分割图像中的目标地面区域进行分割,得到初始分割结果后,该初始分割结果并不是在后续进行AR渲染时所采用的地面分割结果。而是利用该待分割图像的上一帧图像的地面分割结果,对所得到的初始分割结果进行优化,进而,得到该待分割图像的地面分割结果。
这样,在确定待分割图像的地面分割结果时,参考了该待分割图像的上一帧图像的地面分割结果,使得各帧待分割图像的地面分割结果之间可以实现平滑过渡,从而,减少所得到的地面分割结果中,待添加虚拟世界中的物品的目标地面区域与其他区域的交界处所存在的抖动,从而,提高所得到的地面分割结果的效果。
针对上述步骤S21,获取图像采集设备所采集到的待分割图像。
其中,电子设备可以通过多种方式获取图像采集设备所采集到的待分割图像,对此,本公开实施例不做具体限定。
具体的:当电子设备即为图像采集设备自身时,电子设备在图像或视频拍摄过程中所采集到的各帧图像即为待分割图像;
当电子设备是为图像采集设备提供服务的服务器时,电子设备接收图像采集设备发送的待分割图像。具体的:图像采集设备在图像或视频拍摄过程中,在采集到该帧图像时,便将该帧图像发送给电子设备,这样,电子设备便可以获取到图像采集设备所采集到的待分割图像。
针对上述步骤S22,利用预设的地面分割算法,对待分割图像中的地面区域进行分割,得到初始分割结果。
在执行完上述步骤S21,获取到待分割图像后,电子设备便可以继续执行上述步骤S22,利用预设的地面分割算法,对所获取到的待分割图像中的地面区域进行分割,从而,得到该地面分割算法的处理结果,即得到针对该待分割图像的初始分割结果。
其中,该目标地面区域可以为待分割图像中全部的地面区域,也可以是待分割图像中的某一类型的地面区域,例如,当待分割图像中的地面区域包括塑胶跑道和柏油马路时,该地面区域可以为柏油马路区域。相应的,针对不同目标地面区域,所采用的预设的地面分割算法也可以随之进行调整。
例如,当目标地面区域为待分割图像中的全部地面区域时,所采用的预设的地面分割算法即为对待分割图像中的全部地面区域进行分割的地面分割算法;当目标地面区域为待分割图像中的某一类型的地面区域时,所采用的预设的地面分割算法即为对待分割图像中的该类型的地面区域进行分割的地面分割算法等。
具体的,预设的地面分割算法可以计算出待分割图像中的目标地面区域,得到初始分割结果。其中,该初始分割结果为一张二维点阵图,并且,二维点阵图中的每个像素点的取值表示该像素点位置对应的待分割图像中的内容为目标地面区域的概率,显然,该取值的取值范围为[0,1]。
其中,可选的,地面分割算法可以采用基于深度神经网络的语义分割模型,其可以对室内外场景的地面进行精细分割,并且,针对不同场景均可以具有较好的鲁棒性。具体的,该语义分割模型的模型结构可以基于Unet(Unity Networking)框架构建,并且,该语义分割模型的输入可以为一张RGB图像,输出可以为所对应输入图像中目标地面区域的mask(掩膜)图像。其中,mask图像中的每个像素表示所输入图像中对应位置的像素为地面的概率,该概率值的取值范围可以为[0,1]。其中,RGB图像中,R表示Red(红色),G表示Green(绿色),B表示Blue(蓝色)。
进一步的,在上述语义分割模型的模型训练过程中,所采用的损失函数可以为交叉熵损失,并利用来更新模型的参数,该优化器可以为Adam(Adaptive momentestimation,自适应矩估计)优化器。并且,当训练得到该语音分割模型的地面预测结果与真实地面的IOU(Intersection over Union,重叠率)最大时,确定训练完成。
针对上述步骤S23,基于初始分割结果和当前累积地图,确定待分割图像的地面分割结果。
在现有技术中,在执行完上述步骤S22,得到初始分割结果后,便可以将该初始分割结果作为最终的地面分割结果,从而,便可以继续对该初始分割结果进行AR渲染,以得到更具有趣味性的,在真实世界中添加了虚拟空间中物品的图像。
然而,在本公开实施例中,为了提高所得到的地面分割结果的稳定性,在得到待分割图像的初始分割结果后,还需要进一步执行上述步骤S23,基于该初始分割结果和该待分割图像的上一帧图像的地面分割结果,对该初始分割结果进行优化,从而,得到待分割图像的地面分割结果。
其中,在还未得到待分割图像的地面分割结果时,用于采集该待分割图像的图像采集设备所展示的即为对该待分割图像的上一帧图像的地面分割结果进行AR渲染所得到的图像,可以将该待分割图像的上一帧图像的地面分割结果称为当前累积地图。
可选的,一种具体实现方式中,上述步骤S23的具体实现方式可以包括如下步骤:
利用预设的3D渲染引擎和与3D渲染引擎对应的3D虚拟场景,基于初始分割结果和当前累积地图,确定待分割图像的地面分割结果。
在本具体实现方式中,可以在电子设备中预先安装3D(3Dimensions,三维)渲染引擎,并预先设定与所安装的3D渲染引擎对应的3D虚拟场景,进而,电子设备便可以调用该3D渲染引擎。这样,该3D渲染引擎便可以将初始分割结果和当前累积地图映射到上述3D虚拟场景中,从而,利用该3D虚拟场景模拟真实场景中图像采集设备采集该待分割图像的场景,并基于该模拟结果,确定该待分割图像的地面分割结果。
其中,所谓3D渲染引擎为:一种将虚拟3D场景渲染为2D(2Dimensions,二维)图像的软件。虚拟3D场景中可以包含物体3D模型及其表面材质描述、虚拟相机、灯光等元素。3D渲染引擎执行渲染时可以通过指定的虚拟相机的视角将3D场景投影到2D空间,正如使用真实的相机设备拍摄现实世界场景的效果。3D模型的表面材质描述了如何计算模型投影到2D空间后所覆盖区域各像素的颜色。3D渲染引擎的使用者可以指定使用哪个虚拟相机进行渲染,以及将渲染结果输出到哪个图像中。
可选的,一种具体实现方式中,如图3所示,与预设的3D渲染引擎对应的3D虚拟场景可以布置有如下元素:
主相机310、地图相机320、第一平面模型330和第二平面模型340。
其中,第一平面模型和第二平面模型水平放置在3D虚拟场景中;
具体的:第一平面模型330和第二平面模型340可以视为:在该3D虚拟场景中,水平放置的具有一定面积的正方形平面三维模型,并且,第一平面模型330和第二平面模型340为不同的平面模型。
主相机310对应的第一相机坐标系与图像采集设备的第三相机坐标系同步,用于对第二平面模型进行渲染;
具体的:主相机310的摄像头在3D虚拟场景中的位置和朝向,与用于采集待分割图像的图像采集设备的摄像头在真实世界中的位置和朝向同步。也就是说,假设将3D虚拟场景作为真实世界,则主相机310的摄像头即为用于采集待分割图像的图像采集设备的摄像头。进而,主相机310对应的第一相机坐标系与用于采集待分割图像的图像采集设备的第三相机坐标系同步,因此,主相机310可以使用用于采集待分割图像的图像采集设备的投影矩阵。
这样,主相机310模拟拍摄得到的每帧图像的内容与用于采集待分割图像的图像采集设备所拍摄得到的每帧图像的内容是对齐的,并且,主相机310可以用于对第二平面模型340进行渲染。其中,主相机310也可以称为AR相机。
其中,所谓投影矩阵即为:用于表征上述图像采集设备的第三相机坐标系、图像坐标系和世界坐标系之间的坐标转换关系的矩阵,并且,针对指定的图像采集设备,该图像采集设备的投影矩阵可以是预先设定好,且存储在图像采集设备中的。例如,当图像采集设备为手机时,可以使用手机操作***的API(Application Programming Interface,应用程序编程接口)直接查询获取手机的投影矩阵。
地图相机320为:位置与主相机同步,且摄像头朝向3D虚拟场景的水平面的相机,用于对第一平面模型进行渲染。
具体的:地图相机320的摄像头在3D虚拟场景中的位置与用于采集待分割图像的图像采集设备的摄像头在真实世界中的位置同步,但是,地图相机320的摄像头是朝向3D虚拟场景的水平面的。也就是说,假设将3D虚拟场景作为真实世界,则地图相机320即为用于采集待分割图像的图像采集设备,且摄像头朝向正下方,用于竖直对真实世界的地面进行拍摄。其中,地图相机对应的第二相机坐标系的右方向与世界坐标系的X轴平行。其中,可选的,该世界坐标系的X轴和Z轴所在的平面为真实世界的水平面,Y轴与真实世界的水平面垂直。
进而,地图相机320的投影矩阵为正交矩阵,并且,地图相机320用于对第一平面模型330进行渲染,所得到的投影图像的长宽比例为1:1,也就是说,当将其他坐标系下的图像投影到地图相机320对应的第二相机坐标系中时,所得到的图像的长宽比例为1:1。
基于此,在图3中,ground_seg_mask表示利用预设的地面分割算法,对待分割图像中的目标地面区域进行分割,得到初始分割结果;map_project_rt_a表示待分割图像的上一帧图像的地面分割结果;map_project_rt_b表示待分割图像的初始分割结果被第一平面模型330渲染后得到的累积结果,即可以表征带分割图像的初始分割结果在上述第二相机坐标系中的第二俯视地图;ss_ground_mask表示所确定的待分割图像的地面分割结果;材质ss_mask为预设的屏幕空间重投影程序;材质map_projection为预设的地面投影累积程序。
可选的,一种具体实现方式中,在上述图3所示3D虚拟场景的基础上,如图4所示,上述利用预设的3D渲染引擎和与3D渲染引擎对应的3D虚拟场景,基于初始分割结果和当前累积地图,确定待分割图像的地面分割结果,可以包括如下步骤:
在步骤S41中:将第一平面模型、第二平面模型与地图相机移动至与主相机垂直对齐的位置;
将第一平面模型、第二平面模型与地图相机移动至与主相机垂直对齐的位置,其中,所谓垂直对齐是指:在3D虚拟场景中,移动后第一平面模型、第二平面模型与地图相机的X轴坐标分量与主相机的X轴的坐标分量相同,并且,移动后第一平面模型、第二平面模型与地图相机的Z轴坐标分量与主相机的Z轴的坐标分量相同。
在步骤S42中:确定当前累积地图在地图相机对应的第二相机坐标系中的第一俯视地图;
由于当前累积地图是待分割图像的上一帧图像的地面分割结果,而该当前累积地图是呈现在用于采集待分割图像的图像采集设备的显示屏中的,因此,该地面分割结果位于用于采集待分割图像的图像采集设备对应的第三相机坐标系中。基于此,3D渲染引擎在确定待分割图像的地面分割结果时,需要将其转换至3D渲染引擎对应的3D虚拟场景中。
具体的:由于主相机所使用的投影矩阵为用于采集待分割图像的图像采集设备的投影矩阵,因此,当在上述步骤S41中,在将地图相机移动至与主相机垂直对齐的位置时,便可以建立地图相机与主相机之间的位置关系,其中,由于主相机对应的第一相机坐标系与用于采集待分割图像的图像采集设备的第三相机坐标系同步,因此,便可以建立地图相机与用于采集待分割图像的图像采集设备的对应关系。这样,根据地图相机与用于采集待分割图像的图像采集设备的对应关系,以及主相机的投影矩阵,通过坐标转换,确定当前累积地图在地图相机对应的第二相机坐标系中的第一俯视地图。
其中,该第一俯视地图的长宽比为1:1,该第一俯视地图可以用于第一俯视地图在地图相机对应的第二相机坐标系中的X轴和Z轴上的跨度表示,具体为:(x1_min,x1_max,z1_min,z1_max),即将当前累积地图投影到地图相机对应的第二相机坐标系的水平面上时,在该水平面上所覆盖的面积。
在步骤S43中:基于初始分割结果和第一俯视地图,对第一平面模型进行渲染,得到初始分割结果在第二相机坐标系中的第二俯视地图;
其中,由于初始分割结果是利用预设的地面分割算法对待分割图像进行目标地面分割所得到的,因此,该初始分割结果也是位于用于采集待分割图像的图像采集设备对应的第三相机坐标系中的。基于此,3D渲染引擎在确定待分割图像的地面分割结果时,同样需要将其转换至3D渲染引擎对应的3D虚拟场景中。
这样,在得到上述第一俯视地图后,便可以基于初始分割结果和第一俯视地图,对第一平面模型进行渲染,得到初始分割结果在第二相机坐标系中的第二俯视地图。
具体的:基于上述步骤S22中所得到的初始分割结果和该第一俯视地图,利用根据上述步骤S41中的位置移动所得到的主相机与用于采集待分割图像的图像采集设备的对应关系,以及主相机的投影矩阵,通过坐标转换,得到初始分割结果在地图相机对应的第二相机坐标系中的第二俯视地图。
与上述步骤S42中,得到的第一俯视地图类似的,该第二俯视地图的长宽比为1:1,该第二俯视地图可以用于第二俯视地图在地图相机对应的第二相机坐标系中的X轴和Z轴上的跨度表示,具体为:(x2_min,x2_max,z2_min,z2_max),即将初始分割结果对应的图像投影到地图相机对应的第二相机坐标系的水平面上时,在该水平面上所覆盖的面积。
可选的,上述步骤S43可以通过3D渲染引擎执行预设的地面投影累积程序(map_projection)实现,该地面投影累积程序的输入为:上述初始分割结果、第一俯视地图和主相机的投影矩阵,输出为:上述第二俯视地图。
其中,地面投影累积程序的目的是将位于用于采集待分割图像的图像采集设备对应的第三相机坐标系中的初始分割结果投影到世界坐标系中的水平面上,即投影到世界坐标系的XZ平面上,如图5所示。其中,图5中的屏幕空间地面分割结果即为:位于上第三相机坐标系中的初始分割结果。
在步骤S44中:基于初始分割结果和第二俯视地图,对第二平面模型进行渲染,得到待分割图像的地面分割结果。
由于待分割图像的地面分割结果是呈现在用于采集待分割图像的图像采集设备的显示屏中的,即该待分割图像的地面分割结果位于用于采集待分割图像的图像采集设备对应的第三相机坐标系中。初始分割结果在第二相机坐标系中的第二俯视地图是位于地图相机对应的第二相机坐标系中的,即该第二俯视地图位于3D渲染引擎对应的3D虚拟场景中。因此,3D渲染引擎在确定待分割图像的地面分割结果时,需要将该第二俯视地图从3D渲染引擎对应的3D虚拟场景中重新转换至上述第三相机坐标系中。
这样,在得到初始分割结果在第二相机坐标系中的第二俯视地图后,便可以基于初始分割结果和第二俯视地图,对第二平面模型进行渲染,得到待分割图像的地面分割结果。
具体的,基于上述步骤S22中所得到的初始分割结果和该第一俯视地图,利用根据上述步骤S41中的位置移动所得到的主相机与用于采集待分割图像的图像采集设备的对应关系,以及主相机的投影矩阵,通过坐标转换,得到待分割图像的地面分割结果。
可选的,上述步骤S44可以通过3D渲染引擎执行预设的屏幕空间重投影程序(ss_mask)实现,该地面投影累积程序的输入为:上述初始分割结果、第二俯视地图和主相机的投影矩阵,输出为:待分割图像的地面分割结果。
可选的,一种具体实现方式中,如图6所示,上述步骤S43可以包括如下步骤:,
在步骤S61中,获取初始分割结果在预设的世界坐标系中的世界区域坐标;
由于初始分割结果是利用预设的地面分割算法对待分割图像进行目标地面分割所得到的,因此,该初始分割结果也是位于用于采集待分割图像的图像采集设备对应的第三相机坐标系中的。基于此,便可以利用用于采集待分割图像的图像采集设备的投影矩阵,通过矩阵变换,将该初始分割结果投影到预设的世界坐标系中,从而,确定该初始分割结果在该世界坐标系中的世界区域坐标。
在步骤S62中,计算世界区域坐标在第一俯视地图中的俯视区域坐标和世界区域坐标在主相机对应的第一相机坐标系中的主相机空间坐标;
在获取到初始分割结果在世界坐标系中的世界区域坐标后,便可以将该世界区域坐标映射至3D渲染引擎对应的3D虚拟场景中,即映射得到与3D虚拟场景中的地图相机和主相机相关的坐标。
其中,由于当前累积地图为待分割图像的上一帧图像的地面分割结果,而初始分割结果对应的图像区域为待分割图像中的区域,也就是说,当前累积地图和初始分割结果对应的图像区域为连续图像中所包括的区域。这样,因为,在连续拍摄过程中,所采集得到的每相邻两帧图像之间的变化较小,因此,当前累积地图和初始分割结果对应的区域中可以存在相同的区域。进而,由于上述所得到的第一俯视地图是当前累积地图在地图相机对应的第二相机坐标系中的第一俯视地图,则初始分割结果在第二相机坐标系中的第二俯视地图与该第一俯视地图之间也可以存在相同的区域。
基于此,便可以利用根据上述步骤S41中的位置移动所得到的主相机与用于采集待分割图像的图像采集设备的对应关系,以及主相机的投影矩阵,通过坐标转换,计算上述世界区域坐标在第一俯视地图中的俯视区域坐标。
此外,由于主相机的投影矩阵为用于采集待分割图像的图像采集设备的投影矩阵,而上述世界区域坐标为初始分割结果在预设的世界坐标系中的世界区域坐标,因此,便可以利用主相机的投影矩阵,计算世界区域坐标在主相机对应的第一相机坐标系中的主相机空间坐标。
在步骤S63中,从当前累积地图中采样得到俯视区域坐标对应的像素点的第一地面概率值和倒计时值;
其中,所述当前累积地图中,各个像素点的倒计时值用于表征继续保留该像素点的第一地面概率值的帧数;
上述第一俯视地图是将当前累积地图投影到地图相机对应的第二相机坐标系中得到的,因此,第一俯视地图中的每个像素点对应于当前累积地图中的一个像素点,进而,可以通过对当前累积地图进行采样,得到该像素点的第一地面概率值和倒计时值。
基于此,上述计算得到的俯视区域坐标是第一俯视地图中的部分区域,因此,俯视区域坐标中的每个像素点也对应于当前累积地图中的一个像素点,进而,可以通过对当前累积地图进行采样,得到该像素点的第一地面概率值和倒计时值。
其中,当俯视区域坐标对应的一像素点在当前累积地图中无法采样得到第一地面概率值和倒计时值时,将该像素点的第一地面概率值和倒计时值均设置为0。
其中,所述当前累积地图中,各个像素点的倒计时值用于表征继续保留该像素点的第一地面概率值的帧数。具体的,对于当前累积地图中的各个像素点,当该像素点位于3D渲染场景中主相机的可视区域内时,可以将该像素点的倒计时值重置为预定数值,即重置为倒计时值的最大值;相应的,当该像素点位于3D渲染场景中主相机的可视区域外时,可以将该像素点的倒计时值减1。其中,当一像素点的倒计时值减小为0时,则该像素点的第一地面概率值重置为0。显然,3D渲染场景中主相机的可视区域内的各个像素点的倒计时值将保持在最大值,并且,其第一地面概率值将保持不变。
在步骤S64中,从初始分割结果中采集得到主相机空间坐标对应的像素点的第二地面概率值;
上述主相机空间坐标是将初始分割结果投影到主相机对应的第一相机坐标系中得到的,因此,主相机空间坐标中的每个像素点对应于初始分割结果中的一个像素点,进而,初始分割结果为一张二维点阵图,并且,二维点阵图中的每个像素点的取值表示该像素点位置对应的待分割图像中的内容为目标区域的概率,基于此,可以通过对初始分割结果进行采样,得到该像素点的第二地面概率值。
在步骤S65中,针对世界区域坐标对应的每一像素点,当该像素点的倒计时值大于零时,将该像素点对应的第一地面概率值和第二地面概率值中的最大值确定为该像素点的目标地面概率值;
在步骤S66中,针对世界区域坐标对应的每一像素点,当该像素点的倒计时值等于零时,将该像素点对应的第二地面概率确定为该像素点的目标地面概率值;
在步骤S67中,基于世界区域坐标对应的各个像素点的目标地面概率值,确定初始分割结果在第二相机坐标系中的第二俯视地图。
上述俯视区域坐标为上述世界区域坐标在第一俯视地图中的坐标,而上述主相机空间坐标为上述世界区域坐标在主相机对应的第一相机坐标系中的坐标,因此,上述俯视区域坐标中的各个像素点与上述主相机空间坐标中的各个像素点可以一一对应。
进而,针对世界区域坐标对应的每一像素点,当该像素点的倒计时值大于零时,便可以将该像素点对应的第一地面概率值和第二地面概率中的最大值确定为该像素点的目标地面概率值,并对该像素点的倒计时值减1;
相应的,当该像素点的倒计时值等于零时,便可以将该像素点对应的第二地面概率确定为该像素点的目标地面概率值。
这样,便可以得到世界区域坐标对应的每一像素点的目标地面概率值,进而,输出该各个像素点的目标地面概率值,便可以得到初始分割结果在第二相机坐标系中的第二俯视地图。
可选的,一种具体实现方式中,如图7所示,上述步骤S44可以包括如下步骤:
在步骤S71中,采样得到初始分割结果中的各个像素点的第三地面概率值;
在得到初始分割结果后,由于该初始分割结果为一张二维点阵图,并且,二维点阵图中的每个像素点的取值表示该像素点位置对应的待分割图像中的内容为目标区域的概率,因此,可以直接采样得到初始分割结果中的各个像素点的第三地面概率值。
在步骤S72中,计算世界区域坐标中的每个像素点在第二俯视地图中的俯视像素点坐标,当俯视像素点坐标位于预设范围内时,采样得到该像素点在第二俯视地图中的第四地面概率值;
世界区域坐标为初始分割结果在世界坐标系中对应的坐标,第二俯视地图为初始分割结果在第二相机坐标系中的第二俯视地图,进而,利用根据上述步骤S41中的位置移动所得到的主相机与用于采集待分割图像的图像采集设备的对应关系,以及主相机的投影矩阵,通过坐标转换,便可以得到世界区域坐标中的各个像素点在第二俯视地图中的俯视像素点坐标。
其中,由于当初始分割结果中的各个像素点位于图像有效范围内时,该像素点才可以作为该待分割图像的地面分割区域进行输出,因此,在上述步骤S72中,可以通过所得到的俯视像素点坐标位于预设范围内来表征该俯视像素点坐标对应的初始分割结果中的像素点位于图像有效范围内,因此,在得到俯视像素点坐标时,需要进一步判断该俯视像素点坐标是否位于预设范围内,并且,当所得到的俯视像素点坐标位于预设范围内时,可以从第二俯视地图中采集得到该像素点的第四地面概率值。
其中,可选的,上述预设范围可以为[0,1],其中,当俯视像素点坐标的X值小于0时,可以保证该俯视像素点坐标对应的像素点位于图像有效范围的左侧边缘外,当X值大于0时,可以表征该俯视像素点坐标对应的像素点位于图像有效范围的右侧边缘外。
其中,当所得到的俯视像素点坐标未位于预设范围内时,则无法采集到该像素点的第四地面概率值。
在步骤S73中,针对具有第四地面概率值的每个像素点,将该像素点的第三地面概率值和第四地面概率值中的最大值,确定为该像素点的最终地面概率值;
在步骤S74中,针对不具有第四地面概率值的每个像素点,将该像素点的第三地面概率值确定为该像素点的最终地面概率值;
在步骤S75中,基于初始分割结果中的各个像素点的最终地面概率值,确定待分割图像的地面分割结果。
上述世界区域坐标为初始分割结果在预设的世界坐标系中对应的坐标,因此,上述初始分割结果中的各个像素点与上述世界区域坐标中的各个像素点可以一一对应。
进而,针对初始分割结果对应的每一像素点,当该像素点具有第四地面概率值时,便可以将该像素点的第三地面概率值和第四地面概率值中的最大值,确定为该像素点的最终地面概率值;
相应的,当该像素点不具有第四地面概率值时,便可以将该像素点的第三地面概率值确定为该像素点的最终地面概率值。
这样,便可以得到初始分割结果对应的每一像素点的最终地面概率值,进而,输出该各个像素点的最终地面概率值,便可以得到待分割图像的地面分割结果。
这样,便可以在待分割图像的地面分割结果补入存在于初始分割区域而不存于当前累积地图中的区域,并且可以防止得到的地面分割结果的边缘出现锯齿。
需要说明的是,上述图4中所包括的步骤S41-S44均为电子设备调用上述3D渲染引擎实现的。
可选的,一种具体实现方式中,3D渲染引擎包括顶点着色器(Vertex Shader)和像素着色器(Pixel Shader),则在本具体实现方式中,可以通过利用顶点着色器和像素着色器实现上述步骤S43和步骤44。
也就是说,在本具体实现方式中,利用顶点着色器和像素着色器执行上述步骤S61-S67和步骤S71-步骤S75。
其中,当利用顶点着色器和像素着色器执行上述步骤S61-S67时,顶点着色器的目的是将地图相机可见范围内的第一平面模型的每个像素的在世界坐标系中的位置传入像素着色器中,只需将第一平面模型的世界空间变换矩阵与其顶点位置相乘即可得到顶点在世界坐标系中的位置,将顶点在世界坐标系中的位置传入像素着色器即可自动插值得到每个像素在世界坐标系中的位置。将顶点在世界坐标系中的位置再与地图相机的投影矩阵相乘即可得到投影空间位置,作为顶点着色器的输出位置,只要平面模型A足够大,就可以保证像素着色器可以覆盖累积地图的全部像素。相应的,像素着色器具体执行上述步骤S61-S67。
当利用顶点着色器和像素着色器执行上述步骤S71-S75时,顶点着色器的目的是将主相机可见范围内的第二平面模型的每个像素的在世界坐标系中的位置传入像素着色器中,只需将第二平面模型的世界空间变换矩阵与其顶点位置相乘即可得到顶点在世界坐标系中的位置,将顶点在世界坐标系中的位置传入像素着色器即可自动插值得到每个像素在世界坐标系中的位置。将顶点在世界坐标系中的位置再与地图相机的投影矩阵相乘即可得到投影空间位置,作为顶点着色器的输出位置。相应的,像素着色器具体执行上述步骤S71-S75。
可选的,一种具体实现方式中,在得到待分割图像的地面分割结果后,便可以对该待分割图像进行AR渲染,即在地面分割结果对应的区域中添加预设的虚拟空间中的物品,从而,增加所拍摄得到的图像的趣味性,提高用户体验。
图8是根据一示例性实施例示出的一种图像区域的分割装置的框图。该装置应用于电子设备。参照图8,该装置包括图像获取模块810,初始分割模块820和最终分割模块123。
其中,图像获取模块810,用于获取图像采集设备所采集到的待分割图像;
初始分割模块820,用于利用预设的地面分割算法,对所述待分割图像中的目标地面区域进行分割,得到初始分割结果;
最终分割模块830,用于基于所述初始分割结果和当前累积地图,确定所述待分割图像的地面分割结果;
其中,所述当前累积地图为:待分割图像的上一帧图像的地面分割结果。
可选的,一中具体实现方式中,所述最终分割模块830具体用于:
利用预设的3D渲染引擎和与所述3D渲染引擎对应的3D虚拟场景,基于所述初始分割结果和当前累积地图,确定所述待分割图像的地面分割结果。
可选的,一中具体实现方式中,所述3D虚拟场景包括:主相机、地图相机、第一平面模型和第二平面模型;
其中,所述第一平面模型和所述第二平面模型水平放置在所述3D虚拟场景中;
所述主相机对应的第一相机坐标系与所述图像采集设备的第三相机坐标系同步,用于对所述第二平面模型进行渲染;
所述地图相机为:位置与所述主相机同步,且摄像头朝向所述3D虚拟场景的水平面的相机,用于对所述第一平面模型进行渲染。
可选的,一中具体实现方式中,所述最终分割模块830包括:
要素移动子模块,用于将所述第一平面模型、所述第二平面模型与所述地图相机移动至与所述主相机垂直对齐的位置;
当前地图转换子模块,用于确定所述当前累积地图在所述地图相机对应的第二相机坐标系中的第一俯视地图;
第一渲染子模块,用于基于所述初始分割结果和所述第一俯视地图,对所述第一平面模型进行渲染,得到所述初始分割结果在所述第二相机坐标系中的第二俯视地图;
第二渲染子模块,用于基于所述初始分割结果和所述第二俯视地图,对所述第二平面模型进行渲染,得到所述待分割图像的地面分割结果。
可选的,一中具体实现方式中,所述第一渲染子模块具体用于:
获取所述初始分割结果在预设的世界坐标系中的世界区域坐标;
计算所述世界区域坐标在所述第一俯视地图中的俯视区域坐标和所述世界区域坐标在所述主相机对应的第一相机坐标系中的主相机空间坐标;
从所述当前累积地图中采样得到所述俯视区域坐标对应的像素点的第一地面概率值和倒计时值;其中,所述当前累积地图中,各个像素点的倒计时值用于表征继续保留该像素点的第一地面概率值的帧数;
从所述初始分割结果中采集得到所述主相机空间坐标对应的像素点的第二地面概率值;
针对所述世界区域坐标对应的每一像素点,当该像素点的倒计时值大于零时,该像素点对应的第一地面概率值和第二地面概率中的最大值确定为该像素点的目标地面概率值;
针对所述世界区域坐标对应的每一像素点,当该像素点的倒计时值等于零时,将该像素点对应的第二地面概率确定为该像素点的目标地面概率值;
基于所述世界区域坐标对应的各个像素点的目标地面概率值,确定所述初始分割结果在所述第二相机坐标系中的第二俯视地图。
可选的,一中具体实现方式中,所述第二渲染子模块具体用于:
采样得到所述初始分割结果中的各个像素点的第三地面概率值;
计算所述世界区域坐标中的每个像素点在所述第二俯视地图中的俯视像素点坐标,当所述俯视像素点坐标位于预设范围内时,采样得到该像素点在所述第二俯视地图中的第四地面概率值;
针对具有第四地面概率值的每个像素点,将该像素点的第三地面概率值和第四地面概率值中的最大值,确定为该像素点的最终地面概率值;
针对不具有第四地面概率值的每个像素点,将该像素点的第三地面概率值确定为该像素点的最终地面概率值;
基于所述初始分割结果中的各个像素点的最终地面概率值,确定所述待分割图像的地面分割结果。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
图9是根据一示例性实施例示出的一种用于图像区域的分割的电子设备900的框图。例如,电子设备900可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等。
参照图9,电子设备900可以包括以下一个或多个组件:处理组件902,存储器904,电源组件906,多媒体组件908,音频组件910,输入/输出(I/O)接口912,传感器组件914,以及通信组件916。
处理组件902通常控制电子设备900的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理组件902可以包括一个或多个处理器920来执行指令,以完成上述的图像区域的分割方法的全部或部分步骤。此外,处理组件902可以包括一个或多个模块,便于处理组件902和其他组件之间的交互。例如,处理组件902可以包括多媒体模块,以方便多媒体组件908和处理组件902之间的交互。
存储器904被配置为存储各种类型的数据以支持在电子设备900的操作。这些数据的示例包括用于在电子设备900上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器904可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电源组件906为电子设备900的各种组件提供电力。电源组件906可以包括电源管理***,一个或多个电源,及其他与为电子设备900生成、管理和分配电力相关联的组件。
多媒体组件908包括在所述电子设备900和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件908包括一个前置摄像头和/或后置摄像头。当设备900处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜***或具有焦距和光学变焦能力。
音频组件910被配置为输出和/或输入音频信号。例如,音频组件910包括一个麦克风(MIC),当电子设备900处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器904或经由通信组件916发送。在一些实施例中,音频组件910还包括一个扬声器,用于输出音频信号。
I/O接口912为处理组件902和***接口模块之间提供接口,上述***接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件914包括一个或多个传感器,用于为电子设备900提供各个方面的状态评估。例如,传感器组件914可以检测到设备900的打开/关闭状态,组件的相对定位,例如所述组件为电子设备900的显示器和小键盘,传感器组件914还可以检测电子设备900或电子设备900一个组件的位置改变,用户与电子设备900接触的存在或不存在,电子设备900方位或加速/减速和电子设备900的温度变化。传感器组件914可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件914还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件914还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件916被配置为便于电子设备900和其他设备之间有线或无线方式的通信。电子设备900可以接入基于通信标准的无线网络,如WiFi,运营商网络(如2G、3G、4G或5G),或它们的组合。在一个示例性实施例中,通信组件916经由广播信道接收来自外部广播管理***的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件916还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,电子设备900可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
在示例性实施例中,还提供了一种包括指令的存储介质,例如包括指令的存储器904,上述指令可由电子设备900的处理器920执行以完成上述图像区域的分割方法。可选地,存储介质可以是非临时性计算机可读存储介质,例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
图10是根据一示例性实施例示出的一种用于图像区域的分割方法的服务器1000的框图。参照图10,服务器1000包括处理组件1022,其进一步包括一个或多个处理器,以及由存储器1032所代表的存储器资源,用于存储可由处理组件1022的执行的指令,例如应用程序。存储器1032中存储的应用程序可以包括一个或一个以上的每一个对应于一组指令的模块。此外,处理组件1022被配置为执行指令,以执行上述方法……
服务器1000还可以包括一个电源组件1026被配置为执行服务器1000的电源管理,一个有线或无线网络接口1050被配置为将服务器1000连接到网络,和一个输入输出(I/O)接口1058。服务器1000可以操作基于存储在存储器1032的操作***,例如WindowsServerTM,Mac OS XTM,UnixTM,LinuxTM,FreeBSDTM等。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。
Claims (10)
1.一种图像区域的分割方法,其特征在于,应用于电子设备,包括:
获取图像采集设备所采集到的待分割图像;
利用预设的地面分割算法,对所述待分割图像中的目标地面区域进行分割,得到初始分割结果;
基于所述初始分割结果和当前累积地图,确定所述待分割图像的地面分割结果;其中,所述当前累积地图为:待分割图像的上一帧图像的地面分割结果。
2.根据权利要求1所述的方法,其特征在于,所述基于所述初始分割结果和当前累积地图,确定所述待分割图像的地面分割结果的步骤,包括:
利用预设的3D渲染引擎和与所述3D渲染引擎对应的3D虚拟场景,基于所述初始分割结果和当前累积地图,确定所述待分割图像的地面分割结果。
3.根据权利要求2所述的方法,其特征在于,所述3D虚拟场景包括:主相机、地图相机、第一平面模型和第二平面模型;
其中,所述第一平面模型和所述第二平面模型水平放置在所述3D虚拟场景中;
所述主相机对应的第一相机坐标系与所述图像采集设备的第三相机坐标系同步,用于对所述第二平面模型进行渲染;
所述地图相机为:位置与所述主相机同步,且摄像头朝向所述3D虚拟场景的水平面的相机,用于对所述第一平面模型进行渲染。
4.根据权利要求3所述的方法,其特征在于,所述利用预设的3D渲染引擎和与所述3D渲染引擎对应的3D虚拟场景,基于所述初始分割结果和当前累积地图,确定所述待分割图像的地面分割结果的步骤,包括:
将所述第一平面模型、所述第二平面模型与所述地图相机移动至与所述主相机垂直对齐的位置;
确定所述当前累积地图在所述地图相机对应的第二相机坐标系中的第一俯视地图;
基于所述初始分割结果和所述第一俯视地图,对所述第一平面模型进行渲染,得到所述初始分割结果在所述第二相机坐标系中的第二俯视地图;
基于所述初始分割结果和所述第二俯视地图,对所述第二平面模型进行渲染,得到所述待分割图像的地面分割结果。
5.根据权利要求4所述的方法,其特征在于,所述基于所述初始分割结果和所述第一俯视地图,对所述第一平面模型进行渲染,得到所述初始分割结果在所述第二相机坐标系中的第二俯视地图的步骤,包括:
获取所述初始分割结果在预设的世界坐标系中的世界区域坐标;
计算所述世界区域坐标在所述第一俯视地图中的俯视区域坐标和所述世界区域坐标在所述主相机对应的第一相机坐标系中的主相机空间坐标;
从所述当前累积地图中采样得到所述俯视区域坐标对应的像素点的第一地面概率值和倒计时值;其中,所述当前累积地图中,各个像素点的倒计时值用于表征继续保留该像素点的第一地面概率值的帧数;
从所述初始分割结果中采集得到所述主相机空间坐标对应的像素点的第二地面概率值;
针对所述世界区域坐标对应的每一像素点,当该像素点的倒计时值大于零时,将该像素点对应的第一地面概率值和第二地面概率中的最大值确定为该像素点的目标地面概率值;
针对所述世界区域坐标对应的每一像素点,当该像素点的倒计时值等于零时,将该像素点对应的第二地面概率确定为该像素点的目标地面概率值;
基于所述世界区域坐标对应的各个像素点的目标地面概率值,确定所述初始分割结果在所述第二相机坐标系中的第二俯视地图。
6.根据权利要求5所述的方法,其特征在于,所述基于所述初始分割结果和所述第二俯视地图,对所述第二平面模型进行渲染,得到所述待分割图像的地面分割结果的步骤,包括:
采样得到所述初始分割结果中的各个像素点的第三地面概率值;
计算所述世界区域坐标中的每个像素点在所述第二俯视地图中的俯视像素点坐标,当所述俯视像素点坐标位于预设范围内时,采样得到该像素点在所述第二俯视地图中的第四地面概率值;
针对具有第四地面概率值的每个像素点,将该像素点的第三地面概率值和第四地面概率值中的最大值,确定为该像素点的最终地面概率值;
针对不具有第四地面概率值的每个像素点,将该像素点的第三地面概率值确定为该像素点的最终地面概率值;
基于所述初始分割结果中的各个像素点的最终地面概率值,确定所述待分割图像的地面分割结果。
7.一种图像区域的分割装置,其特征在于,应用于电子设备,包括:
图像获取模块,用于获取图像采集设备所采集到的待分割图像;
初始分割模块,用于利用预设的地面分割算法,对所述待分割图像中的目标地面区域进行分割,得到初始分割结果;
最终分割模块,用于基于所述初始分割结果和当前累积地图,确定所述待分割图像的地面分割结果;其中,所述当前累积地图为:待分割图像的上一帧图像的地面分割结果。
8.根据权利要求7所述的装置,其特征在于,所述最终分割模块具体用于:
利用预设的3D渲染引擎和与所述3D渲染引擎对应的3D虚拟场景,基于所述初始分割结果和当前累积地图,确定所述待分割图像的地面分割结果。
9.一种电子设备,其特征在于,包括:
处理器;用于存储所述处理器可执行指令的存储器;
其中,所述处理器被配置为执行所述指令,以实现如权利要求1至6中任一项所述的一种图像区域的分割方法。
10.一种存储介质,当所述存储介质中的指令由电子设备的处理器执行时,使得移动设备能够执行如权利要求1至6中任一项所述的一种图像区域的分割方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010023167.5A CN111223114B (zh) | 2020-01-09 | 2020-01-09 | 一种图像区域的分割方法、装置及电子设备 |
US17/141,572 US20210125339A1 (en) | 2020-01-09 | 2021-01-05 | Method and device for segmenting image, and storage medium |
EP21150764.5A EP3848894B1 (en) | 2020-01-09 | 2021-01-08 | Method and device for segmenting image, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010023167.5A CN111223114B (zh) | 2020-01-09 | 2020-01-09 | 一种图像区域的分割方法、装置及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111223114A true CN111223114A (zh) | 2020-06-02 |
CN111223114B CN111223114B (zh) | 2020-10-30 |
Family
ID=70832349
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010023167.5A Active CN111223114B (zh) | 2020-01-09 | 2020-01-09 | 一种图像区域的分割方法、装置及电子设备 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20210125339A1 (zh) |
EP (1) | EP3848894B1 (zh) |
CN (1) | CN111223114B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113139900A (zh) * | 2021-04-01 | 2021-07-20 | 北京科技大学设计研究院有限公司 | 一种棒材完整表面图像获取方法 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102194232A (zh) * | 2011-05-23 | 2011-09-21 | 西安理工大学 | 一种分层引导的视频图像目标分割方法 |
CN105046213A (zh) * | 2015-06-30 | 2015-11-11 | 成都微力互动科技有限公司 | 一种增强现实的方法 |
CN106558051A (zh) * | 2015-09-25 | 2017-04-05 | 浙江大学 | 一种改进的从单幅图像检测道路的方法 |
CN107798703A (zh) * | 2016-08-30 | 2018-03-13 | 成都理想境界科技有限公司 | 一种用于增强现实的实时图像叠加方法以及装置 |
CN108009563A (zh) * | 2017-10-25 | 2018-05-08 | 北京达佳互联信息技术有限公司 | 图像处理方法、装置及终端 |
CN108520223A (zh) * | 2018-04-02 | 2018-09-11 | 广州华多网络科技有限公司 | 视频图像的分割方法、分割装置、存储介质和终端设备 |
CN108629800A (zh) * | 2017-03-20 | 2018-10-09 | 北京三星通信技术研究有限公司 | 平面确定方法及增强现实显示信息的显示方法、相应装置 |
DE102017223559A1 (de) * | 2017-09-12 | 2019-03-14 | Mando-Hella Electronics Corporation | Vorrichtung zum einstellen des brennpunkts einer kamera und steuerverfahren für diese |
CN109598735A (zh) * | 2017-10-03 | 2019-04-09 | 斯特拉德视觉公司 | 使用马尔科夫链跟踪和分割图像中的目标对象的方法以及使用该方法的设备 |
CN109697724A (zh) * | 2017-10-24 | 2019-04-30 | 北京京东尚科信息技术有限公司 | 视频图像分割方法及装置、存储介质、电子设备 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8045783B2 (en) * | 2006-11-09 | 2011-10-25 | Drvision Technologies Llc | Method for moving cell detection from temporal image sequence model estimation |
JP5822322B2 (ja) * | 2011-09-12 | 2015-11-24 | インテル・コーポレーション | ローカライズされ、セグメンテーションされた画像のネットワークキャプチャ及び3dディスプレイ |
US9390511B2 (en) * | 2013-08-23 | 2016-07-12 | Futurewei Technologies, Inc. | Temporally coherent segmentation of RGBt volumes with aid of noisy or incomplete auxiliary data |
US9619521B1 (en) * | 2013-12-30 | 2017-04-11 | Google Inc. | Classification using concept ranking according to negative exemplars |
US10854011B2 (en) * | 2018-04-09 | 2020-12-01 | Direct Current Capital LLC | Method for rendering 2D and 3D data within a 3D virtual environment |
CN109543634B (zh) * | 2018-11-29 | 2021-04-16 | 达闼科技(北京)有限公司 | 定位过程中的数据处理方法、装置、电子设备和存储介质 |
EP3942468A4 (en) * | 2019-03-18 | 2023-01-04 | Geomagical Labs, Inc. | SYSTEM AND METHOD FOR VIRTUAL MODELING OF INTERIOR SCENES FROM IMAGING |
-
2020
- 2020-01-09 CN CN202010023167.5A patent/CN111223114B/zh active Active
-
2021
- 2021-01-05 US US17/141,572 patent/US20210125339A1/en not_active Abandoned
- 2021-01-08 EP EP21150764.5A patent/EP3848894B1/en active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102194232A (zh) * | 2011-05-23 | 2011-09-21 | 西安理工大学 | 一种分层引导的视频图像目标分割方法 |
CN105046213A (zh) * | 2015-06-30 | 2015-11-11 | 成都微力互动科技有限公司 | 一种增强现实的方法 |
CN106558051A (zh) * | 2015-09-25 | 2017-04-05 | 浙江大学 | 一种改进的从单幅图像检测道路的方法 |
CN107798703A (zh) * | 2016-08-30 | 2018-03-13 | 成都理想境界科技有限公司 | 一种用于增强现实的实时图像叠加方法以及装置 |
CN108629800A (zh) * | 2017-03-20 | 2018-10-09 | 北京三星通信技术研究有限公司 | 平面确定方法及增强现实显示信息的显示方法、相应装置 |
DE102017223559A1 (de) * | 2017-09-12 | 2019-03-14 | Mando-Hella Electronics Corporation | Vorrichtung zum einstellen des brennpunkts einer kamera und steuerverfahren für diese |
CN109598735A (zh) * | 2017-10-03 | 2019-04-09 | 斯特拉德视觉公司 | 使用马尔科夫链跟踪和分割图像中的目标对象的方法以及使用该方法的设备 |
CN109697724A (zh) * | 2017-10-24 | 2019-04-30 | 北京京东尚科信息技术有限公司 | 视频图像分割方法及装置、存储介质、电子设备 |
CN108009563A (zh) * | 2017-10-25 | 2018-05-08 | 北京达佳互联信息技术有限公司 | 图像处理方法、装置及终端 |
CN108520223A (zh) * | 2018-04-02 | 2018-09-11 | 广州华多网络科技有限公司 | 视频图像的分割方法、分割装置、存储介质和终端设备 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113139900A (zh) * | 2021-04-01 | 2021-07-20 | 北京科技大学设计研究院有限公司 | 一种棒材完整表面图像获取方法 |
CN113139900B (zh) * | 2021-04-01 | 2023-09-01 | 北京科技大学设计研究院有限公司 | 一种棒材完整表面图像获取方法 |
Also Published As
Publication number | Publication date |
---|---|
EP3848894A1 (en) | 2021-07-14 |
CN111223114B (zh) | 2020-10-30 |
US20210125339A1 (en) | 2021-04-29 |
EP3848894B1 (en) | 2024-03-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108986199B (zh) | 虚拟模型处理方法、装置、电子设备及存储介质 | |
CN110675310B (zh) | 视频处理方法、装置、电子设备及存储介质 | |
KR102194094B1 (ko) | 가상과 실제 물체의 합성 방법, 장치, 프로그램 및 기록매체 | |
CN109889724B (zh) | 图像虚化方法、装置、电子设备及可读存储介质 | |
JP7038853B2 (ja) | 画像処理方法及び装置、電子機器並びにコンピュータ可読記憶媒体 | |
CN109345485B (zh) | 一种图像增强方法、装置、电子设备及存储介质 | |
JP2016531362A (ja) | 肌色調整方法、肌色調整装置、プログラム及び記録媒体 | |
CN110853095B (zh) | 相机定位方法、装置、电子设备及存储介质 | |
US11880999B2 (en) | Personalized scene image processing method, apparatus and storage medium | |
CN113643356B (zh) | 相机位姿确定、虚拟物体显示方法、装置及电子设备 | |
CN108122195B (zh) | 图片处理方法及装置 | |
CN114387445A (zh) | 对象关键点识别方法及装置、电子设备和存储介质 | |
CN113411621B (zh) | 音频数据处理方法、装置、存储介质及电子设备 | |
CN112991381B (zh) | 图像处理方法及装置、电子设备和存储介质 | |
WO2022151686A1 (zh) | 场景图像展示方法、装置、设备、存储介质、程序及产品 | |
CN114025105A (zh) | 视频处理方法、装置、电子设备、存储介质 | |
CN110928509B (zh) | 显示控制方法、显示控制装置、存储介质、通信终端 | |
CN111223114B (zh) | 一种图像区域的分割方法、装置及电子设备 | |
CN112348841B (zh) | 虚拟对象的处理方法、装置、电子设备及存储介质 | |
US11252341B2 (en) | Method and device for shooting image, and storage medium | |
CN114430457A (zh) | 拍摄方法、装置、电子设备和存储介质 | |
CN113645414B (zh) | 水波纹特效视频生成方法、装置、电子设备及存储介质 | |
US20240212199A1 (en) | Method and device for drawing spatial map, camera equipment and storage medium | |
CN113890984B (zh) | 拍照方法、图像处理方法和电子设备 | |
CN118052958A (zh) | 全景地图的构建方法、装置及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |