CN115965675A - 图像处理方法及装置、电子设备及存储介质 - Google Patents

图像处理方法及装置、电子设备及存储介质 Download PDF

Info

Publication number
CN115965675A
CN115965675A CN202111186783.3A CN202111186783A CN115965675A CN 115965675 A CN115965675 A CN 115965675A CN 202111186783 A CN202111186783 A CN 202111186783A CN 115965675 A CN115965675 A CN 115965675A
Authority
CN
China
Prior art keywords
image
depth
plane
camera
sub
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111186783.3A
Other languages
English (en)
Inventor
张超
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Xiaomi Mobile Software Co Ltd
Original Assignee
Beijing Xiaomi Mobile Software Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Xiaomi Mobile Software Co Ltd filed Critical Beijing Xiaomi Mobile Software Co Ltd
Priority to CN202111186783.3A priority Critical patent/CN115965675A/zh
Publication of CN115965675A publication Critical patent/CN115965675A/zh
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)

Abstract

本公开是关于一种图像处理方法及装置、电子设备及存储介质。该方法包括:获取采集对象的两组组合图像;其中,一组组合图像中包括第一相机采集的第一深度图像和第二相机采集的第一平面图像,另一组组合图像中包括所述第一相机采集的第二深度图像和所述第二相机采集的第二平面图像;任一组组合图像中的深度图像和平面图像之间具有映射关系;基于所述映射关系,以及所述第一深度图像和所述第二深度图像中所包括的深度信息,确定所述第一平面图像和所述第二平面图像之间的单应性矩阵;其中,所述深度信息表征所述采集对象与所述第一相机的距离。通过该方法,能提升单应性估计的准确性。

Description

图像处理方法及装置、电子设备及存储介质
技术领域
本公开涉及图像处理技术领域,尤其涉及一种图像处理方法及装置、电子设备及存储介质。
背景技术
在图像处理领域中,单应性矩阵被定义为一个平面到另外一个平面的投影映射矩阵。假设已经取得了两图像之间的单应,则可利用单应矩阵H将两幅图像关联起来,例如通过公式A=H*B将图像A和图像B进行关联,也就是利用单应性矩阵H将图像B变换到图像A。
单应性矩阵有很多实际的应用,例如图像的校正、配准以及在SLAM中估计两个相机间的运动。然而,如何准确估计单应性矩阵是关键。
发明内容
本公开提供一种图像处理方法及装置、电子设备及存储介质。
根据本公开实施例的第一方面,提供一种图像处理方法,包括:
获取采集对象的两组组合图像;其中,一组组合图像中包括第一相机采集的第一深度图像和第二相机采集的第一平面图像,另一组组合图像中包括所述第一相机采集的第二深度图像和所述第二相机采集的第二平面图像;任一组组合图像中的深度图像和平面图像之间具有映射关系;
基于所述映射关系,以及所述第一深度图像和所述第二深度图像中所包括的深度信息,确定所述第一平面图像和所述第二平面图像之间的单应性矩阵;其中,所述深度信息表征所述采集对象与所述第一相机的距离。
在一些实施例中,所述基于所述映射关系,以及所述第一深度图像和所述第二深度图像中所包括的深度信息,确定所述第一平面图像和所述第二平面图像之间的单应性矩阵,包括:
对所述第一深度图像和所述第二深度图像进行深度区域划分,获得不同深度区域的第一深度子图像以及不同深度区域的第二深度子图像;其中,不同深度区域表征所述采集对象上与所述第一相机的距离不同的局部区域;
根据所述映射关系,获取各深度区域的第一深度子图像在所述第一平面图像上对应的第一平面子图像,以及各深度区域的第二深度子图像在所述第二平面图像上对应的第二平面子图像;
根据深度区域相同的一组所述第一平面子图像和所述第二平面子图像,建立单应性子矩阵;
根据多组第一平面子图像和第二平面子图像的组合对应的单应性子矩阵,确定所述第一平面图像和所述第二平面图像之间的单应性矩阵。
在一些实施例中,所述方法包括:
对所述第一平面图像和所述第二平面图像做特征点匹配,获得所述第一平面图像中像素点和所述第二平面图像中像素点之间的匹配组合;
所述根据深度区域相同的一组所述第一平面子图像和所述第二平面子图像,建立单应性子矩阵,包括:
从所述像素点的匹配组合中,选取出属于深度区域相同的所述第一平面子图像和所述第二平面子图像的目标匹配组合;
基于所述目标匹配组合,计算所述单应性子矩阵。
在一些实施例中,所述单应性矩阵中不同的单应性子矩阵的权重不同;其中,目标深度区域对应的单应性子矩阵的权重大于所述目标深度区域之外的深度区域对应的单应性子矩阵的权重。
在一些实施例中,所述方法包括:
对所述第一相机进行离线标定,获得第一标定结果;所述第一标定结果用于对所述第一相机采集的图像进行校正获得所述第一深度图像和所述第二深度图像;
对所述第二相机进行离线标定,获得第二标定结果;所述第二标定结果用于对所述第二相机采集的图像进行校正获得所述第一平面图像和所述第二平面图像;
基于所述第一标定结果以及所述第二标定结果,确定所述映射关系。
在一些实施例中,所述方法包括:
根据所述单应性矩阵,对所述第一平面图像和所述第二平面图像做配准。
根据本公开实施例的第二方面,提供一种图像处理装置,包括:
获取模块,配置为获取采集对象的两组组合图像;其中,一组组合图像中包括第一相机采集的第一深度图像和第二相机采集的第一平面图像,另一组组合图像中包括所述第一相机采集的第二深度图像和所述第二相机采集的第二平面图像;任一组组合图像中的深度图像和平面图像之间具有映射关系;
确定模块,配置为基于所述映射关系,以及所述第一深度图像和所述第二深度图像中所包括的深度信息,确定所述第一平面图像和所述第二平面图像之间的单应性矩阵;其中,所述深度信息表征所述采集对象与所述第一相机的距离。
在一些实施例中,所述确定模块,还配置为对所述第一深度图像和所述第二深度图像进行深度区域划分,获得不同深度区域的第一深度子图像以及不同深度区域的第二深度子图像;其中,不同深度区域表征所述采集对象上与所述第一相机的距离不同的局部区域;根据所述映射关系,获取各深度区域的第一深度子图像在所述第一平面图像上对应的第一平面子图像,以及各深度区域的第二深度子图像在所述第二平面图像上对应的第二平面子图像;根据深度区域相同的一组所述第一平面子图像和所述第二平面子图像,建立单应性子矩阵;根据多组第一平面子图像和第二平面子图像的组合对应的单应性子矩阵,确定所述第一平面图像和所述第二平面图像之间的单应性矩阵。
在一些实施例中,所述装置包括:
特征匹配模块,配置为对所述第一平面图像和所述第二平面图像做特征点匹配,获得所述第一平面图像中像素点和所述第二平面图像中像素点之间的匹配组合;
所述确定模块,还配置为从所述像素点的匹配组合中,选取出属于深度区域相同的所述第一平面子图像和所述第二平面子图像的目标匹配组合;基于所述目标匹配组合,计算所述单应性子矩阵。
在一些实施例中,所述单应性矩阵中不同的单应性子矩阵的权重不同;其中,目标深度区域对应的单应性子矩阵的权重大于所述目标深度区域之外的深度区域对应的单应性子矩阵的权重。
在一些实施例中,所述装置包括:
第一标定模块,配置为对所述第一相机进行离线标定,获得第一标定结果;所述第一标定结果用于对所述第一相机采集的图像进行校正获得所述第一深度图像和所述第二深度图像;
第二标定模块,配置为对所述第二相机进行离线标定,获得第二标定结果;所述第二标定结果用于对所述第二相机采集的图像进行校正获得所述第一平面图像和所述第二平面图像;
映射模块,配置为基于所述第一标定结果以及所述第二标定结果,确定所述映射关系。
在一些实施例中,所述装置包括:
配准模块,配置为根据所述单应性矩阵,对所述第一平面图像和所述第二平面图像做配准。
根据本公开实施例的第三方面,提供一种电子设备,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为执行如上述第一方面中所述的图像处理方法。
根据本公开实施例的第四方面,提供一种存储介质,包括:
当所述存储介质中的指令由电子设备的处理器执行时,使得电子设备能够执行如上述第一方面中所述的图像处理方法。
本公开的实施例提供的技术方案可以包括以下有益效果:
在本公开的实施例中,利用深度相机(第一相机)和平面相机(第二相机)组合采集的图像,使得在进行平面图像之间的单应性估计时,能融合深度图像中的深度信息,从而提升单应性估计的准确性。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
图1是本公开实施例示出的一种图像处理方法流程图。
图2为本公开实施例中基于单应性矩阵的应用的示例图。
图3为本公开实施例示出的一种深度区域划分示例图。
图4为本公开实施例中一种获取标定结果的示例图。
图5为本公开实施例中一种基于标定结果进行图像校正的示例图。
图6为本公开实施例中一种图像处理方法原理图。
图7为本公开实施例中一种获取平面子图像的示例图。
图8是根据一示例性实施例示出的一种图像处理装置图。
图9是根据一示例性实施例示出的一种电子设备装置的框图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
图1是本公开实施例示出的一种图像处理方法流程图,如图1所示,应用于电子设备中的图像处理方法包括以下步骤:
S11、获取采集对象的两组组合图像;其中,一组组合图像中包括第一相机采集的第一深度图像和第二相机采集的第一平面图像,另一组组合图像中包括所述第一相机采集的第二深度图像和所述第二相机采集的第二平面图像;任一组组合图像中的深度图像和平面图像之间具有映射关系;
S12、基于所述映射关系,以及所述第一深度图像和所述第二深度图像中所包括的深度信息,确定所述第一平面图像和所述第二平面图像之间的单应性矩阵;其中,所述深度信息表征所述采集对象与所述第一相机的距离。
在本公开的实施例中,电子设备可以是任一台具有数据处理能力的服务器或者终端等,所述终端包括但不限于手机、平板电脑或个人电脑(Personal Computer,PC)。
在步骤S11中,电子设备会获取采集对象的两组组合图像,其中,采集对象可以是人物、动物或植物等,也可以是蓝天、白云或日落等自然场景。采集对象的两组组合图像,可以是对应短焦拍摄的图像,也可以是对应长焦拍摄的图像,对此本公开实施例不做限制。
在本公开的实施例中,任一组组合图像包括由深度相机(第一相机)采集的深度图像以及普通的彩色相机(第二相机)采集的平面图像。其中,深度图像中包括深度信息,用于反映采集对象上的各个部分与第一相机间的距离。
在本公开的实施例中,采集任一组组合图像的第一相机与第二相机的内参数可相同,第一相机与第二相机的外参数也可相同,其中,相机内参数是与相机自身特性相关的参数,比如相机的焦距、像素大小等;外参数是在世界坐标系中的参数,比如相机的位置、旋转方向等。当然,采集任一组组合图像的第一相机与第二相机的内参数可以不同,外参数也可以不同。本公开可基于第一相机和第二相机的外参数,确定任一组组合图像中深度图像和平面图像之间映射关系。
在步骤S12中,电子设备基于深度图像和平面图像之间的映射关系,以及第一深度图像和第二深度图像中所包括的深度信息,即可确定第一平面图像和第二平面图像之间的单应性矩阵。
如前所述的,采集任一组组合图像的第一相机和第二相机的内参数以及外参数均可相同,因而同一组组合中,第一相机和第二相机采集的图像中所包括的二维平面图像的信息是一致的,仅是深度图像中包括了额外的距离信息。此时,同一组合中,深度图像和平面图像之间的映射关系为逐行逐列的一对一映射。在该种实施例中,在基于映射关系以及深度信息,确定第一平面图像和第二平面图像之间的单应性矩阵时,例如可分别基于第一深度图像和第二深度图像中所包括的各像素点的深度信息,计算各组组合图像中第一相机的平均采集距离,该平均采集距离之间的差异可用于后续单应性矩阵的估计。具体的,后续进行单应性矩阵的估计时,可基于第一平面图像和第二平面图像中各像素点的值,以及平均采集距离之间的比值做特征点检测与匹配,然后再计算特征点之间的映射关系,即得到本公开的单应性矩阵。其中,平均采集距离之间的比值可以作为做特征点检测与匹配时,匹配像素点的位置约束条件。例如,第一平面图像和第二平面图像的采集方向一致时,基于第一深度图像和第二深度图像确定的平均采集距离之间的比值为2,则针对第一平面图像上的某一像素点A,可在第二平面图像中以像素点A的位置为中心上下左右2倍像素范围内寻找匹配的像素点,从而进一步基于匹配的像素点计算单应性矩阵。
在该实施例中,基于第一深度图像和第二深度图像中的深度信息的约束,能提升特征点检测与匹配的准确性,因而能提升单一性矩阵估计的准确性。
在另一种实施例中,考虑到采集对象上的不同区域与第一相机的距离并不相同,因而也可以基于深度图像上的不同深度信息做区域划分后,结合映射关系,对第一平面图像和第二平面图像进行分块单一性矩阵估计,通过更细致的划分从而提升单应性矩阵的准确度,本公开后续将详细介绍分块的单一性矩阵估计方法。
可以理解的是,在本公开的实施例中,利用深度相机(第一相机)和平面相机(第二相机)组合采集的图像,使得在进行平面图像之间的单应性估计时,能融合深度图像中的深度信息,从而提升单应性估计的准确性。
在一种实施例中,所述方法包括:
根据所述单应性矩阵,对所述第一平面图像和所述第二平面图像做配准。
本公开在确定单应性矩阵之后,即可利用该单应性矩阵对第一平面图像和第二平面图像进行匹配和叠加,例如进行多姿态的人脸配准。当然,本公开实施例并不限于利用单应性矩阵进行配准,还可利用单应性矩阵做图像拼接等。
图2为本公开实施例中基于单应性矩阵的应用的示例图,如图2所示,电子设备通过深度相机(即第一相机)和RGB相机(即第二相机)获得两组采集位姿不同的图像后,结合深度图1(即第一深度图像)和深度图2(即第二深度图像),对彩色图1(即第一平面图像)和彩色图2(即第二平面图像)进行多姿态的配准。
如前所述的,可基于深度图像上的不同深度信息做区域划分后,结合映射关系,对第一平面图像和第二平面图像进行分块单一性矩阵估计。在该实施例中,步骤S12具体可包括如下步骤:
对所述第一深度图像和所述第二深度图像进行深度区域划分,获得不同深度区域的第一深度子图像以及不同深度区域的第二深度子图像;其中,不同深度区域表征所述采集对象上与所述第一相机的距离不同的局部区域;
根据所述映射关系,获取各深度区域的第一深度子图像在所述第一平面图像上对应的第一平面子图像,以及各深度区域的第二深度子图像在所述第二平面图像上对应的第二平面子图像;
根据深度区域相同的一组所述第一平面子图像和所述第二平面子图像,建立单应性子矩阵;
根据多组第一平面子图像和第二平面子图像的组合对应的单应性子矩阵,确定所述第一平面图像和所述第二平面图像之间的单应性矩阵。
图3为本公开实施例示出的一种深度区域划分示例图,如图3所示,在对第一深度图像和第二深度图像进行深度区域划分时,可将深度信息小于50厘米(cm)的像素点划分到一个深度区域,将深度信息处于50厘米至100厘米的像素点划分到一个深度区域,将深度信息处于100厘米至200厘米的像素点划分到一个深度区域,将深度信息处于200厘米至350厘米的像素点划分到一个深度区域,将大于350厘米的像素点划分到另一深度区域。当然,本公开的深度区域划分并不限定于上述方式,可结合单一性矩阵的确定精度需求以及计算量综合来确定深度区域划分方式。总体来说,深度区域划分得越多,精度越高,但同时计算量可能也越大。需要说明的是,在本公开的实施例中,第一深度图像和第二深度图像的深度区域划分方式相同。
本公开在基于第一深度图像获得不同深度区域的第一深度子图像,以及基于第二深度图像获得不同深度区域的第二深度子图像之后,即可根据映射关系,获取第一深度子图像在第一平面图像上对应的第一平面子图像,以及第二深度子图像在第二平面上对应的第二平面子图像。需要说明的是,本公开实施例中,第一深度图像与第一平面图像之间的映射关系,可不同于第二深度图像与第二平面图像之间的映射关系。当两组组合图像的映射关系不同时,例如映射关系可包括第一映射关系和第二映射关系,根据第一映射关系可获取第一深度子图像在第一平面图像上对应的第一平面子图像,根据第二映射关系可获取第二深度子图像在第二平面上对应的第二平面子图像。
可以理解的是,由于不同的深度子图像包括了不同的深度信息,那么不同深度子图像对应的平面子图像也对应了不同的深度信息。后续,即可以根据深度区域相同的一组第一平面子图像和第二平面子图像,建立单应性子矩阵,该单应性子矩阵即代表第二相机采集的不同第一平面图像和第二平面图像上局部区域的映射矩阵,该局部区域对应了第一深度图像和第二深度图像上同一深度区域。
在确定第一平面图像和第二平面图像上各局部区域的单应性子矩阵后,即可根据区域位置,组合单应性子矩阵,得到第一平面图像和第二平面图像之间的单应性矩阵。
示例性的,假设Hi是第i块区域的单应性子矩阵,则第一平面图像和第二平面图像之间的单应性矩阵可表示为如下公式(1):
Figure BDA0003299571510000081
其中,n代表分块区域的个数,n为大于1的正整数。
需要说明的是,在该实施例中,两组组合图像的采集位姿可不同,但不同组合中,第一相机距离采集对象的距离可一致。
可以理解的是,本公开基于第一深度图像和第二深度图像包括的深度信息进行深度区域划分,然后根据映射关系获取相同深度区域的第一平面子图像和第二平面子图像后求解深度区域对应的单应性子矩阵,再组合各单应性子矩阵获得第一平面图像和第二平面图像对应的单应性矩阵,减少了因仅依靠平面图像信息估计单应性矩阵带来局限性,基于深度信息的区域划分映射,能提升单应性矩阵估计的准确性。
需要说明的是,在本公开的一种实施例中,在根据深度区域相同的一组第一平面子图像和第二平面子图像,建立单应性子矩阵时,可以直接在第一平面子图像和第二平面子图像上做特征点的检测与匹配,从而基于匹配的特征点对来计算第一平面子图像和第二平面子图像之间的单应性子矩阵。
在本公开的另一种实施例中,也可采用其他的方式计算第一平面子图像和第二平面子图像之间的单应性矩阵,所述方法包括:
对所述第一平面图像和所述第二平面图像做特征点匹配,获得所述第一平面图像中像素点和所述第二平面图像中像素点之间的匹配组合;
所述根据深度区域相同的一组所述第一平面子图像和所述第二平面子图像,建立单应性子矩阵,包括:
从所述像素点的匹配组合中,选取出属于深度区域相同的所述第一平面子图像和所述第二平面子图像的目标匹配组合;
基于所述目标匹配组合,计算所述单应性子矩阵。
本公开的实施例中,可基于尺度不变特征变换(ScaleInvariant FeatureTransform,SIFT)算法进行特征点匹配,也可基于加速稳健特征(Speeded Up RobustFeatures,SURF)等算法做特征点检测匹配,本公开对特征点检测与匹配方式不做具体限制。
在该实施例中,可先在第一平面图像和第二平面图像上做特征点匹配获得第一平面图像中像素点和第二平面图像中像素点之间的匹配组合,然后再根据第一平面子图像和第二平面子图像的区域信息,从像素点的匹配组合中,选取输出属于第一平面子图像和第二平面子图像的目标匹配组合。例如,对匹配组合中的特征点进行分块,采用掩码的方式,第一平面子图像和第二平面子图像所属的区域置为1,其余置为0,从而在像素点的匹配组合中过滤出目标匹配组合。假设第一平面图像和第二平面图像的匹配组合为Feature1和Feature2,则过滤后的目标匹配组合为Feature1_Roi,Feature2_Roi,其中,Featuren_Roi是相对于Featuren增加了区域限制,Featuren_Roi是Featuren的子集。
在一种实施例中,所述单应性矩阵中不同的单应性子矩阵的权重不同;其中,目标深度区域对应的单应性子矩阵的权重大于所述目标深度区域之外的深度区域对应的单应性子矩阵的权重。
在本公开的实施例中,设置目标深度区域对应的单应性子矩阵的权重较大,以提升该目标深度区域的单应性子矩阵在整个单应性矩阵中的重要性,从而使得后续进行单应性矩阵进行图像匹配或拼接等操作时,得到更优的匹配效果或拼接效果。
例如在采集人像时,较佳的采集距离是100厘米至300厘米,因而可将100厘米至300厘米的深度区域确定为关注的重点,也即本公开的目标深度区域,而其他背景区域则属于非重点关注区域;在采集近景时,关注距离通常小于50厘米,因而也可将小于50厘米的深度区域确定为目标深度区域。本公开可根据对采集对象的采集方式,来设定目标深度区域,并设定目标深度区域的单应性子矩阵对应的权重相对较大。
本公开实施例中,假设单应性子矩阵对应的权重为W=(w1 … wn),则带权重的单应性矩阵可表示为如下公式(2)所示:
Hresult=W·H                    (2)
其中,H即为前述公式(1)中所示的矩阵。
在一种实施例中,所述方法包括:
对所述第一相机进行标定,获得第一标定结果;所述第一标定结果用于对所述第一相机采集的图像进行校正获得所述第一深度图像和所述第二深度图像;
对所述第二相机进行标定,获得第二标定结果;所述第二标定结果用于对所述第二相机采集的图像进行校正获得所述第一平面图像和所述第二平面图像;
基于所述第一标定结果以及所述第二标定结果,确定所述映射关系。
由于在通过相机采集图像时,同一组组组合图像内的第一相机和第二相机的位姿差异会使得深度图像中包括的像素点的位置与平面图像中像素点的位置存在差异,且相机的镜头可能存在的畸变导致拍摄的图像存在变形,无法真实反映采集对象的原貌等,因而需要通过相机标定来建立相机成像几何模型以减轻上述现象对单应性矩阵估计的影响。对相机进行标定的过程也即获得相机的内参数、外参数以及畸变参数的过程。
在本公开的实施例中,可采用离线标定方式分别获得第一相机的第一标定结果,以及第二相机的第二标定结果。离线标定方法例如是利用带有非共面专用标定标识的三维标定物来提供图像点和其对应的三维空间点的对应并计算标定参数。当然,本公开在缺失标定物的情况下,也可采用在线标定的方式,例如采用基于场景约束的自标定和基于几何约束的自标定方式。
图4为本公开实施例中一种获取标定结果的示例图,如图4所示,对深度图像和RGB图像进行离线标定,获得标定结果,标定结果中包括相机的内参数、外参数以及畸变参数。
本公开可以利用棋盘格对第一相机和第二相机进行离线标定,从而获得相机(包括第一相机和第二相机)的标定结果(包括第一标定结果和第二标定结果)。基于标定结果中的内参数和畸变参数,即可对第一相机采集的深度图像进行校正,以及对第二相机采集的平面图像进行校正。此外,基于上述外参数,还可建立第一相机采集的深度图像与第二相机采集的平面图像之间的映射关系,若第一相机和第二相机的相对位置在两组组合图像采集时的位姿不同时,需分别建立前述的第一映射关系和第二映射关系。
图5为本公开实施例中一种基于标定结果进行图像校正的示例图,如图5所示,深度相机即本公开的第一相机,RGB相机即本公开的第二相机,深度相机获得的深度图像可利用标定结果进行立体校正,从而获得校正后的深度图像(包括第一深度图像和第二深度图像),RGB相机获得的RGB图像利用标定结果进行立体校正后,可获得校正后的RGB图像(包括第一平面图像和第二平面图像)。此外,还需结合标定结果中的外参数,建立校正后深度图像和平面图像之间的映射关系。
本公开通过相机标定后,利用标定结果对采集的图像进行校正,再基于校正后的两组组合图像进行单应性矩阵的估计,减少了因未进行校正的图像本身存在变形等现象造成的错误映射,因而能提升对单应性矩阵估计的准确性。
图6为本公开实施例中一种图像处理方法原理图,如图6所示,以深度图1(第一深度图像)和平面图像1(第一平面图像)为例说明前期的处理过程,深度图1为对深度相机(第一相机)采集的图像进行图像校正后的图像,平面图像1为对RGB相机(第二相机)采集的图像进行图像校正后的图像,图像校正方式可如前述的图4和图5所示。获得经过校正的第一深度图像后,即可进行深度区域划分,同时基于深度图像和平面图像之间的映射关系,获取深度区域划分后的第一深度子图像在第一平面图像上对应的第一平面子图像(平面子图像1)。同理,对于深度图2(第二深度图像)和平面图像2(第二平面图像)也进行同样的操作,获取深度区域划分后的第二深度子图像在第二平面图像上对应的第二平面子图像(平面子图像2)。图7为本公开实施例中一种获取平面子图像的示例图,如图7所示,对深度图像进行深度区域划分之后,即可得到深度图中不同的深度区域,并进一步基于立体校正的对应性进行重映射,获得平面图中不同的区域,即得到平面子图像。其中,立体校正的对应性,即前述提及的映射关系。如图6所示,对于平面图像1和平面图像2,还做了特征点检测与匹配,得到特征点集1和特征点集2,特征点集1中的各特征点和特征点集2中的特征点具有一一对应关系,特征点集1和特征点集2即为本公开第一平面图像中像素点和第二平面图像中像素点之间的匹配组合。随后,基于平面子图像以及特征点集,采用掩码形式进行特征点分块,分别获得属于平面子图像1的区域特征点子集1,以及属于平面子图像2的区域特征点子集2,区域特征点子集1和区域特征点子集2即为本公开提及的目标匹配组合。后续,即可根据区域特征点子集1和区域特征点子集2计算深度区域对应的单应性子矩阵Hi。根据区域位置组合各单应性子矩阵即可得到平面图像1和平面图像2之间的单应性矩阵。
图8是根据一示例性实施例示出的一种图像处理装置图。参照图8,所述装置包括:
获取模块101,配置为获取采集对象的两组组合图像;其中,一组组合图像中包括第一相机采集的第一深度图像和第二相机采集的第一平面图像,另一组组合图像中包括所述第一相机采集的第二深度图像和所述第二相机采集的第二平面图像;任一组组合图像中的深度图像和平面图像之间具有映射关系;
确定模块102,配置为基于所述映射关系,以及所述第一深度图像和所述第二深度图像中所包括的深度信息,确定所述第一平面图像和所述第二平面图像之间的单应性矩阵;其中,所述深度信息表征所述采集对象与所述第一相机的距离。
在一些实施例中,所述确定模块102,还配置为对所述第一深度图像和所述第二深度图像进行深度区域划分,获得不同深度区域的第一深度子图像以及不同深度区域的第二深度子图像;其中,不同深度区域表征所述采集对象上与所述第一相机的距离不同的局部区域;根据所述映射关系,获取各深度区域的第一深度子图像在所述第一平面图像上对应的第一平面子图像,以及各深度区域的第二深度子图像在所述第二平面图像上对应的第二平面子图像;根据深度区域相同的一组所述第一平面子图像和所述第二平面子图像,建立单应性子矩阵;根据多组第一平面子图像和第二平面子图像的组合对应的单应性子矩阵,确定所述第一平面图像和所述第二平面图像之间的单应性矩阵。
在一些实施例中,所述装置包括:
特征匹配模块103,配置为对所述第一平面图像和所述第二平面图像做特征点匹配,获得所述第一平面图像中像素点和所述第二平面图像中像素点之间的匹配组合;
所述确定模块102,还配置为从所述像素点的匹配组合中,选取出属于深度区域相同的所述第一平面子图像和所述第二平面子图像的目标匹配组合;基于所述目标匹配组合,计算所述单应性子矩阵。
在一些实施例中,所述单应性矩阵中不同的单应性子矩阵的权重不同;其中,目标深度区域对应的单应性子矩阵的权重大于所述目标深度区域之外的深度区域对应的单应性子矩阵的权重。
在一些实施例中,所述装置包括:
第一标定模块104,配置为对所述第一相机进行离线标定,获得第一标定结果;所述第一标定结果用于对所述第一相机采集的图像进行校正获得所述第一深度图像和所述第二深度图像;
第二标定模块105,配置为对所述第二相机进行离线标定,获得第二标定结果;所述第二标定结果用于对所述第二相机采集的图像进行校正获得所述第一平面图像和所述第二平面图像;
映射模块106,配置为基于所述第一标定结果以及所述第二标定结果,确定所述映射关系。
在一些实施例中,所述装置包括:
配准模块107,配置为根据所述单应性矩阵,对所述第一平面图像和所述第二平面图像做配准。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
图9是根据一示例性实施例示出的一种电子设备装置800的框图。例如,装置800可以是服务器或手机等终端。
参照图9,装置800可以包括以下一个或多个组件:处理组件802,存储器804,电源组件806,多媒体组件808,音频组件810,输入/输出(I/O)的接口812,传感器组件814,以及通信组件816。
处理组件802通常控制装置800的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理组件802可以包括一个或多个处理器820来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件802可以包括一个或多个模块,便于处理组件802和其他组件之间的交互。例如,处理组件802可以包括多媒体模块,以方便多媒体组件808和处理组件802之间的交互。
存储器804被配置为存储各种类型的数据以支持在设备800的操作。这些数据的示例包括用于在装置800上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器804可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电源组件806为装置800的各种组件提供电力。电力组件806可以包括电源管理***,一个或多个电源,及其他与为装置800生成、管理和分配电力相关联的组件。
多媒体组件808包括在所述装置800和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件808包括一个前置摄像头和/或后置摄像头。当设备800处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜***或具有焦距和光学变焦能力。
音频组件810被配置为输出和/或输入音频信号。例如,音频组件810包括一个麦克风(MIC),当装置800处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器804或经由通信组件816发送。在一些实施例中,音频组件810还包括一个扬声器,用于输出音频信号。
I/O接口812为处理组件802和***接口模块之间提供接口,上述***接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件814包括一个或多个传感器,用于为装置800提供各个方面的状态评估。例如,传感器组件814可以检测到设备800的打开/关闭状态,组件的相对定位,例如所述组件为装置800的显示器和小键盘,传感器组件814还可以检测装置800或装置800一个组件的位置改变,用户与装置800接触的存在或不存在,装置800方位或加速/减速和装置800的温度变化。传感器组件814可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件814还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件814还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件816被配置为便于装置800和其他设备之间有线或无线方式的通信。装置800可以接入基于通信标准的无线网络,如Wi-Fi,4G或5G,或它们的组合。在一个示例性实施例中,通信组件816经由广播信道接收来自外部广播管理***的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件816还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,装置800可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器804,上述指令可由装置800的处理器820执行以完成上述方法。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
一种非临时性计算机可读存储介质,当所述存储介质中的指令由电子设备的处理器执行时,使得电子设备能够执行图像处理方法,所述方法包括:
获取采集对象的两组组合图像;其中,一组组合图像中包括第一相机采集的第一深度图像和第二相机采集的第一平面图像,另一组组合图像中包括所述第一相机采集的第二深度图像和所述第二相机采集的第二平面图像;任一组组合图像中的深度图像和平面图像之间具有映射关系;
基于所述映射关系,以及所述第一深度图像和所述第二深度图像中所包括的深度信息,确定所述第一平面图像和所述第二平面图像之间的单应性矩阵;其中,所述深度信息表征所述采集对象与所述第一相机的距离。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本公开旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。

Claims (14)

1.一种图像处理方法,其特征在于,所述方法包括:
获取采集对象的两组组合图像;其中,一组组合图像中包括第一相机采集的第一深度图像和第二相机采集的第一平面图像,另一组组合图像中包括所述第一相机采集的第二深度图像和所述第二相机采集的第二平面图像;任一组组合图像中的深度图像和平面图像之间具有映射关系;
基于所述映射关系,以及所述第一深度图像和所述第二深度图像中所包括的深度信息,确定所述第一平面图像和所述第二平面图像之间的单应性矩阵;其中,所述深度信息表征所述采集对象与所述第一相机的距离。
2.根据权利要求1所述的方法,其特征在于,所述基于所述映射关系,以及所述第一深度图像和所述第二深度图像中所包括的深度信息,确定所述第一平面图像和所述第二平面图像之间的单应性矩阵,包括:
对所述第一深度图像和所述第二深度图像进行深度区域划分,获得不同深度区域的第一深度子图像以及不同深度区域的第二深度子图像;其中,不同深度区域表征所述采集对象上与所述第一相机的距离不同的局部区域;
根据所述映射关系,获取各深度区域的第一深度子图像在所述第一平面图像上对应的第一平面子图像,以及各深度区域的第二深度子图像在所述第二平面图像上对应的第二平面子图像;
根据深度区域相同的一组所述第一平面子图像和所述第二平面子图像,建立单应性子矩阵;
根据多组第一平面子图像和第二平面子图像的组合对应的单应性子矩阵,确定所述第一平面图像和所述第二平面图像之间的单应性矩阵。
3.根据权利要求2所述的方法,其特征在于,所述方法包括:
对所述第一平面图像和所述第二平面图像做特征点匹配,获得所述第一平面图像中像素点和所述第二平面图像中像素点之间的匹配组合;
所述根据深度区域相同的一组所述第一平面子图像和所述第二平面子图像,建立单应性子矩阵,包括:
从所述像素点的匹配组合中,选取出属于深度区域相同的所述第一平面子图像和所述第二平面子图像的目标匹配组合;
基于所述目标匹配组合,计算所述单应性子矩阵。
4.根据权利要求2所述的方法,其特征在于,所述单应性矩阵中不同的单应性子矩阵的权重不同;其中,目标深度区域对应的单应性子矩阵的权重大于所述目标深度区域之外的深度区域对应的单应性子矩阵的权重。
5.根据权利要求1所述的方法,其特征在于,所述方法包括:
对所述第一相机进行标定,获得第一标定结果;所述第一标定结果用于对所述第一相机采集的图像进行校正获得所述第一深度图像和所述第二深度图像;
对所述第二相机进行标定,获得第二标定结果;所述第二标定结果用于对所述第二相机采集的图像进行校正获得所述第一平面图像和所述第二平面图像;
基于所述第一标定结果以及所述第二标定结果,确定所述映射关系。
6.根据权利要求1所述的方法,其特征在于,所述方法包括:
根据所述单应性矩阵,对所述第一平面图像和所述第二平面图像做配准。
7.一种图像处理装置,其特征在于,所述装置包括:
获取模块,配置为获取采集对象的两组组合图像;其中,一组组合图像中包括第一相机采集的第一深度图像和第二相机采集的第一平面图像,另一组组合图像中包括所述第一相机采集的第二深度图像和所述第二相机采集的第二平面图像;任一组组合图像中的深度图像和平面图像之间具有映射关系;
确定模块,配置为基于所述映射关系,以及所述第一深度图像和所述第二深度图像中所包括的深度信息,确定所述第一平面图像和所述第二平面图像之间的单应性矩阵;其中,所述深度信息表征所述采集对象与所述第一相机的距离。
8.根据权利要求7所述的装置,其特征在于,
所述确定模块,还配置为对所述第一深度图像和所述第二深度图像进行深度区域划分,获得不同深度区域的第一深度子图像以及不同深度区域的第二深度子图像;其中,不同深度区域表征所述采集对象上与所述第一相机的距离不同的局部区域;根据所述映射关系,获取各深度区域的第一深度子图像在所述第一平面图像上对应的第一平面子图像,以及各深度区域的第二深度子图像在所述第二平面图像上对应的第二平面子图像;根据深度区域相同的一组所述第一平面子图像和所述第二平面子图像,建立单应性子矩阵;根据多组第一平面子图像和第二平面子图像的组合对应的单应性子矩阵,确定所述第一平面图像和所述第二平面图像之间的单应性矩阵。
9.根据权利要求8所述的装置,其特征在于,所述装置包括:
特征匹配模块,配置为对所述第一平面图像和所述第二平面图像做特征点匹配,获得所述第一平面图像中像素点和所述第二平面图像中像素点之间的匹配组合;
所述确定模块,还配置为从所述像素点的匹配组合中,选取出属于深度区域相同的所述第一平面子图像和所述第二平面子图像的目标匹配组合;基于所述目标匹配组合,计算所述单应性子矩阵。
10.根据权利要求8所述的装置,其特征在于,所述单应性矩阵中不同的单应性子矩阵的权重不同;其中,目标深度区域对应的单应性子矩阵的权重大于所述目标深度区域之外的深度区域对应的单应性子矩阵的权重。
11.根据权利要求7所述的装置,其特征在于,所述装置包括:
第一标定模块,配置为对所述第一相机进行离线标定,获得第一标定结果;所述第一标定结果用于对所述第一相机采集的图像进行校正获得所述第一深度图像和所述第二深度图像;
第二标定模块,配置为对所述第二相机进行离线标定,获得第二标定结果;所述第二标定结果用于对所述第二相机采集的图像进行校正获得所述第一平面图像和所述第二平面图像;
映射模块,配置为基于所述第一标定结果以及所述第二标定结果,确定所述映射关系。
12.根据权利要求7所述的装置,其特征在于,所述装置包括:
配准模块,配置为根据所述单应性矩阵,对所述第一平面图像和所述第二平面图像做配准。
13.一种电子设备,其特征在于,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为执行如权利要求1至6中任一项所述的图像处理方法。
14.一种非临时性计算机可读存储介质,当所述存储介质中的指令由电子设备的处理器执行时,使得电子设备能够执行如权利要求1至6中任一项所述的图像处理方法。
CN202111186783.3A 2021-10-12 2021-10-12 图像处理方法及装置、电子设备及存储介质 Pending CN115965675A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111186783.3A CN115965675A (zh) 2021-10-12 2021-10-12 图像处理方法及装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111186783.3A CN115965675A (zh) 2021-10-12 2021-10-12 图像处理方法及装置、电子设备及存储介质

Publications (1)

Publication Number Publication Date
CN115965675A true CN115965675A (zh) 2023-04-14

Family

ID=87360448

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111186783.3A Pending CN115965675A (zh) 2021-10-12 2021-10-12 图像处理方法及装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN115965675A (zh)

Similar Documents

Publication Publication Date Title
KR101727169B1 (ko) 이미지 필터를 생성하기 위한 방법 및 장치
US9402065B2 (en) Methods and apparatus for conditional display of a stereoscopic image pair
JP2015148532A (ja) 距離計測装置、撮像装置、距離計測方法、およびプログラム
WO2019076027A1 (zh) 白平衡信息同步方法、装置及计算机可读介质
CN114096994A (zh) 图像对齐方法及装置、电子设备、存储介质
CN110796012B (zh) 图像处理方法、装置、电子设备及可读存储介质
CN110876014A (zh) 图像处理方法及装置、电子设备及存储介质
CN106469446B (zh) 深度图像的分割方法和分割装置
US20230048952A1 (en) Image registration method and electronic device
CN115953339A (zh) 图像融合处理方法、装置、设备、存储介质及芯片
CN115965675A (zh) 图像处理方法及装置、电子设备及存储介质
CN115147466A (zh) 图像配准方法及装置、图像处理方法及装置以及存储介质
CN112070681B (zh) 图像处理方法及装置
CN111985280B (zh) 图像处理方法及装置
CN109447929B (zh) 图像合成方法及装置
CN115379194B (zh) 深度图像的量化方法及装置、终端设备、存储介质
CN112733599B (zh) 文档图像处理方法、装置、存储介质及终端设备
CN111986097B (zh) 图像处理方法及装置
US20220405896A1 (en) Image processing method and apparatus, model training method and apparatus, and storage medium
CN115861431A (zh) 摄像头配准方法、装置、通话设备及存储介质
CN115880355A (zh) 图像处理方法、装置、电子设备及存储介质
CN116805285A (zh) 图像处理方法及装置、电子设备及存储介质
CN116452837A (zh) 特征匹配方法、装置、终端及存储介质
CN118097040A (zh) 多相机联合建图的方法、装置及终端设备
CN117291823A (zh) 图像的处理方法、装置及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination