CN113132708B - 利用鱼眼相机获取三维场景图像的方法和装置、设备和介质 - Google Patents
利用鱼眼相机获取三维场景图像的方法和装置、设备和介质 Download PDFInfo
- Publication number
- CN113132708B CN113132708B CN202110438633.0A CN202110438633A CN113132708B CN 113132708 B CN113132708 B CN 113132708B CN 202110438633 A CN202110438633 A CN 202110438633A CN 113132708 B CN113132708 B CN 113132708B
- Authority
- CN
- China
- Prior art keywords
- dimensional
- dimensional coordinates
- coordinate system
- vertex
- fisheye camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/207—Image signal generators using stereoscopic image cameras using a single 2D image sensor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/275—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/293—Generating mixed stereoscopic images; Generating mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
本公开提供了利用鱼眼相机获取三维场景图像的方法和装置、设备和介质,该方法包括:利用鱼眼相机采集目标场景的视频图像;基于目标场景的三维空间模型中的各顶点的三维坐标与对应的二维坐标之间的对应关系,将视频图像贴合到三维空间模型中,得到目标场景的三维场景效果图,顶点的三维坐标为顶点在三维空间模型对应的三维坐标系中的空间位置坐标,二维坐标为顶点对应的映射点在鱼眼相机对应的球坐标系的横切面上的投影点的坐标;球坐标系以鱼眼相机为球心、基于鱼眼相机的内参和外参构建得到;横切面为通过球坐标系的中心点、且与鱼眼相机的拍摄正方向垂直的平面。本公开可以降低图像采集成本,提高3D场景的成像效果,满足视频流的实时性需求。
Description
技术领域
本公开涉及视频图像处理技术,尤其是一种利用鱼眼相机获取三维场景视频图像的方法和装置、设备和介质。
背景技术
目前,增强现实技术(Augmented Reality,AR)等应用中的成像方式,都是通过数据建模的形式采集整个场景的模型数据和材质数据,并利用这些数据模型和材质数据通过一定的三维(3D)技术还原整个3D场景。
在实现本公开的过程中,本发明人通过研究发现,上述AR等应用中的成像方式至少存在以下问题:需要提前采集好整个场景空间内所有物体的模型数据和材质数据用于建模,无法利用视频流实时还原整个3D场景的真实成像;目前在大多使用普通相机拍摄进行图像采集,由于普通相机拍摄角度的限制,通常是通过将多个相机拍摄的图像进行融合来达到整个空间的成像,部署多个相机所需的图像采集成本较高,并且,如果空间中存在走动的物体或人类,则在多个相机拍摄图像的融合缝隙处大概率会出现***现象,从而影响3D场景的成像效果。
发明内容
本公开实施例所要解决的一个技术问题是:提供一种利用鱼眼相机获取三维场景图像的方法和装置、设备和介质,以降低图像采集成本,提高3D场景的成像效果,可以满足视频流的实时性需求。
本公开实施例提供的一种利用鱼眼相机获取三维场景图像的方法,包括:
利用鱼眼相机采集目标场景的视频图像;
基于所述目标场景的三维空间模型中的各顶点的三维坐标与对应的二维坐标之间的对应关系,将所述视频图像贴合到所述三维空间模型中,得到所述目标场景的三维场景效果图;
其中,所述顶点的三维坐标为所述顶点在所述三维空间模型对应的三维坐标系中的空间位置坐标,所述二维坐标为所述顶点对应的映射点在所述鱼眼相机对应的球坐标系的横切面上的投影点的坐标;所述球坐标系以所述鱼眼相机为球心、基于所述鱼眼相机的内参和外参构建得到;所述横切面为通过所述球坐标系的中心点、且与所述鱼眼相机的拍摄正方向垂直的平面。
在基于本公开上述方法的另一个实施例中,所述对应关系的建立,包括:
分别针对所述三维空间模型中的各顶点,将所述各顶点从所述三维坐标系映射到所述球坐标系中,得到所述各顶点对应的各映射点在所述球坐标系中的球面坐标;
将所述各映射点从所述球坐标系投影到所述球坐标系的横切面上,得到所述各映射点在所述横切面上的投影点的二维坐标;
建立所述各顶点的三维坐标与对应的投影点的二维坐标之间的对应关系。
在基于本公开上述方法的另一个实施例中,在建立所述各顶点的三维坐标与对应的二维坐标之间的对应关系之前,还包括:
对所述鱼眼相机进行标定,得到所述鱼眼相机的内参和外参;其中,所述内参包括成像中心、所述鱼眼相机半径和拍摄张角中的至少一项,所述外参包括所述鱼眼相机在所述三维坐标系中的位置和朝向中的至少一项;
利用所述鱼眼相机的内参和外参,构建以所述鱼眼相机为球心的球坐标系。
在基于本公开上述方法的另一个实施例中,所述球坐标系具体为单位球坐标系。
在基于本公开上述方法的另一个实施例中,所述将所述各顶点从所述三维坐标系映射到所述球坐标系中,得到所述各顶点对应的各映射点在所述球坐标系中的球面坐标,包括:
根据所述鱼眼相机在所述三维坐标系中的位置,将所述各顶点从所述三维坐标系移动到以所述球坐标系的中心点为原点的三维笛卡尔坐标系中;
根据所述鱼眼相机在所述三维坐标系中的朝向,将所述各顶点从所述三维笛卡尔坐标系映射到所述球坐标系中,得到所述各顶点对应的各映射点在所述球坐标系中的球面坐标。
在基于本公开上述方法的另一个实施例中,所述建立所述各顶点的三维坐标与对应的投影点的二维坐标之间的对应关系之后,还包括:
以所述鱼眼相机采集的所述目标场景的视频流中的一帧视频图像作为参考图像,基于所述对应关系,将所述参考图像贴合到所述三维空间模型中,得到所述目标场景的三维融合效果图;
响应于所述三维融合效果图中存在贴合不准的点,采集至少一个贴合不准的点,基于所述至少一个贴合不准的点中各点的当前二维坐标与贴合准确时对应的参考二维坐标,利用最小二乘法对所述对应关系中所有顶点的二维坐标进行矫正计算,得到所述对应关系中所有顶点的二维坐标与对应的贴合准确时的参考二维坐标之间的矫正关系信息,并存储所述矫正关系信息。
在基于本公开上述方法的另一个实施例中,所述存储所述矫正关系信息,包括:
分别将所有顶点中各顶点的二维坐标与对应的贴合准确时的参考二维坐标以RGBA格式存储,形成矫正纹理图片;所述矫正关系信息具体为所述矫正纹理图片。
在基于本公开上述方法的另一个实施例中,所述存储所述矫正关系信息之前,还包括:
响应于所述矫正纹理图片中存在噪声点,利用所述噪声点相邻的像素点对所述噪声点进行除噪;
所述存储所述矫正关系信息,包括:
存储除噪后得到的矫正纹理图片。
在基于本公开上述方法的另一个实施例中,所述基于所述目标场景的三维空间模型中的各顶点的三维坐标与对应的二维坐标之间的对应关系,将所述视频图像贴合到所述三维空间模型中,得到所述目标场景的三维场景效果图,包括:
基于所述各顶点的三维坐标与对应的二维坐标之间的对应关系,获取所述各顶点的三维坐标对应的二维坐标;
利用所述各顶点的三维坐标对应的二维坐标基于所述矫正关系信息对应的参考二维坐标,对所述各顶点的三维坐标对应的二维坐标进行矫正,得到所述各顶点的三维坐标对应的参考二维坐标;
基于所述各顶点的三维坐标对应的参考二维坐标,将所述视频图像贴合到所述三维空间模型中,得到所述目标场景的三维场景效果图。
本公开实施例提供的一种利用鱼眼相机获取三维场景图像的装置,包括:
鱼眼相机,用于采集目标场景的视频图像;
融合处理模块,用于基于所述目标场景的三维空间模型中的各顶点的三维坐标与对应的二维坐标之间的对应关系,将所述视频图像贴合到所述三维空间模型中,得到所述目标场景的三维场景效果图;
其中,所述顶点的三维坐标为所述顶点在所述三维空间模型对应的三维坐标系中的空间位置坐标,所述二维坐标为所述顶点对应的映射点在所述鱼眼相机对应的球坐标系的横切面上的投影点的坐标;所述球坐标系以所述鱼眼相机为球心、基于所述鱼眼相机的内参和外参构建得到;所述横切面为通过所述球坐标系的中心点、且与所述鱼眼相机的拍摄正方向垂直的平面。
在基于本公开上述装置的另一个实施例中,还包括:
第一处理模块,用于分别针对所述三维空间模型中的各顶点,将所述各顶点从所述三维坐标系映射到所述球坐标系中,得到所述各顶点对应的各映射点在所述球坐标系中的球面坐标;
第二处理模块,用于将所述各映射点从所述球坐标系投影到所述球坐标系的横切面上,得到所述各映射点在所述横切面上的投影点的二维坐标;
建立模块,用于建立所述各顶点的三维坐标与对应的投影点的二维坐标之间的对应关系。
在基于本公开上述装置的另一个实施例中,还包括:
标定模块,用于对所述鱼眼相机进行标定,得到所述鱼眼相机的内参和外参;其中,所述内参包括成像中心、所述鱼眼相机半径和拍摄张角中的至少一项,所述外参包括所述鱼眼相机在所述三维坐标系中的位置和朝向中的至少一项;
构建模块,用于利用所述鱼眼相机的内参和外参,构建以所述鱼眼相机为球心的球坐标系。
在基于本公开上述装置的另一个实施例中,所述球坐标系具体为单位球坐标系。
在基于本公开上述装置的另一个实施例中,所述第一处理模块,具体用于分别针对所述三维空间模型中的各顶点,根据所述鱼眼相机在所述三维坐标系中的位置,将所述各顶点从所述三维坐标系移动到以所述球坐标系的中心点为原点的三维笛卡尔坐标系中;根据所述鱼眼相机在所述三维坐标系中的朝向,将所述各顶点从所述三维笛卡尔坐标系映射到所述球坐标系中,得到所述各顶点对应的各映射点在所述球坐标系中的球面坐标。
在基于本公开上述装置的另一个实施例中,还包括:矫正模块;
所述融合处理模块,还用于以所述鱼眼相机采集的所述目标场景的视频流中的一帧视频图像作为参考图像,基于所述对应关系,将所述参考图像贴合到所述三维空间模型中,得到所述目标场景的三维融合效果图;
所述矫正模块,用于响应于所述三维融合效果图中存在贴合不准的点,采集至少一个贴合不准的点,基于所述至少一个贴合不准的点中各点的当前二维坐标与贴合准确时对应的参考二维坐标,利用最小二乘法对所述对应关系中所有顶点的二维坐标进行矫正计算,得到所述对应关系中所有顶点的二维坐标与对应的贴合准确时的参考二维坐标之间的矫正关系信息;
存储模块,用于存储所述矫正关系信息。
在基于本公开上述装置的另一个实施例中,所述存储模块,具体用于分别将所有顶点中各顶点的二维坐标与对应的贴合准确时的参考二维坐标以RGBA格式存储,形成矫正纹理图片;所述矫正关系信息具体为所述矫正纹理图片。
在基于本公开上述装置的另一个实施例中,还包括:
除噪模块,用于响应于所述矫正纹理图片中存在噪声点,利用所述噪声点相邻的像素点对所述噪声点进行除噪;
所述存储模块,具体用于存储除噪后得到的矫正纹理图片。
在基于本公开上述装置的另一个实施例中,所述融合处理模块,具体用于:
基于所述各顶点的三维坐标与对应的二维坐标之间的对应关系,获取所述各顶点的三维坐标对应的二维坐标;
利用所述各顶点的三维坐标对应的二维坐标基于所述矫正关系信息对应的参考二维坐标,对所述各顶点的三维坐标对应的二维坐标进行矫正,得到所述各顶点的三维坐标对应的参考二维坐标;
基于所述各顶点的三维坐标对应的参考二维坐标,将所述视频图像贴合到所述三维空间模型中,得到所述目标场景的三维场景效果图。
本公开实施例的又一个方面,提供一种电子设备,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述存储器中存储的计算机程序,且所述计算机程序被执行时,实现本公开上述任一实施例所述的方法。
本公开实施例的再一个方面,提供一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时,实现本公开上述任一实施例所述的方法。
基于本公开上述实施例提供的利用鱼眼相机获取三维场景图像的方法和装置、设备和介质,预先以鱼眼相机为球心、基于所述鱼眼相机的内参和外参构建球坐标系,利用鱼眼相机采集目标场景的视频图像,然后基于目标场景的三维空间模型中的各顶点的三维坐标与对应的二维坐标之间的对应关系,将鱼眼相机采集的视频图像贴合到三维空间模型中,得到目标场景的三维场景效果图,其中,所述顶点的三维坐标为顶点在三维空间模型对应的三维坐标系中的空间位置坐标,所述二维坐标为所述顶点对应的、鱼眼相机对应的球坐标系的横切面上的投影点的坐标,横切面为通过所述球坐标系的中心点、且与所述鱼眼相机的拍摄正方向垂直的平面。基于本公开实施例,可以将鱼眼相机采集目标场景的视频图像贴合到三维空间模型中,实现鱼眼相机采集视频图像与三维空间模型的融合,从而实现通过鱼眼相机得到目标场景的三维场景效果图,由于鱼眼相机的成像角度大、范围大的特点,一台鱼眼相机的成像就可以完全覆盖视域范围内无遮挡的整个目标场景,与现有技术相比,不需要部署多个相机,既可以降低图像采集成本,又可以避免多个相机拍摄图像的融合缝隙处出现***现象,提高3D场景的成像效果,另外,无需提前采集整个场景空间内所有物体的模型数据和材质数据用于建模,通过依次针对鱼眼相机采集视频流中的各视频图像执行本实施例的操作,便可以实现鱼眼相机采集视频流与三维空间模型的融合,通过鱼眼相机的视频流真实还原现实场景中的所有物体的动与静,可以满足视频流的实时性需求,从而解决AR成像中的实时性问题。另外,基于鱼眼相机可以利用视频流实时还原整个3D空间模型的真实成像,可以通过在视频流中加虚拟数据信息(例如标准的装修布线图),与鱼眼相机成像中的真实数据信息结合,可以达到整个AR场景虚实结合的效果。
下面通过附图和实施例,对本公开的技术方案做进一步的详细描述。
附图说明
构成说明书的一部分的附图描述了本公开的实施例,并且连同描述一起用于解释本公开的原理。
参照附图,根据下面的详细描述,可以更加清楚地理解本公开,其中:
图1为本公开利用鱼眼相机获取三维场景图像的方法一个实施例的流程图。
图2为本公开实施例中建各顶点的三维坐标与对应的二维坐标之间的对应关系的一个实施例的流程图。
图3为本公开实施例中球坐标系的横切面的一个示意图。
图4为本公开利用鱼眼相机获取三维场景图像的方法另一个实施例的流程图。
图5为本公开利用鱼眼相机获取三维场景图像的方法又一个实施例的流程图。
图6为本公开实施例中的一个矫正纹理图片示意图。
图7为本公开利用鱼眼相机获取三维场景图像的方法再一个实施例的流程图。
图8(a)为本公开一个应用实施例中鱼眼相机采集的目标场景的图像的示意图。
图8(b)为基于本公开实施例得到的三维场景效果图的示意图。
图9为本公开利用鱼眼相机获取三维场景图像的装置一个实施例的结构示意图。
图10为本公开利用鱼眼相机获取三维场景图像的装置另一个实施例的结构示意图。
图11为本公开电子设备一个实施例的结构示意图。
具体实施方式
现在将参照附图来详细描述本公开的各种示例性实施例。应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本公开的范围。
本领域技术人员可以理解,本公开实施例中的“第一”、“第二”等术语仅用于区别不同步骤、设备或模块等,既不代表任何特定技术含义,也不表示它们之间的必然逻辑顺序。
还应理解,在本公开实施例中,“多个”可以指两个或两个以上,“至少一个”可以指一个、两个或两个以上。
还应理解,对于本公开实施例中提及的任一部件、数据或结构,在没有明确限定或者在前后文给出相反启示的情况下,一般可以理解为一个或多个。
另外,本公开中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本公开中字符“/”,一般表示前后关联对象是一种“或”的关系。
还应理解,本公开对各个实施例的描述着重强调各个实施例之间的不同之处,其相同或相似之处可以相互参考,为了简洁,不再一一赘述。
同时,应当明白,为了便于描述,附图中所示出的各个部分的尺寸并不是按照实际的比例关系绘制的。
以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本公开及其应用或使用的任何限制。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为说明书的一部分。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
本公开实施例可以应用于终端设备、计算机***、服务器等电子设备,其可与众多其它通用或专用计算***环境或配置一起操作。适于与终端设备、计算机***、服务器等电子设备一起使用的众所周知的终端设备、计算***、环境和/或配置的例子包括但不限于:个人计算机***、服务器计算机***、瘦客户机、厚客户机、手持或膝上设备、基于微处理器的***、机顶盒、可编程消费电子产品、网络个人电脑、小型计算机***﹑大型计算机***和包括上述任何***的分布式云计算技术环境,等等。
终端设备、计算机***、服务器等电子设备可以在由计算机***执行的计算机***可执行指令(诸如程序模块)的一般语境下描述。通常,程序模块可以包括例程、程序、目标程序、组件、逻辑、数据结构等等,它们执行特定的任务或者实现特定的抽象数据类型。计算机***/服务器可以在分布式云计算环境中实施,分布式云计算环境中,任务是由通过通信网络链接的远程处理设备执行的。在分布式云计算环境中,程序模块可以位于包括存储设备的本地或远程计算***存储介质上。
图1为本公开利用鱼眼相机获取三维场景图像的方法一个实施例的流程图。如图1所示,该实施例利用鱼眼相机获取三维场景图像的方法包括:
102,利用鱼眼相机采集目标场景的视频图像。
本公开实施例中,目标场景为需要进行视频监控的场景。其中的视频图像为针对目标场景拍摄的视频流中的图像。
例如,以装修工地中的应用为例,在装修案场的各个房间中以合适的位置及角度安装鱼眼摄像机,合适的位置以尽量房间中心、不靠近任意侧墙,且监控范围覆盖尽量完整的房间为佳,合适的角度以尽量使鱼眼摄像机的镜头面(即正方向、前方向)尽量正的朝向地面为佳。基于上述合适的位置及角度安装鱼眼摄像机,可以使得鱼眼摄像机针对整个场景的感知最准确,有助于造成深度缺失。
104,基于目标场景的三维(3D)空间模型中的各顶点的三维坐标与对应的二维坐标之间的对应关系,将所述视频图像贴合到三维空间模型中,得到目标场景的三维场景效果图。
其中的顶点为对三维空间模型进行可视化渲染时投影面片的顶点(也即网格交点)。
其中,所述顶点的三维坐标为所述顶点在三维空间模型对应的三维坐标系中的空间位置坐标,所述二维坐标为所述顶点对应的映射点在鱼眼相机对应的球坐标系的横切面上的投影点的坐标;所述球坐标系以所述鱼眼相机为球心、基于鱼眼相机的内参和外参构建得到;所述横切面为通过所述球坐标系的中心点、且与鱼眼相机的拍摄正方向垂直的平面。
可选地,在其中一些实施方式中,所述目标场景的三维空间模型,可以通过对现实场景(例如整个装修案场中的中的户型)进行三维重建得到,通过对现实场景的计算机模拟仿真,生成可用的三维空间模型作为三维立体空间信息。基于本公开实施例,可以将鱼眼相机采集目标场景的视频图像贴合到三维空间模型中,实现鱼眼相机采集视频图像与三维空间模型的融合,从而实现通过鱼眼相机得到目标场景的三维场景效果图,由于鱼眼相机的成像角度大、范围大的特点,一台鱼眼相机的成像就可以完全覆盖视域范围内无遮挡的整个目标场景,与现有技术相比,不需要部署多个相机,既可以降低图像采集成本,又可以避免多个相机拍摄图像的融合缝隙处出现***现象,提高3D场景的成像效果,另外,无需提前采集整个场景空间内所有物体的模型数据和材质数据用于建模,通过依次针对鱼眼相机采集视频流中的各视频图像执行上述操作102-104,便可以实现鱼眼相机采集视频流与三维空间模型的融合,通过鱼眼相机的视频流真实还原现实场景中的所有物体的动与静,可以满足视频流的实时性需求,从而解决AR成像中的实时性问题。另外,基于鱼眼相机可以利用视频流实时还原整个3D空间模型的真实成像,可以通过在视频流中加虚拟数据信息(例如标准的装修布线图),与鱼眼相机成像中的真实数据信息结合,可以达到整个AR场景虚实结合的效果。
可选地,在其中一些实施方式中,可以预先建立三维空间模型中的各顶点的三维坐标与对应的二维坐标之间的对应关系,以便后续直接调取使用。
图2为本公开实施例中建立三维空间模型中的各顶点的三维坐标与对应的二维坐标之间的对应关系的一个实施例的流程图。如图2所示,该实施例中,可以通过如下方式建立三维空间模型中的各顶点的三维坐标与对应的二维坐标之间的对应关系:
202,分别针对三维空间模型中的各顶点,将各顶点从三维坐标系映射到球坐标系中,得到各顶点对应的各映射点在球坐标系中的球面坐标。
可选地,在其中一些实施方式中,可以基于鱼眼摄像机的外参,获取各顶点在鱼眼摄像机对应的球坐标系中的球面坐标,即得到各顶点对应的各映射点在球坐标系中的球面坐标。
204,将各映射点从球坐标系投影到球坐标系的横切面上,得到各映射点在横切面上的投影点的二维坐标。
其中,投影点的二维坐标(U,V)即3D空间模型中的顶点位置对应的采样坐标(即纹理坐标)。依次对三维坐标系中的所有顶点进行上述计算,便可以将整个鱼眼相机成像贴合到整个3D空间模型中。
如图3所示,为本公开实施例中球坐标系的横切面的一个示意图。
本公开实施例中,球坐标系的横切面即鱼眼相机的成像平面,是经过球坐标系的中心点(即球心)、与鱼眼相机的正方向(即前方向)垂直的一个平面。
206,建立各顶点的三维坐标与对应的投影点的二维坐标之间的对应关系。
图4为本公开利用鱼眼相机获取三维场景图像的方法另一个实施例的流程图。如图4所示,在建立所述各顶点的三维坐标与对应的二维坐标之间的对应关系之前,即202之前,还可以包括:
302,对鱼眼相机进行标定,得到鱼眼相机的内参和外参。
其中,鱼眼相机的内参例如可以包括成像中心、鱼眼相机半径(也称为圆面半径)和拍摄张角中的至少一项。鱼眼相机的外参例如可以包括鱼眼相机在三维坐标系中的位置和朝向中的至少一项。其中,鱼眼相机在三维坐标系O-XYZ中的位置可以表示为三维的空间位置坐标,鱼眼相机在三维坐标系中的朝向即鱼眼摄像机在该三维坐标系中的旋转欧拉角,可以表示为基于(Pitch,Yaw,Roll)三个旋转方向的旋转分量向量。其中,Pitch为俯仰,即将物体绕三维坐标系中X轴旋转;Yaw为航向,即将物体绕三维坐标系中Y轴旋转;Roll为横滚,将物体绕三维坐标系中Z轴旋转。
本公开实施例中,可以通过各种方式对鱼眼相机进行标定,得到鱼眼相机的内参和外参。例如,在其中一些实施方式中,可以通过采集板(即标定板)标定鱼眼相机的内参和外参。
304,利用鱼眼相机的内参和外参,构建以鱼眼相机为球心的球坐标系。
基于本公开实施例,通过对鱼眼摄像机的标定可以得到鱼眼摄像机的内参和外参,从而可以将该标定产生的鱼眼摄像机的内参和外参进行提取来建立以鱼眼相机为球心的球坐标系。
可选地,在其中一些实施方式中,所述球坐标系具体为一个单位球坐标系,单位球坐标系中,球面上的点到球心(也称为中心点,即鱼眼相机的位置)的距离(即球的半径长度)为1,有助于提高计算效率。
图5为本公开利用鱼眼相机获取三维场景图像的方法又一个实施例的流程图。如图5所示,在图2所示实施例的基础上,操作202中,将各顶点从所述三维坐标系映射到球坐标系中,得到各顶点对应的各映射点在球坐标系中的球面坐标,可以包括:
2022,根据鱼眼相机在三维坐标系中的位置,将各顶点从三维坐标系移动到以球坐标系的中心点为原点的三维笛卡尔坐标系中。
由于三维坐标系的O点与球坐标系的中心点的位置可能不同,基于该操作2022,将三维坐标系的O点移动到球坐标系的中心点,为了便于区分,将O点移动后的三维坐标系称为三维笛卡尔坐标系。
2024,根据鱼眼相机在三维坐标系中的朝向,将各顶点从三维笛卡尔坐标系映射到球坐标系中,得到各顶点对应的各映射点在球坐标系中的球面坐标。
如图3所示,A为三维坐标系中的顶点,F为对A移动到三维笛卡尔坐标系中的点,G为F在横切面上的投影点。
基于该操作2024,可以将各顶点在三维笛卡尔坐标系中的空间位置坐标(x,y,z)转换为在球坐标系中的球面坐标其中,r是顶点到球坐标系的中心点的距离,采用单位球坐标系时,r的取值总是1;为从正z轴自x轴按逆时针方向转到点与原点连线在xy平面内投影所转过的角;θ为顶点与球坐标系的中心点的连线与z轴正向的夹角。
可选地,在其中一些实施方式中,在建立各顶点的三维坐标与对应的投影点的二维坐标之间的对应关系之后,还可以以鱼眼相机采集的目标场景的视频流中的一帧视频图像作为参考图像,基于所述对应关系,将参考视频图像贴合到三维空间模型中,得到目标场景的三维融合效果图。
响应于所述三维融合效果图中存在贴合不准的点,采集至少一个贴合不准的点,基于所述至少一个贴合不准的点中各点的当前二维坐标与贴合准确时对应的参考二维坐标,利用最小二乘法,对所述对应关系中所有顶点的二维坐标进行矫正计算,得到所述对应关系中所有顶点的二维坐标与对应的贴合准确时的参考二维坐标之间的矫正关系信息,并存储所述矫正关系信息。
基于本实施例,可以针对鱼眼相机成像与3D空间模型融合不准的一些点,采集这些点的当前二维坐标(U,V)坐标和参考二维坐标(即贴合准确时对应的二维坐标)作为输入,利用最小二乘法,对所有点的二维坐标做矫正计算,所有顶点的二维坐标与对应的贴合准确时的参考二维坐标之间的矫正关系信息,并存储所述矫正关系信息,以便基于该矫正关系信息实现矫正后的融合效果。
可选地,在其中一些实施方式中,在存储所述矫正关系信息之前,还可以先识别矫正纹理图片中存在噪声点,即与上下左右寻找相邻像素点的像素值之间的差异均大于预设阈值的像素点,若矫正纹理图片中存在噪声点,则可以利用噪声点相邻的像素点对噪声点进行除噪,则存储矫正关系信息时,具体存储除噪后得到的矫正纹理图片。如图6所示,为本公开实施例中的一个矫正纹理图片示意图。
可选地,在其中一些实施方式中,可以在噪声点的周围进行上下左右寻找相邻的非噪声点像素点,按照预设方式选取一个相邻的非噪声点像素点填充到噪声点上,从而实现去除噪声点的效果。
可选地,在其中一些实施方式中,存储所述矫正关系信息时,可以分别将所有顶点中各顶点的二维坐标与对应的贴合准确时的参考二维坐标,通过32位形式以RGBA格式存储,形成矫正纹理图片,以存储数据算法。该实施例中,所述矫正关系信息具体为矫正纹理图片。
其中,RGBA是代表Red(红色)Green(绿色)Blue(蓝色)和Alpha的色彩空间。将Alpha通道和RGB通道并列,并一同存储在图像信息中。这样随着一幅图像的建立,其Alpha通道也会随之产生或者存储。
在计算机图形学领域,Alpha合成(英语:alpha compositing)是一种将图像与背景结合的过程,结合后可以产生部分透明或全透明的视觉效果。Alpha合成也叫阿尔法合成或透明合成。渲染图像时,通常会将目标图像中的多个子元素单独渲染,最后再把多张子元素的图片合成为单独的图像。例如,电视直播时就会将大量计算机生成的图像元素合成到现场镜头上。
图7为本公开利用鱼眼相机获取三维场景图像的方法再一个实施例的流程图。如图7所示,在上述实施例的基础上,操作104可以包括:
1042,基于各顶点的三维坐标与对应的二维坐标之间的对应关系,获取各顶点的三维坐标对应的二维坐标。
1044,利用各顶点的三维坐标对应的二维坐标基于矫正关系信息对应的参考二维坐标,对各顶点的三维坐标对应的二维坐标进行矫正,得到各顶点的三维坐标对应的参考二维坐标。
1046,基于各顶点的三维坐标对应的参考二维坐标,将视频图像贴合到三维空间模型中,得到目标场景的三维场景效果图。
如图8(a)所示,为本公开一个应用实施例中鱼眼相机采集的目标场景的图像的示意图。如图8(b)所示,为基于本公开实施例得到的三维场景效果图的示意图,即将鱼眼相机采集的目标场景的视频图像贴合到该目标场景的三维空间模型中,得到的该目标场景的三维场景效果图。
本公开实施例提供的任一种利用鱼眼相机获取三维场景图像的方法可以由任意适当的具有数据处理能力的设备执行,包括但不限于:终端设备和服务器等。或者,本公开实施例提供的任一种利用鱼眼相机获取三维场景图像的方法可以由处理器执行,如处理器通过调用存储器存储的相应指令来执行本公开实施例提及的任一种利用鱼眼相机获取三维场景图像的方法。下文不再赘述。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于一计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
图9为本公开利用鱼眼相机获取三维场景图像的装置一个实施例的结构示意图。该实施例的装置可用于实现本公开上述各方法实施例。如图9所示,该实施例的装置包括:鱼眼相机和融合处理模块。其中:
鱼眼相机,用于采集目标场景的视频图像。
融合处理模块,用于基于目标场景的三维空间模型中的各顶点的三维坐标与对应的二维坐标之间的对应关系,将所述视频图像贴合到三维空间模型中,得到目标场景的三维场景效果图。
其中,所述顶点的三维坐标为所述顶点在三维空间模型对应的三维坐标系中的空间位置坐标,所述二维坐标为所述顶点对应的映射点在鱼眼相机对应的球坐标系的横切面上的投影点的坐标;所述球坐标系以所述鱼眼相机为球心、基于鱼眼相机的内参和外参构建得到;所述横切面为通过所述球坐标系的中心点、且与鱼眼相机的拍摄正方向垂直的平面。
基于本公开实施例,可以将鱼眼相机采集目标场景的视频图像贴合到三维空间模型中,实现鱼眼相机采集视频图像与三维空间模型的融合,从而实现通过鱼眼相机得到目标场景的三维场景效果图,由于鱼眼相机的成像角度大、范围大的特点,一台鱼眼相机的成像就可以完全覆盖视域范围内无遮挡的整个目标场景,与现有技术相比,不需要部署多个相机,既可以降低图像采集成本,又可以避免多个相机拍摄图像的融合缝隙处出现***现象,提高3D场景的成像效果,另外,无需提前采集整个场景空间内所有物体的模型数据和材质数据用于建模,可以满足视频流的实时性需求。
图10为本公开利用鱼眼相机获取三维场景图像的装置另一个实施例的结构示意图。如图10所示,在图9所示实施例的基础上,还可以包括:第一处理模块和第二处理模块。其中:
第一处理模块,用于分别针对三维空间模型中的各顶点,将各顶点从三维坐标系映射到球坐标系中,得到各顶点对应的各映射点在球坐标系中的球面坐标。
第二处理模块,用于将各映射点从球坐标系投影到球坐标系的横切面上,得到各映射点在横切面上的投影点的二维坐标。
建立模块,用于建立各顶点的三维坐标与对应的投影点的二维坐标之间的对应关系。
可选地,再参见图10,在上述各实施例的装置中,还可以包括:标定模块和构建模块。其中:
标定模块,用于对鱼眼相机进行标定,得到鱼眼相机的内参和外参。其中,所述内参可以包括成像中心、鱼眼相机半径和拍摄张角中的至少一项,所述外参可以包括鱼眼相机在三维坐标系中的位置和朝向中的至少一项。
构建模块,用于利用鱼眼相机的内参和外参,构建以鱼眼相机为球心的球坐标系。
可选地,在其中一些实施方式中,球坐标系具体为单位球坐标系。
可选地,在其中一些实施方式中,第一处理模块,具体用于分别针对三维空间模型中的各顶点,根据鱼眼相机在三维坐标系中的位置,将各顶点从三维坐标系移动到以球坐标系的中心点为原点的三维笛卡尔坐标系中;根据鱼眼相机在三维坐标系中的朝向,将各顶点从三维笛卡尔坐标系映射到球坐标系中,得到各顶点对应的各映射点在球坐标系中的球面坐标。
可选地,再参见图10,在上述各实施例的装置中,还可以包括:矫正模块和存储模块。该实施例中,融合处理模块,还用于以鱼眼相机采集的目标场景的视频流中的一帧视频图像作为参考图像,基于所述对应关系,将参考图像贴合到三维空间模型中,得到目标场景的三维融合效果图。
矫正模块,用于响应于三维融合效果图中存在贴合不准的点,采集至少一个贴合不准的点,基于至少一个贴合不准的点中各点的当前二维坐标与贴合准确时对应的参考二维坐标,利用最小二乘法对对应关系中所有顶点的二维坐标进行矫正计算,得到对应关系中所有顶点的二维坐标与对应的贴合准确时的参考二维坐标之间的矫正关系信息;
存储模块,用于存储矫正关系信息。
可选地,在其中一些实施方式中,存储模块,具体用于分别将所有顶点中各顶点的二维坐标与对应的贴合准确时的参考二维坐标以RGBA格式存储,形成矫正纹理图片;矫正关系信息具体为矫正纹理图片。
可选地,再参见图10,在上述各实施例的装置中,还可以包括:除噪模块,用于响应于矫正纹理图片中存在噪声点,利用噪声点相邻的像素点对噪声点进行除噪。相应地,该实施例中,存储模块,具体用于存储除噪后得到的矫正纹理图片。
可选地,在其中一些实施方式中,融合处理模块,具体用于:基于各顶点的三维坐标与对应的二维坐标之间的对应关系,获取各顶点的三维坐标对应的二维坐标;利用各顶点的三维坐标对应的二维坐标基于矫正关系信息对应的参考二维坐标,对各顶点的三维坐标对应的二维坐标进行矫正,得到各顶点的三维坐标对应的参考二维坐标;基于各顶点的三维坐标对应的参考二维坐标,将视频图像贴合到三维空间模型中,得到目标场景的三维场景效果图。
另外,本公开实施例还提供了一种电子设备,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述存储器中存储的计算机程序,且所述计算机程序被执行时,实现本公开上述任一实施例所述利用鱼眼相机获取三维场景图像的方法。
下面,参考图11来描述根据本公开实施例的电子设备。该电子设备可以是第一设备和第二设备中的任一个或两者、或与它们独立的单机设备,该单机设备可以与第一设备和第二设备进行通信,以从它们接收所采集到的输入信号。
图11为本公开电子设备一个实施例的结构示意图。如图11所示,电子设备包括一个或多个处理器和存储器。
处理器可以是中央处理单元(CPU)或者具有数据处理能力和/或指令执行能力的其他形式的处理单元,并且可以控制电子设备中的其他组件以执行期望的功能。
存储器可以包括一个或多个计算机程序产品,所述计算机程序产品可以包括各种形式的计算机可读存储介质,例如易失性存储器和/或非易失性存储器。所述易失性存储器例如可以包括随机存取存储器(RAM)和/或高速缓冲存储器(cache)等。所述非易失性存储器例如可以包括只读存储器(ROM)、硬盘、闪存等。在所述计算机可读存储介质上可以存储一个或多个计算机程序指令,处理器可以运行所述程序指令,以实现上文所述的本公开的各个实施例利用鱼眼相机获取三维场景图像的方法以及/或者其他期望的功能。
在一个示例中,电子装置还可以包括:输入装置和输出装置,这些组件通过总线***和/或其他形式的连接机构(未示出)互连。
此外,该输入装置还可以包括例如键盘、鼠标等等。
该输出装置可以向外部输出各种信息,包括确定出的距离信息、方向信息等。该输出装置可以包括例如显示器、扬声器、打印机、以及通信网络及其所连接的远程输出装置等等。
当然,为了简化,图11中仅示出了该电子设备中与本公开有关的组件中的一些,省略了诸如总线、输入/输出接口等等的组件。除此之外,根据具体应用情况,电子设备还可以包括任何其他适当的组件。
除了上述方法和设备以外,本公开的实施例还可以是计算机程序产品,其包括计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行本说明书上述部分中描述的根据本公开各种实施例利用鱼眼相机获取三维场景图像的方法中的步骤。
所述计算机程序产品可以以一种或多种程序设计语言的任意组合来编写用于执行本公开实施例操作的程序代码,所述程序设计语言包括面向对象的程序设计语言,诸如Java、C++等,还包括常规的过程式程序设计语言,诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。
此外,本公开的实施例还可以是计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行本说明书上述部分中描述的根据本公开各种实施例利用鱼眼相机获取三维场景图像的方法中的步骤。
所述计算机可读存储介质可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以包括但不限于电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
以上结合具体实施例描述了本公开的基本原理,但是,需要指出的是,在本公开中提及的优点、优势、效果等仅是示例而非限制,不能认为这些优点、优势、效果等是本公开的各个实施例必须具备的。另外,上述公开的具体细节仅是为了示例的作用和便于理解的作用,而非限制,上述细节并不限制本公开为必须采用上述具体的细节来实现。
本说明书中各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其它实施例的不同之处,各个实施例之间相同或相似的部分相互参见即可。对于***实施例而言,由于其与方法实施例基本对应,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
本公开中涉及的器件、装置、设备、***的方框图仅作为例示性的例子并且不意图要求或暗示必须按照方框图示出的方式进行连接、布置、配置。如本领域技术人员将认识到的,可以按任意方式连接、布置、配置这些器件、装置、设备、***。诸如“包括”、“包含”、“具有”等等的词语是开放性词汇,指“包括但不限于”,且可与其互换使用。这里所使用的词汇“或”和“和”指词汇“和/或”,且可与其互换使用,除非上下文明确指示不是如此。这里所使用的词汇“诸如”指词组“诸如但不限于”,且可与其互换使用。
可能以许多方式来实现本公开的方法和装置。例如,可通过软件、硬件、固件或者软件、硬件、固件的任何组合来实现本公开的方法和装置。用于所述方法的步骤的上述顺序仅是为了进行说明,本公开的方法的步骤不限于以上具体描述的顺序,除非以其它方式特别说明。此外,在一些实施例中,还可将本公开实施为记录在记录介质中的程序,这些程序包括用于实现根据本公开的方法的机器可读指令。因而,本公开还覆盖存储用于执行根据本公开的方法的程序的记录介质。
还需要指出的是,在本公开的装置、设备和方法中,各部件或各步骤是可以分解和/或重新组合的。这些分解和/或重新组合应视为本公开的等效方案。
提供所公开的方面的以上描述以使本领域的任何技术人员能够做出或者使用本公开。对这些方面的各种修改对于本领域技术人员而言是非常显而易见的,并且在此定义的一般原理可以应用于其他方面而不脱离本公开的范围。因此,本公开不意图被限制到在此示出的方面,而是按照与在此公开的原理和新颖的特征一致的最宽范围。
为了例示和描述的目的已经给出了以上描述。此外,此描述不意图将本公开的实施例限制到在此公开的形式。尽管以上已经讨论了多个示例方面和实施例,但是本领域技术人员将认识到其某些变型、修改、改变、添加和子组合。
Claims (9)
1.一种利用鱼眼相机获取三维场景图像的方法,其特征在于,包括:
利用鱼眼相机采集目标场景的视频图像;
基于所述目标场景的三维空间模型中的各顶点的三维坐标与对应的二维坐标之间的对应关系,获取所述各顶点的三维坐标对应的二维坐标;
利用所述各顶点的三维坐标对应的二维坐标基于矫正关系信息对应的参考二维坐标,对所述各顶点的三维坐标对应的二维坐标进行矫正,得到所述各顶点的三维坐标对应的参考二维坐标;所述矫正关系信息用于表示所述对应关系中所有顶点的二维坐标与对应的贴合准确时的参考二维坐标之间的矫正关系;
基于所述各顶点的三维坐标对应的参考二维坐标,将所述视频图像贴合到所述三维空间模型中,得到所述目标场景的三维场景效果图;
其中,所述顶点的三维坐标为所述顶点在所述三维空间模型对应的三维坐标系中的空间位置坐标,所述二维坐标为所述顶点对应的映射点在所述鱼眼相机对应的球坐标系的横切面上的投影点的坐标;所述球坐标系以所述鱼眼相机为球心、基于所述鱼眼相机的内参和外参构建得到;所述横切面为通过所述球坐标系的中心点、且与所述鱼眼相机的拍摄正方向垂直的平面。
2.根据权利要求1所述的方法,其特征在于,所述对应关系的建立,包括:
分别针对所述三维空间模型中的各顶点,将所述各顶点从所述三维坐标系映射到所述球坐标系中,得到所述各顶点对应的各映射点在所述球坐标系中的球面坐标;
将所述各映射点从所述球坐标系投影到所述球坐标系的横切面上,得到所述各映射点在所述横切面上的投影点的二维坐标;
建立所述各顶点的三维坐标与对应的投影点的二维坐标之间的对应关系。
3.根据权利要求2所述的方法,其特征在于,在建立所述各顶点的三维坐标与对应的二维坐标之间的对应关系之前,还包括:
对所述鱼眼相机进行标定,得到所述鱼眼相机的内参和外参;其中,所述内参包括成像中心、所述鱼眼相机半径和拍摄张角中的至少一项,所述外参包括所述鱼眼相机在所述三维坐标系中的位置和朝向中的至少一项;
利用所述鱼眼相机的内参和外参,构建以所述鱼眼相机为球心的球坐标系;
所述球坐标系具体为单位球坐标系。
4.根据权利要求3所述的方法,其特征在于,所述将所述各顶点从所述三维坐标系映射到所述球坐标系中,得到所述各顶点对应的各映射点在所述球坐标系中的球面坐标,包括:
根据所述鱼眼相机在所述三维坐标系中的位置,将所述各顶点从所述三维坐标系移动到以所述球坐标系的中心点为原点的三维笛卡尔坐标系中;
根据所述鱼眼相机在所述三维坐标系中的朝向,将所述各顶点从所述三维笛卡尔坐标系映射到所述球坐标系中,得到所述各顶点对应的各映射点在所述球坐标系中的球面坐标。
5.根据权利要求2-4任一所述的方法,其特征在于,所述建立所述各顶点的三维坐标与对应的投影点的二维坐标之间的对应关系之后,还包括:
以所述鱼眼相机采集的所述目标场景的视频流中的一帧视频图像作为参考图像,基于所述对应关系,将所述参考图像贴合到所述三维空间模型中,得到所述目标场景的三维融合效果图;
响应于所述三维融合效果图中存在贴合不准的点,采集至少一个贴合不准的点,基于所述至少一个贴合不准的点中各点的当前二维坐标与贴合准确时对应的参考二维坐标,利用最小二乘法对所述对应关系中所有顶点的二维坐标进行矫正计算,得到所述对应关系中所有顶点的二维坐标与对应的贴合准确时的参考二维坐标之间的矫正关系信息,并存储所述矫正关系信息;
所述存储所述矫正关系信息,包括:
分别将所有顶点中各顶点的二维坐标与对应的贴合准确时的参考二维坐标以RGBA格式存储,形成矫正纹理图片;所述矫正关系信息具体为所述矫正纹理图片。
6.根据权利要求5所述的方法,其特征在于,所述存储所述矫正关系信息之前,还包括:
响应于所述矫正纹理图片中存在噪声点,利用所述噪声点相邻的像素点对所述噪声点进行除噪;
所述存储所述矫正关系信息,包括:
存储除噪后得到的矫正纹理图片。
7.一种利用鱼眼相机获取三维场景图像的装置,其特征在于,包括:
鱼眼相机,用于采集目标场景的视频图像;
融合处理模块,用于基于所述目标场景的三维空间模型中的各顶点的三维坐标与对应的二维坐标之间的对应关系,获取所述各顶点的三维坐标对应的二维坐标;利用所述各顶点的三维坐标对应的二维坐标基于矫正关系信息对应的参考二维坐标,对所述各顶点的三维坐标对应的二维坐标进行矫正,得到所述各顶点的三维坐标对应的参考二维坐标;所述矫正关系信息用于表示所述对应关系中所有顶点的二维坐标与对应的贴合准确时的参考二维坐标之间的矫正关系;基于所述各顶点的三维坐标对应的参考二维坐标,将所述视频图像贴合到所述三维空间模型中,得到所述目标场景的三维场景效果图;
其中,所述顶点的三维坐标为所述顶点在所述三维空间模型对应的三维坐标系中的空间位置坐标,所述二维坐标为所述顶点对应的、所述鱼眼相机对应的球坐标系的横切面上的投影点的坐标;所述球坐标系以所述鱼眼相机为球心、基于所述鱼眼相机的内参和外参构建得到;所述横切面为通过所述球坐标系的中心点、且与所述鱼眼相机的拍摄正方向垂直的平面。
8.一种电子设备,其特征在于,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述存储器中存储的计算机程序,且所述计算机程序被执行时,实现上述权利要求1-6任一所述的方法。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时,实现上述权利要求1-6任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110438633.0A CN113132708B (zh) | 2021-04-22 | 2021-04-22 | 利用鱼眼相机获取三维场景图像的方法和装置、设备和介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110438633.0A CN113132708B (zh) | 2021-04-22 | 2021-04-22 | 利用鱼眼相机获取三维场景图像的方法和装置、设备和介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113132708A CN113132708A (zh) | 2021-07-16 |
CN113132708B true CN113132708B (zh) | 2022-02-22 |
Family
ID=76779397
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110438633.0A Active CN113132708B (zh) | 2021-04-22 | 2021-04-22 | 利用鱼眼相机获取三维场景图像的方法和装置、设备和介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113132708B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116431095B (zh) * | 2023-03-23 | 2024-04-30 | 北京凯视达科技股份有限公司 | 全景显示方法、装置、电子设备和存储介质 |
CN116503562B (zh) * | 2023-05-15 | 2024-03-08 | 贝壳找房(北京)科技有限公司 | 空间建筑信息模型的确定及三维空间模型图像融合方法 |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105245838A (zh) * | 2015-09-29 | 2016-01-13 | 成都虚拟世界科技有限公司 | 一种全景视频播放方法及播放器 |
CN105898337A (zh) * | 2015-11-18 | 2016-08-24 | 乐视网信息技术(北京)股份有限公司 | 全景视频的显示方法和装置 |
CN105915885A (zh) * | 2016-03-02 | 2016-08-31 | 优势拓展(北京)科技有限公司 | 鱼眼图像的3d交互显示方法和*** |
CN105957048A (zh) * | 2016-01-26 | 2016-09-21 | 优势拓展(北京)科技有限公司 | 鱼眼镜头拍摄图像的3d全景显示方法和*** |
CN107820012A (zh) * | 2017-11-21 | 2018-03-20 | 暴风集团股份有限公司 | 一种鱼眼图像处理方法、装置、服务器及*** |
CN107945231A (zh) * | 2017-11-21 | 2018-04-20 | 江西服装学院 | 一种三维视频播放方法及装置 |
CN108200360A (zh) * | 2018-01-12 | 2018-06-22 | 深圳市粒视界科技有限公司 | 一种多鱼眼镜头全景摄像机的实时视频拼接方法 |
CN109308686A (zh) * | 2018-08-16 | 2019-02-05 | 北京市商汤科技开发有限公司 | 一种鱼眼图像处理方法及装置、设备和存储介质 |
CN109741455A (zh) * | 2018-12-10 | 2019-05-10 | 深圳开阳电子股份有限公司 | 一种车载立体全景显示方法、计算机可读存储介质及*** |
CN109754363A (zh) * | 2018-12-26 | 2019-05-14 | 斑马网络技术有限公司 | 基于鱼眼相机的环视图像合成方法和装置 |
CN110348138A (zh) * | 2019-07-15 | 2019-10-18 | 辽宁瑞华实业集团高新科技有限公司 | 一种实时生成真实井下巷道模型的方法、装置及存储介质 |
CN110519528A (zh) * | 2018-05-22 | 2019-11-29 | 杭州海康威视数字技术股份有限公司 | 一种全景视频合成方法、装置及电子设备 |
KR102146839B1 (ko) * | 2019-02-20 | 2020-08-21 | 강영호 | 실시간 가상현실 구축을 위한 시스템 및 방법 |
CN111770326A (zh) * | 2020-06-20 | 2020-10-13 | 武汉大势智慧科技有限公司 | 一种全景视频投射的室内三维监控方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8139818B2 (en) * | 2007-06-28 | 2012-03-20 | Toshiba Tec Kabushiki Kaisha | Trajectory processing apparatus and method |
CN110648274B (zh) * | 2019-09-23 | 2024-02-02 | 创新先进技术有限公司 | 鱼眼图像的生成方法及装置 |
-
2021
- 2021-04-22 CN CN202110438633.0A patent/CN113132708B/zh active Active
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105245838A (zh) * | 2015-09-29 | 2016-01-13 | 成都虚拟世界科技有限公司 | 一种全景视频播放方法及播放器 |
CN105898337A (zh) * | 2015-11-18 | 2016-08-24 | 乐视网信息技术(北京)股份有限公司 | 全景视频的显示方法和装置 |
CN105957048A (zh) * | 2016-01-26 | 2016-09-21 | 优势拓展(北京)科技有限公司 | 鱼眼镜头拍摄图像的3d全景显示方法和*** |
CN105915885A (zh) * | 2016-03-02 | 2016-08-31 | 优势拓展(北京)科技有限公司 | 鱼眼图像的3d交互显示方法和*** |
CN107820012A (zh) * | 2017-11-21 | 2018-03-20 | 暴风集团股份有限公司 | 一种鱼眼图像处理方法、装置、服务器及*** |
CN107945231A (zh) * | 2017-11-21 | 2018-04-20 | 江西服装学院 | 一种三维视频播放方法及装置 |
CN108200360A (zh) * | 2018-01-12 | 2018-06-22 | 深圳市粒视界科技有限公司 | 一种多鱼眼镜头全景摄像机的实时视频拼接方法 |
CN110519528A (zh) * | 2018-05-22 | 2019-11-29 | 杭州海康威视数字技术股份有限公司 | 一种全景视频合成方法、装置及电子设备 |
CN109308686A (zh) * | 2018-08-16 | 2019-02-05 | 北京市商汤科技开发有限公司 | 一种鱼眼图像处理方法及装置、设备和存储介质 |
CN109741455A (zh) * | 2018-12-10 | 2019-05-10 | 深圳开阳电子股份有限公司 | 一种车载立体全景显示方法、计算机可读存储介质及*** |
CN109754363A (zh) * | 2018-12-26 | 2019-05-14 | 斑马网络技术有限公司 | 基于鱼眼相机的环视图像合成方法和装置 |
KR102146839B1 (ko) * | 2019-02-20 | 2020-08-21 | 강영호 | 실시간 가상현실 구축을 위한 시스템 및 방법 |
CN110348138A (zh) * | 2019-07-15 | 2019-10-18 | 辽宁瑞华实业集团高新科技有限公司 | 一种实时生成真实井下巷道模型的方法、装置及存储介质 |
CN111770326A (zh) * | 2020-06-20 | 2020-10-13 | 武汉大势智慧科技有限公司 | 一种全景视频投射的室内三维监控方法 |
Non-Patent Citations (2)
Title |
---|
Sphere Mapping for Feature Extraction From 360° Fish-Eye Captures;Fatma Hawary;《2020 IEEE 22nd International Workshop on Multimedia Signal Processing (MMSP)》;20201216;全文 * |
一种用于鱼眼PTZ主从监控***的标定方法;石皓等;《***仿真学报》;20131008(第10期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN113132708A (zh) | 2021-07-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20200066026A1 (en) | Fusing, texturing, and rendering views of dynamic three-dimensional models | |
EP3534336B1 (en) | Panoramic image generating method and apparatus | |
US20130321590A1 (en) | Glancing angle exclusion | |
CN114399597B (zh) | 场景空间模型的构建方法、装置以及存储介质 | |
JP6882868B2 (ja) | 画像処理装置、画像処理方法、システム | |
CN111325779A (zh) | 点云配准方法和装置、电子设备和存储介质 | |
JP2016537901A (ja) | ライトフィールド処理方法 | |
JP6683307B2 (ja) | 多数のカメラを用いた最適の球形映像獲得方法 | |
JP2006053694A (ja) | 空間シミュレータ、空間シミュレート方法、空間シミュレートプログラム、記録媒体 | |
CN113132708B (zh) | 利用鱼眼相机获取三维场景图像的方法和装置、设备和介质 | |
CN111402404B (zh) | 全景图补全方法、装置、计算机可读存储介质及电子设备 | |
CN113220251B (zh) | 物体显示方法、装置、电子设备及存储介质 | |
CN111866523B (zh) | 全景视频合成方法、装置、电子设备和计算机存储介质 | |
CN115641401A (zh) | 一种三维实景模型的构建方法及相关装置 | |
CN112712487A (zh) | 一种场景视频融合方法、***、电子设备及存储介质 | |
CN115439616B (zh) | 基于多对象图像α叠加的异构对象表征方法 | |
WO2020184174A1 (ja) | 画像処理装置および画像処理方法 | |
CN113572978A (zh) | 全景视频的生成方法和装置 | |
CN114549289A (zh) | 图像处理方法、装置、电子设备和计算机存储介质 | |
CN110807413B (zh) | 目标显示方法以及相关装置 | |
WO2018052100A1 (ja) | 画像処理装置、画像処理方法、画像処理プログラム | |
US10354399B2 (en) | Multi-view back-projection to a light-field | |
TWI716874B (zh) | 影像處理裝置、影像處理方法、及影像處理程式 | |
CN113129346B (zh) | 深度信息获取方法和装置、电子设备和存储介质 | |
JP4722055B2 (ja) | 3次元モデルを縮尺変更する方法及び縮尺変更ユニット |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20210927 Address after: 100085 Floor 101 102-1, No. 35 Building, No. 2 Hospital, Xierqi West Road, Haidian District, Beijing Applicant after: Seashell Housing (Beijing) Technology Co.,Ltd. Address before: 101300 room 24, 62 Farm Road, Erjie village, Yangzhen Town, Shunyi District, Beijing Applicant before: Beijing fangjianghu Technology Co.,Ltd. |
|
GR01 | Patent grant | ||
GR01 | Patent grant |