CN110933295B - 拍摄方法、装置、电子设备及可读存储介质 - Google Patents

拍摄方法、装置、电子设备及可读存储介质 Download PDF

Info

Publication number
CN110933295B
CN110933295B CN201911096502.8A CN201911096502A CN110933295B CN 110933295 B CN110933295 B CN 110933295B CN 201911096502 A CN201911096502 A CN 201911096502A CN 110933295 B CN110933295 B CN 110933295B
Authority
CN
China
Prior art keywords
shooting
picture
point
target
shooting point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911096502.8A
Other languages
English (en)
Other versions
CN110933295A (zh
Inventor
尹卫杰
郭凯
王京
唐硕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Sankuai Online Technology Co Ltd
Original Assignee
Beijing Sankuai Online Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Sankuai Online Technology Co Ltd filed Critical Beijing Sankuai Online Technology Co Ltd
Priority to CN201911096502.8A priority Critical patent/CN110933295B/zh
Publication of CN110933295A publication Critical patent/CN110933295A/zh
Application granted granted Critical
Publication of CN110933295B publication Critical patent/CN110933295B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)

Abstract

本发明公开了一种拍摄方法、装置、电子设备及存储介质。所述方法,包括:获取拍摄终端在任意两个连续的拍摄点之间的位移数据,以及每个拍摄点与所述拍摄点的拍摄目标之间的第一距离;根据所述位移数据获取包围全部所述拍摄点的最小包围球;根据所述最小包围球,所述第一距离以及每个所述拍摄点的三维坐标,对在每个所述拍摄点拍摄得到的图片进行校正,得到目标图片;对每个所述拍摄点的目标图片进行融合,得到目标图像。解决了现有的拍摄方法在拍摄全景图时容易出现两幅图片合成边缘有明显的断层,导致最终生成的全景图的质量不佳的技术问题。取得了提高全景图的融合效果以及图片质量的有益效果。

Description

拍摄方法、装置、电子设备及可读存储介质
技术领域
本发明涉及图像处理技术领域,具体涉及一种拍摄方法、装置、电子设备及可读存储介质。
背景技术
目前,手机、平板电脑等移动终端一般均带有摄像头,因此当前的移动终端大部分均具有拍摄功能。通过移动终端的拍摄功能,能够对周围环境进行拍照,能够满足移动终端用户的拍照需要。
此外,很多移动终端设备具有全景拍摄模式。全景拍照模式是将分别拍摄的多张图片拼成一张全景图片,它的基本拍摄原理是搜索两张图片的边缘部分,并将成像效果最为接近的区域加以重合,以完成图片的自动拼接。例如在进行360°的全景拍摄时,需要手机等移动终端的后置摄像头打开,并稳当地旋转手机360°,从而在旋转过程中获取到多张图片,之后拼接成360°的全景图片。
但是,在现有的全景图像拍摄方案中,如果用户在拍摄时手抖或手机位置稍微变化则会在两幅图片合成边缘有明显的断层,导致最终生成的全景图的质量不佳。
发明内容
本发明提供一种拍摄方法、装置、电子设备及可读存储介质,以部分或全部解决现有技术中在拍摄全景图像过程相关的上述问题。
依据本发明第一方面,提供了一种拍摄方法,包括:
获取拍摄终端在任意两个连续的拍摄点之间的位移数据,以及每个拍摄点与所述拍摄点的拍摄目标之间的第一距离;
根据所述位移数据获取包围全部所述拍摄点的最小包围球;
根据所述最小包围球,所述第一距离以及每个所述拍摄点的三维坐标,对在每个所述拍摄点拍摄得到的图片进行校正,得到目标图片;
对每个所述拍摄点的目标图片进行融合,得到目标图像。
根据本发明的第二方面,提供了一种拍摄装置,包括:
基础数据获取模块,用于获取拍摄终端在任意两个连续的拍摄点之间的位移数据,以及每个拍摄点与所述拍摄点的拍摄目标之间的第一距离;
最小包围球获取模块,用于根据所述位移数据获取包围全部所述拍摄点的最小包围球;
图片校正模块,用于根据所述最小包围球,所述第一距离以及每个所述拍摄点的三维坐标,对在每个所述拍摄点拍摄得到的图片进行校正,得到目标图片;
全景图融合模块,用于对每个所述拍摄点的目标图片进行融合,得到目标图像。
根据本发明的第三方面,提供了一种电子设备,包括:
处理器、存储器以及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现前述的拍摄方法。
根据本发明的第四方面,提供了一种可读存储介质,当所述存储介质中的指令由电子设备的处理器执行时,使得电子设备能够执行前述的拍摄方法。
根据本发明的拍摄方法,可以获取拍摄终端在任意两个连续的拍摄点之间的位移数据,以及每个拍摄点与所述拍摄点的拍摄目标之间的第一距离;根据所述位移数据获取包围全部所述拍摄点的最小包围球;根据所述最小包围球,所述第一距离以及每个所述拍摄点的三维坐标,对在每个所述拍摄点拍摄得到的图片进行校正,得到目标图片;对每个所述拍摄点的目标图片进行融合,得到目标图像。由此解决了现有的拍摄方法在拍摄全景图时容易出现两幅图片合成边缘有明显的断层,导致最终生成的全景图的质量不佳的技术问题。取得了提高全景图的融合效果以及图片质量的有益效果。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明的具体实施方式。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本发明的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1示出了根据本发明实施例的一种拍摄方法的步骤流程图之一;
图2示出了根据本发明实施例的一种拍摄方法的步骤流程图之二;
图3示出了根据本发明实施例的一种拍摄点在最小包围球中的映射示意图;
图4示出了根据本发明实施例的一种第一距离测量示意图;
图5示出了根据本发明实施例的一种拍摄装置的结构示意图之一;以及
图6示出了根据本发明实施例的一种拍摄装置的结构示意图之二。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
参照图1,示出了本发明实施例中一种拍摄方法的步骤流程图。
步骤110,获取拍摄终端在任意两个连续的拍摄点之间的位移数据,以及每个拍摄点与所述拍摄点的拍摄目标之间的第一距离。
全景图通过广角的表现手段以及绘画、相片、视频、三维模型等形式,尽可能多表现出周围的环境。例如,360全景即通过对专业相机捕捉整个场景的图像信息或者使用建模软件渲染过后的图片,使用软件进行图片拼合,并进行展示,即将平面照片或者计算机建模图片变为360度全观,用于虚拟现实浏览,把二维的平面图模拟成真实的三维空间,呈现给观赏者。
在实际应用中,由于拍摄终端的拍摄角度是一定的,那么为了拍摄全景图像,则需要旋转拍摄终端,以连续拍摄多张图片以拼接得到全景图像。其中,在一次全景图的拍摄过程中,每次拍摄图片时拍摄终端的所在位置可以称为一个拍摄点。而且,在拍摄全景图像的过程中,理想的状态是拍摄终端在旋转过程中的各个拍摄点在同一个球体表面。但是在实际应用中,如果拍摄终端由拍摄用户手动控制旋转和位移,由于拍摄用户很难准确控制拍摄终端按照理想情况进行旋转和位移,从而容易出现部分拍摄点出现偏离的情况,从而使得在相应拍摄点拍摄得到的图片会影响后续合成全景图像的合成效果。
因此,在本发明实施例中,为了准确获知在一次全景图的拍摄过程中拍摄终端的位移情况,以及根据各个拍摄点的实际位移情况对拍摄点拍摄得到的图片进行校正,可以获取拍摄终端在任意两个连续的拍摄点之间的位移数据,以及每个拍摄点与所述拍摄点的拍摄目标之间的第一距离。具体的,在本发明实施例中,可以通过任何可用方式获取拍摄终端在任意两个连续的拍摄点之间的位移数据,以及每个拍摄点与所述拍摄点的拍摄目标之间的第一距离,对此本发明实施例不加以限定。
例如,可以通过在拍摄终端中设置一个陀螺仪,进而根据在一次全景拍摄过程中,拍摄终端在连续两个拍摄点之间的位移数据;或者可以通过在拍摄终端中设置的加速计,记录在一次全景拍摄过程中,拍摄终端在连续两个拍摄点之间的加速度数据,进而根据加速度数据获取得到连续两个拍摄点之间的位移数据,等等。
而在获取拍摄点与所述拍摄点的拍摄目标之间的第一距离时,则可以通过双目测距;或者是根据在拍摄点时拍摄终端相对于拍摄目标的高度,相机的倾斜角度等参数推算出拍摄点与拍摄目标之间的第一距离;等等。
另外,在一次全景拍摄过程中,为了提高拍摄质量,可以引导拍摄用户选定拍摄点。因此,在本发明实施例中,可以预先设置多个理论拍摄点范围,并在拍摄过程中引导用户将拍摄终端移动或旋转至相应拍摄点附近进行拍摄。其中理论拍摄点可以根据实际的拍摄需求进行预先设置,对此本发明实施例不加以限定。
例如,如果需要拍摄360度的全景图像,那么则可以设置拍摄用户实际首次拍摄时的拍摄终端位置为起始拍摄点,进而设置其他各个理论拍摄点与起始拍摄点属于水平面上半径为预设长度的同一圆形,且相邻两个拍摄点与圆心连线之间的夹角为预设角度。其中的预设角度可以根据需求以及拍摄终端的拍摄角度进行预先设置,对此本发明实施例不加以限定。例如,可以设置预设角度为30度,等等。
在实际应用中,也可以不设置理论拍摄点,而仅仅提供连续两次拍摄之间的拍摄方向的理论夹角等等,对此本发明实施例不加以限定。例如,在拍摄360度的全景图像时,可以控制拍摄终端以仰角0度每间隔30度拍照一次;而在拍摄760度的全景图像时,则可以控制拍摄终端以仰角0度每间隔30度拍照一次,以仰角30°或-30°每间隔40°拍一张,以仰角70°或-70°每间隔90°拍一张;等等。
步骤120,根据所述位移数据获取包围全部所述拍摄点的最小包围球。
如前述,在全景拍摄过程中实际的拍摄终端在移动过程中实际的拍摄点可能偏移理论拍摄点,则可能会影响后续全景图像的合成效果。因此,在本发明实施例中,可以在合成全景图像之前,对每个拍摄点拍摄的图片进行校正。而且,为了提高图片校正的准确性,可以根据上述获取得到的拍摄终端在任意连续两个拍摄点之间的位移数据,获取包围本次全景拍摄过程中全部拍摄点的最小包围球。
而且在本发明实施例中,可以通过任何可用方式获取最小包围球,对此本发明实施例不加以限定。
例如,可以在空间坐标系中确定起始拍摄点的位置,进而根据任意连续两个拍摄点之间的位移数据,得到后一拍摄点相对于前一拍摄点的位移情况,进而依次确定各个拍摄点的位置,从而根据确定的各个拍摄点的位置,获取能够包围全部拍摄点的最小包围球。
步骤130,根据所述最小包围球,所述第一距离以及每个所述拍摄点的三维坐标,对在每个所述拍摄点拍摄得到的图片进行校正,得到目标图片。
在获取得到最小包围球之后,则可以进一步根据最小包围球,每个拍摄点与相应拍摄点的拍摄目标之间的第一距离以及每个拍摄点的三维坐标,对在每个拍摄点拍摄得到的图片进行校正,得到每个拍摄点的目标图片。
如前述,为了提高全景图像的合成效果,可以尽可能地使拍摄点位于同一球体表面,在本发明实施例中,可以将每个拍摄点在最小包围球中的映射点作为校正后的拍摄点,同时为了获取在校正后的拍摄点拍摄的图片进行后续的全景图融合,则可以进一步对在相应拍摄点拍摄得到的图片进行校正。
而且,由于最小包围球是包围全部拍摄点的最小球形结构,也即拍摄点是在最小包围球内部或者是位于最小包围球表面。也即相对于最小包围球表面的映射点,拍摄点是向最小包围球内部发生偏移,在拍摄终端的拍摄视角固定的情况下,拍摄点相对于其映射点的拍摄范围变大,也即在拍摄点拍摄得到的图片中所包含的内容大于在其映射点的拍摄范围。但是用于合成全景图像的拍摄范围是固定的,因此需要对在拍摄点拍摄得到的图片进行裁剪,以获取用于合成全景图像的图像区域,同时为了能够与其他拍摄点的图片进行有效融合,还可以对裁剪后的图像区域进行放大,进而得到校正后的目标图片。
当然,在本发明实施例中,还可以对各个拍摄点的图片进行其他方式的校正,对此本发明实施例不加以限定。而且不同拍摄点的图片校正方式可以有所不同,也可以完全相同,对此本发明实施例均不加以限定。另外,在不同的校正方式中,校正参数与最小包围球,所述第一距离以及每个所述拍摄点的三维坐标之间的对应关系可以根据需求进行预先设置,对此本发明实施例不加以限定。
在确定每个拍摄点的三维坐标时,可以起始拍摄点为世界坐标系中的坐标原点,确定每个拍摄点的三维坐标,也可以最小包围球的球心作为世界坐标系中的坐标原点,确定每个拍摄点的三维坐标,对此本发明实施例不加以限定。
步骤140,对每个所述拍摄点的目标图片进行融合,得到目标图像。
对校正处理后的目标图片根据各个目标图片的拍摄先后顺序,或者各个目标图片对应的拍摄点之间的先后关系进行融合,即可以得到目标图像,也即本次拍摄的全景图像。具体的,可以通过任何可用方式对目标图片进行融合,对此本发明实施例不加以限定。
例如,为了避免图像交界处拼接不自然,可以使用加权融合算法,在重叠部分由前一幅图像慢慢过渡到后一幅图像,即将两个目标图片的重叠区域的像素值按一定的权值相加合成新的图像。例如,融合公式可以表示为dst=alpha*src1+beta*src2+gamma。其中,alpha、beta和gamma为融合参数,src1表示前一拍摄点的目标图片的重叠区域中任一像素点的像素值,src2后一拍摄点的目标图片中与像素点src在前一目标图片中的像素值,等等。
在本发明实施例中,通过获取拍摄终端在任意两个连续的拍摄点之间的位移数据,以及每个拍摄点与所述拍摄点的拍摄目标之间的第一距离;根据所述位移数据获取包围全部所述拍摄点的最小包围球;根据所述最小包围球,所述第一距离以及每个所述拍摄点的三维坐标,对在每个所述拍摄点拍摄得到的图片进行校正,得到目标图片;对每个所述拍摄点的目标图片进行融合,得到目标图像。由此取得了提高全景图的融合效果以及图片质量的有益效果。
参照图2,在本发明实施例中,所述步骤120进一步可以包括:
步骤121,以起始拍摄点为坐标原点构建三维坐标系,并根据所述位移数据获取每个所述拍摄点在所述三维坐标系中的三维坐标;
步骤122,根据每个所述拍摄点在所述三维坐标系中的三维坐标,获取包围全部所述拍摄点的最小包围球。
在本发明实施例中,为了方便获取全部拍摄点的最小包围球,可以以起始拍摄点为坐标原点构建三维坐标系,并根据所述位移数据获取每个所述拍摄点在所述三维坐标系中的三维坐标,进而则可以在三维坐标系中确定每个拍摄点的位置,从而可以获取包围全部拍摄点的最小包围球。
例如,起始拍摄点坐标为(0,0,0),假设第二拍摄点与起始拍摄点之间的位移数据包括(a_x,a_y,a_z),第三拍摄点与第二拍摄点之间的位移数据包括(b_x,b_y,b_z),那么则可以得到第二拍摄点的三维坐标为(a_x,a_y,a_z),第三拍摄点的三维坐标为(a_x+b_x,a_y+b_y,a_z+b_z),等等。
参照图2,在本发明实施例中,所述步骤130进一步可以包括:
步骤131,针对每个所述拍摄点,根据最小包围球的球心坐标,所述拍摄点的三维坐标,以及所述拍摄点与所述拍摄点的拍摄目标之间的第一距离,获取所述拍摄点的图片放大比例;
步骤132,针对每个所述拍摄点,根据所述拍摄点的拍摄视角,所述拍摄点的三维坐标,所述拍摄点在所述最小包围球表面的映射点的三维坐标,以及所述拍摄点与所述拍摄点的拍摄目标之间的第一距离,获取所述拍摄点的图片截取参数;
步骤133,根据所述图片放大比例和所述图片截取参数,对所述拍摄点的图片进行校正,得到目标图片。
在本发明实施例中,在构建的最小包围球中,拍摄点在球体表面的映射点坐标发生变化,因此需要对获取的图片进行放大和裁剪,生成用于进行全景图融合目标的图片。
那么此时则可以针对每个所述拍摄点,根据最小包围球的球心坐标,所述拍摄点的三维坐标,以及所述拍摄点与所述拍摄点的拍摄目标之间的第一距离,获取所述拍摄点的图片放大比例。其中,图片放大比例与球心坐标、拍摄点的三维坐标,以及拍摄点与拍摄点的拍摄目标之间的第一距离之间的对应关系可以根据需求或者经验等进行预先设置,对此本发明实施例不加以限定。
其中的球心坐标和拍摄点的三维坐标为相对于预设坐标原点的坐标,其中的预设坐标原点可以根据需求进行预先设置,对此本发明实施例不加以限定。例如,可以设置预设坐标原点为起始拍摄点,或者设置预设坐标原点为为最小包围球的球心,等等。
另外,针对每个所述拍摄点,根据所述拍摄点的拍摄视角,所述拍摄点的三维坐标,所述拍摄点在所述最小包围球表面的映射点的三维坐标,以及所述拍摄点与所述拍摄点的拍摄目标之间的第一距离,获取所述拍摄点的图片截取参数。其中,图片截取参数与拍摄点的拍摄视角,拍摄点的三维坐标,拍摄点在所述最小包围球表面的映射点的三维坐标,以及拍摄点与拍摄点的拍摄目标之间的第一距离之间的对应关系也可以根据需求或者经验等进行预先设置,对此本发明实施例不加以限定。
而且,在本发明实施例中,在对每个拍摄点的图片进行放大时,可以对图片进行横向放大和/或纵向放大,而且同一拍摄点的横向放大比例和纵向放大比例可能相同,也可能不同。那么此时则可以分别获取每个拍摄点的横向放大比例和纵向放大比例。其中,横向放大比例和纵向放大比例与最小包围球的球心坐标,所述拍摄点的三维坐标,以及所述拍摄点与所述拍摄点的拍摄目标之间的第一距离之间的对应关系都可以根据需求或经验等进行预先设置,对此本发明实施例不加以限定。
例如,可以设置横向放大比例为
Figure BDA0002268488810000091
可以设置纵向放大比例为
Figure BDA0002268488810000092
其中,(x2,y2,z2)为最小包围球的球心坐标,(x1,y1,z1)为拍摄点的坐标,D为拍摄点与拍摄点的拍摄目标之间的第一距离。
相应地,在本发明实施例中,在对每个拍摄点的图片进行裁剪时,也可以对图片进行横向裁剪和/或纵向裁剪,而且同一拍摄点的横向裁剪系数和纵向裁剪系数可能相同,也可能不同。那么此时则可以分别获取每个拍摄点的横向截取参数和纵向截取参数。其中,横向截取参数和纵向截取参数与拍摄点的拍摄视角,所述拍摄点的三维坐标,所述拍摄点在所述最小包围球表面的映射点的三维坐标,以及所述拍摄点与所述拍摄点的拍摄目标之间的第一距离之间的对应关系都可以根据需求或者经验等进行预先设置,对此本发明实施例不加以限定。
例如,对于图3所示的拍摄点B1及其在最小包围球表面的映射点B2,可以得到
Figure BDA0002268488810000093
进而则可以推出横向截取参数包括以下内容:
Figure BDA0002268488810000094
相应地把其中的y方向坐标替换为z方向坐标,则可以得到纵向截取参数。
其中,EF即为截取长度,AE:FC为截取区域在截取方向上与两侧的边距比例,θ表示拍摄终端在拍摄点的拍摄横向视角,(x1,y1,z1)为拍摄点的坐标,(x0,y0,z0)为拍摄点在最小包围球表面的映射点的坐标,D为拍摄点与拍摄点的拍摄目标之间的第一距离。
其中,拍摄点的映射点可以为拍摄点与最小包围球的球心之间的连线与最小包围球表面的交点,也即拍摄点沿着拍摄点与最小包围球的球心之间的连线方向在最小包围球表面的投影。
另外,在本发明实施例中,在获取上述的坐标信息时,可以根据需求自定义设置三维空间坐标的坐标原点,例如,可以初始拍摄点作为三维空间坐标的坐标原点,也可以最小包围球的球心作为三维空间坐标的坐标原点,等等。此时,x轴与y轴位于同一水平面,z轴垂直于水平面,从而构建得到三维空间坐标,进而可以得到上述各个点的坐标信息。
可选地,在本发明实施例中,所述步骤133进一步可以包括:
步骤A1,根据所述图片截取参数,从所述图片中截取满足所述图片截取参数的目标区域;
步骤A2,根据所述图片放大比例对所述目标区域进行放大处理,得到目标图片。
在本发明实施例中,在获取得到图片截取参数和图片放大比例之后,则可以先根据每个拍摄点的图片截取参数,从相应拍摄点拍摄的图片中截取满足其图片截取参数的目标区域,进而根据相应拍摄点的图片放大比例,对截取的目标区域进行放大处理,从而得到相应像素点的目标图片。
例如,对于任意一个拍摄点,假设根据上述公式得到其横向放大比例为p1;纵向放大比例为p2;横向截取参数包括边距比例为n1:m1,截取长度为L1;纵向截取参数包括边距比例为n2:m2,截取长度为L2。那么则可以从该拍摄点的图片从截取满足上述横向截取参数,以及上述纵向截取参数的目标区域,进而根据横向放大比例和纵向放大比例分别对目标区域进行横向方向和纵向方向上的放大处理,得到相应拍摄点的目标图片。
可选地,在本发明实施例中,所述步骤133进一步可以包括:
步骤B1,根据所述图片放大比例对所述图片进行放大处理,得到第一图片;
步骤B2,根据所述图片放大比例与所述图片截取参数,获取所述第一图片的第一截取参数;
步骤B3,根据所述第一截取参数,从所述第一图片中截取所述目标图片。
另外,在本发明实施例中,也可以先对拍摄点的图片进行放大处理之后,再从放大后的图片中截取用于融合全景图的目标图片。那么此时由于在进行图片截取时,是针对放大后的图片进行截取,因此在截取时还需要考虑图片放大比例,也即此时需要相应地根据图片放大比例,对图片裁剪参数进行相应调整,以获取最终对放大后的图片进行截取时的第一截取参数。
而且,如前述,如果在图片截取参数中包括上述的两侧的边距比例,截取长度等参数时,由于边距比例是一个比值,在比值的分子和分母都进行相应的放大之后,其比值本身并不会变化,因此此时主要需要调整截取长度。
例如,对于前述的任意一个拍摄点,假设根据上述公式得到其横向放大比例为p1;纵向放大比例为p2;横向截取参数包括边距比例为n1:m1,截取长度为L1;纵向截取参数包括边距比例为n2:m2,截取长度为L2。如果先根据图片放大比例对图片进行放大处理,得到第一图片,那么在对第一图片进行截取时,则可以重新确定第一图片的第一截取参数中的横向截取参数包括边距比例为n1:m1,截取长度为L1*p1,纵向截取参数包括边距比例为n2:m2,截取长度为L2*p2。
进而则可以重新确定的第一截取参数,从第一图片中截取相应拍摄点的目标图片。
在本发明实施例中,可以通过任何可用方式进行目标图片的截取,对此本发明实施例不加以限定。
参照图2,在本发明实施例中,所述步骤110进一步可以包括:
步骤111,获取所述拍摄终端在任意两个连续的拍摄点之间的加速度数据;
步骤112,根据所述加速度数据,获取所述两个连续的拍摄点之间的位移数据;
步骤113,针对每个所述拍摄点,在所述拍摄终端的拍摄方向对准所述拍摄点的拍摄目标的底部的情况下,获取所述拍摄终端的重力值分量;
步骤114,根据所述重力值分量,以及所述拍摄终端相对于所述拍摄目标底部的高度,获取所述拍摄终端在所述拍摄点与所述拍摄目标之间的第一距离。
在本发明实施例中,为了能够准确性获取得到拍摄终端在任意两个连续的拍摄点之间的位移数据,则可以通过获取所述拍摄终端在任意两个连续的拍摄点之间的加速度数据,进而根据所述加速度数据,获取所述两个连续的拍摄点之间的位移数据。而且,在本发明实施例中,可以通过任何可用方式获取加速度数据,例如通过在拍摄终端中内置的加速计,等等。
例如,从起始拍摄点开始,获取拍摄终端在任意两个连续的拍摄点之间移动时,拍摄终端中的加速计记录的加速度数据,从而可以根据加速计数据计算拍摄终端在任意两个连续的拍摄点之间的移动距离。
以拍摄终端从起始拍摄点移动至起始拍摄点的后一拍摄点为例,记录拍摄终端在起始拍摄点时的加速度数据a_0(x_0,y_0,z_0),在拍摄终端的移动过程中,对加速度计持续采样,直到第二次拍照时,也即拍摄终端移动至起始拍摄点的后一拍摄点时为止,记录得到拍摄终端的加速度数据为[a_1(x_1,y_1,z_1),a_2(x_2,y_2,z_2)],…,a_n(x_n,y_n,z_n)],则这段时间内,拍摄终端在起始拍摄点和起始拍摄点的后一拍摄点之间的位移数据可以包括x方向上的位移为∫∫{a_n_x-a_0_x,…,a_1_x-a_0_x},也即每次采集得到的相对于前一拍摄点的x方向上的加速度增量在时间上的二重积分,y方向上的位移为∫∫{a_n_y-a_1_y,…,a_1_y-a_0_y},z方向上的位移为∫∫{a_n_z-a_1_z,…,a_1_z-a_0_z}。
其中,n表示拍摄终端从起始拍摄点移动至起后一拍摄点的过程中采集得到的加速度数据个数;a_n_x表示拍摄终端从起始拍摄点移动至起后一拍摄点的过程中,第n次采集得到的加速度数据在x方向上的分量,也即在x方向上的加速度数据;相应地a_n_y表示第n次采集得到的加速度数据在y方向上的分量,a_n_z表示第n次采集得到的加速度数据在z方向上的分量。另外,在本发明实施例中,在拍摄终端的移动过程中,加速度数据的采样频率可以根据需求进行预先设置,对此本发明实施例不加以限定。
另外,在本发明实施例中,为了获取拍摄点与拍摄点的拍摄目标之间的第一距离,还可以针对每个所述拍摄点,在所述拍摄终端的拍摄方向对准所述拍摄点的拍摄目标的底部的情况下,获取所述拍摄终端的重力值分量,进而根据所述重力值分量,以及所述拍摄终端相对于所述拍摄目标底部的高度,获取所述拍摄终端在所述拍摄点与所述拍摄目标之间的第一距离。
而且,在本发明实施例中,可以通过任何可用方式获取拍摄终端的重力值分量,对此本发明实施例不加以限定。例如,可以通过在拍摄终端中设置的陀螺仪参数获取重力值在x,y,z三个轴方向上的分量,即为拍摄终端的重力值分量。另外,在本发明实施例中,也可以通过任何可用方式获取拍摄终端相对于所述拍摄目标底部的高度,对此本发明实施例也不加以限定。
例如,在用户手持拍摄终端在测量横向的第一距离时,可以使用户与待测的拍摄目标在同一水平面中,用户的身高推算出拍摄终端的高度,进而可以引导用户将拍摄终端的拍摄方向对准当前拍摄点的拍摄目标的底部,如图4所示,此时的第一距离x=Y/tanα。其中α=atan2(Gz,sqrtf(Gx*Gx+Gy*Gy))/π,π为常数,Gx为拍摄终端在x方向上的重力值分量,Gy为拍摄终端在y方向上的重力值分量,Gz为拍摄终端在z方向上的重力值分量。
在本发明实施例中,还可以起始拍摄点为坐标原点构建三维坐标系,并根据所述位移数据获取每个所述拍摄点在所述三维坐标系中的三维坐标;根据每个所述拍摄点在所述三维坐标系中的三维坐标,获取包围全部所述拍摄点的最小包围球。从而提高获取得到的最小包围球的准确性,在提高图片融合效果的同时尽可能维持拍摄终端的拍摄范围。
而且,在本发明实施例中,还可以针对每个所述拍摄点,根据最小包围球的球心坐标,所述拍摄点的三维坐标,以及所述拍摄点与所述拍摄点的拍摄目标之间的第一距离,获取所述拍摄点的图片放大比例;针对每个所述拍摄点,根据所述拍摄点的拍摄视角,所述拍摄点的三维坐标,所述拍摄点在所述最小包围球表面的映射点的三维坐标,以及所述拍摄点与所述拍摄点的拍摄目标之间的第一距离,获取所述拍摄点的图片截取参数;根据所述图片放大比例和所述图片截取参数,对所述拍摄点的图片进行校正,得到目标图片。以及,根据所述图片截取参数,从所述图片中截取满足所述图片截取参数的目标区域;根据所述图片放大比例对所述目标区域进行放大处理,得到目标图片。或者,根据所述图片放大比例对所述图片进行放大处理,得到第一图片;根据所述图片放大比例与所述图片截取参数,获取所述第一图片的第一截取参数;根据所述第一截取参数,从所述第一图片中截取所述目标图片。从而可以针对各个拍摄点的图片进行放大和截取,并且可以根据需求自定义放大和截取的执行顺序,在提高图片校正效果,进而提高最终融合得到的全景图的图片质量的同时,还可以提高图片校正的操作灵活性。
另外,在本发明实施例中,还可以获取所述拍摄终端在任意两个连续的拍摄点之间的加速度数据;根据所述加速度数据,获取所述两个连续的拍摄点之间的位移数据;针对每个所述拍摄点,在所述拍摄终端的拍摄方向对准所述拍摄点的拍摄目标的底部的情况下,获取所述拍摄终端的重力值分量;根据所述重力值分量,以及所述拍摄终端相对于所述拍摄目标底部的高度,获取所述拍摄终端在所述拍摄点与所述拍摄目标之间的第一距离。从而可以提高位移数据以及第一距离的准确性以及获取方式的便利性。
对于方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明实施例并不受所描述的动作顺序的限制,因为依据本发明实施例,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作并不一定是本发明实施例所必须的。
参照图5,示出了本发明实施例中一种拍摄装置的结构示意图。
基础数据获取模块210,用于获取拍摄终端在任意两个连续的拍摄点之间的位移数据,以及每个拍摄点与所述拍摄点的拍摄目标之间的第一距离。
最小包围球获取模块220,用于根据所述位移数据获取包围全部所述拍摄点的最小包围球。
图片校正模块230,用于根据所述最小包围球,所述第一距离以及每个所述拍摄点的三维坐标,对在每个所述拍摄点拍摄得到的图片进行校正,得到目标图片。
全景图融合模块240,用于对每个所述拍摄点的目标图片进行融合,得到目标图像。
在本发明实施例中,通过获取拍摄终端在任意两个连续的拍摄点之间的位移数据,以及每个拍摄点与所述拍摄点的拍摄目标之间的第一距离;根据所述位移数据获取包围全部所述拍摄点的最小包围球;根据所述最小包围球,所述第一距离以及每个所述拍摄点的三维坐标,对在每个所述拍摄点拍摄得到的图片进行校正,得到目标图片;对每个所述拍摄点的目标图片进行融合,得到目标图像。由此取得了提高全景图的融合效果以及图片质量的有益效果。
参照图6,在本发明实施例中,所述最小包围球获取模块220,进一步可以包括:
拍摄点定位子模块221,用于以起始拍摄点为坐标原点构建三维坐标系,并根据所述位移数据获取每个所述拍摄点在所述三维坐标系中的三维坐标;
最小包围球获取子模块222,用于根据每个所述拍摄点在所述三维坐标系中的三维坐标,获取包围全部所述拍摄点的最小包围球。
参照图6,在本发明实施例中,所述图片校正模块230,进一步可以包括:
图片放大比例获取子模块231,用于针对每个所述拍摄点,根据最小包围球的球心坐标,所述拍摄点的三维坐标,以及所述拍摄点与所述拍摄点的拍摄目标之间的第一距离,获取所述拍摄点的图片放大比例;
图片截取参数获取子模块232,用于针对每个所述拍摄点,根据所述拍摄点的拍摄视角,所述拍摄点的三维坐标,所述拍摄点在所述最小包围球表面的映射点的三维坐标,以及所述拍摄点与所述拍摄点的拍摄目标之间的第一距离,获取所述拍摄点的图片截取参数;
图片校正子模块233,用于根据所述图片放大比例和所述图片截取参数,对所述拍摄点的图片进行校正,得到目标图片。
可选地,在本发明实施例中,所述图片校正子模块,进一步可以包括:
第一图片截取单元,用于根据所述图片截取参数,从所述图片中截取满足所述图片截取参数的目标区域;
第一图片放大单元,用于根据所述图片放大比例对所述目标区域进行放大处理,得到目标图片。
可选地,在本发明实施例中,所述图片校正子模块,进一步可以包括:
第二图片放大单元,用于根据所述图片放大比例对所述图片进行放大处理,得到第一图片;
截取参数重设单元,用于根据所述图片放大比例与所述图片截取参数,获取所述第一图片的第一截取参数;
第二图片截取单元,用于根据所述第一截取参数,从所述第一图片中截取所述目标图片。
可选地,在本发明实施例中,所述基础数据获取模块210,进一步可以包括:
加速度数据获取子模块211,用于获取所述拍摄终端在任意两个连续的拍摄点之间的加速度数据;
位移数据获取子模块212,用于根据所述加速度数据,获取所述两个连续的拍摄点之间的位移数据;
重力值分量获取子模块213,用于针对每个所述拍摄点,在所述拍摄终端的拍摄方向对准所述拍摄点的拍摄目标的底部的情况下,获取所述拍摄终端的重力值分量;
第一距离获取子模块214,用于根据所述重力值分量,以及所述拍摄终端相对于所述拍摄目标底部的高度,获取所述拍摄终端在所述拍摄点与所述拍摄目标之间的第一距离。
在本发明实施例中,还可以起始拍摄点为坐标原点构建三维坐标系,并根据所述位移数据获取每个所述拍摄点在所述三维坐标系中的三维坐标;根据每个所述拍摄点在所述三维坐标系中的三维坐标,获取包围全部所述拍摄点的最小包围球。从而提高获取得到的最小包围球的准确性,在提高图片融合效果的同时尽可能维持拍摄终端的拍摄范围。
而且,在本发明实施例中,还可以针对每个所述拍摄点,根据最小包围球的球心坐标,所述拍摄点的三维坐标,以及所述拍摄点与所述拍摄点的拍摄目标之间的第一距离,获取所述拍摄点的图片放大比例;针对每个所述拍摄点,根据所述拍摄点的拍摄视角,所述拍摄点的三维坐标,所述拍摄点在所述最小包围球表面的映射点的三维坐标,以及所述拍摄点与所述拍摄点的拍摄目标之间的第一距离,获取所述拍摄点的图片截取参数;根据所述图片放大比例和所述图片截取参数,对所述拍摄点的图片进行校正,得到目标图片。以及,根据所述图片截取参数,从所述图片中截取满足所述图片截取参数的目标区域;根据所述图片放大比例对所述目标区域进行放大处理,得到目标图片。或者,根据所述图片放大比例对所述图片进行放大处理,得到第一图片;根据所述图片放大比例与所述图片截取参数,获取所述第一图片的第一截取参数;根据所述第一截取参数,从所述第一图片中截取所述目标图片。从而可以针对各个拍摄点的图片进行放大和截取,并且可以根据需求自定义放大和截取的执行顺序,在提高图片校正效果,进而提高最终融合得到的全景图的图片质量的同时,还可以提高图片校正的操作灵活性。
另外,在本发明实施例中,还可以获取所述拍摄终端在任意两个连续的拍摄点之间的加速度数据;根据所述加速度数据,获取所述两个连续的拍摄点之间的位移数据;针对每个所述拍摄点,在所述拍摄终端的拍摄方向对准所述拍摄点的拍摄目标的底部的情况下,获取所述拍摄终端的重力值分量;根据所述重力值分量,以及所述拍摄终端相对于所述拍摄目标底部的高度,获取所述拍摄终端在所述拍摄点与所述拍摄目标之间的第一距离。从而可以提高位移数据以及第一距离的准确性以及获取方式的便利性。
对于装置实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
另外,在本发明实施例中还提供了一种电子设备,包括存储器、处理器及存储在所述存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现前述的任意一种拍摄方法。
在本发明实施例中还提供了一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现前述的任意一种拍摄方法的步骤。
在此提供的算法和显示不与任何特定计算机、虚拟***或者其它设备固有相关。各种通用***也可以与基于在此的示教一起使用。根据上面的描述,构造这类***所要求的结构是显而易见的。此外,本发明也不针对任何特定编程语言。应当明白,可以利用各种编程语言实现在此描述的本发明的内容,并且上面对特定语言所做的描述是为了披露本发明的最佳实施方式。
在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本发明的实施例可以在没有这些具体细节的情况下实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。
类似地,应当理解,为了精简本公开并帮助理解各个发明方面中的一个或多个,在上面对本发明的示例性实施例的描述中,本发明的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该公开的方法解释成反映如下意图:即所要求保护的本发明要求比在每个权利要求中所明确记载的特征更多的特征。更确切地说,如下面的权利要求书所反映的那样,发明方面在于少于前面公开的单个实施例的所有特征。因此,遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本发明的单独实施例。
本领域那些技术人员可以理解,可以对实施例中的设备中的模块进行自适应性地改变并且把它们设置在与该实施例不同的一个或多个设备中。可以把实施例中的模块或单元或组件组合成一个模块或单元或组件,以及此外可以把它们分成多个子模块或子单元或子组件。除了这样的特征和/或过程或者单元中的至少一些是相互排斥之外,可以采用任何组合对本说明书(包括伴随的权利要求、摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权利要求、摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。
此外,本领域的技术人员能够理解,尽管在此所述的一些实施例包括其它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意味着处于本发明的范围之内并且形成不同的实施例。例如,在下面的权利要求书中,所要求保护的实施例的任意之一都可以以任意的组合方式来使用。
本发明的各个部件实施例可以以硬件实现,或者以在一个或者多个处理器上运行的软件模块实现,或者以它们的组合实现。本领域的技术人员应当理解,可以在实践中使用微处理器或者数字信号处理器(DSP)来实现根据本发明实施例的拍摄设备中的一些或者全部部件的一些或者全部功能。本发明还可以实现为用于执行这里所描述的方法的一部分或者全部的设备或者装置程序(例如,计算机程序和计算机程序产品)。这样的实现本发明的程序可以存储在计算机可读介质上,或者可以具有一个或者多个信号的形式。这样的信号可以从因特网网站上下载得到,或者在载体信号上提供,或者以任何其他形式提供。
应该注意的是上述实施例对本发明进行说明而不是对本发明进行限制,并且本领域技术人员在不脱离所附权利要求的范围的情况下可设计出替换实施例。在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的元件或步骤。位于元件之前的单词“一”或“一个”不排除存在多个这样的元件。本发明可以借助于包括有若干不同元件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。

Claims (12)

1.一种拍摄方法,其特征在于,包括:
获取拍摄终端在任意两个连续的拍摄点之间的位移数据,以及每个拍摄点与所述拍摄点的拍摄目标之间的第一距离;
根据所述位移数据获取包围全部所述拍摄点的最小包围球;
根据所述最小包围球,所述第一距离以及每个所述拍摄点的三维坐标,对在每个所述拍摄点拍摄得到的图片进行校正,得到目标图片;
对每个所述拍摄点的目标图片进行融合,得到目标图像;
其中,所述根据所述最小包围球,所述第一距离以及每个所述拍摄点的三维坐标,对在每个拍摄点拍摄得到的图片进行校正,得到目标图片的步骤,包括:
针对每个所述拍摄点,根据最小包围球的球心坐标,所述拍摄点的三维坐标,以及所述拍摄点与所述拍摄点的拍摄目标之间的第一距离,获取所述拍摄点的图片放大比例;
针对每个所述拍摄点,根据所述拍摄点的拍摄视角,所述拍摄点的三维坐标,所述拍摄点在所述最小包围球表面的映射点的三维坐标,以及所述拍摄点与所述拍摄点的拍摄目标之间的第一距离,获取所述拍摄点的图片截取参数;
根据所述图片放大比例和所述图片截取参数,对所述拍摄点的图片进行校正,得到目标图片。
2.根据权利要求1所述的方法,其特征在于,所述根据所述位移数据获取包围全部所述拍摄点的最小包围球的步骤,包括:
以起始拍摄点为坐标原点构建三维坐标系,并根据所述位移数据获取每个所述拍摄点在所述三维坐标系中的三维坐标;
根据每个所述拍摄点在所述三维坐标系中的三维坐标,获取包围全部所述拍摄点的最小包围球。
3.根据权利要求1所述的方法,其特征在于,所述根据所述图片放大比例和所述图片截取参数,对所述拍摄点的图片进行校正,得到目标图片的步骤,包括:
根据所述图片截取参数,从所述图片中截取满足所述图片截取参数的目标区域;
根据所述图片放大比例对所述目标区域进行放大处理,得到目标图片。
4.根据权利要求1所述的方法,其特征在于,所述根据所述图片放大比例和所述图片截取参数,对所述拍摄点的图片进行校正,得到目标图片的步骤,包括:
根据所述图片放大比例对所述图片进行放大处理,得到第一图片;
根据所述图片放大比例与所述图片截取参数,获取所述第一图片的第一截取参数;
根据所述第一截取参数,从所述第一图片中截取所述目标图片。
5.根据权利要求1-4中任一项所述的方法,其特征在于,所述获取拍摄终端在任意两个连续的拍摄点之间的位移数据,以及每个拍摄点与所述拍摄点的拍摄目标之间的第一距离的步骤,包括:
获取所述拍摄终端在任意两个连续的拍摄点之间的加速度数据;
根据所述加速度数据,获取所述两个连续的拍摄点之间的位移数据;
针对每个所述拍摄点,在所述拍摄终端的拍摄方向对准所述拍摄点的拍摄目标的底部的情况下,获取所述拍摄终端的重力值分量;
根据所述重力值分量,以及所述拍摄终端相对于所述拍摄目标底部的高度,获取所述拍摄终端在所述拍摄点与所述拍摄目标之间的第一距离。
6.一种拍摄装置,其特征在于,包括:
基础数据获取模块,用于获取拍摄终端在任意两个连续的拍摄点之间的位移数据,以及每个拍摄点与所述拍摄点的拍摄目标之间的第一距离;
最小包围球获取模块,用于根据所述位移数据获取包围全部所述拍摄点的最小包围球;
图片校正模块,用于根据所述最小包围球,所述第一距离以及每个所述拍摄点的三维坐标,对在每个所述拍摄点拍摄得到的图片进行校正,得到目标图片;
全景图融合模块,用于对每个所述拍摄点的目标图片进行融合,得到目标图像;
其中,所述图片校正模块,包括:
图片放大比例获取子模块,用于针对每个所述拍摄点,根据最小包围球的球心坐标,所述拍摄点的三维坐标,以及所述拍摄点与所述拍摄点的拍摄目标之间的第一距离,获取所述拍摄点的图片放大比例;
图片截取参数获取子模块,用于针对每个所述拍摄点,根据所述拍摄点的拍摄视角,所述拍摄点的三维坐标,所述拍摄点在所述最小包围球表面的映射点的三维坐标,以及所述拍摄点与所述拍摄点的拍摄目标之间的第一距离,获取所述拍摄点的图片截取参数;
图片校正子模块,用于根据所述图片放大比例和所述图片截取参数,对所述拍摄点的图片进行校正,得到目标图片。
7.根据权利要求6所述的装置,其特征在于,所述最小包围球获取模块,包括:
拍摄点定位子模块,用于以起始拍摄点为坐标原点构建三维坐标系,并根据所述位移数据获取每个所述拍摄点在所述三维坐标系中的三维坐标;
最小包围球获取子模块,用于根据每个所述拍摄点在所述三维坐标系中的三维坐标,获取包围全部所述拍摄点的最小包围球。
8.根据权利要求6所述的装置,其特征在于,所述图片校正子模块,包括:
第一图片截取单元,用于根据所述图片截取参数,从所述图片中截取满足所述图片截取参数的目标区域;
第一图片放大单元,用于根据所述图片放大比例对所述目标区域进行放大处理,得到目标图片。
9.根据权利要求6所述的装置,其特征在于,所述图片校正子模块,包括:
第二图片放大单元,用于根据所述图片放大比例对所述图片进行放大处理,得到第一图片;
截取参数重设单元,用于根据所述图片放大比例与所述图片截取参数,获取所述第一图片的第一截取参数;
第二图片截取单元,用于根据所述第一截取参数,从所述第一图片中截取所述目标图片。
10.根据权利要求6-9中任一项所述的装置,其特征在于,所述基础数据获取模块,包括:
加速度数据获取子模块,用于获取所述拍摄终端在任意两个连续的拍摄点之间的加速度数据;
位移数据获取子模块,用于根据所述加速度数据,获取所述两个连续的拍摄点之间的位移数据;
重力值分量获取子模块,用于针对每个所述拍摄点,在所述拍摄终端的拍摄方向对准所述拍摄点的拍摄目标的底部的情况下,获取所述拍摄终端的重力值分量;
第一距离获取子模块,用于根据所述重力值分量,以及所述拍摄终端相对于所述拍摄目标底部的高度,获取所述拍摄终端在所述拍摄点与所述拍摄目标之间的第一距离。
11.一种电子设备,其特征在于,包括:
处理器、存储器以及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1-5中的任一项所述的拍摄方法。
12.一种可读存储介质,其特征在于,当所述存储介质中的指令由电子设备的处理器执行时,使得电子设备能够执行如权利要求1-5中的任一项所述的拍摄方法。
CN201911096502.8A 2019-11-11 2019-11-11 拍摄方法、装置、电子设备及可读存储介质 Active CN110933295B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911096502.8A CN110933295B (zh) 2019-11-11 2019-11-11 拍摄方法、装置、电子设备及可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911096502.8A CN110933295B (zh) 2019-11-11 2019-11-11 拍摄方法、装置、电子设备及可读存储介质

Publications (2)

Publication Number Publication Date
CN110933295A CN110933295A (zh) 2020-03-27
CN110933295B true CN110933295B (zh) 2021-09-10

Family

ID=69853793

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911096502.8A Active CN110933295B (zh) 2019-11-11 2019-11-11 拍摄方法、装置、电子设备及可读存储介质

Country Status (1)

Country Link
CN (1) CN110933295B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101710932A (zh) * 2009-12-21 2010-05-19 深圳华为通信技术有限公司 图像拼接方法及装置
CN102222337A (zh) * 2011-06-14 2011-10-19 重庆大学 用于图像拼接的鱼眼图像校正方法
CN104365083A (zh) * 2012-06-06 2015-02-18 索尼公司 图像处理装置、图像处理方法以及程序
CN105205853A (zh) * 2014-06-20 2015-12-30 西安英诺视通信息技术有限公司 一种用于全景视图管理的3d图像拼接合成方法
CN109194875A (zh) * 2018-10-31 2019-01-11 维沃移动通信有限公司 一种拍摄方法及电子设备

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101777354B1 (ko) * 2011-06-20 2017-09-11 삼성전자주식회사 디지털 촬영 장치, 그 제어 방법, 및 상기 방법을 수행하기 위한 컴퓨터 판독가능 저장매체
CN110349077B (zh) * 2018-04-02 2023-04-07 杭州海康威视数字技术股份有限公司 一种全景图像合成方法、装置及电子设备

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101710932A (zh) * 2009-12-21 2010-05-19 深圳华为通信技术有限公司 图像拼接方法及装置
CN102222337A (zh) * 2011-06-14 2011-10-19 重庆大学 用于图像拼接的鱼眼图像校正方法
CN104365083A (zh) * 2012-06-06 2015-02-18 索尼公司 图像处理装置、图像处理方法以及程序
CN105205853A (zh) * 2014-06-20 2015-12-30 西安英诺视通信息技术有限公司 一种用于全景视图管理的3d图像拼接合成方法
CN109194875A (zh) * 2018-10-31 2019-01-11 维沃移动通信有限公司 一种拍摄方法及电子设备

Also Published As

Publication number Publication date
CN110933295A (zh) 2020-03-27

Similar Documents

Publication Publication Date Title
US9277122B1 (en) System and method for removing camera rotation from a panoramic video
JP5580164B2 (ja) 光学情報処理装置、光学情報処理方法、光学情報処理システム、光学情報処理プログラム
JP5740884B2 (ja) 繰り返し撮影用arナビゲーション及び差異抽出のシステム、方法及びプログラム
CN110799921A (zh) 拍摄方法、装置和无人机
CN108574825B (zh) 一种云台摄像机的调整方法和装置
JP6615545B2 (ja) 画像処理装置、画像処理方法および画像処理用プログラム
JP2018151696A (ja) 自由視点移動表示装置
CN107113376A (zh) 一种图像处理方法、装置及摄像机
WO2013184313A1 (en) Motion-based image stitching
CN107563959B (zh) 全景图生成方法及装置
US11272153B2 (en) Information processing apparatus, method for controlling the same, and recording medium
CN110332930B (zh) 一种位置确定方法、装置及设备
WO2017041740A1 (en) Methods and systems for light field augmented reality/virtual reality on mobile devices
US20090059018A1 (en) Navigation assisted mosaic photography
CN115601496A (zh) Ar辅助三维地图尺度恢复的方法和***
CN113496503A (zh) 点云数据的生成及实时显示方法、装置、设备及介质
JP6240328B2 (ja) オプティカルフロー場を構築する方法
CN114511447A (zh) 图像处理方法、装置、设备及计算机存储介质
CN113225480A (zh) 一种图像采集方法、装置、电子设备及介质
US9197882B2 (en) Mobile communication terminal having image conversion function and method
CN110933295B (zh) 拍摄方法、装置、电子设备及可读存储介质
JP4007524B2 (ja) 画像合成方法及び装置並びに情報記録媒体
EP4266239A1 (en) Image splicing method, computer-readable storage medium, and computer device
JP2005275789A (ja) 三次元構造抽出方法
CN110930303A (zh) 全景图形成方法及***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant