CN108234904B - 一种多视频融合方法、装置与*** - Google Patents

一种多视频融合方法、装置与*** Download PDF

Info

Publication number
CN108234904B
CN108234904B CN201810112281.8A CN201810112281A CN108234904B CN 108234904 B CN108234904 B CN 108234904B CN 201810112281 A CN201810112281 A CN 201810112281A CN 108234904 B CN108234904 B CN 108234904B
Authority
CN
China
Prior art keywords
video information
fusion
video
panoramic
picture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201810112281.8A
Other languages
English (en)
Other versions
CN108234904A (zh
Inventor
刘捷
高明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to CN201810112281.8A priority Critical patent/CN108234904B/zh
Publication of CN108234904A publication Critical patent/CN108234904A/zh
Application granted granted Critical
Publication of CN108234904B publication Critical patent/CN108234904B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Abstract

本发明公开了一种多视频融合方法、装置与***,用于对多视频进行融合,该多视频融合方法包括:获取全景视频信息以及多画面视频信息;根据预设融合算法与预设融合方式对所述全景视频信息以及所述多画面视频信息进行融合。采用本发明的技术方案,达到一种混合视频融合的效果。且做到全景视频和多角度多画面视频无缝融合,在融合的过程中,允许多画面视频以任意大小,在任意位置和任意个数与全景视频进行无缝融合,在全景播放器中观看融合效果无任何畸变。

Description

一种多视频融合方法、装置与***
技术领域
本发明涉及视频处理领域,尤其涉及一种多视频融合方法、装置与***。
背景技术
现有视频融合方案,首先经过多路摄像头的采集,采集之后的图像进行特征提取,最后根据特征点的位置进行全景拼接。视频采集一般会采用多个摄像头,并且摄像头的布局通常会要求尽可能达到镜头焦点重合,这样才能保证后期过缝效应不明显。采集后的图像需要经过计算机视觉算法进行特征提取,该部分计算复杂度较高,为接下来的视频拼接提供依据。最后根据原图像和目标图像特征点的相对位置进行视频融合,融合过程中要去除两两摄像头因光心不能绝对重合而导致的视差现象。
现有的视频融合算法存在以下问题:
第一,现有的全景视频融合算法都仅仅是全景视频拼接算法,就是将多路视频按照上述系列步骤拼接成一个全景视频。这种做法只能保留一个大范围的视野,局部细节往往难以捕捉到。同时,由于相邻镜头间很难做到物理上的光心重合,因而导致视频拼接的接缝处出现失真,有时甚至会出现人物肢体的缺省。以上两点导致全景视频融合技术在很多应用场景下无法很好地替代传统摄像设备,尤其是在监控领域,视频画面的模糊以及人物的缺省将导致非常严重的后果。
第二,传统的监控视频融合仅仅只是将多个摄像头采集的不同角度的视频画面简单拼凑在一起。这样就需要布设很多的摄像头才能保证整个空间无死角监控,并且多个角度的画面在一个平面上显示会导致观看者失去空间位置感,这在一些需要远程指挥的应用场景中很难得到应用。
鉴于上述问题,提出本发明。
发明内容
本发明的主要目的在于公开一种多视频融合方法、装置与***,用于解决现有技术中视频融合所存在的失真,缺省和有死角等问题。
为达上述目的,根据本发明的一个方面,公开一种多视频融合方法,并采用如下技术方案:
一种多视频融合方法包括:获取全景视频信息以及多画面视频信息;根据预设融合算法与预设融合方式对所述全景视频信息以及所述多画面视频信息进行融合。
进一步地,所述获取全景视频信息以及多画面视频信息包括:通过多通道视频采集设备获取第一视频信息,以及通过全景视频采集设备获取第二视频信息;
对所述第二视频信息进行图像点特征提取,得到提取结果;基于所述提取结果对所述第二视频信息进行视频拼接,获取所述拼接结果;基于所述拼接结果对所述第二视频信息进行几何映射获取所述全景视频信息;以及对所述第一视频信息做全景中定位设置,得到定位结果;基于所述定位结果对所述第一视频信息进行几何映射,获取所述多画面视频信息。
进一步地,所述预设融合算法为辐射融合算法,具体包括:首先,计算接缝位置处pi的像素差值,计算公式为:,D(pi)=IL(pi)-IR(pi),其中IL(pi)和IR(pi)分别代表在pi位置左边图像的像素值和右边图像的像素值;然后,在pi位置处上部分和下部分各辐射n/2个点,总共n个点的差值,并乘以权重系数得到q位置像素差值,计算公式为:
Figure GDA0002556187470000021
其中,wi(q)为权重系数,且权重系数的计算公式为:
Figure GDA0002556187470000022
其中||pi-q||代表pi和q之间的欧氏距离;对所述全景视频信息以及所述多画面视频信息按照融合区域大小和q位置像素差值进行融合处理,计算公式为:
Figure GDA0002556187470000031
Figure GDA0002556187470000032
其中,I'L(q)代表左边图像融合后的像素值,x代表q点和pi点的距离,xb代表融合区域的半径大小,I`R(q)代表右边图像融合后的像素值。
进一步地,所述预设融合方式至少包括如下之一:将所述多画面视频信息融合在所述全景视频信息中;将所述全景视频信息融合在所述多画面视频信息中;以及将所述全景视频信息融合在所述全景视频信息中。
根据本发明的另外一个方面,提供一种多视频融合装置,并采用如下技术方案:
一种多视频融合装置包括:获取模块,用于获取全景视频信息以及多画面视频信息;融合模块,用于根据预设融合算法与预设融合方式对所述全景视频信息以及所述多画面视频信息进行融合。
进一步地,获取模块包括:采集模块,用于通过多通道视频采集设备获取第一视频信息,以及通过全景视频采集设备获取第二视频信息;提取模块,用于对所述第二视频信息进行图像点特征提取,得到提取结果;拼接模块,用于基于所述提取结果对所述第二视频信息进行视频拼接,获取所述拼接结果;第一映射模块,用于基于所述拼接结果对所述第二视频信息进行几何映射获取所述全景视频信息;定位模块,用于以及对所述第一视频信息做全景中定位设置,得到定位结果;第二映射模块,用于基于所述定位结果对所述第一视频信息进行几何映射,获取所述多画面视频信息。
进一步地,所述融合模块包括计算模块,所述计算模块用于:首先,计算接缝位置处pi的像素差值,计算公式为:,
D(pi)=IL(pi)-IR(pi)
其中IL(pi)和IR(pi)分别代表在pi位置左边图像的像素值和右边图像的像素值;然后,在pi位置处上部分和下部分各辐射n/2个点,总共n个点的差值,并乘以权重系数得到q位置像素差值,计算公式为:
Figure GDA0002556187470000041
其中,wi(q)为权重系数,且权重系数的计算公式为:
Figure GDA0002556187470000042
其中||pi-q||代表pi和q之间的欧氏距离;对所述全景视频信息以及所述多画面视频信息按照融合区域大小和q位置像素差值进行融合处理,计算公式为:
Figure GDA0002556187470000043
Figure GDA0002556187470000044
其中,I'L(q)代表左边图像融合后的像素值,x代表q点和pi点的距离,xb代表融合区域的半径大小,I`R(q)代表右边图像融合后的像素值。
进一步地,所述预设融合方式至少包括如下之一:将所述多画面视频信息融合在所述全景视频信息中;将所述全景视频信息融合在所述多画面视频信息中;以及将所述全景视频信息融合在所述全景视频信息中。
根据本发明的又一个方面,提供一种多视频融合***,并采用如下技术方案:
一种多视频融合***包括上述的多视频融合装置。
本发明通过预设融合算法,不但实现全景拼接还将多视角视频画面与全景视频无缝融合,这样用户既可以360度无死角观看,带来身临其境的感觉,同时也可以仔细观察多角度视频画面细节。同时,本申请技术方案可以让用户自主设定多角度视频画面在全景视频中的相对位置,按照用户设定的位置进行自动视频融合,使用者操作起来方便快捷。而传统的多角度视频仅仅是按照简单的固定位置摆放,将多画面视频拼凑在一起,既没有给用户留下自主选择的功能,更没有处理过多角度视频与全景视频的相对位置关系。而且,本申请既可以让用户自主选择融合方式:1)多画面视频融合在全景视频中;2)全景视频融合在全景视频中;3)全景视频融合在多画面视频中;又可以让用户选择以不同的几何映射方式展现多视融合视频。这样可以为用户提供更加个性化,更加多样的视频渲染效果。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明中记载的一些实施例,对于本领域普通技术人员来讲,还可以根据这些附图获得其他的附图。
图1为本发明实施例所述的一种多视频融合方法的流程图;
图2为本发明实施所述的对采集的视频信息进行处理的流程图;
图3为本发明实施例所述的多画面视频融合在全景视频中的示意图;
图4为本发明实施例所述的全景视频融合在全景视频中的示意图;
图5为本发明实施例所述的全景视频融合在多画面视频中的示意图;
图6为本发明实施例所述的多视频融合装置的结构图。
具体实施方式
以下结合附图对本发明的实施例进行详细说明,但是本发明可以由权利要求限定和覆盖的多种不同方式实施。
图1为本发明实施例所述的一种多视频融合方法的流程图。
参见图1所示,一种多视频融合方法包括:
S101:获取全景视频信息以及多画面视频信息;
S103:根据预设融合算法与预设融合方式对所述全景视频信息以及所述多画面视频信息进行融合。
具体而言,在步骤S101中,获取全景视频信息以及多画面视频信息,首先进行视频采集,视频采集部分分为多路全景视频采集和多画面视频采集。多路全景视频采集是指多个摄像头尽可能以镜头焦点重合为目标进行布设,最终保证过缝效应不明显。多画面视频采集是指摄像头可以任意布设,布设位置取决于使用者想拍摄画面的角度,这样可使使用者布设简单、操作方便。在对采集的视频信息进行处理之后,执行步骤S103,即根据预设融合算法与预设融合方式对所述全景视频信息以及所述多画面视频信息进行融合。具体的,本发明所采用的预设融合算法为自主研发的辐射融合算法,该算法可以非常有效地处理融合图像的色差问题,使两幅图像能够完成无缝融合。预设融合方式不限于一种融合方式,也可以几种融合方式任意组合。
具体的,对采集的视频信息进行处理,可以参见图2所示,为如下步骤:
步骤20:多路全景视频采集;
步骤20a:多画面视频采集;
步骤21:特征提取;
步骤21a:全景中位置设定;
步骤22:视频拼接;
步骤22a:几何映射;
步骤23:几何映射;
步骤24:多视融合算法。
具体的说,对步骤20中通过多通道视频采集设备获取第一视频信息,以及步骤20a中通过全景视频采集设备获取第二视频信息进行一系列的处理,在步骤21中,对所述第二视频信息进行图像点特征提取,得到提取结果;在步骤22中,基于所述提取结果对所述第二视频信息进行视频拼接,获取所述全景视频信息;以及在步骤21a中,对所述第一视频信息做全景中定位设置,得到定位结果;在步骤22a中,基于所述定位结果对所述第二视频信息进行几何映射获取所述多画面视频信息,在步骤23中,基于拼接结果,对第一视频信息进行几何映射,得到全景视频信息,在步骤24中,通过预设融合算法进行视频融合。
进一步而言,几何映射球面映射,以保证多画面视频在全景播放器展示中不出现图像畸变。
更具体的,所述预设融合算法为辐射融合算法,具体包括:首先,计算接缝位置处pi的像素差值,计算公式为:,D(pi)=IL(pi)-IR(pi),其中IL(pi)和IR(pi)分别代表在pi位置左边图像的像素值和右边图像的像素值;然后,在pi位置处上部分和下部分各辐射n/2个点,总共n个点的差值,并乘以权重系数得到q位置像素差值,计算公式为:
Figure GDA0002556187470000071
其中,wi(q)为权重系数,且权重系数的计算公式为:
Figure GDA0002556187470000072
其中||pi-q||代表pi和q之间的欧氏距离;对所述全景视频信息以及所述多画面视频信息按照融合区域大小和q位置像素差值进行融合处理,计算公式为:
Figure GDA0002556187470000073
Figure GDA0002556187470000074
其中,I'L(q)代表左边图像融合后的像素值,x代表q点和pi点的距离,xb代表融合区域的半径大小,I`R(q)代表右边图像融合后的像素值。
优选地,所述预设融合方式至少包括如下之一:将所述多画面视频信息融合在所述全景视频信息中,如图3所示;将所述全景视频信息融合在所述多画面视频信息中,参见图5所示;以及将所述全景视频信息融合在所述全景视频信息中,参见图4所示。
图6为本发明实施例所述的多视频融合装置的结构图。
参见图6所示,一种多视频融合装置包括:获取模块60,用于获取全景视频信息以及多画面视频信息;融合模块62,用于根据预设融合算法与预设融合方式对所述全景视频信息以及所述多画面视频信息进行融合。
优选地,获取模块60包括:采集模块,用于通过多通道视频采集设备获取第一视频信息,以及通过全景视频采集设备获取第二视频信息;提取模块,用于对所述第二视频信息进行图像点特征提取,得到提取结果;拼接模块,用于基于所述提取结果对所述第二视频信息进行视频拼接,获取所述拼接结果;第一映射模块,用于基于所述拼接结果对所述第二视频信息进行几何映射获取所述全景视频信息;定位模块,用于以及对所述第一视频信息做全景中定位设置,得到定位结果;第二映射模块,用于基于所述定位结果对所述第一视频信息进行几何映射,获取所述多画面视频信息。
优选地,所述融合模块包括计算模块,所述计算模块用于:首先,计算接缝位置处pi的像素差值,计算公式为:,
D(pi)=IL(pi)-IR(pi)
其中IL(pi)和IR(pi)分别代表在pi位置左边图像的像素值和右边图像的像素值;然后,在pi位置处上部分和下部分各辐射n/2个点,总共n个点的差值,并乘以权重系数得到q位置像素差值,计算公式为:
Figure GDA0002556187470000081
其中,wi(q)为权重系数,且权重系数的计算公式为:
Figure GDA0002556187470000082
其中||pi-q||代表pi和q之间的欧氏距离;对所述全景视频信息以及所述多画面视频信息按照融合区域大小和q位置像素差值进行融合处理,计算公式为:
Figure GDA0002556187470000083
Figure GDA0002556187470000084
其中,I'L(q)代表左边图像融合后的像素值,x代表q点和pi点的距离,xb代表融合区域的半径大小,I`R(q)代表右边图像融合后的像素值。
优选地,所述预设融合方式至少包括如下之一:将所述多画面视频信息融合在所述全景视频信息中;将所述全景视频信息融合在所述多画面视频信息中;以及将所述全景视频信息融合在所述全景视频信息中。
本发明提供的一种多视频融合***包括上述的多视频融合装置。
本发明通过预设融合算法,不但实现全景拼接还将多视角视频画面与全景视频无缝融合,这样用户既可以360度无死角观看,带来身临其境的感觉,同时也可以仔细观察多角度视频画面细节。同时,本申请技术方案可以让用户自主设定多角度视频画面在全景视频中的相对位置,按照用户设定的位置进行自动视频融合,使用者操作起来方便快捷。而传统的多角度视频仅仅是按照简单的固定位置摆放,将多画面视频拼凑在一起,既没有给用户留下自主选择的功能,更没有处理过多角度视频与全景视频的相对位置关系。而且,本申请既可以让用户自主选择融合方式:1)多画面视频融合在全景视频中;2)全景视频融合在全景视频中;3)全景视频融合在多画面视频中;又可以让用户选择以不同的几何映射方式展现多视融合视频。这样可以为用户提供更加个性化,更加多样的视频渲染效果。
以上只通过说明的方式描述了本发明的某些示范性实施例,毋庸置疑,对于本领域的普通技术人员,在不偏离本发明的精神和范围的情况下,可以用各种不同的方式对所描述的实施例进行修正。因此,上述附图和描述在本质上是说明性的,不应理解为对本发明权利要求保护范围的限制。

Claims (5)

1.一种多视频融合方法,其特征在于,包括:
获取全景视频信息以及多画面视频信息;
根据预设融合算法与预设融合方式对所述全景视频信息以及所述多画面视频信息进行融合;
所述获取全景视频信息以及多画面视频信息包括:
通过多通道视频采集设备获取第一视频信息,以及通过全景视频采集设备获取第二视频信息;
对所述第二视频信息进行图像点特征提取,得到提取结果;
基于所述提取结果对所述第二视频信息进行视频拼接,获取所述拼接结果;
基于所述拼接结果对所述第二视频信息进行几何映射获取所述全景视频信息;
以及对所述第一视频信息做全景中定位设置,得到定位结果;
基于所述定位结果对所述第一视频信息进行几何映射,获取所述多画面视频信息;所述预设融合算法为辐射融合算法,具体包括:
首先,计算接缝位置处pi的像素差值,计算公式为:
D(pi)=IL(pi)-IR(pi)
其中IL(pi)和IR(pi)分别代表在pi位置左边图像的像素值和右边图像的像素值;
然后,在pi位置处上部分和下部分各辐射n/2个点,总共n个点的差值,并乘以权重系数得到q位置像素差值,计算公式为:
Figure FDA0002582616500000011
其中,wi(q)为权重系数,且权重系数的计算公式为:
Figure FDA0002582616500000012
其中||pi-q||代表pi和q之间的欧氏距离;
对所述全景视频信息以及所述多画面视频信息按照融合区域大小和q位置像素差值进行融合处理,计算公式为:
Figure FDA0002582616500000013
Figure FDA0002582616500000014
其中,I'L(q)代表左边图像融合后的像素值,x代表q点和pi点的距离,xb代表融合区域的半径大小,I′R(q)代表右边图像融合后的像素值。
2.如权利要求1所述的多视频融合方法,其特征在于,所述预设融合方式至少包括如下之一:
将所述多画面视频信息融合在所述全景视频信息中;
将所述全景视频信息融合在所述多画面视频信息中;以及
将所述全景视频信息融合在所述全景视频信息中。
3.一种多视频融合装置,其特征在于,包括:
获取模块,用于获取全景视频信息以及多画面视频信息;
融合模块,用于根据预设融合算法与预设融合方式对所述全景视频信息以及所述多画面视频信息进行融合;
所述获取模块包括:
采集模块,用于通过多通道视频采集设备获取第一视频信息,以及通过全景视频采集设备获取第二视频信息;
提取模块,用于对所述第二视频信息进行图像点特征提取,得到提取结果;
拼接模块,用于基于所述提取结果对所述第二视频信息进行视频拼接,获取所述拼接结果;
第一映射模块,用于基于所述拼接结果对所述第二视频信息进行几何映射获取所述全景视频信息;
定位模块,用于以及对所述第一视频信息做全景中定位设置,得到定位结果;
第二映射模块,用于基于所述定位结果对所述第一视频信息进行几何映射,获取所述多画面视频信息;
所述融合模块包括计算模块,所述计算模块用于:
首先,计算接缝位置处pi的像素差值,计算公式为:
D(pi)=IL(pi)-IR(pi)
其中IL(pi)和IR(pi)分别代表在pi位置左边图像的像素值和右边图像的像素值;
然后,在pi位置处上部分和下部分各辐射n/2个点,总共n个点的差值,并乘以权重系数得到q位置像素差值,计算公式为:
Figure FDA0002582616500000021
其中,wi(q)为权重系数,且权重系数的计算公式为:
Figure FDA0002582616500000022
其中||pi-q||代表pi和q之间的欧氏距离;
对所述全景视频信息以及所述多画面视频信息按照融合区域大小和q位置像素差值进行融合处理,计算公式为:
Figure FDA0002582616500000023
Figure FDA0002582616500000024
其中,I'L(q)代表左边图像融合后的像素值,x代表q点和pi点的距离,xb代表融合区域的半径大小,I′R(q)代表右边图像融合后的像素值。
4.如权利要求3所述的多视频融合装置,其特征在于,所述预设融合方式至少包括如下之一:
将所述多画面视频信息融合在所述全景视频信息中;
将所述全景视频信息融合在所述多画面视频信息中;以及
将所述全景视频信息融合在所述全景视频信息中。
5.一种多视频融合***,其特征在于,包括权利要求3至4任一项所述的多视频融合装置。
CN201810112281.8A 2018-02-05 2018-02-05 一种多视频融合方法、装置与*** Expired - Fee Related CN108234904B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810112281.8A CN108234904B (zh) 2018-02-05 2018-02-05 一种多视频融合方法、装置与***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810112281.8A CN108234904B (zh) 2018-02-05 2018-02-05 一种多视频融合方法、装置与***

Publications (2)

Publication Number Publication Date
CN108234904A CN108234904A (zh) 2018-06-29
CN108234904B true CN108234904B (zh) 2020-10-27

Family

ID=62670687

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810112281.8A Expired - Fee Related CN108234904B (zh) 2018-02-05 2018-02-05 一种多视频融合方法、装置与***

Country Status (1)

Country Link
CN (1) CN108234904B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109671045A (zh) * 2018-12-28 2019-04-23 广东美电贝尔科技集团股份有限公司 一种多图像融合方法
CN110866889A (zh) * 2019-11-18 2020-03-06 成都威爱新经济技术研究院有限公司 一种监控***中的多相机数据融合方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101236599A (zh) * 2007-12-29 2008-08-06 浙江工业大学 基于多摄像机信息融合的人脸识别检测装置
CN102256111A (zh) * 2011-07-17 2011-11-23 西安电子科技大学 多通道全景视频实时监控***及方法
CN103618881A (zh) * 2013-12-10 2014-03-05 深圳英飞拓科技股份有限公司 多镜头全景拼接控制方法及装置
CN104539896A (zh) * 2014-12-25 2015-04-22 桂林远望智能通信科技有限公司 一种全景监控与热点特写的智能监控***及方法
CN104835178A (zh) * 2015-02-02 2015-08-12 郑州轻工业学院 一种低信噪比运动小目标的跟踪与识别的方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150134651A1 (en) * 2013-11-12 2015-05-14 Fyusion, Inc. Multi-dimensional surround view based search

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101236599A (zh) * 2007-12-29 2008-08-06 浙江工业大学 基于多摄像机信息融合的人脸识别检测装置
CN102256111A (zh) * 2011-07-17 2011-11-23 西安电子科技大学 多通道全景视频实时监控***及方法
CN103618881A (zh) * 2013-12-10 2014-03-05 深圳英飞拓科技股份有限公司 多镜头全景拼接控制方法及装置
CN104539896A (zh) * 2014-12-25 2015-04-22 桂林远望智能通信科技有限公司 一种全景监控与热点特写的智能监控***及方法
CN104835178A (zh) * 2015-02-02 2015-08-12 郑州轻工业学院 一种低信噪比运动小目标的跟踪与识别的方法

Also Published As

Publication number Publication date
CN108234904A (zh) 2018-06-29

Similar Documents

Publication Publication Date Title
US12034906B2 (en) Methods, systems, and computer-readable storage media for generating three-dimensional (3D) images of a scene
US20200236280A1 (en) Image Quality Assessment
US9635348B2 (en) Methods, systems, and computer-readable storage media for selecting image capture positions to generate three-dimensional images
US8436893B2 (en) Methods, systems, and computer-readable storage media for selecting image capture positions to generate three-dimensional (3D) images
JP5140210B2 (ja) 撮影装置および画像処理方法
JP5204350B2 (ja) 撮影装置、再生装置、および画像処理方法
JP5204349B2 (ja) 撮影装置、再生装置、および画像処理方法
JP5814692B2 (ja) 撮像装置及びその制御方法、プログラム
CN105376471A (zh) 一种基于移动平台的全景拍摄***及方法
CN111818304B (zh) 图像融合方法及装置
US9792698B2 (en) Image refocusing
CN108347505B (zh) 具有3d成像功能的移动终端及影像生成方法
CN108391116B (zh) 基于3d成像技术的全身扫描装置及扫描方法
CN110278366B (zh) 一种全景图像虚化方法、终端及计算机可读存储介质
CN108234904B (zh) 一种多视频融合方法、装置与***
US11044399B2 (en) Video surveillance system
US20140347548A1 (en) Method and system for rendering an image from a light-field camera
CN105744158A (zh) 视频图像显示的方法、装置及移动终端
JP5704885B2 (ja) 撮影機器、撮影方法及び撮影制御プログラム
US20110267434A1 (en) Camera device, arrangement and system
TWI382267B (zh) 自動景深捕捉系統及自動景深捕捉方法
KR20140045636A (ko) 레이어드 파노라마 영상 생성 장치
Steurer et al. 3d holoscopic video imaging system

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20201027