CN110097527A - 视频拼接融合方法、装置、终端及存储介质 - Google Patents
视频拼接融合方法、装置、终端及存储介质 Download PDFInfo
- Publication number
- CN110097527A CN110097527A CN201910205830.0A CN201910205830A CN110097527A CN 110097527 A CN110097527 A CN 110097527A CN 201910205830 A CN201910205830 A CN 201910205830A CN 110097527 A CN110097527 A CN 110097527A
- Authority
- CN
- China
- Prior art keywords
- video
- color value
- pictures
- dimensional coordinate
- picture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000007500 overflow downdraw method Methods 0.000 title claims abstract description 20
- 238000003860 storage Methods 0.000 title claims abstract description 16
- 230000004927 fusion Effects 0.000 claims description 31
- 238000004590 computer program Methods 0.000 claims description 19
- 238000013507 mapping Methods 0.000 claims description 14
- 238000012545 processing Methods 0.000 claims description 11
- 238000004364 calculation method Methods 0.000 claims description 7
- 238000010276 construction Methods 0.000 claims description 4
- 238000010168 coupling process Methods 0.000 claims description 4
- 238000005859 coupling reaction Methods 0.000 claims description 4
- 230000008878 coupling Effects 0.000 claims description 3
- 239000003086 colorant Substances 0.000 claims description 2
- 238000000034 method Methods 0.000 abstract description 10
- 230000011218 segmentation Effects 0.000 abstract description 3
- 238000012544 monitoring process Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000006872 improvement Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000012466 permeate Substances 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000005267 amalgamation Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 239000000155 melt Substances 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 239000000047 product Substances 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种视频拼接融合方法、装置、终端及存储介质。其中,方法包括:获取至少两个摄像头同一时刻拍摄的视频画面;构建整个视频区域的三维模型;将视频画面映射至三维模型上,得到初步三维视频图像;对初步三维视频图像内所有相邻的两个视频画面的颜色值进行处理后融合,直至所有的视频画面均被融合,得到最终三维视频图像;输出显示最终三维视频图像。本发明通过将不同摄像头拍摄的视频画面拼接至三维模型上,从而使得工作人员可以三维视频图像快速了解整个整个视频区域,避免了因视频画面分割而导致工作人员难以将监控画面与实际场景对应起来的问题。
Description
技术领域
本发明涉及图像处理技术领域,尤其涉及一种视频拼接融合方法、装置、终端及存储介质。
背景技术
视频监控是公共区域安防管理的一种重要手段,已经得到大范围的使用和普及,无论从硬件设备的模拟像机到现在的各类高清网络摄像机,还是软件上的各种智能分析和联动,视频监视技术一直都得到高度的关注和快速的发展。人员密集复杂型广场、公园、机场、港口等大型公共场所和其他特殊区域的全景动态管控,实现大场景全覆盖。
目前,针对于大型场所的视频监控都是通过多个摄像头分别拍摄视频画面实现的,画面场景是分割的,其导致在进行画面监控时,工作人员不能第一时间将监控画面与实际场景对应起来,监控效果较差。
发明内容
本发明提供了一种视频拼接融合方法、装置、终端及存储介质,以解决现有的视频监控画面分割,导致监控效果较差的问题。
为了解决上述问题,本发明提供了一种视频拼接融合方法,其包括:
获取至少两个摄像头同一时刻拍摄的视频画面;
构建整个视频区域的三维模型;
将视频画面映射至三维模型上,得到初步三维视频图像;
对初步三维视频图像内所有相邻的两个视频画面的颜色值进行处理后融合,直至所有的视频画面均被融合,得到最终三维视频图像;
输出显示最终三维视频图像。
作为本发明的进一步改进,对初步三维视频图像内所有相邻的两个视频画面的颜色值进行处理后融合,直至所有的视频画面均被融合,得到最终三维视频图像的步骤,包括:
从初步三维视频图像的所有的视频画面中选取目标视频画面;
获取目标视频画面的第一颜色值CA,并根据颜色值CA设定融合因子a和亮度值b,融合因子a的取值范围为[0,1];
获取与目标视频画面邻接的任一个当前视频画面的第二颜色值CB;
根据第一颜色值CA、第二颜色值CB、融合因子a和亮度值b进行计算处理,得到第三颜色值CAB,CAB=(CA*a+CB*(1-a))*b;
根据第三颜色值CAB对目标视频画面、当前视频画面进行处理后融合,得到新的目标视频画面,并将新的目标视频画面与任一邻接的视频画面融合,直至所有的视频画面均被融合,得到最终三维视频图像。
作为本发明的进一步改进,将视频画面映射至三维模型上,得到初步三维视频图像的步骤,包括:
分别构建整个视频区域的二维坐标系和三维模型的三维坐标系;
获取每个视频画面在二维坐标系的二维坐标;
计算二维坐标在三维坐标系中对应的三维坐标,二维坐标系与三维坐标系之间的映射关系预先设定;
根据三维坐标将每个视频画面映射至三维模型上,得到初步三维视频图像。
为了解决上述问题,本发明还提供了一种视频拼接融合装置,其包括:
获取模块,用于获取至少两个摄像头同一时刻拍摄的视频画面;
构建模块,用于构建整个视频区域的三维模型;
映射模块,用于将视频画面映射至三维模型上,得到初步三维视频图像;
融合模块,用于对初步三维视频图像内所有相邻的两个视频画面的颜色值进行处理后融合,直至所有的视频画面均被融合,得到最终三维视频图像;
输出模块,用于输出显示最终三维视频图像。
作为本发明的进一步改进,融合模块包括:
选取单元,用于从初步三维视频图像的所有的视频画面中选取目标视频画面;
第一颜色值获取单元,用于获取目标视频画面的第一颜色值CA,并根据颜色值CA设定融合因子a和亮度值b,融合因子a的取值范围为[0,1];
第二颜色值获取单元,用于获取与目标视频画面邻接的任一个当前视频画面的第二颜色值CB;
第三颜色值获取单元,用于根据第一颜色值CA、第二颜色值CB、融合因子a和亮度值b进行计算处理,得到第三颜色值CAB,CAB=(CA*a+CB*(1-a))*b;
融合单元,用于根据第三颜色值CAB对目标视频画面、当前视频画面进行处理后融合,得到新的目标视频画面,并将新的目标视频画面与任一邻接的视频画面融合,直至所有的视频画面均被融合,得到最终三维视频图像。
作为本发明的进一步改进,映射模块包括:
构建单元,用于分别构建整个视频区域的二维坐标系和三维模型的三维坐标系;
二维坐标获取单元,用于获取每个视频画面在二维坐标系的二维坐标;
三维坐标计算单元,用于计算二维坐标在三维坐标系中对应的三维坐标,二维坐标系与三维坐标系之间的映射关系预先设定;
映射单元,用于根据三维坐标将每个视频画面映射至三维模型上,得到初步三维视频图像。
为了解决上述问题,本发明还提供了一种终端,其包括至少两个摄像头、存储器和处理器,处理器耦接至少两个摄像头、存储器,存储器上存储有可在处理器上运行的计算机程序;
处理器执行计算机程序时,实现上述任一项视频拼接融合方法中的步骤。
为了解决上述问题,本发明还提供了一种存储介质,其上存储有计算机程序,其特征在于,计算机程序被处理器执行时,实现上述任一项视频拼接融合方法中的步骤。
相比于现有技术,本发明通过将至少两个摄像头同时拍摄的视频监控画面映射至整个视频区域的三维模型上,得到整个视频区域的初步三维视频图像,再对初步三维视频图像进行处理,得到融合后的最终三维视频图像,其将每天摄像头拍摄的视频画面进行拼接融合,从而得到整个视频区域的一个最终三维视频图像,从而避免了监控画面被分割的问题,方便工作人员快速的了解整个视频区域的状况。
附图说明
图1为本发明视频拼接融合方法第一个实施例的流程图;
图2为本发明视频拼接融合方法第二个实施例的流程图;
图3为本发明视频拼接融合方法第三个实施例的流程图;
图4为本发明视频拼接融合装置第一个实施例的功能模块示意图;
图5为本发明视频拼接融合装置第二个实施例的功能模块示意图;
图6为本发明视频拼接融合装置第三个实施例的功能模块示意图;
图7为本发明终端一个实施例的结构框图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用来限定本发明。
图1展示了本发明视频拼接融合方法的一个实施例。本实施例中,如图1所示,该视频拼接融合方法包括以下步骤:
步骤S1,获取至少两个摄像头同一时刻拍摄的视频画面。
需要说明的是,在确认整个视频区域的范围之后,根据整个视频区域的范围设置摄像头的数量,并且保证所有摄像头拍摄的视频画面包括整个视频区域,且视频画面之间可以有部分重叠的区域。并且,在通过摄像头拍摄视频画面后,需要提取同一时刻,每个摄像头拍摄的画面。
步骤S2,构建整个视频区域的三维模型。
具体地,整个视频区域的三维模型可根据预先获取的整个视频区域的参数进行构建。
步骤S3,将视频画面映射至三维模型上,得到初步三维视频图像。
具体地,获取所有摄像头同一时刻拍摄的视频画面后,通过视频画面中的特征与三维模型进行比对,从而确认每个视频画面在三维图像上对应的区域,并将视频画面映射至三维模型上,从而得到初步三维视频图像,此时,部分视频画面与视频画面之间存在重复拍摄的区域,因此,初步三维视频图像中存在部分图像重叠区域。
在一些实施例中,如图2所示,步骤S3包括以下子步骤:
步骤S31,分别构建整个视频区域的二维坐标系和三维模型的三维坐标系。
步骤S32,获取每个视频画面在二维坐标系的二维坐标。
步骤S33,计算二维坐标在三维坐标系中对应的三维坐标。
需要说明的是,二维坐标系与三维坐标系之间的映射关系预先设定。根据该映射关系,即可得到二维坐标在三维坐标表对应的三维坐标。
步骤S34,根据三维坐标将每个视频画面映射至三维模型上,得到初步三维视频图像。
具体地,得到每个视频画面在三维坐标系中的三维坐标即得到视频画面在三维模型上的具***置,再根据三维坐标将每个视频画面映射至三维模型上,得到初步三维视频图像。
步骤S4,对初步三维视频图像内所有相邻的两个视频画面的颜色值进行处理后融合,直至所有的视频画面均被融合,得到最终三维视频图像。
具体地,将初步三维视频图像内每相邻的两个视频画面的颜色值进行处理,从而调整两个视频画面之间的色差,再将处理后的两个视频画面融合为一个新的视频画面,从而完成对两个视频画面的融合,以此类推,直至将所有的视频画面全部融合完毕时为止,得到最终三维视频图像。
在一些实施例中,如图3所示,步骤S4包括以下子步骤:
步骤S41,从初步三维视频图像的所有的视频画面中选取目标视频画面。
具体地,从所有的视频画面中选取一个视频画面作为目标视频画面。
步骤S42,获取目标视频画面的第一颜色值CA,并根据颜色值CA设定融合因子a和亮度值b。
需要说明的是,融合因子a的取值范围为[0,1]。
具体地,在确认目标视频画面后,获取该目标视频画面的第一颜色值CA。
步骤S43,获取与目标视频画面邻接的任一个当前视频画面的第二颜色值CB。
具体地,在确认目标视频画面之后,目标视频画面可能与多个视频画面邻接,从与目标视频画面邻接的其他视频画面中选取出一个视频画面作为当前视频画面,并获取该当前视频画面的第二颜色值CB。
步骤S44,根据第一颜色值CA、第二颜色值CB、融合因子a和亮度值b进行计算处理,得到第三颜色值CAB。
需要说明的是,CAB=(CA*a+CB*(1-a))*b。
步骤S45,根据第三颜色值CAB对目标视频画面、当前视频画面进行处理后融合,得到新的目标视频画面,并将新的目标视频画面与任一邻接的视频画面融合,直至所有的视频画面均被融合,得到最终三维视频图像。
具体地,在获得第三颜色值CAB后,根据该第三颜色值CAB对目标视频画面和当前视频画面的颜色值进行处理,从而使得目标视频画面和当前视频画面的颜色值均为第三颜色值CAB,从而完成对目标视频画面和当前视频画面的融合。进一步的,在完成对该目标视频画面和当前视频画面的融合之后,将得到的视频画面作为新的目标视频画面,并再次选取一个与新的目标视频画面邻接的视频画面作为新的当前视频画面,并再次完成对两者的融合,重复上述过程,直至所有的视频画面融合为一个视频画面时为止,从而得到最终三维视频图像。
通过对视频画面的颜色值进行处理,并将所有视频画面融合为一个视频画面,解决了相邻视频画面之间因为色差问题而导致视频画面边缘生硬的问题,提升了最终三维视频图像的显示效果。
步骤S5,输出显示最终三维视频图像。
本实施例通过将至少两个摄像头同时拍摄的视频监控画面映射至整个视频区域的三维模型上,得到整个视频区域的初步三维视频图像,再对初步三维视频图像进行处理,得到融合后的最终三维视频图像,其将每个摄像头拍摄的视频画面进行拼接融合,从而得到整个视频区域的一个最终三维视频图像,从而避免了监控画面被分割的问题,方便工作人员快速的了解整个视频区域的状况。
图4展示了本发明视频拼接融合装置的一个实施例。本实施例中,如图4所示,该视频拼接融合装置包括获取模块10、构建模块11、映射模块12、融合模块13和输出模块14。
其中,获取模块10,用于获取至少两个摄像头同一时刻拍摄的视频画面;构建模块11,用于构建整个视频区域的三维模型;映射模块12,用于将视频画面映射至三维模型上,得到初步三维视频图像;融合模块13,用于对初步三维视频图像内所有相邻的两个视频画面的颜色值进行处理后融合,直至所有的视频画面均被融合,得到最终三维视频图像;输出模块14,用于输出显示最终三维视频图像。
上述实施例的基础上,其他实施例中,如图5所示,融合模块13包括选取单元131、第一颜色值获取单元132、第二颜色值获取单元133、第三颜色值获取单元134和融合单元135。
其中,选取单元131,用于从初步三维视频图像的所有的视频画面中选取目标视频画面;第一颜色值获取单元132,用于获取目标视频画面的第一颜色值CA,并根据颜色值CA设定融合因子a和亮度值b,融合因子a的取值范围为[0,1];第二颜色值获取单元133,用于获取与目标视频画面邻接的任一个当前视频画面的第二颜色值CB;第三颜色值获取单元134,用于根据第一颜色值CA、第二颜色值CB、融合因子a和亮度值b进行计算处理,得到第三颜色值CAB,CAB=(CA*a+CB*(1-a))*b;融合单元135,用于根据第三颜色值CAB对目标视频画面、当前视频画面进行处理后融合,得到新的目标视频画面,并将新的目标视频画面与任一邻接的视频画面融合,直至所有的视频画面均被融合,得到最终三维视频图像。
上述实施例的基础上,其他实施例中,如图6所示,映射模块12包括构建单元121、二维坐标获取单元122、三维坐标计算单元123和映射单元124。
其中,构建单元121,用于分别构建整个视频区域的二维坐标系和三维模型的三维坐标系;二维坐标获取单元122,用于获取每个视频画面在二维坐标系的二维坐标;三维坐标计算单元123,用于计算二维坐标在三维坐标系中对应的三维坐标,二维坐标系与三维坐标系之间的映射关系预先设定;映射单元124,用于根据三维坐标将每个视频画面映射至三维模型上,得到初步三维视频图像。
图7展示了本发明终端一个实施例提供的示意框图,参见图7,该实施例中的终端包括:一个或至少两个处理器80、存储器81、至少两个摄像头82,以及存储在该存储器81中并可在处理器80上运行的计算机程序810。处理器80执行计算机程序810时,实现上述实施例描述的视频拼接融合方法中的步骤,例如:图1所示的步骤S1-步骤S5。或者,处理器80执行计算机程序810时,实现上述视频拼接融合装置实施例中各模块/单元的功能,例如:图4所示模块10-模块14的功能。
计算机程序810可以被分割成一个或多个模块/单元,一个或者多个模块/单元被存储在存储器81中,并由处理器80执行,以完成本申请。一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述计算机程序810在终端中的执行过程。
终端包括但不仅限于处理器80、存储器81、至少两个摄像头82。本领域技术人员可以理解,图7仅仅是终端的一个示例,并不构成对终端的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如终端还可以包括输入设备、输出设备、网络接入设备、总线等。
处理器80可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
存储器81可以是只读存储器、可存储静态信息和指令的静态存储设备、随机存取存储器、或者可存储信息和指令的动态存储设备,也可以是电可擦可编程只读存储器、只读光盘、或其他光盘存储、光碟存储、磁盘存储介质或者其他磁存储设备。存储器81与处理器80可以通过通信总线相连接,也可以和处理器80集成在一起。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
在本申请所提供的实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个装置,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
本申请实施例还提供了一种存储介质,用于存储计算机程序,其包含用于执行本申请上述视频拼接融合方法实施例所设计的程序数据。通过执行该存储介质中存储的计算机程序,可以实现本申请提供的视频拼接融合方法。
集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,也可以通过计算机程序810来指令相关的硬件来完成,计算机程序810可存储于一计算机可读存储介质中,该计算机程序810在被处理器80执行时,可实现上述各个方法实施例的步骤。其中,计算机程序810包括计算机程序代码,计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。计算机可读介质可以包括:能够携带计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random AccessMemory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括是电载波信号和电信信号。
以上对发明的具体实施方式进行了详细说明,但其只作为范例,本发明并不限制于以上描述的具体实施方式。对于本领域的技术人员而言,任何对该发明进行的等同修改或替代也都在本发明的范畴之中,因此,在不脱离本发明的精神和原则范围下所作的均等变换和修改、改进等,都应涵盖在本发明的范围内。
Claims (8)
1.一种视频拼接融合方法,其特征在于,其包括:
获取至少两个摄像头同一时刻拍摄的视频画面;
构建整个视频区域的三维模型;
将所述视频画面映射至所述三维模型上,得到初步三维视频图像;
对所述初步三维视频图像内所有相邻的两个视频画面的颜色值进行处理后融合,直至所有的视频画面均被融合,得到最终三维视频图像;
输出显示所述最终三维视频图像。
2.根据权利要求1所述的视频拼接融合方法,其特征在于,所述对所述初步三维视频图像内所有相邻的两个视频画面的颜色值进行处理后融合,直至所有的视频画面均被融合,得到最终三维视频图像的步骤,包括:
从所述初步三维视频图像的所有的视频画面中选取目标视频画面;
获取目标视频画面的第一颜色值CA,并根据所述颜色值CA设定融合因子a和亮度值b,所述融合因子a的取值范围为[0,1];
获取与所述目标视频画面邻接的任一个当前视频画面的第二颜色值CB;
根据所述第一颜色值CA、第二颜色值CB、融合因子a和亮度值b进行计算处理,得到第三颜色值CAB,CAB=(CA*a+CB*(1-a))*b;
根据所述第三颜色值CAB对所述目标视频画面、所述当前视频画面进行处理后融合,得到新的目标视频画面,并将所述新的目标视频画面与任一邻接的视频画面融合,直至所有的视频画面均被融合,得到所述最终三维视频图像。
3.根据权利要求1所述的视频拼接融合方法,其特征在于,所述将所述视频画面映射至所述三维模型上,得到初步三维视频图像的步骤,包括:
分别构建所述整个视频区域的二维坐标系和所述三维模型的三维坐标系;
获取每个视频画面在所述二维坐标系的二维坐标;
计算所述二维坐标在所述三维坐标系中对应的三维坐标,所述二维坐标系与所述三维坐标系之间的映射关系预先设定;
根据所述三维坐标将每个视频画面映射至所述三维模型上,得到所述初步三维视频图像。
4.一种视频拼接融合装置,其特征在于,其包括:
获取模块,用于获取至少两个摄像头同一时刻拍摄的视频画面;
构建模块,用于构建整个视频区域的三维模型;
映射模块,用于将所述视频画面映射至所述三维模型上,得到初步三维视频图像;
融合模块,用于对所述初步三维视频图像内所有相邻的两个视频画面的颜色值进行处理后融合,直至所有的视频画面均被融合,得到最终三维视频图像;
输出模块,用于输出显示所述最终三维视频图像。
5.根据权利要求4所述的视频拼接融合装置,其特征在于,所述融合模块包括:
选取单元,用于从所述初步三维视频图像的所有的视频画面中选取目标视频画面;
第一颜色值获取单元,用于获取目标视频画面的第一颜色值CA,并根据所述颜色值CA设定融合因子a和亮度值b,所述融合因子a的取值范围为[0,1];
第二颜色值获取单元,用于获取与所述目标视频画面邻接的任一个当前视频画面的第二颜色值CB;
第三颜色值获取单元,用于根据所述第一颜色值CA、第二颜色值CB、融合因子a和亮度值b进行计算处理,得到第三颜色值CAB,CAB=(CA*a+CB*(1-a))*b;
融合单元,用于根据所述第三颜色值CAB对所述目标视频画面、所述当前视频画面进行处理后融合,得到新的目标视频画面,并将所述新的目标视频画面与任一邻接的视频画面融合,直至所有的视频画面均被融合,得到所述最终三维视频图像。
6.根据权利要求4所述的视频拼接融合装置,其特征在于,所述映射模块包括:
构建单元,用于分别构建所述整个视频区域的二维坐标系和所述三维模型的三维坐标系;
二维坐标获取单元,用于获取每个视频画面在所述二维坐标系的二维坐标;
三维坐标计算单元,用于计算所述二维坐标在所述三维坐标系中对应的三维坐标,所述二维坐标系与所述三维坐标系之间的映射关系预先设定;
映射单元,用于根据所述三维坐标将每个视频画面映射至所述三维模型上,得到所述初步三维视频图像。
7.一种终端,其特征在于,其包括至少两个摄像头、存储器和处理器,所述处理器耦接所述至少两个摄像头、所述存储器,所述存储器上存储有可在所述处理器上运行的计算机程序;
所述处理器执行所述计算机程序时,实现权利要求1-3任一项所述视频拼接融合方法中的步骤。
8.一种存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时,实现权利要求1-3任一项所述视频拼接融合方法中的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910205830.0A CN110097527A (zh) | 2019-03-19 | 2019-03-19 | 视频拼接融合方法、装置、终端及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910205830.0A CN110097527A (zh) | 2019-03-19 | 2019-03-19 | 视频拼接融合方法、装置、终端及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110097527A true CN110097527A (zh) | 2019-08-06 |
Family
ID=67443396
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910205830.0A Pending CN110097527A (zh) | 2019-03-19 | 2019-03-19 | 视频拼接融合方法、装置、终端及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110097527A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110910338A (zh) * | 2019-12-03 | 2020-03-24 | 煤炭科学技术研究院有限公司 | 一种三维实景视频的获取方法、装置、设备及存储介质 |
CN114143528A (zh) * | 2020-09-04 | 2022-03-04 | 北京大视景科技有限公司 | 多视频流融合方法、电子设备、存储介质 |
CN115861070A (zh) * | 2022-12-14 | 2023-03-28 | 湖南凝服信息科技有限公司 | 一种三维视频融合拼接方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104581196A (zh) * | 2014-12-30 | 2015-04-29 | 北京像素软件科技股份有限公司 | 一种视频图像处理的方法及装置 |
CN105578145A (zh) * | 2015-12-30 | 2016-05-11 | 天津德勤和创科技发展有限公司 | 一种三维虚拟场景与视频监控实时智能融合的方法 |
US20160133006A1 (en) * | 2014-03-03 | 2016-05-12 | Tencent Technology (Shenzhen) Company Limited | Video processing method and apparatus |
CN106791621A (zh) * | 2016-12-06 | 2017-05-31 | 深圳市元征科技股份有限公司 | 监控装置的监控画面形成方法和*** |
-
2019
- 2019-03-19 CN CN201910205830.0A patent/CN110097527A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160133006A1 (en) * | 2014-03-03 | 2016-05-12 | Tencent Technology (Shenzhen) Company Limited | Video processing method and apparatus |
CN104581196A (zh) * | 2014-12-30 | 2015-04-29 | 北京像素软件科技股份有限公司 | 一种视频图像处理的方法及装置 |
CN105578145A (zh) * | 2015-12-30 | 2016-05-11 | 天津德勤和创科技发展有限公司 | 一种三维虚拟场景与视频监控实时智能融合的方法 |
CN106791621A (zh) * | 2016-12-06 | 2017-05-31 | 深圳市元征科技股份有限公司 | 监控装置的监控画面形成方法和*** |
Non-Patent Citations (1)
Title |
---|
李洋洋等: "多摄像机图像拼接视觉归一化技术研究", 《计算机工程与应用》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110910338A (zh) * | 2019-12-03 | 2020-03-24 | 煤炭科学技术研究院有限公司 | 一种三维实景视频的获取方法、装置、设备及存储介质 |
CN114143528A (zh) * | 2020-09-04 | 2022-03-04 | 北京大视景科技有限公司 | 多视频流融合方法、电子设备、存储介质 |
CN115861070A (zh) * | 2022-12-14 | 2023-03-28 | 湖南凝服信息科技有限公司 | 一种三维视频融合拼接方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11410320B2 (en) | Image processing method, apparatus, and storage medium | |
KR100894874B1 (ko) | 그물 지도를 이용한 이차원 영상으로부터의 입체 영상 생성장치 및 그 방법 | |
CN101964918B (zh) | 图像再现设备和图像再现方法 | |
Matsuyama et al. | 3D video and its applications | |
CN110097527A (zh) | 视频拼接融合方法、装置、终端及存储介质 | |
CN105894451A (zh) | 全景图像拼接方法和装置 | |
CN108769462B (zh) | 自由视角场景漫游方法及装置 | |
CN109741388A (zh) | 用于生成双目深度估计模型的方法和装置 | |
CN111766951B (zh) | 图像显示方法和装置、计算机***和计算机可读存储介质 | |
CN104735435B (zh) | 影像处理方法及电子装置 | |
CN113256781B (zh) | 虚拟场景的渲染和装置、存储介质及电子设备 | |
US9536347B2 (en) | Apparatus and method for forming light field image | |
CN105023260A (zh) | 一种全景图像融合方法及融合装置 | |
CN110866936A (zh) | 视频标注方法、跟踪方法、装置、计算机设备及存储介质 | |
WO2013120308A1 (zh) | 一种三维显示方法及*** | |
CN106227628B (zh) | 一种拼接屏的测试方法和装置 | |
US20130113795A1 (en) | Method for generating multi-view images from a single image | |
CN112802206A (zh) | 漫游视图的生成方法、装置、设备和存储介质 | |
CN109493376A (zh) | 图像处理方法和装置、存储介质及电子装置 | |
CN116523738A (zh) | 一种任务触发方法、装置、存储介质以及电子设备 | |
CN108734791B (zh) | 全景视频的处理方法和装置 | |
CN113438541B (zh) | 一种视点动画生成方法、装置、设备和存储介质 | |
Guo et al. | A portable immersive surgery training system using RGB-D sensors | |
CN113298868B (zh) | 模型建立方法、装置、电子设备、介质及程序产品 | |
CN107678329A (zh) | 一种全景互联控制***以及控制方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190806 |