CN108668108B - 一种视频监控的方法、装置及电子设备 - Google Patents

一种视频监控的方法、装置及电子设备 Download PDF

Info

Publication number
CN108668108B
CN108668108B CN201710208904.7A CN201710208904A CN108668108B CN 108668108 B CN108668108 B CN 108668108B CN 201710208904 A CN201710208904 A CN 201710208904A CN 108668108 B CN108668108 B CN 108668108B
Authority
CN
China
Prior art keywords
target
points
data model
pixel
dimensional data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710208904.7A
Other languages
English (en)
Other versions
CN108668108A (zh
Inventor
邹纯稳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Hikvision Digital Technology Co Ltd
Original Assignee
Hangzhou Hikvision Digital Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Hikvision Digital Technology Co Ltd filed Critical Hangzhou Hikvision Digital Technology Co Ltd
Priority to CN201710208904.7A priority Critical patent/CN108668108B/zh
Publication of CN108668108A publication Critical patent/CN108668108A/zh
Application granted granted Critical
Publication of CN108668108B publication Critical patent/CN108668108B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

本发明的实施例公开一种视频监控的方法、装置及电子设备,涉及监控技术,能够提升视频监控的实时性。所述视频监控的方法包括:实时获取目标监控场景的视频图像;获取所述视频图像的像素点的像素值;根据所述视频图像的像素点与所述目标监控场景的三维数据模型的渲染点之间的映射关系,利用所述像素点的像素值,对所述渲染点进行渲染。本发明适用于进行三维视频监控。

Description

一种视频监控的方法、装置及电子设备
技术领域
本发明涉及监控技术,尤其涉及一种视频监控的方法、装置及电子设备。
背景技术
随着经济和通信技术的发展,安全性得到了人们越来越多的重视。其中,视频监控以其直观、准确、及时和信息内容丰富的特点,是目前应用最为广泛的安全监控方法,视频监控集成计算机技术、网络技术、图像处理技术以及数据传输技术,通过在目标场景,例如,重点设施、名胜古迹、旅游景点、看守所、幼儿学校、市场中安装摄像机进行二维拍摄,可以实时获取目标场景的相关信息。
随着安全监控行业的纵深发展,用户对监控效果的展示有着越来越高的要求。例如,在看守所、市场等安全监控场景中,需要同时对多个房间或区域进行监控,且用户希望能够提供更加直观、全局的监控展示方案。但目前在将拍摄的视频向用户展示,以向用户提供监控展示界面时,主要通过以二维的宫格方式,例如,9宫格、16宫格展示给用户,但该展示方式不直观,且无法体现各监控场景间的位置关系,也无法呈现直观的展示效果。为了提升用户浏览的展示效果,改进的视频监控方法是三维(3D,Three Dimension)监控方法,即利用全景相机,例如,能够采集全景图像的鱼眼相机或多目拼接相机,通过移动全景相机,实现多角度的采集鱼眼视频图像,基于特征点匹配对采集的多幅视频图像进行拼接,并将拼接的视频图像映射到预先设置的立方体模型上,从而得到三维图像。
但该三维监控方法,由于需要移动全景相机,并基于通过多角度采集的多幅视频图像以及特征点匹配得到拼接的视频图像,监控的实时性较差;进一步地,预先设置的立方体模型具有较大的局限性,不能满足实际监控场景的模型应用要求。
发明内容
有鉴于此,本发明实施例提供一种视频监控的方法、装置及电子设备,能够提升视频监控的实时性,以解决现有的视频监控的方法中,需要移动全景相机,并基于通过多角度采集的多幅视频图像以及特征点匹配导致的监控实时性较差的问题。
第一方面,本发明实施例提供一种视频监控的方法,包括:
实时获取目标监控场景的视频图像;
获取所述视频图像的像素点的像素值;
根据所述视频图像的像素点与所述目标监控场景的三维数据模型的渲染点之间的映射关系,利用所述像素点的像素值,对所述渲染点进行渲染。
结合第一方面,在第一方面的第一种实施方式中,在实时获取目标监控场景的视频图像之前,所述方法还包括:
依据目标监控场景的尺寸参数信息构建所述目标监控场景的三维数据模型。
结合第一方面的第一种实施方式,在第一方面的第二种实施方式中,所述依据目标监控场景的尺寸参数信息构建所述目标监控场景的三维数据模型包括:
获取目标监控场景中安装的全景相机结构中心;
以所述全景相机结构中心为三维坐标系原点,依据所述目标监控场景的三维坐标构建所述目标监控场景的三维数据模型。
结合第一方面的第二种实施方式,在第一方面的第三种实施方式中,在依据目标监控场景的尺寸参数信息构建所述目标监控场景的三维数据模型之后,实时获取目标监控场景的视频图像之前,所述方法还包括:
获取目标监控场景中全景相机采集的视频图像;
建立所述视频图像的像素点与所述目标监控场景的三维数据模型的渲染点之间的映射关系。
结合第一方面、第一方面的第一种实施方式至第三种中的任一种实施方式,在第一方面的第四种实施方式中,在实时获取目标监控场景的视频图像之后,所述方法还包括:
判断是否存在所述视频图像的像素点与所述目标监控场景的三维数据模型的渲染点之间的映射关系;
若存在所述映射关系,则执行所述获取所述视频图像的像素点的像素值的步骤。
结合第一方面的第四种实施方式,在第一方面的第五种实施方式中,若不存在所述映射关系,则建立所述视频图像的像素点与所述目标监控场景的三维数据模型的渲染点之间的映射关系。
结合第一方面的第三种、第四种或第五种实施方式,在第一方面的第六种实施方式中,所述建立所述视频图像的像素点与所述目标监控场景的三维数据模型的渲染点之间的映射关系包括:
对所述三维数据模型进行网格化处理,获得所述三维数据模型的渲染点;其中,对所述三维数据模型进行网格化处理后的各网格点即为所述三维数据模型的渲染点;
依据目标网格点在第一坐标系中的坐标,计算所述目标网格点和所述第一坐标系的坐标原点之间的连线与所述第一坐标系的XY平面的第一夹角,以及计算所述目标网格点在所述XY平面上的投影和所述坐标原点之间的连线与所述第一坐标系的X轴的第二夹角;
依据所述第一夹角和第二夹角,获取所述目标网格点在视频图像上映射的像素点坐标。
结合第一方面的第六种实施方式,在第一方面的第七种实施方式中,所述依据所述第一夹角和第二夹角,获取所述目标网格点在视频图像上映射的像素点坐标包括:
当第一夹角大于预先设置的夹角阈值时,依据所述第一夹角和第二夹角计算所述目标网格点映射到所述全景相机拍摄的底面图像的像素点坐标。
结合第一方面的第六种实施方式,在第一方面的第八种实施方式中,所述依据所述第一夹角和第二夹角,获取所述目标网格点在视频图像上映射的像素点坐标包括:
当第一夹角小于或等于预先设置的夹角阈值时,依据所述第二夹角计算所述目标网格点映射到所述全景相机拍摄的侧面图像的像素点坐标。
结合第一方面的第八种实施方式,在第一方面的第九种实施方式中,所述依据所述第二夹角计算所述目标网格点映射到所述全景相机拍摄的侧面图像的像素点坐标包括:
依据所述第二夹角确定所述目标网格点映射到的所述全景相机的侧面成像采集模组;
计算所述目标网格点映射到所述侧面成像采集模组拍摄的侧面图像的像素点坐标。
结合第一方面的第九种实施方式,在第一方面的第十种实施方式中,所述计算所述目标网格点映射到所述侧面成像采集模组拍摄的侧面图像的像素点坐标包括:
对所述目标网格点在所述第一坐标系中的坐标进行变换,得到所述目标网格点在第二坐标系中的坐标;其中,所述第二坐标系以所述侧面成像采集模组的镜头光轴方向为X轴;
根据所述目标网格点在所述第二坐标系中的坐标,计算所述目标网格点映射到所述侧面成像采集模组拍摄的侧面图像的像素点坐标。
第二方面,本发明实施例提供一种视频监控装置,包括:视频图像获取模块、像素值获取模块以及渲染模块,其中,
视频图像获取模块,用于实时获取目标监控场景的视频图像;
像素值获取模块,用于获取所述视频图像的像素点的像素值;
渲染模块,用于根据所述视频图像的像素点与所述目标监控场景的三维数据模型的渲染点之间的映射关系,利用所述像素点的像素值,对所述渲染点进行渲染。
结合第二方面,在第二方面的第一种实施方式中,所述视频监控装置还包括:
三维数据模型构建模块,用于依据目标监控场景的尺寸参数信息构建所述目标监控场景的三维数据模型。
结合第二方面的第一种实施方式,在第二方面的第二种实施方式中,所述三维数据模型构建模块包括:结构中心获取单元以及三维数据模型构建单元,其中,
结构中心获取单元,用于获取目标监控场景中安装的全景相机结构中心;
三维数据模型构建单元,用于以所述全景相机结构中心为三维坐标系原点,依据所述目标监控场景的三维坐标构建所述目标监控场景的三维数据模型。
结合第二方面的第二种实施方式,在第二方面的第三实施方式中,还包括:视频图像第二获取模块以及映射关系第一构建模块,其中,
视频图像第二获取模块,用于获取目标监控场景中全景相机采集的视频图像;
映射关系第一构建模块,用于建立所述视频图像的像素点与所述目标监控场景的三维数据模型的渲染点之间的映射关系。
结合第二方面、第二方面的第一种实施方式至第三实施方式中的任一实施方式,还包括:
判断模块,用于判断是否存在所述视频图像的像素点与所述目标监控场景的三维数据模型的渲染点之间的映射关系;若存在所述映射关系,则通知所述像素值获取模块执行获取所述视频图像的像素点的像素值的步骤。
结合第二方面的第五实施方式,在第二方面的第五实施方式中,还包括:
映射关系第二构建模块,用于根据所述判断模块的判断,若不存在所述映射关系,则建立所述视频图像的像素点与所述目标监控场景的三维数据模型的渲染点之间的映射关系。
结合第二方面的第三种实施方式或第五种实施方式,在第二方面的第六种实施方式中,所述映射关系第一构建模块或映射关系第二构建模块包括:
网格化处理单元,用于对所述三维数据模型进行网格化处理,获得所述三维数据模型的渲染点;其中,对所述三维数据模型进行网格化处理后的各网格点即为所述三维数据模型的渲染点;
第一计算单元,用于依据目标网格点在第一坐标系中的坐标,计算所述目标网格点和所述第一坐标系的坐标原点之间的连线与所述第一坐标系的XY平面的第一夹角,以及计算所述目标网格点在所述XY平面上的投影和所述坐标原点之间的连线与所述第一坐标系的X轴的第二夹角;
映射单元,用于依据所述第一夹角和第二夹角,获取所述目标网格点在视频图像上映射的像素点坐标。
结合第二方面的第六种实施方式,在第二方面的第七种实施方式中,所述映射单元包括:
第一映射子单元,用于当第一夹角大于预先设置的夹角阈值时,依据所述第一夹角和第二夹角计算所述目标网格点映射到所述全景相机拍摄的底面图像的像素点坐标。
结合第二方面的第六种实施方式,在第二方面的八种实施方式中,所述映射单元包括:
第二映射子单元,用于当第一夹角小于或等于预先设置的夹角阈值时,依据所述第二夹角计算所述目标网格点映射到所述全景相机拍摄的侧面图像的像素点坐标。
结合第二方面的第八种实施方式,在第二方面的九种实施方式中,所述第二映射子单元,包括:
采集模组确定子模块,用于依据所述第二夹角确定所述目标网格点映射到的所述全景相机的侧面成像采集模组;
映射子模块,用于计算所述目标网格点映射到所述侧面成像采集模组拍摄的侧面图像的像素点坐标。
结合第二方面的第九种实施方式,在第二方面的十种实施方式中,所述映射子模块,具体用于:
对所述目标网格点在所述第一坐标系中的坐标进行变换,得到目标网格点在第二坐标系中的坐标;其中,所述第二坐标系以所述侧面成像采集模组的镜头光轴方向为X轴;
根据所述目标网格点在所述第二坐标系中的坐标,计算所述目标网格点映射到所述侧面成像采集模组拍摄的侧面图像的像素点坐标。
第三方面,本发明实施例提供一种电子设备,所述电子设备包括:壳体、处理器、存储器、电路板和电源电路,其中,电路板安置在壳体围成的空间内部,处理器和存储器设置在电路板上;电源电路,用于为上述电子设备的各个电路或器件供电;存储器用于存储可执行程序代码;处理器通过读取存储器中存储的可执行程序代码来运行与可执行程序代码对应的程序,用于执行前述任一所述的视频监控的方法。
本发明实施例提供的一种视频监控的方法、装置及电子设备,通过实时获取目标监控场景的视频图像;获取所述视频图像的像素点的像素值;根据所述视频图像的像素点与所述目标监控场景的三维数据模型的渲染点之间的映射关系,利用所述像素点的像素值,对所述渲染点进行渲染,能够提升视频监控的实时性,以解决现有的视频监控的方法中,需要移动全景相机,并基于通过多角度采集的多幅视频图像以及特征点匹配导致的监控实时性较差的问题。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1为本发明的实施例一视频监控的方法流程示意图;
图2为本实施例构建三维数据模型示意图;
图3为本实施例全景相机结构示意图;
图4及图5为构建映射关系示意图;
图6为本发明的实施例视频监控装置结构示意图;
图7为本发明电子设备一个实施例的结构示意图。
具体实施方式
下面结合附图对本发明实施例进行详细描述。
应当明确,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
图1为本发明的实施例一视频监控的方法流程示意图,如图1所示,本实施例的方法可以包括:
步骤101,实时获取目标监控场景的视频图像;
步骤102,获取所述视频图像的像素点的像素值;
步骤103,根据所述视频图像的像素点与所述目标监控场景的三维数据模型的渲染点之间的映射关系,利用所述像素点的像素值,对所述渲染点进行渲染。
本发明实施例,通过实时获取目标监控场景的视频图像;获取所述视频图像的像素点的像素值;根据所述视频图像的像素点与所述目标监控场景的三维数据模型的渲染点之间的映射关系,利用所述像素点的像素值,对所述渲染点进行渲染,能够提升视频监控的实时性。
本实施例中,作为一可选实施例,在实时获取目标监控场景的视频图像之前,所述方法还包括:依据目标监控场景的尺寸参数信息构建所述目标监控场景的三维数据模型。
本实施例中,构建三维数据模型即进行三维(3D)场景建模,主要根据目标监控场景的尺寸参数信息建立相应的3D数据模型。其中,所述尺寸参数信息可包括:几何参数以及位置参数。
本实施例中,作为一可选实施例,图2为本实施例构建三维数据模型示意图。参见图2,依据目标监控场景的尺寸参数信息构建三维数据模型包括:
A11,获取目标监控场景中安装的全景相机结构中心;
本实施例中,全景相机安装在目标监控场景空间的顶面上,全景相机结构中心设为Oc
A12,以所述全景相机结构中心为三维坐标系原点,依据所述目标监控场景的三维坐标构建所述三维数据模型。
本实施例中,以Oc为坐标原点,目标监控场景空间的顶面(平面)为XY平面,构建三维坐标系Oc-XYZ。
本实施例中,作为一可选实施例,可根据目标监控场景空间的设计图或通过测量监控场景空间,得到Oc在顶面上的位置信息以及目标监控场景各表面的尺寸信息(几何参数);然后,基于尺寸信息及Oc与各侧面、底面间的相对位置信息(位置参数),生成目标监控场景对应的3D数据模型。
所述映射关系可预先建立,也可在实时获取目标监控场景的视频图像之后建立。
本实施例中,作为一可选实施例,在依据目标监控场景的尺寸参数信息构建所述目标监控场景的三维数据模型之后,实时获取目标监控场景的视频图像之前,所述方法还包括建立所述映射关系的步骤,所述步骤具体可包括:获取目标监控场景中全景相机采集的视频图像;建立所述视频图像的像素点与所述目标监控场景的三维数据模型的渲染点之间的映射关系。
本实施例中,作为一可选实施例,在实时获取目标监控场景的视频图像之后,所述方法还包括:判断是否存在所述视频图像的像素点与所述目标监控场景的三维数据模型的渲染点之间的映射关系;若存在所述映射关系,则执行所述获取所述视频图像的像素点的像素值的步骤。若不存在所述映射关系,则建立所述视频图像的像素点与所述目标监控场景的三维数据模型的渲染点之间的映射关系。
本实施例中,全景相机为多镜头全景相机,包含有多个成像采集模组,每一成像采集模组对应一镜头。本发明不限于此,所述全景相机也可以是鱼眼相机。
本实施例中,获取目标监控场景中的全景相机为多镜头全景相机,又称为多目拼接相机。图3为本实施例全景相机结构示意图。参见图3,本实施例全景相机的底部具有一个底面成像采集模组Lb,侧面均布有n个侧面成像采集模组Li(1=1,2,3...n),各成像采集模组(包括镜头、采集传感器、信号数据处理传输器)。
采用本实施例的全景相机,无需移动全景相机,使得拍摄的多张视频图像(帧)是同一时刻的视频图像(帧),通过对各个成像采集模组采集的视频图像(帧)进行拼接,可以得到水平360°、竖直180°的同一时刻的半球全景图像。
本实施例中,由于各相邻成像采集模组的镜头之间存在视差,从而会导致远近不同距离下的目标拍摄对象在后续渲染球面上的偏移量不同。本实施例中,作为一可选实施例,利用下式计算距离为d的目标拍摄对象在拼接图像中的像素偏移量:
Figure BDA0001260537700000101
式中,
delta为目标拍摄对象在拼接图像中的像素偏移量;
f为成像采集模组的镜头焦距;
θ为相邻镜头光轴间夹角;
d为目标拍摄对象到全景相机结构中心Oc的距离;
R为镜头光心所在的球面半径;
e为成像采集模组中的图像采集传感器的像元尺寸。其中,像元尺寸是图像采集传感器中单个像素单元的物理尺寸。
本实施例中,从上式可以看出,目标拍摄对象在拼接图像中的像素偏移量随镜头光心所在的球面半径(R)的增大而增大;此外,各不同距离下的目标拍摄对象在拼接图像中的像素偏移量偏差也随着R的增大而急剧增大。
本实施例中,为了保证拼接效果,各相邻成像采集模组的镜头间的视差要求越小越好,即镜头所在的成像采集模组对应的球面半径越小越好。
本实施例中,通过分析统计,成像采集模组对应的球面半径,即镜头光心所在的球面半径一般建议在5cm以下。
本实施例中,映射关系的构建主要是建立全景相机采集的原始视频图像到被监控场景的3D数据模型的映射。该映射关系可称为3D监控渲染模型。
作为一可选实施例,所述建立所述视频图像的像素点与所述目标监控场景的三维数据模型的渲染点之间的映射关系包括:
A1、对所述三维数据模型进行网格化处理,获得所述三维数据模型的渲染点;其中,对所述三维数据模型进行网格化处理后的各网格点即为所述三维数据模型的渲染点。
A2、依据目标网格点在第一坐标系中的坐标,计算所述目标网格点和所述第一坐标系的坐标原点之间的连线与所述第一坐标系的XY平面的第一夹角,以及计算所述目标网格点在所述XY平面上的投影和所述坐标原点之间的连线与所述第一坐标系的X轴的第二夹角。
参看图3及图4,本实施例中,以所述全景相机的结构中心Oc为坐标原点,以底面成像采集模组(Lb)的光轴方向为Z轴,以第一侧面成像采集模组的光轴在赤道面的投影为X轴,建立第一坐标系Oc-XYZ。本实施例中,第一坐标系与被监控场景的3D数据模型的坐标系可为同一坐标系。
参看图5,本实施例中,OcQ与Oc-XY平面的夹角为γ,即目标网格点与所述XY平面的第一夹角;OcQ1与Oc-X轴的夹角为α,即目标网格点与所述X轴的第二夹角。其中,Q1为目标网格点Q在Oc-XY坐标平面上的投影。
根据投影点的几何关系,可以得到:
Figure BDA0001260537700000111
Figure BDA0001260537700000112
式中,
γ为OcQ与Oc-XY平面的夹角;
α为OcQ1与Oc-X轴的夹角;
Q为3D数据模型上的目标网格点;
(xQ、yQ、zQ)为3D数据模型上的目标网格点在第一坐标系中的坐标。
A3、依据所述第一夹角和第二夹角,获取所述目标网格点在视频图像上映射的像素点坐标。
作为一可选实施例,当第一夹角大于预先设置的夹角阈值时,依据所述第一夹角和第二夹角计算所述目标网格点映射到所述全景相机拍摄的底面图像的像素点坐标。
本实施例中,当第一夹角大于预先设置的夹角阈值,即当γ>π/9时,Q点被映射到全景相机的底面成像采集模组Lb拍摄的图像,可利用下式计算目标网格点在所述全景相机的底面成像采集模组Lb拍摄的底面视频图像上映射的像素点坐标:
Figure BDA0001260537700000121
式中,
(u,v)为3D数据模型上的目标网格点在全景相机的底面成像采集模组拍摄的底面视频图像上映射的像素点坐标;
(u0,v0)为底面成像采集模组的主点在成像中的水平。垂直像素坐标,底面成像采集模组的主点为底面成像采集模组的光轴与成像平面的交点;
f为镜头焦距;
e为像元尺寸。
作为一可选实施例,当第一夹角小于或等于预先设置的夹角阈值时,即当γ≤π/9时,Q点被映射到侧面成像采集模组Li的采集图像,依据所述第二夹角计算所述目标网格点映射到所述全景相机拍摄的侧面图像的像素点坐标。
可选地,所述依据所述第二夹角计算所述目标网格点映射到所述全景相机拍摄的侧面图像的像素点坐标包括:
A31、依据所述第二夹角确定所述目标网格点映射到的所述全景相机的侧面成像采集模组Li;
序号i的确定规则为:
Figure BDA0001260537700000122
式中,
i为3D数据模型上的目标网格点映射的侧面图像的序号,即映射到的侧面成像采集模组的序号;
n为侧面成像采集模组个数;
floor表示取整;
%表示取余。
A32、计算所述目标网格点映射到所述侧面成像采集模组拍摄的侧面图像的像素点坐标。
本实施例中,所述计算所述目标网格点映射到所述侧面成像采集模组拍摄的侧面图像的像素点坐标(步骤A32)可包括步骤:
B1、对所述目标网格点在所述第一坐标系中的坐标进行变换,得到所述目标网格点在第二坐标系中的坐标;其中,所述第二坐标系以所述侧面成像采集模组的镜头光轴方向为X轴;所述第二坐标系由所述第一坐标系旋转得到。
本实施例中,由目标网格点Q在第一坐标系即Oc-XYZ坐标系中的坐标(xQ、yQ、zQ),可以通过如下坐标变换得到Q在第二坐标系即Oc-X'Y'Z'坐标系中的坐标(x'Q、y'Q、z'Q):
Figure BDA0001260537700000131
式中,
Ry(-Ψ)、
Figure BDA0001260537700000132
为旋转变换矩阵。
本实施例中,利用下式计算旋转变换矩阵:
Figure BDA0001260537700000133
Figure BDA0001260537700000134
式中,
Ψ为侧面成像采集模组的光轴与第一坐标系的平面XY的夹角;
Figure BDA0001260537700000135
为侧面成像采集模组的光轴在第一坐标系的平面XY上的投影线与Oc-X轴的水平夹角。
其中,侧面成像采集模组Li的光轴在第一坐标系的平面XY上的投影线与Oc-X轴的水平夹角可由下述公式确定:
Figure BDA0001260537700000136
式中,
Figure BDA0001260537700000141
为第i个侧面成像采集模组的光轴第一坐标系的平面XY上的投影线与Oc-X轴的水平夹角;
n为侧面成像采集模组个数。
B2、根据所述目标网格点在所述第二坐标系中的坐标,计算所述目标网格点映射到所述侧面成像采集模组拍摄的侧面图像的像素点坐标。
本实施例中,设Q在侧面成像采集模组中的坐标系O-X'Y'Z'的坐标为(x'Q、y'Q、z'Q),则映射到侧面成像采集模组(Li)的采集图像上的像素点坐标为:
Figure BDA0001260537700000142
式中,
(x'Q、y'Q、z'Q)为目标网格点Q在侧面成像采集模组的光轴方向为X轴的OC-X′Y′Z′坐标系中的坐标。
(u0,v0)为侧面成像采集模组Li的主点在成像中的水平。垂直像素坐标,侧面成像采集模组Li的主点为侧面成像采集模组Li的光轴与成像平面的交点。
本实施例中,3D数据模型为空间场景,包括但不限于立方体模型。
本实施例视频监控的方法可适用室内外监控场景,对于开有门窗的房间或者室外开放场景均可以通过三维数据模型投影得到三维监控效果。
本实施例中,使用的全景相机可以是含有多个成像采集模组的全景相机,也可以是单个超广角的鱼眼全景相机。
本实施例中,对全景视频的各图像帧进行拼接,依据拼接图像实现全景视频监控;进一步地,还可以将多个目标监控场景联合渲染展示,可以实现3D集中监控。通过提供全景相机生成三维数据模型的方案,能够支持实时渲染展示,较好地提升了监控展示效果,提升视频监控的实时性和交互体验。
图6为本发明的实施例视频监控装置结构示意图,如图6所示,本实施例的装置可以包括:视频图像获取模块71、像素值获取模块72以及渲染模块73,其中,视频图像获取模块71,用于实时获取目标监控场景的视频图像;像素值获取模块72,用于获取所述视频图像的像素点的像素值;渲染模块73,用于根据所述视频图像的像素点与所述目标监控场景的三维数据模型的渲染点之间的映射关系,利用所述像素点的像素值,对所述渲染点进行渲染。
本实施例的装置,可以用于执行图1所示方法实施例的技术方案,其实现原理和技术效果类似,此处不再赘述。
本实施例中,作为一可选实施例,该装置还包括:三维数据模型构建模块(图中未示出),用于依据目标监控场景的尺寸参数信息构建所述目标监控场景的三维数据模型。
本实施例中,作为一可选实施例,三维数据模型构建模块包括:结构中心获取单元以及三维数据模型构建单元,其中,结构中心获取单元,用于获取目标监控场景中安装的全景相机结构中心;三维数据模型构建单元,用于以所述全景相机结构中心为三维坐标系原点,依据所述目标监控场景的三维坐标构建所述目标监控场景的三维数据模型。
本实施例中,作为一可选实施例,该装置还包括:视频图像第二获取模块以及映射关系第一构建模块(图中未示出),其中,视频图像第二获取模块,用于获取目标监控场景中全景相机采集的视频图像;映射关系第一构建模块,用于建立所述视频图像的像素点与所述目标监控场景的三维数据模型的渲染点之间的映射关系。
本实施例中,作为一可选实施例,该装置还包括:判断模块(图中未示出),用于判断是否存在所述视频图像的像素点与所述目标监控场景的三维数据模型的渲染点之间的映射关系;若存在所述映射关系,则通知所述像素值获取模块执行所述获取所述视频图像的像素点的像素值的步骤。
本实施例中,作为一可选实施例,该装置还包括:映射关系第二构建模块(图中未示出),用于根据所述判断模块的判断,若不存在所述映射关系,则建立所述视频图像的像素点与所述目标监控场景的三维数据模型的渲染点之间的映射关系。
本实施例中,作为一可选实施例,所述映射关系第一构建模块或映射关系第二构建模块包括:
网格化处理单元,用于对所述三维数据模型进行网格化处理,获得所述三维数据模型的渲染点;其中,对所述三维数据模型进行网格化处理后的各网格点即为所述三维数据模型的渲染点;
第一计算单元,用于依据目标网格点在第一坐标系中的坐标,计算所述目标网格点和所述第一坐标系的坐标原点之间的连线与所述第一坐标系的XY平面的第一夹角,以及计算所述目标网格点在所述XY平面上的投影和所述坐标原点之间的连线与所述第一坐标系的X轴的第二夹角;
映射单元,用于依据所述第一夹角和第二夹角,获取所述目标网格点在视频图像上映射的像素点坐标。
本实施例中,作为一可选实施例,所述映射单元包括:第一映射子单元,用于当第一夹角大于预先设置的夹角阈值时,依据所述第一夹角和第二夹角计算所述目标网格点映射到所述全景相机拍摄的底面图像的像素点坐标。
本实施例中,作为一可选实施例,所述映射单元包括:第二映射子单元,用于当第一夹角小于或等于预先设置的夹角阈值时,依据所述第二夹角计算所述目标网格点映射到所述全景相机拍摄的侧面图像的像素点坐标。
本实施例中,作为一可选实施例,所述第二映射子单元,包括:
采集模组确定子模块,用于依据所述第二夹角确定所述目标网格点映射到的所述全景相机的侧面成像采集模组;
映射子模块,用于计算所述目标网格点映射到所述侧面成像采集模组拍摄的侧面图像的像素点坐标。
本实施例中,作为一可选实施例,所述映射子模块,具体用于:对所述目标网格点在所述第一坐标系中的坐标进行变换,得到目标网格点在第二坐标系中的坐标;其中,所述第二坐标系以所述侧面成像采集模组的镜头光轴方向为X轴,所述第二坐标系由所述第一坐标系旋转得到;根据所述目标网格点在所述第二坐标系中的坐标,计算所述目标网格点映射到所述侧面成像采集模组拍摄的侧面图像的像素点坐标。
本实施例的装置,可以用于执行图1至图6所示方法实施例的技术方案,其实现原理和技术效果类似,此处不再赘述。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中的各个实施例均采用相关的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。
尤其,对于装置实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行***、装置或设备(如基于计算机的***、包括处理器的***或其他可以从指令执行***、装置或设备取指令并执行指令的***)使用,或结合这些指令执行***、装置或设备而使用。就本说明书而言,"计算机可读介质"可以是任何可以包含、存储、通信、传播或传输程序以供指令执行***、装置或设备或结合这些指令执行***、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。
在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行***执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本发明实施例还提供一种电子设备,所述电子设备包含前述任一实施例所述的装置。
图7为本发明电子设备一个实施例的结构示意图,可以实现本发明图1所示实施例的流程,如图7所示,上述电子设备可以包括:壳体81、处理器82、存储器83、电路板84和电源电路85,其中,电路板84安置在壳体81围成的空间内部,处理器82和存储器83设置在电路板84上;电源电路85,用于为上述电子设备的各个电路或器件供电;存储器83用于存储可执行程序代码;处理器82通过读取存储器83中存储的可执行程序代码来运行与可执行程序代码对应的程序,用于执行前述任一实施例所述的视频监控的方法。
处理器82对上述步骤的具体执行过程以及处理器82通过运行可执行程序代码来进一步执行的步骤,可以参见本发明图1所示实施例的描述,在此不再赘述。
该电子设备以多种形式存在,包括但不限于:
(1)移动通信设备:这类设备的特点是具备移动通信功能,并且以提供话音、数据通信为主要目标。这类终端包括:智能手机(例如iPhone)、多媒体手机、功能性手机,以及低端手机等。
(2)超移动个人计算机设备:这类设备属于个人计算机的范畴,有计算和处理功能,一般也具备移动上网特性。这类终端包括:PDA、MID和UMPC设备等,例如iPad。
(3)便携式娱乐设备:这类设备可以显示和播放多媒体内容。该类设备包括:音频、视频播放器(例如iPod),掌上游戏机,电子书,以及智能玩具和便携式车载导航设备。
(4)服务器:提供计算服务的设备,服务器的构成包括处理器、硬盘、内存、***总线等,服务器和通用的计算机架构类似,但是由于需要提供高可靠的服务,因此在处理能力、稳定性、可靠性、安全性、可扩展性、可管理性等方面要求较高。
(5)其他具有数据交互功能的电子设备。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
为了描述的方便,描述以上装置是以功能分为各种单元/模块分别描述。当然,在实施本发明时可以把各单元/模块的功能在同一个或多个软件和/或硬件中实现。
通过以上的实施方式的描述可知,本领域的技术人员可以清楚地了解到本发明可借助软件加必需的通用硬件平台的方式来实现。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例或者实施例的某些部分所述的方法。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。

Claims (19)

1.一种视频监控的方法,其特征在于,包括:
实时获取目标监控场景的视频图像;
获取所述视频图像的像素点的像素值;
根据所述视频图像的像素点与所述目标监控场景的三维数据模型的渲染点之间的映射关系,利用所述像素点的像素值,对所述渲染点进行渲染;
所述视频图像的像素点与所述目标监控场景的三维数据模型的渲染点之间的映射关系的建立过程包括:
对所述三维数据模型进行网格化处理,获得所述三维数据模型的渲染点;其中,对所述三维数据模型进行网格化处理后的各网格点即为所述三维数据模型的渲染点;
依据目标网格点在第一坐标系中的坐标,计算所述目标网格点和所述第一坐标系的坐标原点之间的连线与所述第一坐标系的XY平面的第一夹角,以及计算所述目标网格点在所述XY平面上的投影和所述坐标原点之间的连线与所述第一坐标系的X轴的第二夹角;其中,所述坐标原点为所述目标监控场景中安装的全景相机结构中心;
依据所述第一夹角和第二夹角,获取所述目标网格点在视频图像上映射的像素点坐标:当第一夹角大于预先设置的夹角阈值时,依据所述第一夹角和第二夹角计算所述目标网格点映射到所述全景相机拍摄的底面图像的像素点坐标。
2.根据权利要求1所述的视频监控的方法,其特征在于,在实时获取目标监控场景的视频图像之前,所述方法还包括:
依据目标监控场景的尺寸参数信息构建所述目标监控场景的三维数据模型。
3.根据权利要求2所述的视频监控的方法,其特征在于,所述依据目标监控场景的尺寸参数信息构建所述目标监控场景的三维数据模型包括:
获取目标监控场景中安装的全景相机结构中心;
以所述全景相机结构中心为三维坐标系原点,依据所述目标监控场景的三维坐标构建所述目标监控场景的三维数据模型。
4.根据权利要求3所述的视频监控的方法,其特征在于,在依据目标监控场景的尺寸参数信息构建所述目标监控场景的三维数据模型之后,实时获取目标监控场景的视频图像之前,所述方法还包括:
获取目标监控场景中全景相机采集的视频图像;
建立所述视频图像的像素点与所述目标监控场景的三维数据模型的渲染点之间的映射关系。
5.根据权利要求1至4任一项所述的视频监控的方法,其特征在于,在实时获取目标监控场景的视频图像之后,所述方法还包括:
判断是否存在所述视频图像的像素点与所述目标监控场景的三维数据模型的渲染点之间的映射关系;
若存在所述映射关系,则执行所述获取所述视频图像的像素点的像素值的步骤。
6.根据权利要求5所述的视频监控的方法,其特征在于,若不存在所述映射关系,则建立所述视频图像的像素点与所述目标监控场景的三维数据模型的渲染点之间的映射关系。
7.根据权利要求1所述的视频监控的方法,其特征在于,所述依据所述第一夹角和第二夹角,获取所述目标网格点在视频图像上映射的像素点坐标包括:
当第一夹角小于或等于预先设置的夹角阈值时,依据所述第二夹角计算所述目标网格点映射到所述全景相机拍摄的侧面图像的像素点坐标。
8.根据权利要求7所述的视频监控的方法,其特征在于,所述依据所述第二夹角计算所述目标网格点映射到所述全景相机拍摄的侧面图像的像素点坐标包括:
依据所述第二夹角确定所述目标网格点映射到的所述全景相机的侧面成像采集模组;
计算所述目标网格点映射到所述侧面成像采集模组拍摄的侧面图像的像素点坐标。
9.根据权利要求8所述的视频监控的方法,其特征在于,所述计算所述目标网格点映射到所述侧面成像采集模组拍摄的侧面图像的像素点坐标包括:
对所述目标网格点在所述第一坐标系中的坐标进行变换,得到所述目标网格点在第二坐标系中的坐标;其中,所述第二坐标系以所述侧面成像采集模组的镜头光轴方向为X轴;
根据所述目标网格点在所述第二坐标系中的坐标,计算所述目标网格点映射到所述侧面成像采集模组拍摄的侧面图像的像素点坐标。
10.一种视频监控装置,其特征在于,包括:视频图像获取模块、像素值获取模块以及渲染模块,其中,
视频图像获取模块,用于实时获取目标监控场景的视频图像;
像素值获取模块,用于获取所述视频图像的像素点的像素值;
渲染模块,用于根据所述视频图像的像素点与所述目标监控场景的三维数据模型的渲染点之间的映射关系,利用所述像素点的像素值,对所述渲染点进行渲染;
所述视频图像的像素点与所述目标监控场景的三维数据模型的渲染点之间的映射关系通过以下单元建立:
网格化处理单元,对所述三维数据模型进行网格化处理,获得所述三维数据模型的渲染点;其中,对所述三维数据模型进行网格化处理后的各网格点即为所述三维数据模型的渲染点;
第一计算单元,用于依据目标网格点在第一坐标系中的坐标,计算所述目标网格点和所述第一坐标系的坐标原点之间的连线与所述第一坐标系的XY平面的第一夹角,以及计算所述目标网格点在所述XY平面上的投影和所述坐标原点之间的连线与所述第一坐标系的X轴的第二夹角;其中,所述坐标原点为所述目标监控场景中安装的全景相机结构中心;
映射单元,用于依据所述第一夹角和第二夹角,获取所述目标网格点在视频图像上映射的像素点坐标;
所述映射单元包括:第一映射子单元,用于当第一夹角大于预先设置的夹角阈值时,依据所述第一夹角和第二夹角计算所述目标网格点映射到所述全景相机拍摄的底面图像的像素点坐标。
11.根据权利要求10所述的视频监控装置,其特征在于,还包括:
三维数据模型构建模块,用于依据目标监控场景的尺寸参数信息构建所述目标监控场景的三维数据模型。
12.根据权利要求11所述的视频监控装置,其特征在于,所述三维数据模型构建模块包括:结构中心获取单元以及三维数据模型构建单元,其中,
结构中心获取单元,用于获取目标监控场景中安装的全景相机结构中心;
三维数据模型构建单元,用于以所述全景相机结构中心为三维坐标系原点,依据所述目标监控场景的三维坐标构建所述目标监控场景的三维数据模型。
13.根据权利要求12所述的视频监控装置,其特征在于,还包括:视频图像第二获取模块以及映射关系第一构建模块,其中,
视频图像第二获取模块,用于获取目标监控场景中全景相机采集的视频图像;
映射关系第一构建模块,用于建立所述视频图像的像素点与所述目标监控场景的三维数据模型的渲染点之间的映射关系。
14.根据权利要求10至13任一项所述的视频监控装置,其特征在于,还包括:
判断模块,用于判断是否存在所述视频图像的像素点与所述目标监控场景的三维数据模型的渲染点之间的映射关系;若存在所述映射关系,则通知所述像素值获取模块执行获取所述视频图像的像素点的像素值的步骤。
15.根据权利要求14所述的视频监控装置,其特征在于,还包括:
映射关系第二构建模块,用于根据所述判断模块的判断,若不存在所述映射关系,则建立所述视频图像的像素点与所述目标监控场景的三维数据模型的渲染点之间的映射关系。
16.根据权利要求11所述的视频监控装置,其特征在于,所述映射单元包括:
第二映射子单元,用于当第一夹角小于或等于预先设置的夹角阈值时,依据所述第二夹角计算所述目标网格点映射到所述全景相机拍摄的侧面图像的像素点坐标。
17.根据权利要求16所述的视频监控装置,其特征在于,
所述第二映射子单元,包括:
采集模组确定子模块,用于依据所述第二夹角确定所述目标网格点映射到的所述全景相机的侧面成像采集模组;
映射子模块,用于计算所述目标网格点映射到所述侧面成像采集模组拍摄的侧面图像的像素点坐标。
18.根据权利要求17所述的视频监控装置,其特征在于,所述映射子模块,具体用于:
对所述目标网格点在所述第一坐标系中的坐标进行变换,得到目标网格点在第二坐标系中的坐标;其中,所述第二坐标系以所述侧面成像采集模组的镜头光轴方向为X轴;
根据所述目标网格点在所述第二坐标系中的坐标,计算所述目标网格点映射到所述侧面成像采集模组拍摄的侧面图像的像素点坐标。
19.一种电子设备,其特征在于,所述电子设备包括:壳体、处理器、存储器、电路板和电源电路,其中,电路板安置在壳体围成的空间内部,处理器和存储器设置在电路板上;电源电路,用于为上述电子设备的各个电路或器件供电;存储器用于存储可执行程序代码;处理器通过读取存储器中存储的可执行程序代码来运行与可执行程序代码对应的程序,用于执行前述任一权利要求1-9所述的视频监控的方法。
CN201710208904.7A 2017-03-31 2017-03-31 一种视频监控的方法、装置及电子设备 Active CN108668108B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710208904.7A CN108668108B (zh) 2017-03-31 2017-03-31 一种视频监控的方法、装置及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710208904.7A CN108668108B (zh) 2017-03-31 2017-03-31 一种视频监控的方法、装置及电子设备

Publications (2)

Publication Number Publication Date
CN108668108A CN108668108A (zh) 2018-10-16
CN108668108B true CN108668108B (zh) 2021-02-19

Family

ID=63783943

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710208904.7A Active CN108668108B (zh) 2017-03-31 2017-03-31 一种视频监控的方法、装置及电子设备

Country Status (1)

Country Link
CN (1) CN108668108B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109961481A (zh) * 2019-03-26 2019-07-02 苏州超擎图形软件科技发展有限公司 一种定位方法、装置及设备
CN110312121A (zh) * 2019-05-14 2019-10-08 广东康云科技有限公司 一种3d智能教育监控方法、***和存储介质
CN111325824B (zh) * 2019-07-03 2023-10-10 杭州海康威视***技术有限公司 图像数据展示方法、装置、电子设备及存储介质
CN110198438A (zh) * 2019-07-05 2019-09-03 浙江开奇科技有限公司 用于全景视频影像的影像处理方法及终端设备
CN111750872B (zh) * 2020-06-17 2021-04-13 北京嘀嘀无限科技发展有限公司 信息交互方法、装置、电子设备和计算机可读存储介质
CN117152400B (zh) * 2023-10-30 2024-03-19 武汉苍穹融新科技有限公司 交通道路上多路连续视频与三维孪生场景融合方法及***

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103021013A (zh) * 2012-11-28 2013-04-03 无锡羿飞科技有限公司 投影机球形显示及旋转输出图像的高效处理方法
CN103077509A (zh) * 2013-01-23 2013-05-01 天津大学 利用离散立方体全景图实时合成连续平滑全景视频的方法
CN105163158A (zh) * 2015-08-05 2015-12-16 北京奇艺世纪科技有限公司 一种图像处理方法和装置
CN105704501A (zh) * 2016-02-06 2016-06-22 普宙飞行器科技(深圳)有限公司 一种基于无人机全景视频的虚拟现实直播***
CN105913478A (zh) * 2015-12-28 2016-08-31 乐视致新电子科技(天津)有限公司 360度全景显示方法、显示模块及移动终端
CN106412669A (zh) * 2016-09-13 2017-02-15 微鲸科技有限公司 一种全景视频渲染的方法和设备

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012017560A1 (ja) * 2010-08-06 2012-02-09 富士通株式会社 画像処理装置および画像処理プログラム
CN106373173A (zh) * 2016-08-31 2017-02-01 北京首钢自动化信息技术有限公司 一种监控方法及***

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103021013A (zh) * 2012-11-28 2013-04-03 无锡羿飞科技有限公司 投影机球形显示及旋转输出图像的高效处理方法
CN103077509A (zh) * 2013-01-23 2013-05-01 天津大学 利用离散立方体全景图实时合成连续平滑全景视频的方法
CN105163158A (zh) * 2015-08-05 2015-12-16 北京奇艺世纪科技有限公司 一种图像处理方法和装置
CN105913478A (zh) * 2015-12-28 2016-08-31 乐视致新电子科技(天津)有限公司 360度全景显示方法、显示模块及移动终端
CN105704501A (zh) * 2016-02-06 2016-06-22 普宙飞行器科技(深圳)有限公司 一种基于无人机全景视频的虚拟现实直播***
CN106412669A (zh) * 2016-09-13 2017-02-15 微鲸科技有限公司 一种全景视频渲染的方法和设备

Also Published As

Publication number Publication date
CN108668108A (zh) 2018-10-16

Similar Documents

Publication Publication Date Title
CN108668108B (zh) 一种视频监控的方法、装置及电子设备
US11330172B2 (en) Panoramic image generating method and apparatus
KR101637990B1 (ko) 임의의 위치들을 가지는 디스플레이 구성 요소들 상에 3차원 콘텐츠의 공간적으로 상호 연관된 렌더링
CN104010706B (zh) 视频游戏的方向输入
US20170186219A1 (en) Method for 360-degree panoramic display, display module and mobile terminal
CN108805917A (zh) 空间定位的方法、介质、装置和计算设备
US8803880B2 (en) Image-based lighting simulation for objects
CN109615686B (zh) 潜在可视集合的确定方法、装置、设备及存储介质
CN103852066B (zh) 一种设备定位的方法、控制方法、电子设备及控制***
CN109688343A (zh) 增强现实演播室的实现方法和装置
CN104392045A (zh) 一种基于智能移动终端的实时增强虚拟现实***及方法
US20230298280A1 (en) Map for augmented reality
CN112927363A (zh) 体素地图构建方法及装置、计算机可读介质和电子设备
CN111833457A (zh) 图像处理方法、设备及存储介质
CN115690382A (zh) 深度学习模型的训练方法、生成全景图的方法和装置
CN116858215B (zh) 一种ar导航地图生成方法及装置
Shao et al. Marble: Mobile augmented reality using a distributed ble beacon infrastructure
CN113542679B (zh) 一种图像播放方法及装置
CN107248138B (zh) 虚拟现实环境中的人类视觉显著性预测方法
US20230326147A1 (en) Helper data for anchors in augmented reality
CN114900742A (zh) 基于视频推流的场景旋转过渡方法以及***
CN114900743A (zh) 基于视频推流的场景渲染过渡方法以及***
CN114900621A (zh) 特效视频确定方法、装置、电子设备及存储介质
Kholodilin et al. Calibration and three-dimensional reconstruction with a photorealistic simulator based on the omnidirectional vision system
CN115830104A (zh) 一种移动路径生成方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant