CN110458897A - 多摄像头自动标定方法及***、监控方法及*** - Google Patents
多摄像头自动标定方法及***、监控方法及*** Download PDFInfo
- Publication number
- CN110458897A CN110458897A CN201910746029.7A CN201910746029A CN110458897A CN 110458897 A CN110458897 A CN 110458897A CN 201910746029 A CN201910746029 A CN 201910746029A CN 110458897 A CN110458897 A CN 110458897A
- Authority
- CN
- China
- Prior art keywords
- camera
- calibrated
- vision map
- information
- vision
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
Abstract
本申请属于视频监控技术领域,特别涉及一种多摄像头自动标定方法及***、多相机协同监控方法及***。多摄像头自动标定方法包括如下步骤:获取指定区域的第一图像信息;根据第一图像信息构建指定区域的视觉地图;获取多个待标定摄像头所捕获的多个第二图像信息,并将多个第二图像信息逐一与视觉地图进行特征点匹配;根据匹配结果逐一获得每个待标定摄像头的位姿信息和预定参数信息,再根据位姿信息和预定参数信息逐一对每个待标定摄像头进行标定。本申请的多摄像头自动标定方法及***、监控方法及***,能够解决现有的摄像机标定方法存在的复杂性高、普适性低等缺点,实现了一种只需操作单个摄像机就可以完成的半自动化的多摄像机自标定方式。
Description
技术领域
本申请属于视频监控技术领域,特别涉及一种多摄像头自动标定方法及***、多相机协同监控方法及***。
背景技术
随着经济环境、政治环境、社会环境的变化和日趋复杂,各行业对安防的需求不断增加,同时对于安防技术的应用性、灵活性、人性化也提出了更高的要求。视频监控***作为最直接、最有效的的***集成方案,近年来也成为了科研和工业领域最热门的研究方向。以摄像头为输入的安防解决方案近年来凭借其高性能、高便捷性、高稳定性等优良特点迅速占据了市场的有利位置。智能视频监控(IVS)通过分析摄像头传入的视频信号完成行人识别、车牌识别、人体检测等功能,依照识别出的内容做出进一步的思考和判断,并在此基础上采取行动,通过这一系列的流程我们就可以真正让视频监控代替人类去观察世界。
市场上成熟的IVS大都是基于单摄像头***或是非级联式摄像头组来完成的,单摄像头提供了一种2D的画面,在信息处理的精确度上存在着一定的缺陷,同时不能很好的应对物体遮挡、多目标追踪等实际场景问题。所以,多摄像头协同模式成为了新的发展和研究热点。多摄像头协同,即通过多个摄像头之间信息的交互,融合多个摄像头端信息,为每个摄像头分配最合适当前环境的任务,协同完成***总目标,可以解决单摄像头存在的视野狭窄、目标遮挡的问题,同时可以满足安放领域的一些其他需求。这种集成方式在当前的行人检测、目标跟踪、行人再识别的科学研究中有了比较好的效果,同时在智能安防***中也慢慢占据了重要地位。
尽管多摄像头在信息处理和整合上具有很大的优势,但是精准的标定流程才能使得多摄像头***正常工作,通常来讲摄像机标定主要包括传统相机标定方法、主动视觉摄像机标定方法以及摄像机自标定方法。
传统标定方法是要利用已知景物结构信息来进行标定,通常会涉及到复杂的标定过程和高精度的已知标定信息,需要专业人士进行复杂操作。并且,之后每更换一次相机组的位置,都需要进行一次重新标定的操作。
主动视觉相机标定的方法是已知某些相机的运动信息,通过运动方程求解的方式来获得标定结果,这种方法不能适用于摄像机运动未知和无法控制的场合。
摄像机自标定算法是依靠多幅图像之间的对应关系进行标定,这种方法仅仅需要建立图像之间的关系,从而完成相机标定;但是,这种方法属于非线性标定,鲁棒性不高。
发明内容
为了解决上述技术问题至少之一,本申请提供了一种多摄像头自动标定方法及***、多相机协同监控方法及***。
第一方面,本申请公开了一种多摄像头自动标定方法,包括如下步骤:
获取指定区域的第一图像信息;
根据所述第一图像信息构建所述指定区域的视觉地图;
获取多个待标定摄像头所捕获的多个第二图像信息,并将多个所述第二图像信息逐一与所述视觉地图进行特征点匹配;
根据匹配结果逐一获得每个所述待标定摄像头的位姿信息和预定参数信息,再根据所述位姿信息和预定参数信息逐一对每个所述待标定摄像头进行标定。
根据本申请的至少一个实施方式,所述第一图像信息包括视频帧数据和每个图像帧所对应的初始摄像机位姿,其中
根据所述第一图像信息构建所述指定区域的视觉地图,包括:
按照所述视频帧数据的采集时间线,依次将全部的图像帧的3D点云进行叠加,生成所述指定区域的初步3D模型;
按照所述视频帧数据的采集时间线,抽取每个图像帧中的2D特征点,将所有图像帧之间进行特征点匹配,生成所有图像帧的3D结构;
将所述3D结构映射到所述初步3D模型上,从而生成所述视觉地图。
根据本申请的至少一个实施方式,所述的多摄像头自动标定方法还包括:
将得到的所述视觉地图进行实时传输;和/或;
获取所述待标定摄像头完成标定后的信息,并将所述信息同步至所述视觉地图,再将同步后的所述视觉地图进行实时传输。
根据本申请的至少一个实施方式,将多个所述第二图像信息逐一与所述视觉地图进行特征点匹配,包括:
将所述第二图像信息中的2D特征点和3D视觉地图中对应点云的特征点进行匹配。
第二方面,本申请公开了一种多摄像头自动标定***,包括:
初始摄像机,用于获取指定区域的第一图像信息;
视觉地图构建模块,用于根据所述第一图像信息构建所述指定区域的视觉地图;
特征点匹配模块,用于获取多个待标定摄像头所捕获的多个第二图像信息,并将多个所述第二图像信息逐一与所述视觉地图进行特征点匹配;
标定模块,用于根据匹配结果逐一获得每个所述待标定摄像头的位姿信息和预定参数信息,再根据所述位姿信息和预定参数信息逐一对每个所述待标定摄像头进行标定。
根据本申请的至少一个实施方式,所述初始摄像机为RGBD相机,且具备视觉SLAM功能,其中
所述第一图像信息包括视频帧数据和每个图像帧所对应的初始摄像机位姿。
根据本申请的至少一个实施方式,所述视觉地图构建模块包括:
初步3D模型构建单元,用于按照所述视频帧数据的采集时间线,依次将全部的图像帧的3D点云进行叠加,生成所述指定区域的初步3D模型;
3D结构生成单元,用于按照所述视频帧数据的采集时间线,抽取每个图像帧中的2D特征点,将所有图像帧之间进行特征点匹配,生成所有图像帧的3D结构;以及
视觉地图生成单元,用于将所述3D结构映射到所述初步3D模型上,从而生成所述视觉地图。
根据本申请的至少一个实施方式,所述视觉地图构建模块还用于获取所述待标定摄像头完成标定后的信息,并将所述信息同步至所述视觉地图;其中
所述多摄像头自动标定***还包括:
可视化单元,用于根据所述视觉地图构建模块实时传输的视觉地图信息,对所述视觉地图进行实时显示。
第三方面,本申请公开了一种多相机协同监控方法,包括如下步骤:
通过上述第一方面任一项所述的多摄像头自动标定方法对指定区域内的每个相机进行标定;
通过完成标定后的多个相机捕获所述指定区域的多个第三图像信息;
根据多个所述第三图像信息进行目标检测处理和/或多目标追踪处理和/或行人重识别处理;
将处理结果在多摄像头自动标定步骤中得到的视觉地图中进行3D形态的动态展示。
第四方面,本申请公开了一种多相机协同监控***,包括:
多摄像头标定***,所述多摄像头标定***采用上述第二方面任一项所述的多摄像头标定***,用于对指定区域内的每个相机进行标定;
多个相机,用于在完成标定后的捕获所述指定区域的多个第三图像信息;
监控处理模块,用于根据多个所述第三图像信息进行目标检测处理和/或多目标追踪处理和/或行人重识别处理;
显示模块,用于将处理结果在视觉地图中进行3D形态的动态展示,其中,所述视觉地图由所述多摄像头标定***对指定区域内的每个相机进行标定时生成。
本申请至少存在以下有益技术效果:
本申请的多摄像头自动标定方法及***、多相机协同监控方法及***中,通过生成指定区域3D模型,再根据已有的模型进行待标定摄像头标定,解决现有的摄像机标定方法存在的复杂性高、普适性低等缺点,实现了一种只需操作单个摄像机就可以完成的半自动化的多摄像机自标定方式;同时,经过标定的多摄像机协作模式可以更好的实现一系列智能分析处理的过程,给出3D的分析信息。
附图说明
图1是本申请多摄像头自动标定方法的一优选实施例的流程图;
图2是本申请多摄像头自动标定方法中的视觉地图构建方法的一优选实施例的流程图;
图3是本申请多摄像头自动标定***的一优选实施例的框架图;
图4是本申请多摄像头自动标定***中的视觉地图构建模块的一优选实施例的框架图;
图5是本申请多相机协同监控方法的一优选实施例的流程图;
图6是本申请多相机协同监控***的一优选实施例的框架图。
具体实施方式
为使本申请实施的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行更加详细的描述。在附图中,自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。所描述的实施例是本申请一部分实施例,而不是全部的实施例。下面通过参考附图描述的实施例是示例性的,旨在用于解释本申请,而不能理解为对本申请的限制。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。下面结合附图对本申请的实施例进行详细说明。
在正式对本申请的各方法和***进行描述之前,先对涉及到的行业内的一些专用术语、专用英文缩略语进行英文全文、中文全文解释,具体如下:
1)SLAM
SLAM(simultaneous localization and mapping),即时定位与地图构建。问题可以描述为:将一个机器人放入未知环境中的未知位置,是否有办法让机器人一边移动一边逐步描绘出此环境完全的地图,所谓完全的地图(a consistent map)是指不受障碍行进到房间可进入的每个角落。SLAM要求实时性。
2)Visual SLAM
视觉SLAM,基于图像匹配算法的SLAM技术。
3)SFM
SFM(Structure from motion),即运动恢复结构是一种通过分析图像序列得到相机参数并进行三维重建的技术。SFM不要求实时性,可以离线处理。
4)3D地图
SLAM或SFM将二位相机图片中的特征点投射到三维空间,生成3D的点云地图。这些3D点云是做相机定位的关键信息。
5)相机标定
在图像测量过程以及机器视觉应用中,为确定空间物体表面某点的三维几何位置与其在图像中对应点之间的相互关系,必须建立相机成像的几何模型,这些几何模型参数就是相机参数。在大多数条件下这些参数必须通过实验与计算才能得到,这个求解参数的过程就称之为相机标定(或摄像机标定)。
6)智能视频监控
智能视频监控(IVS intelligent video surveillance)是采用图像处理、模式识别和计算机视觉技术,通过在监控***中增加智能视频分析模块,借助计算机强大的数据处理能力过滤掉视频画面无用的或干扰信息、自动识别不同物体,分析抽取视频源中关键有用信息,快速准确的定位事故现场,判断监控画面中的异常情况,并以最快和最佳的方式发出警报或触发其它动作,从而有效进行事前预警,事中处理,事后及时取证的全自动、全天候、实时监控的智能***。
下面将结合附图1-图6对本申请的多摄像头自动标定方法及***、多相机协同监控方法及***进一步详细说明。
由背景技术部分的论述可知,在智能监控***中,多摄像头模式可以带来安防效果的大幅度提升;但是,如何完成多摄像机协作、如何完成标定成为了这项任务中的重点难点,因此使用SLAM/SFM的思路,去完成精确快速的半自动化相机标定,是本申请的重点。
第一方面,如图1所示,本申请公开了一种多摄像头自动标定方法,包括如下步骤:
步骤S11、获取指定区域的第一图像信息。
其中,指定区域可以根据用户需要选择为多种适合的场景区域,例如用户室内的客厅、办公区前台、学校教室等区域。
进一步地,在本步骤S11中,指定区域的第一图像信息的捕获可以通过多种适合的扫描采集装置;本实施例中,定义扫描采集装置为初始摄像机,需要说明的是,该初始摄像机可以独立于后续的待标定摄像头而存在,当然,在一些情况下,也可以将待标定摄像头作为初始摄像机进行使用。
进一步,本实施例中,优选扫描采集装置是RGBD(即具有彩色+深度模式)相机,其具体可以是双目相机、TOF(time of light)或结构光与RGB组成的模组等等;并且,扫描采集装置具备Visual SLAM功能。采用RGBD相机的好处是,RGBD相机可以生成3D点云,同时将RGB纹理与点云对应,从而提高模型的精度。如果只采用RGB相机,模型的精度和点云密度会大大降低。
进一步地,通过初始摄像机对定区域的拍摄(或叫扫描)是一个持续过程,可以采用多种适合的拍摄方式;本实施例中,优选为用户手动模式和机器人自动模式。
用户手动模式是用户手持RGBD相机进行扫描;同时,还可以设置一个可视化设备(手机、电脑、VR眼镜等),实时显示当前已经建立模型,从而帮助用户更方便地完成扫描过程。
机器人自动建模是采用相应的家用机器人、无人机等具有自主移动能力的摄像头,通过SLAM+自主导航算法(扫描路径规划),自动完成全屋扫描。
步骤S12、根据第一图像信息构建指定区域的视觉地图(3D地图)。
其中,视觉地图的构建可以采用目前已知的多种适合的方式。本实施例中,如上所述,初始摄像机为RGBD相机,且具备Visual SLAM功能,通过初始摄像机进行采集时,可以记录初始摄像机的移动轨迹和初始摄像机的实时位姿;具体地,使得采集到的第一图像信息中包括视频帧数据和每个图像帧所对应的初始摄像机位姿。
基于此,如图2所示,本实施例中,上述步骤S12具体可以分为:
步骤S121、按照视频帧数据的采集时间线,依次将全部的图像帧的3D点云进行叠加,经过预定的优化和网格化方法处理,就能实时的生成指定区域的初步的3D模型。
步骤S122、同样按照上述视频帧数据的采集时间线,抽取每个图像帧中的2D特征点(feature point),进一步优选采用SFM的技术,将所有2D图像帧之间进行特征点匹配,生成所有图像帧的3D结构。
步骤S123、将3D结构映射到初步3D模型上,从而生成视觉地图。其中,选用的对应算法会对所有点云做全局优化,以保证最佳的映射效果。
上述步骤S122-步骤S123的过程,相当于是将2D图像纹理映射到3D点云上的过程,因此可以生成带纹理的全屋模型。另外,2D图像上的特征点也和空间中3D点有了映射关系,所以可以生成视觉地图。其中,视觉地图是由特征点的3D坐标和2D图像特征和对应相机位姿构成,用于后续的相机标定。
还需要说明的是,上述视觉地图生成过程可以是离线,也可以是在线,取决于服务器(处理器)计算能力,服务器可以部署在云端,也可以部署在本地(如家用PC,甚至也可以是机器人、手机等具有足够算力的设备)。并且,本申请并不限定具体的SFM算法、关键点算法和映射优化算法。
步骤S13、获取多个待标定摄像头所捕获的多个第二图像信息,并将多个第二图像信息逐一与视觉地图进行特征点匹配。
具体地,本实施例中,用户可以自如安防多个待标定摄像头,在上述获取到室内3D视觉地图之后,通过每个待标定摄像头之中获取的每个第二图像信息的2D特征点和3D视觉地图中对应点云的特征点进行匹配(又叫关键点匹配)。
步骤S14、根据匹配结果逐一获得每个待标定摄像头的位姿信息和预定参数信息,再根据位姿信息和预定参数信息逐一对每个待标定摄像头进行标定。
在本步骤S14中进行关键点匹配之后,能够获得拍摄该特征图片(即第二图像)所对应摄像机(即待标定摄像头)的位姿,之后调整待标定摄像机的参数,即可完成摄像机的标定。
上述步骤S13-步骤S14相当于相机自标定过程,整个过程是全自动的。另外,待标定摄像头的位置可以更新到3D视觉地图中,并在3D可视化模型中显示相机的视场范围。
进一步地,本申请的多摄像头自动标定方法中,构建完成视觉地图后,还可以包括:
步骤S15、将得到的视觉地图进行实时传输;和/或;
获取待标定摄像头完成标定后的信息,并将信息同步至视觉地图,再将同步后的视觉地图进行实时传输。
需要说明的是,本步骤S15并不限定其一定在哪一步骤之后;其可以紧随步骤S12,即将得到的视觉地图进行实时传输;另外,其也可以是紧随步骤S14,即将同步处理后的视觉地图进行实时传输。具体地,视觉地图可以传输至对应可视化设备上,例如手机、电脑、VR眼镜等。
本申请的多摄像头自动标定方法中,支持待标定摄像头完成实时动态标定,对应一些具有移动云台的相机,或者自主移动的摄像头(机器人等),可以实时完成标定,将相机的平面图像直接投射到三维模型上。因此,在使用过程中,待标定摄像头可以把标定好的信息同步到视觉地图当中,以适应室内环境的变化。
综上所述,本申请的多摄像头自动标定方法,通过生成指定区域3D模型,再根据已有的模型进行待标定摄像头标定,解决现有的摄像机标定方法存在的复杂性高、普适性低等缺点,实现了一种只需操作单个摄像机就可以完成的半自动化的多摄像机自标定方式。
第二方面,如图3所示,本申请公开了一种多摄像头自动标定***,可以包括初始摄像机21、视觉地图构建模块22、特征点匹配模块23、标定模块24等部分。
初始摄像机21,用于获取指定区域的第一图像信息。其中,初始摄像机21的类型、拍摄方式等,可以参见上述第一方面的多摄像头自动标定方法中关于扫描采集装置的陈述,此处不再赘述。
视觉地图构建模块22,用于根据第一图像信息构建指定区域的视觉地图。
同样地,由于初始摄像机为RGBD相机,且具备视觉SLAM功能,使得第一图像信息包括视频帧数据和每个图像帧所对应的初始摄像机位姿;因此,如图4所示,本实施例中,视觉地图构建模块22具体又可以包括初步3D模型构建单元221、3D结构生成单元222以及视觉地图生成单元223。
初步3D模型构建单元221,用于按照视频帧数据的采集时间线,依次将全部的图像帧的3D点云进行叠加,生成指定区域的初步3D模型。
3D结构生成单元222,用于按照视频帧数据的采集时间线,抽取每个图像帧中的2D特征点,将所有图像帧之间进行特征点匹配,生成所有图像帧的3D结构。
视觉地图生成单元223,用于将3D结构映射到初步3D模型上,从而生成视觉地图。
特征点匹配模块23,用于获取多个待标定摄像头所捕获的多个第二图像信息,并将多个第二图像信息逐一与视觉地图进行特征点匹配。
标定模块24,用于根据匹配结果逐一获得每个待标定摄像头的位姿信息和预定参数信息,再根据位姿信息和预定参数信息逐一对每个待标定摄像头进行标定。
进一步地,上述视觉地图构建模块22还能够用于获取待标定摄像头完成标定后的信息,并将信息同步至视觉地图,最后再将同步后的视觉地图进行传输。
其中,本申请的多摄像头自动标定***进一步还包括可视化单元25,用于根据视觉地图构建模块实时传输的视觉地图(包括最开始生成的视觉地图和/或后续同步处理后的视觉地图)信息,对视觉地图进行实时显示。同样地,可视化单元25可以是例如手机、电脑、VR眼镜等。
综上所述,本申请的多摄像头自动标定***,通过生成指定区域3D模型,再根据已有的模型进行待标定摄像头标定,解决现有的摄像机标定方法存在的复杂性高、普适性低等缺点,实现了一种只需操作单个摄像机就可以完成的半自动化的多摄像机自标定方式。
进一步地,在完成多个摄像机标定之后,可以获得一个3D的多相机空间模型,可以整合多个摄像头信息,能够在目标检测、多目标追踪、行人重识别等业务上获得更好的效果。
为此,第三方面,如图5所示,本申请公开了一种多相机协同监控方法,包括如下步骤:
步骤S31、通过上述第一方面任一项所述的多摄像头自动标定方法对指定区域内的每个相机进行标定。
步骤S32、通过完成标定后的多个相机捕获所述指定区域的多个第三图像信息。
步骤S33、根据多个第三图像信息进行目标检测处理和/或多目标追踪处理和/或行人重识别处理。
步骤S34、将处理结果在多摄像头自动标定步骤中得到的视觉地图中进行3D形态的动态展示。
第四方面,如图6所示,本申请公开了一种多相机协同监控***,包括多摄像头标定***41、多个相机42、监控处理模块43以及显示模块44。
多摄像头标定***41,采用上述第三方面中任一项所述的多摄像头标定***,用于对指定区域内的每个相机42进行标定;
多个相机42安装在指定区域预定位置处,用于在完成标定后的捕获指定区域的多个第三图像信息。
监控处理模块43,用于根据多个第三图像信息进行目标检测处理和/或多目标追踪处理和/或行人重识别处理。其中,目标检测、多目标追踪以及行人重识别的具体处理方法可以采用目前已知的智能视频监控中的对应处理方法,此处不再赘述。
显示模块44,用于将处理结果在视觉地图中进行3D形态的动态展示,其中,视觉地图由多摄像头标定***(即是第一方面中步骤S12中描述的视觉地图)对指定区域内的每个相机进行标定时生成。另外,本实施例中的显示模块44可以是上述第一、第二方面中描述的可视化单元和设备。
综上,本申请的多相机协同监控方法及***,根据3D模型和相机位姿,直接计算出相机之间的几何关系,可以将多个相机的2D的图像信息,整合成3D的空间信息,从而实现3D的目标检测跟踪算法。可以更好处理,物体遮挡,多目标跟踪等任务。
进一步地,本申请的多相机协同监控方法及***,将2D监控升级为3D监控方案,所有的摄像机信息真个到一个空间模型里,所有被监控的动态信息(人、宠物、移动设备等)、以及一些环境的变化(桌椅移动,等)都可以以3D的形态动态的展示在3D的房间模型里,从而实现整个室内场景的全方位智能监控。
下面将以一具体实例运用对本申请的多摄像头自动标定方法及***、多相机协同监控方法及***做进一步陈述。
具体地,是在家庭场景中安装多个标定过的摄像头,从而实现全方位的宠物运动追踪、电子看护和危险预警等功能,步骤如下:
首先使用一个摄像头在家中拍摄视频,根据手机端app的提示完成家庭场景的3D建模;这个过程上内置的计算机视觉算法根据采集到的视频序列重建3D模型,并且可以在手机端看到重构之后可视化的结果。
之后,将四个相机安装在之前计划的位置,同样根据上述标定方法操作在手机端实现标定;此刻,所使用的相机就是经过标定和校准可以协同工作的多摄像头***。
最后,在其中加入了宠物的检测、运动追踪等智能化应用,可以实现更为高效、准确的宠物运动轨迹生成和分析。同时,还根据上述结果加入电子看护和危险预警功能,可以全方位实现宠物的无人看管。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。
Claims (10)
1.一种多摄像头自动标定方法,其特征在于,包括如下步骤:
获取指定区域的第一图像信息;
根据所述第一图像信息构建所述指定区域的视觉地图;
获取多个待标定摄像头所捕获的多个第二图像信息,并将多个所述第二图像信息逐一与所述视觉地图进行特征点匹配;
根据匹配结果逐一获得每个所述待标定摄像头的位姿信息和预定参数信息,再根据所述位姿信息和预定参数信息逐一对每个所述待标定摄像头进行标定。
2.根据权利要求1所述的多摄像头自动标定方法,其特征在于,所述第一图像信息包括视频帧数据和每个图像帧所对应的初始摄像机位姿,其中
根据所述第一图像信息构建所述指定区域的视觉地图,包括:
按照所述视频帧数据的采集时间线,依次将全部的图像帧的3D点云进行叠加,生成所述指定区域的初步3D模型;
按照所述视频帧数据的采集时间线,抽取每个图像帧中的2D特征点,将所有图像帧之间进行特征点匹配,生成所有图像帧的3D结构;
将所述3D结构映射到所述初步3D模型上,从而生成所述视觉地图。
3.根据权利要求1或3所述的多摄像头自动标定方法,其特征在于,还包括:
将得到的所述视觉地图进行实时传输;和/或;
获取所述待标定摄像头完成标定后的信息,并将所述信息同步至所述视觉地图,再将同步后的所述视觉地图进行实时传输。
4.根据权利要求1所述的多摄像头自动标定方法,其特征在于,将多个所述第二图像信息逐一与所述视觉地图进行特征点匹配,包括:
将所述第二图像信息中的2D特征点和3D视觉地图中对应点云的特征点进行匹配。
5.一种多摄像头自动标定***,其特征在于,包括:
初始摄像机,用于获取指定区域的第一图像信息;
视觉地图构建模块,用于根据所述第一图像信息构建所述指定区域的视觉地图;
特征点匹配模块,用于获取多个待标定摄像头所捕获的多个第二图像信息,并将多个所述第二图像信息逐一与所述视觉地图进行特征点匹配;
标定模块,用于根据匹配结果逐一获得每个所述待标定摄像头的位姿信息和预定参数信息,再根据所述位姿信息和预定参数信息逐一对每个所述待标定摄像头进行标定。
6.根据权利要求5所述的多摄像头自动标定***,其特征在于,所述初始摄像机为RGBD相机,且具备视觉SLAM功能,其中
所述第一图像信息包括视频帧数据和每个图像帧所对应的初始摄像机位姿。
7.根据权利要求6所述的多摄像头自动标定***,其特征在于,所述视觉地图构建模块包括:
初步3D模型构建单元,用于按照所述视频帧数据的采集时间线,依次将全部的图像帧的3D点云进行叠加,生成所述指定区域的初步3D模型;
3D结构生成单元,用于按照所述视频帧数据的采集时间线,抽取每个图像帧中的2D特征点,将所有图像帧之间进行特征点匹配,生成所有图像帧的3D结构;以及
视觉地图生成单元,用于将所述3D结构映射到所述初步3D模型上,从而生成所述视觉地图。
8.根据权利要求5或7所述的多摄像头自动标定***,其特征在于,所述视觉地图构建模块还用于获取所述待标定摄像头完成标定后的信息,并将所述信息同步至所述视觉地图;其中
所述多摄像头自动标定***还包括:
可视化单元,用于根据所述视觉地图构建模块实时传输的视觉地图信息,对所述视觉地图进行实时显示。
9.一种多相机协同监控方法,其特征在于,包括如下步骤:
通过如权利要求1-4任一项所述的多摄像头自动标定方法对指定区域内的每个相机进行标定;
通过完成标定后的多个相机捕获所述指定区域的多个第三图像信息;
根据多个所述第三图像信息进行目标检测处理和/或多目标追踪处理和/或行人重识别处理;
将处理结果在多摄像头自动标定步骤中得到的视觉地图中进行3D形态的动态展示。
10.一种多相机协同监控***,其特征在于,包括:
多摄像头标定***,所述多摄像头标定***采用如权利要求5-8任一项所述的多摄像头标定***,用于对指定区域内的每个相机进行标定;
多个相机,用于在完成标定后的捕获所述指定区域的多个第三图像信息;
监控处理模块,用于根据多个所述第三图像信息进行目标检测处理和/或多目标追踪处理和/或行人重识别处理;
显示模块,用于将处理结果在视觉地图中进行3D形态的动态展示,其中,所述视觉地图由所述多摄像头标定***对指定区域内的每个相机进行标定时生成。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910746029.7A CN110458897B (zh) | 2019-08-13 | 2019-08-13 | 多摄像头自动标定方法及***、监控方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910746029.7A CN110458897B (zh) | 2019-08-13 | 2019-08-13 | 多摄像头自动标定方法及***、监控方法及*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110458897A true CN110458897A (zh) | 2019-11-15 |
CN110458897B CN110458897B (zh) | 2020-12-01 |
Family
ID=68486268
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910746029.7A Active CN110458897B (zh) | 2019-08-13 | 2019-08-13 | 多摄像头自动标定方法及***、监控方法及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110458897B (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110910493A (zh) * | 2019-11-29 | 2020-03-24 | 广州极飞科技有限公司 | 三维重建方法、装置及电子设备 |
CN110996087A (zh) * | 2019-12-10 | 2020-04-10 | 腾讯科技(深圳)有限公司 | 视频显示方法、装置 |
CN111539299A (zh) * | 2020-04-20 | 2020-08-14 | 上海曼恒数字技术股份有限公司 | 一种基于刚体的人体运动捕捉方法、装置、介质及设备 |
CN112270753A (zh) * | 2020-11-09 | 2021-01-26 | 珠海格力智能装备有限公司 | 三维建图方法及装置、电子设备 |
CN113077519A (zh) * | 2021-03-18 | 2021-07-06 | 中国电子科技集团公司第五十四研究所 | 一种基于人体骨架提取的多相机外参自动标定方法 |
US11188776B2 (en) | 2019-10-26 | 2021-11-30 | Genetec Inc. | Automated license plate recognition system and related method |
CN113763481A (zh) * | 2021-08-16 | 2021-12-07 | 北京易航远智科技有限公司 | 一种移动场景中多相机视觉三维地图构建与自标定方法 |
CN113840159A (zh) * | 2021-09-26 | 2021-12-24 | 北京沃东天骏信息技术有限公司 | 视频处理方法、装置、计算机***及可读存储介质 |
US11367267B2 (en) | 2018-02-08 | 2022-06-21 | Genetec Inc. | Systems and methods for locating a retroreflective object in a digital image |
CN114726996A (zh) * | 2021-01-04 | 2022-07-08 | 北京外号信息技术有限公司 | 用于建立空间位置与成像位置之间的映射的方法和*** |
CN116588328A (zh) * | 2023-05-18 | 2023-08-15 | 北京积加科技有限公司 | 一种直升机周期变距和总距控制装置及方法 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101086681A (zh) * | 2006-06-09 | 2007-12-12 | 中国科学院自动化研究所 | 基于立体视觉的游戏控制***及方法 |
CN101630406A (zh) * | 2008-07-14 | 2010-01-20 | 深圳华为通信技术有限公司 | 摄像机的标定方法及摄像机标定装置 |
US20120257065A1 (en) * | 2011-04-08 | 2012-10-11 | Qualcomm Incorporated | Systems and methods to calibrate a multi camera device |
CN104374395A (zh) * | 2014-03-31 | 2015-02-25 | 南京邮电大学 | 基于图的视觉slam方法 |
CN105300375A (zh) * | 2015-09-29 | 2016-02-03 | 塔米智能科技(北京)有限公司 | 一种基于单视觉的机器人室内定位和导航方法 |
CN106652026A (zh) * | 2016-12-23 | 2017-05-10 | 安徽工程大学机电学院 | 基于多传感器融合的三维空间自动标定的方法 |
CN107392964A (zh) * | 2017-07-07 | 2017-11-24 | 武汉大学 | 基于室内特征点和结构线结合的室内slam方法 |
CN108510530A (zh) * | 2017-02-28 | 2018-09-07 | 深圳市朗驰欣创科技股份有限公司 | 一种三维点云匹配方法及其*** |
CN108734654A (zh) * | 2018-05-28 | 2018-11-02 | 深圳市易成自动驾驶技术有限公司 | 绘图与定位方法、***及计算机可读存储介质 |
CN109754432A (zh) * | 2018-12-27 | 2019-05-14 | 深圳市瑞立视多媒体科技有限公司 | 一种相机自动标定方法及光学动作捕捉*** |
-
2019
- 2019-08-13 CN CN201910746029.7A patent/CN110458897B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101086681A (zh) * | 2006-06-09 | 2007-12-12 | 中国科学院自动化研究所 | 基于立体视觉的游戏控制***及方法 |
CN101630406A (zh) * | 2008-07-14 | 2010-01-20 | 深圳华为通信技术有限公司 | 摄像机的标定方法及摄像机标定装置 |
US20120257065A1 (en) * | 2011-04-08 | 2012-10-11 | Qualcomm Incorporated | Systems and methods to calibrate a multi camera device |
CN104374395A (zh) * | 2014-03-31 | 2015-02-25 | 南京邮电大学 | 基于图的视觉slam方法 |
CN105300375A (zh) * | 2015-09-29 | 2016-02-03 | 塔米智能科技(北京)有限公司 | 一种基于单视觉的机器人室内定位和导航方法 |
CN106652026A (zh) * | 2016-12-23 | 2017-05-10 | 安徽工程大学机电学院 | 基于多传感器融合的三维空间自动标定的方法 |
CN108510530A (zh) * | 2017-02-28 | 2018-09-07 | 深圳市朗驰欣创科技股份有限公司 | 一种三维点云匹配方法及其*** |
CN107392964A (zh) * | 2017-07-07 | 2017-11-24 | 武汉大学 | 基于室内特征点和结构线结合的室内slam方法 |
CN108734654A (zh) * | 2018-05-28 | 2018-11-02 | 深圳市易成自动驾驶技术有限公司 | 绘图与定位方法、***及计算机可读存储介质 |
CN109754432A (zh) * | 2018-12-27 | 2019-05-14 | 深圳市瑞立视多媒体科技有限公司 | 一种相机自动标定方法及光学动作捕捉*** |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11830256B2 (en) | 2018-02-08 | 2023-11-28 | Genetec Inc. | Systems and methods for locating a retroreflective object in a digital image |
US11367267B2 (en) | 2018-02-08 | 2022-06-21 | Genetec Inc. | Systems and methods for locating a retroreflective object in a digital image |
US11188776B2 (en) | 2019-10-26 | 2021-11-30 | Genetec Inc. | Automated license plate recognition system and related method |
CN110910493A (zh) * | 2019-11-29 | 2020-03-24 | 广州极飞科技有限公司 | 三维重建方法、装置及电子设备 |
CN110910493B (zh) * | 2019-11-29 | 2021-05-14 | 广州极飞科技股份有限公司 | 三维重建方法、装置及电子设备 |
CN110996087A (zh) * | 2019-12-10 | 2020-04-10 | 腾讯科技(深圳)有限公司 | 视频显示方法、装置 |
CN110996087B (zh) * | 2019-12-10 | 2021-04-02 | 腾讯科技(深圳)有限公司 | 视频显示方法、装置 |
CN111539299A (zh) * | 2020-04-20 | 2020-08-14 | 上海曼恒数字技术股份有限公司 | 一种基于刚体的人体运动捕捉方法、装置、介质及设备 |
CN111539299B (zh) * | 2020-04-20 | 2024-03-01 | 上海曼恒数字技术股份有限公司 | 一种基于刚体的人体运动捕捉方法、装置、介质及设备 |
CN112270753A (zh) * | 2020-11-09 | 2021-01-26 | 珠海格力智能装备有限公司 | 三维建图方法及装置、电子设备 |
CN114726996B (zh) * | 2021-01-04 | 2024-03-15 | 北京外号信息技术有限公司 | 用于建立空间位置与成像位置之间的映射的方法和*** |
CN114726996A (zh) * | 2021-01-04 | 2022-07-08 | 北京外号信息技术有限公司 | 用于建立空间位置与成像位置之间的映射的方法和*** |
CN113077519B (zh) * | 2021-03-18 | 2022-12-09 | 中国电子科技集团公司第五十四研究所 | 一种基于人体骨架提取的多相机外参自动标定方法 |
CN113077519A (zh) * | 2021-03-18 | 2021-07-06 | 中国电子科技集团公司第五十四研究所 | 一种基于人体骨架提取的多相机外参自动标定方法 |
CN113763481A (zh) * | 2021-08-16 | 2021-12-07 | 北京易航远智科技有限公司 | 一种移动场景中多相机视觉三维地图构建与自标定方法 |
CN113763481B (zh) * | 2021-08-16 | 2024-04-05 | 北京易航远智科技有限公司 | 一种移动场景中多相机视觉三维地图构建与自标定方法 |
CN113840159A (zh) * | 2021-09-26 | 2021-12-24 | 北京沃东天骏信息技术有限公司 | 视频处理方法、装置、计算机***及可读存储介质 |
CN116588328A (zh) * | 2023-05-18 | 2023-08-15 | 北京积加科技有限公司 | 一种直升机周期变距和总距控制装置及方法 |
CN116588328B (zh) * | 2023-05-18 | 2024-03-19 | 北京积加科技有限公司 | 一种直升机周期变距和总距控制装置及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110458897B (zh) | 2020-12-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110458897A (zh) | 多摄像头自动标定方法及***、监控方法及*** | |
CN110415342B (zh) | 一种基于多融合传感器的三维点云重建装置与方法 | |
JP6974873B2 (ja) | シーンから深度情報を取得するための装置および方法 | |
US11748907B2 (en) | Object pose estimation in visual data | |
EP2870428B1 (en) | System and method for 3d measurement of the surface geometry of an object | |
US7825948B2 (en) | 3D video conferencing | |
JP5093053B2 (ja) | 電子カメラ | |
CN108154550A (zh) | 基于rgbd相机的人脸实时三维重建方法 | |
CN111046725B (zh) | 一种基于监控视频的人脸识别和点云融合的空间定位方法 | |
US20070076090A1 (en) | Device for generating three dimensional surface models of moving objects | |
CN109211103A (zh) | 推定*** | |
WO2018075053A1 (en) | Object pose based on matching 2.5d depth information to 3d information | |
EP2880635A1 (en) | System and method for generating a dynamic three-dimensional model | |
WO2019062056A1 (zh) | 一种智能投影方法、***及智能终端 | |
CN101581874B (zh) | 基于多摄像机采集的远程沉浸协同工作装置 | |
WO2022127181A1 (zh) | 客流的监测方法、装置、电子设备及存储介质 | |
KR20100090457A (ko) | 비강압적 3차원 얼굴 데이터 획득 시스템 및 그 방법 | |
Yang et al. | Seeing as it happens: Real time 3D video event visualization | |
KR101996907B1 (ko) | 객체 추적 장치 | |
JP2003256804A (ja) | 視野映像生成装置、視野映像生成方法、視野映像生成プログラムおよびそのプログラムを記録した記録媒体 | |
KR102494479B1 (ko) | 드론을 이용한 측위 공간정보 데이터를 활용한 증강현실 오클루젼 생성시스템 | |
CN115223023B (zh) | 基于立体视觉和深度神经网络的人体轮廓估计方法及装置 | |
EP3555847A1 (en) | Method and apparatus for constructing lighting environment representations of 3d scenes | |
CN211019070U (zh) | 立体视频采集*** | |
KR20160071172A (ko) | 스테레오 카메라를 이용한 파노라마 3차원 맵 생성시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |