CN108010079A - 基于投影融合和图像识别的状态信息远程监控***及方法 - Google Patents

基于投影融合和图像识别的状态信息远程监控***及方法 Download PDF

Info

Publication number
CN108010079A
CN108010079A CN201710978943.5A CN201710978943A CN108010079A CN 108010079 A CN108010079 A CN 108010079A CN 201710978943 A CN201710978943 A CN 201710978943A CN 108010079 A CN108010079 A CN 108010079A
Authority
CN
China
Prior art keywords
information
equipment
model
status information
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710978943.5A
Other languages
English (en)
Other versions
CN108010079B (zh
Inventor
高杰
姜广文
秦远辉
王明辉
申宇
赵辉
万然
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
CSSC Systems Engineering Research Institute
Original Assignee
CSSC Systems Engineering Research Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by CSSC Systems Engineering Research Institute filed Critical CSSC Systems Engineering Research Institute
Priority to CN201710978943.5A priority Critical patent/CN108010079B/zh
Publication of CN108010079A publication Critical patent/CN108010079A/zh
Application granted granted Critical
Publication of CN108010079B publication Critical patent/CN108010079B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/02Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明涉及一种基于投影融合和图像识别的状态信息监控***包括设备主体、感知模型、一个以上状态信息监视单元;感知模型在设备使用时置于投影成像及信息采集屏上,用于标记待观测设备;采用高性能计算机、超短焦投影设备、投影成像及信息采集屏、视频融合器和图像高速识别设备进行场景显示、模型信息采集以及融合处理显示,所述状态信息监视单元通过以太网与设备主体连接,用于远程参数配置和状态信息交互并监控三维模型场景实时状态信息。能够把实时布列状态以及工作状态信息进行分布式发布,解决了信息孤岛问题,将实时状态以一种直观、形象的三维方式展示出来。

Description

基于投影融合和图像识别的状态信息远程监控***及方法
技术领域
本发明涉及计算机人机交互技术领域,尤其涉及一种基于投影融合和图像识别的状态信息监控***及控制方法。
背景技术
近年来,随着计算机、光学、图形学、计算机视觉、虚拟现实和增强现实等技术的发展,各种各样的人机交互技术和人机交互式设备出现,基于超短焦投影融合和图像识别跟踪技术的通用交互设备是结合激光超短焦投影技术、图象识别跟踪技术、虚拟现实技术以及增强现实技术的一种保障设备技术方案。
原有的同类型交互式设备主要采用物理同比缩放模型,用于辅助相关人员,采用语音、视频、目视等传统手段对装备或设备位置、工作情况等信息进行维护,仍采用人工的使用方式,在交互设备上建立整体的工作态势信息,但不具备各缩放模型的自动识别能力,缺少智能自动化手段,不同的工作场景需要构建不同的物理模型,单设备不能通用化,并且交互设备一般在单一场景使用,无法在不同场所多部门协同操作。
发明内容
鉴于上述的分析,本发明旨在提供一种基于投影融合和图像识别的状态信息监控***及控制方法,用以克服现有技术中无法提供一种通用、可配置场景的方案,无法在不同场所自动、实时、直观地呈现全局工作态势,无法符合人机工学特点提供一种新的人机交互方式等诸多问题。
本发明的目的主要是通过以下技术方案实现的:
在基于本发明实施例的一个方面,提供了一种基于投影融合和图像识别的状态信息监控***,包括设备主体、感知模型、一个以上状态信息监视单元;所述设备主体包括高性能计算机、投影成像及信息采集屏、视频融合器、超短焦投影设备和图像高速识别设备;感知模型在设备使用时置于投影成像及信息采集屏上,用于标记待观测设备;采用高性能计算机、超短焦投影设备、投影成像及信息采集屏、视频融合器和图像高速识别设备进行场景显示、模型信息采集以及融合处理显示,所述状态信息监视单元通过以太网与设备主体连接,用于远程参数配置和状态信息交互并监控三维模型场景实时状态信息。
基于本发明***的另一个实施例中,每个状态信息监视单元均包括主机、三维显示屏和操控单元,主机与设备主体的高性能计算机进行数据交互,三维显示屏用于显示观测现场及待观测设备的三维模拟场景,操控单元用于远程参数配置和状态信息交互。
基于本发明***的另一个实施例中,还包括用于安装各组成设备的操控台体,为设备提供主体安装框架。
基于本发明***的另一个实施例中,进行场景显示时,由所述高性能计算机将场景图象输出到视频融合器,由视频融合器根据所需的分辨率进行视频分路显示,通过超短焦投影设备将图象投影到投影成像及信息采集屏进行成像显示;
进行模型信息采集时,两台以上图像高速识别设备同时采集放置在投影成像及信息采集屏上的感知模型信息,并将采集到的信息传输至高性能计算机,由计算机进行融合处理,并进行图像识别和跟踪,实时计算感知模型的位置;
用于融合处理显示时,高性能计算机根据采集到的信息构建感知模型的虚拟三维模型,与三维模拟场景进行融合,并由高性能计算机将其输出至状态信息监视单元的三维显示屏进行三维场景显示。
基于本发明***的另一个实施例中,还包括光线调节模组,光线调节模组用于操控台内部光路均匀,保证内部图像高速识别设备对图像信息采集及识别的正确率。
基于本发明***的另一个实施例中,感知模型为用于标记某一装备或设备的模型,具有特殊标识;工作时,感知模型摆放在投影成像及信息采集屏上,拖动感知模型来控制三维模拟场景下待观测设备对应的三维模型的同步显示。
在基于本发明实施例的另一个方面,提供了一种控制方法,包括:
步骤S1:***启动,超短焦投影设备根据高性能计算机提供的视频显示信息,在投影成像及信息采集屏上生成全局工作状态二维场景;
步骤S2:高性能计算机根据摆放在二维场景中的感知模型所携带的唯一标识,获取待观测设备的实体类型及状态信息、进行状态信息动态维护;
步骤S3:高性能计算机建立三维模拟场景,根据采集到的感知模型信息建立待观测设备对应的三维模型并与三维模拟场景融合,高性能计算机将包括三维模型及三维模拟场景的模型信息发布到以太网;
步骤S4:状态信息监视单元订阅步骤S3中高性能计算机发布的模型信息,按照接口协议对信息进行解析,并在三维显示屏上显示三维模拟场景及三维模型;
步骤S5:状态信息监视单元根据订阅信息内容变化,对模型信息进行实时更新;
步骤S6:操作人员通过操作操控单元,远程对感知模型的状态进行调整,最终效果显示在本地的三维显示屏上。
基于本发明方法的另一个实施例中,还包括操作人员通过三维模拟场景下待观测设备的实时状态根据工作需要进行操作,具体为:
步骤S01:保障推演及教学,利用记录的历史数据信息,重现全局工作态势,并对流程进行复现和回放;
步骤S02:场景漫游,通过控制感知模型,把该感知模型放在感知桌面的交互区域,在3D视角下,进行场景漫游,全面了解工作情况。
本发明有益效果:
一、能够把全局的工作态势信息集中在一起,采用交互台方式以一个简洁的方式显示出来,减少了人员之间的交互成本,提高了整体的作业效率,降低了出错的可能性;
二、采用实时自然的交互方式,采用“所见即所得”的形式反映实际工作态势,把视频或者音频中听到的信息变为看得到的实际物理模型和虚拟保障态势,可以更直观的了解全局的工作态势,便于使用人员掌握全局信息,做出决策;
三、交互设备通用化,可根据不同的应用需求,通过配置交互设备进行显示场景和底图的更换,一个设备通过部署不同的场景适应不同的应用;
四、可以进行相关流程推演和重现,可用于辅助使用人员快速对相关预案进行推演,便于发现问题,也可快速辅助使用人员熟悉运行流程;
五、简单便捷,无复杂操作,上手容易,符合人体操作及交互习惯;
六、能够把实时布列状态以及工作状态信息进行分布式发布,解决了信息孤岛问题,将实时状态以一种直观、形象的三维方式展示出来,提出了一种分布式的信息监视方式,拓展了***的使用场景,提高了信息共享程度,提升了设备使用效益。
本发明的其他特征和优点将在随后的说明书中阐述,并且,部分的从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
附图说明
附图仅用于示出具体实施例的目的,而并不认为是对本发明的限制,在整个附图中,相同的参考符号表示相同的部件。
图1为一种基于投影融合和图像识别的状态信息监控***的结构示意图;
图2为本发明一个实施例的光电设备光路正视图;
图3为本发明一个实施例的光电设备光路侧视图;
图4为感知模型的操作示意图。
具体实施方式
下面结合附图来具体描述本发明的优选实施例,其中,附图构成本申请一部分,并与本发明的实施例一起用于阐释本发明的原理。
根据本发明的一个具体实施例,公开了一种基于投影融合和图像识别的状态信息监控***,如图1所示,包括设备主体、感知模型、一个以上状态信息监视单元;所述设备主体包括高性能计算机、投影成像及信息采集屏、视频融合器、超短焦投影设备和图像高速识别设备;感知模型在设备使用时置于投影成像及信息采集屏上,用于标记待观测设备;所述***采用高性能计算机、超短焦投影设备、投影成像及信息采集屏、视频融合器和图像高速识别设备用于场景显示、模型信息采集以及融合处理显示,所述状态信息监视单元通过以太网与设备主体连接,用于远程参数配置和状态信息交互和远程监控三维模型场景实时状态信息。
状态信息监视单元包括主机和三维显示屏和操控单元,状态信息监视单元通过以太网与设备主体连接,主机与设备主体的高性能计算机进行数据交互,三维显示屏和操控单元通过连接固件与主机连接,三维显示屏用于显示观测现场及待观测设备的三维模拟场景,在本发明的一个具体实施例中状态信息监视单元采用分布式,实际应用中可部署于不同的使用场所,通过消息订阅-发布机制进行信息同步传输,并在状态信息监视单元进行场景重建。用于多场所同时远程显示三维模型场景实时状态信息,待观测设备的所有状态信息变化情况均可在状态信息监视单元的显示器上显示,便于远程监视全局状态,便于多部门协同操作,以及及时掌握待观测设备的实时状态并防止人为操作事故的发生;
操控单元,用于参数配置和状态信息交互并保障情况信息采集。为了便于操作人员操作,操控单元采用便捷式手持平板等移动终端,通过无线网络与主机连接,实现远距离操控,方便快捷。同时通过操控单元上设置的开关,可切换三维场景的状态,如场景白天、夜间状态显示;灯光开关显示;日光光照显示等,用于模拟真实环境。在投影融合和图像识别的交互***的基础之上,采用互联网分布式技术,将交互***的实时布列状态及保障情况信息发布到多个状态信息监视单元,各状态信息监视单元可进行分布式部署到不同场所,采用订阅-发布机制,采用三维模式重建交互***运行场景,对交互***的实时工作状态进行监控。状态信息监视单元可显示交互***布列信息、布列单元的状态信息以及设备状态工作状态信息;操控单元通过无线通信模块与交互***主机进行信息交互,不受设备空间限制,由人员携带进行各项功能操作,提高了设备的交互能力和使用便利性,提升了设备使用效益。
还包括状态信息发布单元,状态信息发布单元通过以太网与设备主体连接,自动采集观测现场及待观测设备的全局信息,比如设备的故障状态、开光状态和观测现场的灯光状态等信息,并自动将采集到的状态信息发布给设备主体用于模拟全局场景。自动接收和发送状态信息,自动维护相关设备的状态,减少人员操作的工作量,提高效率和准确性。
还包括用于安装各组成设备的操控台体,为设备提供主体安装框架;在本发明的一个具体实施例中,操控台体的台体机箱材料可采用高强度钣金或铝合金,配件材料采用不锈钢、优质钢材或高强度铝合金材料,台体外壁喷塑处理,导电胶条密封,内部进行滤波设计。操控台体的尺寸为长×宽×高为2000mm×1000mm×1000mm,交互区域尺寸为不小于1780mm×540mm。通过采用超短焦投影和视频融合技术,将投影显示限制在一个2000mm×1000mm×1000mm大小的类操控台体的交互空间之内,使设备小型化,提升了设备可应用性;
还包括光线调节模组,通过光线调节模组调节光线使得操控台内部光路均匀,保证内部摄像机对图像信息采集及识别的正确率。
本发明设备主体主要功能为场景显示功能、模型信息采集功能以及融合处理显示功能,核心控制设备为高性能计算机。
场景显示功能主要由高性能计算机将场景图象输出到视频融合器,由视频融合器根据所需的分辨率进行视频分路显示,通过投影设备将图象投影到投影成像及信息采集屏进行成像显示,高性能计算机为超短焦投影设备提供视频信息,利用图像高速识别设备及超短焦投影设备、投影成像及信息采集屏实现虚拟现实的交互区域,该交互区域显示二维俯视图;
模型信息采集功能主要是在投影成像及信息采集屏上放置带有专属标识的感知模型,两台以上图像高速识别设备采集视频图像信息同时采集感知模型上的标识信息,并将采集到的信息传输至视频融合器进行视频融合,后传输至高性能计算机;高性能计算机对采集到的信息进行数据分析和处理,计算感知模型在二维场景下的状态信息,该状态信息包括感知模型的位置和方向;
融合处理显示功能为将在二维场景下采集到的感知模型状态信息转化为三维信息在三维模拟场景下重构感知模型的虚拟三维模型,其中每个感知模型具有一个专属标识,与该专属标识绑定实际代表待观测设备的相关参数,如机型、旋翼折叠状态等,与唯一的待观测设备的虚拟三维模型建立一对一映射,实现二维模型到三维模型的重建,并与三维模拟场景进行融合,实现虚实结合的显示效果和良好的交互,最终将三维模拟场景及感知模型三维状态信息发布在三维显示屏上;在原理实现过程中,为有效提高感知模型的识别率,在设备内部通过光线调节模组对设备内部光路进行补充,保证感知模型标识的高效识别和跟踪。
在本发明的一个具体实施例中,高性能计算机采用高性能处理器,能够进行视频图象实时处理和计算,内存不小于16GB,配置独立显存容量不小于8GB,分辨率支持大长宽比,分辨率不小于2560×1600,并支持自定义分辨率,向下兼容;配置以太网接口、高速USB接口用于外设连接。
投影成像及信息采集屏用于显示投影影像,同时用于感知模型的信息采集;在本发明的一个具体实施例中,采用厚度5mm的镀膜钢化玻璃作为基材,后部贴专用投影膜,实现投影影像的显示,玻璃整体ITO镀膜处理。
视频融合器,当超短焦投影设备为两台以上时,用于将高性能计算机输出的图形信号经视频融合器处理后输出至超短焦投影设备进行拼接显示;当图像高速识别设备为两台以上时,对图像高速识别设备分区采集的图像进行图像融合和图像目标识别。在本发明的一个具体实施例中,视频输入分辨率支持2560×1600。
超短焦投影设备设置两台以上,用于将计算机输出的高清图像进行超短焦投影并拼接显示;在本发明的一个具体实施例中,采用投射比0.248超短焦镜头,采用激光投影机保证投影图象均匀性,亮度不小于3000流明,对比度不小于10000:1。
图像高速识别设备用于图像的采集;光线调节模组用于操控台内部光路均匀,保证内部摄像机对图像信息采集及识别的正确率。
在本发明的一个具体实施例中,图2-3为基于投影融合和图像识别的交互设备内部投影设备及光电设备光路示意图。其中超短焦投影设备和图像高速识别设备因受到投影光路及摄像采集光路的限制,分别采用超短焦投影设备2台和图像高速识别设备3台,实线表示投影区域,虚线标识光电摄像区域,投影区域重叠通过视频融合器对投影图象进行融合显示,视频重叠区域通过视频融合算法对3路光电图象进行融合,并基于融合后的图象对感知模型标识进行识别和跟踪计算。另外,结构设计时应考虑各部件的调节机构设计,供生产过程中的微动调节使用。
感知模型,用于标记某一装备或设备的模型,具有特殊标识,便于光电设备识别和跟踪,并可将感知模型进行引用,以感知交互第一人称视角,在相关三维画面显示设备上以三维形式还原操控台二维显示态势信息;工作时,感知模型摆放在投影成像及信息采集屏上,拖动感知模型来控制所述三维关联模型的同步显示,感知模型的操作方式包括放置、自由拖拽、旋转、水平移动和垂直移动;另外可以通过操控单元对感知模型的状态进行调整,模拟真实场景,也可以通过与真实场景中的被观测对象进行数据交互,将被观测对象的真实状态信息设置为感知模型所标记装备或模型的状态信息。
图4为感知模型的操作示意图,基于超短焦投影融合和图像识别跟踪技术的通用交互设备的操作主要在投影成像及信息采集屏区域及操控单元作为操作输入设备,投影成像及信息采集屏区域运用自然交互语言将感知模型模型化、各个功能信息具象化。用户可以直接拖动摆放在感知区域上的感知模型,控制虚拟二维/三维场景中所展示的内容,并对虚拟场景中的虚拟景物、物件甚至虚拟人进行任意的摆放、控制,包括场景中的灯光效果、日照以及配色方案,也可以实时控制。在虚拟场景中还可以进行应急训练、实时监视指挥等功能。对场景中相应设备状态的控制,可通过点击感知模型在投影成像及信息采集屏上对应生成的感知模型标签更改相关状态信息或者通过操控单元输入状态信息来实现。控制的选择可通过点击感知区域上的感知模型标签或者在操控单元上选择对应实体进行状态设置。
基于上述基于超短焦投影融合和图像识别跟踪技术的状态信息监控***的控制方法,包括以下步骤:
步骤S1:***启动,高性能计算机向超短焦投影设备提供视频显示信息,在投影成像及信息采集屏上生成全局工作状态二维场景;
具体为,高性能计算机将场景图象输出到视频融合器,由视频融合器根据所需的分辨率进行视频分路显示,通过投影设备将图象投影到投影成像及信息采集屏进行成像显示,高性能计算机为超短焦投影设备提供视频信息,利用图像高速识别设备及超短焦投影设备、投影成像及信息采集屏实现虚拟现实的交互区域,该交互区域显示二维俯视图;
步骤S2:在二维场景中摆放感知模型,高性能计算机根据感知模型唯一标识获取待观测设备的实体类型及状态信息、进行状态信息动态维护;
具体为操作人员在投影成像及信息采集屏上放置带有唯一标识的感知模型,设置在操控台内部的图像高速识别设备对感知模型底部的标识进行信息采集;高速识别相机将采集到的信息传输给高性能计算机进行数据分析和处理,计算得到感知模型所对应的待观测设备的实体类型以及状态信息,状态信息主要包括感知模型的位置和方向;
操作人员通过点击感知模型标签或者通过操控单元设置感知模型对应待观测设备的实体类型以及状态信息,并进行状态信息动态维护。使用人员可根据监视的实际情况,根据所获得的变化信息通过摆放标记物进行位置计算,通过感知区域相关交互操作进行状态维护。
在本发明的另一个具体实施例中,待观测设备的实体类型和状态信息通过状态信息发布单元获取,状态信息发布单元通过以太网与设备主体连接,采集观测现场及待观测设备的全局信息,比如设备的故障状态、开光状态和观测现场的灯光状态等信息,并将采集到的状态信息发布给设备主体用于模拟全局场景。
步骤S3:高性能计算机建立三维模拟场景,根据采集到的感知模型信息建立待观测设备对应的三维模型并与三维模拟场景融合,高性能计算机将包括三维模型及三维模拟场景的模型信息发布到以太网;
具体为,高性能计算机将在二维场景下采集到的感知模型状态信息转化为三维信息在三维模拟场景下采用三维建模技术重构感知模型的虚拟三维模型,其中每个感知模型具有一个唯一标识,与该唯一标识绑定实际代表待观测设备的相关参数,如机型、旋翼折叠状态等,并与唯一的待观测设备的虚拟三维模型建立一对一映射,实现二维模型到三维模型的重建,并与三维模拟场景进行融合,实现虚实结合的显示效果和良好的交互,最终将三维模拟场景及感知模型三维状态信息发布在三维显示屏上;在原理实现过程中,为有效提高感知模型的识别率,在设备内部通过光线调节模组对设备内部光路进行补充,保证感知模型标识的高效识别和跟踪。
步骤S4:状态信息监视单元订阅步骤S3中高性能计算机发布的模型信息,按照接口协议对信息进行解析,并在三维显示屏上显示三维模拟场景及三维模型;
三维显示屏用于显示观测现场及待观测设备的三维模拟场景,在本发明的一个具体实施例中在多场所同时设置多个状态信息监视单元用于多场所同时远程显示三维模型场景实时状态信息,待观测设备的所有状态信息变化情况均可在状态信息监视单元的显示器上显示,便于远程监视全局状态,便于多部门协同操作,以及及时掌握待观测设备的实时状态并防止人为操作事故的发生;
步骤S5:状态信息监视单元根据订阅信息内容变化,对模型信息进行实时更新;
步骤S6:操作人员通过操作操控单元,远程对感知模型的状态进行调整,最终效果显示在本地的三维显示屏上。
同时通过操控单元上设置的开关,可切换三维场景的状态,如场景白天、夜间状态显示;灯光开关显示;日光光照显示等,用于模拟真实环境。
还包括步骤:
操作人员通过三维模拟场景下待观测设备的实时状态根据工作需要进行操作;操作内容可以根据工作需要进行,具体可以包括:
步骤S01:保障推演及教学。利用记录的历史数据信息,重现全局工作态势,并对流程进行复现和回放。
步骤S02:场景漫游,通过控制某一第一人称感知模型,把该感知模型放在感知桌面的交互区域,即可在3D视角下,获取当前位置的视角情况,可以通过挪动该感知模型进行场景漫游,全面了解工作情况。
有益效果:
一、能够把全局的工作态势信息集中在一起,采用交互台方式以一个简洁的方式显示出来,减少了人员之间的交互成本,提高了整体的作业效率,降低了出错的可能性;
二、采用实时自然的交互方式,采用“所见即所得”的形式反映实际工作态势,把视频或者音频中听到的信息变为看得到的实际物理模型和虚拟保障态势,可以更直观的了解全局的工作态势,便于使用人员掌握全局信息,做出决策;
三、交互设备通用化,可根据不同的应用需求,通过配置交互设备进行显示场景和底图的更换,一个设备通过部署不同的场景适应不同的应用;
四、可以进行相关流程推演和重现,可用于辅助使用人员快速对相关预案进行推演,便于发现问题,也可快速辅助使用人员熟悉运行流程;
五、简单便捷,无复杂操作,上手容易,符合人体操作及交互习惯;
六、能够把交互***的实时布列状态以及工作状态信息进行分布式发布,解决了信息孤岛问题,将交互***的实时状态以一种直观、形象的三维方式展示出来,提出了一种分布式的信息监视方式,拓展了交互***的使用场景,提高了信息共享程度,提升了设备使用效益。
本领域技术人员可以理解,实现上述实施例方法的全部或部分流程,可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于计算机可读存储介质中。其中,所述计算机可读存储介质为磁盘、光盘、只读存储记忆体或随机存储记忆体等。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。

Claims (8)

1.一种基于投影融合和图像识别的状态信息监控***,其特征在于,包括设备主体、感知模型、一个以上状态信息监视单元;所述设备主体包括高性能计算机、投影成像及信息采集屏、视频融合器、超短焦投影设备和图像高速识别设备;感知模型在设备使用时置于投影成像及信息采集屏上,用于标记待观测设备;采用高性能计算机、超短焦投影设备、投影成像及信息采集屏、视频融合器和图像高速识别设备进行场景显示、模型信息采集以及融合处理显示,所述状态信息监视单元通过以太网与设备主体连接,用于远程参数配置和状态信息交互并监控三维模型场景实时状态信息。
2.如权利要求1所述的***,其特征在于,每个状态信息监视单元均包括主机、三维显示屏和操控单元,主机与设备主体的高性能计算机进行数据交互,三维显示屏用于显示观测现场及待观测设备的三维模拟场景,操控单元用于远程参数配置和状态信息交互。
3.如权利要求2所述的***,其特征在于,还包括用于安装各组成设备的操控台体,为设备提供主体安装框架。
4.如权利要求3所述的***,其特征在于,进行场景显示时,由所述高性能计算机将场景图象输出到视频融合器,由视频融合器根据所需的分辨率进行视频分路显示,通过超短焦投影设备将图象投影到投影成像及信息采集屏进行成像显示;
进行模型信息采集时,两台以上图像高速识别设备同时采集放置在投影成像及信息采集屏上的感知模型信息,并将采集到的信息传输至高性能计算机,由计算机进行融合处理,并进行图像识别和跟踪,实时计算感知模型的位置;
用于融合处理显示时,高性能计算机根据采集到的信息构建感知模型的虚拟三维模型,与三维模拟场景进行融合,并由高性能计算机将其输出至状态信息监视单元的三维显示屏进行三维场景显示。
5.如权利要求4所述的***,其特征在于,还包括光线调节模组,光线调节模组用于操控台内部光路均匀,保证内部图像高速识别设备对图像信息采集及识别的正确率。
6.如权利要求5所述的***,其特征在于,所述感知模型为用于标记某一装备或设备的模型,具有特殊标识;工作时,感知模型摆放在投影成像及信息采集屏上,拖动感知模型来控制三维模拟场景下待观测设备对应的三维模型的同步显示。
7.一种基于权利要求1-6之一所述***的控制方法,其特征在于,包括:
步骤S1:***启动,超短焦投影设备根据高性能计算机提供的视频显示信息,在投影成像及信息采集屏上生成全局工作状态二维场景;
步骤S2:高性能计算机根据摆放在二维场景中的感知模型所携带的唯一标识,获取待观测设备的实体类型及状态信息、进行状态信息动态维护;
步骤S3:高性能计算机建立三维模拟场景,根据采集到的感知模型信息建立待观测设备对应的三维模型并与三维模拟场景融合,高性能计算机将包括三维模型及三维模拟场景的模型信息发布到以太网;
步骤S4:状态信息监视单元订阅步骤S3中高性能计算机发布的模型信息,按照接口协议对信息进行解析,并在三维显示屏上显示三维模拟场景及三维模型;
步骤S5:状态信息监视单元根据订阅信息内容变化,对模型信息进行实时更新;
步骤S6:操作人员通过操作操控单元,远程对感知模型的状态进行调整,最终效果显示在本地的三维显示屏上。
8.如权利要求7所述的方法,其特征在于,还包括操作人员通过三维模拟场景下待观测设备的实时状态根据工作需要进行操作,具体为:
步骤S01:保障推演及教学,利用记录的历史数据信息,重现全局工作态势,并对流程进行复现和回放;
步骤S02:场景漫游,通过控制感知模型,把该感知模型放在感知桌面的交互区域,在3D视角下,进行场景漫游,全面了解工作情况。
CN201710978943.5A 2017-10-19 2017-10-19 基于投影融合和图像识别的状态信息远程监控***及方法 Active CN108010079B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710978943.5A CN108010079B (zh) 2017-10-19 2017-10-19 基于投影融合和图像识别的状态信息远程监控***及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710978943.5A CN108010079B (zh) 2017-10-19 2017-10-19 基于投影融合和图像识别的状态信息远程监控***及方法

Publications (2)

Publication Number Publication Date
CN108010079A true CN108010079A (zh) 2018-05-08
CN108010079B CN108010079B (zh) 2021-11-02

Family

ID=62051007

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710978943.5A Active CN108010079B (zh) 2017-10-19 2017-10-19 基于投影融合和图像识别的状态信息远程监控***及方法

Country Status (1)

Country Link
CN (1) CN108010079B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111586351A (zh) * 2020-04-20 2020-08-25 上海市保安服务(集团)有限公司 场馆三维视频融合可视化监控***及方法

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005009051A1 (en) * 2003-07-16 2005-01-27 Aurora Digital Advertising Inc. Three dimensional display method, system and apparatus
WO2009076303A2 (en) * 2007-12-11 2009-06-18 Bbn Technologies, Corp. Methods and systems for marking and viewing stereo pairs of images
CN101510074A (zh) * 2009-02-27 2009-08-19 河北大学 一种高临场感智能感知交互运动***及实现方法
CN101646067A (zh) * 2009-05-26 2010-02-10 华中师范大学 数字化全空间智能监控***及方法
CN103034755A (zh) * 2012-11-29 2013-04-10 北京科东电力控制***有限责任公司 基于虚拟现实技术的变电站可视化巡检方法
CN103632581A (zh) * 2013-12-17 2014-03-12 国家电网公司 电能量采集终端调试运维模拟仿真方法
CN103824318A (zh) * 2014-02-13 2014-05-28 西安交通大学 一种多摄像头阵列的深度感知方法
CN105303615A (zh) * 2015-11-06 2016-02-03 中国民航大学 一种图像二维拼接与三维表面重建的组合方法
CN105549725A (zh) * 2016-02-03 2016-05-04 深圳市中视典数字科技有限公司 一种三维场景互动展示装置及方法
CN107014375A (zh) * 2017-02-22 2017-08-04 上海谦尊升网络科技有限公司 超低部署的室内定位***及方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005009051A1 (en) * 2003-07-16 2005-01-27 Aurora Digital Advertising Inc. Three dimensional display method, system and apparatus
WO2009076303A2 (en) * 2007-12-11 2009-06-18 Bbn Technologies, Corp. Methods and systems for marking and viewing stereo pairs of images
CN101510074A (zh) * 2009-02-27 2009-08-19 河北大学 一种高临场感智能感知交互运动***及实现方法
CN101646067A (zh) * 2009-05-26 2010-02-10 华中师范大学 数字化全空间智能监控***及方法
CN103034755A (zh) * 2012-11-29 2013-04-10 北京科东电力控制***有限责任公司 基于虚拟现实技术的变电站可视化巡检方法
CN103632581A (zh) * 2013-12-17 2014-03-12 国家电网公司 电能量采集终端调试运维模拟仿真方法
CN103824318A (zh) * 2014-02-13 2014-05-28 西安交通大学 一种多摄像头阵列的深度感知方法
CN105303615A (zh) * 2015-11-06 2016-02-03 中国民航大学 一种图像二维拼接与三维表面重建的组合方法
CN105549725A (zh) * 2016-02-03 2016-05-04 深圳市中视典数字科技有限公司 一种三维场景互动展示装置及方法
CN107014375A (zh) * 2017-02-22 2017-08-04 上海谦尊升网络科技有限公司 超低部署的室内定位***及方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JASON GENG: "A volumetric 3D display based on a DLP projection engine", 《DISPLAYS》 *
吴廷: "基于立体感知的三维全景技术研究", 《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111586351A (zh) * 2020-04-20 2020-08-25 上海市保安服务(集团)有限公司 场馆三维视频融合可视化监控***及方法

Also Published As

Publication number Publication date
CN108010079B (zh) 2021-11-02

Similar Documents

Publication Publication Date Title
CN106598229A (zh) 一种虚拟现实场景的生成方法、设备及虚拟现实***
CN104219584B (zh) 基于增强现实的全景视频交互方法和***
CN104268939B (zh) 基于三维全景视图的变电站虚拟现实管理***及其实现方法
EP2629267A2 (en) Real-time compositing of live recording-based and computer graphics-based media streams
CN109859326B (zh) 一种变电站跨平台二三维图形联动展示***和方法
CN105264478A (zh) 全息锚定和动态定位
CN109032357A (zh) 多人全息桌面交互***及方法
CN104536579A (zh) 交互式三维实景与数字图像高速融合处理***及处理方法
TWI644235B (zh) Wearable instant interaction system
CN108280873A (zh) 模型空间位置捕捉及热点自动生成处理***
CN104238730A (zh) 一种智能电网可视化平台及演示控制方法
CN103745627A (zh) 一种用于模拟驾驶的三维视景仿真方法及***
CN204945944U (zh) 一种全息互动影像***
CN208985412U (zh) 智慧教育物理环境***
US11164377B2 (en) Motion-controlled portals in virtual reality
CN106791629A (zh) 一种基于ar虚拟现实技术的楼房建造设计***
CN113744585A (zh) 火灾事故应急处置演练***及处理方法
CN209118529U (zh) 智慧教育环境生态***
CN108010079A (zh) 基于投影融合和图像识别的状态信息远程监控***及方法
CN114861262A (zh) 一种基于Unity3D的可视化大型楼宇运营平台***
Broll Augmented reality
CN108008813A (zh) 一种基于投影融合和图像识别的交互***及控制方法
CN206639510U (zh) 基于vr交互的沙盘***
CN111047713B (zh) 一种基于多目视觉定位的增强现实交互***及其操作方法
CN109841196B (zh) 一种基于透明液晶显示屏的虚拟偶像演播***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant