CN102799191A - 基于动作识别技术的云台控制方法及*** - Google Patents

基于动作识别技术的云台控制方法及*** Download PDF

Info

Publication number
CN102799191A
CN102799191A CN2012102789766A CN201210278976A CN102799191A CN 102799191 A CN102799191 A CN 102799191A CN 2012102789766 A CN2012102789766 A CN 2012102789766A CN 201210278976 A CN201210278976 A CN 201210278976A CN 102799191 A CN102799191 A CN 102799191A
Authority
CN
China
Prior art keywords
action
cradle head
video image
operator
head control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2012102789766A
Other languages
English (en)
Other versions
CN102799191B (zh
Inventor
刘玉进
安国成
郭楠
李洪研
罗志强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BEIJING CHINA RAILWAY HUACHEN COMMUNICATION INFORMATION TECHNOLOGY Co Ltd
Original Assignee
BEIJING CHINA RAILWAY HUACHEN COMMUNICATION INFORMATION TECHNOLOGY Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BEIJING CHINA RAILWAY HUACHEN COMMUNICATION INFORMATION TECHNOLOGY Co Ltd filed Critical BEIJING CHINA RAILWAY HUACHEN COMMUNICATION INFORMATION TECHNOLOGY Co Ltd
Priority to CN201210278976.6A priority Critical patent/CN102799191B/zh
Publication of CN102799191A publication Critical patent/CN102799191A/zh
Application granted granted Critical
Publication of CN102799191B publication Critical patent/CN102799191B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

本发明公开的一种基于动作识别技术的云台控制方法及***,其中方法包括如下步骤:步骤S100、云台控制服务器获取预先采集的客户端场景的动作视频图像,将获取的动作视频图像进行处理得到动作的视频图像序列,得到标准动作信息并生成标准动作语义映射表;步骤S200、将客户端实时获得的操作者的动作的视频图像传输给云台控制服务器,识别操作者的动作信息,将识别的动作信息与标准动作语义映射表对比分析得到对应的动作控制语义,将对应的动作控制语义转化为相应的云台控制指令,发送给云台;步骤S300、云台接收云台控制指令,根据云台控制指令控制云台进行相应操作。本发明提供的基于动作识别技术的云台控制方法及***可以利用操作者肢体动作实现智能控制云台。

Description

基于动作识别技术的云台控制方法及***
技术领域
本发明涉及视频监控领域,特别是涉及一种基于动作识别技术的云台控制方法及***。
背景技术
PTZ是Pan/Tilt/Zoom缩写,PTZ跟踪技术是指在具有云台、球形摄像机(简称球机)的视频监控***中,根据控制命令对云台、球机等进行全方位(上下、左右)移动及镜头变倍、变焦控制的方法。其中,云台控制是必不可少的一部分,云台控制对于前端摄像机的转向、预置位、巡航及轨迹等进行控制的模块。对于客户端操作而言,传统的云台控制有控制键盘直接操控和鼠标对模块模拟的云台控制软件进行操控,以及通过无线网络对云台进行控制的控制技术,这些方式都完成云台转动、预置位控制、云台巡航等操作。对云台的控制技术领域中还包括手触屏控制云台的技术。
但这些云台控制都存在两个方面的问题,一方面都是需要人手干涉,而且要求操作者熟悉操作业务,才能正确的对云台实施控制;另一方面是这些方法在应用于多个云台控制的时候,就会出现手忙脚乱的情况。因此引入人工智能来进行云台控制成为当前的一个解决方法,这种方法降低了用户的操作难度,具有良好的人机交互性,而且这种云台控制还适用于有障碍人士的使用,真正做到方便、实用、易用在安防领域及其他领域具有广阔的应用场景。
因此现有技术中,如何通过简单易懂的操作步骤实现智能控制云台以增强云台控制技术的人际交互性能是个很难解决的问题。
发明内容
基于上述问题,本发明提供了一种基于动作识别技术的云台控制方法及***,通过简单的操作者的肢体动作来实现智能控制云台,用以增强云台控制技术的人际交互性能,从而解决云台控制的不易操作的问题。
本发明提供的一种基于PTZ的视频中目标跟踪方法,所述跟踪方法具体包括下述步骤:
步骤S100、云台控制服务器获取预先采集的客户端场景的动作视频图像,将获取的动作视频图像进行处理得到动作的视频图像序列,得到标准动作信息并生成标准动作语义映射表;
步骤S200,将客户端实时获得的操作者的动作的视频图像传输给云台控制服务器,识别操作者的动作信息,将识别的动作信息与标准动作语义映射表对比分析得到对应的动作控制语义,将对应的动作控制语义转化为相应的云台控制指令,发送给云台;
步骤S300、云台接收云台控制指令,根据云台控制指令控制云台进行相应操作。
进一步地,作为一种可实施方式。所述步骤S200之前还包括步骤R100:
步骤R100、第二摄像设备预先采集客户端场景中操作者的动作视频图像。
进一步地,作为一种可实施方式。所述步骤S200包括如下步骤:
步骤S210、利用背景建模法为获取的操作者的动作视频图像中的客户端场景建模,并利用时间差分法检测视频图像中操作者的动作,将获取的操作者的动作视频图像进行处理得到操作者的动作的视频图像序列;
步骤S220、采用模板匹配技术将图像序列转化为一组静态形状模式,并和预先存储的行为标本分析比较,识别得到操作者的动作信息;
步骤S230、将设别的操作者的动作信息与标准动作语义映射表对比,得到对应动作控制语义;
步骤S240、将对应的动作控制语义转化为相应的云台控制指令并发送给云台。
进一步地,作为一种可实施方式。所述步骤S300包括如下步骤:
步骤S310、云台接收云台控制指令,调整云台执行采集远程监测场景的视频图像的操作,控制云台和/或第一摄像设备执行平移和/或变焦的操作并采集远程监测场景的视频图像;
所述步骤S300之后还包括步骤S400:
步骤S400、云台控制服务器接收远程监测场景的视频图像并将所述远程监测场景的视频图像显示在客户端上。
较佳地,作为一种可实施方式。所述标准动作语义映射表包括如下信息:标准动作信息和相应的动作控制语义。
相应地,作为一种可实施方式。本发明还提供了一种基于动作识别技术的云台控制***,包括客户端和第一摄像设备,所述第一摄像设备包括云台,所述第一摄像设备为网络摄像机,所述云台控制***还包括云台控制服务器,所述云台控制服务器分别与客户端和第一摄像设备的云台通过网络连接,其中:
所述云台控制服务器包括生成模块、处理模块,其中:
所述生成模块,用于获取预先采集的客户端场景的动作视频图像,将获取的动作视频图像进行处理得到动作的视频图像序列,得到标准动作信息并生成标准动作语义映射表;
所述处理模块,用于接收客户端实时获得的操作者的动作的视频图像,云台控制服务器识别操作者的动作信息,将识别的动作信息与标准动作语义映射表对比分析得到对应的动作控制语义,将对应的动作控制语义转化为相应的云台控制指令,发送给云台;
所述第一摄像设备的云台,用于在接收云台控制指令后,根据云台控制指令控制云台进行相应操作。
进一步地,作为一种可实施方式。所述基于动作识别技术的云台控制***还包括第二摄像设备,其中:
所述第二摄像设备,用于采集客户端场景中操作者的动作视频图像并传输给所述云台控制服务器。
进一步地,作为一种可实施方式。所述云台控制服务器还包括接收模块,其中:
所述接收模块,用于在调整云台执行采集远程监测场景的视频图像的操作之后,接收远程监测场景的视频图像并将所述远程监测场景的视频图像显示在客户端上。
进一步地,作为一种可实施方式。所述处理模块包括图像处理子模块、人体动作识别子模块、动作语义映射子模块和转化发送子模块,其中:
所述图像处理子模块,用于利用背景建模法为获取的操作者的动作视频图像中的客户端场景建模,并利用时间差分法检测视频图像中操作者的动作,将获取的操作者的动作视频图像进行处理得到操作者的动作的视频图像序列;
所述人体动作识别子模块,用于采用模板匹配技术将图像序列转化为一组静态形状模式,并和预先存储的行为标本分析比较,识别得到操作者的动作信息;
所述动作语义映射子模块,用于将设别的操作者的动作信息与标准动作语义映射表对比,得到对应动作控制语义;
所述转化发送子模块,用于将对应的动作控制语义转化为相应的云台控制指令并发送给云台控制单元。
进一步地,作为一种可实施方式。所述第一摄像设备还包括云台控制单元;
所述云台控制单元,用于接收云台控制指令,控制云台和/或第一摄像设备执行平移和/或变焦的操作并采集远程监测场景的视频图像。
本发明的有益效果包括:
本发明提供的一种基于动作识别技术的云台控制方法及***,其中方法包括以下步骤:步骤S100、云台控制服务器获取预先采集的客户端场景的动作视频图像,将获取的动作视频图像进行处理得到动作的视频图像序列,得到标准动作信息并生成标准动作语义映射表;步骤S200、将客户端实时获得的操作者的动作的视频图像传输给云台控制服务器,识别操作者的动作信息,将识别的动作信息与标准动作语义映射表对比分析得到对应的动作控制语义,将对应的动作控制语义转化为相应的云台控制指令,发送给云台;步骤S300、云台接收云台控制指令,根据云台控制指令控制云台进行相应操作;
其中,根据操作者的动作的视频图像序列识别操作者的动作信息,再将设别的动作信息与标准动作语义映射表对比分析得到对应的动作控制语义,将对应动作控制语义转化为相应的云台控制信号具有重要意义。总的来说,与现有技术相比,本发明所提供的基于动作识别技术的云台控制方法可以通过操作者肢体动作实现智能控制云台增强了云台控制技术的人际交互性能。
附图说明
图1为本发明基于动作识别技术的云台控制方法的一具体实施例的流程示意图;
图2为本发明基于动作识别技术的云台控制方法的具体实施例在识别动作信息的方法流程示意图;
图3为本发明基于动作识别技术的云台控制***的一个实施例的结构示意图。
具体实施方式
下面结合说明书附图,对本发明基于动作识别技术的云台控制方法及***的具体实施方式进行说明。
本发明实施例提供了一种基于动作识别技术的云台控制方法,如图1所示,具体包括以下步骤:
步骤S100、云台控制服务器获取预先采集的客户端场景的动作视频图像,将获取的动作视频图像进行处理得到动作的视频图像序列,得到标准动作信息并生成标准动作语义映射表;
步骤S200,将客户端实时获得的操作者的动作的视频图像传输给云台控制服务器,识别操作者的动作信息,将识别的动作信息与标准动作语义映射表对比分析得到对应的动作控制语义,将对应的动作控制语义转化为相应的云台控制指令,发送给云台;
步骤S300、云台接收云台控制指令,根据云台控制指令控制云台进行相应操作。
本发明实施例在具体实施时,上述各步骤可以由基于动作识别技术的云台控制***来完成。下面对上述流程进行进一步的详细说明:
较佳地,作为一种可实施方式。所述步骤S100之前还包括步骤R100:
步骤R100、第二摄像设备预先采集客户端场景中操作者的动作视频图像。
在本发明实施例中,第二摄像设备配置了镜头,镜头用于采集操作者的动作视频图像,为后续的分析识别操作者的动作信息提供视频图像数据。
进一步地,作为一种可实施方式。所述步骤S200具体包括如下,如图2所示:
步骤S210、利用背景建模法为获取的操作者的动作视频图像中的客户端场景建模,并利用时间差分法检测视频图像中操作者的动作,将获取的操作者的动作视频图像进行处理得到操作者的动作的视频图像序列;
步骤S220、采用模板匹配技术将图像序列转化为一组静态形状模式,并和预先存储的行为标本分析比较,识别得到操作者的动作信息;
步骤S230、将设别的操作者的动作信息与标准动作语义映射表对比,得到对应动作控制语义;
步骤S240、将对应的动作控制语义转化为相应的云台控制指令并发送给云台。
进一步地,在步骤S210中,利用背景建模法为获取的操作者的动作视频图像中的客户端场景建模,这样,将得到客户端场景的背景模型,背景建模法在现有技术中有很多应用,例如,中值法背景建模:顾名思义,就是在一段时间内,取连续N帧图像序列,把这N帧图像序列中对应位置的像素点灰度值按从小到大排列,然后取中间值作为背景图像中对应像素点的灰度值;均值法背景建模:均值法建模算法非常简单,就是对一些连续帧取像素平均值。其基本思想是,在视频图像中取连续N帧,计算这N帧图像像素灰度值的平均值来作为背景图像的像素灰度值;还包括卡尔曼滤波器模型,单高斯分布模型等,本发明实施例对此不做具体限定;
利用时间差分法检测视频图像中操作者的动作,较佳地,在本发明实施中,检测视频图像中操作者的上肢动作具有更实际的意义;下面以检测视频图像中操作者的上肢动作为例继续说明下述各个步骤,利用时间差分法与背景建模法相结合的混合算法可以很快有效地从背景中检测出运动目标(即操作者动作),再利用图像分割处理技术将操作者的动作视频图像分割出来操作者的动作(上肢动作)视频图像序列;
在本发明实施例中,除去使用时间差分法检测操作者的上肢动作还可以使用背景差分法,本发明对此不作具体限定;背景差分法又称背景减法(backgroundsubtraction)是采用图像序列中的当前帧和背景参考模型比较来检测运动物体的一种方法,其性能依赖于所使用的背景建模技术。使用背景差分法检测所述预设位置场景即时获取的监控视频图像中前景目标(操作者的动作)。背景差分法是目前运动分割中最常用的一种方法,它是通过对每个输入的视频帧和模型的背景图像进行比较来检测运动目标(操作者的动作);这样通过基于背景差方法可以检测前景目标,在本发明实施例中,为背景图像建立模型是利用了背景建模方法。
利用图像分割处理技术将操作者的动作视频图像分割出来操作者的上肢动作视频图像序列;
至此,视频图像分割处理流程结束。
在上述步骤S220中,根据操作者的上肢动作的视频图像序列识别操作者的上肢动作信息;其中,利用模板匹配方法的行为识别方法首先将上肢动作视频图像序列转化为为一组静态形状模式,并和预先存储的行为标本分析比较,识别得到操作者的上肢动作信息。
至此,视频图像识别上肢动作信息的流程结束。
在步骤S230中,将设别的操作者的上肢动作信息与标准动作语义映射表对比,得到对应动作控制语义;例如,当识别的动作信息为“挥手”时,通过语义映射表可以查到对应的动作控制语义为“进入动作操作模式”;如下表1所示:
  动作序号   动作信息   动作控制语义
  1   挥手   进入动作操作模式
  2   暂停   准备控制
  3   向上挥手   云台向上转动3秒钟
  4   向下挥手   云台向下转动3秒钟
  5   向左挥手   云台向左转动3秒钟
  6   向右挥手   云台向右转动3秒钟
  7   向前推手   放大监控视频图像2倍
  8   向后拉手   缩小监控视频图像2倍
  9   举起单手   重新定位操作者
  10   快速挥手   退出动作操作模式
较佳地,作为一种可实施方式。所述标准动作语义映射表包括如下信息:标准动作信息和相应的动作控制语义。
至此,对比动作语义映射表查找对应动作控制语义的流程结束。
在步骤S240中,将对应的动作控制语义转化为相应的云台控制指令并发送给云台;
本领域技术人员应该可以理解,通过上述步骤S210~步骤S240,本发明实施例所提供的基于动作识别技术的云台控制方法,通过“视频图像处理”、“人体动作识别”、“动作语义映射”、“动作控制语义转化”等步骤可以将视频图像解析出云台控制指令并发送给云台。
进一步地,作为一种可实施方式。所述步骤S300包括如下步骤:
步骤S310、云台接收云台控制指令,调整云台执行采集远程监测场景的视频图像的操作,控制云台和/或第一摄像设备执行平移和/或变焦的操作并采集远程监测场景的视频图像;
所述步骤S300之后还包括步骤S400:
步骤S400、云台控制服务器接收远程监测场景的视频图像并将所述远程监测场景的视频图像显示在客户端上。
在上述步骤S300~步骤S400中、云台接收云台控制指令,调整云台执行采集远程监测场景的视频图像的操作,控制云台和/或第一摄像设备执行平移和/或变焦的操作并采集远程监测场景的视频图像;其中,直接调整云台和或镜头的是云台控制单元;采集到远程监测场景的视频图像后,云台控制服务器接收远程监测场景的视频图像并将所述远程监测场景的视频图像显示在客户端上。
较佳地,作为一种可实施方式。本发明实施例中,当需要远程控制时,在远程控制现场还可以配置远程控制服务器,所述远程控制服务器通过网络通信协议与云台控制服务器建立通信连接;所述网络通信协议为传输控制协议/互联网协议TCP/IP。这样,远程控制服务器与云台控制服务器是通过网络来传输视频图像数据和云台控制指令等信息。这样云台控制服务器经过是一系列图像处理、识别、对照和转化后,先发送云台控制指令到远程控制服务器,经远程控制服务器将控制指令处理再发送给云台控制单元,从而完成了整个控制过程。在本发明实施例中,对比动作语义映射表查找的对应动作控制语义的结果以XML形式存储,再解析XML文档调用云台控制指令。
在本发明实施例中,第一摄像设备的云台具有如下结构和工作特点:其执行机构是步进电机,同时***与上位机(远程控制服务器)需要进行信息交换,第一摄像设备的云台控制单元设计选用单片机来进行实现。所述单片机可以依据实际设计要求选择合适的单片机。所述单片机装入云台内部可以接收云台控制指令,再发送信号来控制第一摄像设备的云台上的驱动步进电机运转,执行平移操作和/或控制第一摄像设备的第一镜头执行变焦的操作。因此,云台控制单元(单片机)可以直接控制云台和第一镜头。
远程控制服务器与单片机(芯片),通过RS485总线方式实现通讯,远程控制服务器将云台控制指令从串口发出,通过RS485总线将云台控制指令传送到现场的单片机,单片机通过处理得到远程控制服务器发送的云台控制指令,发出控制信号信息控制步进电机运行和/或控制第一摄像设备的第一镜头执行变焦的操作;单片机控制过程属于现有技术的范畴,在此不再详述。在本发明实施例中,除通过单片机控制云台外,还可以利用其他控制单元,例如,可编程逻辑控制器(Programmable Logic Controller,PLC),可编程自动化控制器(PAC)等,本发明实施例对此不再一一赘述。
第一摄像设备采集远程监测场景的视频图像之后,云台控制服务器将远程监测场景的视频图像传送到客户端,并显示出远程监测场景的视频图像。这样操作者可以通过客户端(客户端可配置显示器)直观的观察并判断云台控制***执行的操作是否为正确的操作。
为了更好地说明本发明实施例提供的基于动作识别技术的云台控制方法,举一个实际的例子加以说明。
实施例一:
首先,云台控制服务器实时采集操作者的动作视频图像后,经过视频图像处理、识别、对比得到动作控制语义,实时进行人体动作识别并返回识别结果。云台控制***将识别到的操作者动作和相应的云台动作控制语义映射起来,比如本发明实施例将“向右挥手”这个动作信息和云台“向右转动一定角度”这个云台控制信号关系耦合起来。
根据语义映射表配置可以得知:设定了某个时间周期内检测到的“挥手”动作,这个挥手动作通过一系列的处理、识别和对比分析最终得到一个进入动作操作模式的动作控制语义;再经过动作控制语义的转化最终产生云台和镜头初始化的联动;云台控制***根据所述设定的时间周期再去识别执行下一个控制动作;
换言之,云台控制***每次执行一个调整动作之后,都要恢复准备控制模式,然后再识别下一个动作。例如,操作者“向上挥手”(包括上臂)的上肢动作,云台控制***在识别之后,调整向上转动一定角度的操作;调整之后,云台控制***自动恢复准备控制模式;其中,云台控制***将利用一定的时间周期恢复准备模式,在这个时间周期内云台控制***不会识别操作者的任何动作;期间,操作者可以将上一个时间周期内抬起的手臂放下来,准备下一个动作。较佳地,本发明实施例所提供的云台控制***在云台控制***处于各种模式时候,会在客户端显示器上提示操作者以方便操作者实施控制和动作准备;例如,云台控制***识别到人手处于暂停动作信息时,那么***将会给操作者一个“开始控制”的指示,提示操作者可以通过动作控制云台了。否则***会一直检测人体动作,若检测到“退出”动作,***会退出动作控制模式;
其中,需要特别说明的是:云台控制***在识别“挥手”和“快速挥手”时候,会认定在某个时间阈值范围的挥手动作为快速挥手,超出某个阈值的挥手为挥手。例如,设定为1s~2s内的操作者的来回挥手动作一次,识别为“挥手”的动作信息,并最终分析得到“初始化模式”动作控制语义,而1s内的操作者的来回挥手动作一次,识别为“快速挥手”的动作信息,并最终分析得到“退出模式”动作控制语义;超过2s的动作信息或不动作(动作暂停)识别为“暂停”的动作信息,最终分析的得到“准备控制模式”。1s内操作者的动作中的“向左挥手”一次分析得到动作控制语义中的“向左转动一定角度”;当遇到控制数据丢失情况时,操作者可以通过动作快速举起单手来控制第一镜头重新定位;1s~2s内操作者动作中的“向上挥手”一次最终分析得到动作控制语义中的“向上转动一定角度”,1s内操作者动作中的“向上挥手”(快速挥手)一次最终分析得到动作控制语义中的“重新定位”;执行重新定位后云台控制***自动进入准备控制模式。
另外,“向前推手”、“向后拉手”动作则可以转换成“放大视频图像2倍”、“缩小视频图像2倍”的命令。这样是为了防止控制秩序的紊乱。当然,此处只是为了举例,在实施例一中,动作语义映射模块也可以将相应的人体动作映射为其他的云台控制命令,这可以通过语义映射模块灵活配置;本发明实施例对此不作具体限定。
较佳地,作为一种可实施方式;当在控制过程中需要换操作者时,当前的操作者可以离开控制摄像头场景,另外一名操作者或同一名操作者再次进入场景中时只需做“举起单手”动作就会再次进入动作控制模式对云台进行控制;
本领域技术人员应该可以理解,经上述步骤分析可以得知,云台控制***可以识别操作者的动作,并识别得到动作信息最终得到云台控制指令实现对远程监测场景中执行控制镜头和/或云台实时采集监控视频图像的操作。
综上所述,云台控制服务器(监控现场端)实现了对操作者动作的视频图像处理和识别以及对比分析,远程控制服务器(远程控制端)实现了对云台和/或镜头(采集设备终端)的控制,最后将视视频图像显示在客户端显示器上(客户端);这样,本发明实施例通过简单的操作者肢体动作,实现智能控制云台,并减少了复杂的操作流程,简单、方便、易于操控的特点增强了云台控制技术的人际交互性能。
基于同一发明构思,本发明实施例还提供了基于动作识别技术的云台控制***,由于此***解决问题的原理与前述用于基于动作识别技术的云台控制方法相似,因此该***的实施可以参见前述方法的实施,重复之处不再赘述。
相应地,作为一种可实施方式。本发明提供的基于动作识别技术的云台控制***,如图3所示,包括客户端10和第一摄像设备20,所述第一摄像设备20包括云台201,所述第一摄像设备为网络摄像机,所述云台控制***还包括云台控制服务器30,所述云台控制服务器30分别与客户端10和第一摄像设备的云台201通过网络连接,其中:
所述云台控制服务器30包括生成模块301、处理模块302,其中:
所述生成模块301,用于获取预先采集的客户端场景的动作视频图像,将获取的动作视频图像进行处理得到动作的视频图像序列,得到标准动作信息并生成标准动作语义映射表;
所述处理模块302,用于接收客户端实时获得的操作者的动作的视频图像,云台控制服务器识别操作者的动作信息,将识别的动作信息与标准动作语义映射表对比分析得到对应的动作控制语义,将对应的动作控制语义转化为相应的云台控制指令,发送给云台;
所述第一摄像设备的云台201,用于在接收云台控制指令后,根据云台控制指令控制云台进行相应操作。
进一步地,作为一种可实施方式。所述基于动作识别技术的云台控制***还包括第二摄像设备40,其中:
所述第二摄像设备40,用于采集客户端场景中操作者的动作视频图像并传输给所述云台控制服务器。
进一步地,作为一种可实施方式。所述云台控制服务器30还包括接收模块303,其中:
所述接收模块303,用于在调整云台执行采集远程监测场景的视频图像的操作之后,接收远程监测场景的视频图像并将所述远程监测场景的视频图像显示在客户端上。
进一步地,作为一种可实施方式。所述处理模块302包括图像处理子模块3021、人体动作识别子模块3022、动作语义映射子模块3023和转化发送子模块3024,其中:
所述图像处理子模块3021,用于利用背景建模法为获取的操作者的动作视频图像中的客户端场景建模,并利用时间差分法检测视频图像中操作者的动作,将获取的操作者的动作视频图像进行处理得到操作者的动作的视频图像序列;
所述人体动作识别子模块3022,用于采用模板匹配技术将图像序列转化为一组静态形状模式,并和预先存储的行为标本分析比较,识别得到操作者的动作信息;
所述动作语义映射子模块3023,用于将设别的操作者的动作信息与标准动作语义映射表对比,得到对应动作控制语义;
所述转化发送子模块3024,用于将对应的动作控制语义转化为相应的云台控制指令并发送给云台控制单元。
进一步地,作为一种可实施方式。所述第一摄像设备20还包括云台控制单元202;
所述云台控制单元202,用于接收云台控制指令,控制云台和/或第一摄像设备执行平移和/或变焦的操作并采集远程监测场景的视频图像。
较佳地,在本发明实施例中,可以根据具体监控情况而选择是否需要配置远程控制服务器,当需要远程控制现场配置远程控制服务器时,所述远程控制服务器通过网络通信协议与云台控制服务器建立通信连接;远程控制服务器可以解决远程视频图像信息和云台控制指令的传输的问题。
本发明实施例提供的一种基于动作识别技术的云台控制方法及***,其中方法包括以下步骤:步骤S100、云台控制服务器获取预先采集的客户端场景的动作视频图像,将获取的动作视频图像进行处理得到动作的视频图像序列,得到标准动作信息并生成标准动作语义映射表;步骤S200、将客户端实时获得的操作者的动作的视频图像传输给云台控制服务器,识别操作者的动作信息,将识别的动作信息与标准动作语义映射表对比分析得到对应的动作控制语义,将对应的动作控制语义转化为相应的云台控制指令,发送给云台;步骤S300、云台接收云台控制指令,根据云台控制指令控制云台进行相应操作;
其中,根据操作者的动作的视频图像序列识别操作者的动作信息,再将设别的动作信息与标准动作语义映射表对比分析得到对应的动作控制语义,将对应动作控制语义转化为相应的云台控制信号具有重要意义。总的来说,与现有技术相比,本发明所提供的基于动作识别技术的云台控制方法可以通过操作者肢体动作实现智能控制云台增强了云台控制技术的人际交互性能
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。

Claims (10)

1.一种基于动作识别技术的云台控制方法,其特征在于,包括如下步骤:
步骤S100、云台控制服务器获取预先采集的客户端场景的动作视频图像,将获取的动作视频图像进行处理得到动作的视频图像序列,得到标准动作信息并生成标准动作语义映射表;
步骤S200,将客户端实时获得的操作者的动作的视频图像传输给云台控制服务器,识别操作者的动作信息,将识别的动作信息与标准动作语义映射表对比分析得到对应的动作控制语义,将对应的动作控制语义转化为相应的云台控制指令,发送给云台;
步骤S300、云台接收云台控制指令,根据云台控制指令控制云台进行相应操作。
2.根据权利要求1所述的基于动作识别技术的云台控制方法,其特征在于,所述步骤S200之前还包括步骤R100:
步骤R100、第二摄像设备预先采集客户端场景中操作者的动作视频图像。
3.根据权利要求1所述的基于动作识别技术的云台控制方法,其特征在于,所述步骤S200包括如下步骤:
步骤S210、利用背景建模法为获取的操作者的动作视频图像中的客户端场景建模,并利用时间差分法检测视频图像中操作者的动作,将获取的操作者的动作视频图像进行处理得到操作者的动作的视频图像序列;
步骤S220、采用模板匹配技术将图像序列转化为一组静态形状模式,并和预先存储的行为标本分析比较,识别得到操作者的动作信息;
步骤S230、将设别的操作者的动作信息与标准动作语义映射表对比,得到对应动作控制语义;
步骤S240、将对应的动作控制语义转化为相应的云台控制指令并发送给云台。
4.根据权利要求1或3所述的基于动作识别技术的云台控制方法,其特征在于,所述步骤S300包括如下步骤:
步骤S310、云台接收云台控制指令,调整云台执行采集远程监测场景的视频图像的操作,控制云台和/或第一摄像设备执行平移和/或变焦的操作并采集远程监测场景的视频图像;
所述步骤S300之后还包括步骤S400:
步骤S400、云台控制服务器接收远程监测场景的视频图像并将所述远程监测场景的视频图像显示在客户端上。
5.根据权利要求1所述的基于动作识别技术的云台控制方法,其特征在于,所述标准动作语义映射表包括如下信息:标准动作信息和相应的动作控制语义。
6.一种基于动作识别技术的云台控制***,包括客户端和第一摄像设备,所述第一摄像设备包括云台,所述第一摄像设备为网络摄像机,其特征在于,还包括云台控制服务器,所述云台控制服务器分别与客户端和第一摄像设备的云台通过网络连接,其中:
所述云台控制服务器包括生成模块、处理模块,其中:
所述生成模块,用于获取预先采集的客户端场景的动作视频图像,将获取的动作视频图像进行处理得到动作的视频图像序列,得到标准动作信息并生成标准动作语义映射表;
所述处理模块,用于接收客户端实时获得的操作者的动作的视频图像,云台控制服务器识别操作者的动作信息,将识别的动作信息与标准动作语义映射表对比分析得到对应的动作控制语义,将对应的动作控制语义转化为相应的云台控制指令,发送给云台;
所述第一摄像设备的云台,用于在接收云台控制指令后,根据云台控制指令控制云台进行相应操作。
7.根据权利要求6所述的基于动作识别技术的云台控制***,其特征在于,所述基于动作识别技术的云台控制***还包括第二摄像设备,其中:
所述第二摄像设备,用于采集客户端场景中操作者的动作视频图像并传输给所述云台控制服务器。
8.根据权利要求6所述的基于动作识别技术的云台控制***,其特征在于,所述云台控制服务器还包括接收模块,其中:
所述接收模块,用于在调整云台执行采集远程监测场景的视频图像的操作之后,接收远程监测场景的视频图像并将所述远程监测场景的视频图像显示在客户端上。
9.根据权利要求6所述的基于动作识别技术的云台控制***,其特征在于,所述处理模块包括图像处理子模块、人体动作识别子模块、动作语义映射子模块和转化发送子模块,其中:
所述图像处理子模块,用于利用背景建模法为获取的操作者的动作视频图像中的客户端场景建模,并利用时间差分法检测视频图像中操作者的动作,将获取的操作者的动作视频图像进行处理得到操作者的动作的视频图像序列;
所述人体动作识别子模块,用于采用模板匹配技术将图像序列转化为一组静态形状模式,并和预先存储的行为标本分析比较,识别得到操作者的动作信息;
所述动作语义映射子模块,用于将设别的操作者的动作信息与标准动作语义映射表对比,得到对应动作控制语义;
所述转化发送子模块,用于将对应的动作控制语义转化为相应的云台控制指令并发送给云台控制单元。
10.根据权利要求6或9所述的基于动作识别技术的云台控制***,其特征在于,所述第一摄像设备还包括云台控制单元;
所述云台控制单元,用于接收云台控制指令,控制云台和/或第一摄像设备执行平移和/或变焦的操作并采集远程监测场景的视频图像。
CN201210278976.6A 2012-08-07 2012-08-07 基于动作识别技术的云台控制方法及*** Active CN102799191B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201210278976.6A CN102799191B (zh) 2012-08-07 2012-08-07 基于动作识别技术的云台控制方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201210278976.6A CN102799191B (zh) 2012-08-07 2012-08-07 基于动作识别技术的云台控制方法及***

Publications (2)

Publication Number Publication Date
CN102799191A true CN102799191A (zh) 2012-11-28
CN102799191B CN102799191B (zh) 2016-07-13

Family

ID=47198317

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210278976.6A Active CN102799191B (zh) 2012-08-07 2012-08-07 基于动作识别技术的云台控制方法及***

Country Status (1)

Country Link
CN (1) CN102799191B (zh)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103105858A (zh) * 2012-12-29 2013-05-15 上海安维尔信息科技有限公司 在固定相机和云台相机间进行目标放大、主从跟踪的方法
CN104112112A (zh) * 2013-04-19 2014-10-22 华为技术有限公司 识别动作的方法及其装置
CN105551059A (zh) * 2015-12-08 2016-05-04 国网山西省电力公司技能培训中心 光学和惯性体感数据融合的变电仿真人体运动捕捉方法
CN105844673A (zh) * 2016-05-20 2016-08-10 北京传翼四方科技发展有限公司 基于自然人机交互技术的全角度人跟踪***及控制方法
CN105898107A (zh) * 2016-04-21 2016-08-24 北京格灵深瞳信息技术有限公司 一种目标物体抓拍方法及***
CN106080482A (zh) * 2016-07-29 2016-11-09 河南职业技术学院 一种汽车减速安全***
WO2017011945A1 (zh) * 2015-07-17 2017-01-26 深圳市尚腾影科技有限公司 姿态数据输入装置及方法、云台控制装置及方法
CN107657232A (zh) * 2017-09-28 2018-02-02 南通大学 一种行人智能识别方法及其***
WO2019100757A1 (zh) * 2017-11-23 2019-05-31 乐蜜有限公司 视频生成方法、装置和电子设备
CN110393004A (zh) * 2018-05-02 2019-10-29 深圳市大疆创新科技有限公司 云台拍摄方法、云台拍摄***以及记录介质
CN111951787A (zh) * 2020-07-31 2020-11-17 北京小米松果电子有限公司 语音输出方法、装置、存储介质和电子设备
CN112738407A (zh) * 2021-01-06 2021-04-30 富盛科技股份有限公司 一种操控多摄像机的方法和装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1381131A (zh) * 2000-03-21 2002-11-20 皇家菲利浦电子有限公司 自动家庭视频制作摄像机-录像机
WO2009156785A1 (en) * 2008-06-27 2009-12-30 Sony Ericsson Mobile Communications Ab Mobile phone with automatic selection of a preferred image from a sequence of captured images
CN102096931A (zh) * 2011-03-04 2011-06-15 中南大学 基于分层背景建模的运动目标实时检测方法
CN202362731U (zh) * 2011-10-31 2012-08-01 北京德信互动网络技术有限公司 人机互动***

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1381131A (zh) * 2000-03-21 2002-11-20 皇家菲利浦电子有限公司 自动家庭视频制作摄像机-录像机
WO2009156785A1 (en) * 2008-06-27 2009-12-30 Sony Ericsson Mobile Communications Ab Mobile phone with automatic selection of a preferred image from a sequence of captured images
CN102096931A (zh) * 2011-03-04 2011-06-15 中南大学 基于分层背景建模的运动目标实时检测方法
CN202362731U (zh) * 2011-10-31 2012-08-01 北京德信互动网络技术有限公司 人机互动***

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103105858A (zh) * 2012-12-29 2013-05-15 上海安维尔信息科技有限公司 在固定相机和云台相机间进行目标放大、主从跟踪的方法
CN104112112A (zh) * 2013-04-19 2014-10-22 华为技术有限公司 识别动作的方法及其装置
WO2017011945A1 (zh) * 2015-07-17 2017-01-26 深圳市尚腾影科技有限公司 姿态数据输入装置及方法、云台控制装置及方法
CN105551059A (zh) * 2015-12-08 2016-05-04 国网山西省电力公司技能培训中心 光学和惯性体感数据融合的变电仿真人体运动捕捉方法
CN105898107B (zh) * 2016-04-21 2019-01-25 北京格灵深瞳信息技术有限公司 一种目标物体抓拍方法及***
CN105898107A (zh) * 2016-04-21 2016-08-24 北京格灵深瞳信息技术有限公司 一种目标物体抓拍方法及***
CN105844673B (zh) * 2016-05-20 2020-03-24 北京传翼四方科技发展有限公司 基于自然人机交互技术的全角度人跟踪***及控制方法
CN105844673A (zh) * 2016-05-20 2016-08-10 北京传翼四方科技发展有限公司 基于自然人机交互技术的全角度人跟踪***及控制方法
CN106080482A (zh) * 2016-07-29 2016-11-09 河南职业技术学院 一种汽车减速安全***
CN107657232A (zh) * 2017-09-28 2018-02-02 南通大学 一种行人智能识别方法及其***
CN107657232B (zh) * 2017-09-28 2020-07-14 南通大学 一种行人智能识别方法及其***
WO2019100757A1 (zh) * 2017-11-23 2019-05-31 乐蜜有限公司 视频生成方法、装置和电子设备
WO2019210462A1 (zh) * 2018-05-02 2019-11-07 深圳市大疆创新科技有限公司 云台拍摄方法、云台拍摄***以及记录介质
CN110393004A (zh) * 2018-05-02 2019-10-29 深圳市大疆创新科技有限公司 云台拍摄方法、云台拍摄***以及记录介质
US11102411B2 (en) 2018-05-02 2021-08-24 SZ DJI Technology Co., Ltd. Gimbal photographing method, gimbal camera system, and storage medium
CN110393004B (zh) * 2018-05-02 2023-02-28 深圳市大疆创新科技有限公司 云台拍摄方法、云台拍摄***以及记录介质
CN111951787A (zh) * 2020-07-31 2020-11-17 北京小米松果电子有限公司 语音输出方法、装置、存储介质和电子设备
CN112738407A (zh) * 2021-01-06 2021-04-30 富盛科技股份有限公司 一种操控多摄像机的方法和装置

Also Published As

Publication number Publication date
CN102799191B (zh) 2016-07-13

Similar Documents

Publication Publication Date Title
CN102799191A (zh) 基于动作识别技术的云台控制方法及***
CN103295028B (zh) 手势操作控制方法、装置及智能显示终端
US20180048482A1 (en) Control system and control processing method and apparatus
CN102799263B (zh) 一种姿态识别方法及姿态识别控制***
CN114049681A (zh) 一种监控方法、识别方法、相关装置及***
CN116958771A (zh) 一种计算机视觉识别***及方法
WO2013192253A1 (en) Self learning face recognition using depth based tracking for database generation and update
CN105620731B (zh) 一种无人机控制方法及无人机控制***
CN105759650A (zh) 一种用于智能机器人***实时跟踪人脸的方法
CN111985352B (zh) 一种ai前端化的变电站巡检视频实时识别方法及***
Rashid et al. Gesture control of ZigBee connected smart home Internet of Things
CN115480923B (zh) 一种多模态的智慧教室边缘计算控制***
CN107613205A (zh) 一种基于互联网大数据机器人物联网***
CN110807391A (zh) 基于视觉的人-无人机交互用人体姿态指令识别方法
CN206544183U (zh) 一种基于广域互联网通讯的巡检机器人***
CN106682663A (zh) 用于移动平台的多模态生物特征识别***及方法
CN112123338A (zh) 一种支持深度学习加速的变电站智能巡检机器人***
CN109725580A (zh) 机器人的远程控制方法
CN112965594A (zh) 一种基于视觉手势识别的机器人人机交互***和方法
CN103294195A (zh) 基于手势识别的遥控装置及其方法
CN201689439U (zh) 分布式人脸识别***
CN106686089B (zh) 一种基于语音的动作捕捉数据云分享的控制方法、及其***
CN106997449A (zh) 具有人脸识别功能的机器人和人脸识别方法
CN109394084A (zh) 一种基于物联网的智能移动垃圾桶及其控制***
CN106078747A (zh) 一种基于虚拟现实的延时工业操作控制***

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C53 Correction of patent of invention or patent application
CB02 Change of applicant information

Address after: 100070 No. 11 East Fengtai Road, Beijing, Fengtai District

Applicant after: CRSC Communication &Information Corporation

Address before: 100070 No. 11 East Fengtai Road, Beijing, Fengtai District

Applicant before: Beijing China Railway Huachen Communication Information Technology Co., Ltd.

COR Change of bibliographic data

Free format text: CORRECT: APPLICANT; FROM: BEIJING CHINA RAILWAY HUACHEN COMMUNICATION INFORMATION TECHNOLOGY CO.,LTD. TO: TONGHAO COMMUNICATION INFORMATION GROUP CO., LTD.

C14 Grant of patent or utility model
GR01 Patent grant