CN109522846A - 一种起立监测方法、装置、服务器及起立监测*** - Google Patents

一种起立监测方法、装置、服务器及起立监测*** Download PDF

Info

Publication number
CN109522846A
CN109522846A CN201811378341.7A CN201811378341A CN109522846A CN 109522846 A CN109522846 A CN 109522846A CN 201811378341 A CN201811378341 A CN 201811378341A CN 109522846 A CN109522846 A CN 109522846A
Authority
CN
China
Prior art keywords
camera
event
information
imaging region
phase machine
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811378341.7A
Other languages
English (en)
Other versions
CN109522846B (zh
Inventor
王剑
孙敬娜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Bowei Education Technology Co Ltd
Original Assignee
Shenzhen Bowei Education Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Bowei Education Technology Co Ltd filed Critical Shenzhen Bowei Education Technology Co Ltd
Priority to CN201811378341.7A priority Critical patent/CN109522846B/zh
Publication of CN109522846A publication Critical patent/CN109522846A/zh
Application granted granted Critical
Publication of CN109522846B publication Critical patent/CN109522846B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Tourism & Hospitality (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • General Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Educational Technology (AREA)
  • Marketing (AREA)
  • Signal Processing (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Alarm Systems (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

本发明属于智能教育技术领域,尤其涉及一种起立监测方法、装置、服务器及起立监测***,通过获取摄像区的图像信息,并根据图像信息中的图像人脸面积确认摄像区是否发生第一事件,所述第一事件是指目标用户进行起立动作;若是,根据所述第一事件在所在摄像区对应的至少两个相机的图像人脸面积以及相机参数信息确认主相机,再根据主相机以及辅助相机的图像信息与相机参数信息,获取所述第一事件的位置信息;然后根据所述第一事件的位置信息,发送摄像指令至所述主相机;最后获取所述主相机发送的所述第一事件的摄像信息。本发明实施例在目标用户的上方设置相机集群,利用相机集群对目标用户的起立动作进行检测,降低了监测成本且提高了监测精度。

Description

一种起立监测方法、装置、服务器及起立监测***
技术领域
本发明涉及智能教育技术领域,尤其涉及一种起立监测方法、装置、服务器及起立监测***。
背景技术
起立是人类肢体动作重要的一部分,是从平躺或者坐立的状态切换至站立状态的一个动作,而起立这一肢体动作在不同场合有着不同的应用。例如,在课堂教学上,在教师提问学生问题时,该学生需要起立表示尊重,同时也能使得所有学生的实现能够聚焦至该学生。
目前,起立监测用于教育课程录播***时常用的方式:第一类、利用双目视觉摄像头的双路视频信息制定目标定位算法进行检测;第二类、是在教室前面两侧各装一个摄像机,摄像机安装高度比人坐立时头部高度略高,在摄像机的图像中,设置一条水平触发线。
但是,上述第一类监测方法采用双目视觉摄像头,需配合云台使用,造成监测的成本较高;第二类监测方法摄像机安装位置较低,学生容易对其进行随意调整或者破坏,造成监测不准或无法监测。
发明内容
本发明实施例提供一种起立监测方法、装置、服务器及起立监测***,以提高起立监测准确率且降低起立监测成本。
第一方面,本发明实施例提供了一种起立监测方法,应用于服务器,所述服务器与相机集群连接,所述相机集群设于至少两个目标用户上方,所述相机集群包括至少两个相机,所述至少两个相机参数信息一致,一个摄像区对应至少两个相机,所述方法包括:
获取摄像区的图像信息;所述图像信息包括每个目标用户的图像人脸面积;
根据所述图像人脸面积确认摄像区是否发生第一事件;所述第一事件是指目标用户进行起立动作;
若是,根据所述第一事件在所在摄像区对应的至少两个相机的图像人脸面积以及相机参数信息确认主相机;所述主相机为至少两个相机中与所述第一事件最接近的一个相机,第一事件所在的摄像区对应的其余相机为辅助相机;
根据主相机以及辅助相机的图像信息与相机参数信息,获取所述第一事件的位置信息;
根据所述第一事件的位置信息,发送摄像指令至所述主相机;
获取所述主相机发送的所述第一事件的摄像信息。
可选地,所述根据所述图像人脸面积确认摄像区是否发生第一事件,包括:
计算同一列中每个图像人脸面积与预设参考值的面积比值;所述预设参考值为该列没有发生第一事件的所有目标用户的图像人脸面积的平均值;
判断所述面积比值是否大于预设阈值;
若是,则确认所述第一行发生第一事件;
若否,则确认所述第一行没有发生第一事件。
可选地,不同的摄像区对应不同的预设阈值。
可选地,当所述摄像区为平面型教室时,所述预设阈值的取值范围为1-2;
当所述摄像区为阶梯型教室时,所根据所述第一事件在所在摄像区对应的至少两个相机的图像人脸面积述预设阈值的取值范围为 0.8-1.1。
可选地,所述若是,根据所述第一事件在所在摄像区对应的至少两个相机的图像人脸面积以及相机参数信息确认主相机,包括:
根据所述第一事件在所在摄像区对应的至少两个相机的图像人脸面积以及相机参数信息,确认发生第一事件是否为同一目标用户;
若是,比较该目标用户在所在摄像区对应的至少两个相机中的图像人脸面积,获取面积最大值,确认面积最大值对应的相机为主相机。
可选地,所述根据主相机以及辅助相机的图像信息与相机参数信息,获取所述第一事件的位置信息,包括:
根据主相机以及辅助相机的图像信息与相机参数信息,获取计算信息;所述计算信息包括主相机与辅助相机的光心距、视差以及焦距;
根据所述主相机与辅助相机的光心距、视差以及焦距,获取所述第一事件的位置信息。
可选地,所述摄像信息包括所述第一事件特写的视频信息与声音信息。
可选地,所述若是,根据所述图像人脸面积确认主相机之后,还包括:
根据主相机以及辅助相机的图像信息与相机参数信息,获取所述第一事件的数量。
可选地,所述获取摄像区的图像信息,包括:
采集摄像区图像;
基于人脸检测模型获取摄像区图像的图像人脸;所述人脸检测模型为训练好的全卷积神经网络;所述图像人脸为所述摄像区内目标用户的图像人脸;
解析所述图像人脸;
获取摄像区的图像信息;所述图像信息包括每个目标用户的图像人脸面积。
第二方面,本发明实施例提供了一种起立监测装置,用于服务器,所述装置包括:
第一信息获取模块,用于获取摄像区的图像信息;所述图像信息包括每个目标用户的图像人脸面积;
第一判断模块,用于根据所述图像人脸面积确认摄像区是否发生第一事件;所述第一事件是指目标用户进行起立动作;
第二判断模块,用于若摄像区发生第一事件,根据所述第一事件在所在摄像区对应的至少两个相机的图像人脸面积以及相机参数信息确认主相机;所述主相机为至少两个相机中与所述第一事件最接近的一个相机,第一事件所在的摄像区对应的其余相机为辅助相机;
计算模块,用于根据主相机以及辅助相机的图像信息与相机参数信息,获取所述第一事件的位置信息;
发送模块,用于根据所述第一事件的位置信息,发送摄像指令至所述主相机;
第二信息获取模块,用于获取所述主相机发送的所述第一事件的摄像信息。
可选地,所述第一判断模块还包括:
第一计算单元,用于计算同一列中每个图像人脸面积与预设参考值的面积比值;所述预设参考值为该列没有发生第一事件的所有目标用户的图像人脸面积的平均值;
第一判断单元,用于判断所述面积比值是否大于预设阈值;若是,则确认所述第一行发生第一事件;若否,则确认所述第一行没有发生第一事件。
可选地,所述第二判断模块还包括:
第二判断单元,用于根据所述第一事件在所在摄像区对应的至少两个相机的图像人脸面积以及相机参数信息,确认发生第一事件是否为同一目标用户;
第二确认单元,用于若所述第一事件为同一目标用户,比较该目标用户在所在摄像区对应的至少两个相机中的图像人脸面积,确认最大值对应的相机为主相机。
可选地,所述计算模块具体用于:
根据主相机以及辅助相机的图像信息与相机参数信息,获取计算信息;所述计算信息包括主相机与辅助相机的光心距、视差以及焦距;
根据所述主相机与辅助相机的光心距、视差以及焦距,获取所述第一事件的位置信息。
可选地,所述起立监测装置还包括:
统计模块,用于根据主相机以及辅助相机的图像信息与相机参数信息,获取所述第一事件的数量。
第三方面,本发明实施例提供了一种服务器,所述服务器包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如前述的方法。
第四方面,本发明实施例提供了一种起立监测***,所述***包括:相机集群以及如前述的服务器;所述相机集群与所述服务器连接,用于对目标用户进行图像信息获取;所述相机集群包括至少两个相机。
第五方面,本申请实施例提供一种存储介质,所述存储介质存储有可执行指令,所述可执行指令被智能终端执行时,使所述智能终端执行如上所述的起立监测方法。
第六方面,本申请实施例还提供了一种程序产品,所述机程序产品包括存储在存储介质上的程序,所述程序包括程序指令,当所述程序指令被智能终端执行时,使所述智能终端执行如上所述的起立监测方法。
本发明实施例的有益效果在于:本实施例提供的起立监测方法、装置、服务器及起立监测***,通过获取摄像区的图像信息,并根据图像信息中的图像人脸面积确认摄像区是否发生第一事件,所述第一事件是指目标用户进行起立动作;若是,根据所述第一事件在所在摄像区对应的至少两个相机的图像人脸面积以及相机参数信息确认主相机,再根据主相机以及辅助相机的图像信息与相机参数信息,获取所述第一事件的位置信息;然后根据所述第一事件的位置信息,发送摄像指令至所述主相机;最后获取所述主相机发送的所述第一事件的摄像信息。本发明实施例在目标用户的上方设置相机集群,利用相机集群对目标用户的起立动作进行检测,降低了起立监测成本且提高了监测精度。
附图说明
一个或多个实施例通过与之对应的附图中的图片进行示例性说明,这些示例性说明并不构成对实施例的限定,附图中具有相同参考数字标号的元件表示为类似的元件,除非有特别申明,附图中的图不构成比例限制。
图1是本发明实施例提供的起立监测方法的其中一种应用环境的示意图;
图2是本发明实施例提供的一种起立监测方法的流程示意图;
图3是本发明实施例提供的一种起立监测方法的流程示意图;
图4是本发明实施例提供的一种起立监测方法的流程示意图;
图5是本发明实施例提供的一种起立监测方法的流程示意图;
图6是本发明实施例提供的一种双目测距原理的原理示意图;
图7是本发明实施例提供的一种起立监测装置的结构示意图;
图8是本发明实施例提供的一种起立监测装置的结构示意图;
图9是本发明实施例提供的一种起立监测装置的结构示意图;
图10是本发明实施例提供的服务器的硬件结构示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,如果不冲突,本发明实施例中的各个特征可以相互结合,均在本发明的保护范围之内。另外,虽然在装置示意图中进行了功能模块划分,在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于装置中的模块划分,或流程图中的顺序执行所示出或描述的步骤。再者,本发明所采用的“第一”、“第二”、“第三”等字样并不对数据和执行次序进行限定,仅是对功能和作用基本相同的相同项或相似项进行区分。
本发明实施例提供的起立监测方法、装置、服务器及起立监测***,适用于附图1所示的应用场景。在附图1所示的应用场景中,包括服务器10、相机集群20及摄像区30。其中,相机集群20设于摄像区的上方,且所述相机集群包括至少两个相机,每个相机的参数信息完全一致。一个摄像区30至少对应两个相机。所述服务器10与至少两个相机均连接,用于与相机实现信号交互,从而实现对摄像区30内的目标用户进行起立监测,在目标用户进行起立动作时,获取目标用户的特写摄像信息。将相机设置在目标用户的上方可避免人为因素而导致起立监测的误差过大或者无法监测,且该种监测方式没有采用云相机进行特写捕捉,在提高监测准确率的同时也降低了整体的监测成本。
其中,相机可以为摄像头、摄像机、照相机或者其他带有摄像功能的设备。至少两个相机的外参数与内参数均为一致。相机集群20与服务器10可通过无线或者有线进行信号交互,无线网络可以但不限于局域网、因特网、WIFI等其他能够实现信号传输与接收的无线网络。
以上示例性的示出了应用场景的一种形式,在其他应用场景中,也可以包括多个摄像区30,在相机集群20中设置多个相机与多个摄像区 30进行对应。
图2为本发明实施例提供的起立监测方法的一个实施例的流程图,所述起立监测方法可由图1中的服务器10执行。如附图2所示,所述起立监测方法包括:
S10:获取摄像区的图像信息;所述图像信息包括每个目标用户的图像人脸面积;
在本实施例中,所述图像信息是通过相机集群20中的相机所获取的。所述相机是实时对摄像区30进行监测,每一帧获取一次摄像区30 的图像信息,并将图像信息发送至服务器10。服务器10会对相机发送的每一帧图像信息进行解析与处理。所述图像信息包括每个目标用户的图像人脸面积,在服务器对图像信息解析时,会将所述每个目标用户的图像人脸面积进行提取与存储。
具体地,在服务器10中设置有获取摄像区30的图像信息的开关,方便用户选择不同时间对摄像区30进行监测。举个例子,当摄像区30 为学校的教室时,因学校存在课间活动,而此时若服务器10没有关闭获取摄像区30的图像信息这一功能,在课间活动时会因学生的来回走动或者起立活动等动作造成误判以及资源的浪费。用户则可以在课间时通过开关关闭该功能,在上课时且学生均坐在座位时开启该功能,能够很好的把控学生起立监测的使用时间。在服务器10中设置开关控制相机的工作状态能够有效避免资源的浪费,且提高相机的寿命。
进一步地,相机在工作状态时实时采集对摄像区30的图像信息,并将图像信息发送至服务器10,当服务器10所接收到的图像信息超过预设存储阈值时,清除服务器10中存储时间较长的图像信息,或者在服务器10的计时器中预设时间阈值,在服务器10开始工作时先将计时器进行清零,并以加一的方式随每帧图像信息叠加,当到达预设时间阈值,清除服务器10中存储时间较长的图像信息,同时重置服务器10的计时器,从而使得服务器10中有足够空间对图像信息进行解析与处理,避免了因服务器10的存储空间的不足而使得摄像区30的起立监测的漏检,提高了监测的准确率及稳定性。
具体地,所述获取摄像区的图像信息,包括:
采集摄像区图像;
基于人脸检测模型获取摄像区图像的图像人脸;所述人脸检测模型为训练好的全卷积神经网络;所述图像人脸为所述摄像区内目标用户的图像人脸;
解析所述图像人脸;
获取摄像区的图像信息;所述图像信息包括每个目标用户的图像人脸面积。
其中,先通过相机对摄像区30进行拍照,采集摄像区的图像。所述人脸检测模型为训练好的全卷积神经网络,在人脸检测模型中具体执行的步骤为:
1.先对摄像区图像进行多尺度变换,获取图像金字塔,获取图像多尺度信息。使用网络P-Net,用来生成候选窗和边框回归向量(bounding box regression vectors)。使用Bounding box regression的方法来校正这些候选窗,使用非极大值抑制(NMS)合并重叠的候选框。全卷积网络和Faster R-CNN中的RPN一脉相承。
2.使用网络N-Net改善候选窗。将通过P-Net的候选窗输入R-Net 中,拒绝掉大部分错误的窗口,继续使用Bounding box regression和 NMS合并。
3.使用网络O-Net输出最终的图像人脸和特征点位置。和第二步类似,但是不同的是生成5个特征点位置。
其中,全卷积神经网络的训练包括三部分:人脸与非人脸的训练、人脸区域的训练以及人脸五点特征定位的训练,并采用多种损失函数进行训练,例如:采用交叉熵损失函数训练人脸与非人脸,使用平方和损失函数进行人脸区域以及五点特征定位的训练。
然后,在获取到图像人脸之后,服务器10对所述图像人脸进行解析,获取图像信息。所述图像信息包括图像人脸面积以及其他图像人脸特征,所述其它图像人脸特征包括人脸长度特征值、下颌骨宽度特征值以及下巴角度特征值。
S20:根据所述图像人脸面积确认摄像区是否发生第一事件;所述第一事件是指目标用户进行起立动作;
其中,服务器10在接收到相机集群发送的图像信息后进行解析,提取图像信息中所有目标用户的人脸面积,目标用户是指在摄像区30 范围内进行活动的用户,所述第一事件是指在摄像区30内任意一个目标用户进行起立动作。根据所有目标用户的人脸面积对摄像区30的目标用户是否起立进行判断,相对于现有的采用摄像区30两边设置触发线类型的起立监测方法,能够不受摄像区场地的限制,且检测精度较高。
在其他实施例中,服务器10在判断所述摄像区30的目标用户是否进行起立动作时,可将部分目标用户进行起立动作不判断为第一事件。举个例子,当摄像区30为教室时,目标用户包括教师与学生,教师在摄像区30进行起立动作不作为第一事件,学生在摄像区30进行起立动即为第一事件,服务器10在判断目标用户为教室或者学生时,是利用服务器中预设的卷积神经网络进行人脸识别,当时别目标用户为教师时,即使教在摄像区30进行起立动作时,服务器10也不会认为该摄像区30存在第一事件的发生。
S30:若确认摄像区发生第一事件,根据所述第一事件在所在摄像区对应的至少两个相机的图像人脸面积以及相机参数信息确认主相机;所述主相机为至少两个相机中与所述第一事件最接近的一个相机,第一事件所在的摄像区对应的其余相机为辅助相机;
在本实施例中,每个摄像区30对应至少两个相机,也即在相机集群中,对应同一个摄像区30必定存在至少两个相机能够进行摄像。当服务器10判断所述摄像区30内存在第一事件时,服务器10先获取该第一事件对应的摄像区30的位置,并且服务器10中预存有每个摄像区 30所对应的相机,调取该摄像区30对应的至少两个相机,再根据该摄像区30对应的所述至少两个相机中第一事件的人脸图像面积以及相机参数信息,确认主相机的具***置。确认主相机后,将该摄像区30对应的至少两个相机除主相机以外的其余相机设定为辅助相机。所述辅助相机用于对第一事件的再次判定且配合主相机进行第一事件位置信息的获取。
需要说明的是,本实施例中的主相机与辅助相机是相对于每一件第一事件进行定义的,换句话说,一个第一事件对应一个主相机,不同的第一事件对应的主相机可相同也可不同。举个例子,假设摄像区30发生了两起第一事件,其中一个第一事件位于摄像区的最左边一列,另外一起第一事件均位于摄像的最右一列。而位于最左一列的第一事件所对应的主相机,相对于最右一列的第一事件而言为辅助相机。而当两起第一事件最接近的相机为同一个时,该两起第一事件对应的主相机为同一主相机。
S40:根据主相机以及辅助相机的图像信息与相机参数信息,获取所述第一事件的位置信息;
在本实施例中,所述相机参数信息包括相机外参与相机内参,是指相机的旋转方向、焦距、像素大小等;同一个摄像区对应的至少两个相机的外参与内参均为一致。在至少两个相机进行标定时,保持每个目标用户能够拍摄到所有目标用户的整个人脸,并在这前提下保证与目标用户的竖直距离为最小。每个相机标定完成后,在启动服务器10时会根据每个相机的位置信息进行相机参数信息的获取,并将参数信息存储在预设的存储区。在相机的位置信息或者焦距发生改变时,服务器10会产生预警信息,提醒用户调整相机位置。
进一步地,在确定了主相机之后,服务器10随机选取该摄像区30 对应的另外一台辅助相机,获取主相机与辅助相机同一帧的图像信息,同时调取主相机与该辅助相机的的参数信息,对所述第一事件的位置信息进行计算与获取。
S50:根据所述第一事件的位置信息,发送摄像指令至所述主相机;
在本实施例中,服务器10在获取到第一事件的位置信息之后,产生对应该位置信息的摄像指令,所述摄像指令包括第一事件的特写指令与第一事件的位置指令,所述第一事件的位置指令用于指示主相机旋转至第一事件的所在位置,所述第一事件的特写指令用于指示主相机对该第一事件进行特写拍摄,获取相应的摄像信息。
S60:获取所述主相机发送的所述第一事件的摄像信息。
具体地,所述摄像信息包括所述第一事件特写的视频信息与声音信息。
需要说明的是,在每个相机的下方均预设有拾音器,用于获取目标用户的声音信息,而在服务器10可根据声源定位和音频处理算法对第一事件的位置进行二次确认,确保摄像信息的准确率。
在本实施例中,通过获取摄像区的图像信息,并根据图像信息中的图像人脸面积确认摄像区是否发生第一事件,所述第一事件是指目标用户进行起立动作;若是,根据所述第一事件在所在摄像区对应的至少两个相机的图像人脸面积以及相机参数信息确认主相机,再根据主相机以及辅助相机的图像信息与相机参数信息,获取所述第一事件的位置信息;然后根据所述第一事件的位置信息,发送摄像指令至所述主相机;最后获取所述主相机发送的所述第一事件的摄像信息。本发明实施例在目标用户的上方设置相机集群,利用相机集群对目标用户的起立动作进行检测,降低了监测成本且提高了监测精度。
具体地,如图3所示,为本发明实施例提供的一种起立监测方法的流程示意图,所述根据所述图像人脸面积确认摄像区是否发生第一事件,包括:
S21:计算同一列中每个图像人脸面积与预设参考值的面积比值;所述预设参考值为该列没有发生第一事件的所有目标用户的图像人脸面积的平均值;
需要说明的是,服务器10在获取到相机发送的图像信息后对所有目标用户的图像人脸面积进行获取,并依据目标用户的人脸面积的分布进行划分行列,或者依据摄像区30预设好的行列信息对目标用户的人脸面积进行划分行列。在确认摄像区30是否发生第一事件时,是按列的顺序从左到右或者从右到左依次确认,直至该摄像区30每一列的人脸面积均经过确认后再结束此次判断。
具体地,所述预设参考值是服务器10预先根据大数据和数理规律统计和计算坐下的人脸的预设值,预设参考值为统计条件下该位置处或者该列目标用户所在位置没有发生第一事件的所有目标用户的图像人脸面积的平均值,相同列的人脸预设值相等,人脸面积因个体差异导致偏离预设值的程度相较因第一事件发生而落入同一水平位置的人脸面积具有极大的区分度。需要说明的是,在配置相机外参数时,保持前一行目标用户进行第一事件时的图像人脸位置落在后一行目标用户的图像人脸位置。
在计算同一列中相邻两行的两个目标用户的图像人脸面积,获取面积比值时,可从该列距离相机最近的一端开始计算,换句话说,在每一列中的计算,是从距离所述相机最近的一端依次向距离所述相机最远一端的方向计算,直至该列每一个人脸面积都经过计算为止。所述预设参考值的计算具体为:获取该列摄像区中所有目标用户未进行第一事件时的人脸面积;计算该列摄像区中所有目标用户未进行第一事件时的人脸面积的平均值;定义该平均值为预设参考值。每一列的预设参考值取为该列没有进行起立的人脸面积的平均值,可提高了整体的监测准确率。
S22:判断所述面积比值是否大于预设阈值;
S23:若是,则确认所述第一行发生第一事件;
S24:若否,则确认所述第一行没有发生第一事件。
具体地,不同的摄像区对应不同的预设阈值。需要说明的是,预设阈值是根据不同摄像区的具体地理位置进行设定,例如阶梯式教师与平面型教师的预设阈值肯定会存在差异。其中,当所述摄像区30为平面型教室时,所述预设阈值的取值范围为1-2;当所述摄像区30为阶梯型教室时,所述预设阈值的取值范围为0.8-1.1。
进一步地,当用户向服务器10提供了预设阈值的取值范围之后,服务器10在确认是否发生第一事件时,会根据当前第一行与第二行的人脸面积在图像信息上的垂直距离在该摄像区30中所有第一行与第二行的人脸面积在图像信息上的垂直距离的排序,在预设阈值的取值范围选取对应的阈值。例如,当预设阈值的取值范围为1-2时,在服务器10 进行确认是否发生第一事件时,所有第一行与第二行的人脸面积在图像信息上的垂直距离的排序为10位,则将取值范围为1-2分为10个类别,即1.1、1.2、1.3...2。若当前的第一行与第二行的人脸面积在图像信息上的垂直距离为所有第一行与第二行的人脸面积在图像信息上的垂直距离的排序的第10位,则预设阈值取1,若当前的第一行与第二行的人脸面积在图像信息上的垂直距离为所有第一行与第二行的人脸面积在图像信息上的垂直距离的排序的第9位,则预设阈值取1.1,依次类推获取对应的阈值。在对个该摄像区30中所有的图像人脸面积进行确认之后,服务器10采集该摄像区30是否发生第一事件的确认结果。利用图像人脸面积对摄像区30的目标用户是否进行起立动作进行判断,提高了起立监测的准确率,且对应不同场地类型设置不同的预设阈值,解决了现有技术中因场地不同而无法实现起立监测这一技术问题,大大增强了实用性。
具体地,如附图4所示,为本发明实施例提供的起立监测方法的另一个实施例的流程图,若所述摄像区发生第一事件,根据所述第一事件在所在摄像区对应的至少两个相机的图像人脸面积以及相机参数信息确认主相机,包括:
S31:根据所述第一事件在所在摄像区对应的至少两个相机的图像人脸面积以及相机参数信息,确认所述第一事件是否为同一目标用户;
S32:若是,比较该目标用户在所在摄像区对应的至少两个相机中的图像人脸面积,获取面积最大值,确认面积最大值对应的相机为主相机。
其中,在确认了该摄像区30有第一事件发生之后,服务器10获取该摄像区30对应的所有相机所获取的图像人脸面积,并将每个相机中的最大人脸面积进行比较,最大值对应的相机为主相机。需要说明的,因所有相机的参数信息为一致,则距离第一事件较近的相机所获取的人脸图像面积则为最大,保证了主相机即为距离第一事件最近的一个相机。
需要说明的是,当存在最大人脸面积有两个时,也即最接近第一事件的相机有两个时(第一事件的目标用户与这两个相机的距离相等),服务器10从这两个相机中随机选择一个相机作为主相机。
具体地,如附图5所示,为本发明实施例提供的起立监测方法的另一个实施例的流程图,所述根据主相机以及辅助相机的图像信息与相机参数信息,获取所述第一事件的位置信息,包括:
S41:根据主相机以及辅助相机的图像信息与相机参数信息,获取计算信息;所述计算信息包括所述主相机与辅助相机的光心距、视差以及焦距;
S42:根据所述主相机与辅助相机的光心距、视差以及焦距,获取所述第一事件的位置信息。
需要说明的是,获取所述第一事件的位置信息,是基于双目测距原理进行获取的,
其中,判断所述第一事件的位置信息,是根据双目测距原理进行的,参考附图6,以附图6所示参数进行解析,具体如下:
I1为辅助相机与主相机的成像平面,Ol为主相机的光心以及主相机坐标系的圆心,Or为辅助相机的光心以及辅助相机坐标系的圆心,P 点代表第一事件的位置,Pleft为P点在主相机坐标系上的成像点,Xleft 为世界坐标系内Pleft的横坐标,Pright为辅助相机坐标系上的成像点, Xright为世界坐标系内Pright的横坐标,则主相机与辅助相机的视差为D=Xleft-Xright,Xleft与Xright值大小由Pleft和Pright在成像平面的横坐标以及单位像素对应的物理尺寸决定,另根据相机内参信息,可知主相机与辅助相机的焦距f,单位像素对应的物理尺寸,外参 Ol与Or之间的距离为光心距B,还可知P点在主相机坐标系与辅助相机坐标系中的纵坐标相等,均为Y,Pleft和Pright横坐标(以像素为单位)可在图像空间中精确测得。设P点在世界坐标系内的空间坐标为 (x,y,z),则根据三角形相似定理,可得:
Xleft=f*x/z;
Xright=f*(x-B)/z;
Y=f*y/z;
其中,Xleft、Xright、f、B、D以及Y均为已知,可根据已知量求得,最终可以得到:
X=B*Xleft/D;
y=B*Y/D;
Z=B*f/D;
得P点的空间坐标(x,y,z),也即获取P点的位置信息。
具体地,在本发明实施例提供的起立监测方法的另一个实施例中,在所述若确认摄像区30发生第一事件,根据所述图像人脸面积确认主相机之后,还包括:根据主相机以及辅助相机的图像信息与相机参数信息,获取所述第一事件的数量。
其中,利用主相机与辅助相机的图像信息以及相机的内参数与外参数,可以确认各自图像信息中的第一事件是否为同一个第一事件,从而确认第一事件的数量。需要说明的是,在多个第一事件发生时,服务器 10则会根据拾音器的声音优先作为特写目标。举个例子,当主相机对应两个第一事件时,也即该摄像区30有两个目标用户进行起立动作,当其中一个目标用户发出声音时,服务器10会优先对该目标用户进行特写;而当两个目标用户均发出声音时,分时段轮流特写,比如可预设一个目标用户特写摄像30秒。
本实施例提供的起立监测方法,通过获取摄像区30的图像信息,并根据图像信息中的图像人脸面积确认摄像区是否发生第一事件,所述第一事件是指目标用户进行起立动作;若是,根据所述第一事件在所在摄像区对应的至少两个相机的图像人脸面积以及相机参数信息,确认主相机,再根据主相机以及辅助相机的图像信息与相机参数信息,获取所述第一事件的位置信息;然后根据所述第一事件的位置信息,发送摄像指令至所述主相机;最后获取所述主相机发送的所述第一事件的摄像信息。本发明实施例在目标用户的上方设置相机集群,利用相机集群对目标用户的起立动作进行检测,降低了监测成本且提高了监测精度。
相应地,本发明实施例还提供了一种起立监测装置,所述起立监测装置100用于图1所示的服务器10,如图7示,所述起立监测装置100 包括:
第一信息获取模块101,用于获取摄像区的图像信息;所述图像信息包括每个目标用户的图像人脸面积;
第一判断模块102,用于根据所述图像人脸面积确认摄像区是否发生第一事件;所述第一事件是指目标用户进行起立动作;
第二判断模块103,用于若摄像区发生第一事件,根据所述第一事件在所在摄像区对应的至少两个相机的图像人脸面积以及相机参数信息确认主相机;所述主相机为至少两个相机中与所述第一事件最接近的一个相机,第一事件所在的摄像区对应的其余相机为辅助相机;
计算模块104,用于根据主相机以及辅助相机的图像信息与相机参数信息,获取所述第一事件的位置信息;
发送模块105,用于根据所述第一事件的位置信息,发送摄像指令至所述主相机;
第二信息获取模块106,用于获取所述主相机发送的所述第一事件的摄像信息。
本实施例提供的一种起立监测装置,通过获取摄像区的图像信息,并根据图像信息中的图像人脸面积确认摄像区是否发生第一事件,所述第一事件是指目标用户进行起立动作;若是,根据所述第一事件在所在摄像区对应的至少两个相机的图像人脸面积以及相机参数信息确认主相机,再根据主相机以及辅助相机的图像信息与相机参数信息,获取所述第一事件的位置信息;然后根据所述第一事件的位置信息,发送摄像指令至所述主相机;最后获取所述主相机发送的所述第一事件的摄像信息。本发明实施例利用所述定位装置对目标用户的起立动作进行检测,降低了起立监测成本且提高了监测精度。
具体地,如附图8所示,所述第一判断模块102还包括:
第一计算单元1021,用于计算同一列中每个图像人脸面积与预设参考值的面积比值;所述预设参考值为该列没有发生第一事件的所有目标用户的图像人脸面积的平均值;
第一判断单元1022,用于判断所述面积比值是否大于预设阈值;若是,则确认所述第一行发生第一事件;若否,则确认所述第一行没有发生第一事件。
具体地,如附图9所示,所述第二判断模块103还包括:
第二判断单元1031,用于根据所述第一事件在所在摄像区对应的至少两个相机的图像人脸面积以及相机参数信息,确认发生第一事件是否为同一目标用户;
第二确认单元1032,用于若所述第一事件为同一目标用户,比较该目标用户在所在摄像区对应的至少两个相机中的图像人脸面积,确认最大值对应的相机为主相机。
具体地,所述计算模块104具体用于:
根据主相机以及辅助相机的图像信息与相机参数信息,获取计算信息;所述计算信息包括主相机与辅助相机的光心距、视差以及焦距;
根据所述主相机与辅助相机的光心距、视差以及焦距,获取所述第一事件的位置信息。
具体地,如附图7所示,所述起立监测装置100还包括:
统计模块107,用于根据主相机以及辅助相机的图像信息与相机参数信息,获取所述第一事件的数量。
需要说明的是,上述起立监测装置可执行本发明实施例所提供的起立监测方法,具备执行方法相应的功能模块和有益效果。未在人脸识别装置实施例中详尽描述的技术细节,可参见本发明实施例所提供的起立监测方法。
本发明实施例还提供了一种服务器,图10是本发明实施例提供的服务器10的硬件结构示意图,如图10所示,该服务器10包括:
至少一个处理器11;以及,
与所述至少一个处理器11通信连接的存储器12;其中,
所述存储器12存储有可被所述至少一个处理器11执行的指令,所述指令被所述至少一个处理器11执行,以使所述至少一个处理器11能够执行如前述的起立监测方法。
具体地,以附图10中一个处理器11为例。处理器11和存储器12 可以通过总线或者其他方式连接,图10中以通过总线连接为例。
存储器12作为一种非易失性计算机可读存储介质,可用于存储非易失性软件程序、非易失性计算机可执行程序以及模块,如本发明实施例中的起立监测方法对应的程序指令/模块(例如,附图2所示的步骤 S10-S60)。处理器11通过运行存储在存储器12中的非易失性软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例的起立监测方法。
存储器12可以包括存储程序区和存储数据区,其中,存储程序区可存储操作***、至少一个功能所需要的应用程序;存储数据区可存储根据服务器的使用所创建的数据等。此外,存储器12可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实施例中,存储器12 可选包括相对于处理器11远程设置的存储器,这些远程存储器可以通过网络连接至服务器10上。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
所述一个或者多个模块存储在所述存储器12中,当被所述一个或者多个处理器11执行时,执行上述任意方法实施例中的起立监测方法,例如,执行以上描述的图2中的方法步骤S10至步骤S60,图3中的方法步骤 S21至步骤S24,图4中的方法步骤S31至步骤S32,图5中的方法步骤S41 至步骤S42。
上述产品可执行本发明实施例所提供的方法,具备执行方法相应的功能模块和有益效果。未在本实施例中详尽描述的技术细节,可参见本发明实施例所提供的方法。
本实施例提供的一种服务器,通过获取摄像区的图像信息,并根据图像信息中的图像人脸面积确认摄像区是否发生第一事件,所述第一事件是指目标用户进行起立动作;若是,根据所述第一事件在所在摄像区对应的至少两个相机的图像人脸面积以及相机参数信息确认主相机,再根据主相机以及辅助相机的图像信息与相机参数信息,获取所述第一事件的位置信息;然后根据所述第一事件的位置信息,发送摄像指令至所述主相机;最后获取所述主相机发送的所述第一事件的摄像信息。本发明实施例利用所述服务器对目标用户的起立动作进行检测,降低了起立监测成本且提高了监测精度。
本发明实施例还提供了一种起立监测***,所述***包括:相机集群以及如上述的服务器;
所述相机集群与所述服务器连接,用于对目标用户进行图像信息获取;所述相机集群包括至少两个相机。
本实施例提供的一种起立监测***,通过获取摄像区的图像信息,并根据图像信息中的图像人脸面积确认摄像区是否发生第一事件,所述第一事件是指目标用户进行起立动作;若是,根据所述第一事件在所在摄像区对应的至少两个相机的图像人脸面积以及相机参数信息确认主相机,再根据主相机以及辅助相机的图像信息与相机参数信息,获取所述第一事件的位置信息;然后根据所述第一事件的位置信息,发送摄像指令至所述主相机;最后获取所述主相机发送的所述第一事件的摄像信息。本发明实施例利用所述***对目标用户的起立动作进行检测,降低了起立监测成本且提高了监测精度。
通过以上的实施例的描述,本领域普通技术人员可以清楚地了解到各实施例可借助软件加通用硬件平台的方式来实现,当然也可以通过硬件。本领域普通技术人员可以理解实现所述实施例方法中的全部或部分流程是可以通过计算机程序指令相关的硬件来完成,所述的程序可存储于计算机可读取存储介质中,该程序在执行时,可包括如所述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-OnlyMemory,ROM)或随机存储记忆体(Random Access Memory,RAM)等。
本发明实施例提供了一种非易失性计算机可读存储介质,所述计算机可读存储介质存储有计算机可执行指令,该计算机可执行指令被一个或多个处理器执行,例如图10中的一个处理器11,可使得上述一个或多个处理器可执行上述任意方法实施例中的起立监测方法,例如,执行以上描述的图2中的方法步骤S10至步骤S60,图3中的方法步骤S21至步骤S24,图4中的方法步骤S31至步骤S32、图5中方法步骤S41至步骤S42;实现图7中的模块101-107,图8-图10中的单元1021-1022、单元 1031-1032、单元1031-1032的功能。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
通过以上的实施方式的描述,本领域普通技术人员可以清楚地了解到各实施方式可借助软件加通用硬件平台的方式来实现,当然也可以通过硬件。本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)或随机存储记忆体 (RandomAccessMemory,RAM)等。
上述产品可执行本发明实施例所提供的方法,具备执行方法相应的功能模块和有益效果。未在本实施例中详尽描述的技术细节,可参见本发明实施例所提供的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;在本发明的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,步骤可以以任意顺序实现,并存在如上所述的本发明的不同方面的许多其它变化,为了简明,它们没有在细节中提供;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。

Claims (16)

1.一种起立监测方法,用于服务器,其特征在于,所述服务器与相机集群连接,所述相机集群设于至少两个目标用户上方,所述相机集群包括至少两个相机,所述至少两个相机参数信息一致,一个摄像区对应至少两个相机,所述方法包括:
获取摄像区的图像信息;所述图像信息包括每个目标用户的图像人脸面积;
根据所述图像人脸面积确认摄像区是否发生第一事件;所述第一事件是指目标用户进行起立动作;
若是,根据所述第一事件在所在摄像区对应的至少两个相机的图像人脸面积以及相机参数信息确认主相机;所述主相机为至少两个相机中与所述第一事件最接近的一个相机,第一事件所在的摄像区对应的其余相机为辅助相机;
根据主相机以及辅助相机的图像信息与相机参数信息,获取所述第一事件的位置信息;
根据所述第一事件的位置信息,发送摄像指令至所述主相机;
获取所述主相机发送的所述第一事件的摄像信息。
2.根据权利要求1所述的起立监测方法,其特征在于:所述根据所述图像人脸面积确认摄像区是否发生第一事件,包括:
计算同一列中每个图像人脸面积与预设参考值的面积比值;所述预设参考值为该列没有发生第一事件的所有目标用户的图像人脸面积的平均值;
判断所述面积比值是否大于预设阈值;
若是,则确认所述第一行发生第一事件;
若否,则确认所述第一行没有发生第一事件。
3.根据权利要求2所述的起立监测方法,其特征在于,不同的摄像区对应不同的预设阈值。
4.根据权利要求3所述的起立监测方法,其特征在于,当所述摄像区为平面型教室时,所述预设阈值的取值范围为1-2;
当所述摄像区为阶梯型教室时,所述预设阈值的取值范围为0.8-1.1。
5.根据权利要求1所述的起立监测方法,其特征在于,所述若是,根据所述第一事件在所在摄像区对应的至少两个相机的图像人脸面积以及相机参数信息确认主相机,包括:
根据所述第一事件在所在摄像区对应的至少两个相机的图像人脸面积以及相机参数信息,确认发生第一事件是否为同一目标用户;
若是,比较该目标用户在所在摄像区对应的至少两个相机中的图像人脸面积,获取面积最大值,确认面积最大值对应的相机为主相机。
6.根据权利要求1所述的起立监测方法,其特征在于:所述根据主相机以及辅助相机的图像信息与相机参数信息,获取所述第一事件的位置信息,包括:
根据主相机以及辅助相机的图像信息与相机参数信息,获取计算信息;所述计算信息包括主相机与辅助相机的光心距、视差以及焦距;
根据所述主相机与辅助相机的光心距、视差以及焦距,获取所述第一事件的位置信息。
7.根据权利要求1所述的起立监测方法,其特征在于:所述摄像信息包括所述第一事件特写的视频信息与声音信息。
8.根据权利要求1-7任一项所述的起立监测方法,其特征在于,在所述若是,根据所述图像人脸面积确认主相机之后,还包括:
根据主相机以及辅助相机的图像信息与相机参数信息,获取所述第一事件的数量。
9.根据权利要求1所述的起立监测方法,其特征在于,所述获取摄像区的图像信息,包括:
采集摄像区图像;
基于人脸检测模型获取摄像区图像的图像人脸;所述人脸检测模型为训练好的全卷积神经网络;所述图像人脸为所述摄像区内目标用户的图像人脸;
解析所述图像人脸;
获取摄像区的图像信息;所述图像信息包括每个目标用户的图像人脸面积。
10.一种起立监测装置,用于服务器,其特征在于,所述装置包括:
第一信息获取模块,用于获取摄像区的图像信息;所述图像信息包括每个目标用户的图像人脸面积;
第一判断模块,用于根据所述图像人脸面积确认摄像区是否发生第一事件;所述第一事件是指目标用户进行起立动作;
第二判断模块,用于若摄像区发生第一事件,根据所述第一事件在所在摄像区对应的至少两个相机的图像人脸面积以及相机参数信息确认主相机;所述主相机为至少两个相机中与所述第一事件最接近的一个相机,第一事件所在的摄像区对应的其余相机为辅助相机;
计算模块,用于根据主相机以及辅助相机的图像信息与相机参数信息,获取所述第一事件的位置信息;
发送模块,用于根据所述第一事件的位置信息,发送摄像指令至所述主相机;
第二信息获取模块,用于获取所述主相机发送的所述第一事件的摄像信息。
11.根据权利要求10所述的起立监测装置,其特征在于,所述第一判断模块还包括:
第一计算单元,用于计算同一列中每个图像人脸面积与预设参考值的面积比值;所述预设参考值为该列没有发生第一事件的所有目标用户的图像人脸面积的平均值;
第一判断单元,用于判断所述面积比值是否大于预设阈值;若是,则确认所述第一行发生第一事件;若否,则确认所述第一行没有发生第一事件。
12.根据权利要求10所述的起立监测装置,其特征在于,所述第二判断模块还包括:
第二判断单元,用于根据所述第一事件在所在摄像区对应的至少两个相机的图像人脸面积以及相机参数信息,确认发生第一事件是否为同一目标用户;
第二确认单元,用于若所述第一事件为同一目标用户,比较该目标用户在所在摄像区对应的至少两个相机中的图像人脸面积,确认最大值对应的相机为主相机。
13.根据权利要求10所述的起立监测装置,其特征在于,所述计算模块具体用于:
根据主相机以及辅助相机的图像信息与相机参数信息,获取计算信息;所述计算信息包括主相机与辅助相机的光心距、视差以及焦距;
根据所述主相机与辅助相机的光心距、视差以及焦距,获取所述第一事件的位置信息。
14.根据权利要求10-13任一项所述的起立监测装置,其特征在于,所述起立监测装置还包括:
统计模块,用于根据主相机以及辅助相机的图像信息与相机参数信息,获取所述第一事件的数量。
15.一种服务器,其特征在于,所述服务器包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1-9任一项所述的方法。
16.一种起立监测***,其特征在于,所述***包括:相机集群以及与如权利要求15所述的服务器;
所述相机集群与所述服务器连接,用于对目标用户进行图像信息获取;所述相机集群包括至少两个相机。
CN201811378341.7A 2018-11-19 2018-11-19 一种起立监测方法、装置、服务器及起立监测*** Active CN109522846B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811378341.7A CN109522846B (zh) 2018-11-19 2018-11-19 一种起立监测方法、装置、服务器及起立监测***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811378341.7A CN109522846B (zh) 2018-11-19 2018-11-19 一种起立监测方法、装置、服务器及起立监测***

Publications (2)

Publication Number Publication Date
CN109522846A true CN109522846A (zh) 2019-03-26
CN109522846B CN109522846B (zh) 2020-08-14

Family

ID=65776635

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811378341.7A Active CN109522846B (zh) 2018-11-19 2018-11-19 一种起立监测方法、装置、服务器及起立监测***

Country Status (1)

Country Link
CN (1) CN109522846B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110688927A (zh) * 2019-09-20 2020-01-14 湖南大学 一种基于时序卷积建模的视频动作检测方法
CN110738109A (zh) * 2019-09-10 2020-01-31 浙江大华技术股份有限公司 检测用户起立的方法、装置及计算机存储介质
CN113853158A (zh) * 2019-07-22 2021-12-28 松下知识产权经营株式会社 步行功能评价装置、步行功能评价***、步行功能评价方法、程序及认知功能评价装置
WO2022206595A1 (zh) * 2021-03-31 2022-10-06 华为技术有限公司 一种图像处理方法以及相关设备

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070003113A1 (en) * 2003-02-06 2007-01-04 Goldberg David A Obtaining person-specific images in a public venue
US20090303329A1 (en) * 2008-06-06 2009-12-10 Mitsunori Morisaki Object image displaying system
CN102096930A (zh) * 2011-01-30 2011-06-15 吴柯维 一种教学智能录播***学生起坐检测方法
CN102903125A (zh) * 2012-09-27 2013-01-30 无锡天授信息科技有限公司 固定场景下运动目标检测***及方法
CN103093654A (zh) * 2013-01-28 2013-05-08 北京航空航天大学 一种双摄像机交互式智能跟踪教学***
CN103686092A (zh) * 2013-12-30 2014-03-26 深圳锐取信息技术股份有限公司 学生起立双***检测方法及***
CN103916615A (zh) * 2014-04-03 2014-07-09 山大鲁能信息科技有限公司 一种自动识别录播***及其工作方法
US20150022338A1 (en) * 2013-07-17 2015-01-22 Vivint, Inc. Geo-location services
CN104574359A (zh) * 2014-11-03 2015-04-29 南京邮电大学 一种基于主从摄像机的学生跟踪定位方法
WO2017064838A1 (ja) * 2015-10-14 2017-04-20 パナソニックIpマネジメント株式会社 顔検出装置およびこれを備えた顔検出システムならびに顔検出方法
CN106803913A (zh) * 2017-03-10 2017-06-06 武汉东信同邦信息技术有限公司 一种用于自动侦测学生起立发言动作的检测方法及其装置
CN107172383A (zh) * 2016-03-02 2017-09-15 杭州海康威视数字技术股份有限公司 一种对象状态检测方法及装置
CN107273781A (zh) * 2016-04-07 2017-10-20 北京文香信息技术有限公司 一种基于图像分析的人体行为识别算法
CN206674094U (zh) * 2017-04-17 2017-11-24 上海景瑞信息技术有限公司 基于人脸识别的摄像机自动控制***
CN108111818A (zh) * 2017-12-25 2018-06-01 北京航空航天大学 基于多摄像机协同的运动目标主动感知方法和装置

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070003113A1 (en) * 2003-02-06 2007-01-04 Goldberg David A Obtaining person-specific images in a public venue
US20090303329A1 (en) * 2008-06-06 2009-12-10 Mitsunori Morisaki Object image displaying system
CN102096930A (zh) * 2011-01-30 2011-06-15 吴柯维 一种教学智能录播***学生起坐检测方法
CN102903125A (zh) * 2012-09-27 2013-01-30 无锡天授信息科技有限公司 固定场景下运动目标检测***及方法
CN103093654A (zh) * 2013-01-28 2013-05-08 北京航空航天大学 一种双摄像机交互式智能跟踪教学***
US20150022338A1 (en) * 2013-07-17 2015-01-22 Vivint, Inc. Geo-location services
CN103686092A (zh) * 2013-12-30 2014-03-26 深圳锐取信息技术股份有限公司 学生起立双***检测方法及***
CN103916615A (zh) * 2014-04-03 2014-07-09 山大鲁能信息科技有限公司 一种自动识别录播***及其工作方法
CN104574359A (zh) * 2014-11-03 2015-04-29 南京邮电大学 一种基于主从摄像机的学生跟踪定位方法
WO2017064838A1 (ja) * 2015-10-14 2017-04-20 パナソニックIpマネジメント株式会社 顔検出装置およびこれを備えた顔検出システムならびに顔検出方法
CN107172383A (zh) * 2016-03-02 2017-09-15 杭州海康威视数字技术股份有限公司 一种对象状态检测方法及装置
CN107273781A (zh) * 2016-04-07 2017-10-20 北京文香信息技术有限公司 一种基于图像分析的人体行为识别算法
CN106803913A (zh) * 2017-03-10 2017-06-06 武汉东信同邦信息技术有限公司 一种用于自动侦测学生起立发言动作的检测方法及其装置
CN206674094U (zh) * 2017-04-17 2017-11-24 上海景瑞信息技术有限公司 基于人脸识别的摄像机自动控制***
CN108111818A (zh) * 2017-12-25 2018-06-01 北京航空航天大学 基于多摄像机协同的运动目标主动感知方法和装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
夏宇,陆琴.: "一种新型的基于图像识别技术的录播***在课改中的应用", 《中国教育信息化》 *
易唐唐: "基于时空与或图模型的视频人体动作识别方法", 《控制工程》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113853158A (zh) * 2019-07-22 2021-12-28 松下知识产权经营株式会社 步行功能评价装置、步行功能评价***、步行功能评价方法、程序及认知功能评价装置
CN113853158B (zh) * 2019-07-22 2024-05-14 松下知识产权经营株式会社 步行功能评价装置、步行功能评价***、步行功能评价方法、记录介质及认知功能评价装置
CN110738109A (zh) * 2019-09-10 2020-01-31 浙江大华技术股份有限公司 检测用户起立的方法、装置及计算机存储介质
CN110738109B (zh) * 2019-09-10 2022-11-22 浙江大华技术股份有限公司 检测用户起立的方法、装置及计算机存储介质
CN110688927A (zh) * 2019-09-20 2020-01-14 湖南大学 一种基于时序卷积建模的视频动作检测方法
CN110688927B (zh) * 2019-09-20 2022-09-30 湖南大学 一种基于时序卷积建模的视频动作检测方法
WO2022206595A1 (zh) * 2021-03-31 2022-10-06 华为技术有限公司 一种图像处理方法以及相关设备

Also Published As

Publication number Publication date
CN109522846B (zh) 2020-08-14

Similar Documents

Publication Publication Date Title
CN109522846A (zh) 一种起立监测方法、装置、服务器及起立监测***
CN109325933B (zh) 一种翻拍图像识别方法及装置
CN109690624A (zh) 用于视频分析的自动场景校准方法
WO2021047306A1 (zh) 一种异常行为判定方法、装置、终端及可读存储介质
CN109344682A (zh) 课堂监控方法、装置、计算机设备及存储介质
JP4704174B2 (ja) 状態識別装置、プログラムおよび方法
CN104813339A (zh) 用于检测视频中的对象的方法、设备和***
US11983898B2 (en) Monitoring method, electronic device and storage medium
KR20150117553A (ko) 시선 추적 방법, 장치 및 컴퓨터 판독가능한 기록 매체
JP6859640B2 (ja) 情報処理装置、評価システムおよびプログラム
CN108898079A (zh) 一种监控方法及装置、存储介质、拍摄终端
CN109064489A (zh) 用于人脸追踪的方法、装置、设备和介质
CN112784786A (zh) 人体姿态识别方法及装置
CN110956068A (zh) 一种基于人眼状态识别的疲劳检测方法及装置
CN112036217B (zh) 一种基于嘴部信息的人员状态检测方法及装置
CN109409173B (zh) 基于深度学习的驾驶人状态监测方法、***、介质及设备
CN111401240B (zh) 一种课堂注意力检测方法、装置、设备及存储介质
CN115937961B (zh) 一种线上学习识别方法及设备
CN112613444A (zh) 一种行为检测的方法、装置、电子设备及存储介质
US10438066B2 (en) Evaluation of models generated from objects in video
CN112016347A (zh) 一种基于眼睑特征信息的人员状态检测方法及装置
CN110096989A (zh) 图像处理方法和装置
Kim et al. Simulation of face pose tracking system using adaptive vision switching
CN116797090B (zh) 一种学员课堂学习状态在线评估方法及***
CN110580707A (zh) 一种对象跟踪方法及***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Address after: Room 1005, Sanhang technology building, northwest Polytechnic University, Gaoxin South 9th Road, Yuehai street, Nanshan District, Shenzhen City, Guangdong Province

Applicant after: SHENZHEN BOWEI EDUCATION TECHNOLOGY Co.,Ltd.

Address before: Room 1005, Sanhang Science and Technology Building, Northwest Polytechnic University, Gaoxin Nanjiu Road, Yuehai Street, Shenzhen, Guangdong 518000

Applicant before: SHENZHEN BOWEI EDUCATION TECHNOLOGY Co.,Ltd.

GR01 Patent grant
GR01 Patent grant