CN112069931A - 一种状态报告的生成方法及状态监控*** - Google Patents
一种状态报告的生成方法及状态监控*** Download PDFInfo
- Publication number
- CN112069931A CN112069931A CN202010844814.9A CN202010844814A CN112069931A CN 112069931 A CN112069931 A CN 112069931A CN 202010844814 A CN202010844814 A CN 202010844814A CN 112069931 A CN112069931 A CN 112069931A
- Authority
- CN
- China
- Prior art keywords
- state
- user
- key point
- image
- video segment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012544 monitoring process Methods 0.000 title claims abstract description 209
- 238000000034 method Methods 0.000 title claims abstract description 70
- 238000000605 extraction Methods 0.000 claims description 20
- 238000004590 computer program Methods 0.000 claims description 17
- 238000001514 detection method Methods 0.000 claims description 16
- 230000008859 change Effects 0.000 claims description 12
- 230000008676 import Effects 0.000 claims description 11
- 239000000284 extract Substances 0.000 claims description 7
- 230000036544 posture Effects 0.000 description 157
- 238000010586 diagram Methods 0.000 description 12
- 239000013598 vector Substances 0.000 description 10
- 230000008569 process Effects 0.000 description 9
- 238000004364 calculation method Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 230000000284 resting effect Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 230000003993 interaction Effects 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 238000005452 bending Methods 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000007781 pre-processing Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 230000006735 deficit Effects 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000003707 image sharpening Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
- G06Q50/205—Education administration or guidance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Educational Technology (AREA)
- Human Computer Interaction (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Educational Administration (AREA)
- General Engineering & Computer Science (AREA)
- Strategic Management (AREA)
- Tourism & Hospitality (AREA)
- Economics (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- General Business, Economics & Management (AREA)
- Image Analysis (AREA)
Abstract
本申请适用于智能教育领域,提供了一种状态报告的生成方法及状态监控***,所述状态监控***包括:状态识别装置、服务器以及用户终端;所述方法包括:所述状态识别装置基于监控时段中采集的用户视频,确定用户在所述监控时段内对应的状态监控结果,并将所述状态监控结果发送至所述服务器;所述服务器基于接收到的所述状态监控结果,生成所述监控时段对应的状态信息;若所述服务器接收到所述用户终端发送的状态报告生成请求,则所述服务器基于所述状态报告生成请求向所述用户终端反馈所述状态信息,并指示所述用户终端生成并显示状态报告。本申请可以实现实时监督用户的状态,自动生成状态报告,以让用户了解自己的状态。
Description
技术领域
本申请属于智能教育领域,尤其涉及一种状态报告的生成方法及状态监控***。
背景技术
随着时代的进步,教育事业也变得越来越全民化和普遍化,各种各样课程可供用户们选择。用户在学习期间,会投入大部分精神去学习,而不会在意这期间自己的状态,一般也不会有人一直监督用户学习,从而使得用户不了解自己在学习期间的情况。因此,行业亟需一种智能化教育产品,在用户学习课程时监督用户,并根据用户在学习期间的表现,自动生成状态报告,以让用户了解在学习期间的状态。
发明内容
本申请实施例提供了一种状态报告的生成方法及状态监控***,可以监督用户在学习期间的表现,自动生成状态报告,以让用户了解在学习期间的状态。
第一方面,本申请实施例提供了一种状态报告的生成方法,应用于状态监控***,所述状态监控***包括:状态识别装置、服务器以及用户终端;所述状态报告生成方法包括:所述状态识别装置基于监控时段中采集的用户视频,确定用户在所述监控时段内对应的状态监控结果,并将所述状态监控结果发送至所述服务器;所述状态监控结果包括:学习状态信息、坐姿信息以及注意力信息;所述服务器基于接收到的所述状态监控结果,生成所述监控时段对应的状态信息;若所述服务器接收到所述用户终端发送的状态报告生成请求,则所述服务器基于所述状态报告生成请求向所述用户终端反馈所述状态信息,并指示所述用户终端生成并显示状态报告。
在第一方面的一种可能的实现方式中,一个用户视频对应一个监控时段,监控时段有多个;所述状态报告包括多个状态页面,一个状态页面对应一个监控时段。
示例性的,所述监控时段指的是所述用户视频的起始时刻至终点时刻的时间段,所述用户视频应是时间轴连续不间断的视频;上述所述服务器基于所述状态报告生成请求向所述用户终端反馈所述状态信息,并指示所述用户终端生成并显示状态报告,具体可以包括:所述服务器基于所述状态报告生成请求反馈多个监控时段对应的状态信息,并基于目标监控时段的状态信息生成所述目标监控时段对应的状态页面,所述目标监控时段为所述多个监控时段中的任一监控时段。
应理解,上述所述用户终端显示状态报告时具体可以是所述用户终端基于用户操作显示所述状态报告的状态页面,也即用户可以根据自身需求,浏览某个特定监控时段对应的状态页面,以了解该监控时段的用户状态。
第二方面,本申请实施例提供了一种状态监控***,所述状态监控***包括:状态识别装置、服务器以及用户终端;所述状态识别装置用于基于监控时段中采集的用户视频,确定用户在所述监控时段内对应的状态监控结果,并将所述状态监控结果发送至所述服务器;所述状态监控结果包括:学习状态信息、坐姿信息以及注意力信息;所述服务器用于基于接收到的所述状态监控结果,生成所述监控时段对应的状态信息;所述服务器还用于若接收到所述用户终端发送的状态报告生成请求,则所述服务器基于所述状态报告生成请求向所述用户终端反馈所述状态信息,并指示所述用户终端生成并显示状态报告。
第三方面,本申请实施例提供了一种电子设备,包括:存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述第一方面中任一项所述状态识别装置所执行的方法,和/或,所述服务器所执行的方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,包括:所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述第一方面中任一项所述状态识别装置所执行的方法,和/或,所述服务器所执行的方法。
可以理解的是,上述第二方面至第五方面的有益效果可以参见上述第一方面中的相关描述,在此不再赘述。
本申请实施例与现有技术相比存在的有益效果是:
本申请提供的状态报告的生成方法,相对于现有技术,实时在用户的学习过程监督用户,通过识别所述用户在学习过程中的坐姿状态以及注意力状态,生成状态报告,以记录用户在学习过程中的状态,以便用户查看并基于该学习报告及时纠正后续学习过程中的状态。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本申请第一实施例提供的方法的实现流程图;
图2是本申请一实施例提供的应用场景示意图;
图3是本申请一实施例提供的状态监控***数据交互图;
图4是本申请第二实施例提供的方法的实现流程图;
图5是本申请第三实施例提供的关键点提取网络的示意图;
图6是本申请第四实施例提供的方法S303的流程示意图;
图7是本申请第五实施例提供的方法的实现流程图;
图8是本申请第六实施例提供的方法的实现流程图;
图9是本申请第七实施例提供的方法的实现流程图;
图10是本申请第七实施例提供的状态报告效果示意图;
图11是本申请一实施提供的状态监控***的结构示意图;
图12是本申请一实施例提供的电子设备的结构示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定***结构、技术之类的具体细节,以便透彻理解本申请实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本申请。在其它情况中,省略对众所周知的***、装置、电路以及方法的详细说明,以免不必要的细节妨碍本申请的描述。
应当理解,当在本申请说明书和所附权利要求书中使用时,术语“包括”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在本申请说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
如在本申请说明书和所附权利要求书中所使用的那样,术语“如果”可以依据上下文被解释为“当...时”或“一旦”或“响应于确定”或“响应于检测到”。类似地,短语“如果确定”或“如果检测到[所描述条件或事件]”可以依据上下文被解释为意指“一旦确定”或“响应于确定”或“一旦检测到[所描述条件或事件]”或“响应于检测到[所描述条件或事件]”。
另外,在本申请说明书和所附权利要求书的描述中,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
在本申请说明书中描述的参考“一个实施例”或“一些实施例”等意味着在本申请的一个或多个实施例中包括结合该实施例描述的特定特征、结构或特点。由此,在本说明书中的不同之处出现的语句“在一个实施例中”、“在一些实施例中”、“在其他一些实施例中”、“在另外一些实施例中”等不是必然都参考相同的实施例,而是意味着“一个或多个但不是所有的实施例”,除非是以其他方式另外特别强调。术语“包括”、“包含”、“具有”及它们的变形都意味着“包括但不限于”,除非是以其他方式另外特别强调。
图1示出了本申请第一实施例提供的方法的数据交互图,详述如下:
参见图1,本实施例提供的状态报告生成方法应用于状态监控***,所述状态监控***包括:状态识别装置、服务器以及用户终端;所述状态报告生成方法包括S101~S103。
在S101中,所述状态识别装置基于监控时段中采集的用户视频,确定用户在所述监控时段内对应的状态监控结果,并将所述状态监控结果发送至所述服务器。
在本实施例中,所述状态监控结果包括:学习状态信息、坐姿信息以及注意力信息。所述用户视频可以是通过摄像头采集的,并经由所述摄像头上传至所述状态识别装置中,所述状态识别装置也可以包括所述摄像头。所述摄像头应设置在预设位置上,例如用户学习时所使用的桌子上,或用于显示用户学习视频的显示器上,或用户看书时放置书本的书本架上;所述摄像头应在所述用户处于坐姿状态下进行学习时,可拍摄得到该用户的上半身区域,所述上半身包括所述用户人体的胸部以上部分,特别地,包括人脸以及肩部。
在一种可能的实现方式中,所述用户视频包括多帧用户图像。上述状态识别装置可以基于监控时段中采集的用户视频,确定用户在所述监控时段内对应的状态监控结果,上述过程具体可以为:所述状态识别装置根据所述监控时段中采集的所述用户视频内的所有用户图像,确定所述监控时段内对应的所述学习状态信息、所述坐姿信息以及所述注意力信息;所述学习状态信息用于表征所述用户在所述监控时段内的各个时间段是处于学习或是处于休息的状态;所述坐姿信息用于表征所述用户在所述监控时段内的各个时间段的坐姿,所述坐姿包括标准坐姿或非标准坐姿,还可以为具体类型的坐姿;所述注意力信息用于表征所述用户在所述监控时段内的各个时间段的注意力是否集中。
可选地,所述状态识别装置将所有用户图像分别导入学习状态识别模型,识别出各个所述用户图像对应的学习状态,并基于所有用户图像的所述学习状态得出所述监控时段的所述学习状态信息;应理解,为了实现实时监控用户在学习时的状态信息,只需在用户处于学习的状态时才去确定此时用户的坐姿状态信息以及注意力状态信息,也即当所述用户图像的所述学习状态表示所述用户处于学习的状态时,所述状态识别装置才将所述用户图像分别导入坐姿识别模型以及注意力识别模型,识别出所述用户图像对应的坐姿状态以及注意力状态,并基于所有用户图像的所述坐姿状态以及所述注意力状态得出所述监控时段的所述坐姿状态信息以及所述注意力状态信息;当所述用户图像的所述学习状态表示所述用户处于休息的状态时,所述状态识别装置可以不执行确定所述坐姿状态以及所述注意力状态的操作,或将所述坐姿状态以及所述注意力状态识别为预设值(例如空值),表示所述用户处于休息状态(即所述用户图像内可能不包含所述用户的人体),不识别所述用户此时的坐姿状态以及注意力状态。
在S102中,所述服务器基于接收到的所述状态监控结果,生成所述监控时段对应的状态信息。
在本实施例中,所述服务器基于接收到的上述S101中所述状态识别装置发送的所述状态监控结果,生成所述监控时段对应的状态信息;示例性地,所述状态信息用于表征所述用户在所述监控时段的状态,包括学习状态、坐姿状态以及注意力状态,具体地,所述服务器根据所述状态监控结果,确定所述监控时段内不同的所述学习状态对应的时间段、不同的所述坐姿状态对应的时间段以及不同的所述注意力状态对应的时间段。
在一种可能实现的方式中,所述监控时段为10:00至11:00;上述服务器基于接收到的所述状态监控结果,生成所述监控时段对应的状态信息,具体可以为:所述服务器根据所述状态监控结果中的所述学习状态信息,将所述监控时段分为学习时间段以及休息时间段,例如,所述学习状态信息表征所述用户在所述监控时段的10:00至10:40中一直处于学习的状态,在所述监控时段的10:41至11:00中一直处于休息的状态;则所述服务器确定所述学习时间段具体为10:00至10:40,休息时间段具体为10:41至11:00;所述服务器根据所述状态监控结果中的所述坐姿状态信息,将所述监控时段中的所述学习时间段分为坐姿标准时间段以及坐姿非标准时间段(也可分为不同具体坐姿类型对应的多个时间段),例如,所述坐姿状态信息表征所述用户在所述监控时段的10:10至10:15以及10:20至10:30中处于非标准坐姿状态,在其余时间段处于标准坐姿状态,则所述服务器确定所述坐姿标准时间段为10:00至10:09、10:16至10:19以及10:31至10:40,所述坐姿非标准时间段为10:10至10:15以及10:20至10:30;所述服务器根据所述状态监控结果中的所述注意力状态信息,将所述监控时段中的所述学习时间段分为注意力集中时间段以及注意力不集中时间段,例如,所述注意力状态信息表征所述用户在所述监控时段的10:10至10:20以及10:35至10:40处于注意力不集中状态,在其余时间段处于注意力集中状态,则所述服务器确定所述注意力集中时间段为10:00至10:09以及10:21至10:34,所述注意力不集中时间段为10:10至10:20以及10:35至10:40。
应理解,所述监控时段对应的所述状态信息,具体可以包括所述用户由所述标准坐姿状态转为所述非标准坐姿状态的次数以及由所述注意力集中状态转为所述注意力不集中状态的次数,即所述用户在所述监控时段的坐姿不正次数以及注意力不集中次数,作为示例,参照上述的举例,所述坐姿不正次数具体为2次,所述注意力不集中次数为2次。
在S103中,若所述服务器接收到所述用户终端发送的状态报告生成请求,则所述服务器基于所述状态报告生成请求向所述用户终端反馈所述状态信息,并指示所述用户终端生成并显示状态报告。
在本实施例中,为了生成状态报告需要所述服务器生成的所述监控时段对应的所述状态信息,所述用户终端需要向所述服务器发送所述状态报告生成请求,所述服务器基于所述状态报告生成请求将所述监控时段的所述状态信息反馈至所述用户终端。
在一种可能实现的方式中,所述用户终端基于用户操作(例如用户触发观看所述状态报告的操作),向所述服务器发送所述状态报告生成请求;若所述服务器接收到所述用户终端发送的状态报告生成请求,则所述服务器基于所述状态报告生成请求向所述用户终端反馈所述状态信息,并指示所述用户终端生成并显示状态报告,以满足用户需求。
在本实施例中,所述用户终端生成状态报告,也即所述用户终端基于所述服务器反馈的所述状态信息生成所述状态报告时,具体可以为,所述用户终端预设置所述状态报告的界面框架,并将所述状态信息中的数据分别填入各个所述数据位于所述界面框架对应的位置上。
在一种可能实现的方式中,上述用户终端接收所述服务器基于所述状态报告生成请求反馈的状态信息,并基于反馈的所述状态信息,生成并显示状态报告,具体可以为:所述用户终端基于用户操作(例如用户触发查看所述监控时段对应的所述状态报告的操作),接收所述服务器基于所述状态报告生成请求反馈的所述监控时段对应的所述状态信息;所述用户终端基于所述状态信息,生成所述监控时段对应的所述状态报告;所述用户终端通过显示装置输出所述状态报告,以供用户查看。
应理解,在一种可能实现的方式中,所述状态识别装置所执行的步骤可以在所述服务器上执行,也即将所述状态识别装置识别为所述服务器的一个模块。
在本实施例中,通过应用于所述状态监控***的所述状态报告方法,可以实现实时监控用户的状态,通过识别所述监控时段对应的用户视频内所述用户的状态,生成用于表征所述用户的状态的所述状态报告,以便将所述监控时段内所述用户的状态以所述状态报告的形式保存下来,实现随时让用户查看所述状态报告,以进行状态调整。
图2示出了本申请一实施例提供的应用场景示意图。参见图2,所述用户利用图中所述的桌子以及椅子进行学习。所述摄像头用于在所述用户学习时段中采集所述用户视频;所述状态识别装置基于所述用户学习时段中采集所述用户视频,确定用户在所述用户学习时段内对应的状态监控结果,并将所述状态监控结果发送至所述服务器;所述服务器基于接收到的所述状态监控结果,生成所述用户学习时段对应的状态信息;所述用户终端向所述服务器发送状态报告生成请求;所述用户终端接收所述服务器基于所述状态报告生成请求反馈的状态信息,并基于反馈的所述状态信息,生成并显示状态报告,以让所述用户了解在所述用户学习时段内的状态。
图3示出了本申请一实施例提供的状态监控***数据交互图;参见图3,在本申请一实施例提供的状态监控***中,所述状态识别装置将所述状态监控结果发送至所述服务器;所述用户终端向所述服务器发送状态报告生成请求;所述服务器基于所述状态报告生成请求反馈所述状态信息至所述用户终端。
图4示出了本申请第二实施例提供的方法的实现流程图。参见图4,相对于图1所述实施例,本实施例提供的方法S101包括S401~S404,具体详述如下:
进一步地,所述状态识别装置基于监控时段中采集的用户视频,确定用户在所述监控时段内对应的状态监控结果,包括:
在S401中,所述状态识别装置基于检测周期将所述用户视频划分为多个视频段。
在本实施例中,所述状态监控结果包括:学习状态信息、坐姿信息以及注意力信息;所述状态识别装置确定用户在所述监控时段内对应的状态监控结果,主要是依据所述用户视频内的多帧用户图像;为了简化计算,也为了实现确定所述状态监控结果的功能,所述状态识别装置需要预设置检测周期,基于所述检测周期将所述用户视频划分为多个所述视频段,每个所述视频段的时长与上述检测周期的周期时长一致,继而状态识别装置分别对各个所述视频段进行分析,以便后续确定所述监控时段对应的所述状态监控结果。作为示例,所述监控时段的时长可以为一个小时,所述检测周期的时长可以为一分钟,也即所述状态识别装置基于所述检测周期将所述用户视频划分为六十个所述视频段。
在S402中,所述状态识别装置将目标视频段内的多帧用户图像分别导入关键点提取网络,得到各帧所述用户图像对应的关键点图像。
在本实施例中,所述目标视频段为所述多个视频段中的任一视频段;上述分别对各个所述视频段进行分析,以所述目标视频段中的任一帧用户图像为例,所述状态识别装置将所述用户图像导入所述关键点提取网络,得到所述用户图像对应的关键点图像,示例性地,所述关键点提取网络用于提取所述用户图像中的关于所述用户的关键点特征信息;所述关键点图像包括所述用户图像内所有关键点特征信息。所述关键点提取网络可以为训练好的用于提取图像中关于目标对象的关键点识别模型,示例性地,所述关键点提取网络具体可以为OpenPose人体关键点识别模型,所述关键点包括左眼关键点、右眼关键点、鼻子关键点、左耳关键点、右耳关键点、左肩关键点、右肩关键点以及中部(脖子)关键点。
在一种可能实现的方式中,上述S402的具体实现方式可以为:所述关键点提取网络提取所述用户图像中关于所述用户的左眼关键点、右眼关键点、鼻子关键点、左耳关键点、右耳关键点、左肩关键点、右肩关键点以及中部(脖子)关键点的特征信息,并基于所述特征信息得到所述关键点图像。
在S403中,所述状态识别装置基于所述目标视频段内所有用户图像对应的关键点图像,确定所述目标视频段对应的用户状态。
在本实施例中,所述用户状态包括学习状态、坐姿状态以及注意力状态。
在一种可能的实现方式中,所述状态识别装置包括学习识别单元、坐姿识别单元以及注意力识别单元;所述状态识别装置基于所述视频段内所有用户图像对应的所述关键点图像,确定所述视频段对应的用户状态,具体可以为:所述学习识别单元基于所述目标视频段内所有用户图像对应的关键点图像,确定所述目标视频段对应的学习状态,所述学习状态用于表征所述用户在所述目标视频段内是处于学习或是处于休息的状态;所述坐姿识别单元基于所述目标视频段内所有用户图像对应的所述关键点图像,确定所述目标视频段对应的坐姿状态,所述坐姿状态用于表征所述用户在所述目标视频段的坐姿,例如标准坐姿状态或非标准坐姿状态,还可以为具体类型的坐姿状态;所述注意力识别单元基于所述目标视频段内所有用户图像对应的关键点图像,确定所述目标视频段对应的注意力状态,所述注意力状态用于表征所述用户在所述目标视频段的注意力是否集中。
应理解,所述学习识别单元、所述坐姿识别单元以及所述注意力识别单元具体可以为训练好的学习识别模型、坐姿识别模型以及注意力识别模型,所述学习识别模型、所述坐姿识别模型以及所述注意力识别模型用于以所述目标视频段对应的多个关键点图像为输入,分别输出所述目标视频段对应的所述学习状态、所述坐姿状态以及所述注意力状态。
在S404中,所述状态识别装置对所述监控时段内所有视频段的用户状态进行封装,得到所述状态监控结果。
在本实施例中,所述用户视频内的一个视频段对应所述监控时段内的一个检测周期,一个视频段对应一个用户状态,也即一个用户状态对应一个所述监控时段内的一个检测周期。上述状态识别装置对所述监控时段内所有视频段的用户状态进行封装,得到所述状态监控结果,具体可以为:所述状态识别装置依据所述监控时段内各个所述检测周期的次序,将多个用户状态进行封装,得到所述监控时段对应的状态监控结果,所述状态监控结果包括在所述监控时段内的多个用户状态与多个检测周期的对应关系。作为示例,所述检测周期的时长可以为一分钟,也即所述状态监控结果用于表征所述用户在所述监控时段内每一分钟对应的用户状态。
在本实施例中,所述状态识别装置将所述用户图像导入关键点提取网络得到关键点图像,并以所述目标视频段对应的所有关键点图像为依据,确定所述目标视频段对应的用户状态,可以减少确定所述用户状态时的计算量,以便提高所述状态报告的生成方法的效率。
图5示出了本申请第三实施例提供的关键点提取网络的示意图。参见图5,相对于图4所述实施例,本实施例提供的方法S402包括S501~S502,具体详述如下:
进一步地,所述状态识别装置将所述目标视频段内的多帧用户图像分别导入关键点提取网络,得到各帧所述用户图像对应的关键点图像,包括:
参见图5,在本实施例中,所述关键点提取网络包括人体识别层以及关键点识别层。
在S501中,所述状态识别装置将目标用户图像导入所述人体识别层,从所述目标用户图像中截取人体图像。
在一种可能实现的方式中,所述目标用户图像为所述多帧用户图像中的任一用户图像;上述将所述目标用户图像导入人体识别层,从所述目标用户图像中截取人体图像,具体可以为:对所述目标用户图像进行预处理,根据该预处理后的结果确定所述目标用户图像中的人体边缘轮廓信息,并根据该人体边缘轮廓信息,在所述目标用户图像内截取包含用户人脸以及上半身的人体图像。
上述对所述目标用户图像进行预处理,具体可以为:对所述目标用户图像进行图像锐化处理等突出边缘轮廓的图像处理手段,得到预处理后的用户图像;上述根据该预处理后的用户图像确定所述目标用户图像中的人体边缘轮廓信息,具体可以为:将预处理后的用户图像导入训练好的用于确定人体边缘轮廓的人体识别模型中,得到人体边缘轮廓信息;上述根据该人体边缘轮廓信息,在该预处理后的用户图像内截取包含用户人脸以及上半身的人体图像,具体可以为:根据该人体边缘轮廓信息在所述预处理后的用户图像上确定目标人体的边缘轮廓,并将该目标人体的边缘轮廓所围的区域截取出来,识别为所述人体图像。应理解,该人体识别模型可以是现有技术中训练好的可用于确认包含人体的图像内的人体边缘轮廓信息的模型,在此不再赘述。
在S502中,所述状态识别装置将所述人体图像导入所述关键点识别层,在所述人体图像上提取多个关键点,输出所述目标用户图像对应的关键点图像。
在本实施例中,所述关键点识别层用于识别所述人体图像上关于所述用户的多个关键点,示例性地,所述多个关键点包括左眼关键点、右眼关键点、鼻子关键点、左耳关键点、右耳关键点、左肩关键点、右肩关键点以及中部(脖子)关键点。可选的,所述关键点提取层具体可以为OpenPose人体关键点识别模型,具体实现在此不再赘述。
在一种可能实现的方式中,上述将所述人体图像导入关键点识别层,输出所述目标用户图像对应的关键点图像,具体可以为:提取所述人体图像中关于所述用户的左眼关键点、右眼关键点、鼻子关键点、左耳关键点、右耳关键点、左肩关键点、右肩关键点以及中部(脖子)关键点的特征信息,并基于所述特征信息得到所述关键点图像,具体地,将各个关键点从所述人体图像中提取出来,并将各个关键点的位置与各个关键点的具体类型相关联,得到包含所述多个关键点的所述关键点图像。
在本实施例中,在所述关键点提取网络中,设置人体识别层,可以去除所述目标用户图像中不重要的背景环境的特征信息,尽可能地只保留目标人体的特征信息,相当于对所述目标用户图像进行预处理,减少后续步骤要处理的图像的信息量(或减少后续步骤的计算量)以便于提高后续确定所述状态信息的效率;设置关键点识别层,一来对不同目标人体(各种姿态或穿着各种服饰)的关键点的识别是可以实现的,在所述人体图像上提取所述关键点可以扩大注意力检测的适用人群,二来可以更进一步简化后续要处理的特征信息,只保留所述人体图像的所述关键点的特征信息,以便于提高后续确定所述状态信息的效率。
图6示出了本申请第四实施例提供的方法的实现流程图。参见图6,相对于图4所述实施例,本实施例提供的方法S403包括S601~S611,具体详述如下:
进一步地,所述状态识别装置基于所述目标视频段内所有用户图像对应的关键点图像,确定所述目标视频段对应的用户状态,包括:
参见图6,在S601中,所述状态识别装置判断目标关键点图像内是否包含了所述关键点提取网络预设的关键点;若所述目标关键点图像内包含了所述关键点,则所述状态识别装置将所述目标关键点图像对应的用户图像识别为学习图像;若所述目标关键点图像内未包含所述关键点,则所述状态识别装置将所述目标关键点图像对应的所述用户图像识别为休息图像。
在本实施例中,所述目标关键点图像为所述所有用户图像对应的关键点图像中的任一关键点图像;若所述目标关键点图像内包含了至少一个关键点,说明所述目标关键点图像对应的所述用户图像内包含了所述用户的人体,即所述用户此时处于坐姿状态下进行学习,则所述状态识别装置可以将所述目标关键点图像对应的所述用户图像识别所述学习图像,以表征在所述用户图像中的所述用户处于学习的状态;若所述目标关键点图像内未包含任一关键点,说明所述目标关键点图像对应的所述用户图像内未包含了所述用户的人体的任一部分,即所述用户此时在休息且处于离开座位的状态,则所述状态识别装置可以将所述目标关键点图像对应的所述用户图像识别所述休息图像,以表征在所述用户图像中的所述用户处于休息的状态。
在S602中,所述状态识别装置基于所述目标视频段内所有学习图像以及所有休息图像,确定所述目标视频段对应的学习状态。
在本实施例中,所述学习状态包括第一状态以及第二状态,所述第一状态用于表征所述用户处于休息的状态;所述第二状态用于表征用于处于学习的状态;若所述目标视频段内所有学习图像的个数大于所述所有休息图像的个数,则所述状态识别装置确定所述目标视频段对应的所述学习状态为学习,用于表述所述用户在所述目标视频段处于学习的状态;若所述目标视频段内所有学习图像的个数小于或等于所述所有休息图像的个数,则所述状态识别装置确定所述目标视频段对应的所述学习状态为休息,用于表述所述用户在所述目标视频段处于休息的状态。
应理解,参见图4所述实施例,所述状态识别装置确定所述用户状态的所述坐姿状态以及所述注意力状态时,均以所述关键点图像内的关键点特征信息作为依据,也即当所述学习状态表征所述用户处于学习的状态时,所述状态识别装置才有必要且能够确定所述用户状态的所述坐姿状态以及所述注意力状态的具体取值;当所述学习状态表征所述用户处于休息的状态时,所述状态识别装置不需要且不能确定所述用户状态的所述坐姿状态以及所述注意力状态的具体取值。
参见图6,进一步地,若所述目标视频段对应的学习状态为所述第一状态,则执行S603或S604;
在本实施例中,当所述学习状态为所述第一状态时,所述状态识别装置不需要确定所述用户状态的所述坐姿状态以及所述注意力状态的具体取值,但为了保持程序完整且运行通顺,此时所述状态识别装置内还是需要对所述用户状态中的坐姿状态以及注意力状态进行赋值操作;上述状态识别装置对所述用户状态中的坐姿状态进行赋值操作包括S603;上述状态识别装置对所述用户状态中的注意力状态进行赋值操作包括S604。
在S603中,所述状态识别装置将所述目标视频段对应的坐姿状态的值设置为预设值。
在本实施例中,优选地,所述预设置可以为空值(也可为零)。所述目标视频段对应的所述坐姿状态的值为空值,用于表征所述用户在所述目标视频段内不存在坐姿状态,也即所述用户在所述目标视频段内没有处于坐下状态。
在S604中,所述状态识别装置将所述目标视频段对应的注意力状态的值设置为预设值。
在本实施例中,优选地,所述预设置可以为空值(也可为零)。所述目标视频段对应的所述注意力状态的值为空值,用于表征所述用户在所述目标视频段内不存在注意力状态,也即所述用户在所述目标视频段内没有在学习,更不用说学习的注意力集中或不集中了。
参见图6,进一步地,若所述目标视频段对应的所述学习状态为所述第二状态,则执行S605~S608或S609~S611;
在本实施例中,当所述学习状态为所述第二状态时,所述状态识别装置才有必要且能够确定所述用户状态的所述坐姿状态以及所述注意力状态的具体取值,所述状态识别装置确定所述用户状态的所述坐姿状态包括S605~S608,所述状态识别装置确定所述用户状态的所述注意力状态包括S609~S611。
在S605中,所述状态识别装置将所述目标关键点图像导入坐姿识别网络,得到所述目标关键点图像对应的用户图像的子坐姿状态。
在本实施例中,所述坐姿识别网络用于根据所述目标关键点图像内的特征信息确定所述子坐姿状态;所述坐姿识别网络是训练好的分类模型,以所述关键点图像为输入,以所述子坐姿状态作为所述关键点图像的类别进行输出。在一种可能实现的方式中,所述状态识别装置将所述目标关键点图像导入所述坐姿识别网络,提取所述目标关键点图像的关键点特征信息,并基于所述关键点特征信息以及所述坐姿识别网络的内参数进行计算,确定所述子坐姿状态。
在S606中,所述状态识别装置基于所述目标视频段内所有用户图像的所述子坐姿状态,确定所述目标视频段的所述坐姿状态。
在本实施例中,所述子坐姿状态包括标准坐姿以及非标准坐姿;所述状态识别装置基于所述视频段内所有用户图像的所述子坐姿状态,确定所述目标视频段的所述坐姿状态,具体可以为:所述状态识别装置将所有子坐姿状态中占比最高的子坐姿状态的具体取值(标准坐姿或非标准坐姿)识别为所述视频段的所述坐姿状态。
在S607中,若所述坐姿状态为非标准坐姿,则所述状态识别装置将所述目标视频段上传至所述服务器,以使所述服务器基于所述目标视频段确定所述目标视频段对应的坐姿类型。
在本实施例中,所述服务器基于所述目标视频段确定所述视频段对应的坐姿类型,具体可以包括:所述服务器将所述目标视频段内的多帧用户图像分别导入关键点精确提取网络,得到各帧所述用户图像对应的关键点精确图像;所述服务器基于所述目标视频段内所有用户图像对应的所述关键点精确图像,确定所述目标视频段对应的所述坐姿类型。
需要说明的是,所述关键点精确图像与图3实施例所述关键点图像的区别在于,所述关键点精确图像的关键点数量大于所述关键点图像的关键点数量,以使所述服务器能有更多的关键点特征信息确定所述坐姿类型。
在一种可能实现的方式中,所述坐姿类型包括正姿、低头、仰头、弯腰、头部左倾、头部右倾、身体左倾、身体右倾等八个坐姿类型;正姿的坐姿类型取值设置是为了避免所述状态识别装置错误地识别了所述坐姿状态,值为正姿的所述坐姿类型等同于值为标准坐姿状态的所述坐姿状态。上述服务器将所述目标视频段内的多帧所述用户图像分别导入关键点精确提取网络,得到各帧所述用户图像对应的关键点精确图像,基于所述目标视频段内所有用户图像对应的所述关键点精确图像,确定所述目标视频段对应的所述坐姿类型,具体可参见S402以及S403,在此不再赘述。
在S608中,所述状态识别装置接收所述服务器发送的所述坐姿类型,并根据所述坐姿类型更新所述目标视频段对应的坐姿状态。
在本实施例中,所述坐姿类型可以包括正姿、低头、仰头、弯腰、头部左倾、头部右倾、身体左倾、身体右倾等八个坐姿类型。
在一种可能实现的方式中,若所述坐姿类型不为正姿,则上述状态识别装置接收所述服务器发送的所述坐姿类型,并根据所述坐姿类型更新所述坐姿状态,具体可以为:所述状态识别装置将所述坐姿状态的值由非标准坐姿状态更新为非标准坐姿状态与所述坐姿类型的集合,例如,所述坐姿类型为弯腰,所述坐姿状态更新为非标准坐姿状态以及弯腰状态。
在另一种可能实现的方式中,若所述坐姿类型为正姿,则上述状态识别装置接收所述服务器发送的所述坐姿类型,并根据所述坐姿类型更新所述坐姿状态,具体可以为:所述状态识别装置将所述坐姿状态的值由非标准坐姿状态更新为标准坐姿状态。
在本实施例中,所述状态识别装置基于所述目标视频段内所有用户图像对应的所述关键点图像确定所述目标视频段对应的坐姿状态,而所述服务器基于所述目标视频段内所有用户图像对应的所述关键点精确图像确定所述目标视频段对应的坐姿类型,其中所述关键点精确图像的关键点数量大于所述关键点图像的关键点数量,所述服务器以更多的关键点特征信息为依据,能够识别出所述用户在所述目标视频段内的具体坐姿类型,以便所述用户依据后续生成的所述状态报告调整状态时进行针对性调整。
在S609中,所述状态识别装置将所述目标关键点图像导入姿态识别网络,得到所述目标关键点图像对应的用户图像的姿态信息。
在本实施例中,所述姿态识别网络是基于深度学习算法训练好的算法模型,以所述目标关键点图像为输入,以所述姿态信息为输出,用于基于所述目标关键点图像中各个关键点的特征信息确定所述姿态信息。所述姿态信息用于表征在所述用户图像中用户的姿态,示例性地,所述姿态信息可以包括低头、正常以及抬头等,用于表征在所述用户图像中用户人体正处于的姿态情况。
在一种可能实现的方式中,上述状态识别装置将所述目标关键点图像导入姿态识别网络,得到所述目标关键点图像对应的用户图像的姿态信息,具体可以为:所述状态识别装置提取所述目标关键点图像中各个关键点的特征信息,并根据所述姿态识别网络的内参数以及所述特征信息进行计算,得到所述姿态信息。
在另一种可能实现的方式中,所述姿态信息可以包括头部旋转向量以及人体旋转向量;所述头部旋转向量用于表征所述用户图像内所述用户的人体头部的朝向;所述人体旋转向量用于表征所述用户图像内所述用户的人体胸部的朝向;上述状态识别装置将所述目标关键点图像导入姿态识别网络,得到所述目标关键点图像对应的用户图像的姿态信息,具体可以为:所述状态识别装置提取所述目标关键点图像中各个人脸关键点的特征信息,并根据所述姿态识别网络的内参数以及所述特征信息进行计算,得到所述头部旋转向量;所述状态识别装置提取所述关键点图像中各个人体关键点的特征信息,并根据所述姿态识别网络的内参数以及所述特征信息进行计算,得到所述人体旋转向量。
在S610中,所述状态识别装置基于所述目标关键点图像对应的用户图像的所述姿态信息与所述目标关键点图像对应的用户图像的上一帧用户图像的姿态信息,确定所述目标关键点图像对应的用户图像是否识别为姿态改变图像。
在一种可能实现的方式中,上述状态识别装置基于所述用户图像的所述姿态信息与所述用户图像的上一帧用户图像的姿态信息,确定所述用户图像是否识别为姿态改变图像,具体可以为:若所述用户图像与所述用户图像的上一帧用户图像的所述姿态信息不同,则将所述用户图像识别为姿态改变图像,否则不识别。
在另一种可能实现的方式中,所述姿态信息可以包括头部旋转向量以及人体旋转向量;上述状态识别装置基于所述用户图像的所述姿态信息与所述用户图像的上一帧用户图像的姿态信息,确定所述用户图像是否识别为姿态改变图像,具体可以为:若所述用户图像与所述用户图像的上一帧用户图像的头部旋转向量的差值大于或等于预设阈值,或所述用户图像与所述用户图像的上一帧用户图像的人体旋转向量的差值大于或等于预设阈值,则将所述用户图像识别为改变帧图像。
在S611中,所述状态识别装置基于所述目标视频段内所有姿态改变图像,确定所述目标视频段对应的注意力状态。
在本实施例中,上述状态识别装置基于所述目标视频段内所有姿态改变图像,确定所述目标视频段对应的注意力状态,具体可以为:所述状态识别装置判断所述目标视频段内所有姿态改变图像在所述目标视频段内的占比值是否大于或等于预设比例;若所述目标视频段内所有姿态改变图像在所述目标视频段内的占比值大于或等于预设比例,则所述状态识别装置将所述目标视频段对应的注意力状态识别为注意力不集中状态,否则识别为注意力集中状态。
在本实施例中,通过比较所述目标视频段内相邻两帧所述用户图像的姿态信息,识别出所述目标视频段内的所述姿态改变图像,并基于所述目标视频段内所有姿态改变图像在所述视频段的占比值,确定所述目标视频段的注意力状态,以便后续确定所述目标视频段对应的用户状态。
在本实施例中,只确定用户在所述目标视频段内处于学习的状态时的用户状态,不确定所述目标视频段内处于休息的状态时的用户状态,可以减少不必要的计算。
图7示出了本申请第五实施例提供的方法的实现流程图。参见图7,相对于图4所述实施例,本实施例提供的方法S102包括S701,具体详述如下:
在本实施例中,所述状态信息包括:学习时间段、休息时间段以及疲劳时间段。
进一步地,所述服务器基于接收到的所述状态监控结果,生成所述监控时段对应的状态信息,包括:
在S701中,所述服务器基于所述监控时段内各个所述视频段对应的学习状态,将所述监控时段划分为学习时间段、休息时间段以及疲劳时间段。
在本实施例中,上述服务器基于所述监控时段内各个所述视频段对应的学习状态,将所述监控时段划分为学习时间段、休息时间段以及疲劳时间段,具体可以为:将所有学习状态为休息的视频段在所述监控时段内对应的所有检测周期识别为所述休息时间段;将所有学习状态为学习的视频段在所述监控时段内对应的所有检测周期识别为所述学习时间段;预设置标准学习时长;若所述学习时间段内存在时长超过所述标准学习时长的连续不间断的目标时间段,则将所述目标时间段超出所述标准学习时长的部分时间段识别为所述疲劳时间段。示例性地,所述监控时段为10:00至11:00,所述检测周期为一分钟,所述监控时段内各个视频段对应的学习状态,具体为10:00至10:40内每一分钟对应的所述学习状态均为学习以及10:41至11:00内每一分钟对应的所述学习状态均为休息,则所述服务器将10:00至10:40识别为所述学习时间段,将10:41至11:00识别为所述休息时间段;预设置所述标准学习时长为30分钟;则所述服务器将10:31至10:40识别为所述疲劳时间段。
应理解,所述监控时段对应的状态信息不仅包括所述学习时间段、所述休息时间段以及所述疲劳时间段在所述监控时段内的分布情况以及各个时间段的总时长,还包括在所述监控时段内所述用户由所述标准坐姿状态转为所述非标准坐姿状态的次数以及由所述注意力集中状态转为所述注意力不集中状态的次数。
在本实施例中,将生成所述监控时段对应的状态信息的步骤布置在所述服务器上执行,可以充分利用所述服务器的数据处理资源(如内存、处理器)以执行本实施例提供的方法,提高生成所述状态信息的效率。
图8示出了本申请第六实施例提供的方法的实现流程图。参见图8,相对于上述任一实施例,本实施例提供的方法S103包括S801,具体详述如下:
在本实施例中,一个所述用户视频对应一个所述监控时段,所述监控时段可以有多个,所述状态报告生成请求包括至少一个监控时段。
进一步地,所述若所述服务器接收到所述用户终端发送的状态报告生成请求,则所述服务器基于所述状态报告生成请求向所述用户终端反馈所述状态信息,包括:
在S801中,若所述服务器接收到所述用户终端发送的状态报告生成请求,则所述服务器向所述用户终端反馈所述至少一个监控时段对应的状态信息。
在本实施例中,在所述服务器接收到所述用户终端发送的状态报告生成请求之前,所述用户终端基于用户操作(例如用户触发观看至少一个所述监控时段对应的所述状态报告的操作),生成所述状态报告生成请求,向所述服务器发送所述状态报告生成请求。在所述服务器接收到所述用户终端发送的状态报告生成请求时,所述服务器向所述用户终端反馈所述状态报告生成请求包括的所有监控时段对应的状态信息,以满足用户需求。
应理解,所述监控时段应为连续的时间段。
在本实施例中,所述监控时段可以为多个,则本实施例提供的方法可以实现对多个所述监控时段的用户进行监视,生成的所述状态报告满足用户观看多个所述监控时段对应的状态信息的要求。
图9示出了本申请第七实施例提供的方法的实现流程图。参见图9,相对于图8所述实施例,本实施例提供的方法S103包括S901~S902,具体详述如下:
进一步地,所述用户终端生成并显示状态报告,包括:
在S901中,所述用户终端基于反馈的所述至少一个监控时段对应的状态信息,分别生成各个监控时段对应的状态页面。
在本实施例中,以一个监控时段为例进行说明,所述用户终端基于一个监控时段对应的状态信息生成所述监控时段对应的一个状态页面;所述状态页面包括预设置的界面框架,上述用户终端基于一个监控时段对应的状态信息生成所述监控时段对应的一个状态页面,具体可以为:所述用户终端将所述监控时段对应的状态信息中的数据填入所述界面框架内,生成所述监控时段对应的所述状态页面。
在S902中,所述用户终端基于所有监控时段对应的状态页面,生成所述状态报告。
在本实施例中,所述状态报告包括至少一个所述状态页面。所述状态页面包括多个用于描述在所述监控时段内所述用户的状态的数据,包括在所述监控时段内的学习时间段和休息时间段的分布、坐姿标准时间段和坐姿非标准时间段的分布、注意力集中时间段和注意力不集中时间段的分布、所述用户由所述标准坐姿状态转为所述非标准坐姿状态的次数以及由所述注意力集中状态转为所述注意力不集中状态的次数。
应理解,示例性地,所述状态报告还包括根据所有状态页面生成的状态数据,例如根据某个特定时间段内包含的多个所述监控时段对应的所有状态页面,生成所述特定时间段对应的所述状态数据,例如所述状态数据为某天内的总学习时长,所述该天包括3个所述监控时段,分别为10:00至11:00、14:00至15:00以及20:00至21:00,在10:00至11:00的所述监控时段内所述学习时间段为10:00至10:40,在14:00至15:00的所述监控时段内所述学习时间段为14:00至14:40,在20:00至21:00的所述监控时段内所述学习时间段为20:00至20:40,则所述总学习时长为123分钟(包括界限的分钟本身)。
为了进一步说明所述状态报告,图10示出了本申请第七实施例提供的状态报告效果示意图,参见图10,图10显示的是所述状态报告内所述监控时段为10:00至11:00的所述状态页面,在所述状态报告的显示页面中,用户可选择所要显示的多个所述监控时段中的一个,如图10中的“1/3”表示在2020年5月7日当天内包含3个所述监控时段,当前正在显示所述3个所述监控时段中的第一个所述监控时段对应的状态页面,具体为10:00至11:00的所述监控对应的所述状态页面;图示的总时长指的是所述3个所述监控时段的时长总和,图示的区间指的是所述3个所述监控时段中的最早的起始时刻至最晚的终点时刻,示例性地,图中所述3个所述监控时段分别为10:00至11:00、14:00至15:00以及20:00至21:00;图示的“学习2小时30分钟”指的是所述3个所述监控时段中的学习时长总和,图示的“休息0小时30分钟”值得是所述3个所述监控时段中的休息时长总和。
参见图10,如图10中的柱状图所示,在所述监控时段10:00至11:00期间,最高柱指的是所述注意力不正的时间段,第二高柱指的是所述坐姿不正的时间段,第三高指的是所述休息时间段,第四高柱指的是所述疲劳时间段,最低柱指的是所述学习时间段。图10中预设所述学习标准时长为40分钟。如图10所示,所述状态页面还包括坐姿提醒次数(也即上述用户由所述标准坐姿状态转为所述非标准坐姿状态的次数)、坐姿不正时长(所述坐姿不正的时间段的时长总和)、注意力提醒次数(也即上述用户由所述注意力集中状态转为所述注意力不集中状态的次数)、注意力不正时长(所述注意力不正的时间段的时长总和)、疲劳次数(上述疲劳时间段的出现次数)以及疲劳时长(上述疲劳时间段的时长总和)。
在本实施例中,所述用户终端基于用户操作,生成各个所述监控时段对应的所述状态页面,以生成所述状态报告。在后续所述用户终端基于用户操作输出所述状态报告时,所述用户终端能够输出所述用户想要观看的所述监控时段对应的所述状态页面,所述用户想要观看的所述监控时段基于所述用户操作确定。
对应于上文实施例所述的方法,图11示出了本申请一实施例提供的状态监控***的结构示意图,为了便于说明,仅示出了与本申请实施例相关的部分。
参照图11,该状态监控***包括:状态识别装置、服务器以及用户终端;所述状态识别装置用于基于监控时段中采集的用户视频,确定用户在所述监控时段内对应的状态监控结果,并将所述状态监控结果发送至所述服务器;所述状态监控结果包括:学习状态信息、所述坐姿信息以及所述注意力信息;所述服务器用于基于接收到的所述状态监控结果,生成所述监控时段对应的状态信息;所述用户终端用于向所述服务器发送状态报告生成请求;所述用户终端还用于接收所述服务器基于所述状态报告生成请求反馈的状态信息,并基于反馈的所述状态信息,生成并显示状态报告。
需要说明的是,上述装置之间的信息交互、执行过程等内容,由于与本申请方法实施例基于同一构思,其具体功能及带来的技术效果,具体可参见方法实施例部分,此处不再赘述。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述***中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
图12示出了本申请一实施例提供的电子设备的结构示意图,该电子设备可以为前述的状态识别装置或服务器,也可以为前述的状态识别装置与服务器的组合。如图12所示,所述电子设备12包括:至少一个处理器120(图12中仅示出一个)处理器、存储器121以及存储在所述存储器121中并可在所述至少一个处理器120上运行的计算机程序122,所述处理器120执行所述计算机程序122时实现上述状态识别装置和/或服务器对应的任意各个方法实施例中的步骤。
所述电子设备12可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。该电子设备可包括,但不仅限于,处理器120、存储器121。本领域技术人员可以理解,图12仅仅是电子设备12的举例,并不构成对电子设备12的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如还可以包括输入输出设备、网络接入设备等。
所称处理器120可以是中央处理单元(Central Processing Unit,CPU),该处理器120还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器121在一些实施例中可以是所述电子设备12的内部存储单元,例如电子设备12的硬盘或内存。所述存储器121在另一些实施例中也可以是所述电子设备12的外部存储设备,例如所述电子设备12上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器121还可以既包括所述电子设备12的内部存储单元也包括外部存储设备。所述存储器121用于存储操作***、应用程序、引导装载程序(BootLoader)、数据以及其他程序等,例如所述计算机程序的程序代码等。所述存储器121还可以用于暂时地存储已经输出或者将要输出的数据。
本申请实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现可实现上述状态识别装置和/或服务器对应的各个方法实施例中的步骤。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质至少可以包括:能够将计算机程序代码携带到拍照装置/电子设备的任何实体或装置、记录介质、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,RandomAccess Memory)、电载波信号、电信信号以及软件分发介质。例如U盘、移动硬盘、磁碟或者光盘等。在某些司法管辖区,根据立法和专利实践,计算机可读介质不可以是电载波信号和电信信号。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
在本申请所提供的实施例中,应该理解到,所揭露的装置/电子设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/电子设备实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
以上所述实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。
Claims (10)
1.一种状态报告的生成方法,应用于状态监控***,其特征在于,所述状态监控***包括:状态识别装置、服务器以及用户终端;
所述方法包括:
所述状态识别装置基于监控时段中采集的用户视频,确定用户在所述监控时段内对应的状态监控结果,并将所述状态监控结果发送至所述服务器;所述状态监控结果包括:学习状态信息、坐姿信息以及注意力信息;
所述服务器基于接收到的所述状态监控结果,生成所述监控时段对应的状态信息;
若所述服务器接收到所述用户终端发送的状态报告生成请求,则所述服务器基于所述状态报告生成请求向所述用户终端反馈所述状态信息,并指示所述用户终端生成并显示状态报告。
2.如权利要求1所述的方法,其特征在于,所述状态识别装置基于监控时段中采集的用户视频,确定用户在所述监控时段内对应的状态监控结果,包括:
所述状态识别装置基于检测周期将所述用户视频划分为多个视频段;
所述状态识别装置将目标视频段内的多帧用户图像分别导入关键点提取网络,得到各帧所述用户图像对应的关键点图像,所述目标视频段为所述多个视频段中的任一视频段;
所述状态识别装置基于所述目标视频段内所有用户图像对应的关键点图像,确定所述目标视频段对应的用户状态;所述用户状态包括学习状态、坐姿状态以及注意力状态;
所述状态识别装置对所述监控时段内所有视频段的用户状态进行封装,得到所述状态监控结果。
3.如权利要求2所述的方法,其特征在于,所述关键点提取网络包括人体识别层以及关键点识别层;所述状态识别装置将目标视频段内的多帧用户图像分别导入关键点提取网络,得到各帧所述用户图像对应的关键点图像,包括:
所述状态识别装置将目标用户图像导入所述人体识别层,从所述目标用户图像中截取人体图像,所述目标用户图像为所述多帧用户图像中的任一用户图像;
所述状态识别装置将所述人体图像导入所述关键点识别层,在所述人体图像上提取多个关键点,输出所述目标用户图像对应的关键点图像。
4.如权利要求2所述的方法,其特征在于,所述状态识别装置基于所述目标视频段内所有用户图像对应的关键点图像,确定所述目标视频段对应的用户状态,包括:
所述状态识别装置判断目标关键点图像内是否包含了所述关键点提取网络预设的关键点,所述目标关键点图像为所述所有用户图像对应的关键点图像中的任一关键点图像;
若所述目标关键点图像内包含了所述关键点,则所述状态识别装置将所述目标关键点图像对应的用户图像识别为学习图像;若所述目标关键点图像内未包含所述关键点,则将所述目标关键点图像对应的用户图像识别为休息图像;
所述状态识别装置基于所述目标视频段内所有学习图像以及所有休息图像,确定所述目标视频段对应的学习状态;所述学习状态包括第一状态以及第二状态,所述第一状态用于表征所述用户处于休息的状态;所述第二状态用于表征用于处于学习的状态。
5.如权利要求4所述的方法,其特征在于,所述状态识别装置基于所述目标视频段内所有用户图像对应的关键点图像,确定所述目标视频段对应的用户状态,还包括:
若所述目标视频段对应的学习状态为所述第一状态,则所述状态识别装置将所述目标视频段对应的坐姿状态的值设置为预设值;
若所述目标视频段对应的学习状态为所述第二状态,则所述状态识别装置将所述目标关键点图像导入坐姿识别网络,得到所述目标关键点图像对应的用户图像的子坐姿状态;
所述状态识别装置基于所述目标视频段内所有用户图像的子坐姿状态,确定所述目标视频段的坐姿状态;
若所述坐姿状态为非标准坐姿,则所述状态识别装置将所述目标视频段上传至所述服务器,以使所述服务器基于所述目标视频段确定所述目标视频段对应的坐姿类型;
所述状态识别装置接收所述服务器发送的所述坐姿类型,并根据所述坐姿类型更新所述目标视频段对应的坐姿状态。
6.如权利要求4所述的方法,其特征在于,所述状态识别装置基于所述目标视频段内所有用户图像对应的关键点图像,确定所述目标视频段对应的用户状态,还包括:
若所述目标视频段对应的所述学习状态为所述第一状态,则所述状态识别装置将所述目标视频段对应的注意力状态的值设置为预设值;
若所述目标视频段对应的所述学习状态为所述第二状态,则所述状态识别装置将所述目标关键点图像导入姿态识别网络,得到所述目标关键点图像对应的用户图像的姿态信息;
所述状态识别装置基于所述目标关键点图像对应的用户图像的姿态信息与所述目标关键点图像对应的用户图像的上一帧用户图像的姿态信息,确定所述目标关键点图像对应的用户图像是否识别为姿态改变图像;
所述状态识别装置基于所述目标视频段内所有姿态改变图像,确定所述目标视频段对应的注意力状态。
7.如权利要求2所述的方法,其特征在于,所述状态信息包括:学习时间段、休息时间段以及疲劳时间段;所述服务器基于接收到的所述状态监控结果,生成所述监控时段对应的状态信息,包括:
所述服务器基于所述监控时段内各个所述视频段对应的学习状态,将所述监控时段划分为学习时间段、休息时间段以及疲劳时间段。
8.一种状态监控***,其特征在于,所述状态监控***包括:状态识别装置、服务器以及用户终端;
所述状态识别装置用于基于监控时段中采集的用户视频,确定用户在所述监控时段内对应的状态监控结果,并将所述状态监控结果发送至所述服务器;所述状态监控结果包括:学习状态信息、坐姿信息以及注意力信息;
所述服务器用于基于接收到的所述状态监控结果,生成所述监控时段对应的状态信息;
所述服务器还用于若接收到所述用户终端发送的状态报告生成请求,则所述服务器基于所述状态报告生成请求向所述用户终端反馈所述状态信息,并指示所述用户终端生成并显示状态报告。
9.一种电子设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1-7任一项所述的所述状态识别装置执行的方法,和/或,所述服务器执行的方法。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1-7任一项所述的所述状态识别装置执行的方法,和/或,所述服务器执行的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010844814.9A CN112069931A (zh) | 2020-08-20 | 2020-08-20 | 一种状态报告的生成方法及状态监控*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010844814.9A CN112069931A (zh) | 2020-08-20 | 2020-08-20 | 一种状态报告的生成方法及状态监控*** |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112069931A true CN112069931A (zh) | 2020-12-11 |
Family
ID=73662425
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010844814.9A Pending CN112069931A (zh) | 2020-08-20 | 2020-08-20 | 一种状态报告的生成方法及状态监控*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112069931A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114049669A (zh) * | 2021-11-15 | 2022-02-15 | 海信集团控股股份有限公司 | 确定学习效果的方法及装置 |
CN114466200A (zh) * | 2022-01-18 | 2022-05-10 | 上海应用技术大学 | 一种在线自习室学习状态监测***及其方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109937152A (zh) * | 2017-08-10 | 2019-06-25 | 北京市商汤科技开发有限公司 | 驾驶状态监测方法和装置、驾驶员监控***、车辆 |
WO2019120032A1 (zh) * | 2017-12-21 | 2019-06-27 | Oppo广东移动通信有限公司 | 模型构建方法、拍照方法、装置、存储介质及终端 |
WO2019127273A1 (zh) * | 2017-12-28 | 2019-07-04 | 深圳市锐明技术股份有限公司 | 一种多人脸检测方法、装置、服务器、***及存储介质 |
CN110334697A (zh) * | 2018-08-11 | 2019-10-15 | 昆山美卓智能科技有限公司 | 具有状态监控功能的智能桌、监控***服务器及监控方法 |
WO2019232894A1 (zh) * | 2018-06-05 | 2019-12-12 | 中国石油大学(华东) | 一种基于复杂场景下的人体关键点检测***及方法 |
CN110796005A (zh) * | 2019-09-27 | 2020-02-14 | 北京大米科技有限公司 | 在线教学监控的方法、装置、电子设备及介质 |
CN110855934A (zh) * | 2018-08-21 | 2020-02-28 | 北京嘀嘀无限科技发展有限公司 | 疲劳驾驶识别方法、装置、***、车载终端及服务器 |
WO2020167155A1 (ru) * | 2019-02-12 | 2020-08-20 | Публичное Акционерное Общество "Сбербанк России" | Способ и система выявления тревожных событий при взаимодействии с устройством самообслуживания |
-
2020
- 2020-08-20 CN CN202010844814.9A patent/CN112069931A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109937152A (zh) * | 2017-08-10 | 2019-06-25 | 北京市商汤科技开发有限公司 | 驾驶状态监测方法和装置、驾驶员监控***、车辆 |
WO2019120032A1 (zh) * | 2017-12-21 | 2019-06-27 | Oppo广东移动通信有限公司 | 模型构建方法、拍照方法、装置、存储介质及终端 |
WO2019127273A1 (zh) * | 2017-12-28 | 2019-07-04 | 深圳市锐明技术股份有限公司 | 一种多人脸检测方法、装置、服务器、***及存储介质 |
WO2019232894A1 (zh) * | 2018-06-05 | 2019-12-12 | 中国石油大学(华东) | 一种基于复杂场景下的人体关键点检测***及方法 |
CN110334697A (zh) * | 2018-08-11 | 2019-10-15 | 昆山美卓智能科技有限公司 | 具有状态监控功能的智能桌、监控***服务器及监控方法 |
CN110855934A (zh) * | 2018-08-21 | 2020-02-28 | 北京嘀嘀无限科技发展有限公司 | 疲劳驾驶识别方法、装置、***、车载终端及服务器 |
WO2020167155A1 (ru) * | 2019-02-12 | 2020-08-20 | Публичное Акционерное Общество "Сбербанк России" | Способ и система выявления тревожных событий при взаимодействии с устройством самообслуживания |
CN110796005A (zh) * | 2019-09-27 | 2020-02-14 | 北京大米科技有限公司 | 在线教学监控的方法、装置、电子设备及介质 |
Non-Patent Citations (2)
Title |
---|
尹向兵;王宏群;: "监狱视频识别报警***的研究与实现", 电脑知识与技术, no. 17 * |
康增健;昝蕊;张熠;吕晓军;马琳;: "基于列车到发信息和选择性注意的智能监控***", 中国铁路, no. 02 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114049669A (zh) * | 2021-11-15 | 2022-02-15 | 海信集团控股股份有限公司 | 确定学习效果的方法及装置 |
CN114466200A (zh) * | 2022-01-18 | 2022-05-10 | 上海应用技术大学 | 一种在线自习室学习状态监测***及其方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
RU2762142C1 (ru) | Способ и устройство для определения ключевой точки лица, компьютерное устройство и носитель данных | |
CN112101124B (zh) | 一种坐姿检测方法及装置 | |
KR102385463B1 (ko) | 얼굴 특징 추출 모델 학습 방법, 얼굴 특징 추출 방법, 장치, 디바이스 및 저장 매체 | |
CN112101123B (zh) | 一种注意力检测方法及装置 | |
CN107480265B (zh) | 数据推荐方法、装置、设备以及存储介质 | |
CN112069931A (zh) | 一种状态报告的生成方法及状态监控*** | |
CN104637035A (zh) | 生成卡通人脸图片的方法、装置及*** | |
US10972254B2 (en) | Blockchain content reconstitution facilitation systems and methods | |
CN110741377A (zh) | 人脸图像处理方法、装置、存储介质及电子设备 | |
CA3050456C (en) | Facial modelling and matching systems and methods | |
CN105874423A (zh) | 检测对可穿戴媒体设备上呈现的媒体的参与的方法和设备 | |
CN104834896A (zh) | 一种信息采集方法及其终端 | |
CN104951117B (zh) | 利用影像辨识产生相对应信息的影像处理***及相关方法 | |
CN104036169A (zh) | 生物认证方法及生物认证装置 | |
CN112069863B (zh) | 一种面部特征的有效性判定方法及电子设备 | |
CN112712053A (zh) | 一种坐姿信息的生成方法、装置、终端设备及存储介质 | |
CN110569918A (zh) | 一种样本分类的方法以及相关装置 | |
CN112199530A (zh) | 多维度脸库图片自动更新方法、***、设备及介质 | |
KR102594093B1 (ko) | 딥러닝 기술을 활용한 피부과 시술 추천 시스템 및 방법 | |
CN102783174B (zh) | 图像处理设备、内容传递***、图像处理方法和程序 | |
CN110473049A (zh) | 理财产品推荐方法、装置、设备及计算机可读存储介质 | |
CN109710371A (zh) | 字体调节方法、装置及*** | |
CN105979331A (zh) | 一种智能电视的数据推荐方法和装置 | |
US20220164090A1 (en) | Abstract generation method and apparatus | |
CN110673737B (zh) | 基于智能家居操作***的显示内容的调整方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |