CN110503024A - 一种交互状态分析方法、装置及存储介质 - Google Patents
一种交互状态分析方法、装置及存储介质 Download PDFInfo
- Publication number
- CN110503024A CN110503024A CN201910764619.2A CN201910764619A CN110503024A CN 110503024 A CN110503024 A CN 110503024A CN 201910764619 A CN201910764619 A CN 201910764619A CN 110503024 A CN110503024 A CN 110503024A
- Authority
- CN
- China
- Prior art keywords
- target object
- interaction mode
- state
- image
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003993 interaction Effects 0.000 title claims abstract description 131
- 238000004458 analytical method Methods 0.000 title claims abstract description 41
- 238000000034 method Methods 0.000 claims abstract description 39
- 230000007613 environmental effect Effects 0.000 claims description 15
- 210000003128 head Anatomy 0.000 claims description 14
- 210000001747 pupil Anatomy 0.000 claims description 14
- 238000005516 engineering process Methods 0.000 claims description 7
- 238000012015 optical character recognition Methods 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims description 5
- 238000000605 extraction Methods 0.000 claims description 5
- 239000000284 extract Substances 0.000 abstract description 7
- 230000008569 process Effects 0.000 description 11
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 241000406668 Loxodonta cyclotis Species 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
- G06Q50/205—Education administration or guidance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/14—Image acquisition
- G06V30/148—Segmentation of character regions
- G06V30/153—Segmentation of character regions using recognition of characters or words
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Tourism & Hospitality (AREA)
- Strategic Management (AREA)
- General Health & Medical Sciences (AREA)
- Educational Administration (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Educational Technology (AREA)
- Health & Medical Sciences (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- Primary Health Care (AREA)
- Economics (AREA)
- Human Resources & Organizations (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开了一种交互状态分析方法、装置及存储介质,其中,所述方法包括:获取目标对象所处实地场景中与所述目标对象关联的场景图像;从所述场景图像中提取目标对象的状态信息;根据所述状态信息,确定所述目标对象的交互状态。本发明实施例通过获取场景图像并从场景图像中提取学生的状态信息,然后根据状态信息来确定学生的交互状态(学习状态),能够使家长或老师等相关人员了解学生课后的学习状态。
Description
技术领域
本发明涉及信息处理技术领域,尤其涉及一种交互状态分析方法及装置及存储介质。
背景技术
现有的课堂学情分析方法都是分析学生在课堂时的听讲状态,以确定学生的交互状态和专注程度。
然而,家庭作业完成质量,是评估学生学习成绩的重要指标。大多数情况下,作业由学生在家里完成后,第二天交给老师。老师和家长只能看到作业的结果,缺乏对学生课后写作业过程及学生交互状态的了解。
发明内容
本发明实施例的目的在于提供一种交互状态分析方法、装置及存储介质,用于解决现有技术中,无法了解学生课后的交互状态的问题。
为了解决上述技术问题,本申请的实施例采用了如下技术方案:一种交互状态分析方法,包括如下步骤:
获取目标对象所处实地场景中与所述目标对象关联的场景图像;
从所述场景图像中提取目标对象的状态信息;
根据所述状态信息,确定所述目标对象的交互状态。
可选的,所述目标对象的状态信息,包括:目标对象所在的环境信息和目标对象的目光角度;其中,所述目标对象所在的环境信息包括:目标对象周围的干扰源信息;
所述根据所述状态信息,确定所述目标对象的交互状态,包括:
基于所述环境信息和所述目光角度分析所述目标对象的交互状态为专注状态、非专注状态或被干扰状态。
可选的,所述目标对象的状态信息,包括:目标对象的目光角度;
所述根据所述状态信息,确定所述目标对象的交互状态,包括:
根据所述目光角度分析所述目标对象的交互状态为专注状态或非专注状态。
可选的,从所述场景图像中获取所述目标对象的目光角度,包括:
从所述场景图像中获取目标对象的头部角度和瞳孔角度中的至少一个;
基于所述头部角度和瞳孔角度中的至少一个获得目标对象的目光角度。
可选的,所述方法还包括:
获取所述场景图像所对应时刻的声音信息;
根据所述状态信息,确定所述目标对象的交互状态,还包括:根据所述声音信息和所述状态信息,确定所述目标对象的交互状态为专注状态、非专注状态或被干扰状态。
可选的,所述方法还包括:
从所述场景图像中获取书写图像和书籍图像中的至少一个;
利用光学字符识别技术对所述书写图像和书籍图像至少一个进行识别,确定交互内容;
将所述交互内容与所述目标对象的交互状态关联。
可选的,所述交互内容包括经过对所述书写图像和书籍图像中的至少一个识别的学习科目;所述方法还包括:
确定所述学习科目的学习时间;
对所述书写图像中的各习题进行识别,确定各所述习题的书写时间;
将所述分析结果的获得,关联于所述学习时间和习题的书写时间中的至少一种。
可选的,所述方法还包括将所述目标对象的交互状态按照预定的时间间隔以预设的发送方式发送给指定的远端。
为解决上述问题,本发明实施例还公开了一种交互状态分析装置,包括:
第一获取模块,用于获取目标对象所处实地场景中与所述目标对象关联的场景图像;
提取模块,用于从所述场景图像中提取目标对象的状态信息;
确定模块,用于根据所述状态信息,确定所述目标对象的交互状态。
可选的,所述目标对象的状态信息,包括:目标对象所在的环境信息和目标对象的目光角度;其中,所述目标对象所在的环境信息包括:目标对象周围的干扰源信息;
所述确定模块进一步用于:基于所述环境信息和所述目光角度分析所述目标对象的交互状态为专注状态、非专注状态或被干扰状态。
可选的,所述目标对象的状态信息,包括:目标对象的目光角度;
所述确定模块还用于:根据所述目光角度分析所述目标对象的交互状态为专注状态或非专注状态。
可选的,所述提取模块具体用于:
从所述场景图像中获取目标对象的头部角度和瞳孔角度中的至少一个;
基于所述头部角度和瞳孔角度中的至少一个获得目标对象的目光角度
可选的,所述装置还包括第二获取模块,所述第二获取模块用于:
获取所述场景图像所对应时刻的声音信息;
所述确定模块进一步用于:根据所述声音信息和所述状态信息,确定所述目标对象的交互状态为专注状态、非专注状态或被干扰状态。
可选的,所述装置还包括识别模块和关联模块;
所述识别模块用于:从所述场景图像中获取书写图像和书籍图像中的至少一个;利用光学字符识别技术对所述书写图像和书籍图像至少一个进行识别,确定交互内容;
所述关联模块:用于将所述交互内容与所述目标对象的交互状态关联。
可选的,所述交互内容包括经过对所述书写图像和书籍图像中的至少一个识别的学习科目;所述装置还包括第一时间确定模块和第二时间确定模块;所述第一时间确定模块:用于确定所述学习科目的学习时间;
所述第二时间确定模块:用于对所述书写图像中的各习题进行识别,确定各所述习题的书写时间;
所述关联模块还用于:将所述目标对象的交互状态关联于所述学习时间和习题的书写时间中的至少一种。
可选的,所述装置还包括发送模块,所述发送模块,用于将所述目标对象的交互状态按照预定的时间间隔以预设的发送方式发送给指定的远端。
为解决上述问题,本发明实施例还公开了一种存储介质,所述存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如上所述的任意一项交互状态分析方法的步骤。
本发明实施例的有益效果在于:通过对学生学习或写作业时的状态进行分析,并记录学生学习及写作业的时间,能够使家长或老师了解各科作业的完成过程,以及各科作业各部分完成的时间,有助家长和老师掌握学生的课后的交互状态。
附图说明
图1为本发明实施例交互状态分析方法的流程图;
图2为本发明实施例交互状态分析方法的流程图;
图3为本发明实施例交互状态分析方法的流程图;
图4为本发明实施例交互状态分析方法的流程图;
图5为本发明实施例交互状态分析方法的流程图;
图6为本发明实施例交互状态分析装置的结构框图。
具体实施方式
此处参考附图描述本申请的各种方案以及特征。
应理解的是,可以对此处申请的实施例做出各种修改。因此,上述说明书不应该视为限制,而仅是作为实施例的范例。本领域的技术人员将想到在本申请的范围和精神内的其他修改。
包含在说明书中并构成说明书的一部分的附图示出了本申请的实施例,并且与上面给出的对本申请的大致描述以及下面给出的对实施例的详细描述一起用于解释本申请的原理。
通过下面参照附图对给定为非限制性实例的实施例的优选形式的描述,本申请的这些和其它特性将会变得显而易见。
还应当理解,尽管已经参照一些具体实例对本申请进行了描述,但本领域技术人员能够确定地实现本申请的很多其它等效形式,它们具有如权利要求所述的特征并因此都位于借此所限定的保护范围内。
当结合附图时,鉴于以下详细说明,本申请的上述和其他方面、特征和优势将变得更为显而易见。
此后参照附图描述本申请的具体实施例;然而,应当理解,所申请的实施例仅仅是本申请的实例,其可采用多种方式实施。熟知和/或重复的功能和结构并未详细描述以避免不必要或多余的细节使得本申请模糊不清。因此,本文所申请的具体的结构性和功能性细节并非意在限定,而是仅仅作为权利要求的基础和代表性基础用于教导本领域技术人员以实质上任意合适的详细结构多样地使用本申请。
本说明书可使用词组“在一种实施例中”、“在另一个实施例中”、“在又一实施例中”或“在其他实施例中”,其均可指代根据本申请的相同或不同实施例中的一个或多个。
本发明实施例提供一种交互状态分析方法,如图1所示,包括如下步骤:
步骤S101,获取目标对象所处实地场景中与所述目标对象关联的场景图像;
本步骤中,目标对象表示实际需要进行交互状态分析的学员、学生等人员,场景图像即为人员所处的环境图像。具体在获取场景图像时,可以利用摄像装置来获取包含有目标对象的场景图像。比如通过在目标对象所使用的台灯上安装摄像头来获取包含有目标对象学习图像的场景图像。
步骤S102,从所述场景图像中提取目标对象的状态信息;
本步骤中,所述状态信息表示的目标对象的学习状态以及周围的环境状态等。
步骤S103,根据所述状态信息,确定所述目标对象的交互状态。
本步骤中,交互状态表示目标对象与课本/习题册等书籍之间的精神状态,具体包括专注状态、非专注状态以及被干扰状态等。
本发明实施例,通过获取场景图像并从场景图像中提取学生的状态信息,然后根据状态信息来确定学生的交互状态(学习状态),能够使家长或老师等相关人员了解学生课后的学习状态。
本发明另一实施例提供一种交互状态分析方法,如图2所示,包括如下步骤:
步骤S201,获取目标对象所处实地场景中与所述目标对象关联的场景图像;
本步骤中,当目标对象在学习时就可以开始对目标对象以及目标对象周围的环境进行录像,获得一个或几个视频图像,然后基于一个预定的时刻,从各视频图像中获取在该预定时刻下的视频帧,并将获得各视频帧相互关联,以此来作为与所述目标对象关联的场景图像。通过将对目标对象的每个视频帧作为与所述目标对象关联的场景图像,以此来分析没个视频帧所对应时刻的目标对象的交互状态,这样就可以实现对目标对象的整个学习过程的交互状态分析。
步骤S202,从所述场景图像中提取目标对象所在的环境信息和目标对象的目光角度;
本步骤中,所述目标对象所在的环境信息包括:目标对象周围的干扰源信息;比如确定目标对象的周围是否有动物或其他人员等。
本步骤中,从所述场景图像中获取所述目标对象的目光角度,包括:从所述场景图像中获取目标对象的头部角度和瞳孔角度中的至少一个;基于所述头部角度和瞳孔角度中的至少一个获得目标对象的目光角度。
步骤S203,基于所述环境信息和所述目光角度分析所述目标对象的交互状态为专注状态、非专注状态或被干扰状态。
本步骤中,当确定目光角度为偏离课本/书籍方向时,则可以确定目标对象非专注状态,当确定目光角度为注视课本/书籍方向时,则可以确定的交互状态为非专注状态;当确定目光角度为偏离课本/书籍方向,且目标对象的周围存在动物或其他人员时,则可以确定目标对象的交互状态为被干扰状态。
本发明实施例中,通过确定目标对象的目光角度以及周围是否有干扰源,来确定目标对象的交互状态,使得交互状态的分析更加合理准确。为家长、老师等相关人员准确的了解学生的课后的交互状态提供了保证。
本发明又一实施例提供一种交互状态分析方法,如图3所示,包括如下步骤:
步骤S301,获取目标对象所处实地场景中与所述目标对象关联的场景图像;
步骤S302,从所述场景图像中获取目标对象的头部角度和瞳孔角度中的至少一个;基于所述头部角度和瞳孔角度中的至少一个获得目标对象的目光角度。
步骤S303,基于所述环境信息和所述目光角度分析所述目标对象的交互状态为专注状态或非专注状态。
本步骤中,当确定目光角度为偏离课本/书籍方向时,则可以确定目标对象的交互状态为非专注状态,当确定目光角度为注视课本/书籍方向时,则可以确定的交互状态为专注状态。
本实施例在具体实施过程中还包括确定交互内容,以将交互内容和交互状态关联,使得相关人员在详细的了解目标对象各类学科交互状态。具体内容的确定过程为:从所述场景图像中获取书写图像和书籍图像中的至少一个;利用光学字符识别技术对所述书写图像和书籍图像至少一个进行识别,确定交互内容;其中交互内容包括学习科目
本实施例中,通过根据目标对象的头部角度及瞳孔角度,来确定目标对象的目光角度,以使得目光角度的确定更加准确,以为后续的准确的确定目标对象的交互状态提供了保证。
本发明实施例提供一种交互状态分析方法,结合图4所示,包括如下步骤:
步骤S401,获取目标对象所处实地场景中与所述目标对象关联的场景图像;
步骤S402,从所述场景图像中提取目标对象的状态信息;
步骤S403,从所述场景图像中获取书写图像和书籍图像中的至少一个;
利用光学字符识别技术对所述书写图像和书籍图像至少一个进行识别,确定学习科目;
本步骤中在进行识别时,具体可以通过ocr识别为文本后,使用自然语言处理技术,判断目标对象的学习科目。
步骤S404,确定所述学习科目的学习时间;
本步骤中在确定学习时间时,是对视频图像中的每个视频帧进行交互状态分析,然后确定出每个视频帧中的学习科目,最后将同一学习科目的视频帧划分为一组,通过确定各组中视频帧的个数来确定各学习科目的学习时间。例如,对目标对象录像1小时(每秒录30个视频帧),那么获得了一个视频,该视频中有108000个视频帧,那么就需要对108000个视频帧分别进行交互状态分析,确定出每个视频帧中的学习科目,比如确定出第1个视频帧至第36000个视频帧中的学习科目均为数学,那么就可以确定出数学的学习时间为1200秒(20分钟)。同理可以确定出其他科目的学习时间。
步骤S405,对所述书写图像中的各习题进行识别,确定各所述习题的书写时间;
本步骤中在进行习题识别时,具体可以通过ocr识别为文本后,使用自然语言处理技术,来判断习题类别。
本步骤中在确定书写时间时,是对视频图像中的每个视频帧进行交互状态分析,然后确定出每个视频帧中的习题类别,然后将同一个习题类别的视频帧划分为一组,通过确定各组中视频帧的个数来确定各习题的书写时间。例如,对目标对象录像1小时(每秒录30个视频帧),那么获得了一个视频,该视频中有108000个视频帧,那么就需要对108000个视频帧分别进行交互状态分析,确定出每个视频帧中的习题类别,比如确定出第36001个视频帧至第54000个视频帧中的习题类别为同一道物理题(11题),那么就可以确定出该道物理习题的书写时间为600秒(18000个视频帧,每秒30个视频帧)。同理可以确定出其他各道习题的书写时间。
步骤S406,根据所述状态信息,确定所述目标对象的交互状态;
本步骤中,在确定交互状态时可以通过每个视频帧中目标对象的专注状态。比如确定出第901个视频帧至第1080个视频帧中,目标对象的交互状态均为非专注状态,那么就可以确定出这180个视频帧所对应的时间段(也就是1分钟)的状态为非专注状态。
步骤S407,将所述目标对象的交互状态关联于所述学习时间和习题的书写时间中的至少一种。
本步骤中,比如在上述确定出第901个视频帧至第1080个视频帧中,目标对象的交互状态均为非专注状态,而第901个视频帧至第1080个视频帧中目标对象的学习科目为数学,那么就可以将交互状态与学习时间关联,如:数学学习时间20分钟,其中有1分钟为非专注状态。物理题11题的书写的时间为10分钟。
本步骤中通过将交互内容与交互状态关联,即将学习科目以及该科目的学习时间与交互状态相关联,这样就能够详细的了解各个科目的学习状态。
本实施例中,所述方法还包括将所述目标对象的交互状态按照预定的时间间隔以预设的发送方式发送给指定的远端。具体的,可以在每天上午的时候将前一天晚上的目标对象的交互状态以报告的形式发送给家长/老师的终端上。这样家长及老师就能及时的了解各科作业的完成过程,以及各科作业各部分完成的时间,便于家长和老师掌握学生的课后的交互状态。
本发明实施例提供一种交互状态分析方法,如图5所示,包括如下步骤:
步骤S501,获取目标对象所处实地场景中与所述目标对象关联的场景图像;
步骤S502,从所述场景图像中提取目标对象的状态信息;
步骤S503,获取所述场景图像所对应时刻的声音信息;
步骤S504,根据所述声音信息和所述状态信息,确定所述目标对象的交互状态为专注状态、非专注状态或被干扰状态。
本步骤中,当确定目光角度为偏离课本/书籍方向,且不存在声音信息时,则可以确定目标对象的交互状态为非专注状态;当确定目光角度为偏离课本/书籍方向,且存在声音信息时,则可以确定的交互状态为被干扰状态;当确定目光角度为注视课本/书籍方向时,则可以确定的交互状态为专注状态。
本发明实施例通过获取与状态信息对应的声音信息,从状态信息和声音信息两方面来确定目标对象的交互状态,从而使得交互状态的确认更加准确,避免了由于存在噪声或有其他人员与目标对象交谈而错将目标对象的交互状态确认为非专注状态的情况发生。
本发明一实施例提供一种交互状态分析装置,如图6所示包括:
第一获取模块1,用于获取目标对象所处实地场景中与所述目标对象关联的场景图像;
提取模块2,用于从所述场景图像中提取目标对象的状态信息;
确定模块3,用于根据所述状态信息,确定所述目标对象的交互状态。
本发明实施例,通过获取场景图像并从场景图像中提取学生的状态信息,然后根据状态信息来确定学生的交互状态(学习状态),能够使家长或老师等相关人员了解学生课后的学习状态
在本发明另一实施例中,所述目标对象的状态信息,包括:目标对象所在的环境信息和目标对象的目光角度;其中,所述目标对象所在的环境信息包括:目标对象周围的干扰源信息;
所述确定模块进一步用于:基于所述环境信息和所述目光角度分析所述目标对象的交互状态为专注状态、非专注状态或被干扰状态。
本发明实施例中,通过确定目标对象的目光角度以及周围是否有干扰源,来确定目标对象的交互状态,使得交互状态的分析更加合理准确。为家长、老师等相关人员准确的了解学生的课后的交互状态提供了保证。
在本发明又一实施例中,所述目标对象的状态信息,包括:目标对象的目光角度;
所述确定模块还用于:根据所述目光角度分析所述目标对象的交互状态为专注状态或非专注状态。
在本发明又一实施例中,所述提取模块具体用于:
从所述场景图像中获取目标对象的头部角度和瞳孔角度中的至少一个;
基于所述头部角度和瞳孔角度中的至少一个获得目标对象的目光角度。
本实施例中,通过根据目标对象的头部角度及瞳孔角度,来确定目标对象的目光角度,以使得目光角度的确定更加准确,以为后续的准确的确定目标对象的交互状态提供了保证。
在本发明一实施例中,所述装置还包括第二获取模块,所述第二获取模块用于:
获取所述场景图像所对应时刻的声音信息;
所述确定模块进一步用于:根据所述声音信息和所述状态信息,确定所述目标对象的交互状态为专注状态、非专注状态或被干扰状态。
本发明实施例通过获取与状态信息对应的声音信息,从状态信息和声音信息两方面来确定目标对象的交互状态,从而使得交互状态的确认更加准确,避免了由于存在噪声或有其他人员与目标对象交谈而错将目标对象的交互状态确认为非专注状态的情况发生。
在本发明另一实施例中,所述装置还包括识别模块和关联模块;
所述识别模块用于:从所述场景图像中获取书写图像和书籍图像中的至少一个;利用光学字符识别技术对所述书写图像和书籍图像至少一个进行识别,确定交互内容;
所述关联模块:用于将所述交互内容与所述目标对象的交互状态关联。
具体的,所述交互内容包括经过对所述书写图像和书籍图像中的至少一个识别的学习科目;所述装置还包括第一时间确定模块和第二时间确定模块;所述第一时间确定模块:用于确定所述学习科目的学习时间;
所述第二时间确定模块:用于对所述书写图像中的各习题进行识别,确定各所述习题的书写时间;
所述关联模块还用于:将所述目标对象的交互状态关联于所述学习时间和习题的书写时间中的至少一种。
本实施例中通过将交互内容与交互状态关联,即将学习科目以及该科目的学习时间与交互状态相关联,这样就能够详细的了解各个科目的学习状态。
在本发明又一实施例中,所述装置还包括发送模块,所述发送模块,用于将所述目标对象的交互状态按照预定的时间间隔以预设的发送方式发送给指定的远端。
本实施例中,所述方法还包括将所述目标对象的交互状态按照预定的时间间隔以预设的发送方式发送给指定的远端。具体的,可以在每天上午的时候将前一天晚上的目标对象的交互状态以报告的形式发送给家长/老师的终端上。这样家长及老师就能及时的了解各科作业的完成过程,以及各科作业各部分完成的时间,便于家长和老师掌握学生的课后的交互状态。
本发明一实施例提供一种存储介质,所述存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如下方法的步骤:
步骤一、获取目标对象所处实地场景中与所述目标对象关联的场景图像;
步骤二、从所述场景图像中提取目标对象的状态信息;
步骤三、根据所述状态信息,确定所述目标对象的交互状态。
上述方法步骤的具体实施例过程可参见上述任意交互状态分析方法的实施例,本实施例在此不再重复赘述。
本发明实施例,通过获取场景图像并从场景图像中提取学生的状态信息,然后根据状态信息来确定学生的交互状态(学习状态),能够使家长或老师等相关人员了解学生课后的学习状态。
以上实施例仅为本发明的示例性实施例,不用于限制本发明,本发明的保护范围由权利要求书限定。本领域技术人员可以在本发明的实质和保护范围内,对本发明做出各种修改或等同替换,这种修改或等同替换也应视为落在本发明的保护范围内。
Claims (10)
1.一种交互状态分析方法,其特征在于,包括如下步骤:
获取目标对象所处实地场景中与所述目标对象关联的场景图像;
从所述场景图像中提取目标对象的状态信息;
根据所述状态信息,确定所述目标对象的交互状态。
2.如权利要求1所述的方法,其特征在于,所述目标对象的状态信息,包括:目标对象所在的环境信息和目标对象的目光角度;其中,所述目标对象所在的环境信息包括:目标对象周围的干扰源信息;
所述根据所述状态信息,确定所述目标对象的交互状态,包括:
基于所述环境信息和所述目光角度分析所述目标对象的交互状态为专注状态、非专注状态或被干扰状态。
3.如权利要求1所述的方法,其特征在于,所述目标对象的状态信息,包括:目标对象的目光角度;
所述根据所述状态信息,确定所述目标对象的交互状态,包括:
根据所述目光角度分析所述目标对象的交互状态为专注状态或非专注状态。
4.如权利要求2或3所述的方法,其特征在于,从所述场景图像中获取所述目标对象的目光角度,包括:
从所述场景图像中获取目标对象的头部角度和瞳孔角度中的至少一个;
基于所述头部角度和瞳孔角度中的至少一个获得目标对象的目光角度。
5.如权利要求1所述的方法,其特征在于:所述方法还包括:
获取所述场景图像所对应时刻的声音信息;
根据所述状态信息,确定所述目标对象的交互状态,还包括:根据所述声音信息和所述状态信息,确定所述目标对象的交互状态为专注状态、非专注状态或被干扰状态。
6.如权利要求1所述的方法,其特征在于,所述方法还包括:
从所述场景图像中获取书写图像和书籍图像中的至少一个;
利用光学字符识别技术对所述书写图像和书籍图像至少一个进行识别,确定交互内容;
将所述交互内容与所述目标对象的交互状态关联。
7.如权利要求6所述的方法,其特征在于,所述交互内容包括经过对所述书写图像和书籍图像中的至少一个识别的学习科目;所述方法还包括:
确定所述学习科目的学习时间;
对所述书写图像中的各习题进行识别,确定各所述习题的书写时间;
将所述目标对象的交互状态关联于所述学习时间和习题的书写时间中的至少一种。
8.如权利要求1所述的方法,其特征在于,所述方法还包括将所述目标对象的交互状态按照预定的时间间隔以预设的发送方式发送给指定的远端。
9.一种交互状态分析装置,包括:
第一获取模块,用于获取目标对象所处实地场景中与所述目标对象关联的场景图像;
提取模块,用于从所述场景图像中提取目标对象的状态信息;
确定模块,用于根据所述状态信息,确定所述目标对象的交互状态。
10.一种存储介质,其特征在于,所述存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1-8中任意一项所述的交互状态分析方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910764619.2A CN110503024A (zh) | 2019-08-19 | 2019-08-19 | 一种交互状态分析方法、装置及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910764619.2A CN110503024A (zh) | 2019-08-19 | 2019-08-19 | 一种交互状态分析方法、装置及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110503024A true CN110503024A (zh) | 2019-11-26 |
Family
ID=68588456
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910764619.2A Pending CN110503024A (zh) | 2019-08-19 | 2019-08-19 | 一种交互状态分析方法、装置及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110503024A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111935453A (zh) * | 2020-07-27 | 2020-11-13 | 浙江大华技术股份有限公司 | 一种学习监督方法、装置、电子设备及存储介质 |
CN112053224A (zh) * | 2020-09-02 | 2020-12-08 | 中国银行股份有限公司 | 业务处理监控实现方法、装置及*** |
CN112613780A (zh) * | 2020-12-29 | 2021-04-06 | 北京市商汤科技开发有限公司 | 一种学习报告生成的方法、装置、电子设备及存储介质 |
CN113298597A (zh) * | 2020-08-06 | 2021-08-24 | 阿里巴巴集团控股有限公司 | 对象热度分析***、方法及装置 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106228982A (zh) * | 2016-07-27 | 2016-12-14 | 华南理工大学 | 一种基于教育服务机器人的交互式学习***与交互方法 |
CN106599881A (zh) * | 2016-12-30 | 2017-04-26 | 首都师范大学 | 学生状态的确定方法、装置及*** |
CN108281052A (zh) * | 2018-02-09 | 2018-07-13 | 郑州市第十中学 | 一种在线教学***及在线教学方法 |
CN108682189A (zh) * | 2018-04-20 | 2018-10-19 | 南京脑桥智能科技有限公司 | 一种学习状态确认***及方法 |
CN109242736A (zh) * | 2018-09-27 | 2019-01-18 | 广东小天才科技有限公司 | 一种协助老师了解学生的学习情况的方法和*** |
WO2019035007A1 (en) * | 2017-08-15 | 2019-02-21 | American Well Corporation | APPARATUS AND METHODS FOR REMOTE CAMERA CONTROL WITH INTENTION BASED COMMANDS AND AUTOMATIC LEARNING VISION STATUS MANAGEMENT |
CN109523852A (zh) * | 2018-11-21 | 2019-03-26 | 合肥虹慧达科技有限公司 | 基于视觉监控的学习交互***及其交互方法 |
CN109819402A (zh) * | 2019-01-08 | 2019-05-28 | 李超豪 | 用于监督改善学习习惯的方法及其*** |
CN110033400A (zh) * | 2019-03-26 | 2019-07-19 | 深圳先进技术研究院 | 一种课堂监控分析*** |
-
2019
- 2019-08-19 CN CN201910764619.2A patent/CN110503024A/zh active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106228982A (zh) * | 2016-07-27 | 2016-12-14 | 华南理工大学 | 一种基于教育服务机器人的交互式学习***与交互方法 |
CN106599881A (zh) * | 2016-12-30 | 2017-04-26 | 首都师范大学 | 学生状态的确定方法、装置及*** |
WO2019035007A1 (en) * | 2017-08-15 | 2019-02-21 | American Well Corporation | APPARATUS AND METHODS FOR REMOTE CAMERA CONTROL WITH INTENTION BASED COMMANDS AND AUTOMATIC LEARNING VISION STATUS MANAGEMENT |
CN108281052A (zh) * | 2018-02-09 | 2018-07-13 | 郑州市第十中学 | 一种在线教学***及在线教学方法 |
CN108682189A (zh) * | 2018-04-20 | 2018-10-19 | 南京脑桥智能科技有限公司 | 一种学习状态确认***及方法 |
CN109242736A (zh) * | 2018-09-27 | 2019-01-18 | 广东小天才科技有限公司 | 一种协助老师了解学生的学习情况的方法和*** |
CN109523852A (zh) * | 2018-11-21 | 2019-03-26 | 合肥虹慧达科技有限公司 | 基于视觉监控的学习交互***及其交互方法 |
CN109819402A (zh) * | 2019-01-08 | 2019-05-28 | 李超豪 | 用于监督改善学习习惯的方法及其*** |
CN110033400A (zh) * | 2019-03-26 | 2019-07-19 | 深圳先进技术研究院 | 一种课堂监控分析*** |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111935453A (zh) * | 2020-07-27 | 2020-11-13 | 浙江大华技术股份有限公司 | 一种学习监督方法、装置、电子设备及存储介质 |
CN113298597A (zh) * | 2020-08-06 | 2021-08-24 | 阿里巴巴集团控股有限公司 | 对象热度分析***、方法及装置 |
CN112053224A (zh) * | 2020-09-02 | 2020-12-08 | 中国银行股份有限公司 | 业务处理监控实现方法、装置及*** |
CN112053224B (zh) * | 2020-09-02 | 2023-08-18 | 中国银行股份有限公司 | 业务处理监控实现方法、装置及*** |
CN112613780A (zh) * | 2020-12-29 | 2021-04-06 | 北京市商汤科技开发有限公司 | 一种学习报告生成的方法、装置、电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110503024A (zh) | 一种交互状态分析方法、装置及存储介质 | |
CN110598770B (zh) | 一种多空间融合学习环境构建方法和装置 | |
US9520070B2 (en) | Interactive learning system and method | |
AU2016243058A1 (en) | System and method for adaptive assessment and training | |
Ogata et al. | Ubiquitous Learning Log: What if we can log our ubiquitous learning | |
CN110795917B (zh) | 个性化讲义生成方法、***及电子设备、存储介质 | |
US20160267803A1 (en) | Technologies for students evaluating teachers | |
CN104463483A (zh) | 一种用于智慧教学***的教学终端管理平台 | |
Önger et al. | An investigation into digital literacy views of social studies preservice teachers in the context of authentic learning | |
Ferster et al. | Automated formative assessment as a tool to scaffold student documentary writing | |
Hamilton et al. | Purposeful Reflections: Scaffolding preservice teachers' field placement observations | |
Parwata et al. | The Development of Digital Teaching to Improve the Quality of Student Learning in the Revolution 4.0 Era at Warmadewa University | |
Smith | Preservice teacher perspectives on learning with technology: Modeling vulnerability and embracing innovation | |
Hill et al. | Effective research communication | |
KR101023901B1 (ko) | 학습 관리 시스템 및 방법 | |
Ewe et al. | Teachers' awareness towards 21st century teaching and its implementation (administrators' perspective) | |
Hassan et al. | Artificial intelligence in educational examinations | |
US20220319152A1 (en) | Methods for generating cognitive building blocks | |
Salu et al. | Model Operating of Field Experience Program in Improving of Novice English Teachers | |
Kumar et al. | AI-Based Language Translation and Interpretation Services: Improving Accessibility for Visually Impaired Students | |
KR101835367B1 (ko) | 티칭어사인먼트를 활용한 미국 회계사 시험의 온라인 교육 시스템 및 방법 | |
Mroz | " Off the Radar:" The Framing of Speech, Language and Communication in the Description of Children with Special Educational Needs in Literacy. | |
Besigomwe et al. | Primary Teacher Trainees’ ICT Competencies, Tutors’ mode of Instruction, ICT Infrastructure and Pedagogical Practices in Uganda | |
LOMBARDI | CHAPTER FOUR MAKING PROGRESS IN ENGLISH SPEAKING VISIBLE: A CLASS ROUTINE TO RAISE LANGUAGE LEARNING AWARENESS | |
Shah et al. | Board 304: HighSchoolers’ Understanding about “Engineering” and Their Perception of the Coding-Engineering Relationship |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |