CN110837790B - 一种识别方法 - Google Patents

一种识别方法 Download PDF

Info

Publication number
CN110837790B
CN110837790B CN201911061797.5A CN201911061797A CN110837790B CN 110837790 B CN110837790 B CN 110837790B CN 201911061797 A CN201911061797 A CN 201911061797A CN 110837790 B CN110837790 B CN 110837790B
Authority
CN
China
Prior art keywords
touch
user
processor
information
panel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911061797.5A
Other languages
English (en)
Other versions
CN110837790A (zh
Inventor
田雪松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Yundi Technology Co ltd
Original Assignee
Guangzhou Yundi Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Yundi Technology Co ltd filed Critical Guangzhou Yundi Technology Co ltd
Priority to CN201911061797.5A priority Critical patent/CN110837790B/zh
Publication of CN110837790A publication Critical patent/CN110837790A/zh
Application granted granted Critical
Publication of CN110837790B publication Critical patent/CN110837790B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • G06Q50/205Education administration or guidance
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Educational Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Educational Administration (AREA)
  • General Engineering & Computer Science (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • General Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • General Business, Economics & Management (AREA)
  • Economics (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明涉及一种识别方法,所述方法包括:触控单元识别触控操作,根据触控操作生成触控信息;当触控持续时间超过第一时长且触控坐标处于第一设定区域内时,处理器确定面板模式;图像采集单元采集手势信息和面部信息;处理器根据面部信息确定用户信息;根据手势信息确定第一类别用户,并将用户信息输出显示在显示单元;触控单元识别选择触控操作,并根据选择触控操作确定选择触控坐标;处理器根据选择触控坐标确定第一用户;根据面部信息进行定位处理,生成定位坐标;图像采集单元根据定位坐标,进行视频图像数据的采集;触控单元接收第二用户根据视频图像数据输入的评分数据,处理器根据评分数据和第一用户的用户ID生成课堂质量评分数据。

Description

一种识别方法
技术领域
本发明涉及一种信息技术领域,尤其涉及一种识别方法。
背景技术
在传统教学过程中,由于一个教师同时给多个学生进行讲课,无法顾及到每一个学生在课堂上的状态。现如今,即便许多学校在教学人数上进行缩减,但学生在课堂上的举动仍然存在不能被及时发现的情况。而且对于学生的课堂质量多为主观评价,没有大数据作为基础,不足以客观分析学生的学习质量。
另外,传统课堂的教学板只能用于书写板书,无法对板书进行记录和控制,不利于提高教学质量。
发明内容
本发明的目的是针对现有技术的缺陷,提供一种识别方法,用于将学生的课堂状态进行数据化,并基于数据对学生进行客观评分,还用于根据用户的操作识别手势指令,从而实现智能控制板书,增加课堂的趣味性。
为实现上述目的,本发明提供了一种识别方法,所述方法包括:
面板的触控单元识别触控操作,根据所述触控操作生成触控信息,并发送给处理器;所述触控信息包括触控持续时间和触控坐标;
当所述触控持续时间超过第一时长且所述触控坐标处于第一设定区域内时,所述处理器根据所述触控持续时间和所述触控坐标确定面板模式;
所述面板的图像采集单元根据第一图像采集参数采集图像采集区域内用户的手势信息和面部信息,发送给所述处理器;
所述处理器根据所述面部信息确定用户的用户信息;所述用户信息包括用户ID;
所述处理器根据所述手势信息确定第一类别用户,并将所述第一类别用户的用户ID输出显示在所述面板的显示单元;
所述触控单元识别第二用户的选择触控操作,并根据所述选择触控操作确定选择触控坐标;
所述处理器根据所述选择触控坐标确定所述第一类别用户中被选中的第一用户;
所述处理器根据所述第一用户的面部信息进行定位处理,生成第一用户的定位坐标;
所述图像采集单元根据所述定位坐标,改变所述第一图像采集参数,并根据变更后的第二图像采集参数对所述第一用户进行视频图像数据的采集;
所述触控单元接收第二用户根据所述视频图像数据输入的评分数据,并发送给所述处理器,所述处理器根据所述评分数据和所述第一用户的用户ID 生成所述第一用户的课堂质量评分数据。
优选的,在所述处理器根据所述手势信息确定第一类别用户之后,所述方法还包括:
所述处理器获取各用户的活跃度累积数据,并根据所述面部信息确定的用户信息,更新其中第一类别用户的活跃度累积数据,将活跃度累积数据加1,得到更新后的活跃度累积数据。
进一步优选的,所述处理器获取第一用户的全部课堂质量评分数据和活跃度累积数据,进行加权量化处理,生成所述第一用户的课堂评分数据。
优选的,语音识别单元拾取语音信息,并将所述语音信息转换为电信号;
所述处理器根据所述电信号进行特征提取处理,得到语音识别信号,将所述语音识别信号与数据库中的语音模型信号进行对比处理,得到语音识别指令;
所述处理器执行所述语音识别指令。
优选的,所述面板模式包括第一面板模式和第二面板模式;所述处理器根据所述触控持续时间和所述触控坐标确定面板模式具体包括:
所述处理器获取当前的面板模式;
当所述触控持续时间超过第一时长且所述触控坐标处于第一设定区域内时,所述处理器将当前的第一面板模式切换为所述第二面板模式,或者,所述处理器将当前的第二面板模式切换为所述第一面板模式。
优选的,所述图像采集单元根据所述定位坐标,改变所述第一图像采集参数,并根据变更后的第二图像采集参数对所述第一用户进行视频图像数据采集之后,所述方法还包括:
所述处理器将所述视频图像数据输出显示在所述显示单元;
当所述第二用户完成对所述视频图像数据的评分处理后,所述处理器停止对所述第一用户的视频图像数据的输出显示。
优选的,所述触控坐标包括起点坐标和终点坐标;在所述面板的触控单元识别触控操作,并根据所述触控操作生成触控信息发送给处理器之后,所述方法还包括:
所述处理器判断所述起点坐标是否在第二设定区域内;所述第二设定区域与所述第一设定区域不重合;
当所述触控操作的所述起点坐标在所述第二设定区域内时,所述处理器根据所述起点坐标确定第一触控对象;
将所述第一触控对象的显示位置由起点坐标迁移至终点坐标。
进一步优选的,所述起点坐标与所述终点坐标之间的位移大于预设位移阈值。
进一步优选的,当所述触控操作的所述起点坐标在所述第一设定区域及第二设定区域之外时,所述方法还包括:
所述处理器根据所述触控操作生成书写轨迹,并将所述书写轨迹上传至数据库中。
优选的,当所述触控间隔时间小于预设的触控间隔时间阈值且所述触控坐标处于第一设定区域内时,所述处理器根据所述触控间隔时间和所述触控坐标关闭面板。
本发明实施例提供的一种识别方法,实现了将学生的课堂状态进行数据化,并基于数据对学生进行客观评分,从而优化教学课堂。
附图说明
图1为本发明实施例提供的一种识别方法的流程图;
图2为本发明实施例提供的面板的设定区域的示意图。
具体实施方式
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
本发明提供的一种识别方法,可以将学生的课堂状态进行数据化,并基于数据对学生进行客观评分,还可以根据用户操作识别手势指令,从而实现智能控制板书,增加课堂的趣味性。
图1为本发明实施例提供的一种识别方法的流程图,示出了教学面板对手势信息的识别统计处理的过程。图2为本发明实施例提供的面板的设定区域的示意图。以下结合图1和图2对本发明技术方案进行详述。
为便于理解本发明的技术方案,首先对以下涉及到的第一设定区域、第二设定区域和第三设定区域进行说明:第一设定区域、第二设定区域和第三设定区域皆位于面板上且两两之间不重合。其中,第一设定区域用于对用于教学的面板的模式进行切换,第二设定区域用于对处于第二设定区域内的对象进行基于触控识别的控制,第三设定区域用于识别在第三设定区域内的书写轨迹。
其次对以下涉及到的用户进行说明:以教学班级为例,第一类别用户为举手的学生,第二用户为教师,第一用户为被教师选中的学生。
然后对以下涉及的坐标进行说明,如图2所示,以左下角为零点(0,0),长为X轴,宽为Y轴,将面板分成3个区域。在本实施例中,以长400厘米,宽100厘米的教学板为例,其中以1厘米为1个单位。根据教学板长度以及区域的预先设定,各点坐标为:A(0,100)、F(400,0)、B(0,10)、C(10,0)、 D(135,0)和E(265,0)。
对手势信息的识别统计处理流程如下步骤101-步骤 110:
步骤101,面板的触控单元识别触控操作,根据触控操作生成触控信息, 并发送给处理器。
具体的,触控信息包括触控持续时间和触控坐标。例如,触控持续时间的阈值设定为1秒。
优选的,触控坐标包括起点坐标和终点坐标。在面板的触控单元识别触控操作,并根据触控操作生成触控信息发送给处理器之后,处理器判断起点坐标所属的设定区域。
当触控坐标处于第一设定区域内,认为是面板状态切换操作。在面板状态处于唤醒状态时,认为是课堂记录开启,当面板状态处于关闭状态时,课堂记录也随之关闭。
当触控坐标处于第二设定区域内,认为是对面板上显示的触控对象进行点选、移动、翻转等操作,具体可以根据手势识别来确定操作动作。
当触控坐标处于第一设定区域及第二设定区域之外,即第三设定区域,认为是在面板上进行书写操作。
步骤102,当触控持续时间超过第一时长且触控坐标处于第一设定区域内时,处理器根据触控持续时间和触控坐标开启面板。
在一个具体的实施例中,当触控信息为“触控持续时间2秒,触控坐标 (1,1)”时,触控持续时间2秒超过第一时长1秒且触控坐标处于第一设定区域内时,处理器根据触控持续时间和触控坐标开启面板。
当触控信息为“触控间隔时间0.1秒,触控坐标为(1,1)”时,触控间隔时间小于预设触控间隔时间阈值0.4秒且触控坐标处于第一设定区域内时,处理器根据触控间隔时间和触控坐标关闭面板。
在优选的方案中,面板为多用面板,包括黑板和电子屏两种状态且可切换,通过设定面板模式来进行切换更改。面板模式包括第一面板模式和第二面板模式。处理器获取当前的面板模式。当触控持续时间超过第二时长且触控坐标处于第一设定区域内时,处理器将当前的第一面板模式切换为第二面板模式,或者,处理器将当前的第二面板模式切换为第一面板模式。
在一个具体的实施例中,第一面板模式为黑板模式,第二面板模式为电子屏模式。当触控信息为触控持续时间5秒,触控坐标(1,1)时,处理器首先判断触控坐标在第一预设区域内,然后根据触控持续时间达到预设的第一时长3秒,判断该触控操作为面板模式切换指令。将面板模式从当前模式的黑板模式切换至电子屏模式,或者从当期模式的电子屏模式切换至黑板模式。
步骤103,面板的图像采集单元根据第一图像采集参数采集图像采集区域内用户的手势信息和面部信息,发送给处理器。
在一个具体的实施例中,面板的图像采集单元对图像采集区域,例如面板正对的第一教室内学生座位区域,按照图像采集区域100%的比例进行采集,识别采集范围内的手势信息和面部信息,并将采集到的手势信息和面部信息发送给处理器。
第一教室内的所有学生都坐在学生座位区域,因此图像采集单元采集的是第一教室所有学生的面部信息和手势信息。
步骤104,处理器根据面部信息确定用户的用户信息。
具体的,处理器将图像采集单元采集到的面部信息进行特征提取,并将特征提取出的参数化特征信息与数据库中预先存储的面部信息的参数化特征信息进行对比,确定用户的用户信息,处理器识别到用户信息包括用户ID。
数据库中预先存储的面部信息是指全部在校学生的面部信息,每个面部信息都具有参数化特征信息,并且每个面部信息对应唯一的用户信息。用户信息具体包括:学生教育ID、学生姓名、班级学号、班级信息等。在本例中,将学生姓名和学生学号作为用户ID。
步骤105,处理器根据手势信息确定第一类别用户,并将第一类别用户的用户ID输出显示在面板的显示单元。
在一个具体的实施例中,处理器识别到手势信息,例如,手势信息为举手。处理器则自动根据手势信息的起止点坐标和距离确定发起举手的用户,并识别为第一类别用户,同时将发起举手的用户的用户ID,例如,“张三001”,“李四002”,输出显示在面板上。
优选的,在处理器根据手势信息确定第一类别用户之后,处理器获取各用户的活跃度累积数据,并根据面部信息确定的用户信息,更新其中第一类别用户的活跃度累积数据,将活跃度累积数据加1,得到更新后的活跃度累积数据。在一个具体的实施例中,处理器确定全部发起举手的用户的用户信息之后,将每个用户的发起举手的次数进行记录,并且根据发起举手的用户的面部信息更新该用户对应的举手次数。具体每次识别到举手信息,处理器都根据在对应的用户的举手次数上加1。
进一步优选的,处理器获取第一用户的全部课堂质量评分数据和活跃度累积数据,进行加权量化处理,生成第一用户的课堂评分数据。
在一个优选的实施例中,处理器根据第二用户对一个第一用户的多个课堂质量评分“7分、8分、9分”计算出第一用户的课堂质量评分的平均分8 分。
该用户的活跃度累积数据为30,可以按照***中的预设规则,对活跃度累积数据进行对应转换,按照其在班级中全部第一用户的活跃度累积数据中的排名,确定相应的量化分值。例如该用户的举手次数为30次,对应排名为第8时,该用户的活跃度的量化分值为10分。处理器对课堂质量评分的平均分8分和活跃度的量化分值10分,按照50%,50%进行加权计算,生成第一用户的课堂评分数据9分。
活跃度的量化分值转化的预设规则可以根据实际需要设定。
步骤106,触控单元识别第二用户的选择触控操作,并根据选择触控操作确定选择触控坐标。
具体的,第二用户,即教师,可以根据输出显示在面板的显示单元的第一用户的用户ID进行选择操作。
在一个具体的实施例中,触控单元根据第二用户,在面板上对第一用户张三001的选择触控操作确定选择触控坐标(150,30)。
步骤107,处理器根据选择触控坐标确定第一类别用户中被选中的第一用户。
在一个具体的实施例中,根据选择触控坐标(150,30)确定被选中的第一用户张三001。
步骤108,处理器根据第一用户的面部信息进行定位处理,生成第一用户的定位坐标。
在一个具体的实施例中,处理器根据对被选中的第一用户ID:张三001,在之前第一图像采集参数采集图像采集区域内用户的面部信息中进行面部信息搜索,并根据搜索到的面部信息生成定位坐标。
步骤109,图像采集单元根据定位坐标,改变第一图像采集参数,并根据变更后的第二图像采集参数对第一用户进行视频图像数据的采集。
在一个具体的实施例中,图像采集单元根据定位坐标,图像采集单元对图像采集区域按照10%的比例进行采集,即将图像采集的区域缩小至原采集区域的10%,以实现对第一用户进行视频特写。
优选的,图像采集单元根据定位坐标,改变第一图像采集参数,并根据变更后的第二图像采集参数对第一用户进行视频图像数据采集之后,方法还包括:处理器将视频图像数据输出显示在显示单元。当第二用户完成对视频图像数据的评分处理后,处理器停止对第一用户的视频图像数据的输出显示。
在一个具体的实施例中,处理器将图像采集单元更改分辨率后的视频图像输出显示在面板上。当第二用户对该第一用户完后评分后,停止显示。
步骤110,触控单元接收第二用户根据视频图像数据输入的评分数据,并发送给处理器,处理器根据评分数据和第一用户的用户ID生成第一用户的课堂质量评分数据。
在一个具体的实施例中,触控单元将第二用户对第一用户的评分8分发送给处理器,处理器根据第一用户的用户ID“张三001”和评分8分生成该第一用户的课堂质量评分数据。
上述步骤101-步骤110实现了对用户的手势信息的识别和统计处理过程,便于对学生的课堂表现客观评分。
本发明实施例提供的识别方法,还包括对面板上显示的触控对象的操控识别以及对第二用户的书写笔迹的识别和记录。以下分别进行说明:
对面板上显示的触控对象的操控识别,具体的,处理器判断起点坐标是否在第二设定区域内;第二设定区域与第一设定区域不重合。当触控操作的起点坐标在第二设定区域内时,处理器根据起点坐标确定第一触控对象。将第一触控对象的显示位置由起点坐标迁移至终点坐标。当触控操作的起点坐标在第一设定区域及第二设定区域之外时,处理器根据触控操作生成书写轨迹,并将书写轨迹上传至数据库中。
在一个具体的实施例中,处理器接收到的触控信息为起点坐标(140,30),终点坐标(200,60)。此时,处理器判断起点坐标在第二设定区域。根据第二设定区域内的一张图片的坐标为横坐标120至150,纵坐标为20至40,处理器可以判断出起点坐标(140,30)在这张图片的坐标范围内,最终确定触控对象为该图片,并且将该图片移动至终点坐标(200,60)。
在一个优选的实施例中,处理器接收到的触控信息为起点坐标(140,30),终点坐标(200,60),位移约为67。起点坐标与终点坐标之间的位移大于预设位移阈值1,处理器对该图片进行移动。若位移小于或等于预设位移阈值,则不移动该图片。
上述对面板上显示的触控对象的操控识别,便于对教学内容的演示,以提供更优质的教学环境。
对第二用户的书写笔迹的识别和记录:
在另一个具体的实施例中,当触控操作的起点坐标在第一设定区域及第二设定区域之外,即第三设定区域时,处理器根据每一个触控操作生成书写轨迹,多个书写轨迹可以组成板书内容,并将书写轨迹组成的板书内容上传至数据库中。
上述对第二用户的书写笔迹的识别和记录,有利于对教学内容进行记录,方便学生课后复习,以提高教学质量。
此外,本发明实施例提供的识别方法,还包括对用户语音指令的识别,具体的:语音识别单元拾取语音信息,并将语音信息转换为电信号。处理器根据电信号进行特征提取处理,得到语音识别信号,将语音识别信号与数据库中的语音模型信号进行对比处理,得到语音识别指令。处理器执行语音识别指令。
在一个具体的实施例中,当面板的语音识别单元识别到语音信息时,先将语音信息中的环境噪音与用户的语音信息进行加权处理,用以去除噪音得到数字信号,然后对得到的数字信号进行频谱分析,提取出语音信号的参数化表示,例如由语音信息的特征矢量构成的特征矩阵。将该语音信号与数据库中的语音模型信号进行比较。当两者的相似度达到相似度阈值,例如90%,确定该语音信息与该语义模型信号相匹配。处理器获取到语音模型信号对应的指令并执行。
上述对用户语音指令的识别,与触控操作可以同时进行,还可以在一定距离内远程控制,提高教学课堂演示效率。
本发明的一种识别方法实现了学生的课堂状态的数据化,并基于数据对学生进行客观评分,还实现了根据用户操作识别手势指令,从而实现智能控制板书,增加课堂的趣味性。
专业人员应该还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
结合本文中所公开的实施例描述的方法或算法的步骤可以用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器 (RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。
以上所述的具体实施方式,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施方式而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种识别方法,其特征在于,所述方法包括:
面板的触控单元识别触控操作,根据所述触控操作生成触控信息,并发送给处理器;所述触控信息包括触控持续时间和触控坐标;
当所述触控持续时间超过第一时长且所述触控坐标处于第一设定区域内时,所述处理器根据所述触控持续时间和所述触控坐标开启面板;
所述面板的图像采集单元根据第一图像采集参数采集图像采集区域内用户的手势信息和面部信息,发送给所述处理器;
所述处理器根据所述面部信息确定用户的用户信息;所述用户信息包括用户ID;
所述处理器根据所述手势信息确定第一类别用户,并将所述第一类别用户的用户ID输出显示在所述面板的显示单元;
所述触控单元识别第二用户的选择触控操作,并根据所述选择触控操作确定选择触控坐标;
所述处理器根据所述选择触控坐标确定所述第一类别用户中被选中的第一用户;
所述处理器根据所述第一用户的面部信息进行定位处理,生成第一用户的定位坐标;
所述图像采集单元根据所述定位坐标,改变所述第一图像采集参数,并根据变更后的第二图像采集参数对所述第一用户进行视频图像数据的采集;
所述触控单元接收第二用户根据所述视频图像数据输入的评分数据,并发送给所述处理器,所述处理器根据所述评分数据和所述第一用户的用户ID生成所述第一用户的课堂质量评分数据。
2.根据权利要求1所述的识别方法,其特征在于,在所述处理器根据所述手势信息确定第一类别用户之后,所述方法还包括:
所述处理器获取各用户的活跃度累积数据,并根据所述面部信息确定的用户信息,更新其中第一类别用户的活跃度累积数据,将活跃度累积数据加1,得到更新后的活跃度累积数据。
3.根据权利要求2所述的识别方法,其特征在于,所述处理器获取第一用户的全部课堂质量评分数据和活跃度累积数据,进行加权量化处理,生成所述第一用户的课堂评分数据。
4.根据权利要求1所述的识别方法,其特征在于,所述方法还包括:
语音识别单元拾取语音信息,并将所述语音信息转换为电信号;
所述处理器根据所述电信号进行特征提取处理,得到语音识别信号,将所述语音识别信号与数据库中的语音模型信号进行对比处理,得到语音识别指令;
所述处理器执行所述语音识别指令。
5.根据权利要求1所述的识别方法,其特征在于,所述面板模式包括第一面板模式和第二面板模式;在所述处理器根据所述触控持续时间和所述触控坐标开启面板之后,所述方法还包括:
所述处理器获取当前的面板模式;
当所述触控持续时间超过第二时长且所述触控坐标处于第一设定区域内时,所述处理器将当前的第一面板模式切换为所述第二面板模式,或者,所述处理器将当前的第二面板模式切换为所述第一面板模式。
6.根据权利要求1所述的识别方法,其特征在于,所述图像采集单元根据所述定位坐标,改变所述第一图像采集参数,并根据变更后的第二图像采集参数对所述第一用户进行视频图像数据采集之后,所述方法还包括:
所述处理器将所述视频图像数据输出显示在所述显示单元;
当所述第二用户完成对所述视频图像数据的评分处理后,所述处理器停止对所述第一用户的视频图像数据的输出显示。
7.根据权利要求1所述的识别方法,其特征在于,所述触控坐标包括起点坐标和终点坐标;在所述面板的触控单元识别触控操作,并根据所述触控操作生成触控信息发送给处理器之后,所述方法还包括:
所述处理器判断所述起点坐标是否在第二设定区域内;所述第二设定区域与所述第一设定区域不重合;
当所述触控操作的所述起点坐标在所述第二设定区域内时,所述处理器根据所述起点坐标确定第一触控对象;
将所述第一触控对象的显示位置由起点坐标迁移至终点坐标。
8.根据权利要求7所述的识别方法,其特征在于,所述起点坐标与所述终点坐标之间的位移大于预设位移阈值。
9.根据权利要求7所述的识别方法,其特征在于,当所述触控操作的所述起点坐标在所述第一设定区域及第二设定区域之外时,所述方法还包括:
所述处理器根据所述触控操作生成书写轨迹,并将所述书写轨迹上传至数据库中。
10.根据权利要求1所述的识别方法,其特征在于,所述触控信息还包括触控间隔时间;所述方法还包括:
当所述触控间隔时间小于预设触控间隔时间阈值且所述触控坐标处于第一设定区域内时,所述处理器根据所述触控间隔时间和所述触控坐标关闭面板。
CN201911061797.5A 2019-11-01 2019-11-01 一种识别方法 Active CN110837790B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911061797.5A CN110837790B (zh) 2019-11-01 2019-11-01 一种识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911061797.5A CN110837790B (zh) 2019-11-01 2019-11-01 一种识别方法

Publications (2)

Publication Number Publication Date
CN110837790A CN110837790A (zh) 2020-02-25
CN110837790B true CN110837790B (zh) 2022-03-18

Family

ID=69575964

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911061797.5A Active CN110837790B (zh) 2019-11-01 2019-11-01 一种识别方法

Country Status (1)

Country Link
CN (1) CN110837790B (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104423717A (zh) * 2013-08-26 2015-03-18 鸿合科技有限公司 手势输入方法及数字白板
JP2016157010A (ja) * 2015-02-25 2016-09-01 ブラザー工業株式会社 歌唱評価装置及び歌唱評価用プログラム
CN109101132A (zh) * 2018-08-07 2018-12-28 锐达互动科技股份有限公司 一种传统教学与电子白板投影教学快速切换的方法
CN110334620A (zh) * 2019-06-24 2019-10-15 北京大米科技有限公司 教学质量的评估方法、装置、存储介质及电子设备

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104423717A (zh) * 2013-08-26 2015-03-18 鸿合科技有限公司 手势输入方法及数字白板
JP2016157010A (ja) * 2015-02-25 2016-09-01 ブラザー工業株式会社 歌唱評価装置及び歌唱評価用プログラム
CN109101132A (zh) * 2018-08-07 2018-12-28 锐达互动科技股份有限公司 一种传统教学与电子白板投影教学快速切换的方法
CN110334620A (zh) * 2019-06-24 2019-10-15 北京大米科技有限公司 教学质量的评估方法、装置、存储介质及电子设备

Also Published As

Publication number Publication date
CN110837790A (zh) 2020-02-25

Similar Documents

Publication Publication Date Title
CN108648757B (zh) 一种基于多维度课堂信息的分析方法
CN110991381B (zh) 一种基于行为和语音智能识别的实时课堂学生状态分析与指示提醒***和方法
CN105679121B (zh) 一种智能授课***
CN111027486B (zh) 一种中小学课堂教学效果大数据辅助分析评价***及其方法
CN109376612B (zh) 一种基于手势协助定位学习的方法和***
CN112183238B (zh) 一种远程教育注意力检测方法及***
CN107992195A (zh) 一种教学内容的处理方法、装置、服务器及存储介质
CN110009537B (zh) 一种信息处理方法、装置、设备及存储介质
CN115239527A (zh) 基于知识库的教学特征融合与建模的教学行为分析***
CN105427696A (zh) 一种对目标题目所作答案进行判别的方法
WO2020007097A1 (zh) 数据处理方法、存储介质和电子设备
CN109754653B (zh) 一种个性化教学的方法及***
CN116109455B (zh) 一种基于人工智能的语言教学辅助***
CN111814733A (zh) 基于头部姿态的专注度检测方法及装置
CN115600922A (zh) 一种多维度智能化教学质量评估方法及***
CN115810163A (zh) 一种基于ai课堂行为识别的教学评估方法和***
CN116050892A (zh) 一种基于人工智能的智能教育评价监督方法
CN111399647A (zh) 一种人工智能自适应互动教学***
CN113657509A (zh) 教学训练提升方法、装置、终端和存储介质
CN110837790B (zh) 一种识别方法
CN110378261B (zh) 一种学生识别方法及装置
CN115631501A (zh) 一种基于环幕教学空间的板书智能云调取方法
CN113256129A (zh) 一种专注度分析方法、***及计算机可读存储介质
JP7427906B2 (ja) 情報処理装置、制御方法及びプログラム
CN109766413B (zh) 一种应用于家教设备的搜索方法及家教设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant