CN113342194B - 教学用的自动识别书写与擦除方法及***、存储介质 - Google Patents

教学用的自动识别书写与擦除方法及***、存储介质 Download PDF

Info

Publication number
CN113342194B
CN113342194B CN202110886385.6A CN202110886385A CN113342194B CN 113342194 B CN113342194 B CN 113342194B CN 202110886385 A CN202110886385 A CN 202110886385A CN 113342194 B CN113342194 B CN 113342194B
Authority
CN
China
Prior art keywords
touch
current
type
data
judging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110886385.6A
Other languages
English (en)
Other versions
CN113342194A (zh
Inventor
宋雅峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangsu Xiaoniu Electronic Technology Co ltd
Original Assignee
Jiangsu Xiaoniu Electronic Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangsu Xiaoniu Electronic Technology Co ltd filed Critical Jiangsu Xiaoniu Electronic Technology Co ltd
Priority to CN202110886385.6A priority Critical patent/CN113342194B/zh
Publication of CN113342194A publication Critical patent/CN113342194A/zh
Application granted granted Critical
Publication of CN113342194B publication Critical patent/CN113342194B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • G06F3/0383Signal control means within the pointing device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0414Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04162Control or interface arrangements specially adapted for digitisers for exchanging data with external devices, e.g. smart pens, via the digitiser sensing hardware
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/02Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Position Input By Displaying (AREA)

Abstract

本发明公开了教学用的自动识别书写与擦除方法及***、存储介质,属于电子黑板教育领域。若当前的触摸介质类型为笔式触摸,则判定当前的操作模式为书写模式,基于所述触摸数据执行书写操作;若当前的触摸介质类型为生物介质触摸,且操作模式为书写模式,读取前次生物介质触摸数据,通过操作类型判别数据判断当前操作的类型,并执行对应的操作;若通过所述操作类型判别数据无法判断当前操作类型,则构建识别模型,将上述操作类型判别数据输送给识别模型;基于识别模型的输出结果执行当前执行操作;等待下一步操作并保存数据。本发明通过获取触摸数据并分析其触摸类型,根据触摸类型选择不同的匹配对应的操作模式。

Description

教学用的自动识别书写与擦除方法及***、存储介质
技术领域
本发明属于电子黑板教育领域,特别是涉及教学用的自动识别书写与擦除方法及***、存储介质。
背景技术
在教育教学越来越电子化的今天,智能黑板越来越多的走进了校园课堂,作为教学主力软件,电子白板软件极力去实现现实教学中的真实场景,但是目前的白板软件中,依旧是传统的软件模式和设计逻辑左右使用习惯,并不贴合实际,特别是书写与擦除,一般采取切换手写/擦除模式,或者五指、手掌等特殊手势去擦除等,这些方式只是依据技术和设计思想去实现的方式,却忽视了使用者一般是用粉笔书写,大面积擦除使用黑板擦,小面积修改会使用手指来节约时间的操作习惯。
因此使用现有技术的切换手写/擦除模式,不便于在书写时做有针对性的擦除,降低了教学效率。
发明内容
本发明为解决背景技术中存在的技术问题,提供了一种教学用的自动识别书写与擦除方法及***、存储介质。
本发明采用以下技术方案:教学用的自动识别书写与擦除的方法,其特征在于,包括以下步骤:
获取触摸数据,判断当前的触摸介质类型;
若当前的触摸介质类型为笔式触摸,则判定当前的操作模式为书写模式,基于所述触摸数据执行书写操作;
若当前的触摸介质类型为生物介质触摸,且操作模式为书写模式,读取前次生物介质触摸数据,基于前次生物介质触摸数据和当前触摸数据得到操作类型判别数据,通过操作类型判别数据判断当前操作类型,并执行对应的操作;若通过所述操作类型判别数据无法判断当前操作类型,则构建识别模型,将上述操作类型判别数据输送给识别模型;基于识别模型的输出结果执行当前执行操作;等待下一步操作并保存数据。
在进一步的实施例中,基于触摸数据判断当前的触摸介质类型的判断标准如下:
若触摸数据中存在感度,则当前的触摸介质为笔式触摸;
若触摸数据中不存在感度,则当前的触摸介质为生物介质触摸。
通过采用上述技术方案:因为使用笔式触摸对设备造成的压感较为强烈,故必定会在存在感度,因此在判断触摸介质类型时,仅需要根据感度这一个参数进行判断即可,识别度高。
在进一步的实施例中,所述操作类型判别数据至少包括:操作时间差Dt1和实际触摸区域面积Da
在进一步的实施例中,基于操作类型判别数据判断当前执行操作的判断步骤如下:
步骤一、若实际触摸区域面积Da大于预定触摸区域面积Da ,则下一步执行操作为擦除操作;反之,执行步骤二;
步骤二、若操作时间差Dt1大于预定时间差Dt1 ,则下一步执行书写操作;反之,执行步骤三;
步骤三、获取最短距离Dd和操作时间差Dt1,以及感度Df和压度Dp输入识别模型,通过识别模型判断当前操作属于书写操作或擦除操作,执行对应的操作,并输出撤销操作提示至操作界面;
步骤四、若未接收到用户撤销当前操作提示的操作,则判定识别模型的识别结果为正确,强化识别模型;
若接收到用户撤销当前操作提示的操作,则读取当前时间于前次生物介质触摸时间,并计算获得时间差Dt2
若时间差Dt2小于时间阈值Dts,则认为所述执行操作的输出为错误输出,对识别模型进行调优;
若时间差Dt2大于等于时间阈值Dts,则认为所述执行操作的输出为正确输出,对识别模型进行巩固。
通过对识别模型的进一步的调优与巩固,增加后期的识别精度。
根据上述优先级判断顺序,实现笔式触摸的执行操作输出,在便于判断的同时还增加了输出操作的精度。
在进一步的实施例中,若当前的触摸介质类型为生物介质触摸,且操作模式为其他模式(擦除、撤销模式),则按照预定的操作顺序执行。
在进一步的实施例中若基于识别模型的输出结果执行擦除操作,则计算出按压面积并擦除;反之执行书写操作。
在进一步的实施例中,所述识别模型的识别过程为:
构建操作集合协方差矩阵:
将不同时刻各组触发的最短距离Dd、操作时间差Dt1、感度Df和压度Dp组成运算量向量Π,并构建基于所述运算向量Π的基础操作集合D,计算基础操作集合D内运算向量的平均值、各组向量与平均值之间的差值,进而获得每组向量的协方差矩阵;
构建由当前触摸操作对应的最短距离Dd、操作时间差Dt1、感度Df和压度Dp构成的当前操作集合D1,并计算当前操作集合D1的当前特征值向量δk
计算基础操作集合D和当前操作集合D1的特征值,并基于各特征值构建特征值集合向量Φ;
计算特征值集合向量Φ与当前特征值向量δk的差向量的模,并判断所述模与预设值的大小,小于预设值,则执行书写操作;反之,执行擦除操作。
一种计算机***,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上所述方法的步骤。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如上所述的方法的步骤。
本发明的有益效果:本发明首先获取触摸数据并分析其触摸类型,根据触摸类型选择不同的匹配对应的操作模式。尤其是当触摸类型为生物介质时,用户的手指按压错误区域并移动,则不同于触摸笔,手指的触摸有着不同的感度,按压面积,并且移动的区域在已经有笔迹的地方,将数据传给识别模型,识别模型精确的计算出用户的意图是擦除指定的区域,于是当前操作按照擦除模式进行,调小橡皮大小和手指接近。同时这种擦除模式也对应了教师以前粉笔书写,小错误区域手指快速抹去的操作习惯。
附图说明
图1为基于操作类型判别数据判断执行操作的流程图。
图2为基于识别模型判断执行操作的流程图。
具体实施方式
下面结合具体实施例和说明书附图对本发明做进一步的描述。
实际上,当使用电子黑板教学时,教师使用触摸笔正常书写发现此时写错了一个地方,举例:一个典型的二元多次方程的指数2写成了3,此时他有以下几种操作方式,且每个操作都会存在一定的弊端,具体如下:
1.撤销操作,但是如果在发生错误与发现错误之间的时间段已经书写了很多笔,撤销将会将错误笔迹以后的笔迹都撤销掉;
2.切换成橡皮模式,缺点是:操作繁琐,需要先切换橡皮模式,调整橡皮大小到可以精确擦除较小的指数的尺寸擦除,再切换到书写模式;
3.手势擦除,缺点是精确度较差,手势擦除的橡皮区域一般较大。
目前触摸屏所使用的擦除是依赖于主动笔按键实现的擦除,无法同时实现生物介质按压擦除。
实施例1
为了解决上述技术问题,本实施例提供了教学用的自动识别书写与擦除的方法,实现局部的有针对性的擦除。
在本实施例中,采用电容触摸屏作为当前的触摸设备,当在触摸设备上发生触摸行为时,获取当前的触摸数据,并基于当前的触摸数据判断当前的触摸介质类型。
为了便于直接、客观的分析出触摸介质类型,分析触摸数据中是否存在感度Df:若存在感度Df,则当前的触摸介质为笔式触摸。在本实施例中,触摸介质为触摸笔、主动笔或者其他具有压感的笔;若触摸数据中不存在感度Df,则判断出当前的触摸介质为生物介质触摸,即手指触摸。
在进一步的实施例中,当触摸数据中在感度Df,即当前的触摸介质为笔式触摸(触摸笔、主动笔或者其他具有压感的笔)。当接收到触摸信号后,首先计算出感度Df,Df=(Dp-Dfs)/(Dfl-Dfs)*255,取整。式中,Dp为触摸笔的实际产生的感度,Dfs为电容式触摸屏最小感度,Dfl为电容式触摸屏最大感度。
将感度Df放入到标准协议包的第五位,其他的数据正常输入,将更新后的标准协议包传输给插件(即下文的OPS)。OPS获取更新后的标准协议包,按照标准协议获取触摸点的坐标ID、当前用户按下的坐标Dpn、和感度Df
触摸介质为笔式触摸(触摸笔、主动笔或者其他具有压感的笔)时,当前的操作模式有且仅有书写模式,因此若当前的触摸介质类型为笔式触摸,则判定当前的操作模式为书写模式。此时如果需要执行或者更换操作时,仅需基于触摸数据判断当前执行操作;所述执行操作至少包括:擦除操作和书写操作。
相反的,如果当前的触摸介质为生物介质触摸(手指),则当前的操作模式将会存在至少两种:擦除模式和书写模式。故当需要执行擦除或者书写操作时,首先需要判断当前所在的操作模式。
因此若当前的触摸介质类型为生物介质触摸,且操作模式为书写模式时。读取前次生物介质触摸数据,基于前次生物介质触摸数据和当前触摸数据得到操作类型判别数据,通过操作类型判别数据判断当前操作类型,并执行对应的操作;若通过所述操作类型判别数据无法判断当前操作类型,则构建识别模型,将上述操作类型判别数据输送给识别模型;基于识别模型的输出结果执行当前执行操作;等待下一步操作并保存数据。
在本实施例中,操作类型判别数据至少包括:操作时间差Dt1和实际触摸区域面积Da
基于上述操作类型判别数据判断当前执行操作的判断步骤如下:步骤301、获取当前触摸点的按压区域面积,并记为实际触摸区域面积Da;若实际触摸区域面积Da大于预定触摸区域面积Da (Da>Da ),则下一步执行操作为擦除操作;或者,实际触摸区域的长或者宽的任意一个的长度大于预定的数值,则认为执行擦除模式。反之,执行步骤二;其中,其中Da 为预定触摸区域面积。换言之,若实际触摸区域的长大于60-70μm或者实际触摸区域的宽大于60-70μm,则执行擦除模式。
步骤二、若操作时间差Dt1大于预定时间差Dt1 ,则下一步执行书写操作;反之,执行步骤三;换言之,如果Da≤Da ,则对操作时间差Dt1和预定时间差Dt1 做进一步的判断。在本实施例中,Dt1 的取值为30s,换言之,如果Dt1大于30s则为正常书写,反之执行步骤三。
其中,操作时间差Dt1定义为当前时间点Dtn与用户上一次操作(以手指抬起来的动作作为一次操作的结束)的时间点DtL的差值,即Dt1=Dtn- DtL
步骤三、获取最短距离Dd和操作时间差Dt1,以及感度Df和压度Dp输入识别模型,通过识别模型判断当前操作属于书写操作或擦除操作,执行对应的操作,并输出撤销操作提示至操作界面。
当前的触摸介质类型为生物介质触摸时,为了能够进快速、有效的识执行。首先需要明确的是,若当前的触摸介质类型为生物介质触摸,将会存在至少两种操作模式:书写模式和擦除模式。
通过上述操作识别类型数据或者在生物介质触摸的情况下需要构建识别模型,因此将上述操作类型判别数据输送给识别模型,基于识别模型的输出结果执行当前执行操作。若基于识别模型的输出结果执行擦除操作,则计算出按压面积并擦除;反之执行书写操作。
当执行擦除操作时,为了能够提高擦除的精度避免出现误擦或者擦拭不彻底的现象,按压面积S在本实施例中采用以下计算公式:S=S1/S2*σ;式中,S1为设定的手掌尺寸,S2为屏幕尺寸;σ为触摸精度。
在进一步的实施例中,识别模型的识别过程为:
构建操作集合协方差矩阵:将不同时刻各组触发的最短距离Dd、操作时间差Dt1、感度Df和压度Dp组成运算量向量Π,并构建基于所述运算向量Π的基础操作集合D,D={Π1,Π2,Π3,…,Πm},其中m表示当前点的数量。计算基础操作集合D内运算向量的平均值、各组向量与平均值之间的差值,进而获得每组向量的协方差矩阵。
进一步表示为:集合D内的向量的平均值,
Figure 770975DEST_PATH_IMAGE001
,其中1≤ι≤m。各组向量与平均值之间的差值χmm- ϖ。获取协方差矩阵E=
Figure 433775DEST_PATH_IMAGE002
;式中,A={χ1,χ2,χ3,…,χm}。
构建由当前触摸操作对应的最短距离Dd、操作时间差Dt1、感度Df和压度Dp构成的当前操作集合D1,并计算当前操作集合D1的当前特征值向量δk
Figure 19609DEST_PATH_IMAGE003
,其中1、2、…、m,μk为第k个点的向量值。
计算基础操作集合D和当前操作集合D1的特征值,并基于各特征值构建特征值集合向量Φ;Φ=[δ1,δ2,δ3,…,δk]。
计算特征值集合向量Φ与当前特征值向量δk的差向量的模ϵk=||Φ-δk||,并判断所述模ϵk与预设值的大小,小于预设值,则执行书写操作;反之,执行擦除操作。
在上述实施例中,Dd的获取过程如下:基于当前画布,获取所有笔迹达到的区域,并构成区域位置集合Das,同时当前用户按下的坐标为Dpn,从区域位置集合Das中获取距离坐标Dpn最近的笔迹,并将这段距离记录为Dd
为了不断的更新识别模型,增加其判断的精确度,基于上述操作类型判别数据判断当前执行操作的判断步骤还包括:
步骤四、若未接收到用户撤销当前操作提示的操作,则判定识别模型的识别结果为正确,强化识别模型;
若接收到用户撤销当前操作提示的操作,则读取当前时间于前次生物介质触摸时间,并计算获得时间差Dt2,若时间差Dt2小于时间阈值Dts,则认为所述执行操作的输出为错误输出,对识别模型进行调优;在实施例中Dts的取值为5s。若时间差Dt2大于等于时间阈值Dts,则认为所述执行操作的输出为正确输出,对识别模型进行巩固。
并将识别模型的数据存储到当前所在的用户设备中,在本实施例中,所述用户设备为本地或者云端。
若当前的触摸介质类型为生物介质触摸,且操作模式为其他模式,则按照预定的操作顺序执行。
在另一个实施例中,公开了一种计算机***,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实上述方法的步骤。具体包括:触摸介质类型判断模块,被设置为获取触摸数据,判断当前的触摸介质类型;
执行判断模块,被设置为基于触摸介质类型判断模块获得的触摸类型,进行以下操作:当前的触摸介质类型为笔式触摸,则判定当前的操作模式为书写模式,基于所述触摸数据执行书写操作;当前的触摸介质类型为生物介质触摸,且操作模式为书写模式,读取前次生物介质触摸数据,基于前次生物介质触摸数据和当前触摸数据得到操作类型判别数据,通过操作类型判别数据判断当前操作类型,并执行对应的操作;
行为识别模块,被设置为通过所述操作类型判别数据无法判断当前操作类型,则构建识别模型,将上述操作类型判别数据输送给识别模型;基于识别模型的输出结果执行当前执行操作;若基于识别模型的输出结果执行擦除操作,则计算出按压面积并擦除;反之执行书写操作。
数据存储模块,被设置为等待下一步操作并保存数据。
在进一步的实施例中,触摸介质类型判断模块判断当前的触摸介质类型的判断标准如下:若触摸数据中存在感度,则当前的触摸介质为笔式触摸;若触摸数据中不存在感度,则当前的触摸介质为生物介质触摸。得出上述结论的依据来源:如果触摸数据中若在感度Df,则直接断定当前的触摸介质为笔式触摸(触摸笔、主动笔或者其他具有压感的笔)。换言之,只有笔式触摸才会产生能够感应到的感度Df
在进一步的实施例中,执行判断模块获得的操作类型判别数据至少包括:操作时间差Dt1和实际触摸区域面积Da。基于操作类型判别数据判断当前执行操作的判断步骤如下:
步骤一、若实际触摸区域面积Da大于预定触摸区域面积Da ,则下一步执行操作为擦除操作;反之,执行步骤二;
步骤二、若操作时间差Dt1大于预定时间差Dt1 ,则下一步执行书写操作;反之,执行步骤三;
步骤三、获取最短距离Dd和操作时间差Dt1,以及感度Df和压度Dp输入识别模型,通过识别模型判断当前操作属于书写操作或擦除操作,执行对应的操作,并输出撤销操作提示至操作界面。
步骤四、若未接收到用户撤销当前操作提示的操作,则判定识别模型的识别结果为正确,强化识别模型;
若接收到用户撤销当前操作提示的操作,则读取当前时间于前次生物介质触摸时间,并计算获得时间差Dt2
若时间差Dt2小于时间阈值Dts,则认为所述执行操作的输出为错误输出,对识别模型进行调优;
若时间差Dt2大于等于时间阈值Dts,则认为所述执行操作的输出为正确输出,对识别模型进行巩固。
本实施例的另一方面,若当前的触摸介质类型为生物介质触摸,且操作模式为其他模式,则按照预定的操作顺序执行。其他操作模式为擦除、撤销等模式。
行为识别模块中构建的识别模型的识别过程包括以下流程:构建操作集合协方差矩阵:将不同时刻各组触发的最短距离Dd、操作时间差Dt1、感度Df和压度Dp组成运算量向量Π,并构建基于所述运算向量Π的基础操作集合D,D={Π1,Π2,Π3,…,Πm},其中m表示当前点的数量。计算基础操作集合D内运算向量的平均值、各组向量与平均值之间的差值,进而获得每组向量的协方差矩阵。
进一步表示为:集合D内的向量的平均值
Figure 934213DEST_PATH_IMAGE001
,其中1≤ι≤m。
各组向量与平均值之间的差值χmm- ϖ。获取协方差矩阵E=
Figure 187471DEST_PATH_IMAGE002
;式中A={χ1,χ2,χ3,…,χm}。
构建由当前触摸操作对应的最短距离Dd、操作时间差Dt1、感度Df和压度Dp构成的当前操作集合D1,并计算当前操作集合D1的当前特征值向量δk
Figure 167977DEST_PATH_IMAGE003
,其中k=1、2、…、m,μk为第k个点的向量值。
计算基础操作集合D和当前操作集合D1的特征值,并基于各特征值构建特征值集合向量Φ;Φ=[δ1,δ2,δ3,…,δk]。
计算特征值集合向量Φ与当前特征值向量δk的差向量的模ϵk=||Φ-δk||,并判断所述模δk与预设值的大小,小于预设值,则执行书写操作;反之,执行擦除操作。
在上述实施例中,Dd的获取过程如下:基于当前画布,获取所有笔迹达到的区域,并构成区域位置集合Das,同时当前用户按下的坐标为Dpn,从区域位置集合Das中获取距离坐标Dpn最近的笔迹,并将这段距离记录为Dd

Claims (7)

1.教学用的自动识别书写与擦除的方法,其特征在于,包括以下步骤:
获取触摸数据,判断当前的触摸介质类型;
若当前的触摸介质类型为笔式触摸,则判定当前的操作模式为书写模式,基于所述触摸数据执行书写操作;
若当前的触摸介质类型为生物介质触摸,且操作模式为书写模式,读取前次生物介质触摸数据,基于前次生物介质触摸数据和当前的触摸数据得到操作类型判别数据,通过操作类型判别数据判断当前操作类型,并执行对应的操作;
若通过所述操作类型判别数据无法判断当前操作类型,则构建识别模型,将上述操作类型判别数据输送给识别模型;基于识别模型的输出结果执行当前执行操作;等待下一步操作并保存数据;
其中,所述操作类型判别数据至少包括:操作时间差Dt1和实际触摸区域面积Da;基于操作类型判别数据判断当前执行操作的判断步骤如下:
步骤一、若实际触摸区域面积Da大于预定触摸区域面积Da ,则下一步执行操作为擦除操作;反之,执行步骤二;
步骤二、若操作时间差Dt1大于预定时间差Dt1 ,则下一步执行书写操作;反之,执行步骤三;
步骤三、获取最短距离Dd和操作时间差Dt1,以及感度Df和压度Dp并输入识别模型,通过识别模型判断当前操作属于书写操作或擦除操作,执行对应的操作,并输出撤销操作提示至操作界面;
所述识别模型的识别过程为:构建操作集合协方差矩阵:
将不同时刻各组触发的最短距离Dd、操作时间差Dt1、感度Df和压度Dp组成运算向量Π,并构建基于所述运算向量Π的基础操作集合D,计算基础操作集合D内运算向量的平均值、各组向量与平均值之间的差值,进而获得每组向量的协方差矩阵;
构建由当前触摸操作对应的最短距离Dd、操作时间差Dt1、感度Df和压度Dp构成的当前操作集合D1,并计算当前操作集合D1的当前特征值向量δk
计算基础操作集合D和当前操作集合D1的特征值,并基于各特征值构建特征值集合向量Φ;
计算特征值集合向量Φ与当前特征值向量δk的差向量的模,并判断模与预设值的大小,小于预设值,则执行书写操作;反之,执行擦除操作。
2.根据权利要求1所述的教学用的自动识别书写与擦除的方法,其特征在于,基于触摸数据判断当前的触摸介质类型的判断标准如下:
若触摸数据中存在感度,则当前的触摸介质为笔式触摸;
若触摸数据中不存在感度,则当前的触摸介质为生物介质触摸。
3.根据权利要求1所述的教学用的自动识别书写与擦除的方法,其特征在于,若当前的触摸介质类型为生物介质触摸,且操作模式为其他模式,则按照预定的操作顺序执行。
4.根据权利要求1所述的教学用的自动识别书写与擦除的方法,其特征在于,若基于识别模型的输出结果执行擦除操作,则计算出按压面积并擦除;反之执行书写操作。
5.根据权利要求1所述的教学用的自动识别书写与擦除的方法,其特征在于,基于操作类型判别数据判断当前执行操作的判断步骤还包括步骤四、
若未接收到用户撤销当前操作提示的操作,则判定识别模型的识别结果为正确,强化识别模型;
若接收到用户撤销当前操作提示的操作,则读取当前时间于前次生物介质触摸时间,并计算获得时间差Dt2
若时间差Dt2小于时间阈值Dts,则认为所述执行操作的输出为错误输出,对识别模型进行调优;
若时间差Dt2大于等于时间阈值Dts,则认为所述执行操作的输出为正确输出,对识别模型进行巩固。
6.一种计算机***,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至5中任一项所述方法的步骤。
7.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至5中任一项所述方法的步骤。
CN202110886385.6A 2021-08-03 2021-08-03 教学用的自动识别书写与擦除方法及***、存储介质 Active CN113342194B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110886385.6A CN113342194B (zh) 2021-08-03 2021-08-03 教学用的自动识别书写与擦除方法及***、存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110886385.6A CN113342194B (zh) 2021-08-03 2021-08-03 教学用的自动识别书写与擦除方法及***、存储介质

Publications (2)

Publication Number Publication Date
CN113342194A CN113342194A (zh) 2021-09-03
CN113342194B true CN113342194B (zh) 2021-10-22

Family

ID=77480571

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110886385.6A Active CN113342194B (zh) 2021-08-03 2021-08-03 教学用的自动识别书写与擦除方法及***、存储介质

Country Status (1)

Country Link
CN (1) CN113342194B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116529703A (zh) * 2021-11-29 2023-08-01 京东方科技集团股份有限公司 一种人机交互的方法及智能显示设备
JP2024526466A (ja) 2022-06-21 2024-07-19 広州視源電子科技股▲分▼有限公司 タッチ応答方法、装置、スマートインタラクティブパネル及び記憶媒体

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102221955A (zh) * 2010-04-19 2011-10-19 中兴通讯股份有限公司 橡皮擦功能实现方法、移动终端及用于移动终端的触控笔
CN106484184B (zh) * 2016-09-30 2019-04-26 北京集创北方科技股份有限公司 触摸屏及其识别方法
CN107807781A (zh) * 2017-09-28 2018-03-16 广州视源电子科技股份有限公司 手势擦除识别方法、装置及电子设备
CN110007800B (zh) * 2019-04-10 2020-11-10 广州视源电子科技股份有限公司 一种触摸操作模式的控制方法、装置、设备及存储介质

Also Published As

Publication number Publication date
CN113342194A (zh) 2021-09-03

Similar Documents

Publication Publication Date Title
JP5211211B2 (ja) ハイレベルアクティブペンマトリックス
CN113342194B (zh) 教学用的自动识别书写与擦除方法及***、存储介质
US10942642B2 (en) Systems and methods for performing erasures within a graphical user interface
CN110058782B (zh) 基于交互式电子白板的触摸操作方法及其***
AU2003269976B2 (en) Focus management using in-air points
WO2012075821A1 (zh) 一种重叠书写的手写输入方法
US20120062520A1 (en) Stylus modes
CN103019417B (zh) 一种识别手指挠笔和敲笔动作的电子手写笔及其输入方法
CN110647246A (zh) 触控笔使用中的用户意图的预测检测
KR20100020389A (ko) 접촉 지점의 크기를 이용한 입력 방법 및 장치
CN104965657A (zh) 触摸控制方法及装置
CN212515742U (zh) 一种可实现精细擦除的书写板
WO2023179694A1 (zh) 一种基于纹理识别的差异触控方法
CN109358799B (zh) 在手写设备上添加用户输入的手写批注信息的方法
CN103605460B (zh) 一种手势识别方法和相关终端
CN210573714U (zh) 一种电子白板的擦除装置
CN106547402A (zh) 一种触控方法、触摸框和智能笔
CN107193399A (zh) 一种人机交互的处理方法及终端
CN111078028A (zh) 输入方法、相关设备及可读存储介质
CN213441780U (zh) 一种智能笔
CN115793923B (zh) 一种人机界面运动轨迹识别方法、***、设备及介质
WO2022205170A1 (zh) 书写装置、智能书写板、电子笔迹颜色设置的方法
CN211207297U (zh) 一种可充电的电子白板的擦除装置
CN115705123A (zh) 触控数据的处理方法、装置、电子设备及存储介质
CN112783349A (zh) 一种财会教学书写工具

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
PE01 Entry into force of the registration of the contract for pledge of patent right

Denomination of invention: Automatic recognition, writing, and erasing methods, systems, and storage media for teaching purposes

Granted publication date: 20211022

Pledgee: Bank of Nanjing Co.,Ltd. Jiangning sub branch

Pledgor: Jiangsu Xiaoniu Electronic Technology Co.,Ltd.

Registration number: Y2024980004310

PE01 Entry into force of the registration of the contract for pledge of patent right