CN115376499A - 一种应用于学习领域下的智能耳机的学习监控手段 - Google Patents

一种应用于学习领域下的智能耳机的学习监控手段 Download PDF

Info

Publication number
CN115376499A
CN115376499A CN202210994128.9A CN202210994128A CN115376499A CN 115376499 A CN115376499 A CN 115376499A CN 202210994128 A CN202210994128 A CN 202210994128A CN 115376499 A CN115376499 A CN 115376499A
Authority
CN
China
Prior art keywords
theme
word
audio signal
result
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210994128.9A
Other languages
English (en)
Other versions
CN115376499B (zh
Inventor
刘其军
余红云
陆佳丽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dongguan Jiexun Electronic Technology Co ltd
Original Assignee
Dongguan Leyi Electronic Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dongguan Leyi Electronic Technology Co ltd filed Critical Dongguan Leyi Electronic Technology Co ltd
Priority to CN202210994128.9A priority Critical patent/CN115376499B/zh
Publication of CN115376499A publication Critical patent/CN115376499A/zh
Application granted granted Critical
Publication of CN115376499B publication Critical patent/CN115376499B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

本发明涉及学习监控的技术领域,揭露了一种应用于学习领域下的智能耳机的学习监控手段,包括:对预处理后的智能耳机音频信号进行特征提取;构建改进的端到端语音识别模型,将所提取到的音频信号特征输入到模型中;对识别的语音结果进行词对转换,并计算转换后词对的词对紧凑度;基于词对紧凑度构建动态加权语音主题识别模型,将语音识别结果的词汇紧凑度输入到模型中;将所识别得到的语音主题与当前授课内容主题进行主题判断。本发明所述方法着重考察语音识别内容中词对紧凑度更高的词对,紧凑度更高的词对具有更高的主题识别权重,且在主题识别过程中,动态考虑其余词对的主题选择概率,基于全局主题识别实现更为准确的语音主题识别。

Description

一种应用于学习领域下的智能耳机的学习监控手段
技术领域
本发明涉及学习监控的技术领域,尤其涉及一种应用于学习领域下的智能耳机的学习监控手段。
背景技术
随着网上授课的普及,越来越多的学生使用耳机进行课堂学习,但是由于计算机可以同步播放多个音视频,学生表面在听课堂音频,但实际上可能在听其他音频,且教师无法通过在线课堂中学生的听课画面进行有效判断。CN111383659A提供了一种分布式语音监控方法、装置、***、存储介质和设备,获取归属同一机房的音频流数据;按照预置推审策略,从所述音频流数据中采集待审音频数据;将所述待审音频数据输入预先训练的音频识别模型,得到对应所述音频识别模型的预测值;根据所述预测值,生成音频机审结果。该方法可实现高投入产出比、高覆盖面、低延迟、高识别率和高效的语音监控审核,可满足多运营商混合组网部署网络环境下高活跃度语音社交应用的音频内容监控需求。CN107292271A提供了一种学习监控方法、装置及电子设备,方法包括:获取课堂学生的上课图像;对所述上课图像进行识别,获取所述课堂学生的特征数据,其中,所述特征数据包括以下至少之一:所述课堂学生的面部特征数据、所述课堂学生的视觉特征数据、所述课堂学生的肢体特征数据;根据所述课堂学生的特征数据,确定所述课堂学生的上课状态。可以有效且准确地实现对通过计算机和网络进行学习的学生在课堂上的听课情况的监控,为后续的学习和授课提供了有效的参考,以进一步对学习或授课过程进行改善。尽管现有学习监控方法能够基于学生的特征数据监控学生上课状态,但仍存在如下两个方面的问题:一是现有音频监控方法只能监控音频是否违规,在课堂上课中,需要判别耳机播放内容与课堂讲授内容主题是否一致;二是传统方法未从听觉特征对课堂上课状态进行监控。针对该问题,本专利提出一种应用于学习领域的智能耳机学习监控方法。
发明内容
有鉴于此,本发明提供一种应用于学习领域下的智能耳机的学习监控手段,目的在于(1)使用门控循环单元代替传统语音识别模型中的LSTM部分,门控循环单元具有更少的参数量和计算量,能够更快完成语音识别;(2)基于词对紧凑度构建动态加权语音主题识别模型,所述模型着重考察语音识别内容词对紧凑度更高的词对,实现核心词对的偏向性,紧凑度更高的词对具有更高的主题识别权重,且在主题识别过程中,动态考虑其余词对的主题选择概率,基于全局主题识别实现更为准确的语音主题识别。
实现上述目的,本发明提供的一种应用于学习领域下的智能耳机的学习监控手段,包括以下步骤:
S1:采集智能耳机音频信号,并对所采集的智能耳机音频信号进行预处理,对预处理后的智能耳机音频信号进行特征提取,得到提取后的音频信号特征;
S2:构建改进的端到端语音识别模型,将所提取到的音频信号特征输入到模型中,得到语音识别结果,其中所述模型输入为提取得到的音频信号特征,输出为语音识别结果;
S3:对识别的语音结果进行词对转换,得到转换的词对,并计算转换后词对的词对紧凑度;
S4:基于词对紧凑度构建动态加权语音主题识别模型,将语音识别结果的词汇紧凑度输入到模型中,模型输出语音主题,所述模型输入为基于词对紧凑度的语音识别结果,输出为语音主题;
S5:将所识别得到的语音主题与当前授课内容主题进行相似度计算,若相似度计算结构小于指定阈值则表示耳机内语音主题与授课内容主题不同,说明学生未听课,否则正在听课。
作为本发明的进一步改进方法:
可选地,所述S1步骤中采集智能耳机音频信号,并对所采集的智能耳机音频信号进行预处理,包括:
利用智能耳机中内置的信号采集装置采集得到智能耳机内的音频信号,并对所采集的智能耳机音频信号进行预处理,所述预处理流程为:
在信号采集装置内部设置高通滤波器,若采集信号的频率高于高通滤波器的截止频率,电容元件的容抗较小,对信号无衰减作用,若采集信号的频率低于高通滤波器的截止频率,电容元件的容抗较大,对信号进行衰减,且采集信号频率越低衰减程度越高,所述通过高通滤波器的音频信号为x(t),其中t∈[t0,tL]表示所采集音频信号的时序信息,t0表示音频信号采集的初始时刻,tL表示音频信号采集的截止时刻;
所述截止频率ft的计算公式为:
Figure BDA0003804861620000021
其中:
R表示高通滤波器中电阻的电阻值;
C表示高通滤波器中电容元件的电容;
信号接收装置内的数模转换器将所采集到的音频信号x(t)转换为模拟信号,所述模拟信号的转换流程为:
构建频率为fs的冲激序列p(t):
Figure BDA0003804861620000022
Figure BDA0003804861620000023
基于冲激序列p(t)将音频信号x(t)转换为模拟信号
Figure BDA0003804861620000024
Figure BDA0003804861620000025
所述模拟信号中采样点的数目为N,令模拟信号
Figure BDA0003804861620000026
中的第一个采样点为x(1),最后一个采样点为x(N),则所述模拟信号
Figure BDA0003804861620000027
x(n′)为转换后的模拟信号;
信号采集装置对转换后的模拟信号x(n′)进行加窗处理,所述加窗处理的窗函数为汉明窗,加窗处理公式为:
x(n″)=x(n′)×w(n′)
Figure BDA0003804861620000028
其中:
w(n′)为窗函数;
a表示窗函数系数,将其设置为0.43;
x(n″)为加窗处理后的音频信号,将x(n″)作为所述预处理后的智能耳机音频信号。
可选地,所述S1步骤中对预处理后的智能耳机音频信号进行特征提取,得到提取后的音频信号特征,包括:
对所述预处理后的智能耳机音频信号x(n″)进行特征提取,得到提取后的音频信号特征F(x(n″)),所述特征提取流程为:
S11:对预处理后的智能耳机音频信号x(n″)进行快速傅里叶变换处理,得到x(n″)的频域特征,所述快速傅里叶变换处理的公式为:
Figure BDA0003804861620000031
其中:
X(k)表示x(n″)在k点的快速傅里叶变换结果;
k为快速傅里叶变换的点数,j表示虚数单位,j2=-1;
S12:构建具有M个滤波器的滤波器组,所述滤波器组中第m个滤波器的频率响应为fm(k):
Figure BDA0003804861620000032
Figure BDA0003804861620000033
其中:
f(m)表示第m个滤波器的中心频率;
S13:将快速傅里叶变换结果输入到滤波器组中,滤波器组输出信号频域的能量:
Figure BDA0003804861620000034
其中:
en表示智能耳机音频信号在频域的能量;
S14:提取智能耳机音频信号的特征,所述特征提取公式为:
Figure BDA0003804861620000035
其中:
L′表示特征阶数,L′=1,2,...,12;
C(L′)表示所提取的L阶特征;
选取使得C(L′)最大的特征作为所提取的智能耳机音频信号特征F(x(n″))。
可选地,所述S2步骤中构建改进的端到端语音识别模型,包括:
构建改进的端到端语音识别模型,其中所述模型输入为提取得到的音频信号特征,输出为语音识别结果,所述改进的端到端语音识别模型包括卷积层、编码层以及解码层,卷积层用于接收待识别的音频信号特征,并对音频信号特征进行卷积处理,编码层用于利用门控循环单元对卷积处理后的特征进行编码处理,解码层用于对编码处理结果进行解码,解码结果即为语音识别结果;所述利用端到端语音识别模型对音频信号特征进行语音识别的流程为:
S21:卷积层对输入特征进行卷积处理,所述卷积处理公式为:
F1=Conv(F)
其中:
F表示输入到端到端语音识别模型的音频信号特征;
Conv(·)表示卷积操作;
F1表示卷积特征;
S22:将卷积特征输入到基于门控循环单元的编码层,编码层的激活函数为GeLU,编码层包括5个门控循环单元,每个门控循环单元设置为双向递归,将最后一个门控循环单元的输出结果作为音频信号特征的编码结果;
S23:解码层利用softmax函数输出每段编码结果x所对应解码结果y的概率P(y|x),选取概率最大的y作为编码结果x的解码结果,所述解码结果即为语音识别结果;
所述端到端语音识别模型的训练目标函数为:
Figure BDA0003804861620000041
其中:
Nx表示真实语音文本的字符数;
a1,x表示模型输出的语音识别结果中的替换字符数,a2,x表示模型输出的语音识别结果中的删除字符数,a3,x表示模型输出的语音识别结果中的***字符数;
将所提取到的音频信号特征F(x(n″))输入到模型中,得到语音识别结果y(x(n″))。
可选地,所述S3步骤中对识别的语音结果进行词对转换,得到转换的词对,包括:
构建不同主题类别的语料库,每个语料库包含该主题类别下的所有词语,并将所构建的不同主题类别语料库组合为语料库A,语料库A={topic1,topic2,...,topich},其中topich为第h个主题类别的语料库,并按词语在语料库A中的顺序,利用独热编码方法对语料库A中的所有词语进行编码,得到语料库A的编码结果集合B;
在本发明实施例中,相同主题类别的词语的独热编码结果距离相近;
基于语料库A的词语编码结果,对识别得到的语音结果y(x(n″))进行词对转换,所述词对转换流程为:
S31:将语料库A作为分词词典,计算分词词典中的词语最大长度为z,截取语音识别结果的前z位,将截取结果与分词词典中的词语进行匹配,若匹配成功则将匹配结果作为截取文本的分词结果,并对剩余语音识别结果文本重复进行该步骤,得到语音识别结果的分词结果
Figure BDA0003804861620000042
其中
Figure BDA0003804861620000043
是语音识别结果的第nw个词语,nw表示语音识别结果的词语总数,若匹配不成功则截取前z-1位重新进行匹配;
S32:将分词结果
Figure BDA0003804861620000044
中任意两个分词结果wn1,wn2构成一组词对(wn1,wn2),其中n1>n2,n1,n2∈[1,nw];
S33:得到语音识别结果的转换词对集合G={(wn1,wn2)|n1>n2,n1,n2∈[1,nw]}。
可选地,所述S3步骤中计算转换后词对的词对紧凑度,包括:
从编码结果集合B中遍历选取分词结果
Figure BDA0003804861620000045
的编码结果,得到语音识别结果的编码结果集合
Figure BDA0003804861620000046
其中
Figure BDA0003804861620000047
Figure BDA0003804861620000048
的编码结果,并得到语音识别结果词对的编码结果集合
Figure BDA0003804861620000049
计算语音识别结果中转换词对的词对紧凑度:
Figure BDA00038048616200000410
其中:
T表示转置;
所述语音识别结果中词对紧凑度集合为:Gd={dis(wn1,wn2)|n1>n2,n1,n2∈[1,nw]}。
可选地,所述S4步骤中基于词对紧凑度构建动态加权语音主题识别模型,包括:
构建基于词对紧凑度的动态加权语音主题识别模型,所述模型输入为基于词对紧凑度的语音识别结果,输出为语音主题,所述动态加权语音主题识别模型的主题识别流程为:
S41:将词对紧凑度集合Gd中词对紧凑度高于阈值
Figure BDA0003804861620000051
的词对构成词对集合G1,对词对集合G1中的词对主题进行初始化,所述词对主题类别为语料库A中的h种主题类别;
S42:设置模型的当前迭代次数为r,r的初始值为0,模型的最大迭代次数为Max;
S43:计算第r+1次迭代时,计算词对集合G1中任意词对qv为主题
Figure BDA0003804861620000052
的概率:
Figure BDA0003804861620000053
Figure BDA0003804861620000054
Figure BDA0003804861620000055
Figure BDA0003804861620000056
Figure BDA0003804861620000057
其中:
α,β表示狄利克雷先验参数;
Figure BDA0003804861620000058
表示第r+1次迭代词对qv的主题为
Figure BDA0003804861620000059
Figure BDA00038048616200000510
表示语料库A中的h种主题类别;
Figure BDA00038048616200000511
表示在第r次迭代时,G1中除词对qv外被分到主题
Figure BDA00038048616200000512
的词对数量;
Figure BDA00038048616200000513
表示除去词对qv,截止到第r+1次迭代,词对qv中的第一个词语被分到主题
Figure BDA00038048616200000514
的次数;
Figure BDA00038048616200000515
表示除去词对qv,截止到第r+1次迭代,词对qv中的第二个词语被分到主题
Figure BDA00038048616200000516
的次数;
Figure BDA00038048616200000517
表示除去词对qv,截止到第r+1次迭代,所有词语被分到主题
Figure BDA00038048616200000518
的次数;
S44:判断r+1是否大于等于Max,若r+1≥Max,则输出第r+1次迭代后词对集合G1中不同词对所属主题类别的概率,否则令r=r+1,返回步骤S43;
将语音识别结果的词汇紧凑度输入到模型中,模型输出语音主题,所述计算语音识别结果的语音主题的公式为:
Figure BDA00038048616200000519
其中:
p(topic|Gd,G)表示语音识别结果的主题为topic的概率,topic∈[1,h],表示语料库A中的h种主题类别,选取概率最大的主题作为语音主题;
Figure BDA00038048616200000520
表示词对qv中的两个词语,在语音识别结果中出现的次数,countG表示语音识别结果中词语的总数。
可选地,所述S5步骤中将所识别得到的语音主题与当前授课内容主题进行相似度计算,若相似度计算结构小于指定阈值则表示耳机内语音主题与授课内容主题不同,说明学生未听课,否则正在听课,包括:
将所识别得到的语音主题与当前授课内容主题进行相似度计算,所述相似度计算方法为余弦相似度算法,若相似度计算结构小于指定阈值则表示耳机内语音主题与授课内容主题不同,说明学生未听课,否则正在听课。
为了解决上述问题,本发明还提供一种应用于学习领域下的智能耳机的学习监控装置,其特征在于,所述装置包括:
信号采集装置,用于采集智能耳机音频信号,并对所采集的智能耳机音频信号进行预处理,对预处理后的智能耳机音频信号进行特征提取,得到提取后的音频信号特征;
语音识别模块,用于构建改进的端到端语音识别模型,将所提取到的音频信号特征输入到模型中,得到语音识别结果;
识别监控装置,用于对识别的语音结果进行词对转换,并计算转换后词对的词对紧凑度,基于词对紧凑度构建动态加权语音主题识别模型,将语音识别结果的词汇紧凑度输入到模型中,模型输出语音主题,将所识别得到的语音主题与当前授课内容主题进行相似度计算,若相似度计算结构小于指定阈值则表示耳机内语音主题与授课内容主题不同,说明学生未听课,否则正在听课。
为了解决上述问题,本发明还提供一种电子设备,所述电子设备包括:
存储器,存储至少一个指令;及
处理器,执行所述存储器中存储的指令以实现上述所述的应用于学习领域下的智能耳机的学习监控手段。
为了解决上述问题,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一个指令,所述至少一个指令被电子设备中的处理器执行以实现上述所述的应用于学习领域下的智能耳机的学习监控手段。
相对于现有技术,本发明提出一种应用于学习领域下的智能耳机的学习监控手段,该技术具有以下优势:
首先,本方案提出一种语音识别模型,通过构建改进的端到端语音识别模型,其中所述模型输入为提取得到的音频信号特征,输出为语音识别结果,所述改进的端到端语音识别模型包括卷积层、编码层以及解码层,卷积层用于接收待识别的音频信号特征,并对音频信号特征进行卷积处理,编码层用于利用门控循环单元对卷积处理后的特征进行编码处理,解码层用于对编码处理结果进行解码,解码结果即为语音识别结果;所述利用端到端语音识别模型对音频信号特征进行语音识别的流程为:卷积层对输入特征进行卷积处理,所述卷积处理公式为:
F1=Conv(F)
其中:F表示输入到端到端语音识别模型的音频信号特征;Conv(·)表示卷积操作;F1表示卷积特征;将卷积特征输入到基于门控循环单元的编码层,编码层的激活函数为GeLU,编码层包括5个门控循环单元,每个门控循环单元设置为双向递归,将最后一个门控循环单元的输出结果作为音频信号特征的编码结果;解码层利用softmax函数输出每段编码结果x所对应解码结果y的概率P(y|x),选取概率最大的y作为编码结果x的解码结果,所述解码结果即为语音识别结果;所述端到端语音识别模型的训练目标函数为:
Figure BDA0003804861620000061
其中:Nx表示真实语音文本的字符数;a1,x表示模型输出的语音识别结果中的替换字符数,a2,x表示模型输出的语音识别结果中的删除字符数,a3,x表示模型输出的语音识别结果中的***字符数;将所提取到的音频信号特征F(x(n″))输入到模型中,得到语音识别结果y(x(n″))。本方案所改进模型使用门控循环单元代替传统语音识别模型中的LSTM部分,门控循环单元具有更少的参数量和计算量,能够更快完成语音识别。
同时,本方案提出一种主题识别模型,通过构建基于词对紧凑度的动态加权语音主题识别模型,所述模型输入为基于词对紧凑度的语音识别结果,输出为语音主题,所述动态加权语音主题识别模型的主题识别流程为:将词对紧凑度集合Gd中词对紧凑度高于阈值
Figure BDA0003804861620000062
的词对构成词对集合G1,对词对集合G1中的词对主题进行初始化,所述词对主题类别为语料库A中的h种主题类别;设置模型的当前迭代次数为r,r的初始值为0,模型的最大迭代次数为Max;计算第r+1次迭代时,计算词对集合G1中任意词对qv为主题
Figure BDA0003804861620000071
的概率:
Figure BDA0003804861620000072
Figure BDA0003804861620000073
Figure BDA0003804861620000074
Figure BDA0003804861620000075
Figure BDA0003804861620000076
其中:α,β表示狄利克雷先验参数;
Figure BDA0003804861620000077
表示第r+1次迭代词对qv的主题为
Figure BDA0003804861620000078
Figure BDA0003804861620000079
表示语料库A中的h种主题类别;
Figure BDA00038048616200000710
表示在第r次迭代时,G1中除词对qv外被分到主题
Figure BDA00038048616200000711
的词对数量;
Figure BDA00038048616200000712
表示除去词对qv,截止到第r+1次迭代,词对qv中的第一个词语被分到主题
Figure BDA00038048616200000713
的次数;
Figure BDA00038048616200000714
表示除去词对qv,截止到第r+1次迭代,词对qv中的第二个词语被分到主题
Figure BDA00038048616200000715
的次数;
Figure BDA00038048616200000716
表示除去词对qv,截止到第r+1次迭代,所有词语被分到主题
Figure BDA00038048616200000717
的次数;判断r+1是否大于等于Max,若r+1≥Max,则输出第r+1次迭代后词对集合G1中不同词对所属主题类别的概率,否则令r=r+1,返回上述步骤;将语音识别结果的词汇紧凑度输入到模型中,模型输出语音主题,所述计算语音识别结果的语音主题的公式为:
Figure BDA00038048616200000718
其中:p(topic|Gd,G)表示语音识别结果的主题为topic的概率,topic∈[1,h],表示语料库A中的h种主题类别,选取概率最大的主题作为语音主题;
Figure BDA00038048616200000719
表示词对qv中的两个词语,在语音识别结果中出现的次数,countG表示语音识别结果中词语的总数。将所识别得到的语音主题与当前授课内容主题进行相似度计算,所述相似度计算方法为余弦相似度算法,若相似度计算结构小于指定阈值则表示耳机内语音主题与授课内容主题不同,说明学生未听课,否则正在听课。本方案基于词对紧凑度构建动态加权语音主题识别模型,而传统模型未区分核心词对和非核心词对,将所有词对统一看待,导致表征文本主题信息的核心词被忽略,影响主题识别准确率,所述模型着重考察语音识别内容词对紧凑度更高的词对,实现核心词对的偏向性,紧凑度更高的词对具有更高的主题识别权重,且在主题识别过程中,动态考虑其余词对的主题选择概率,基于全局主题识别实现更为准确的语音主题识别。
附图说明
图1为本发明一实施例提供的一种应用于学习领域下的智能耳机的学习监控手段的流程示意图;
图2为图1实施例其中一个步骤的流程示意图;
图3为本发明一实施例提供的应用于学习领域下的智能耳机的学习监控装置的功能模块图;
图4为本发明一实施例提供的实现应用于学习领域下的智能耳机的学习监控手段的电子设备的结构示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本申请实施例提供一种应用于学***台。所述服务端包括但不限于:单台服务器、服务器集群、云端服务器或云端服务器集群等。
实施例1:
S1:采集智能耳机音频信号,并对所采集的智能耳机音频信号进行预处理,对预处理后的智能耳机音频信号进行特征提取,得到提取后的音频信号特征。
所述S1步骤中采集智能耳机音频信号,并对所采集的智能耳机音频信号进行预处理,包括:
利用智能耳机中内置的信号采集装置采集得到智能耳机内的音频信号,并对所采集的智能耳机音频信号进行预处理,所述预处理流程为:
在信号采集装置内部设置高通滤波器,若采集信号的频率高于高通滤波器的截止频率,电容元件的容抗较小,对信号无衰减作用,若采集信号的频率低于高通滤波器的截止频率,电容元件的容抗较大,对信号进行衰减,且采集信号频率越低衰减程度越高,所述通过高通滤波器的音频信号为x(t),其中t∈[t0,tL]表示所采集音频信号的时序信息,t0表示音频信号采集的初始时刻,tL表示音频信号采集的截止时刻;
所述截止频率ft的计算公式为:
Figure BDA0003804861620000081
其中:
R表示高通滤波器中电阻的电阻值;
C表示高通滤波器中电容元件的电容;
信号接收装置内的数模转换器将所采集到的音频信号x(t)转换为模拟信号,所述模拟信号的转换流程为:
构建频率为fs的冲激序列p(t):
Figure BDA0003804861620000082
Figure BDA0003804861620000083
基于冲激序列p(t)将音频信号x(t)转换为模拟信号
Figure BDA0003804861620000084
Figure BDA0003804861620000085
所述模拟信号中采样点的数目为N,令模拟信号
Figure BDA0003804861620000086
中的第一个采样点为x(1),最后一个采样点为x(N),则所述模拟信号
Figure BDA0003804861620000087
x(n′)为转换后的模拟信号;
信号采集装置对转换后的模拟信号x(n′)进行加窗处理,所述加窗处理的窗函数为汉明窗,加窗处理公式为:
x(n″)=x(n′)×w(n′)
Figure BDA0003804861620000091
其中:
w(n′)为窗函数;
a表示窗函数系数,将其设置为0.43;
x(n″)为加窗处理后的音频信号,将x(n″)作为所述预处理后的智能耳机音频信号。
所述S1步骤中对预处理后的智能耳机音频信号进行特征提取,得到提取后的音频信号特征,包括:
对所述预处理后的智能耳机音频信号x(n″)进行特征提取,得到提取后的音频信号特征F(x(n″)),详细地,参阅图2所示,所述特征提取流程为:
S11:对预处理后的智能耳机音频信号x(n″)进行快速傅里叶变换处理,得到x(n″)的频域特征,所述快速傅里叶变换处理的公式为:
Figure BDA0003804861620000092
其中:
X(k)表示x(n″)在k点的快速傅里叶变换结果;
k为快速傅里叶变换的点数,j表示虚数单位,j2=-1;
S12:构建具有M个滤波器的滤波器组,所述滤波器组中第m个滤波器的频率响应为fm(k):
Figure BDA0003804861620000093
Figure BDA0003804861620000094
其中:
f(m)表示第m个滤波器的中心频率;
S13:将快速傅里叶变换结果输入到滤波器组中,滤波器组输出信号频域的能量:
Figure BDA0003804861620000095
其中:
en表示智能耳机音频信号在频域的能量;
提取智能耳机音频信号的特征,所述特征提取公式为:
Figure BDA0003804861620000096
其中:
L′表示特征阶数,L′=1,2,...,12;
C(L′)表示所提取的L阶特征;
选取使得C(L′)最大的特征作为所提取的智能耳机音频信号特征F(x(n″))。
S2:构建改进的端到端语音识别模型,将所提取到的音频信号特征输入到模型中,得到语音识别结果,其中所述模型输入为提取得到的音频信号特征,输出为语音识别结果。
所述S2步骤中构建改进的端到端语音识别模型,包括:
构建改进的端到端语音识别模型,其中所述模型输入为提取得到的音频信号特征,输出为语音识别结果,所述改进的端到端语音识别模型包括卷积层、编码层以及解码层,卷积层用于接收待识别的音频信号特征,并对音频信号特征进行卷积处理,编码层用于利用门控循环单元对卷积处理后的特征进行编码处理,解码层用于对编码处理结果进行解码,解码结果即为语音识别结果;所述利用端到端语音识别模型对音频信号特征进行语音识别的流程为:
S21:卷积层对输入特征进行卷积处理,所述卷积处理公式为:
F1=Conv(F)
其中:
F表示输入到端到端语音识别模型的音频信号特征;
Conv(·)表示卷积操作;
F1表示卷积特征;
S22:将卷积特征输入到基于门控循环单元的编码层,编码层的激活函数为GeLU,编码层包括5个门控循环单元,每个门控循环单元设置为双向递归,将最后一个门控循环单元的输出结果作为音频信号特征的编码结果;
S23:解码层利用softmax函数输出每段编码结果x所对应解码结果y的概率P(y|x),选取概率最大的y作为编码结果x的解码结果,所述解码结果即为语音识别结果;
所述端到端语音识别模型的训练目标函数为:
Figure BDA0003804861620000101
其中:
Nx表示真实语音文本的字符数;
a1,x表示模型输出的语音识别结果中的替换字符数,a2,x表示模型输出的语音识别结果中的删除字符数,a3,x表示模型输出的语音识别结果中的***字符数;
将所提取到的音频信号特征F(x(n″))输入到模型中,得到语音识别结果y(x(n″))。
S3:对识别的语音结果进行词对转换,得到转换的词对,并计算转换后词对的词对紧凑度。
所述S3步骤中对识别的语音结果进行词对转换,得到转换的词对,包括:
构建不同主题类别的语料库,每个语料库包含该主题类别下的所有词语,并将所构建的不同主题类别语料库组合为语料库A,语料库A={topic1,topic2,...,topich},其中topich为第h个主题类别的语料库,并按词语在语料库A中的顺序,利用独热编码方法对语料库A中的所有词语进行编码,得到语料库A的编码结果集合B;
在本发明实施例中,相同主题类别的词语的独热编码结果距离相近;
基于语料库A的词语编码结果,对识别得到的语音结果y(x(n″))进行词对转换,所述词对转换流程为:
S31:将语料库A作为分词词典,计算分词词典中的词语最大长度为z,截取语音识别结果的前z位,将截取结果与分词词典中的词语进行匹配,若匹配成功则将匹配结果作为截取文本的分词结果,并对剩余语音识别结果文本重复进行该步骤,得到语音识别结果的分词结果
Figure BDA0003804861620000102
其中
Figure BDA0003804861620000103
是语音识别结果的第nw个词语,nw表示语音识别结果的词语总数,若匹配不成功则截取前z-1位重新进行匹配;
S32:将分词结果
Figure BDA0003804861620000104
中任意两个分词结果wn1,wn2构成一组词对(wn1,wn2),其中n1>n2,n1,n2∈[1,nw];
S33:得到语音识别结果的转换词对集合G={(wn1,wn2)|n1>n2,n1,n2∈[1,nw]}。
所述S3步骤中计算转换后词对的词对紧凑度,包括:
从编码结果集合B中遍历选取分词结果
Figure BDA0003804861620000111
的编码结果,得到语音识别结果的编码结果集合
Figure BDA0003804861620000112
其中
Figure BDA0003804861620000113
Figure BDA0003804861620000114
的编码结果,并得到语音识别结果词对的编码结果集合Gb={(bn1,bn2)|n1>n2,n1,n2∈[1,nw]};
计算语音识别结果中转换词对的词对紧凑度:
Figure BDA0003804861620000115
其中:
T表示转置;
所述语音识别结果中词对紧凑度集合为:Gd={dis(wn1,wn2)|n1>n2,n1,n2∈[1,nw]}。
S4:基于词对紧凑度构建动态加权语音主题识别模型,将语音识别结果的词汇紧凑度输入到模型中,模型输出语音主题,所述模型输入为基于词对紧凑度的语音识别结果,输出为语音主题。
所述S4步骤中基于词对紧凑度构建动态加权语音主题识别模型,包括:
构建基于词对紧凑度的动态加权语音主题识别模型,所述模型输入为基于词对紧凑度的语音识别结果,输出为语音主题,所述动态加权语音主题识别模型的主题识别流程为:
S41:将词对紧凑度集合Gd中词对紧凑度高于阈值
Figure BDA00038048616200001123
的词对构成词对集合G1,对词对集合G1中的词对主题进行初始化,所述词对主题类别为语料库A中的h种主题类别;
S42:设置模型的当前迭代次数为r,r的初始值为0,模型的最大迭代次数为Max;
S43:计算第r+1次迭代时,计算词对集合G1中任意词对qv为主题
Figure BDA0003804861620000116
的概率:
Figure BDA0003804861620000117
Figure BDA0003804861620000118
Figure BDA0003804861620000119
Figure BDA00038048616200001110
Figure BDA00038048616200001111
其中:
α,β表示狄利克雷先验参数;
Figure BDA00038048616200001112
表示第r+1次迭代词对qv的主题为
Figure BDA00038048616200001113
Figure BDA00038048616200001114
表示语料库A中的h种主题类别;
Figure BDA00038048616200001115
表示在第r次迭代时,G1中除词对qv外被分到主题
Figure BDA00038048616200001116
的词对数量;
Figure BDA00038048616200001117
表示除去词对qv,截止到第r+1次迭代,词对qv中的第一个词语被分到主题
Figure BDA00038048616200001118
的次数;
Figure BDA00038048616200001119
表示除去词对qv,截止到第r+1次迭代,词对qv中的第二个词语被分到主题
Figure BDA00038048616200001120
的次数;
Figure BDA00038048616200001121
表示除去词对qv,截止到第r+1次迭代,所有词语被分到主题
Figure BDA00038048616200001122
的次数;
S44:判断r+1是否大于等于Max,若r+1≥Max,则输出第r+1次迭代后词对集合G1中不同词对所属主题类别的概率,否则令r=r+1,返回步骤S43;
将语音识别结果的词汇紧凑度输入到模型中,模型输出语音主题,所述计算语音识别结果的语音主题的公式为:
Figure BDA0003804861620000121
其中:
p(topic|Gd,G)表示语音识别结果的主题为topic的概率,topic∈[1,h],表示语料库A中的h种主题类别,选取概率最大的主题作为语音主题;
Figure BDA0003804861620000122
表示词对qv中的两个词语,在语音识别结果中出现的次数,countG表示语音识别结果中词语的总数。
S5:将所识别得到的语音主题与当前授课内容主题进行相似度计算,若相似度计算结构小于指定阈值则表示耳机内语音主题与授课内容主题不同,说明学生未听课,否则正在听课。
所述S5步骤中将所识别得到的语音主题与当前授课内容主题进行相似度计算,若相似度计算结构小于指定阈值则表示耳机内语音主题与授课内容主题不同,说明学生未听课,否则正在听课,包括:
将所识别得到的语音主题与当前授课内容主题进行相似度计算,所述相似度计算方法为余弦相似度算法,若相似度计算结构小于指定阈值则表示耳机内语音主题与授课内容主题不同,说明学生未听课,否则正在听课。
实施例2:
如图3所示,是本发明一实施例提供的应用于学习领域下的智能耳机的学习监控装置的功能模块图,其可以实现实施例1中的智能耳机的学习监控手段。
本发明所述应用于学习领域下的智能耳机的学习监控装置100可以安装于电子设备中。根据实现的功能,所述应用于学习领域下的智能耳机的学习监控装置可以包括信号采集装置101、语音识别模块102及识别监控装置103。本发明所述模块也可以称之为单元,是指一种能够被电子设备处理器所执行,并且能够完成固定功能的一系列计算机程序段,其存储在电子设备的存储器中。
信号采集装置101,用于采集智能耳机音频信号,并对所采集的智能耳机音频信号进行预处理,对预处理后的智能耳机音频信号进行特征提取,得到提取后的音频信号特征;
语音识别模块102,用于构建改进的端到端语音识别模型,将所提取到的音频信号特征输入到模型中,得到语音识别结果;
识别监控装置103,用于对识别的语音结果进行词对转换,并计算转换后词对的词对紧凑度,基于词对紧凑度构建动态加权语音主题识别模型,将语音识别结果的词汇紧凑度输入到模型中,模型输出语音主题,将所识别得到的语音主题与当前授课内容主题进行相似度计算,若相似度计算结构小于指定阈值则表示耳机内语音主题与授课内容主题不同,说明学生未听课,否则正在听课。
详细地,本发明实施例中所述应用于学习领域下的智能耳机的学习监控装置100中的所述各模块在使用时采用与上述的图1中所述的应用于学习领域下的智能耳机的学习监控手段一样的技术手段,并能够产生相同的技术效果,这里不再赘述。
实施例3:
如图4所示,是本发明一实施例提供的实现应用于学习领域下的智能耳机的学习监控手段的电子设备的结构示意图。
所述电子设备1可以包括处理器10、存储器11和总线,还可以包括存储在所述存储器11中并可在所述处理器10上运行的计算机程序,如程序12。
其中,所述存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:SD或DX存储器等)、磁性存储器、磁盘、光盘等。所述存储器11在一些实施例中可以是电子设备1的内部存储单元,例如该电子设备1的移动硬盘。所述存储器11在另一些实施例中也可以是电子设备1的外部存储设备,例如电子设备1上配备的插接式移动硬盘、智能存储卡(Smart Media Card,SMC)、安全数字(SecureDigital,SD)卡、闪存卡(Flash Card)等。进一步地,所述存储器11还可以既包括电子设备1的内部存储单元也包括外部存储设备。所述存储器11不仅可以用于存储安装于电子设备1的应用软件及各类数据,例如程序12的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
所述处理器10在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。所述处理器10是所述电子设备的控制核心(Control Unit),利用各种接口和线路连接整个电子设备的各个部件,通过运行或执行存储在所述存储器11内的程序或者模块(用于学习监控的程序12等),以及调用存储在所述存储器11内的数据,以执行电子设备1的各种功能和处理数据。
所述总线可以是外设部件互连标准(peripheral component interconnect,简称PCI)总线或扩展工业标准结构(extended industry standard architecture,简称EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。所述总线被设置为实现所述存储器11以及至少一个处理器10等之间的连接通信。
图4仅示出了具有部件的电子设备,本领域技术人员可以理解的是,图4示出的结构并不构成对所述电子设备1的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
例如,尽管未示出,所述电子设备1还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器10逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备1还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。
进一步地,所述电子设备1还可以包括网络接口,可选地,所述网络接口可以包括有线接口和/或无线接口(如WI-Fl接口、蓝牙接口等),通常用于在该电子设备1与其他电子设备之间建立通信连接。
可选地,该电子设备1还可以包括用户接口,用户接口可以是显示器(Display)、输入单元(比如键盘(Keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备1中处理的信息以及用于显示可视化的用户界面。
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
所述电子设备1中的所述存储器11存储的程序12是多个指令的组合,在所述处理器10中运行时,可以实现:
采集智能耳机音频信号,并对所采集的智能耳机音频信号进行预处理,对预处理后的智能耳机音频信号进行特征提取,得到提取后的音频信号特征;
构建改进的端到端语音识别模型,将所提取到的音频信号特征输入到模型中,得到语音识别结果;
对识别的语音结果进行词对转换,得到转换的词对,并计算转换后词对的词对紧凑度;
基于词对紧凑度构建动态加权语音主题识别模型,将语音识别结果的词汇紧凑度输入到模型中,模型输出语音主题;
将所识别得到的语音主题与当前授课内容主题进行相似度计算,若相似度计算结构小于指定阈值则表示耳机内语音主题与授课内容主题不同,说明学生未听课,否则正在听课。
具体地,所述处理器10对上述指令的具体实现方法可参考图1至图4对应实施例中相关步骤的描述,在此不赘述。
需要说明的是,上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。并且本文中的术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、装置、物品或者方法不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、装置、物品或者方法所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、装置、物品或者方法中还存在另外的相同要素。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在如上所述的一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (8)

1.一种应用于学习领域下的智能耳机的学习监控手段,其特征在于,所述手段包括:
S1:采集智能耳机音频信号,并对所采集的智能耳机音频信号进行预处理,对预处理后的智能耳机音频信号进行特征提取,得到提取后的音频信号特征;
S2:构建改进的端到端语音识别模型,将所提取到的音频信号特征输入到模型中,得到语音识别结果,其中所述模型输入为提取得到的音频信号特征,输出为语音识别结果;
S3:对识别的语音结果进行词对转换,得到转换的词对,并计算转换后词对的词对紧凑度;
S4:基于词对紧凑度构建动态加权语音主题识别模型,将语音识别结果的词汇紧凑度输入到模型中,模型输出语音主题,所述模型输入为基于词对紧凑度的语音识别结果,输出为语音主题,包括:
构建基于词对紧凑度的动态加权语音主题识别模型,所述模型输入为基于词对紧凑度的语音识别结果,输出为语音主题,所述动态加权语音主题识别模型的主题识别流程为:
S41:将词对紧凑度集合Gd中词对紧凑度高于阈值
Figure FDA0003804861610000011
的词对构成词对集合G1,对词对集合G1中的词对主题进行初始化,所述词对主题类别为语料库A中的h种主题类别;
S42:设置模型的当前迭代次数为r,r的初始值为0,模型的最大迭代次数为Max;
S43:计算第r+1次迭代时,计算词对集合G1中任意词对qv为主题
Figure FDA0003804861610000012
的概率:
Figure FDA0003804861610000013
Figure FDA0003804861610000014
Figure FDA0003804861610000015
Figure FDA0003804861610000016
Figure FDA0003804861610000017
其中:
α,β表示狄利克雷先验参数;
Figure FDA0003804861610000018
表示第r+1次迭代词对qv的主题为
Figure FDA0003804861610000019
表示语料库A中的h种主题类别;
Figure FDA00038048616100000110
表示在第r次迭代时,G1中除词对qv外被分到主题
Figure FDA00038048616100000111
的词对数量;
Figure FDA00038048616100000112
表示除去词对qv,截止到第r+1次迭代,词对qv中的第一个词语被分到主题
Figure FDA00038048616100000113
的次数;
Figure FDA00038048616100000114
表示除去词对qv,截止到第r+1次迭代,词对qv中的第二个词语被分到主题
Figure FDA00038048616100000115
的次数;
Figure FDA00038048616100000116
表示除去词对qv,截止到第r+1次迭代,所有词语被分到主题
Figure FDA00038048616100000117
的次数;
S44:判断r+1是否大于等于Max,若r+1≥Max,则输出第r+1次迭代后词对集合G1中不同词对所属主题类别的概率,否则令r=r+1,返回步骤S43;
将语音识别结果的词汇紧凑度输入到模型中,模型输出语音主题,所述计算语音识别结果的语音主题的公式为:
Figure FDA0003804861610000021
其中:
p(topic|Gd,G)表示语音识别结果的主题为topic的概率,topic∈[1,h],表示语料库A中的h种主题类别,选取概率最大的主题作为语音主题;
Figure FDA0003804861610000029
表示词对qv中的两个词语,在语音识别结果中出现的次数,countG表示语音识别结果中词语的总数;
S5:将所识别得到的语音主题与当前授课内容主题进行相似度计算,若相似度计算结构小于指定阈值则表示耳机内语音主题与授课内容主题不同,说明学生未听课,否则正在听课。
2.如权利要求1所述的一种应用于学习领域下的智能耳机的学习监控手段,其特征在于,所述S1步骤中采集智能耳机音频信号,并对所采集的智能耳机音频信号进行预处理,包括:
利用智能耳机中内置的信号采集装置采集得到智能耳机内的音频信号,并对所采集的智能耳机音频信号进行预处理,所述预处理流程为:
在信号采集装置内部设置高通滤波器,若采集信号的频率高于高通滤波器的截止频率,电容元件的容抗较小,对信号无衰减作用,若采集信号的频率低于高通滤波器的截止频率,电容元件的容抗较大,对信号进行衰减,且采集信号频率越低衰减程度越高,所述通过高通滤波器的音频信号为x(t),其中t∈[t0,tL]表示所采集音频信号的时序信息,t0表示音频信号采集的初始时刻,tL表示音频信号采集的截止时刻;
所述截止频率ft的计算公式为:
Figure FDA0003804861610000022
其中:
R表示高通滤波器中电阻的电阻值;
C表示高通滤波器中电容元件的电容;
信号接收装置内的数模转换器将所采集到的音频信号x(t)转换为模拟信号,所述模拟信号的转换流程为:
构建频率为fs的冲激序列p(t):
Figure FDA0003804861610000023
Figure FDA0003804861610000024
基于冲激序列p(t)将音频信号x(t)转换为模拟信号
Figure FDA0003804861610000025
Figure FDA0003804861610000026
所述模拟信号中采样点的数目为N,令模拟信号
Figure FDA0003804861610000027
中的第一个采样点为x(1),最后一个采样点为x(N),则所述模拟信号
Figure FDA0003804861610000028
n′∈[1,N],x(n′)为转换后的模拟信号;
信号采集装置对转换后的模拟信号x(n′)进行加窗处理,所述加窗处理的窗函数为汉明窗,加窗处理公式为:
x(n″)=x(n′)×w(n′)
Figure FDA0003804861610000031
其中:
w(n′)为窗函数;
a表示窗函数系数,将其设置为0.43;
x(n″)为加窗处理后的音频信号,将x(n″)作为所述预处理后的智能耳机音频信号。
3.如权利要求2所述的一种应用于学习领域下的智能耳机的学习监控手段,其特征在于,所述S1步骤中对预处理后的智能耳机音频信号进行特征提取,得到提取后的音频信号特征,包括:
对所述预处理后的智能耳机音频信号x(n″)进行特征提取,得到提取后的音频信号特征F(x(n″)),所述特征提取流程为:
S11:对预处理后的智能耳机音频信号x(n″)进行快速傅里叶变换处理,得到x(n″)的频域特征,所述快速傅里叶变换处理的公式为:
Figure FDA0003804861610000032
其中:
X(k)表示x(n″)在k点的快速傅里叶变换结果;
k为快速傅里叶变换的点数,j表示虚数单位,j2=-1;
S12:构建具有M个滤波器的滤波器组,所述滤波器组中第m个滤波器的频率响应为fm(k):
Figure FDA0003804861610000033
Figure FDA0003804861610000034
其中:
f(m)表示第m个滤波器的中心频率;
S13:将快速傅里叶变换结果输入到滤波器组中,滤波器组输出信号频域的能量:
Figure FDA0003804861610000035
其中:
en表示智能耳机音频信号在频域的能量;
S14:提取智能耳机音频信号的特征,所述特征提取公式为:
Figure FDA0003804861610000036
其中:
L′表示特征阶数,L′=1,2,...,12;
C(L′)表示所提取的L阶特征;
选取使得C(L′)最大的特征作为所提取的智能耳机音频信号特征F(x(n″))。
4.如权利要求1所述的一种应用于学习领域下的智能耳机的学习监控手段,其特征在于,所述S2步骤中构建改进的端到端语音识别模型,包括:
构建改进的端到端语音识别模型,其中所述模型输入为提取得到的音频信号特征,输出为语音识别结果,所述改进的端到端语音识别模型包括卷积层、编码层以及解码层,卷积层用于接收待识别的音频信号特征,并对音频信号特征进行卷积处理,编码层用于利用门控循环单元对卷积处理后的特征进行编码处理,解码层用于对编码处理结果进行解码,解码结果即为语音识别结果;所述利用端到端语音识别模型对音频信号特征进行语音识别的流程为:
S21:卷积层对输入特征进行卷积处理,所述卷积处理公式为:
F1=Conv(F)
其中:
F表示输入到端到端语音识别模型的音频信号特征;
Conv(·)表示卷积操作;
F1表示卷积特征;
S22:将卷积特征输入到基于门控循环单元的编码层,编码层的激活函数为GeLU,编码层包括5个门控循环单元,每个门控循环单元设置为双向递归,将最后一个门控循环单元的输出结果作为音频信号特征的编码结果;
S23:解码层利用softmax函数输出每段编码结果x所对应解码结果y的概率P(y|x),选取概率最大的y作为编码结果x的解码结果,所述解码结果即为语音识别结果;
所述端到端语音识别模型的训练目标函数为:
Figure FDA0003804861610000041
其中:
Nx表示真实语音文本的字符数;
a1,x表示模型输出的语音识别结果中的替换字符数,a2,x表示模型输出的语音识别结果中的删除字符数,a3,x表示模型输出的语音识别结果中的***字符数;
将所提取到的音频信号特征F(x(n″))输入到模型中,得到语音识别结果y(x(n″))。
5.如权利要求1所述的一种应用于学习领域下的智能耳机的学习监控手段,其特征在于,所述S3步骤中对识别的语音结果进行词对转换,得到转换的词对,包括:
构建不同主题类别的语料库,每个语料库包含该主题类别下的所有词语,并将所构建的不同主题类别语料库组合为语料库A,语料库A={topic1,topic2,...,topich},其中topich为第h个主题类别的语料库,并按词语在语料库A中的顺序,利用独热编码方法对语料库A中的所有词语进行编码,得到语料库A的编码结果集合B;
基于语料库A的词语编码结果,对识别得到的语音结果y(x(n″))进行词对转换,所述词对转换流程为:
S31:将语料库A作为分词词典,计算分词词典中的词语最大长度为z,截取语音识别结果的前z位,将截取结果与分词词典中的词语进行匹配,若匹配成功则将匹配结果作为截取文本的分词结果,并对剩余语音识别结果文本重复进行该步骤,得到语音识别结果的分词结果
Figure FDA0003804861610000042
其中
Figure FDA0003804861610000043
是语音识别结果的第nw个词语,nw表示语音识别结果的词语总数,若匹配不成功则截取前z-1位重新进行匹配;
S32:将分词结果
Figure FDA0003804861610000044
中任意两个分词结果wn1,wn2构成一组词对(wn1,wn2),其中n1>n2,n1,n2∈[1,nw];
S33:得到语音识别结果的转换词对集合G={(wn1,wn2)|n1>n2,n1,n2∈[1,nw]}。
6.如权利要求5所述的一种应用于学习领域下的智能耳机的学习监控手段,其特征在于,所述S3步骤中计算转换后词对的词对紧凑度,包括:
从编码结果集合B中遍历选取分词结果
Figure FDA0003804861610000045
的编码结果,得到语音识别结果的编码结果集合
Figure FDA0003804861610000051
其中
Figure FDA0003804861610000052
Figure FDA0003804861610000053
的编码结果,并得到语音识别结果词对的编码结果集合Gb={(bn1,bn2)|n1>n2,n1,n2∈[1,nw]};
计算语音识别结果中转换词对的词对紧凑度:
Figure FDA0003804861610000054
其中:
T表示转置;
所述语音识别结果中词对紧凑度集合为:Gd={dis(wn1,wn2)|n1>n2,n1,n2∈[1,nw]}。
7.如权利要求1所述的一种应用于学习领域下的智能耳机的学习监控手段,其特征在于,所述S5步骤中将所识别得到的语音主题与当前授课内容主题进行相似度计算,若相似度计算结构小于指定阈值则表示耳机内语音主题与授课内容主题不同,说明学生未听课,否则正在听课,包括:
将所识别得到的语音主题与当前授课内容主题进行相似度计算,所述相似度计算方法为余弦相似度算法,若相似度计算结构小于指定阈值则表示耳机内语音主题与授课内容主题不同,说明学生未听课,否则正在听课。
8.一种应用于学习领域下的智能耳机的学习监控装置,其特征在于,所述装置包括:
信号采集装置,用于采集智能耳机音频信号,并对所采集的智能耳机音频信号进行预处理,对预处理后的智能耳机音频信号进行特征提取,得到提取后的音频信号特征;
语音识别模块,用于构建改进的端到端语音识别模型,将所提取到的音频信号特征输入到模型中,得到语音识别结果;
识别监控装置,用于对识别的语音结果进行词对转换,并计算转换后词对的词对紧凑度,基于词对紧凑度构建动态加权语音主题识别模型,将语音识别结果的词汇紧凑度输入到模型中,模型输出语音主题,将所识别得到的语音主题与当前授课内容主题进行相似度计算,若相似度计算结构小于指定阈值则表示耳机内语音主题与授课内容主题不同,说明学生未听课,否则正在听课,以实现一种如权利要求1-7所述的应用于学习领域下的智能耳机的学习监控手段。
CN202210994128.9A 2022-08-18 2022-08-18 一种应用于学习领域下的智能耳机的学习监控方法 Active CN115376499B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210994128.9A CN115376499B (zh) 2022-08-18 2022-08-18 一种应用于学习领域下的智能耳机的学习监控方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210994128.9A CN115376499B (zh) 2022-08-18 2022-08-18 一种应用于学习领域下的智能耳机的学习监控方法

Publications (2)

Publication Number Publication Date
CN115376499A true CN115376499A (zh) 2022-11-22
CN115376499B CN115376499B (zh) 2023-07-28

Family

ID=84064840

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210994128.9A Active CN115376499B (zh) 2022-08-18 2022-08-18 一种应用于学习领域下的智能耳机的学习监控方法

Country Status (1)

Country Link
CN (1) CN115376499B (zh)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101609672A (zh) * 2009-07-21 2009-12-23 北京邮电大学 一种语音识别语义置信特征提取的方法和装置
CN103680498A (zh) * 2012-09-26 2014-03-26 华为技术有限公司 一种语音识别方法和设备
CN108836362A (zh) * 2018-04-03 2018-11-20 江苏理工学院 一种用于监督孩子学习状态的家用监督装置及其监督方法
CN110415697A (zh) * 2019-08-29 2019-11-05 的卢技术有限公司 一种基于深度学习的车载语音控制方法及其***
CN111105796A (zh) * 2019-12-18 2020-05-05 杭州智芯科微电子科技有限公司 无线耳机控制装置及控制方法、语音控制设置方法和***
KR102228575B1 (ko) * 2020-11-06 2021-03-17 (주)디라직 체온 및 온라인 학습 모니터링이 가능한 헤드셋 시스템
CN112863518A (zh) * 2021-01-29 2021-05-28 深圳前海微众银行股份有限公司 一种语音数据主题识别的方法及装置
CN113539268A (zh) * 2021-01-29 2021-10-22 南京迪港科技有限责任公司 一种端到端语音转文本罕见词优化方法
CN113887883A (zh) * 2021-09-13 2022-01-04 淮阴工学院 一种基于语音识别技术的课程教学评价实现方法
CN114596839A (zh) * 2022-03-03 2022-06-07 网络通信与安全紫金山实验室 一种端到端语音识别方法、***及存储介质
CN114662484A (zh) * 2022-03-16 2022-06-24 平安科技(深圳)有限公司 语义识别方法、装置、电子设备及可读存储介质

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101609672A (zh) * 2009-07-21 2009-12-23 北京邮电大学 一种语音识别语义置信特征提取的方法和装置
CN103680498A (zh) * 2012-09-26 2014-03-26 华为技术有限公司 一种语音识别方法和设备
CN108836362A (zh) * 2018-04-03 2018-11-20 江苏理工学院 一种用于监督孩子学习状态的家用监督装置及其监督方法
CN110415697A (zh) * 2019-08-29 2019-11-05 的卢技术有限公司 一种基于深度学习的车载语音控制方法及其***
CN111105796A (zh) * 2019-12-18 2020-05-05 杭州智芯科微电子科技有限公司 无线耳机控制装置及控制方法、语音控制设置方法和***
KR102228575B1 (ko) * 2020-11-06 2021-03-17 (주)디라직 체온 및 온라인 학습 모니터링이 가능한 헤드셋 시스템
CN112863518A (zh) * 2021-01-29 2021-05-28 深圳前海微众银行股份有限公司 一种语音数据主题识别的方法及装置
CN113539268A (zh) * 2021-01-29 2021-10-22 南京迪港科技有限责任公司 一种端到端语音转文本罕见词优化方法
CN113887883A (zh) * 2021-09-13 2022-01-04 淮阴工学院 一种基于语音识别技术的课程教学评价实现方法
CN114596839A (zh) * 2022-03-03 2022-06-07 网络通信与安全紫金山实验室 一种端到端语音识别方法、***及存储介质
CN114662484A (zh) * 2022-03-16 2022-06-24 平安科技(深圳)有限公司 语义识别方法、装置、电子设备及可读存储介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
杨焕峥;: "基于深度学习的中文语音识别模型设计与实现", 湖南邮电职业技术学院学报 *
赵从健;雷菊阳;李明明;: "基于无监督学习的语音签到***" *

Also Published As

Publication number Publication date
CN115376499B (zh) 2023-07-28

Similar Documents

Publication Publication Date Title
CN110457432B (zh) 面试评分方法、装置、设备及存储介质
CN109859772B (zh) 情绪识别方法、装置及计算机可读存储介质
CN112185348B (zh) 多语种语音识别方法、装置及电子设备
CN107369439B (zh) 一种语音唤醒方法和装置
CN107103903A (zh) 基于人工智能的声学模型训练方法、装置及存储介质
CN110600033B (zh) 学习情况的评估方法、装置、存储介质及电子设备
CN111261162B (zh) 语音识别方法、语音识别装置及存储介质
CN110459205A (zh) 语音识别方法及装置、计算机可存储介质
CN111274797A (zh) 用于终端的意图识别方法、装置、设备及存储介质
CN110164447A (zh) 一种口语评分方法及装置
CN111694940A (zh) 一种用户报告的生成方法及终端设备
CN108595406B (zh) 一种用户状态的提醒方法、装置、电子设备及存储介质
CN111651497A (zh) 用户标签挖掘方法、装置、存储介质及电子设备
CN107274903A (zh) 文本处理方法和装置、用于文本处理的装置
CN109800309A (zh) 课堂话语类型分类方法及装置
CN113420556A (zh) 基于多模态信号的情感识别方法、装置、设备及存储介质
CN113327586A (zh) 一种语音识别方法、装置、电子设备以及存储介质
CN113807103A (zh) 基于人工智能的招聘方法、装置、设备及存储介质
CN114155832A (zh) 基于深度学习的语音识别方法、装置、设备及介质
WO2024114303A1 (zh) 音素识别方法、装置、电子设备及存储介质
CN112489628B (zh) 语音数据选择方法、装置、电子设备及存储介质
CN112201253A (zh) 文字标记方法、装置、电子设备及计算机可读存储介质
CN115376499A (zh) 一种应用于学习领域下的智能耳机的学习监控手段
CN111985231B (zh) 无监督角色识别方法、装置、电子设备及存储介质
CN110136741A (zh) 一种基于多尺度上下文的单通道语音增强方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TA01 Transfer of patent application right

Effective date of registration: 20230726

Address after: Room 102, Building 1, No. 16, Yunlian Fifth Street, Dalang Town, Dongguan City, Guangdong Province, 523000

Applicant after: DONGGUAN JIEXUN ELECTRONIC TECHNOLOGY Co.,Ltd.

Address before: 523000 Building 2, No. 16, Yunlian Fifth Street, Dalang Town, Dongguan City, Guangdong Province

Applicant before: Dongguan Leyi Electronic Technology Co.,Ltd.

TA01 Transfer of patent application right