CN116564299A - 一种基于哭声检测控制儿童座椅安抚儿童的方法和*** - Google Patents

一种基于哭声检测控制儿童座椅安抚儿童的方法和*** Download PDF

Info

Publication number
CN116564299A
CN116564299A CN202211030053.9A CN202211030053A CN116564299A CN 116564299 A CN116564299 A CN 116564299A CN 202211030053 A CN202211030053 A CN 202211030053A CN 116564299 A CN116564299 A CN 116564299A
Authority
CN
China
Prior art keywords
child
crying
sound
pacifying
control instruction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211030053.9A
Other languages
English (en)
Inventor
钟浩玲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Lan You Technology Co Ltd
Original Assignee
Shenzhen Lan You Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Lan You Technology Co Ltd filed Critical Shenzhen Lan You Technology Co Ltd
Priority to CN202211030053.9A priority Critical patent/CN116564299A/zh
Publication of CN116564299A publication Critical patent/CN116564299A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Child & Adolescent Psychology (AREA)
  • General Health & Medical Sciences (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Telephonic Communication Services (AREA)

Abstract

本发明公开了一种基于哭声检测控制儿童座椅安抚儿童的方法,其包括以下步骤:步骤S100:捕捉儿童声音;步骤S200:对儿童声音进行判别,如判别为哭声,则输出判别结果;步骤S300:根据判别结果输出安抚儿童的控制指令;步骤S400:执行安抚儿童的控制指令。本发明其能检测在儿童座椅的儿童哭声及时主动控制儿童座椅播放话语和音乐进行安抚。

Description

一种基于哭声检测控制儿童座椅安抚儿童的方法和***
技术领域
本发明涉及车联网技术领域,尤其涉及一种基于哭声检测控制儿童座椅安抚儿童的方法和***。
背景技术
随着汽车行业的发展,越来越多的智能设备进入车内,给汽车带来更多的智能化体验,重新定义了汽车。对于有儿童小孩的家庭,在汽车中安装儿童座椅成为一种选择,然而现有的儿童座椅为普通儿童座椅,无法达到智能化,当车主一个人遇到儿童生病或者其他需要出车是的时候,常常将儿童放在车后方的儿童座椅上,儿童坐在车后面时,因为看不到父母,没有安全感而哭泣,车主在开车的同时还需要时不时回头去看儿童的状况,想安抚儿童的话语对儿童进行安抚,给行车安全带来很大的隐患。
发明内容
本发明的主要目的在于针对现有技术中儿童座椅不能智能化安抚儿童哭泣的缺点,提供一种基于哭声检测控制儿童座椅安抚儿童的方法和***。
为实现上述目的,本发明种基于哭声检测控制儿童座椅安抚儿童的方法,包括以下步骤:
步骤S100:捕捉儿童声音;
步骤S200:对儿童声音进行判别,如判别为哭声,则输出判别结果;
步骤S300:根据判别结果输出安抚儿童的控制指令;
步骤S400:执行安抚儿童的控制指令。
优选地,还包括步骤S001:录入大量不同儿童哭声的音频信息,进行训练,建立哭声识别模型;
步骤S002:录入安抚儿童的通用的话语和音乐,上传至远端服务器和存储于儿童座椅。
优选地,还包括步骤S001:录入大量同一儿童哭声的音频信息,进行训练,建立特定哭声识别模型;
步骤S002:录入安抚儿童的自定义的话语和音乐,上传至远端服务器和存储于儿童座椅。
优选地,语音平台接收到儿童声音的音频信息,通过建立的特定哭声识别模型对音频信息进行判别,如判别为哭声,通过网络通讯将判别信号传输至远端服务器。
优选地,远端服务器接收到判别信号,从数据库的声音类别信号表示列表中进行检索解析,解析出该判别信号对应的儿童声音类别,从数据库的控制指令列表中进行检索,检索出该儿童声音类别对应的安抚儿童控制指令,并将控制指令通过网络通讯传输至网关设备。
优选地,网关设备接收到远端服务器传输的控制指令,通过蓝牙通讯将控制指令传输至儿童座椅,儿童座椅执行控制指令,播放存放于本地的自定义的安抚话语和音乐。
优选地,在所述步骤S001中,儿童声音的音频信息进行训练之前,需进行预处理进行特征参数提取,预处理流程包括采样量化、预加重、分帧、加窗、端点检测环节。
此外,本发明还提供了一种基于哭声检测控制儿童座椅安抚儿童的***,包括:
捕捉模块,用于捕捉儿童声音;
判别模块,对儿童声音进行判别;
输出模块,用于将所述判别模块的判别结果进行输出,用于根据判别结果输出安抚儿童的控制指令;
执行模块,用于执行安抚儿童的控制指令。
优选地,训练模块,用于对同一儿童哭声的音频信息进行训练,建立特定哭声识别模型;
存储模块,用于存储安抚儿童的自定义的话语和音乐。
优选地,解析模块,用于对判别信号进行解析,解析出该判别信号对应的儿童声音类别;
检索模块,用于检索出所述解析模块解析的儿童声音类别对应的安抚儿童控制指令。
本发明提供的一种基于哭声检测控制儿童座椅安抚儿童的方法具有以下有益效果:通过捕捉儿童声音,为判别儿童是否哭泣提供原始数据依据;通过对儿童声音进行判别,如判别为哭声,则输出判别结果,对捕捉的儿童声音进行特征提取,通过哭声识别模型进行判别,如判别声音为哭声,触发输出指令,输出表示为儿童哭声的判别信号;根据判别结果输出安抚儿童的控制指令,接收到了判别类型问题的信号,寻找对应问题的控制指令的解决方案,并将解决方案的控制指令输出到对应的执行机构中;通过执行安抚儿童的控制指令,儿童座椅接收到了控制指令,执行控制指令进行安抚话语录音和音乐的播放,达到安抚儿童的效果。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图:
图1所示为本发明一个实施例提供的一种基于哭声检测控制儿童座椅安抚儿童的方法的流程示意图;
图2所示为本发明一个实施例提供的一种基于哭声检测控制儿童座椅安抚儿童的***的模块示意图。
具体实施方式
为了便于理解本发明,下面将参照相关附图对本发明进行更全面的描述。附图中给出了本发明的典型实施例。但是,本发明可以以许多不同的形式来实现,并不限于本文所描述的实施例。相反地,提供这些实施例的目的是使对本发明的公开内容更加透彻全面。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本文中在本发明的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本发明。
本发明总的思路是:针对现有技术中儿童座椅不能智能化安抚儿童哭泣的缺点,提供一种基于哭声检测控制儿童座椅安抚儿童的方法。本发明提供的一种基于哭声检测控制儿童座椅安抚儿童的方法具有以下有益效果:通过捕捉儿童声音,为判别儿童是否哭泣提供原始数据依据;通过对儿童声音进行判别,如判别为哭声,则输出判别结果,对捕捉的儿童声音进行特征提取,通过哭声识别模型进行判别,如判别声音为哭声,触发输出指令,输出表示为儿童哭声的判别信号;根据判别结果输出安抚儿童的控制指令,接收到了判别类型问题的信号,寻找对应问题的控制指令的解决方案,并将解决方案的控制指令输出到对应的执行机构中;通过执行安抚儿童的控制指令,儿童座椅接收到了控制指令,执行控制指令进行安抚话语录音和音乐的播放,达到安抚儿童的效果。为了更好的理解上述技术方案,下面将结合说明书附图以及具体的实施方式对上述技术方案进行详细的说明,应当理解本发明实施例以及实施例中的具体特征是对本申请技术方案的详细的说明,而不是对本申请技术方案的限定,在不冲突的情况下,本发明实施例以及实施例中的技术特征可以相互组合。
参照图1,图1所示为本发明一个实施例提供的一种基于哭声检测控制儿童座椅安抚儿童的方法的流程示意图,在本实施例中,一种基于哭声检测控制儿童座椅安抚儿童的方法,包括:
步骤S100:捕捉儿童声音;
在车联网中,车载智能蓝牙设备通过蓝牙MESH网关技术与车内网关设备进行绑定,智能蓝牙设备其植入了对应的BLE模组,并且所有的智能蓝牙设备均在远端服务器的后台***进行了信息录入,检验了智能蓝牙设备的合法性,只有合法的智能蓝牙设备才能与车内网关设备进行组网,网关设备才能通过蓝牙传输控制智能蓝牙设备。网关设备是具有与外部通过各种通讯方式联网的设备,在车联网中,网关设备可以为车机中控***,也可以为带屏的智能设备等,只要具备网络通讯功能和蓝牙传输功能即可。智能蓝牙设备为具有各种功能的蓝牙设备,比如儿童座椅、颈枕、音乐器、按摩椅、香氛等。网关设备根据需求,还可将录音和喇叭功能集成一体,具体地,网关设备捕捉到儿童声音,并将儿童声音音频信息传输至语音平台。网关设备通过捕捉儿童声音,为判别儿童是否哭泣提供原始数据依据。
步骤S200:对儿童声音进行判别,如判别为哭声,则输出判别结果;
儿童具有各种各样的情绪,如高兴、悲哀、愤怒、平静、痛苦、饥饿、害怕等,其在情绪发生时,往往会自然地发出各种表达情绪的声音,如害怕、痛疼,声音就会为哭泣的声音,网关设备通过其自带的麦克风对儿童声音进行捕捉,形成用户情绪音频信息,再通过4G/5G/WIFI等网络通讯方式传输至语音平台,语音平台为一个远端大***平台,对整个车联网中的语音进行处理,其可对音频信息类型进行判别,如哭泣、大笑、自语等。
接收到儿童声音音频信息之后,需要对当前儿童声音音频信息进行判别,如判别为哭声,则输出判别结果,对捕捉的儿童声音进行特征提取,通过哭声识别模型进行判别,如判别声音为哭声,触发输出指令,输出表示为儿童哭声的判别信号。
具体地,语音平台接收到儿童声音的音频信息,通过建立的特定哭声识别模型对音频信息进行判别,如判别为哭声,通过网络通讯将判别信号传输至远端服务器。
特定哭声识别模型是对特定儿童哭声进行训练而成的识别模型,特定儿童是指单一儿童,即每个家长都可以为自己的小孩的哭声进行录音,并传输至语音平台进行训练,训练成为自己的小孩定制的特定哭声识别模型,特定哭声识别模型相较于常规的哭声识别模型对自家小孩的哭声判断更加精准。而常规的哭声识别模型则为平台公司将很多不同的儿童的哭声传输至语音平台进行训练,训练建立儿童哭声识别模型,由于每个儿童的哭声在音质不同,其声音在频率等参数上范围也不同,其训练出来的哭声识别模型范围更广,其相对判别单一儿童哭声的精准度较低,会出现不是哭声而判别为哭声的现象,或由于儿童声音超出判别范围而无法判别为哭声的现象。
建立好哭声识别模型和特定哭声识别模型是判别儿童哭声的基础,因此在步骤S100之前,还包括步骤S001:录入大量不同儿童哭声的音频信息,进行训练,建立哭声识别模型;如果想提高判别哭声的精准度,实现更针对性地安抚儿童,可直接录入自家小孩的哭声,此时步骤S001为:录入大量同一儿童哭声的音频信息,进行训练,建立特定哭声识别模型。
儿童声音的音频信息的训练是通过对音频信息的特征提取进行训练、建立模型的,而儿童声音的音频信息由于存在语音采集设备自身和人类发声器官本身所到来的干扰信号,包括混叠、高频、高次谐波失真等因素对语音数据产生的干扰,需要对原始的音频信息进行预处理。进行预处理的目的是消除经过预处理之后,可以让采集到的语音信号更均匀、平滑,是提取优质的语音特征参数的前提条件。
具体地,在所述步骤S001中,儿童声音的音频信息进行训练之前,需进行预处理进行特征参数提取,预处理流程包括采样量化、预加重、分帧、加窗、端点检测环节。
采样量化:在对儿童哭声进行A/D转换前需要进行反混叠滤波。反混叠滤波是将儿童哭声信号通过一个模拟低通滤波器,这样可以减少语音频率在4kHz以上的成分产生混叠失真和受到噪声干扰的影响,儿童哭声是在时域上的连续信号,为了能让计算机处理,需要将连续的儿童哭声信号转变为数字信号,即A/D转换。原始儿童哭声经过A/D转换后可以得到在时间和幅度上均是离散的数字语音信号。根据奈奎斯特采样定理,当采样频率是儿童哭声信号频率的两倍时,经过采样后的数字信号任然保留儿童哭声信息,并且可以通过采样后的信号重构原信号。一般语音信号频带分布在300-3400Hz之间,所以一般采样率多为8kHz。采样后需要对儿童哭声信号进行量化,其目的是将时间上离散但幅度上连续的信号再离散化。通过量化器将整个语音信号幅度值进行划分,然后将分布在相同区间内的信号用同一个量化值替代,这样就可以将信号的幅度值也离散化。
预加重:为了去除儿童的***辐射对信号的干扰,提高语音信号高频部分分辨率,需要对离散化后的儿童哭声信号进行预加重,主要是对高频部分进行预加重,儿童哭声信号预加重后的高频部分幅度谱得到了提升。对儿童哭声进行预加重后,下一步是分帧处理。儿童哭声信号是随着时间变动的信号,由浊音和清音两大类组成。浊音的基音周期、声道参数和清浊音信号幅度都在随着时间慢慢变化。但是,因为发声器官是在惯性运动,所以可以认为
分帧:语音信号特性在短时间内(10-30ms)基本保持不变,即儿童哭声信号在短时间内是具有平稳性。基于这样的特性,可以将儿童哭声信号分成许多小段来处理,其中每一段称为一“帧”,每帧长度可取10ms-30ms。
对信号分帧的办法有连续分段法和交叠分段法,考虑到儿童哭声特性,此处使用交叠分段的方法,这个方法的优点是可以使帧与帧之间过渡更平滑,保证了语音信号的连续性。连续两帧交叠部分叫做帧移,一般帧移是帧长的1/2左右。
加窗:对儿童哭声信号进行分帧其实是使用一个可移动的有限长度的窗口在信号上滑动并加权计算来做到的。窗函数的种类有许多种,不同的窗函数对儿童哭声信号的分析带来不同的影响。常经使用的窗函数有两种,分给是矩形窗和汉明窗。矩形窗的主瓣宽度小于汉明窗,拥有很高的频谱分辨率,但是矩形窗的旁辫峰值要比汉明窗大,容易引起频谱泄漏。汉明窗的旁瓣衰减很大,低通特性较好,可以很好的描述短时信号的频率特性。因此在对儿童哭声信号短时分析时,选取汉明窗较好。
端点检测:在儿童哭声信号处理中需要对语音的端点进行检测,语音的端点检测是找出一段包含有话段的信号中有话段的起始点和结束点。因为在儿童哭声处理中,只需要对有话段进行检测。高精确度的端点检测方法有助于提高***的识别率,比较经典的有短时平均能量和短时平均过零率法。在没有噪声的环境下,这些方法有比较好的检测成功率,但是儿童所处的环境实际上往往带有一些复杂的噪声,所以为了提高语音端点检测的成功率,必须选用一种能降低噪声影响的端点检测办法。本发明选用的是将改进的多窗谱估计谱减法和参数可变的子带谱熵法相结合的方法来进行端点检测。
特征参数提取是儿童哭声识别的一个重要过程,特征间的距离度量则与它密不可分。不同的语音信号具有不同的特性,特征提取是找出这些语音的不同内在特性,从而使用这些不同的特性来区别未知语音,因此所有的语音识别***都需要提取语音的特征参数。在儿童哭声识别***中,特征参数的选择标准是能体现出不同语音之间的距离尽量最大,而相同语音之间的距离应该尽量最小,满足这种要求的特征参数包含了更丰富的儿童哭声信息,从而更能容易区分儿童哭声信号与其他不相关语音信号。
声纹特征提取是声纹识别的一个重要步骤,其目的是从样本声纹信号中提取与特定任务密切相关的特征,以便有效地完成该任务或进一步简化任务复杂度。显然,声纹特征的好坏直接决定了声纹识别***的性能。因此,对所提取的声纹特征必须能够充分体现不同类型的声纹信号的本质特性。
在声纹识别***中,常用的频域特征有LPCC和MFCC。其中,LPCC参考人类的声道对声音的处理过程,先对语音信号进行线性预测分析,再将分析结果执行倒谱变换,得到LPCC系数;该特征优点是计算量少,缺点是抗干扰能力差,受干扰易产生失真。而MFCC则是参考了人耳听觉处理过程,先将语音信号的线性频谱经过Mel滤波器组,变换为非线性的Mel频谱,再对各滤波器内的语音信号点取对数能量,最后将对数能量进行DCT变换得到MFCC系数。由于LPCC特征是模拟人的发音过程,而MFCC模拟人的听觉过程,且具有较好的抗干扰能力。
除了声纹特征提取技术,声纹建模技术对***性能的优良也起着决定性作用,通过对大量声纹特征数据按照一定准则进行训练,挖掘特征数据的内部规律,最后学习出一套独有的判别规则,这就是声纹建模过程。
SVM最初只为解决二维平面线性可分问题,后来借助核函数的特性,将二维平面线性不可分的数据集,映射到高维空间,并在高维空间利用类似二维平面的方法,寻找最大化的分割平面,这是SVM模型强于其他浅层学习模型的原因之一。此外,在模型训练过程,需要借助一个重要条件,其可将不易求解的优化问题转换为易求解的优化问题,通过保证拉格朗日函数对偶性,可对目标函数求解的先后顺序进行调整,以简化整个计算过程,这也是SVM模型具有良好性能的原因。
具体地,语音平台接收到儿童声音的音频信息,通过建立的特定哭声识别模型对音频信息进行判别,如判别为哭声,通过网络通讯将判别信号传输至远端服务器。
语音平台已经建立了特定哭声识别模型,接收到网关设备传输的儿童声音的音频信息后,对该音频信息进行预处理,声纹特征提取,再将声纹特征输入到特定哭声识别模型中,进行声音类型判别,如判别声音类型为哭声,则输出代表哭声的判别信号通过网络通讯传输至远端服务器。
步骤S300:根据判别结果输出安抚儿童的控制指令;
远端服务器接收到了哭声的判别类型问题的信号,寻找对应问题的控制指令的解决方案,并将解决方案的控制指令输出到对应的执行机构中,并输出至远端服务器进行下一步操作。
具体地,远端服务器接收到判别信号,从数据库的声音类别信号表示列表中进行检索解析,解析出该判别信号对应的儿童声音类别,从数据库的控制指令列表中进行检索,检索出该儿童声音类别对应的安抚儿童控制指令,并将控制指令通过网络通讯传输至网关设备。
判别信号是一种能代表判别类型的电信号,远端服务器接收到儿童哭声的判别信号后,需要解析判别信号,从判别信号中提取儿童声音类别的信息,首先需从判别信号中提取信号中含有的电平和频率等信息,然后去数据库中的声音类别信号表示列表中进行检索,找到电平、频率所对应的儿童声音类别,解析出判别信号对应的儿童声音类别,知道了目前传输的需要解决的问题,就需要寻找解决问题的方案,本发明对应的方案为输出控制指令至执行机构,执行机构做相应的操作来解决问题,解决问题的方案中的控制指令可根据儿童声音类别信息从数据库的控制指令列表中进行检索,找到哭声所对应的安抚儿童的控制指令,并将控制指令通过网络通讯传输至网关设备。
步骤S400:执行安抚儿童的控制指令。
通过执行安抚儿童的控制指令,儿童座椅接收到了控制指令,执行控制指令进行安抚话语录音和音乐的播放,达到安抚儿童的效果。
具体地,网关设备接收到远端服务器传输的控制指令,通过蓝牙通讯将控制指令传输至儿童座椅,儿童座椅执行控制指令,播放存放于本地的自定义的安抚话语和音乐。
网关设备通过网络通讯接收到远端服务器传输的安抚儿童的控制指令,由于网关设备只是通讯设备,其不是执行设备,网关设备具有网络通讯和蓝牙通讯功能,网关设备接收到控制指令后,其通过蓝牙通讯将控制指令传输至蓝牙智能设备儿童座椅,儿童座椅执行控制指令,播放存放在本地存储空间的自定义的话语和音乐。
自定义的话语和音乐是家长针对自己小孩进行个性安抚的定制话语和特选音乐,家长为将自己安抚小孩的话语进行录音,选择好平时儿童喜欢听的音乐存于儿童座椅本地存储空间,和上传至远端服务器中进行存储,自定义的话语和音乐相较于常规、大众的安抚话语和音乐对自家小孩起到更快更好的安抚作用,小孩对家长的声音能更精准的识别,对常听的音乐更能引起注意。而常规的话语和音乐则为平台公司选择通用的话语和音乐存储在远端服务其中,远端服务器将话语和音乐连通控制指令一并传输至网关设备,网关设备再将话语和音乐连通控制指令一并传输至儿童座椅。
事先存储好自定义的话语和音乐是安抚儿童的执行基础,因此在步骤100之前还包括步骤S002:录入安抚儿童的自定义的话语和音乐,上传至远端服务器和存储于儿童座椅。如果想更快更好地安抚自己小孩的哭闹情绪,可将自己的话语和选择的音乐存储在儿童座椅本地存储空间中,此时步骤S002:录入安抚儿童的通用的话语和音乐,上传至远端服务器和存储于儿童座椅。
基于以上方式,本发明通过对儿童声音进行判别,如判别为哭声,则输出判别结果,对捕捉的儿童声音进行特征提取,通过哭声识别模型进行判别,如判别声音为哭声,触发输出指令,输出表示为儿童哭声的判别信号;根据判别结果输出安抚儿童的控制指令,接收到了判别类型问题的信号,寻找对应问题的控制指令的解决方案,并将解决方案的控制指令输出到对应的执行机构中;通过执行安抚儿童的控制指令,儿童座椅接收到了控制指令,执行控制指令进行安抚话语录音和音乐的播放,达到安抚儿童的效果。
相应地,本发明还提供一种基于哭声检测控制儿童座椅安抚儿童的***,参照图2,图2所示为本发明一个实施例提供的一种基于哭声检测控制儿童座椅安抚儿童的***的模块结构示意图,该***通过上面所讲述的一种基于哭声检测控制儿童座椅安抚儿童的方法控制儿童座椅对儿童进行安抚,***包括:捕捉模块,用于捕捉儿童声音;判别模块,对儿童声音进行判别;输出模块,用于将所述判别模块的判别结果进行输出,用于根据判别结果输出安抚儿童的控制指令;执行模块,用于执行安抚儿童的控制指令。
优选地,训练模块,用于对同一儿童哭声的音频信息进行训练,建立特定哭声识别模型;存储模块,用于存储安抚儿童的自定义的话语和音乐。
优选地,解析模块,用于对判别信号进行解析,解析出该判别信号对应的儿童声音类别;检索模块,用于检索出所述解析模块解析的儿童声音类别对应的安抚儿童控制指令。
在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本发明的实施例可以在没有这些具体细节的情况下实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。
类似地,应当理解,为了精简本公开并帮助理解各个发明方面中的一个或多个,在上面对本发明的示例性实施例的描述中,本发明的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该公开的方法解释成反映如下意图:即所要求保护的本发明要求比在每个权利要求中所明确记载的特征更多的特征。更确切地说,如下面的权利要求书所反映的那样,发明方面在于少于前面公开的单个实施例的所有特征。因此,遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本发明的单独实施例。
本领域那些技术人员可以理解,可以对实施例中的设备中的模块进行自适应性地改变并且把它们设置在与该实施例不同的一个或多个设备中。可以把实施例中的模块或单元或组件组合成一个模块或单元或组件,以及此外可以把它们分成多个子模块或子单元或子组件。除了这样的特征和/或过程或者单元中的至少一些是相互排斥之外,可以采用任何组合对本说明书(包括伴随的权利要求、摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权利要求、摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。
此外,本领域的技术人员能够理解,尽管在此的一些实施例包括其它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意味着处于本发明的范围之内并且形成不同的实施例。例如,在下面的权利要求书中,所要求保护的实施例的任意之一都可以以任意的组合方式来使用。
本发明的各个部件实施例可以以硬件实现,或者以在一个或者多个处理器上运行的软件模块实现,或者以它们的组合实现。本领域的技术人员应当理解,可以在实践中使用微处理器或者数字信号处理器(DSP)来实现根据本发明实施例中的一些或者全部部件的一些或者全部功能。本发明还可以实现为用于执行这里所描述的方法的一部分或者全部的设备或者装置程序(例如,计算机程序和计算机程序产品)。这样的实现本发明的程序可以存储在计算机可读介质上,或者可以具有一个或者多个信号的形式。这样的信号可以从因特网网站上下载得到,或者在载体信号上提供,或者以任何其他形式提供。
应该注意的是上述实施例对本发明进行说明而不是对本发明进行限制,并且本领域技术人员在不脱离所附权利要求的范围的情况下可设计出替换实施例。在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的元件或步骤。位于元件之前的单词“一”或“一个”不排除存在多个这样的元件。本发明可以借助于包括有若干不同元件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。

Claims (10)

1.一种基于哭声检测控制儿童座椅安抚儿童的方法,其特征在于,包括以下步骤:
步骤S100:捕捉儿童声音;
步骤S200:对儿童声音进行判别,如判别为哭声,则输出判别结果;
步骤S300:根据判别结果输出安抚儿童的控制指令;
步骤S400:执行安抚儿童的控制指令。
2.如权利要求1所述的基于哭声检测控制儿童座椅安抚儿童的方法,其特征在于,在所述步骤S100之前还包括:
步骤S001:录入大量不同儿童哭声的音频信息,进行训练,建立哭声识别模型;
步骤S002:录入安抚儿童的通用的话语和音乐,上传至远端服务器和存储于儿童座椅。
3.如权利要求1所述的基于哭声检测控制儿童座椅安抚儿童的方法,其特征在于,
步骤S001:录入大量同一儿童哭声的音频信息,进行训练,建立特定哭声识别模型;
步骤S002:录入安抚儿童的自定义的话语和音乐,上传至远端服务器和存储于儿童座椅。
4.如权利要求3所述的基于哭声检测控制儿童座椅安抚儿童的方法,其特征在于,所述步骤S200包括:
语音平台接收到儿童声音的音频信息,通过建立的特定哭声识别模型对音频信息进行判别,如判别为哭声,通过网络通讯将判别信号传输至远端服务器。
5.如权利要求4所述的基于哭声检测控制儿童座椅安抚儿童的方法,其特征在于,所述步骤S300包括:
远端服务器接收到判别信号,从数据库的声音类别信号表示列表中进行检索解析,解析出该判别信号对应的儿童声音类别,从数据库的控制指令列表中进行检索,检索出该儿童声音类别对应的安抚儿童控制指令,并将控制指令通过网络通讯传输至网关设备。
6.如权利要求5所述的基于哭声检测控制儿童座椅安抚儿童的方法,其特征在于,所述步骤S400包括:
网关设备接收到远端服务器传输的控制指令,通过蓝牙通讯将控制指令传输至儿童座椅,儿童座椅执行控制指令,播放存放于本地的自定义的安抚话语和音乐。
7.如权利要求3所述的基于哭声检测控制儿童座椅安抚儿童的方法,其特征在于,
在所述步骤S001中,儿童声音的音频信息进行训练之前,需进行预处理进行特征参数提取,预处理流程包括采样量化、预加重、分帧、加窗、端点检测环节。
8.一种基于哭声检测控制儿童座椅安抚儿童的***,其特征在于,包括:
捕捉模块,用于捕捉儿童声音;
判别模块,对儿童声音进行判别;
输出模块,用于将所述判别模块的判别结果进行输出,用于根据判别结果输出安抚儿童的控制指令;
执行模块,用于执行安抚儿童的控制指令。
9.如权利要求8所述的基于哭声检测控制儿童座椅安抚儿童的***,其特征在于,还包括:
训练模块,用于对同一儿童哭声的音频信息进行训练,建立特定哭声识别模型;
存储模块,用于存储安抚儿童的自定义的话语和音乐。
10.如权利要求9所述的基于哭声检测控制儿童座椅安抚儿童的***,其特征在于,还包括:
解析模块,用于对判别信号进行解析,解析出该判别信号对应的儿童声音类别;
检索模块,用于检索出所述解析模块解析的儿童声音类别对应的安抚儿童控制指令。
CN202211030053.9A 2022-08-25 2022-08-25 一种基于哭声检测控制儿童座椅安抚儿童的方法和*** Pending CN116564299A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211030053.9A CN116564299A (zh) 2022-08-25 2022-08-25 一种基于哭声检测控制儿童座椅安抚儿童的方法和***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211030053.9A CN116564299A (zh) 2022-08-25 2022-08-25 一种基于哭声检测控制儿童座椅安抚儿童的方法和***

Publications (1)

Publication Number Publication Date
CN116564299A true CN116564299A (zh) 2023-08-08

Family

ID=87488586

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211030053.9A Pending CN116564299A (zh) 2022-08-25 2022-08-25 一种基于哭声检测控制儿童座椅安抚儿童的方法和***

Country Status (1)

Country Link
CN (1) CN116564299A (zh)

Similar Documents

Publication Publication Date Title
Cai et al. Sensor network for the monitoring of ecosystem: Bird species recognition
EP1252621B1 (en) System and method for modifying speech signals
Aloufi et al. Emotionless: Privacy-preserving speech analysis for voice assistants
Venter et al. Automatic detection of African elephant (Loxodonta africana) infrasonic vocalisations from recordings
CN110880328B (zh) 到站提醒方法、装置、终端及存储介质
WO2019119279A1 (en) Method and apparatus for emotion recognition from speech
CN112382301B (zh) 基于轻量级神经网络的含噪语音性别识别方法及***
AU2009295251B2 (en) Method of analysing an audio signal
CN112562681A (zh) 语音识别方法和装置、存储介质
CN117373431A (zh) 音频合成方法、训练方法、装置、设备及存储介质
JP6993376B2 (ja) 音声合成装置、方法及びプログラム
EP3915007A1 (en) Systems and methods for pre-filtering audio content based on prominence of frequency content
Jagadeeshwar et al. ASERNet: Automatic speech emotion recognition system using MFCC-based LPC approach with deep learning CNN
Jain et al. Investigation Using MLP-SVM-PCA Classifiers on Speech Emotion Recognition
Chen et al. CITISEN: A Deep Learning-Based Speech Signal-Processing Mobile Application
CN116564299A (zh) 一种基于哭声检测控制儿童座椅安抚儿童的方法和***
CN116312640A (zh) 一种自适应环境声音情感识别方法及装置
Omar et al. Feature fusion techniques based training MLP for speaker identification system
Park et al. Analysis of confidence and control through voice of Kim Jung-un
CN116013371A (zh) 一种神经退行性疾病监测方法、***、装置及存储介质
Razak et al. Towards automatic recognition of emotion in speech
Camarena-Ibarrola et al. Speaker identification using entropygrams and convolutional neural networks
CN115132204B (zh) 一种语音处理方法、设备、存储介质及计算机程序产品
CN117095674B (zh) 智能门窗的交互控制方法及***
CN114333874B (zh) 处理音频信号的方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination