CN116614757B - 一种基于深度学习的助听器验配方法及*** - Google Patents
一种基于深度学习的助听器验配方法及*** Download PDFInfo
- Publication number
- CN116614757B CN116614757B CN202310879682.7A CN202310879682A CN116614757B CN 116614757 B CN116614757 B CN 116614757B CN 202310879682 A CN202310879682 A CN 202310879682A CN 116614757 B CN116614757 B CN 116614757B
- Authority
- CN
- China
- Prior art keywords
- data
- verification
- parameter
- fitting
- hearing aid
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013135 deep learning Methods 0.000 title claims abstract description 43
- 238000000034 method Methods 0.000 title claims abstract description 40
- 238000012360 testing method Methods 0.000 claims abstract description 49
- 238000013145 classification model Methods 0.000 claims abstract description 14
- 238000012795 verification Methods 0.000 claims description 157
- 238000012549 training Methods 0.000 claims description 114
- 238000013528 artificial neural network Methods 0.000 claims description 18
- 238000005303 weighing Methods 0.000 claims description 14
- 238000004590 computer program Methods 0.000 claims description 6
- 238000012216 screening Methods 0.000 claims description 3
- 238000003860 storage Methods 0.000 claims description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 208000032041 Hearing impaired Diseases 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 208000016354 hearing loss disease Diseases 0.000 description 2
- 238000012074 hearing test Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 210000003454 tympanic membrane Anatomy 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000012076 audiometry Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 210000000613 ear canal Anatomy 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000011065 in-situ storage Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R25/00—Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
- H04R25/50—Customised settings for obtaining desired overall acoustical characteristics
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2225/00—Details of deaf aids covered by H04R25/00, not provided for in any of its subgroups
- H04R2225/43—Signal processing in hearing aids to enhance the speech intelligibility
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Neurosurgery (AREA)
- Otolaryngology (AREA)
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明公开了一种基于深度学习的助听器验配方法及***,方法包括:采集助听器用户的验配数据,验配数据至少包括听觉数据、生理数据以及社会数据;将听觉数据、生理数据以及社会数据输入至预训练的分类模型当中,以确定验配数据的直接关键因子数据以及间接关键因子数据;将直接关键因子数据输入至预训练的验配参数确定模型当中、间接关键因子数据输入至预训练的验配参数权衡值确定模型当中,以确定对应的初始配置参数和验配参数权衡值;根据初始配置参数和验配参数权衡值确定目标配置参数,并在助听器用户需要进行助听器配置时,通过目标配置参数对助听器进行配置。本发明解决了现有技术中在进行助听器的参数的配置时效率低下的问题。
Description
技术领域
本发明涉及助听器技术领域,特别涉及一种基于深度学习的助听器验配方法及***。
背景技术
普及助听器帮助听障、听损人群势在必行。助听器/辅听器的良好效果很大程度上取决于前期准确的测听与验配,一直以来都是在听力诊所或者助听器商店由专业人员采用专业设备手动按逐一步骤进行,费时费力。
得益于高算力芯片和通讯网络等基础设施的飞速发展,人工智能深度学习技术近年来得到巨大的发展和广泛的应用。其利用初期喂养及不断注入的大数据,不断迭代优化黑盒子神经网络模型,在很多具体的数据业务场景中都可以有效输出大概率准确的预测计算结果。
对于广大听障、听损患者而言,如果能有一种基于大数据和深度学习的助听器云端验配***,帮助快速计算预测每一名具体患者的初始助听器验配参数,不但有助于线上远程验配提升效率和便捷性、有效性和准确度,即使对于线下的助听验配师在现场面对面验配的过程也可以大大提升工作效率、降低成本,从而帮助广大患者更经济实惠、更快速便捷的获得验配成功、辅助听觉的助听器设备。
发明内容
有鉴于此,本发明的目的在于提供一种基于深度学习的助听器验配方法及***,旨在解决现有技术中在进行助听器验配时效率低下的问题。
本发明是这样实现的:
一种基于深度学习的助听器验配方法,所述方法包括:
采集助听器用户的验配数据,所述验配数据至少包括听觉数据、生理数据以及社会数据;
将所述听觉数据、生理数据以及社会数据输入至预训练的分类模型当中,以确定所述验配数据的直接关键因子数据以及间接关键因子数据;
将所述直接关键因子数据输入至预训练的验配参数确定模型当中、所述间接关键因子数据输入至预训练的验配参数权衡值确定模型当中,以确定对应的初始配置参数和验配参数权衡值;
根据所述初始配置参数和验配参数权衡值确定目标配置参数,并在所述助听器用户需要进行助听器配置时,通过所述目标配置参数对所述助听器进行配置。
进一步的,上述基于深度学习的助听器验配方法,其中,所述将所述直接关键因子数据输入至预训练的验配参数确定模型当中、所述间接关键因子数据输入至预训练的验配参数权衡值确定模型当中,以确定对应的初始配置参数和验配参数权衡值的步骤之前还包括:
采集预设数量的助听器用户历史直接关键因子数据以及对应的历史目标配置参数作为验配参数确定模型的训练数据集;
将验配参数确定模型的训练数据集输入至第一预设神经网络当中进行深度学习训练以得到验配参数确定模型;
采集预设数量的助听器用户历史间接关键因子数据以及对应的历史验配参数权衡值作为验配参数权衡值确定模型的训练数据集;
将验配参数权衡值确定模型的训练数据集输入至第二预设神经网络当中进行深度学习训练以得到验配参数权衡值确定模型。
进一步的,上述基于深度学习的助听器验配方法,其中,所述将验配参数确定模型的训练数据集输入至第一预设神经网络当中进行深度学习训练以得到验配参数确定模型步骤之后还包括:
按预设规则从验配参数确定模型的训练数据集中提取出验配参数确定模型的验证集;
利用所述验证集对训练好的验配参数确定模型进行验证测试,以至验配参数确定模型的模型参数趋于稳定。
进一步的,上述基于深度学习的助听器验配方法,其中,所述按预设规则从验配参数确定模型的训练数据集中提取出验配参数确定模型的验证集的步骤包括:
按预设比例从验配参数确定模型的训练数据集中提取出验配参数确定模型的验证集;或将验配参数确定模型的训练数据集划分成K份,将其中的K-1份作为所述训练数据集的训练集,剩余一份作为所述验证集。
进一步的,上述基于深度学习的助听器验配方法,其中,按预设规则从验配参数确定模型的训练数据集中提取出验配参数确定模型的验证集的步骤还包括:
按预设比例从所述训练数据集中提取出所述验证集,并确定所述验证集的份数A;
将剩余的所述训练数据集划分成K份,将其中的K/A份作为训练集,剩余的A份分别作为所述验证集。
进一步的,上述基于深度学习的助听器验配方法,其中,所述将剩余的所述训练数据集划分成K份,将其中的K/A份作为训练集,剩余的A份分别作为所述验证集的步骤之后还包括:
分别以每个所述验证集对所述训练集循环K/A次训练,确定每次训练后的验证结果;
根据所有所述验证结果的平均值,确定所述验证集的最终的验证测试结果。
进一步的,上述基于深度学习的助听器验配方法,其中,所述将所述听觉数据、生理数据以及社会数据输入至预训练的分类模型当中,以确定所述验配数据的直接关键因子数据以及间接关键因子数据的步骤之前还包括:
获取数据审核员针对所述验配数据进行审核的审核结果,根据所述审核结果对所述验配数据进行保留或去除。
本发明的另一个目的在于提供一种基于深度学习的助听器验配***,所述***包括:
采集模块,用于采集助听器用户的验配数据,所述验配数据至少包括听觉数据、生理数据以及社会数据;
筛选模块,用于将所述听觉数据、生理数据以及社会数据输入至预训练的分类模型当中,以确定所述验配数据的直接关键因子数据以及间接关键因子数据;
确定模块,用于将所述直接关键因子数据输入至预训练的验配参数确定模型当中、所述间接关键因子数据输入至预训练的验配参数权衡值确定模型当中,以确定对应的初始配置参数和验配参数权衡值;
配置模块,用于根据所述初始配置参数和验配参数权衡值确定目标配置参数,并在所述助听器用户需要进行助听器配置时,通过所述目标配置参数对所述助听器进行配置。
本发明的另一个目的在于提供一种可读存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如上述任意一项所述的方法的步骤。
本发明的另一个目的在于提供一种电子设备,包括存储器、处理器以及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述任一所述的方法的步骤。
本发明通过采集助听器用户的验配数据,验配数据至少包括听觉数据、生理数据以及社会数据;将听觉数据、生理数据以及社会数据输入至预训练的分类模型当中,以确定验配数据的直接关键因子数据以及间接关键因子数据;将直接关键因子数据输入至预训练的验配参数确定模型当中、间接关键因子数据输入至预训练的验配参数权衡值确定模型当中,以确定对应的初始配置参数和验配参数权衡值;验配参数以及验配参数权衡值确定模型掌握了验配参数以及验配参数权衡值的生成逻辑规律,从而可以快速的确定验配参数以及验配参数权衡值,根据初始配置参数和验配参数权衡值确定目标配置参数,并在助听器用户需要进行助听器配置时,通过目标配置参数对助听器进行配置,提升了助听器验配的效率。解决了现有技术中在进行助听器参数验配时效率低的问题。
附图说明
图1为本发明第一实施例中基于深度学习的助听器验配方法的流程图;
图2为本发明第二实施例中基于深度学习的助听器验配***的结构框图。
如下具体实施方式将结合上述附图进一步说明本发明。
具体实施方式
为了便于理解本发明,下面将参照相关附图对本发明进行更全面的描述。附图中给出了本发明的若干实施例。但是,本发明可以以许多不同的形式来实现,并不限于本文所描述的实施例。相反地,提供这些实施例的目的是使对本发明的公开内容更加透彻全面。
需要说明的是,当元件被称为“固设于”另一个元件,它可以直接在另一个元件上或者也可以存在居中的元件。当一个元件被认为是“连接”另一个元件,它可以是直接连接到另一个元件或者可能同时存在居中元件。本文所使用的术语“垂直的”、“水平的”、“左”、“右”以及类似的表述只是为了说明的目的。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本文中在本发明的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本发明。本文所使用的术语“及/或”包括一个或多个相关的所列类型的任意的和所有的组合。
以下将结合具体实施例和附图来详细说明如何提升助听器参数的验配的效率。
实施例一
请参阅图1,所示为本发明第一实施例中的基于深度学习的助听器验配方法,所述方法包括步骤S10~S13。
步骤S10,采集助听器用户的验配数据,所述验配数据至少包括听觉数据、生理数据以及社会数据。
具体的,听觉数据至少包括听力测试结果、耳道及鼓膜检测结果,直接反映了用户的当前听力能力,生理数据至少包括年龄、身高以及是否含有重大病史,社会数据至少包括居住地、职业以及常去的场所类型,反映了用户的听觉习惯以及所处的听力环境,例如是否安静或嘈杂,而听觉数据、生理数据以及社会数据均是可以影响用户验配的因子。
另外,在本发明一些可选的实施例当中,为了进一步保证训练模型的训练效果,可以通过审核员对验配数据进行审核,根据审核结果对验配数据进行保留或去除,例如,对差异较大的特殊的验配数据可以进行去除,避免较大的差异特征造成模型训练的不精确。
步骤S11,将所述听觉数据、生理数据以及社会数据输入至预训练的分类模型当中,以确定所述验配数据的直接关键因子数据以及间接关键因子数据。
具体的,可以从听觉数据、生理数据以及社会数据中筛选出直接影响参数配置的直接关键因子数据,例如,听力测试结果以及鼓膜检测结果,直接表征用户当前听力能力的因子,其会直接影响助听器的参数配置,并可以筛选出间接影响参数配置的间接关键因子数据,例如,是否含有重大病史、年龄、职业以及每天所处的环境等,会间接的对参数配置有影响,例如,相同的当前听力能力的情况下,在不同环境的下配置不同的参数,以适应当前的环境特性。
其中,在本发明一些可选的实施例当中,分类模型的训练过程可以为:
采集预设数量的听觉数据、生理数据以及社会数据分别输入至预设的神经网络当中进行深度学习训练以得到该分类模型。其中,根据现有的听觉数据、生理数据以及社会数据及对应的已经分过类的数据集进行深度学习训练得到分类模型,具体的,预设的神经网络训练算法可以为朴素贝叶斯、决策树以及K近邻等。
步骤S12,将所述直接关键因子数据输入至预训练的验配参数确定模型当中、所述间接关键因子数据输入至预训练的验配参数权衡值确定模型当中,以确定对应的初始配置参数和验配参数权衡值。
其中,在得到直接关键因子数据后可以输入至预训练的验配参数确定模型当中得到初始配置参数,后将得到的间接关键因子数据输入至预训练的验配参数权衡值确定模型当中获取验配参数权衡值,初始配置参数主要用于助听器配置参数的基准,具体的,初始配置参数至少包括降噪参数、麦克风的阵列参数、听力补偿参数以及降频参数,而验配参数权衡值用于对上述的参数进行权衡,例如增大或减小。
具体的,在本发明一些可选的实施例当中,验配参数确定模型的训练过程可以为:采集预设数量的助听器用户历史直接关键因子数据以及对应的历史目标配置参数作为验配参数确定模型的训练数据集;
将验配参数确定模型的训练数据集输入至第一预设神经网络当中进行深度学习训练以得到验配参数确定模型。
其中,第一预设神经网络可以采用BP人工神经网络。
验配参数权衡值确定模型的训练过程可以为:
采集预设数量的助听器用户历史间接关键因子数据以及对应的历史验配参数权衡值作为验配参数权衡值确定模型的训练数据集;
将验配参数权衡值确定模型的训练数据集输入至第二预设神经网络当中进行深度学习训练以得到验配参数权衡值确定模型。
其中,历史数据的获取可以在用户在购买了配套助听器产品后,有三种渠道的验配方式可选择:线下(含ENT医生引导)/线上/自验配,任一种的情况下都可以作为一组对应的训练数据集,具体的,第二预设神经网络可以采用卷积神经网络(CNN)。
另外,为了保证验配参数确定模型的准确性,在本发明一些可选的实施例当中,所述将验配参数确定模型的训练数据集输入至第一预设神经网络当中进行深度学习训练以得到验配参数确定模型步骤之后还包括:
按预设规则从验配参数确定模型的训练数据集中提取出验配参数确定模型的验证集;
利用所述验证集对训练好的验配参数确定模型进行验证测试,以至验配参数确定模型的模型参数趋于稳定。
其中,在神经网络深度学习的过程中,利用提取出的验证集对预设神经网络进行验证测试,对模型进行调参,以保证训练出的验配参数确定模型更加精确。
具体的,作为本发明实施例按所述按预设规则从验配参数确定模型的训练数据集中提取出验配参数确定模型的验证集中的一种实施方式,可以按如下方式对验证数据集进行提取:
按预设比例从验配参数确定模型的训练数据集中提取出验配参数确定模型的验证集。
其中,将采集到的历史的训练数据集从中按比例提取出用于验证的验证数据集,具体的,预设比例可以为10%、15%以及20%等。
作为本发明实施例按预设规则从所述训练数据集中提取出验证数据集中的另一种实施方式,可以按如下方式对验证数据集进行提取:
将验配参数确定模型的训练数据集划分成K份,将其中的K-1份作为所述训练数据集的训练集,剩余一份作为所述验证集。
其中,可以采用训练数据集划分成K份,将其中的K-1份作为最终训练集,剩余一份作为验证数据集,循环K次训练,从而实现验证集的交叉验证。
作为本发明实施例按预设规则从所述训练数据集中提取出验证数据集中的另一种实施方式,可以按如下方式对验证数据集进行提取:
按预设比例从所述训练数据集中提取出所述验证集,并确定所述验证集的份数A;
将剩余的所述训练数据集划分成K份,将其中的K/A份作为训练集,剩余的A份分别作为所述验证集。
其中,先按预设比例从训练数据集中提取出部分的作为验证集,并确定验证集的份数A,剩余的训练数据集作为训练集,将K份训练集分别以A均分为多个数据集,并分别以均分后的训练集对应的与A份验证集进行训练后,根据每一份的验证集的验证测试结果的平均验证测试来确定模型是否训练完成。
另外,在本发明一些可选的实施例当中,所述将剩余的所述训练数据集划分成K份,将其中的K/A份作为训练集,剩余的A份分别作为验证集的步骤之后还包括:
分别以每个所述验证集对所述训练集循环K/A次训练,确定每次训练后的验证结果;
根据所有所述验证结果的平均值,确定所述验证集的最终的验证测试结果。
具体的,对于每一个模型Mi,算法执行k次,每次选择一个A份中的其中一份作为验证集,而K/A份作为训练集来训练模型Mi,把训练得到的模型在A份中的其中一份上进行测试,这样一来,每次都会得到一个误差E,最后对多次得到的误差求平均,就可以得到模型Mi的泛化误差。算法选择具有最小泛化误差的模型作为最终模型,并且在整个训练集上再次训练该模型,从而得到最终的模型。
步骤S13,根据所述初始配置参数和验配参数权衡值确定目标配置参数,并在所述助听器用户需要进行助听器配置时,通过所述目标配置参数对所述助听器进行配置。
其中,在确定初始配置参数和验配参数权衡值后,可以通过验配参数权衡值对初始配置参数进行权衡,以确定最终的目标验配参数,在用户需要进行助听器配置时,可以通过将助听器配置参数以存储的形式存储至助听器内,以对助听器的参数进行配置。
综上,本发明上述实施例中的基于深度学习的助听器验配方法,通过采集助听器用户的验配数据,验配数据至少包括听觉数据、生理数据以及社会数据;将听觉数据、生理数据以及社会数据输入至预训练的分类模型当中,以确定验配数据的直接关键因子数据以及间接关键因子数据;将直接关键因子数据输入至预训练的验配参数确定模型当中、间接关键因子数据输入至预训练的验配参数权衡值确定模型当中,以确定对应的初始配置参数和验配参数权衡值;验配参数以及验配参数权衡值确定模型掌握了验配参数以及验配参数权衡值的生成逻辑规律,从而可以快速的确定验配参数以及验配参数权衡值,根据初始配置参数和验配参数权衡值确定目标配置参数,并在助听器用户需要进行助听器配置时,通过目标配置参数对助听器进行配置,提升了助听器验配的效率。解决了现有技术中在进行助听器参数验配时效率低的问题。
实施例二
请参阅图2,所示为本发明第二实施例中提出的基于深度学习的助听器验配***,所述***包括:
采集模块100,用于采集助听器用户的验配数据,所述验配数据至少包括听觉数据、生理数据以及社会数据;
筛选模块200,用于将所述听觉数据、生理数据以及社会数据输入至预训练的分类模型当中,以确定所述验配数据的直接关键因子数据以及间接关键因子数据;
确定模块300,用于将所述直接关键因子数据输入至预训练的验配参数确定模型当中、所述间接关键因子数据输入至预训练的验配参数权衡值确定模型当中,以确定对应的初始配置参数和验配参数权衡值。
配置模块400,用于根据所述初始配置参数和验配参数权衡值确定目标配置参数,并在所述助听器用户需要进行助听器配置时,通过所述目标配置参数对所述助听器进行配置。
进一步地,在本发明一些可选的实施例当中,其中,所述***还包括:
第一获取模块,用于采集预设数量的助听器用户历史直接关键因子数据以及对应的历史目标配置参数作为验配参数确定模型的训练数据集;
第一训练模块,用于将验配参数确定模型的训练数据集输入至第一预设神经网络当中进行深度学习训练以得到验配参数确定模型;
第二获取模块,用于采集预设数量的助听器用户历史间接关键因子数据以及对应的历史验配参数权衡值作为验配参数权衡值确定模型的训练数据集;
第二训练模块,用于将验配参数权衡值确定模型的训练数据集输入至第二预设神经网络当中进行深度学习训练以得到验配参数权衡值确定模型。
进一步的,上述基于深度学习的助听器验配***,其中,所述***还包括:
验证集确定模块,用于按预设规则从验配参数确定模型的训练数据集中提取出验配参数确定模型的验证集;
验证测试模块,用于利用所述验证集对训练好的验配参数确定模型进行验证测试,以至验配参数确定模型的模型参数趋于稳定。
进一步的,上述基于深度学习的助听器验配***,其中,所述验证集确定模块包括:
第一提取单元,用于按预设比例从验配参数确定模型的训练数据集中提取出验配参数确定模型的验证集;或将验配参数确定模型的训练数据集划分成K份,将其中的K-1份作为所述训练数据集的训练集,剩余一份作为所述验证集。
进一步的,上述基于深度学习的助听器验配***,其中,所述验证集确定模块还包括:
第二提取单元,用于按预设比例从所述训练数据集中提取出所述验证集,并确定所述验证集的份数A;
将剩余的所述训练数据集划分成K份,将其中的K/A份作为训练集,剩余的A份分别作为所述验证集。
进一步的,上述基于深度学习的助听器验配***,其中,所述验证集确定模块还包括:
循环训练单元,用于分别以每个所述验证集对所述训练集循环K/A次训练,确定每次训练后的验证结果;
根据所有所述验证结果的平均值,确定所述验证集的最终的验证测试结果。
进一步地,在本发明一些可选的实施例当中,其中,所述***还包括:
去除模块,用于获取数据审核员针对所述验配数据进行审核的审核结果,根据所述审核结果对所述验配数据进行保留或去除。
实施例三
本发明另一方面还提供一种可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现上述实施例一中所述的方法的步骤。
实施例四
本发明另一方面还提供一种电子设备,所述电子设备包括存储器、处理器以及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述实施例一中所述的方法的步骤。
以上各个实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
本领域技术人员可以理解,在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行***、装置或设备(如基于计算机的***、包括处理器的***或其他可以从指令执行***、装置或设备取指令并执行指令的***)使用,或结合这些指令执行***、装置或设备而使用。就本说明书而言,“计算机可读介质”可以是任何可以包含、存储、通信、传播或传输程序以供指令执行***、装置或设备或结合这些指令执行***、装置或设备而使用的装置。
计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行***执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或它们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、 “示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
Claims (8)
1.一种基于深度学习的助听器验配方法,其特征在于,所述方法包括:
采集助听器用户的验配数据,所述验配数据至少包括听觉数据、生理数据以及社会数据;
将所述听觉数据、生理数据以及社会数据输入至预训练的分类模型当中,以确定所述验配数据的直接关键因子数据以及间接关键因子数据;
将所述直接关键因子数据输入至预训练的验配参数确定模型当中、所述间接关键因子数据输入至预训练的验配参数权衡值确定模型当中,以确定对应的初始配置参数和验配参数权衡值;
根据所述初始配置参数和验配参数权衡值确定目标配置参数,并在所述助听器用户需要进行助听器配置时,通过所述目标配置参数对所述助听器进行配置;
所述将所述直接关键因子数据输入至预训练的验配参数确定模型当中、所述间接关键因子数据输入至预训练的验配参数权衡值确定模型当中,以确定对应的初始配置参数和验配参数权衡值的步骤之前还包括:
采集预设数量的助听器用户历史直接关键因子数据以及对应的历史目标配置参数作为验配参数确定模型的训练数据集;
将验配参数确定模型的训练数据集输入至第一预设神经网络当中进行深度学习训练以得到验配参数确定模型;
采集预设数量的助听器用户历史间接关键因子数据以及对应的历史验配参数权衡值作为验配参数权衡值确定模型的训练数据集;
将验配参数权衡值确定模型的训练数据集输入至第二预设神经网络当中进行深度学习训练以得到验配参数权衡值确定模型;
其中,所述初始配置参数用于助听器配置参数的基准,所述验配参数权衡值用于对所述初始配置参数进行权衡,所述社会数据至少包括所述用户的居住地、职业以及常去的场所类型,反映了所述用户的听觉习惯以及所处的听力环境。
2.根据权利要求1所述的基于深度学习的助听器验配方法,其特征在于,所述将验配参数确定模型的训练数据集输入至第一预设神经网络当中进行深度学习训练以得到验配参数确定模型步骤之后还包括:
按预设规则从验配参数确定模型的训练数据集中提取出验配参数确定模型的验证集;
利用所述验证集对训练好的验配参数确定模型进行验证测试,以至验配参数确定模型的模型参数趋于稳定。
3.根据权利要求2所述的基于深度学习的助听器验配方法,其特征在于,所述按预设规则从验配参数确定模型的训练数据集中提取出验配参数确定模型的验证集的步骤包括:
按预设比例从验配参数确定模型的训练数据集中提取出验配参数确定模型的验证集;
其中,将验配参数确定模型的训练数据集划分成K份,将其中的K-1份作为所述训练数据集的训练集,剩余一份作为所述验证集;或按预设比例从所述训练数据集中提取出所述验证集,并确定所述验证集的份数A;
将剩余的所述训练数据集划分成K份,将其中的K/A份作为训练集,剩余的A份分别作为所述验证集。
4.根据权利要求3所述的基于深度学习的助听器验配方法,其特征在于,所述将剩余的所述训练数据集划分成K份,将其中的K/A份作为训练集,剩余的A份分别作为所述验证集的步骤之后还包括:
分别以每个所述验证集对所述训练集循环K/A次训练,确定每次训练后的验证结果;
根据所有所述验证结果的平均值,确定所述验证集的最终的验证测试结果。
5.根据权利要求1至4中任一项所述的基于深度学习的助听器验配方法,其特征在于,所述将所述听觉数据、生理数据以及社会数据输入至预训练的分类模型当中,以确定所述验配数据的直接关键因子数据以及间接关键因子数据的步骤之前还包括:
获取数据审核员针对所述验配数据进行审核的审核结果,根据所述审核结果对所述验配数据进行保留或去除。
6.一种基于深度学习的助听器验配***,其特征在于,用于实现权利要求1至5中任一项所述的基于深度学习的助听器验配方法,所述***包括:
采集模块,用于采集助听器用户的验配数据,所述验配数据至少包括听觉数据、生理数据以及社会数据;
筛选模块,用于将所述听觉数据、生理数据以及社会数据输入至预训练的分类模型当中,以确定所述验配数据的直接关键因子数据以及间接关键因子数据;
确定模块,用于将所述直接关键因子数据输入至预训练的验配参数确定模型当中、所述间接关键因子数据输入至预训练的验配参数权衡值确定模型当中,以确定对应的初始配置参数和验配参数权衡值;
配置模块,用于根据所述初始配置参数和验配参数权衡值确定目标配置参数,并在所述助听器用户需要进行助听器配置时,通过所述目标配置参数对所述助听器进行配置。
7.一种可读存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求1至5中任意一项所述的方法的步骤。
8.一种电子设备,其特征在于,包括存储器、处理器以及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如权利要求1至5任一所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310879682.7A CN116614757B (zh) | 2023-07-18 | 2023-07-18 | 一种基于深度学习的助听器验配方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310879682.7A CN116614757B (zh) | 2023-07-18 | 2023-07-18 | 一种基于深度学习的助听器验配方法及*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116614757A CN116614757A (zh) | 2023-08-18 |
CN116614757B true CN116614757B (zh) | 2023-09-26 |
Family
ID=87683914
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310879682.7A Active CN116614757B (zh) | 2023-07-18 | 2023-07-18 | 一种基于深度学习的助听器验配方法及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116614757B (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104038879A (zh) * | 2014-06-12 | 2014-09-10 | 深圳市微纳集成电路与***应用研究院 | 一种助听器验配***和方法 |
CN106714062A (zh) * | 2016-11-30 | 2017-05-24 | 天津大学 | 一种基于bp人工神经网络的数字助听器智能验配算法 |
CN112383870A (zh) * | 2020-10-29 | 2021-02-19 | 惠州市锦好医疗科技股份有限公司 | 自适应听力参数验配方法、装置 |
CN114125680A (zh) * | 2021-12-18 | 2022-03-01 | 清华大学 | 一种面向可变环境的助听器验配*** |
WO2022106870A1 (en) * | 2020-11-20 | 2022-05-27 | Advanced Bionics Ag | Hearing outcome prediction estimator |
CN114938487A (zh) * | 2022-05-13 | 2022-08-23 | 东南大学 | 基于声场景判别的助听器自验配方法 |
CN115150729A (zh) * | 2021-03-31 | 2022-10-04 | 奥迪康有限公司 | 听力装置的验配方法和*** |
CN115955643A (zh) * | 2023-02-15 | 2023-04-11 | 厦门睿聆听力科技有限公司 | 一种助听器验配方法、装置、设备、介质及程序产品 |
CN116390013A (zh) * | 2023-04-13 | 2023-07-04 | 杭州爱听科技有限公司 | 一种基于神经网络深度学习的助听器自验配的方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20230039728A1 (en) * | 2019-12-31 | 2023-02-09 | Starkey Laboratories, Inc. | Hearing assistance device model prediction |
CN114372569A (zh) * | 2020-10-14 | 2022-04-19 | 新智数字科技有限公司 | 数据测量方法、装置、电子设备和计算机可读介质 |
US12033656B2 (en) * | 2021-06-19 | 2024-07-09 | Kyndryl, Inc. | Diarisation augmented reality aide |
-
2023
- 2023-07-18 CN CN202310879682.7A patent/CN116614757B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104038879A (zh) * | 2014-06-12 | 2014-09-10 | 深圳市微纳集成电路与***应用研究院 | 一种助听器验配***和方法 |
CN106714062A (zh) * | 2016-11-30 | 2017-05-24 | 天津大学 | 一种基于bp人工神经网络的数字助听器智能验配算法 |
CN112383870A (zh) * | 2020-10-29 | 2021-02-19 | 惠州市锦好医疗科技股份有限公司 | 自适应听力参数验配方法、装置 |
WO2022106870A1 (en) * | 2020-11-20 | 2022-05-27 | Advanced Bionics Ag | Hearing outcome prediction estimator |
CN115150729A (zh) * | 2021-03-31 | 2022-10-04 | 奥迪康有限公司 | 听力装置的验配方法和*** |
CN114125680A (zh) * | 2021-12-18 | 2022-03-01 | 清华大学 | 一种面向可变环境的助听器验配*** |
CN114938487A (zh) * | 2022-05-13 | 2022-08-23 | 东南大学 | 基于声场景判别的助听器自验配方法 |
CN115955643A (zh) * | 2023-02-15 | 2023-04-11 | 厦门睿聆听力科技有限公司 | 一种助听器验配方法、装置、设备、介质及程序产品 |
CN116390013A (zh) * | 2023-04-13 | 2023-07-04 | 杭州爱听科技有限公司 | 一种基于神经网络深度学习的助听器自验配的方法 |
Non-Patent Citations (3)
Title |
---|
The application design of hearing aid parameters auto adaptive system for hearing impaired children based on android terminal;Xiaoqian Fan 等;《2020 International Conference on Information Science and Education (ICISE-IE)》;全文 * |
基于卷积神经网络迁移学习的飞机目标识别;杨予昊;孙晶明;虞盛康;;现代雷达(第12期);全文 * |
基于深度学习方法的突发性聋预后分类研究;冰丹;应俊;兰兰;关静;谢林怡;赵立东;王大勇;王秋菊;;临床耳鼻咽喉头颈外科杂志(第15期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN116614757A (zh) | 2023-08-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108615071B (zh) | 模型测试的方法及装置 | |
CN107679507A (zh) | 面部毛孔检测***及方法 | |
CN109815965B (zh) | 一种图像过滤方法、装置及存储介质 | |
CN111862951B (zh) | 语音端点检测方法及装置、存储介质、电子设备 | |
CN111584065B (zh) | 噪声性听力损失预测及易感人群筛选方法、装置、终端和介质 | |
CN109817222B (zh) | 一种年龄识别方法、装置及终端设备 | |
CN113295702B (zh) | 电气设备故障诊断模型训练方法和电气设备故障诊断方法 | |
CN109982637A (zh) | 利用未参考的音频***精确地估计纯音阈值的方法 | |
CN112489029B (zh) | 一种基于卷积神经网络的医学图像分割方法及装置 | |
CN111862020A (zh) | 一种眼前节生理年龄预测方法、装置、服务器及存储介质 | |
CN110269605A (zh) | 一种基于深度神经网络的心电信号噪声识别方法 | |
Nagadeepa et al. | Artificial intelligence based cervical cancer risk prediction using m1 algorithms | |
CN117041847B (zh) | 用于助听器中自适应传声器匹配方法及*** | |
CN116614757B (zh) | 一种基于深度学习的助听器验配方法及*** | |
CN112382382B (zh) | 一种代价敏感的集成学习分类方法及*** | |
CN112101438A (zh) | 一种左右眼分类方法、装置、服务器和存储介质 | |
CN115251909A (zh) | 基于时空卷积神经网络的脑电信号评估听力的方法及装置 | |
CN114898737A (zh) | 声学事件检测方法、装置、电子设备和存储介质 | |
EP3925520A1 (en) | Method for selecting features from electroencephalogram signals | |
CN114334157A (zh) | 一种脑卒中风险预测方法及装置 | |
CN112200072A (zh) | 一种数据质量的评价方法和装置 | |
Khorasani et al. | Agricultural Harvester Sound Classification using Convolutional Neural Networks and Spectrograms | |
KR20200099816A (ko) | 질량 분석 및 기계 학습에 기초한 암 진단에 사용하는 분류 모델 최적화 장치 및 그 방법 | |
CN116403717B (zh) | 基于深度学习的近视预测方法、装置、终端设备和介质 | |
CN114155883B (zh) | 基于进阶式的语音深度神经网络训练方法、装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |