KR20200137951A - Hearing aid system control method, apparatus and program for optimal amplification - Google Patents

Hearing aid system control method, apparatus and program for optimal amplification Download PDF

Info

Publication number
KR20200137951A
KR20200137951A KR1020200005756A KR20200005756A KR20200137951A KR 20200137951 A KR20200137951 A KR 20200137951A KR 1020200005756 A KR1020200005756 A KR 1020200005756A KR 20200005756 A KR20200005756 A KR 20200005756A KR 20200137951 A KR20200137951 A KR 20200137951A
Authority
KR
South Korea
Prior art keywords
hearing aid
hearing
frequency band
server
data
Prior art date
Application number
KR1020200005756A
Other languages
Korean (ko)
Inventor
이정학
이경원
김진숙
김동욱
진인기
Original Assignee
한림국제대학원대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한림국제대학원대학교 산학협력단 filed Critical 한림국제대학원대학교 산학협력단
Priority to KR1020200005756A priority Critical patent/KR20200137951A/en
Publication of KR20200137951A publication Critical patent/KR20200137951A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/70Adaptation of deaf aid to hearing loss, e.g. initial electronic fitting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/50Customised settings for obtaining desired overall acoustical characteristics
    • H04R25/505Customised settings for obtaining desired overall acoustical characteristics using digital signal processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2225/00Details of deaf aids covered by H04R25/00, not provided for in any of its subgroups
    • H04R2225/41Detection or adaptation of hearing aid parameters or programs to listening situation, e.g. pub, forest

Landscapes

  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Neurosurgery (AREA)
  • Otolaryngology (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

Provided are a method, device, and program for controlling a hearing aid system for optimal amplification. The method for controlling a hearing aid system performed by a server and a hearing aid comprises the steps of: obtaining, by the server, a plurality of frequency bands based on Korean voice data; obtaining, by the server, a first frequency gain value and a first maximum output value for each of the plurality of frequency bands; performing, by the hearing aid, first correction on the hearing aid based on the first frequency gain value and the first maximum output value for each of the obtained plurality of frequency bands; obtaining, by the server, data on a hearing condition of a hearing aid user and voice data of the hearing aid user; and performing, by the hearing aid, secondary correction of the first corrected hearing aid based on data on the hearing condition of the hearing aid user and the voice data of the hearing aid user.

Description

최적증폭을 위한 보청기 시스템의 제어 방법, 장치 및 프로그램{ HEARING AID SYSTEM CONTROL METHOD, APPARATUS AND PROGRAM FOR OPTIMAL AMPLIFICATION }Control method, device and program of hearing aid system for optimal amplification {HEARING AID SYSTEM CONTROL METHOD, APPARATUS AND PROGRAM FOR OPTIMAL AMPLIFICATION}

본 발명은 최적증폭을 위한 보청기 시스템의 제어 방법, 장치 및 프로그램에 관한 것이다. The present invention relates to a method, apparatus, and program for controlling a hearing aid system for optimal amplification.

보청기는 청각 저하 또는 상실 상태인 난청인이 소리를 들을 수 있도록 하기 위해 개발되었다. 이러한 보청기는 마이크로폰으로 들어온 음성 데이터를 증폭하여 리시버로 출력하여 난청인이 들을 수 없는 소리를 들을 수 있게 해주는 장치이다.Hearing aids have been developed to enable hearing impaired persons who are deaf or deaf to hear sound. This hearing aid is a device that amplifies voice data received through a microphone and outputs it to a receiver so that a hearing impaired person can hear a sound that cannot be heard.

마이크로폰으로 들어온 음성 데이터는 주파수 대역에 따라 구분된 각각의 채널에서 청력과 입력 음압에 따른 최적 이득(optimal gain)을 구하고, 최적 이득에 따라 음성 데이터를 증폭 시켜 어음인지능력을 향상시키는 것을 목적으로 한다. 이때, 각각의 주파수 대역 및 최대 이득을 구하기 위한 적합 공식을 구하는 것이 보청기의 성능 향상을 위해 중요하다.The purpose of the speech data received from the microphone is to obtain the optimal gain according to the hearing and input sound pressure in each channel divided according to the frequency band, and amplify the speech data according to the optimum gain to improve speech recognition ability. . At this time, it is important to improve the performance of the hearing aid to obtain a suitable formula for obtaining each frequency band and maximum gain.

그러나 현재의 보청기에서 사용되고 있는 적합 공식은 대부분 영어음의 특성과 인지 능력에 근거하여 개발되어 있는 것이 현실이다. 따라서, 한국어음과 한국인의 청각 해부학적인 특성 및 한국어음의 인지능력에 근거한 보청기 적합공식의 필요성이 증대되고 있으며, 나아가 보청기 사용자 각각에 최적화된 보청기의 보정 방법이 중요해지고 있다.However, it is a reality that most of the appropriate formulas used in current hearing aids are developed based on the characteristics of English sounds and cognitive ability. Accordingly, the need for a hearing aid fit formula based on the Korean sound and the auditory anatomical characteristics of Koreans and the cognitive ability of the Korean sound is increasing, and furthermore, a method of correcting a hearing aid optimized for each hearing aid user is becoming important.

등록특허공보 제10-0956167호, 2010.04.27Registered Patent Publication No. 10-0956167, 2010.04.27

본 발명이 해결하고자 하는 과제는 최적증폭을 위한 보청기 시스템의 제어 방법, 장치 및 프로그램을 제공하는 것이다.The problem to be solved by the present invention is to provide a method, apparatus, and program for controlling a hearing aid system for optimal amplification.

본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the problems mentioned above, and other problems that are not mentioned will be clearly understood by those skilled in the art from the following description.

상술한 과제를 해결하기 위한 본 발명의 일 면에 따른 보청기 시스템의 제어 방법은 서버 및 보청기에 의해 수행되는 보청기 시스템의 제어 방법에 있어서, 상기 서버가, 한국어 음성 데이터를 바탕으로 복수개의 주파수 대역을 획득하는 단계; 상기 서버가, 상기 복수개의 주파수 대역 각각에 대한 제1 주파수 이득값 및 제1 최대 출력값을 획득하는 단계; 상기 보청기가, 상기 획득된 복수개의 주파수 대역 각각에 대한 제1 주파수 이득값 및 제1 최대 출력값을 바탕으로 상기 보청기를 1차 보정하는 단계; 상기 서버가, 보청기 사용자의 청각 상태에 대한 데이터 및 상기 보청기 사용자의 음성 데이터를 획득하는 단계; 및 상기 보청기가, 상기 보청기 사용자의 청각 상태에 대한 데이터 및 상기 보청기 사용자의 음성 데이터를 바탕으로 상기 1차 보정된 보청기를 2차 보정하는 단계; 를 포함한다.A method for controlling a hearing aid system according to an aspect of the present invention for solving the above-described problem is a method for controlling a hearing aid system performed by a server and a hearing aid, wherein the server selects a plurality of frequency bands based on Korean voice data. Obtaining; Obtaining, by the server, a first frequency gain value and a first maximum output value for each of the plurality of frequency bands; Performing, by the hearing aid, primary correcting the hearing aid based on a first frequency gain value and a first maximum output value for each of the obtained plurality of frequency bands; Obtaining, by the server, data on the hearing condition of the hearing aid user and voice data of the hearing aid user; And secondary correction of the first corrected hearing aid based on data on the hearing condition of the hearing aid user and voice data of the hearing aid user, by the hearing aid. Includes.

이때, 상기 복수개의 주파수 대역 각각에 대한 제1 주파수 이득값 및 제1 최대 출력값을 획득하는 단계는, 상기 한국어 음성 데이터를 8개의 주파수 대역으로 분류하는 단계; 상기 분류된 8개의 주파수 대역 각각에 대한 정반응률을 획득하는 단계; 상기 획득된 정반응률에 기초하여 각각의 주파수 대역에 대한 각각의 가중치를 획득하는 단계 및 상기 가중치를 바탕으로 상기 제1 주파수 이득값 및 상기 제1 최대 출력값을 결정하는 단계; 를 포함할 수 있다.In this case, obtaining a first frequency gain value and a first maximum output value for each of the plurality of frequency bands may include: classifying the Korean speech data into eight frequency bands; Obtaining a positive response rate for each of the classified eight frequency bands; Acquiring each weight for each frequency band based on the obtained positive response rate and determining the first frequency gain value and the first maximum output value based on the weight; It may include.

이때, 상기 복수개의 주파수 대역 각각에 대한 제1 주파수 이득값 및 제1 최대 출력값을 획득하는 단계는, 상기 한국어 음성 데이터의 대화음 크기를 판단하는 단계; 상기 대화음 크기가 기 설정된 범위 이내인 경우, 압축역치(Compression Threshold), 압축비율(Compression Ratio), 확장역치(Extension Threshold), 확장비율(Extension Ratio) 및 상기 가중치를 바탕으로 제1 파라미터를 결정하고, 상기 결정된 제1 파라미터를 바탕으로 상기 제1 주파수 이득값 및 상기 제1 최대 출력값을 결정하는 단계;를 더 포함할 수 있다.In this case, the obtaining of the first frequency gain value and the first maximum output value for each of the plurality of frequency bands may include determining a dialogue sound level of the Korean speech data; When the dialogue sound size is within a preset range, a first parameter is determined based on a compression threshold, a compression ratio, an extension threshold, an extension ratio, and the weight. And determining the first frequency gain value and the first maximum output value based on the determined first parameter.

이때, 상기 한국어 음성 데이터를 바탕으로 복수개의 주파수 대역을 획득하는 단계는, 성인용 한국 표준 문장 목록 (KS-SL-A)에 포함된 텍스트를 방음부스 내부에서 생성하되, 한국어 음성 데이터의 발화자는 방음부스 중앙에 위치하고 상기 발화자의 정면 1M에 마이크가 위치하여, 상기 마이크를 통해 제1 음성 데이터를 획득하는 단계; 상기 제1 음성 데이터를 학습 데이터로 하여 인공지능 모델에 입력하여 한국어 음성 데이터에 대한 특징값을 추출하도록 상기 인공지능 모델을 학습시키는 단계; 노이즈가 포함된 제2 음성 데이터를 상기 학습된 인공지능 모델에 입력하여 상기 제2 음성 데이터에 대한 특징값을 추출하고, 추출된 특징값을 바탕으로 상기 제2 음성 데이터를 보정하는 단계; 및 상기 제1 음성 데이터 및 상기 보정된 제2 음성 데이터를 포함하는 상기 한국어 음성 데이터를 바탕으로 복수개의 주파수 대역을 획득하는 단계;를 포함할 수 있다.At this time, the step of acquiring a plurality of frequency bands based on the Korean voice data includes generating text included in the Korean Standard Sentence List (KS-SL-A) for adults inside the soundproof booth, but the speaker of the Korean voice data is soundproofed. A microphone positioned at the center of the booth and 1M in front of the talker, and obtaining first voice data through the microphone; Training the artificial intelligence model to extract feature values for Korean speech data by inputting the first speech data as training data into an artificial intelligence model; Inputting second voice data including noise into the learned artificial intelligence model to extract a feature value of the second voice data, and correcting the second voice data based on the extracted feature value; And acquiring a plurality of frequency bands based on the Korean voice data including the first voice data and the corrected second voice data.

이때, 상기 보청기 사용자의 청각 상태에 대한 데이터 및 상기 보청기 사용자의 음성 데이터를 획득하는 단계는, 상기 보청기 사용자의 청각 상태에 대한 데이터를 바탕으로, 복수개의 주파수 대역 각각에 대한 상기 주파수 이득값 및 상기 최대 출력값을 보정하여 제2 주파수 이득값 및 제2 최대 출력값을 획득하는 단계; 상기 보청기 사용자의 음성 데이터를 바탕으로 상기 보청기가 감지하는 음원의 파형을 보정하기 위한 특징값을 추출하는 단계;를 포함하고, 상기 2차 보정하는 단계는, 상기 제2 주파수 이득값, 상기 제2 최대 출력값 및 음원의 파형을 보정하기 위한 특징값을 바탕으로 상기 1차 보정된 보청기를 2차 보정하는 단계;를 포함할 수 있다.In this case, the step of acquiring the data on the hearing condition of the hearing aid user and the voice data of the hearing aid user includes the frequency gain values for each of a plurality of frequency bands and the Correcting the maximum output value to obtain a second frequency gain value and a second maximum output value; Extracting a feature value for correcting the waveform of the sound source sensed by the hearing aid based on the audio data of the hearing aid user, wherein the secondary correction comprises: the second frequency gain value, the second And secondary correction of the first corrected hearing aid based on a maximum output value and a feature value for correcting a waveform of a sound source.

이때, 상기 제어 방법은, 상기 보청기가, 상기 보청기로부터 입력되는 음성 데이터를 전자 장치로 전송하는 단계; 상기 전자 장치가, 상기 수신한 음성 데이터를 상기 서버로 전송하는 단계; 상기 서버가, 기 설정된 조건을 만족하면, 상기 수신한 음성 데이터를 바탕으로 상기 보청기를 3차 보정하기 위한 제3 주파수 이득값 및 제3 최대 출력값을 획득하는 단계; 및 상기 보청기가, 상기 제3 주파수 이득값 및 제3 최대 출력값을 바탕으로 상기 2차 보정된 보청기를 3차 보정하는 단계; 를 포함할 수 있다.In this case, the control method includes: transmitting, by the hearing aid, voice data input from the hearing aid to an electronic device; Transmitting, by the electronic device, the received voice data to the server; Obtaining, by the server, a third frequency gain value and a third maximum output value for third correction of the hearing aid based on the received voice data when a preset condition is satisfied; And performing a third correction of the second corrected hearing aid based on the third frequency gain value and a third maximum output value, by the hearing aid. It may include.

이때, 상기 제어 방법은, 상기 보청기 사용자의 생활 공간에서의 배경 소음에 대한 정보, 상기 보청기 사용자의 발화 속도에 대한 정보 및 일반인의 평균 발화 속도에 대한 정보를 포함하는 배경정보를 수집하는 단계; 상기 수집된 배경정보를 바탕으로 청능훈련프로그램에 포함될 배경 소음 및 발화 속도를 결정하는 단계; 상기 결정된 배경 소음, 어음인지 정도 및 발화 속도를 바탕으로 청능훈련프로그램을 생성하는 단계; 상기 보청기 사용자로부터 상기 청능훈련프로그램 및 보청기 착용에 대한 결과 데이터를 수신하는 단계; 및 상기 결과 데이터를 바탕으로 상기 보청기를 4차 보정하는 단계; 를 포함하고, 상기 4차 보정하는 단계는, 상기 결과 데이터 중 기 설정된 비율 이상의 오답률을 가지는 주파수 구간을 획득하는 단계; 상기 획득된 주파수 구간의 주파수 이득값을 상기 제3 주파수 이득값 이상으로 보정하는 단계;를 포함하고, 상기 생성된 청능훈련프로그램은 상기 보청기 사용자의 배경정보에 따라 시각단서, 음소, 단어 및 문장의 난이도, 문장 길이, 환경음 및 음악의 포함 여부가 결정될 수 있다.In this case, the control method includes: collecting background information including information on background noise in the living space of the hearing aid user, information on speech speed of the hearing aid user, and information on average speech speed of the general public; Determining background noise and speech speed to be included in the hearing training program based on the collected background information; Generating an auditory training program based on the determined background noise, speech recognition degree, and speech speed; Receiving result data on the hearing aid training program and wearing the hearing aid from the hearing aid user; And performing a fourth correction of the hearing aid based on the result data. Including, and the step of correcting the fourth order, obtaining a frequency section having an incorrect answer rate greater than or equal to a preset ratio among the result data; Compensating the frequency gain value of the obtained frequency section to be equal to or greater than the third frequency gain value; and the generated hearing training program includes visual cues, phonemes, words, and sentences according to the background information of the hearing aid user. Difficulty level, sentence length, environmental sound, and whether or not to include music may be determined.

이때, 상기 청능훈련프로그램을 생성하는 단계는, 복수의 보청기 사용자의 배경정보, 설문문항에 대한 답변정보 및 상기 답변정보로부터 획득된 상세정보를 포함하는 복수의 제1 데이터를 상기 복수의 사용자 별로 저장하는 단계; 상기 복수의 보청기 사용자의 청능훈련프로그램 및 보청기 착용에 대한 결과 데이터를 포함하는 복수의 제2 데이터를 상기 복수의 보청기 사용자 별로 저장하는 단계; 상기 복수의 제1 데이터를 클러스터링하여 복수의 제1 클러스터를 획득하는 단계; 상기 복수의 제2 데이터를 클러스터링하여 복수의 제2 클러스터를 획득하는 단계; 새로운 제1 보청기 사용자에 대한 배경정보 및 답변정보를 획득하는 단계; 상기 복수의 제1 클러스터 중 상기 획득한 제1 보청기 사용자에 대한 배경정보 및 답변정보와 관련된 제1-1 클러스터를 판단하는 단계; 상기 복수의 제2 클러스터 중 상기 제1-1 클러스터와 기 설정된 거리내에 존재하는 제2-1 클러스터를 판단하는 단계; 및 상기 제2-1 클러스터에 포함된 데이터를 바탕으로 상기 제1 보청기 사용자에 대한 청능훈련프로그램을 생성하는 단계; 를 포함할 수 있다.In this case, the step of generating the hearing training program includes storing a plurality of first data for each of the plurality of users, including background information of a plurality of hearing aid users, answer information to questionnaire questions, and detailed information obtained from the answer information. Step to do; Storing a plurality of second data including result data on hearing training programs of the plurality of hearing aid users and wearing of the hearing aid for each of the plurality of hearing aid users; Clustering the plurality of first data to obtain a plurality of first clusters; Clustering the plurality of second data to obtain a plurality of second clusters; Acquiring background information and response information for a new first hearing aid user; Determining a 1-1 cluster related to background information and response information for the acquired first hearing aid user among the plurality of first clusters; Determining a 2-1 cluster existing within a preset distance from the 1-1 cluster among the plurality of second clusters; And generating an hearing training program for the first hearing aid user based on the data included in the 2-1 cluster. It may include.

본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the present invention are included in the detailed description and drawings.

상술한 본 발명의 다양한 실시예에 따라, 한국인에게 최적화된 보청기의 적합공식에 따라 보청기를 보정할 수 있는 효과가 있다.According to various embodiments of the present invention described above, there is an effect of calibrating a hearing aid according to a suitable formula for a hearing aid optimized for Koreans.

나아가, 보청기 사용자 개개인에게 적합한 보청기의 보정 방법이 제공될 수 있다.Furthermore, a method of calibrating a hearing aid suitable for individual hearing aid users may be provided.

본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.

도 1은 본 발명의 일 실시예에 따른 시스템을 도시한 도면이다.
도 2는 본 발명의 일 실시예에 따른 보청기 보정 방법을 설명하기 위한 흐름도이다.
도 3은 본 발명의 일 실시예에 따른 한국어 음성 데이터를 복수개의 주파수 대역으로 분류하는 방법을 설명하기 위한 흐름도이다.
도 4는 본 발명의 일 실시예에 따른 대화음의 크기에 따른 파라미터 획득 방법을 설명하기 위한 흐름도이다.
도 5는 본 발명의 일 실시예에 따른 인공지능모델을 이용한 주파수 대역 획득 방법을 설명하기 위한 흐름도이다.
도 6은 본 발명의 일 실시예에 따른 보청기를 2차 보정하는 방법을 설명하기 위한 흐름도이다.
도 7은 본 발명의 일 실시예에 따른 보청기를 3차 보정하는 방법을 설명하기 위한 흐름도이다.
도 8은 본 발명의 일 실시예에 따른 보청기를 4차 보정하는 방법을 설명하기 위한 흐름도이다.
도 9는 본 발명의 일 실시예에 따른 보청기에 대한 사용 데이터를 획득하는 방법을 설명하기 위한 흐름도이다.
도 10 내지 도 14는 본 발명의 다양한 실시예에 따른 실험 데이터를 설명하기 위한 그래프이다.
도 15는 본 발명의 일 실시예에 따른 장치의 구성도이다.
1 is a diagram showing a system according to an embodiment of the present invention.
2 is a flowchart illustrating a method of calibrating a hearing aid according to an embodiment of the present invention.
3 is a flowchart illustrating a method of classifying Korean voice data into a plurality of frequency bands according to an embodiment of the present invention.
4 is a flowchart illustrating a method of obtaining a parameter according to a loudness of a dialogue sound according to an embodiment of the present invention.
5 is a flowchart illustrating a method of obtaining a frequency band using an artificial intelligence model according to an embodiment of the present invention.
6 is a flowchart illustrating a method of secondary correction of a hearing aid according to an embodiment of the present invention.
7 is a flowchart illustrating a third correction method of a hearing aid according to an embodiment of the present invention.
8 is a flowchart illustrating a method of performing a fourth correction of a hearing aid according to an embodiment of the present invention.
9 is a flowchart illustrating a method of obtaining usage data for a hearing aid according to an embodiment of the present invention.
10 to 14 are graphs for explaining experimental data according to various embodiments of the present invention.
15 is a block diagram of an apparatus according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. Advantages and features of the present invention, and a method of achieving them will become apparent with reference to the embodiments described below in detail together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in a variety of different forms, only the present embodiments are intended to complete the disclosure of the present invention, It is provided to fully inform the technician of the scope of the present invention, and the present invention is only defined by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terms used in the present specification are for describing exemplary embodiments and are not intended to limit the present invention. In this specification, the singular form also includes the plural form unless specifically stated in the phrase. As used in the specification, “comprises” and/or “comprising” do not exclude the presence or addition of one or more other elements other than the mentioned elements. Throughout the specification, the same reference numerals refer to the same elements, and “and/or” includes each and all combinations of one or more of the mentioned elements. Although “first”, “second”, and the like are used to describe various elements, it goes without saying that these elements are not limited by these terms. These terms are only used to distinguish one component from another component. Therefore, it goes without saying that the first component mentioned below may be the second component within the technical idea of the present invention.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in the present specification may be used as meanings that can be commonly understood by those of ordinary skill in the art to which the present invention belongs. In addition, terms defined in a commonly used dictionary are not interpreted ideally or excessively unless explicitly defined specifically.

명세서에서 사용되는 "부" 또는 “모듈”이라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부" 또는 “모듈”은 어떤 역할들을 수행한다. 그렇지만 "부" 또는 “모듈”은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부" 또는 “모듈”은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부" 또는 “모듈”은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부" 또는 “모듈”들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부" 또는 “모듈”들로 결합되거나 추가적인 구성요소들과 "부" 또는 “모듈”들로 더 분리될 수 있다.The term "unit" or "module" used in the specification refers to a hardware component such as software, FPGA or ASIC, and the "unit" or "module" performs certain roles. However, "unit" or "module" is not meant to be limited to software or hardware. The “unit” or “module” may be configured to be in an addressable storage medium, or may be configured to reproduce one or more processors. Thus, as an example, "sub" or "module" refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, It includes procedures, subroutines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays and variables. Components and functions provided within "sub" or "module" may be combined into a smaller number of components and "sub" or "modules" or into additional components and "sub" or "modules". Can be further separated.

공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓여질 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.Spatially relative terms "below", "beneath", "lower", "above", "upper", etc., as shown in the figure It can be used to easily describe the correlation between a component and other components. Spatially relative terms should be understood as terms including different directions of components during use or operation in addition to the directions shown in the drawings. For example, if a component shown in a drawing is turned over, a component described as "below" or "beneath" of another component will be placed "above" the other component. I can. Accordingly, the exemplary term “below” may include both directions below and above. Components may be oriented in other directions, and thus spatially relative terms may be interpreted according to orientation.

본 명세서에서, 컴퓨터는 적어도 하나의 프로세서를 포함하는 모든 종류의 하드웨어 장치를 의미하는 것이고, 실시 예에 따라 해당 하드웨어 장치에서 동작하는 소프트웨어적 구성도 포괄하는 의미로서 이해될 수 있다. 예를 들어, 컴퓨터는 스마트폰, 태블릿 PC, 데스크톱, 노트북 및 각 장치에서 구동되는 사용자 클라이언트 및 애플리케이션을 모두 포함하는 의미로서 이해될 수 있으며, 또한 이에 제한되는 것은 아니다.In the present specification, a computer refers to all kinds of hardware devices including at least one processor, and may be understood as encompassing a software configuration operating in a corresponding hardware device according to embodiments. For example, the computer may be understood as including all of a smartphone, a tablet PC, a desktop, a laptop, and a user client and an application running on each device, but is not limited thereto.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

본 명세서에서 설명되는 각 단계들은 컴퓨터에 의하여 수행되는 것으로 설명되나, 각 단계의 주체는 이에 제한되는 것은 아니며, 실시 예에 따라 각 단계들의 적어도 일부가 서로 다른 장치에서 수행될 수도 있다.Each of the steps described herein is described as being performed by a computer, but the subject of each step is not limited thereto, and at least some of the steps may be performed by different devices according to embodiments.

한편, 본 명세서에서 청각(hearing)이란 소리를 탐지, 변별, 확인 및 인지하는 과정을 의미한다. 난청인(hearing impaired)이란 한쪽 또는 양쪽 귀의 청력이 손상된 사람을 의미한다. 보청기(hearing aid)란 난청 보상을 목적으로 소리 신호의 처리를 위해 고안된 전기 음향적 착용 장치를 의미한다. 보청기 시스템(hearing aid system)이란 한쪽 또는 양쪽 보청기, 귀꽂이, 원격조종장치, 접속기 등 관련 구성요소로 구성된 개별 맞춤형 시스템을 의미한다. 보청기 전문가(hearing aid professional)란 난청인을 대상으로 전문적인 청각평가, 보청기의 선택, 조절, 검증, 청능훈련 등을 포함하는 보청기 적합관리 서비스를 제공할 수 있는 청각학적 역량을 갖춘 사람을 의미한다. 고객(client) 또는 보청기 사용자란 보청기 전문가 또는 보청기 적합관리 시스템이 제공하는 보청기 적합관리 서비스를 받는 사람을 의미한다. 보청기 적합관리(hearing aid fitting management)란 평가모듈, 적합모듈 및 후속조치모듈을 포함하는 종합적인 관리체계로 상담, 청각검사, 보청기 시험착용, 보청기 선택, 귀 인상채취, 보청기 조절, 검증, 고객교육, 청능훈련, 결과측정 및 종합보고서 작성의 11개 구성요소를 시행하여 보청기를 착용한 난청인의 가청력 개선, 어음지각 향상 및 보청기의 지속적 사용과 관리를 돕는 체계적인 과정을 의미한다. 청능재활(auditory rehabilitation)이란 보청기 조절, 상담, 교육 및 다양한 훈련을 통해 청각능력과 의사소통 기술을 향상시키는 체계적이고 포괄적인 과정을 의미한다. 평가모듈(assessment module)이란 보청기 적합 전 단계의 5개 구성요소인 상담, 청각검사, 보청기 시험착용, 보청기 선택 및 귀 인상채취와 구성요소 간의 절차를 포함하는 보청기 적합관리의 과정을 의미한다. 적합모듈(fitting module)이란 보청기 적합 단계의 3개 구성요소인 보청기 조절, 검증 및 고객교육과 구성요소 간의 절차를 포함하는 보청기 적합관리의 과정을 수행하기 위한 모듈을 의미한다. 후속조치모듈(follow-up module)이란 보청기 적합 후 단계의 3개 구성요소인 청능훈련, 결과측정 및 종합보고서 작성과 구성요소 간의 절차를 포함하는 보청기 적합관리의 과정을 수행하기 위한 모듈을 의미한다. 상담(counseling)이란 고객 또는 그 가족에게 고객의 난청상태, 난청으로 인한 어려움, 보청기 적합, 청능훈련 등에 대한 포괄적인 정보를 제공하고 지원하는 과정을 의미한다. 청각평가(hearing evaluation)란 보청기 선택 전에 청력역치 및 어음인지 능력을 측정하여 고객의 청력손실 형태와 정도 및 의사소통 정도를 파악하는 과정을 의미한다. 보청기 시험착용(hearing aid trial)이란 고객의 난청 상태에 적합한 보청기를 선택하기 위하여 보청기 선택 전 단계에서 고객의 청력 상태에 맞추어 조절한 보청기를 실제 경험하는 과정을 의미한다. 보청기 선택(hearing aid selection)이란 보청기 시험착용 결과, 청각 배경정보 등을 근거로 고객에게 적합한 보청기 종류를 결정하는 과정을 의미한다. 귀 인상 채취(ear impression)란 귀꽂이 또는 보청기 외형을 제작하기 위하여 외이도와 갑개 부분의 모양을 본 뜨는 과정을 의미한다. 보청기 조절(hearing aid adjustment)이란 보청기 착용시 물리적 편안함을 위하여 보청기의 외형적 특성 및 착용상태를 점검하여 필요시 변경하고, 또한 어음인지능력 향상과 음향적 편안함을 고려하여 청각평가 결과와 처방법을 근거로 보청기의 전기음향적 특징을 최적화하는 과정을 의미한다. 보청기 조절 검증(verification for hearing aid adjustment)이란 커플러 측정, 실이측정 또는 음장측정과 전기음향 및 심리음향적 측면의 설문지 응답을 통하여 보청기 조절 결과를 평가하는 과정을 의미한다. 고객교육(client education)이란 보청기 작동방법, 보청기 점검방법 및 보청기 사용시 발생가능한 문제 해결방법 등 보청기 사용과 관련된 정보와 보청기에 대한 고객의 현실적 기대치 확립에 필요한 정보를 제공하는 과정을 의미한다. 청능훈련(auditory training)이란 난청인의 의사소통능력 향상을 위한 일정 기간에 걸친 집중적이고 반복적인 듣기연습과 의사소통전략을 포함한 학습 과정을 의미한다. 착용 결과측정(outcome measurements)이란 음향 및 심리사회적 측면에서 보청기 사용자의 착용 결과를 다차원적으로 평가하는 과정으로 일반적으로 보청기 사용자의 어음지각 정도, 객관적 혜택, 소리의 질적 향상, 듣기 위한 노력 정도의 변화, 보청기 사용빈도, 만족도 등 객관적 평가와 주관적 평가를 모두 포함한다. 종합보고서(comprehensive report) 또는 결과 보고서란 보청기 적합관리의 전반적인 과정에서 발생하는 주요 정보를 반영하는 보고서를 의미한다. 귀꽂이(ear mold)란 개별적으로 제작하거나 선택한 보청기와 외이도 간의 기계음향적 연결장치를 의미한다. 고객 배경정보(client profile)란 고객의 청각적 배경정보뿐 아니라 청각기능, 사회적 상황, 활동 기회, 보청기의 필요성, 기대치 등을 포함하는 청각 관련 포괄적 정보를 의미한다. 적합 시스템(fitting system)이란 보청기 조절을 위해 사용하는 컴퓨터 및 적합 소프트웨어 등의 장비 세트를 의미한다. 보청기 초기설정(pre-setting of hearing aids)이란 적합공식 및 관련 청각 정보를 근거로 한 보청기 조절을 의미한다. 미세조율(fine-tuning)이란 개별 난청인의 필요 및 선호에 가장 잘 부합하도록 하는 보청기 시스템의 조율을 의미한다.Meanwhile, in the present specification, hearing refers to a process of detecting, discriminating, confirming, and recognizing sound. Hearing impaired means a person with hearing impairment in one or both ears. Hearing aid refers to an electroacoustic wearing device designed for processing sound signals for the purpose of compensating for hearing loss. Hearing aid system refers to an individual customized system composed of related components such as one or both hearing aids, ear plugs, remote control devices, and connectors. Hearing aid professional means a person who has an aural ability to provide hearing aid appropriate management services, including professional hearing evaluation, hearing aid selection, adjustment, verification, and hearing training, for hearing impaired persons. . A client or user of a hearing aid means a hearing aid expert or a person who receives hearing aid compliance management services provided by the hearing aid compliance management system. Hearing aid fitting management is a comprehensive management system that includes an evaluation module, a conformity module, and a follow-up module. It refers to a systematic process to improve hearing ability, speech perception, and continuous use and management of hearing aids by implementing 11 components of hearing aid training, result measurement, and comprehensive report preparation. Auditory rehabilitation refers to a systematic and comprehensive process that improves hearing and communication skills through hearing aid adjustment, counseling, education, and various training. The evaluation module refers to the process of hearing aid fit management, including the five components of the stage before hearing aid fit: counseling, hearing test, hearing aid trial wear, hearing aid selection, and ear impression collection and procedures between components. The fitting module means a module for carrying out the process of hearing aid fit management, which includes three components of the hearing aid fit stage, which are hearing aid adjustment, verification, customer education, and procedures between components. The follow-up module refers to a module for carrying out the process of hearing aid compliance management, which includes three components of the stage after hearing aid fit: hearing training, measurement of results, preparation of a comprehensive report, and procedures between components. . Counseling refers to the process of providing and supporting comprehensive information on the customer's hearing loss status, difficulty due to hearing loss, hearing aid fit, and hearing training to a customer or their family. Hearing evaluation refers to the process of determining the type and degree of hearing loss and the degree of communication by measuring the hearing threshold and speech recognition ability before selecting a hearing aid. Hearing aid trial refers to the process of actually experiencing a hearing aid adjusted to the customer's hearing condition before selecting a hearing aid in order to select a hearing aid suitable for the customer's hearing loss condition. Hearing aid selection refers to the process of determining the type of hearing aid suitable for the customer based on the results of hearing aid trial wear and hearing background information. Ear impression refers to the process of embedding the shape of the ear canal and the carapace in order to create the appearance of ear plugs or hearing aids. Hearing aid adjustment refers to checking the external characteristics and wearing conditions of a hearing aid for physical comfort when wearing a hearing aid, and changing it if necessary, and also based on the results of hearing evaluation and prescription in consideration of the improvement of speech recognition ability and acoustic comfort. This refers to the process of optimizing the electroacoustic characteristics of hearing aids. Verification for hearing aid adjustment refers to the process of evaluating the results of hearing aid adjustment through coupler measurement, actual ear measurement, or sound field measurement, and answering questionnaires in the electroacoustic and psychoacoustic aspects. Client education refers to the process of providing information related to the use of hearing aids, such as how to operate hearing aids, how to check hearing aids, and how to solve problems that may occur when using hearing aids, and information necessary to establish realistic expectations of customers for hearing aids. Auditory training refers to a learning process that includes intensive and repetitive listening practice and communication strategies over a period of time to improve communication skills of the hearing impaired. Outcome measurements are a multi-dimensional evaluation of hearing aid users' wear results in terms of acoustics and psychosocial aspects. In general, hearing aid users' speech perception, objective benefits, quality improvement of sound, and changes in the degree of effort to hear. It includes both objective and subjective evaluations such as frequency of use of hearing aids and satisfaction. Comprehensive report or result report means a report that reflects important information generated in the overall process of hearing aid compliance management. Ear mold refers to a mechanoacoustic connection device between the hearing aid and the ear canal that is individually manufactured or selected. Client profile refers to comprehensive information related to hearing that includes not only the customer's auditory background information, but also auditory function, social situation, activity opportunity, need for hearing aids, and expectations. Fitting system means a set of equipment, such as a computer and suitable software, used to control a hearing aid. Pre-setting of hearing aids refers to the adjustment of hearing aids based on appropriate formulas and relevant auditory information. Fine-tuning refers to the tuning of a hearing aid system that best suits the needs and preferences of the individual hearing impaired.

도 1은 본 발명의 일 실시예에 따른 시스템을 설명하기 위한 도면이다.1 is a diagram for describing a system according to an embodiment of the present invention.

본 발명에 따른 시스템은 서버(10), 보청기(20) 및 전자 장치(30)로 구성될 수 있다.The system according to the present invention may be composed of a server 10, a hearing aid 20 and an electronic device 30.

서버(10)는 전자 장치(30)로부터 다양한 데이터를 수신하여 분석하기 위한 구성이다. 서버(10)는 보청기를 보정하기 위한 다양한 데이터를 수집하고, 수집된 데이터를 바탕으로 보청기를 보청하기 위한 파라미터를 획득할 수 있다. The server 10 is a component for receiving and analyzing various data from the electronic device 30. The server 10 may collect various data for calibrating the hearing aid, and obtain parameters for hearing aid of the hearing aid based on the collected data.

전자 장치(30)는 보청기 사용자의 보청기 사용과 관련된 다양한 데이터를 서버(10)로 전송하기 위한 구성이다. 전자 장치(30)는 스마트 폰으로 구현되어 보청기 사용자에 대한 다양한 데이터를 서버(10)로 전송할 수 있으나, 이에 한정되는 것은 아니다. 예를 들어, 전자 장치(30)는 보청기로 구현되며, 사용자 인터랙션에 따라 보청기 사용자의 데이터를 서버(10)로 전송할 수 있음은 물론이다.The electronic device 30 is a component for transmitting various data related to a hearing aid user's use of a hearing aid to the server 10. The electronic device 30 may be implemented as a smart phone and transmit various data on a hearing aid user to the server 10, but is not limited thereto. For example, the electronic device 30 is implemented as a hearing aid, and can transmit data of a hearing aid user to the server 10 according to user interaction.

나아가, 본 발명의 다양한 실시예에 따라 전자 장치(30)는 태블릿 PC(tablet personal computer), 이동 전화기(mobile phone), 영상 전화기, 전자책 리더기(e-book reader), 데스크탑 PC (desktop PC), 랩탑 PC(laptop PC), 넷북 컴퓨터(netbook computer), 워크스테이션(workstation), 서버, PDA(personal digital assistant), PMP(portable multimedia player), MP3 플레이어, 모바일 의료기기, 카메라, 또는 웨어러블 장치(wearable device) 중 적어도 하나를 포함할 수 있다. 다양한 실시 예에 따르면 웨어러블 장치는 엑세서리 형(예: 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘텍트 렌즈, 또는 머리 착용형 장치(head-mounted-device(HMD)), 직물 또는 의류 일체 형(예: 전자 의복), 신체 부착 형(예: 스킨 패드(skin pad) 또는 문신), 또는 생체 이식 형(예: implantable circuit) 중 적어도 하나를 포함할 수 있다.Further, according to various embodiments of the present invention, the electronic device 30 includes a tablet PC (tablet personal computer), a mobile phone, a video phone, an e-book reader, and a desktop PC. , Laptop PC, netbook computer, workstation, server, personal digital assistant (PDA), portable multimedia player (PMP), MP3 player, mobile medical device, camera, or wearable device ( wearable device). According to various embodiments, the wearable device may be an accessory type (for example, a watch, a ring, a bracelet, an anklet, a necklace, glasses, contact lenses, or a head-mounted-device (HMD)), a fabric or an integrated clothing type ( For example, it may include at least one of an electronic clothing), a body attachment type (eg, a skin pad or tattoo), or a living body implantable type (eg, an implantable circuit).

또 다른 실시 예로, 전자 장치(30)는 가전 제품(home appliance)일 수 있다. 가전 제품은, 예를 들면, 텔레비전, DVD 플레이어(Digital Video Disk player), 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스(set-top box), 홈 오토매이션 컨트롤 패널(home automation control panel), 보안 컨트롤 패널(security control panel), TV 박스(예: 삼성 HomeSync™, 애플TV™, 또는 구글 TV™), 게임 콘솔(예: Xbox™, PlayStation™), 전자 사전, 전자 키, 캠코더, 또는 전자 액자 중 적어도 하나를 포함할 수 있다.In another embodiment, the electronic device 30 may be a home appliance. Home appliances include, for example, television, DVD player (Digital Video Disk player), audio, refrigerator, air conditioner, vacuum cleaner, oven, microwave oven, washing machine, air cleaner, set-top box, and home automation. Home automation control panel, security control panel, TV box (eg Samsung HomeSync™, Apple TV™, or Google TV™), game console (eg Xbox™, PlayStation™), electronics It may include at least one of a dictionary, an electronic key, a camcorder, and an electronic frame.

또 다른 실시 예로, 전자 장치(30)는, 각종 의료기기(예: 각종 휴대용 의료측정기기(혈당 측정기, 심박 측정기, 혈압 측정기, 또는 체온 측정기 등), MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 또는 초음파기 등), 사물 인터넷 장치(internet of things)(예: 전구, 각종 센서, 전기 또는 가스 미터기, 스프링클러 장치, 화재경보기, 온도조절기(thermostat), 가로등, 토스터(toaster), 운동기구, 온수탱크, 히터, 보일러 등) 중 적어도 하나를 포함할 수 있다.In another embodiment, the electronic device 30 includes various medical devices (eg, various portable medical measuring devices (blood glucose meter, heart rate meter, blood pressure meter, or body temperature meter), magnetic resonance angiography (MRA), magnetic resonance (MRI). imaging), CT (computed tomography), camera, or ultrasonic device), internet of things (e.g. light bulbs, various sensors, electricity or gas meters, sprinkler devices, fire alarms, thermostats, street lights) , Toaster, exercise equipment, hot water tank, heater, boiler, etc.).

도 2는 본 발명의 일 실시예에 따른 보청기 보정 방법을 설명하기 위한 흐름도이다.2 is a flowchart illustrating a method of calibrating a hearing aid according to an embodiment of the present invention.

단계 S100에서, 서버(10)는 한국어 음성 데이터를 바탕으로 복수개의 주파수 대역을 획득할 수 있다.In step S100, the server 10 may acquire a plurality of frequency bands based on Korean voice data.

단계 S200에서, 서버(10)는 복수개의 주파수 대역 각각에 대한 제1 주파수 이득값 및 제1 최대 출력값을 획득할 수 있다.In step S200, the server 10 may obtain a first frequency gain value and a first maximum output value for each of a plurality of frequency bands.

단계 S300에서, 보청기(20)는 획득된 복수개의 주파수 대역 각각에 대한 제1 주파수 이득값 및 제1 최대 출력값을 바탕으로 보청기(20)를 1차 보정할 수 있다.In step S300, the hearing aid 20 may first correct the hearing aid 20 based on a first frequency gain value and a first maximum output value for each of the obtained plurality of frequency bands.

일 실시예로, 제1 최대 출력값 및 후술하는 다양한 최대 출력값은, 최대 출력값을 바탕으로 증폭된 소리가 불쾌수준보다 크지 않으며, 보통 크기의 대화음 소리는 쾌적수준 범위에 있도록 설정될 수 있다. 따라서, 주파수 이득값에 의해 증폭된 소리가 최대 출력값 이상인 경우, 서버(10)는 주파수 이득값을 변경할 수 있다.In an embodiment, the first maximum output value and various maximum output values to be described later may be set such that the amplified sound based on the maximum output value is not greater than the discomfort level, and the normal-sized dialog sound is in a comfort level range. Accordingly, when the sound amplified by the frequency gain value is greater than or equal to the maximum output value, the server 10 may change the frequency gain value.

단계 S400에서, 서버(10)는 보청기 사용자의 청각 상태에 대한 데이터 및 보청기 사용자의 음성 데이터를 획득할 수 있다.In step S400, the server 10 may obtain data on the hearing state of the hearing aid user and voice data of the hearing aid user.

단계 S500에서, 보청기(20)는, 획득된 보청기 사용자의 청각 상태에 대한 데이터 및 보청기 사용자의 음성 데이터를 바탕으로 1차 보정된 보청기(20)를 2차 보정할 수 있다.In step S500, the hearing aid 20 may secondarily correct the firstly corrected hearing aid 20 based on the acquired data on the hearing condition of the hearing aid user and the voice data of the hearing aid user.

즉, 서버(10)는 한국어 음성 데이터를 바탕으로 보청기(20)를 1차 보정하여 한국인에게 적합하도록 보청기(20)를 보정하고, 보청기 사용자에 대한 다양한 데이터를 바탕으로 보청기 사용자에게 적합하도록 보청기(20)를 2차 보정할 수 있다.That is, the server 10 calibrates the hearing aid 20 to be suitable for Koreans by first correcting the hearing aid 20 based on the Korean voice data, and based on various data on the hearing aid user, the hearing aid ( 20) can be corrected secondarily.

도 3은 본 발명의 일 실시예에 따른 한국어 음성 데이터를 복수개의 주파수 대역으로 분류하는 방법을 설명하기 위한 흐름도이다.3 is a flowchart illustrating a method of classifying Korean voice data into a plurality of frequency bands according to an embodiment of the present invention.

단계 S210에서, 서버(10)는 한국어 음성 데이터를 8개의 주파수 대역으로 분류할 수 있다.In step S210, the server 10 may classify the Korean voice data into eight frequency bands.

이때, 주파수 대역은 실험적으로 결정될 수 있다. 예를 들어, 주파수 단위는 만 19세~26세의 정상 청력인이 방음부스에서 녹음한 한국어 음성 데이터를 바탕으로 분류될 수 있다. 일 실시예로, 주파수 대역은, 224Hz 이하, 224Hz~447Hz, 447Hz~891Hz, 891Hz~1413Hz, 1413Hz~2239Hz, 2239Hz~3548Hz, 3548Hz~5623Hz, 5623Hz~11000Hz, 11000Hz 이상의 9개의 주파수 구간을 바탕으로 8개의 중심 주파수를 획득하고, 획득된 8개의 중심 주파수 각각에 대한 주파수 대역일 수 있다. 본 명세서에서, 8개의 중심 주파수는 250Hz, 500Hz, 800Hz, 1000Hz, 1600Hz, 2500Hz, 4000Hz, 6000Hz일 수 있으며, 8개의 주파수 대역은 중심 주파수로부터 기 설정된 범위 내의 주파수 대역일 수 있다.In this case, the frequency band may be determined experimentally. For example, the frequency unit may be classified based on Korean audio data recorded at a soundproof booth by a normal hearing person aged 19 to 26 years old. In one embodiment, the frequency band is 224Hz or less, 224Hz to 447Hz, 447Hz to 891Hz, 891Hz to 1413Hz, 1413Hz to 2239Hz, 2239Hz to 3548Hz, 3548Hz to 5623Hz, 5623Hz to 11000Hz, based on 9 frequency sections of 11000Hz or more. It may be a frequency band for each of the eight center frequencies obtained and the obtained eight center frequencies. In this specification, the eight center frequencies may be 250Hz, 500Hz, 800Hz, 1000Hz, 1600Hz, 2500Hz, 4000Hz, 6000Hz, and the eight frequency bands may be frequency bands within a preset range from the center frequency.

일 실시예로, 8개의 주파수 대역은 0Hz~400Hz, 350Hz~750Hz, 700Hz~950HZ, 900HZ~1500Hz, 1400HZ~2300Hz, 2200Hz~3600Hz, 3500Hz~5500HZ, 5000HZ~11000Hz일 수 있다.As an example, the eight frequency bands may be 0Hz~400Hz, 350Hz~750Hz, 700Hz~950HZ, 900HZ~1500Hz, 1400HZ~2300Hz, 2200Hz~3600Hz, 3500Hz~5500HZ, 5000HZ~11000Hz.

단계 S220에서, 서버(10)는 분류된 8개의 주파수 대역 각각에 대한 정반응률을 획득할 수 있다. In step S220, the server 10 may obtain a positive response rate for each of the eight classified frequency bands.

일 실시예로, 한국어 음성 데이터 문장은 상술한 8개의 주파수 대역을 바탕으로 high-pass 또는 low-pass cutoff 시켰으며, 이 8개의 주파수 대역은 각각 10개의 문장으로 구성될 수 있다. 또한 한국어 음성 데이터 문장은 10개의 문장 중 핵심단어 40개에 대한 정반응을 확인하여 기록되었으며, 문장은 45 dB의 크기로 제시되며, 문장대비 소음의 크기를 달리하여 주파수 대역에 따른 정반응률을 획득할 수 있다.In one embodiment, Korean voice data sentences are high-pass or low-pass cutoff based on the above-described eight frequency bands, and the eight frequency bands may each consist of ten sentences. In addition, Korean voice data sentences were recorded by confirming the correct response to 40 key words out of 10 sentences, and the sentences were presented in a size of 45 dB, and the correct response rate according to the frequency band was obtained by varying the amount of noise compared to sentences. I can.

구체적으로, 도 10 low-pass 필터에 대한 정반응률을, 도 11은 high-pass 필터에 대한 정반응률을 도시한 그래프이며, 도 10 및 도 11에 도시된 그래프는 하기 표의 내용과 동일하다.Specifically, FIG. 10 is a graph showing a positive reaction rate for a low-pass filter, FIG. 11 is a graph showing a positive reaction rate for a high-pass filter, and the graphs shown in FIGS. 10 and 11 are the same as the contents of the following table.

  Low-passLow-pass High-passHigh-pass 평균Average SNR
Hz
SNR
Hz
00 +5+5 00 +5+5 00 +5+5
224이하224 or less 0.00 0.00 0.00 0.00 2.05 2.05 0.23 0.23 1.02 1.02 0.11 0.11 224~447224-447 4.00 4.00 17.50 17.50 3.86 3.86 1.14 1.14 3.93 3.93 9.32 9.32 447~891447~891 30.50 30.50 54.33 54.33 9.77 9.77 2.05 2.05 20.14 20.14 28.19 28.19 891~1413891~1413 23.83 23.83 16.83 16.83 13.18 13.18 2.95 2.95 18.51 18.51 9.89 9.89 1413~22391413~2239 16.50 16.50 6.17 6.17 21.14 21.14 15.45 15.45 18.82 18.82 10.81 10.81 2239~35482239~3548 13.00 13.00 3.33 3.33 37.27 37.27 54.09 54.09 25.14 25.14 28.71 28.71 3548~56233548~5623 5.50 5.50 1.17 1.17 11.36 11.36 21.82 21.82 8.43 8.43 11.49 11.49 5623~110005623~11000 2.00 2.00 -0.50 -0.50 1.36 1.36 2.27 2.27 1.68 1.68 0.89 0.89 11000이상Over 11000 4.67 4.67 1.17 1.17 0.00 0.00 0.00 0.00 2.33 2.33 0.58 0.58 합계Sum 100.00 100.00 100.00 100.00 100.00 100.00 100.00 100.00 100.00 100.00 100.00 100.00

단계 S230에서, 서버(10)는 획득된 정반응률에 기초하여 각각의 주파수 대역에 대한 각각의 가중치를 획득할 수 있다.일 실시예로, 서버(10)는 상기 표 1에 근거하여, 2239Hz~3548Hz 의 주파수 대역, 447Hz~891Hz의 주파수 대역, 3548Hz~5623Hz의 주파수 대역, 1413Hz~2239Hz대의 주파수 대역, 891Hz~1413Hz대의 주파수 대역, 224Hz~447Hz대의 주파수 대역, 5623Hz~11000Hz대의 주파수 대역, 11000Hz 이상의 주파수 대역, 224Hz 이하의 주파수 대역의 순서로 가중치의 크기를 결정할 수 있다. 일 실시예로, 가중치는 BIF (band-importance function)를 바탕으로 결정될 수 있다. BIF (band-importance function)는 음성의 명료성에 대한 서로 다른 주파수의 중요도에 대한 값으로 0에서 1사이의 값으로 결정될 수 있다. 이때 BIF는 SII(Speech Intelligibility Index, 어음 명료도 지수)를 바탕으로 결정될 수 있다. SII란 음성 명료도를 예측하기 위한 인덱스로, 하기 수학식 1에 의해 결정될 수 있다.In step S230, the server 10 may obtain each weight for each frequency band based on the obtained positive response rate. In one embodiment, the server 10 is based on Table 1, 2239 Hz ~ 3548Hz frequency band, 447Hz~891Hz frequency band, 3548Hz~5623Hz frequency band, 1413Hz~2239Hz frequency band, 891Hz~1413Hz band frequency band, 224Hz~447Hz band frequency band, 5623Hz~11000Hz band frequency band, 11000Hz or higher frequency band The size of the weight can be determined in the order of a band and a frequency band of 224 Hz or less. In an embodiment, the weight may be determined based on a band-importance function (BIF). BIF (band-importance function) is a value for the importance of different frequencies for speech intelligibility and may be determined as a value between 0 and 1. In this case, the BIF may be determined based on the Speech Intelligibility Index (SII). SII is an index for predicting speech intelligibility and may be determined by Equation 1 below.

Figure pat00001
Figure pat00001

이때, S는 percent correct score를 의미하며, 음성 데이터에 대한 정반응률과 관련된 값일 수 있다. P는 화자, 청취자의 숙련도 값을 의미하며, 정상인의 경우 1의 값을 가진다. Q 및 n는 피팅 상수를 의미할 수 있다.At this time, S denotes a percent correct score, and may be a value related to a positive response rate for voice data. P means the speaker's and listener's skill level, and has a value of 1 for a normal person. Q and n may mean fitting constants.

단계 S240에서, 서버(10)는 가중치를 바탕으로 상기 제1 주파수 이득값 및 상기 제1 최대 출력값을 결정할 수 있다.In step S240, the server 10 may determine the first frequency gain value and the first maximum output value based on the weight.

도 4는 본 발명의 일 실시예에 따른 대화음의 크기에 따른 파라미터 획득 방법을 설명하기 위한 흐름도이다.4 is a flowchart illustrating a method of obtaining a parameter according to a loudness of a dialogue sound according to an embodiment of the present invention.

단계 S260에서, 서버(10)는 한국어 음성 데이터의 대화음 크기를 판단할 수 있다.In step S260, the server 10 may determine the loudness of the conversational sound of the Korean voice data.

이때, 대화음의 크기는 방음부스 내부에서 측정된 실험데이터를 바탕으로 획득될 수 있다. 이때의 실험 데이터는 후술하는 제1 음성 데이터일 수 있다. In this case, the size of the dialogue sound may be obtained based on experimental data measured inside the soundproof booth. The experimental data at this time may be first voice data to be described later.

구체적으로, 피검자는 기초청력검사를 거친 후, 피검자를 방음실 내의 중앙에 앉히고 피검자의 얼굴로부터 정면 1m 거리에 Sound Level Meter(SLM)를 설치. 피검자가 일반용 문장검사에 사용되는 문장을 읽는동안 검사자가 SLM을 사용하여 화자의 말소리 크기를 측정하고, 피검자는 3가지 강도(조용히 말할 때, 대화음 크기로 말할 때, 크게 말할 때)로 각각 말하게 하고 1/3옥타브 밴드의 주파수에 해당하는 LZeq값을 측정할 수 있다. 이에 대한 측정값은 하기 표 2와 같으며, 주파수 및 소리 강도에 따른 DB를 나타낸 그래프는 도 12와 같다.Specifically, after the subject has undergone a basic hearing test, the subject is seated in the center of the soundproof room and a Sound Level Meter (SLM) is installed at a distance of 1m in front of the subject's face. While the examinee reads the sentences used in the general sentence test, the examiner uses the SLM to measure the speaker's speech volume, and the examinee is asked to speak with each of the three intensities (when speaking quietly, when speaking with the loudness of the dialogue, when speaking loudly). And the LZeq value corresponding to the frequency of the 1/3 octave band can be measured. Measured values for this are shown in Table 2 below, and a graph showing a DB according to frequency and sound intensity is shown in FIG. 12.

  Vocal EffortVocal Effort frequencyfrequency LZeqLZeq   125125 160160 200200 250250 315315 400400 500500 630630 800800 10001000 12501250 16001600 20002000 25002500 31503150 40004000 50005000 63006300 80008000 평균
 
 
Average

CasualCasual 27.45 27.45 29.30 29.30 39.05 39.05 41.22 41.22 30.75 30.75 25.00 25.00 31.58 31.58 26.52 26.52 29.03 29.03 22.42 22.42 21.25 21.25 24.70 24.70 20.53 20.53 18.95 18.95 18.62 18.62 19.83 19.83 19.45 19.45 17.02 17.02 17.17 17.17 52.93 52.93
NormalNormal 32.02 32.02 34.10 34.10 50.80 50.80 54.85 54.85 46.22 46.22 44.12 44.12 47.72 47.72 44.65 44.65 45.67 45.67 39.15 39.15 33.25 33.25 36.23 36.23 32.90 32.90 29.05 29.05 27.62 27.62 24.82 24.82 25.53 25.53 24.17 24.17 24.67 24.67 59.28 59.28 RaisedRaised 31.87 31.87 36.18 36.18 51.92 51.92 59.57 59.57 54.98 54.98 50.32 50.32 56.73 56.73 53.98 53.98 55.40 55.40 50.32 50.32 45.47 45.47 48.67 48.67 43.78 43.78 40.57 40.57 39.22 39.22 35.27 35.27 32.70 32.70 29.32 29.32 29.60 29.60 65.75 65.75 표준
편차
Standard
Deviation
CasualCasual 2.10 2.10 5.31 5.31 7.35 7.35 11.22 11.22 8.60 8.60 6.16 6.16 9.28 9.28 6.93 6.93 6.58 6.58 3.88 3.88 8.11 8.11 7.56 7.56 4.30 4.30 4.77 4.77 4.85 4.85 5.44 5.44 4.81 4.81 5.68 5.68 5.05 5.05 2.37 2.37
NormalNormal 11.19 11.19 5.62 5.62 4.30 4.30 5.16 5.16 5.90 5.90 6.94 6.94 5.44 5.44 3.20 3.20 5.87 5.87 3.61 3.61 7.46 7.46 6.80 6.80 5.72 5.72 4.06 4.06 6.11 6.11 5.52 5.52 4.46 4.46 6.01 6.01 4.91 4.91 4.55 4.55 RaisedRaised 10.56 10.56 12.02 12.02 4.02 4.02 5.03 5.03 8.29 8.29 8.66 8.66 8.44 8.44 5.63 5.63 6.70 6.70 5.95 5.95 10.04 10.04 10.02 10.02 8.86 8.86 6.87 6.87 9.48 9.48 7.87 7.87 4.87 4.87 7.61 7.61 6.27 6.27 6.58 6.58

단계 S270에서, 서버(10)는 대화음 크기가 기 설정된 범위 이내인 경우, 압축역치(Compression Threshold), 압축비율(Compression Ratio), 확장역치(Extension Threshold), 확장비율(Extension Ratio) 및 상기 가중치를 바탕으로 제1 파라미터를 결정하고, 상기 결정된 제1 파라미터를 바탕으로 제1 주파수 이득값 및 제1 최대 출력값을 결정할 수 있다.이때, 압축역치, 압축비율, 확장역치 및 확장비율은 비선형 증폭 방식을 이용하는 보청기에서 사용되는 것으로, 높은 강도의 대화음은 적게 변경하고 낮은 강도의 대화음은 높게 변경하기 위해 사용된다. 즉, 모든 강도의 대화음을 동일한 방법을 통해 증폭시키는 경우, 매우 작은 대화음이 충분히 증폭되지 않거나, 매우 큰 대화음은 과다하게 증폭되어 소리의 왜곡이 발생할 수 있으므로, 서버(10)는 대화음의 크기에 따라(압축역치에 따라) 대화음의 중폭 정도를 (압축비율을 이용하여)조절할 수 있다.구체적으로, 서버(10)는 대화음의 크기가 보통(normal) 대화음 크기인 경우에는 보청기 사용자의 개별 청력역치 및 상기에서 결정된 가중치를 바탕으로 제1 주파수 이득값 및 제1 최대 출력값을 결정할 수 있다.In step S270, the server 10, when the dialog sound size is within a preset range, the compression threshold (Compression Threshold), the compression ratio (Compression Ratio), the extension threshold (Extension Threshold), the extension ratio (Extension Ratio) and the weight A first parameter may be determined based on, and a first frequency gain value and a first maximum output value may be determined based on the determined first parameter. In this case, the compression threshold, the compression ratio, the expansion threshold, and the expansion ratio are nonlinear amplification methods. It is used in hearing aids that use high-intensity dialogue sounds to change less and low-intensity dialogue sounds to increase. That is, in the case of amplifying dialogue sounds of all intensities through the same method, very small dialogue sounds may not be sufficiently amplified, or very loud dialogue sounds may be excessively amplified, resulting in distortion of the sound. Depending on the size of the dialogue sound (depending on the compression threshold), the medium width of the dialogue sound can be adjusted (using the compression ratio). Specifically, when the dialogue sound size is a normal dialogue sound size, the server 10 A first frequency gain value and a first maximum output value may be determined based on the individual hearing threshold of the hearing aid user and the weight determined above.

그러나 서버(10)는 대화음의 크기가 보통(normal) 대화음 크기보다 작거나(Casual) 큰(Raised) 경우, 보청기 사용자의 개별 청력 역치 및 상기에서 결정된 가중치뿐만 아니라, 압축역치(Compression Threshold), 압축비율(Compression Ratio)를 더 고려하여 제1 주파수 이득값 및 제1 최대 출력값을 결정할 수 있다. 예를 들어, 2000Hz대에서의 LZeq가 45인 경우, 서버(10)는 대화음이 보통 대화음보다 큰 대화음으로 판단하고, 이에 대한 압축역치(Compression Threshold), 압축비율(Compression Ratio)를 고려하여 제1 주파수 이득값 및 제1 최대 출력값을 결정할 수 있다.However, the server 10 is not only the individual hearing threshold of the hearing aid user and the weight determined above, but also the compression threshold when the volume of the dialog sound is less than the normal (Casual) or greater (Raised). , The first frequency gain value and the first maximum output value may be determined by further considering the compression ratio. For example, when the LZeq in the 2000 Hz band is 45, the server 10 determines that the dialogue sound is a dialogue sound that is larger than the normal dialogue sound, and considers the compression threshold and compression ratio. Thus, the first frequency gain value and the first maximum output value may be determined.

상술한 방법을 통해 서버(10)는 한국인에게 적합한 보청기(20)의 보정 방법을 획득할 수 있다. 일 실시예로, 도 13 및 14는 50 dB flat 난청 성인에 대한 입력음압레벨(input)과 압축역치레벨(CT)에 따른 각 주파수 대역에서의 주파수 이득값의 그래프를 나타낸다. 도 13 및 도 14를 참조하면, CT31에 대한 압축역치에 대한 주파수 이득값은 30db까지 증가하고 30db 이후로는 감소할 수 있다. CT41에 대한 압축역치에 대한 주파수 이득값은 40db까지 증가하고 40db 이후로는 감소할 수 있다. CT51에 대한 압축역치에 대한 주파수 이득값은 50db 근방까지는 일정하게 유지되며 그 이후로는 감소할 수 있다. CT61에 대한 압축역치에 대한 주파수 이득값은 60db 근방까지는 일정하게 유지되며 그 이후로는 감소할 수 있다. CT71에 대한 압축역치에 대한 주파수 이득값은 70db 근방까지는 일정하게 유지되며 그 이후로는 감소할 수 있다. 각각의 압축역치에 대한 주파수 이득값은 상술한 도 3의 실시예에 의해 획득될 수 있다.Through the above-described method, the server 10 can obtain a correction method of the hearing aid 20 suitable for Koreans. 13 and 14 are graphs of frequency gain values in each frequency band according to an input sound pressure level (input) and a compression threshold level (CT) for an adult with a 50 dB flat hearing loss. 13 and 14, the frequency gain value for the compression threshold for CT31 increases to 30db and may decrease after 30db. The frequency gain for the compression threshold for the CT41 increases to 40db and can decrease after 40db. The frequency gain value for the compression threshold for the CT51 remains constant up to around 50db and can decrease thereafter. The frequency gain value for the compression threshold for CT61 remains constant up to around 60db and can decrease thereafter. The frequency gain value for the compression threshold for CT71 remains constant up to around 70db and can decrease thereafter. The frequency gain value for each compression threshold can be obtained by the embodiment of FIG. 3 described above.

한편, 본 발명의 일 실시예에 따라, 제1 파라미터는 각각의 조건에 따라 하기 공식이 적용되어 산출될 수 있다. 설명의 편의를 위해 X1은 HTL(Hearing Threshold Level), X2는 입력음의 크기, Y(XX)는 조건 XX에서의 제1 파라미터로 정의한다. 또한, 산출된 Y(XX)<0인 경우 Y(XX)=0으로 처리하는 것으로 가정한다. 또한, 상술한 8개의 주파수 대역은 중심 주파수 250Hz에 대한 제1 주파수 대역, 중심 주파수 500Hz에 대한 제2 주파수 대역, 중심 주파수 800Hz에 대한 제3 주파수 대역, 중심 주파수 1000Hz에 대한 제4 주파수 대역, 중심 주파수 1600Hz에 대한 제5 주파수 대역, 중심 주파수 2500Hz에 대한 제6 주파수 대역, 중심 주파수 4000Hz에 대한 제7 주파수 대역, 중심 주파수 6000Hz에 대한 제8 주파수 대역이라고 가정한다.Meanwhile, according to an embodiment of the present invention, the first parameter may be calculated by applying the following formula according to each condition. For convenience of explanation, X1 is defined as HTL (Hearing Threshold Level), X2 is the size of the input sound, and Y(XX) is defined as the first parameter in condition XX. In addition, if the calculated Y(XX)<0, it is assumed that Y(XX)=0. In addition, the eight frequency bands described above are the first frequency band for the center frequency 250Hz, the second frequency band for the center frequency 500Hz, the third frequency band for the center frequency 800Hz, the fourth frequency band for the center frequency 1000Hz, and the center. Assume that they are a fifth frequency band for a frequency of 1600 Hz, a sixth frequency band for a center frequency of 2500 Hz, a seventh frequency band for a center frequency of 4000 Hz, and an eighth frequency band for a center frequency of 6000 Hz.

제1 실시예로, 확장역치레벨(ET)이 ET30, X2=<30dB SPL(Sound Pressure Level)에서 각각의 주파수 대역에 대한 제1 파라미터 Y(ET30)은, 제1 주파수 대역에서 Y(ET30)=0.714X1 + 0.041X2 - 37.243, 제2 주파수 대역에서 Y(ET30)=0.630X1 + 0.201X2 - 20.364, 제3 주파수 대역에서 Y(ET30)=0.598X1 + 0.251X2 - 13.206, 제4 주파수 대역에서 Y(ET30)=0.566X1 + 0.288X2 - 3.016, 제5 주파수 대역에서 Y(ET30)=0.548X1 + 0.289X2 - 0.327, 제6 주파수 대역에서 Y(ET30)=0.513X1 + 0.289X2 + 2.934, 제7 주파수 대역에서 Y(ET30)=0.302X1 + 0.167X2 + 4.271, 제8 주파수 대역에서 Y(ET30)=0.240X1 + 0.128X2 + 1.266일 수 있다.In the first embodiment, when the extended threshold level (ET) is ET30, X2=<30dB SPL (Sound Pressure Level), the first parameter Y (ET30) for each frequency band is Y (ET30) in the first frequency band. =0.714X1 + 0.041X2-37.243, in the second frequency band Y(ET30)=0.630X1 + 0.201X2-20.364, in the third frequency band Y(ET30)=0.598X1 + 0.251X2-13.206, in the fourth frequency band Y(ET30)=0.566X1 + 0.288X2-3.016, Y(ET30)=0.548X1 + 0.289X2-0.327 in the 5th frequency band, Y(ET30)=0.513X1 + 0.289X2 + 2.934 in the 6th frequency band In the 7 frequency band, Y(ET30) = 0.302X1 + 0.167X2 + 4.271, and in the eighth frequency band Y(ET30) = 0.240X1 + 0.128X2 + 1.266.

제2 실시예로, 확장역치레벨(ET)이 ET40, X2=<40dB SPL에서 각각의 주파수 대역에 대한 제1 파라미터 Y(ET40)은, 제1 주파수 대역에서 Y(ET40)=0.714X1 + 0.016X2 - 37.243, 제2 주파수 대역에서 Y(ET40)=0.630X1 + 0.075X2 - 20.364, 제3 주파수 대역에서 Y(ET40)=0.598X1 + 0.094X2 - 13.206, 제4 주파수 대역에서 Y(ET40)=0.566X1 + 0.108X2 - 3.016, 제5 주파수 대역에서 Y(ET40)=0.548X1 + 0.108X2 - 0.327, 제6 주파수 대역에서 Y(ET40)=0.513X1 + 0.108X2 + 2.934, 제7 주파수 대역에서 Y(ET40)=0.302X1 + 0.063X2 + 4.271, 제8 주파수 대역에서 Y(ET40)=0.240X1 + 0.048X2 + 1.266일 수 있다.In the second embodiment, when the extended threshold level ET is ET40 and X2=<40dB SPL, the first parameter Y(ET40) for each frequency band is Y(ET40)=0.714X1 + 0.016 in the first frequency band. X2-37.243, Y(ET40)=0.630X1 + 0.075X2-20.364 in the 2nd frequency band, Y(ET40)=0.598X1 + 0.094X2-13.206 in the 3rd frequency band, Y(ET40)= in the 4th frequency band 0.566X1 + 0.108X2-3.016, Y(ET40)=0.548X1 + 0.108X2-0.327 in the 5th frequency band, Y(ET40)=0.513X1 + 0.108X2 + 2.934 in the 6th frequency band, Y in the 7th frequency band (ET40) = 0.302X1 + 0.063X2 + 4.271, and Y(ET40) = 0.240X1 + 0.048X2 + 1.266 in the eighth frequency band.

제3 실시예로, X2=<40dB SPL이고, 선형 증폭 방식을 이용하는 보청기에서 각각의 주파수 대역에 대한 제1 파라미터 Y(Lin1)은, In a third embodiment, X2=<40dB SPL, and the first parameter Y(Lin1) for each frequency band in a hearing aid using a linear amplification method is,

제1 주파수 대역에서 Y(Lin1)=0.714X1 - 37.243, 제2 주파수 대역에서 Y(Lin1)=0.630X1 - 20.364, 제3 주파수 대역에서 Y(Lin1)=0.598X1 - 13.206, 제4 주파수 대역에서 Y(Lin1)=0.566X1 - 3.016, 제5 주파수 대역에서 Y(Lin1)=0.548X1 - 0.327, 제6 주파수 대역에서 Y(Lin1)=0.513X1 + 2.934, 제7 주파수 대역에서 Y(Lin1)=0.302X1 + 4.271, 제8 주파수 대역에서 Y(Lin1)=0.240X1 + 1.266일 수 있다.Y(Lin1) = 0.714X1-37.243 in the first frequency band, Y(Lin1) = 0.630X1-20.364 in the second frequency band, Y(Lin1) = 0.598X1-13.206 in the third frequency band, in the fourth frequency band Y(Lin1)=0.566X1-3.016, Y(Lin1)=0.548X1-0.327 in the 5th frequency band, Y(Lin1)=0.513X1 + 2.934 in the 6th frequency band, Y(Lin1)= in the 7th frequency band It may be 0.302X1 + 4.271, and Y(Lin1) = 0.240X1 + 1.266 in the eighth frequency band.

제4 실시예로, X2=<50dB SPL이고, 선형 증폭 방식을 이용하는 보청기에서 각각의 주파수 대역에 대한 제1 파라미터 Y(Lin2)은, 제1 주파수 대역에서 Y(Lin2)=0.714X1 - 37.243, 제2 주파수 대역에서 Y(Lin2)=0.630X1 - 20.364, 제3 주파수 대역에서 Y(Lin2)=0.598X1 - 13.206, 제4 주파수 대역에서 Y(Lin2)=0.566X1 - 3.016, 제5 주파수 대역에서 Y(Lin2)=0.548X1 - 0.327, 제6 주파수 대역에서 Y(Lin2)=0.513X1 + 2.934, 제7 주파수 대역에서 Y(Lin2)=0.302X1 + 4.271, 제8 주파수 대역에서 Y(Lin2)=0.240X1 + 1.266일 수 있다.In the fourth embodiment, X2 = <50dB SPL, and the first parameter Y(Lin2) for each frequency band in the hearing aid using the linear amplification method is Y(Lin2) = 0.714X1-37.243 in the first frequency band, Y(Lin2)=0.630X1-20.364 in the 2nd frequency band, Y(Lin2)=0.598X1-13.206 in the 3rd frequency band, Y(Lin2)=0.566X1-3.016 in the 4th frequency band, in the 5th frequency band Y(Lin2)=0.548X1-0.327, Y(Lin2)=0.513X1 + 2.934 in the 6th frequency band, Y(Lin2)=0.302X1 + 4.271 in the 7th frequency band, Y(Lin2)= in the 8th frequency band It can be 0.240X1 + 1.266.

제5 실시예로, X2=<60dB SPL이고, 선형 증폭 방식을 이용하는 보청기에서 각각의 주파수 대역에 대한 제1 파라미터 Y(Lin3)은, 제1 주파수 대역에서 Y(Lin3)=0.714X1 - 37.243, 제2 주파수 대역에서 Y(Lin3)=0.630X1 - 20.364, 제3 주파수 대역에서 Y(Lin3)=0.598X1 - 13.206, 제4 주파수 대역에서 Y(Lin3)=0.566X1 - 3.016, 제5 주파수 대역에서 Y(Lin3)=0.548X1 - 0.327, 제6 주파수 대역에서 Y(Lin3)=0.513X1 + 2.934, 제7 주파수 대역에서 Y(Lin3)=0.302X1 + 4.271, 제8 주파수 대역에서 Y(Lin3)=0.240X1 + 1.266일 수 있다.In the fifth embodiment, X2=<60dB SPL, and the first parameter Y(Lin3) for each frequency band in the hearing aid using the linear amplification method is Y(Lin3)=0.714X1-37.243 in the first frequency band, Y(Lin3)=0.630X1-20.364 in the 2nd frequency band, Y(Lin3)=0.598X1-13.206 in the 3rd frequency band, Y(Lin3)=0.566X1-3.016 in the 4th frequency band, in the 5th frequency band Y(Lin3)=0.548X1-0.327, Y(Lin3)=0.513X1 + 2.934 in the 6th frequency band, Y(Lin3)=0.302X1 + 4.271 in the 7th frequency band, Y(Lin3)= in the 8th frequency band It can be 0.240X1 + 1.266.

제6 실시예로, 압축역치레벨(CT)이 CT31, X2>=31dB SPL에서 각각의 주파수 대역에 대한 제1 파라미터 Y(CT31)은, 제1 주파수 대역에서 Y(CT31)=0.714X1 - 0.062X2 - 34.143, 제2 주파수 대역에서 Y(CT31)=0.630X1 - 0.301X2 - 5.314, 제3 주파수 대역에서 Y(CT31)=0.598X1 - 0.377X2 + 5.644, 제4 주파수 대역에서 Y(CT31)=0.566X1 - 0.432X2 + 18.584, 제5 주파수 대역에서 Y(CT31)=0.548X1 - 0.433X2 + 21.323, 제6 주파수 대역에서 Y(CT31)=0.513X1 - 0.433X2 + 24.584, 제7 주파수 대역에서 Y(CT31)=0.302X1 - 0.250X2 + 16.771, 제8 주파수 대역에서 Y(CT31)=0.240X1 - 0.192X2 + 10.866일 수 있다.In the sixth embodiment, when the compression threshold level CT is CT31, X2>=31dB SPL, the first parameter Y(CT31) for each frequency band is Y(CT31)=0.714X1-0.062 in the first frequency band. X2-34.143, Y(CT31)=0.630X1-0.301X2-5.314 in the 2nd frequency band, Y(CT31)=0.598X1-0.377X2 + 5.644 in the 3rd frequency band, Y(CT31)= in the 4th frequency band 0.566X1-0.432X2 + 18.584, Y(CT31)=0.548X1-0.433X2 + 21.323 in the 5th frequency band, Y(CT31)=0.513X1-0.433X2 + 24.584 in the 6th frequency band, Y in the 7th frequency band (CT31) = 0.302X1-0.250X2 + 16.771, Y(CT31) = 0.240X1-0.192X2 + 10.866 in the eighth frequency band.

제7 실시예로, 압축역치레벨(CT)이 CT41, X2>=41dB SPL에서 각각의 주파수 대역에 대한 제1 파라미터 Y(CT41)은, 제1 주파수 대역에서 Y(CT41)=0.714X1 - 0.062X2 - 34.143, 제2 주파수 대역에서 Y(CT41)=0.630X1 - 0.301X2 - 5.314, 제3 주파수 대역에서 Y(CT41)=0.598X1 - 0.377X2 + 5.644, 제4 주파수 대역에서 Y(CT41)=0.566X1 - 0.432X2 + 18.584, 제5 주파수 대역에서 Y(CT41)=0.548X1 - 0.433X2 + 21.323, 제6 주파수 대역에서 Y(CT41)=0.513X1 - 0.433X2 + 24.584, 제7 주파수 대역에서 Y(CT41)=0.302X1 - 0.250X2 + 16.771, 제8 주파수 대역에서 Y(CT41)=0.240X1 - 0.192X2 + 10.866일 수 있다.In the seventh embodiment, when the compression threshold level CT is CT41, X2>=41dB SPL, the first parameter Y(CT41) for each frequency band is Y(CT41)=0.714X1-0.062 in the first frequency band. X2-34.143, Y(CT41)=0.630X1-0.301X2-5.314 in the 2nd frequency band, Y(CT41)=0.598X1-0.377X2 + 5.644 in the 3rd frequency band, Y(CT41)= in the 4th frequency band 0.566X1-0.432X2 + 18.584, Y(CT41)=0.548X1-0.433X2 + 21.323 in the 5th frequency band, Y(CT41)=0.513X1-0.433X2 + 24.584 in the 6th frequency band, Y in the 7th frequency band (CT41) = 0.302X1-0.250X2 + 16.771, Y(CT41) = 0.240X1-0.192X2 + 10.866 in the eighth frequency band.

제8 실시예로, 압축역치레벨(CT)이 CT51, X2>=51dB SPL에서 각각의 주파수 대역에 대한 제1 파라미터 Y(CT51)은, 제1 주파수 대역에서 Y(CT51)=0.714X1 - 0.062X2 - 34.143, 제2 주파수 대역에서 Y(CT51)=0.630X1 - 0.301X2 - 5.314, 제3 주파수 대역에서 Y(CT51)=0.598X1 - 0.377X2 + 5.644, 제4 주파수 대역에서 Y(CT51)=0.566X1 - 0.432X2 + 18.584, 제5 주파수 대역에서 Y(CT51)=0.548X1 - 0.433X2 + 21.323, 제6 주파수 대역에서 Y(CT51)=0.513X1 - 0.433X2 + 24.584, 제7 주파수 대역에서 Y(CT51)=0.302X1 - 0.250X2 + 16.771, 제8 주파수 대역에서 Y(CT51)=0.240X1 - 0.192X2 + 10.866일 수 있다.In the eighth embodiment, when the compression threshold level CT is CT51, X2>=51dB SPL, the first parameter Y(CT51) for each frequency band is Y(CT51)=0.714X1-0.062 in the first frequency band. X2-34.143, Y(CT51)=0.630X1-0.301X2-5.314 in the 2nd frequency band, Y(CT51)=0.598X1-0.377X2 + 5.644 in the 3rd frequency band, Y(CT51)= in the 4th frequency band 0.566X1-0.432X2 + 18.584, Y(CT51)=0.548X1-0.433X2 + 21.323 in the 5th frequency band, Y(CT51)=0.513X1-0.433X2 + 24.584 in the 6th frequency band, Y in the 7th frequency band (CT51) = 0.302X1-0.250X2 + 16.771, Y(CT51) = 0.240X1-0.192X2 + 10.866 in the eighth frequency band.

제9 실시예로, 압축역치레벨(CT)이 CT61, X2>=61dB SPL에서 각각의 주파수 대역에 대한 제1 파라미터 Y(CT61)은, 제1 주파수 대역에서 Y(CT61)=0.714X1 - 0.078X2 - 33.507, 제2 주파수 대역에서 Y(CT61)=0.630X1 - 0.37625X2 +2.211, 제3 주파수 대역에서 Y(CT61)=0.598X1 - 0.47125X2 + 15.069, 제4 주파수 대역에서 Y(CT61)=0.566X1 - 0.540X2 + 29.384, 제5 주파수 대역에서 Y(CT61)=0.548X1 - 0.54125X2 + 32.148, 제6 주파수 대역에서 Y(CT61)=0.513X1 - 0.54125X2 + 35.409, 제7 주파수 대역에서 Y(CT61)=0.302X1 - 0.3125X2 + 23.021, 제8 주파수 대역에서 Y(CT61)=0.240X1 - 0.240X2 + 15.666일 수 있다.In the ninth embodiment, when the compression threshold level CT is CT61, X2>=61dB SPL, the first parameter Y(CT61) for each frequency band is Y(CT61)=0.714X1-0.078 in the first frequency band. X2-33.507, Y(CT61)=0.630X1-0.37625X2 +2.211 in the second frequency band, Y(CT61)=0.598X1-0.47125X2 + 15.069 in the third frequency band, Y(CT61)= in the fourth frequency band 0.566X1-0.540X2 + 29.384, Y(CT61)=0.548X1-0.54125X2 + 32.148 in the 5th frequency band, Y(CT61)=0.513X1-0.54125X2 + 35.409 in the 6th frequency band, Y in the 7th frequency band (CT61) = 0.302X1-0.3125X2 + 23.021, Y(CT61) = 0.240X1-0.240X2 + 15.666 in the eighth frequency band.

제10 실시예로, 압축역치레벨(CT)이 CT71, X2>=71dB SPL에서 각각의 주파수 대역에 대한 제1 파라미터 Y(CT71)은, 제1 주파수 대역에서 Y(CT71)=0.714X1 - 0.103333X2 - 30.0097, 제2 주파수 대역에서 Y(CT71)=0.630X1 - 0.501667X2 +14.75267, 제3 주파수 대역에서 Y(CT71)=0.598X1 - 0.628333X2 + 30.77733, 제4 주파수 대역에서 Y(CT71)=0.566X1 - 0.720X2 + 47.384, 제5 주파수 대역에서 Y(CT71)=0.548X1 - 0.7217X2 + 50.192, 제6 주파수 대역에서 Y(CT71)=0.513X1 - 0.7217X2 + 53.453, 제7 주파수 대역에서 Y(CT71)=0.302X1 - 0.41667X2 + 33.43767, 제8 주파수 대역에서 Y(CT71)=0.240X1 - 0.320X2 + 23.666일 수 있다.In the tenth embodiment, when the compression threshold level CT is CT71, X2>=71dB SPL, the first parameter Y(CT71) for each frequency band is Y(CT71)=0.714X1-0.103333 in the first frequency band. X2-30.0097, Y(CT71)=0.630X1-0.501667X2 +14.75267 in the second frequency band, Y(CT71)=0.598X1-0.628333X2 + 30.77733 in the fourth frequency band, Y(CT71)= in the fourth frequency band 0.566X1-0.720X2 + 47.384, Y(CT71) = 0.548X1-0.7217X2 + 50.192 in the 5th frequency band, Y(CT71) = 0.513X1-0.7217X2 + 53.453 in the 6th frequency band, Y in the 7th frequency band (CT71) = 0.302X1-0.41667X2 + 33.43767, Y(CT71) = 0.240X1-0.320X2 + 23.666 in the eighth frequency band.

도 5는 본 발명의 일 실시예에 따른 인공지능모델을 이용한 주파수 대역 획득 방법을 설명하기 위한 흐름도이다.5 is a flowchart illustrating a method of obtaining a frequency band using an artificial intelligence model according to an embodiment of the present invention.

단계 S211에서, 서버(10)는 제1 음성 데이터를 획득할 수 있다. 구체적으로 서버(10)는 성인용 한국 표준 문장 목록 (KS-SL-A)에 포함된 텍스트를 방음부스 내부에서 생성하되, 한국어 음성 데이터의 발화자는 방음부스 중앙에 위치하고 상기 발화자의 정면 1M에 마이크가 위치하여, 상기 마이크를 통해 제1 음성 데이터를 획득할 수 있다.In step S211, the server 10 may acquire the first voice data. Specifically, the server 10 generates text contained in the Korean Standard Sentence List (KS-SL-A) for adults inside the soundproof booth, but the speaker of the Korean voice data is located in the center of the soundproof booth, and a microphone is located 1M in front of the speaker. Positioned, the first voice data may be acquired through the microphone.

단계 S211에서 획득되는 제1 음성 데이터는 상술한 도 3 및 도 4에서의 제1 주파수 이득값 및 제1 최대 출력값을 획득하기 위한 데이터로 사용될 수 있다. 그러나 성인용 한국 표준 문장 목록 (KS-SL-A)에 포함된 텍스트만을 바탕으로 제1 주파수 이득값 및 제1 최대 출력값을 결정하는 것은 다양한 단어 및 문장을 포함하기 못하기 때문에, 서버(10)는 일상 생활에서 수집 가능한 다양한 한국어 음성 데이터를 수집하고 변환하여 제1 주파수 이득값 및 제1 최대 출력값을 결정하기 위한 데이터로 사용할 수 있다.The first voice data obtained in step S211 may be used as data for obtaining the first frequency gain value and the first maximum output value in FIGS. 3 and 4 described above. However, since determining the first frequency gain value and the first maximum output value based only on the text included in the Korean Standard Sentence List for Adults (KS-SL-A) cannot include various words and sentences, the server 10 Various Korean voice data that can be collected in daily life may be collected and converted, and used as data for determining a first frequency gain value and a first maximum output value.

이를 위해, 단계 S212에서, 서버(10)는 제1 음성 데이터를 학습 데이터로 하여 인공지능 모델에 입력하여 한국어 음성 데이터에 대한 특징값을 추출하도록 인공지능 모델을 학습시킬 수 있다.To this end, in step S212, the server 10 may train the artificial intelligence model to extract feature values for Korean speech data by inputting the first speech data as training data into the artificial intelligence model.

*단계 S213에서, 서버(10)는 노이즈가 포함된 제2 음성 데이터를 학습된 인공지능 모델에 입력하여 제2 음성 데이터에 대한 특징값을 추출하고, 추출된 특징값을 바탕으로 제2 음성 데이터를 보정할 수 있다. 제2 음성 데이터는 한국어가 포함된 음성 데이터로, 다양한 환경에서 수집 가능한 음성 데이터일 수 있다. 예를 들어, 영상 컨텐츠에서 출력되는 음성 데이터, 거리에서 수집되는 음성 데이터 등 다양할 수 있다.* In step S213, the server 10 extracts a feature value for the second voice data by inputting the second voice data including noise into the learned artificial intelligence model, and based on the extracted feature value, the second voice data Can be corrected. The second voice data is voice data including Korean and may be voice data that can be collected in various environments. For example, there may be various types of audio data output from video content and audio data collected from a distance.

즉, 서버(10)는 제1 음성 데이터를 바탕으로 학습된 인공지능모델에 제2 음성 데이터를 입력하여, 제2 음성 데이터를 보청기 보정에 적합한 제1 음성 데이터의 형식으로 보정할 수 있다. 구체적으로, 서버(10)는 제1 음성데이터의 특징값을 추출하고, 제2 음성 데이터의 특징값을 추출하여, 제1 음성데이터의 특징값을 바탕으로 제2 음성 데이터의 특징값을 보정하고, 보정된 제2 음성 데이터의 특징값을 바탕으로 제2 음성 데이터를 보정할 수 있다.That is, the server 10 may input the second voice data to the artificial intelligence model learned based on the first voice data, and correct the second voice data in the form of first voice data suitable for correction of a hearing aid. Specifically, the server 10 extracts a feature value of the first voice data, extracts a feature value of the second voice data, and corrects the feature value of the second voice data based on the feature value of the first voice data. , The second voice data may be corrected based on the corrected feature value of the second voice data.

단계 S214에서, 서버(10)는 제1 음성 데이터 및 보정된 제2 음성 데이터를 포함하는 한국어 음성 데이터를 바탕으로 복수개의 주파수 대역을 획득할 수 있다.In step S214, the server 10 may acquire a plurality of frequency bands based on Korean voice data including the first voice data and the corrected second voice data.

상술한 바와 같이 서버(10)는 다양한 한국어 음성 데이터를 획득하여, 한국인에게 더욱 적합한 보청기(20)의 보정 방법을 결정할 수 있으며, 나아가, 새롭게 발생하는 신조어, 은어, 줄임말 등 시대에 따른 다양한 단어 및 문장을 반영할 수 있는 효과가 존재한다.As described above, the server 10 may acquire various Korean voice data to determine a correction method of the hearing aid 20 that is more suitable for Koreans, and further, various words according to the times such as newly generated new words, sweet words, and abbreviations, and There is an effect that can reflect sentences.

도 6은 본 발명의 일 실시예에 따른 보청기를 2차 보정하는 방법을 설명하기 위한 흐름도이다.6 is a flowchart illustrating a method of secondary correction of a hearing aid according to an embodiment of the present invention.

도 3 내지 도 5에서는 한국인이 사용하는 전반적인 한국어 음성 데이터에 따라 보청기(20)를 1차 보정하였으나, 보청기 사용자 각각에게 적합한 보청기를 2차 보정할 수 있는 방법이 필요할 수 있다.In FIGS. 3 to 5, the hearing aid 20 is first calibrated according to the overall Korean voice data used by Koreans, but a method for secondary calibrating a hearing aid suitable for each hearing aid user may be required.

따라서, 단계 S410에서, 서버(10)는 보청기 사용자의 청각 상태에 대한 데이터를 바탕으로, 복수개의 주파수 대역 각각에 대한 주파수 이득값 및 최대 출력값을 보정하여 제2 주파수 이득값 및 제2 최대 출력값을 획득할 수 있다. 이때, 사용자의 Therefore, in step S410, the server 10 corrects the frequency gain value and the maximum output value for each of the plurality of frequency bands based on the data on the hearing state of the hearing aid user to obtain the second frequency gain value and the second maximum output value. Can be obtained. At this time, the user's

단계 S420에서, 서버(10)는 보청기 사용자의 음성 데이터를 바탕으로 보청기(20)가 감지하는 음원의 파형을 보정하기 위한 특징값을 추출할 수 있다.In step S420, the server 10 may extract a feature value for correcting the waveform of the sound source detected by the hearing aid 20 based on the voice data of the hearing aid user.

구체적으로, 보청기 사용자에 의해 생성되는 음성 데이터가 보청기(20)를 통과하여 보정된 경우, 보청기 사용자의 실제 목소리와 보청기 사용자의 귀에 들리는 목소리가 달라질 수 있다. 따라서, 서버(10)는 음성 데이터의 크기를 증폭시키는 것뿐만 아니라 음성 데이터의 파형을 실제 음성 데이터와 유사하게 보정하기 위하여 음원의 파형에 대한 특징값을 획득하여 음성 데이터를 보정할 수 있다.Specifically, when voice data generated by the hearing aid user passes through the hearing aid 20 and is corrected, the actual voice of the hearing aid user and the voice heard in the ear of the hearing aid user may differ. Accordingly, the server 10 may correct the voice data by acquiring characteristic values for the waveform of the sound source in order to amplify the size of the voice data and correct the waveform of the voice data similarly to the actual voice data.

단계 S510에서, 보청기(20)는 제2 주파수 이득값, 상기 제2 최대 출력값 및 음원의 파형을 보정하기 위한 특징값을 바탕으로 1차 보정된 보청기(20)를 2차 보정할 수 있다.In step S510, the hearing aid 20 may secondarily correct the first corrected hearing aid 20 based on the second frequency gain value, the second maximum output value, and a feature value for correcting the waveform of the sound source.

도 7은 본 발명의 일 실시예에 따른 보청기를 3차 보정하는 방법을 설명하기 위한 흐름도이다.7 is a flowchart illustrating a third correction method of a hearing aid according to an embodiment of the present invention.

단계 S610에서, 보청기(20)는, 보청기(20)로 입력되는 음성 데이터를 전자 장치(30)로 전송할 수 있다. In step S610, the hearing aid 20 may transmit voice data input to the hearing aid 20 to the electronic device 30.

구체적으로, 보청기(20)는 마이크로폰을 통해 감지되는 음성 데이터 및 리시버를 통해 출력되는 음성 데이터 모두를 전자 장치(30)로 전송할 수 있다. 이를 위해, 보청기(20)는 통신부 및 메모리를 더 포함할 수 있다. 보청기(20)와 전자 장치(30)는 블루투스로 연결될 수 있다. 또한, 보청기(20)의 메모리는 보청기(20)의 소형화를 위해 최소한의 데이터를 저장할 수 있으며, 저장 후 전자 장치(30)로 전송된 음성 데이터는 곧바로 삭제되어 다음 음성 데이터를 저장할 수 있다. 보청기(20)는 메모리의 저장 공간을 바탕으로 음성 데이터 전송 주기를 판단할 수 있다. 즉, 메모리 저장 공간이 기 설정된 비율 이상 차는 경우에 한하여, 보청기(20)는 음성 데이터를 전자 장치(30)로 전송할 수 있다. 상술한 방법을 통해 보청기(20)가 전자 장치(30)로 음성 데이터를 전송하는 횟수를 최소화 하여 보청기(20)의 불필요한 전력 소모를 방지할 수 있다.Specifically, the hearing aid 20 may transmit both voice data sensed through the microphone and voice data output through the receiver to the electronic device 30. To this end, the hearing aid 20 may further include a communication unit and a memory. The hearing aid 20 and the electronic device 30 may be connected via Bluetooth. In addition, the memory of the hearing aid 20 may store a minimum amount of data for miniaturization of the hearing aid 20, and the voice data transmitted to the electronic device 30 after storage may be immediately deleted to store the next voice data. The hearing aid 20 may determine a voice data transmission period based on the storage space of the memory. That is, the hearing aid 20 may transmit voice data to the electronic device 30 only when the memory storage space is greater than or equal to a preset ratio. By minimizing the number of times the hearing aid 20 transmits voice data to the electronic device 30 through the above-described method, unnecessary power consumption of the hearing aid 20 can be prevented.

또 다른 실시예로, 보청기(20)는 메모리 저장 공간이 기 설정된 비율 이상 차는 경우 전자 장치(30)와의 통신 연결을 수행하고, 음성 데이터 전송 후 통신 연결을 차단하여 보청기(20)의 불필요한 전력 소모를 방지할 수 있다.In another embodiment, the hearing aid 20 performs a communication connection with the electronic device 30 when the memory storage space is more than a preset ratio, and cuts the communication connection after transmitting voice data to consume unnecessary power of the hearing aid 20 Can be prevented.

또 다른 실시예로, 전자 장치(30)와의 통신 연결이 불가능하다고 판단한 경우, 보청기(20)는 마이크로폰 또는 리시버를 통해 획득된 음성 데이터를 메모리에 저장하지 않을 수 있다.In another embodiment, when it is determined that communication connection with the electronic device 30 is impossible, the hearing aid 20 may not store the voice data acquired through the microphone or receiver in the memory.

단계 S620에서, 전자 장치(30)는 수신한 음성 데이터를 서버(10)로 전송할 수 있다.In step S620, the electronic device 30 may transmit the received voice data to the server 10.

단계 S630에서, 서버(10)는 기 설정된 조건을 만족하면, 수신한 음성 데이터를 바탕으로 보청기(20)를 3차 보정하기 위한 제3 주파수 이득값 및 제3 최대 출력값을 획득할 수 있다.In step S630, if a predetermined condition is satisfied, the server 10 may obtain a third frequency gain value and a third maximum output value for third correction of the hearing aid 20 based on the received voice data.

이때, 기 설정된 조건이란, 수신한 음성데이터의 양에 기초한 조건일 수 있다. 즉, 서버(10)는 수신한 음성 데이터의 양이 기 설정된 양 이상인 경우, 수신한 음성 데이터를 바탕으로 보청기(20)를 3차 보정하기 위한 제3 주파수 이득값 및 제3 최대 출력값을 획득할 수 있다.In this case, the preset condition may be a condition based on the amount of received voice data. That is, when the amount of received voice data is more than a preset amount, the server 10 may obtain a third frequency gain value and a third maximum output value for third correction of the hearing aid 20 based on the received voice data. I can.

단계 S640에서, 보청기(20)는 제3 주파수 이득값 및 제3 최대 출력값을 바탕으로 2차 보정된 보청기(20)를 3차 보정할 수 있다.In step S640, the hearing aid 20 may perform a third correction of the second corrected hearing aid 20 based on the third frequency gain value and the third maximum output value.

도 8은 본 발명의 일 실시예에 따른 보청기를 4차 보정하는 방법을 설명하기 위한 흐름도이다.8 is a flowchart illustrating a method of performing a fourth correction of a hearing aid according to an embodiment of the present invention.

단계 S710에서, 서버(10)는 보청기 사용자의 생활 공간에서의 배경 소음에 대한 정보, 상기 보청기 사용자의 발화 속도에 대한 정보 및 일반인의 평균 발화 속도에 대한 정보를 포함하는 배경정보를 수집할 수 있다.In step S710, the server 10 may collect background information including information on background noise in the living space of the hearing aid user, information on the speech speed of the hearing aid user, and information on the average speech speed of the general public. .

단계 S720에서, 서버(10)는 수집된 배경정보를 바탕으로 상기 청능훈련프로그램에 포함될 배경 소음 및 발화 속도를 결정할 수 있다.In step S720, the server 10 may determine background noise and speech speed to be included in the hearing training program based on the collected background information.

단계 S730에서, 서버(10)는 상기 결정된 배경 소음 및 발화 속도를 바탕으로 청능훈련프로그램을 생성할 수 있다. 이때, 생성된 청능훈련프로그램은 보청기 사용자의 배경정보에 따라 시각단서, 음소, 단어 및 문장의 난이도, 문장 길이, 환경음 및 음악의 포함 여부가 결정될 수 있다.In step S730, the server 10 may generate the hearing training program based on the determined background noise and speech speed. At this time, the generated hearing training program may determine whether to include visual cues, phonemes, difficulty levels of words and sentences, sentence lengths, environmental sounds, and music according to background information of the hearing aid user.

일 실시예로, 보청기 사용자의 발화 속도가 일반인의 평균 발화 속도보다 느린 경우, 서버(10)는 보청기 사용자의 발화 속도를 기준으로 청능훈련프로그램의 발화 속도를 결정하고, 점차적으로 청능훈련프로그램의 발화 속도를 일반인의 평균 발화 속도로 증가시킬 수 있다. 또는, 보청기 사용자의 발화 속도가 일반인의 평균 발화 속도보다 빠른 경우, 서버(10)는 일반인의 평균 발화 속도를 기준으로 청능훈련프로그램의 발화 속도를 결정하고, 점차적으로 청능훈련프로그램의 발화 속도를 보청기 사용자의 발화 속도로 증가시킬 수 있다.In one embodiment, when the speech speed of the hearing aid user is slower than the average speech speed of the general public, the server 10 determines the speech speed of the hearing aid user based on the speech speed of the hearing aid user, and gradually utters the auditory training program. You can increase the speed to the average firing speed of the public. Alternatively, if the speech speed of the hearing aid user is faster than the average speech speed of the general public, the server 10 determines the speech speed of the hearing training program based on the average speech speed of the general public, and gradually determines the speech speed of the hearing aid training program. It can be increased at the user's utterance speed.

또 다른 실시예로, 서버(10)는 보청기 사용자의 주변 환경 정보를 바탕으로 청능훈련프로그램을 생성할 수 있다. 예를 들어, 서버(10)는 보청기 사용자의 댁내에서의 배경 소음 정보, 직장에서의 배경 소음 정보, 이동 경로에서의 배경 소음 정보를 획득하고, 획득된 배경 소음 정보를 바탕으로 청능훈련프로그램을 생성할 수 있다.In another embodiment, the server 10 may generate a hearing aid training program based on information on the surrounding environment of the hearing aid user. For example, the server 10 acquires background noise information at home, background noise information at work, and background noise information on a moving route of a hearing aid user, and creates an hearing training program based on the acquired background noise information. can do.

단계 S740에서, 서버(10)는 보청기 사용자로부터 상기 청능훈련프로그램 및 보청기 착용에 대한 결과 데이터를 수신할 수 있다.In step S740, the server 10 may receive the hearing training program and result data for wearing the hearing aid from the hearing aid user.

단계 S750에서, 서버(10)는 결과 데이터를 바탕으로 3차 보정된 보청기(20)를 4차 보정할 수 있다.In step S750, the server 10 may perform a fourth correction on the third corrected hearing aid 20 based on the result data.

구체적으로, 단계 S751에서, 서버(10)는 청능훈련프로그램에 대한 결과 데이터 중 기 설정된 비율 이상의 오답률을 가지는 주파수 구간을 획득할 수 있다.Specifically, in step S751, the server 10 may obtain a frequency section having an incorrect answer rate greater than or equal to a preset ratio among result data for the hearing training program.

단계 S752에서, 서버(10)는 획득된 주파수 구간의 주파수 이득값을 상기 제3 주파수 이득값 이상으로 보정할 수 있다.In step S752, the server 10 may correct the obtained frequency gain value of the frequency section to be equal to or greater than the third frequency gain value.

즉, 서버(10)는 청능훈련프로그램에 대한 결과 데이터 중 오답률이 기 설정된 비율 이상되는 음성 데이터에 대한 주파수 대역을 획득하고, 획득된 주파수 대역의 소리를 증폭시킬 수 있다. 구체적으로, 서버(10)는 앞서 보정된 제3 주파수 이득값 이상으로 제4 주파수 이득값을 결정할 수 있다. 그러나, 제3 주파수 이득값에 의한 음성 데이터의 증폭값은 제3 최대 출력값 이하가 되도록 제4 주파수 이득값이 결정될 수 있음은 물론이다.That is, the server 10 may acquire a frequency band for voice data in which an incorrect answer rate is greater than or equal to a preset rate among result data for the hearing training program, and amplify the sound of the obtained frequency band. Specifically, the server 10 may determine the fourth frequency gain value greater than or equal to the previously corrected third frequency gain value. However, it goes without saying that the fourth frequency gain value may be determined so that the amplification value of the voice data by the third frequency gain value is equal to or less than the third maximum output value.

도 9는 본 발명의 일 실시예에 따른 보청기에 대한 사용 데이터를 획득하는 방법을 설명하기 위한 흐름도이다.9 is a flowchart illustrating a method of obtaining usage data for a hearing aid according to an embodiment of the present invention.

단계 S731에서, 서버(10)는 복수의 보청기 사용자 각각에 대한 복수의 제1 데이터를 저장할 수 있다. 이때 복수의 제1 데이터는 배경정보, 설문문항에 대한 답변정보 및 상기 답변정보로부터 획득된 상세정보를 포함할 수 있다. In step S731, the server 10 may store a plurality of first data for each of a plurality of hearing aid users. In this case, the plurality of first data may include background information, answer information to a questionnaire question, and detailed information obtained from the answer information.

나아가, 서버(10)는 배경정보, 배경정보를 기초로 획득된 기초정보, 기초정보를 바탕으로 생성된 설문문항, 설문문항에 대한 답변정보 및 답변정보로부터 생성된 결과정보 모두를 제1 데이터로 저장할 수 있음은 물론이다. 이때 서버(10)는 획득된 배경정보, 기초정보, 설문문항, 답변정보 및 결과정보를 사용자별로 저장할 수 있다. 즉 저장된 제1 데이터는 제1 사용자에 대한 배경정보, 기초정보, 설문문항, 답변정보 및 결과정보, 제2 사용자에 대한 배경정보, 기초정보, 설문문항, 답변정보 및 결과정보정보 등으로 그룹화 될 수 있다.Furthermore, the server 10 converts all of the background information, basic information obtained based on the background information, a questionnaire generated based on the basic information, the answer information to the questionnaire, and the result information generated from the answer information as first data. Of course it can be saved. At this time, the server 10 may store the acquired background information, basic information, questionnaire question, answer information, and result information for each user. That is, the stored first data will be grouped into background information, basic information, questionnaire question, answer information and result information, background information about the second user, basic information, questionnaire question, answer information and result information information, etc. I can.

단계 S732에서, 서버(10)는 복수의 보청기 사용자에 대한 복수의 제2 데이터를 상기 복수의 사용자 별로 저장할 수 있다. 이때 제2 데이터는 청능훈련프로그램 및 보청기 착용에 대한 결과 데이터를 포함할 수 있다.In step S732, the server 10 may store a plurality of second data for a plurality of hearing aid users for each of the plurality of users. At this time, the second data may include result data on the hearing training program and wearing the hearing aid.

단계 S733에서, 서버(10)는 복수의 제1 데이터를 클러스터링하여 복수의 제1 클러스터를 획득할 수 있다.In step S733, the server 10 may acquire a plurality of first clusters by clustering the plurality of first data.

즉, 서버(10)는 복수의 보청기 사용자에 대한 데이터를 유사한 데이터끼리 그룹화 할 수 있다. That is, the server 10 may group similar data for a plurality of hearing aid users.

다만, 이에 한정되는 것은 아니며, 일 실시예로, 서버(10)는 배경정보, 기초정보, 설문문항, 답변정보 및 결과정보에 대한 데이터 각각에 대하여 클러스터링을 수행할 수도 있음은 물론이다. 이 경우, 서버(10)는 복수의 배경정보 클러스터, 기초정보 클러스터, 설문문항 클러스터, 답변정보 클러스터 및 결과정보 클러스터를 각각 획득할 수 있다. 서버(10)는 각각의 배경정보 클러스터, 기초정보 클러스터, 설문문항 클러스터, 답변정보 클러스터 및 결과정보 클러스터를 매칭하여 저장할 수 있다. 구체적으로, 서버(10)는 제1 배경정보 클러스터와 연관된 제1 기초정보 클러스터, 제1 기초정보 클러스터와 연관된 제1 설문문항 클러스터, 제1 설문문항 클러스터와 연관된 제1 답변정보 클러스터 및 제1 답변정보 클러스터와 연관된 제1 결과정보 클러스터는 매칭하여 하나의 제1 그룹을 획득할 수 있다. 동일한 방법으로 서버(10)는 각각의 배경정보 클러스터, 기초정보 클러스터, 설문문항 클러스터, 답변정보 클러스터 및 결과정보 클러스터에 대한 모든 클러스터들을 매칭하여 그룹화 할 수 있다. 서버(10)는 그룹화된 복수의 그룹에 대한 데이터를 클러스터링하여 복수의 제1 클러스터를 획득할 수 있다.However, the present invention is not limited thereto, and as an embodiment, the server 10 may perform clustering on each of the data for background information, basic information, questionnaire question, answer information, and result information. In this case, the server 10 may obtain a plurality of background information clusters, basic information clusters, questionnaire question clusters, answer information clusters, and result information clusters, respectively. The server 10 may match and store each background information cluster, basic information cluster, questionnaire question cluster, answer information cluster, and result information cluster. Specifically, the server 10 includes a first basic information cluster associated with a first background information cluster, a first questionnaire question cluster associated with the first basic information cluster, a first answer information cluster and a first answer associated with the first questionnaire cluster. The first result information cluster associated with the information cluster may be matched to obtain one first group. In the same way, the server 10 may match and group all clusters for each background information cluster, basic information cluster, questionnaire question cluster, answer information cluster, and result information cluster. The server 10 may obtain a plurality of first clusters by clustering data for a plurality of grouped groups.

즉, 서버(10)는 제1 데이터에 포함된 배경정보, 기초정보, 설문문항, 답변정보 및 결과정보를 각각 분류하고, 분류된 결과를 바탕으로 실제 사용자에 대한 데이터가 아닌 가상의 (이상적인)사용자에 대한 데이터를 획득할 수 있다. 예를 들어, 실제 사용자에 대한 제1 데이터를 바탕으로 클러스터링을 수행하는 경우에는, 실제 사용자가 설문문항에 대한 답변정보를 잘못 입력하여 정확한 상세정보가 획득되지 않는 경우 데이터 분류 및 분석에 오류가 있을 수 있다. 따라서, 각각의 사용자들이 획득한 정보만을 바탕으로 배경정보, 기초정보, 설문문항, 답변정보 및 결과정보에 대한 그룹을 생성하는 경우, 상술한 오류를 줄일 수 있는 효과가 있다.In other words, the server 10 categorizes the background information, basic information, questionnaire question, answer information, and result information included in the first data, and based on the classified results, the virtual (ideal) You can acquire data about users. For example, in the case of clustering based on the first data on the actual user, if the actual user incorrectly enters the answer information to the questionnaire and the exact detailed information is not obtained, there may be errors in data classification and analysis. I can. Therefore, when a group for background information, basic information, questionnaire question, answer information, and result information is created based on only the information acquired by each user, the above-described error can be reduced.

단계 S734에서, 서버(10)는 복수의 제2 데이터를 클러스터링하여 복수의 제2 클러스터를 획득할 수 있다.In step S734, the server 10 may acquire a plurality of second clusters by clustering the plurality of second data.

단계 S735에서, 서버(10)는 새로운 제1 보청기 사용자에 대한 배경정보 및 답변정보를 획득할 수 있다.In step S735, the server 10 may acquire background information and response information for a new first hearing aid user.

나아가, 서버(10)는 제1 보청기 사용자로부터 배경정보, 기초정보, 설문문항, 답변정보 및 결과정보 모두를 수신할 수 있음은 물론이다.Furthermore, it goes without saying that the server 10 may receive all of background information, basic information, questionnaire questions, answer information, and result information from the first hearing aid user.

단계 S736에서, 서버(10)는 복수의 제1 클러스터 중 제1 보청기 사용자에 대한 배경정보 및 답변정보와 관련된 제1-1 클러스터를 판단할 수 있다. In step S736, the server 10 may determine a 1-1 cluster related to background information and response information for the first hearing aid user among the plurality of first clusters.

단계 S737에서, 서버(10)는 복수의 제2 클러스터 중 제1-1 클러스터와 기 설정된 거리내에 존재하는 제2-1 클러스터를 판단할 수 있다.In step S737, the server 10 may determine a 2-1 cluster existing within a preset distance from the 1-1 cluster among the plurality of second clusters.

단계 S738에서, 서버(10)는 제2-1 클러스터에 포함된 데이터를 바탕으로 제1 보청기 사용자에게 적합한 청능훈련프로그램을 생성할 수 있다.In step S738, the server 10 may generate a hearing training program suitable for the first hearing aid user based on the data included in the 2-1 cluster.

즉, 제1 보청기 사용자는 제1-1 클러스터에 속한 보청기 사용자와 유사한 배경정보를 가질 것이다. 따라서, 서버(10)는 제1-1 클러스터의 사용자와 연관된 제2-1 클러스터를 획득하고, 제2-1클러스터를 획득하고, 획득된 제2-1 클러스터에 포함된 데이터를 바탕으로 제1 보청기 사용자에게 적합한 청능훈련프로그램을 생성할 수 있다.That is, the first hearing aid user will have background information similar to that of the hearing aid user belonging to the 1-1 cluster. Accordingly, the server 10 acquires the 2-1 cluster associated with the user of the 1-1 cluster, acquires the 2-1 cluster, and provides the first cluster based on the data included in the acquired 2-1 cluster. Hearing aid users can create a suitable hearing training program.

다만, 본 발명의 다양한 실시예에 따라 서버(10)는 복수의 보청기 사용자의 시험착용데이터를 저장하고, 클러스터링하여 복수의 제3 클러스터를 생성할 수 있다. 이때, 시험착용데이터란, 복수의 보청기 사용자가 1차 보정된 보청기를 사용하여 획득된 데이터로서, 도 6에서 설명한 2차 보정을 위해 사용되는 데이터 또는 도 7에서 설명한 3차 보정을 위해 사용되는 데이터를 의미할 수 있다. 서버(10)는 복수의 제3 클러스터 중 제1-1 클러스터와 기 설정된 거리 내에 존재하는 제3-1 클러스터를 판단하고, 복수의 제2 클러스터 중 제3-1 클러스터와 기 설정된 거리 내에 존재하는 제2-1 클러스터를 판단할 수도 있음은 물론이다. 또는, 서버(10)는 제2-1 클러스터가 제1-1 클러스터 및 제3-1 클러스터 모두와 기 설정된 거리 이내가 되도록 제2-1 클러스터를 결정할 수도 있음은 물론이다.However, according to various embodiments of the present disclosure, the server 10 may store test-wear data of a plurality of hearing aid users and perform clustering to generate a plurality of third clusters. At this time, the test-wear data is data obtained by a plurality of hearing aid users using a first calibrated hearing aid, and data used for the secondary correction described in FIG. 6 or data used for the third correction described in FIG. Can mean The server 10 determines the 3-1 cluster existing within a preset distance from the 1-1 cluster among the plurality of third clusters, and the 3-1 cluster exists within a preset distance from the plurality of second clusters. It goes without saying that it is also possible to determine the 2-1 cluster. Alternatively, the server 10 may, of course, determine the 2-1 cluster so that the 2-1 cluster is within a preset distance from both the 1-1 cluster and the 3-1 cluster.

도 15는 일 실시 예에 따른 장치의 구성도이다.15 is a block diagram of an apparatus according to an exemplary embodiment.

프로세서(102)는 하나 이상의 코어(core, 미도시) 및 그래픽 처리부(미도시) 및/또는 다른 구성 요소와 신호를 송수신하는 연결 통로(예를 들어, 버스(bus) 등)를 포함할 수 있다.The processor 102 may include one or more cores (not shown) and a graphic processing unit (not shown) and/or a connection path (eg, a bus) for transmitting and receiving signals with other components. .

일 실시예에 따른 프로세서(102)는 메모리(104)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 도 1 내지 도 9와 관련하여 설명된 방법을 수행한다.The processor 102 according to an embodiment executes one or more instructions stored in the memory 104 to perform the method described with respect to FIGS. 1 to 9.

예를 들어, 프로세서(102)는 메모리에 저장된 하나 이상의 인스트럭션을 실행함으로써 신규 학습용 데이터를 획득하고, 학습된 모델을 이용하여, 상기 획득된 신규 학습용 데이터에 대한 테스트를 수행하고, 상기 테스트 결과, 라벨링된 정보가 소정의 제1 기준값 이상의 정확도로 획득되는 제1 학습용 데이터를 추출하고, 상기 추출된 제1 학습용 데이터를 상기 신규 학습용 데이터로부터 삭제하고, 상기 추출된 학습용 데이터가 삭제된 상기 신규 학습용 데이터를 이용하여 상기 학습된 모델을 다시 학습시킬 수 있다. For example, the processor 102 acquires new training data by executing one or more instructions stored in the memory, performs a test on the acquired new training data using the learned model, and labels the test result. Extracting first learning data in which the extracted information is obtained with an accuracy of a predetermined first reference value or more, deleting the extracted first learning data from the new learning data, and removing the new learning data from which the extracted learning data is deleted The learned model may be retrained by using.

한편, 프로세서(102)는 프로세서(102) 내부에서 처리되는 신호(또는, 데이터)를 일시적 및/또는 영구적으로 저장하는 램(RAM: Random Access Memory, 미도시) 및 롬(ROM: Read-Only Memory, 미도시)을 더 포함할 수 있다. 또한, 프로세서(102)는 그래픽 처리부, 램 및 롬 중 적어도 하나를 포함하는 시스템온칩(SoC: system on chip) 형태로 구현될 수 있다. Meanwhile, the processor 102 temporarily and/or permanently stores a signal (or data) processed inside the processor 102, a RAM (Random Access Memory, not shown) and a ROM (Read-Only Memory). , Not shown) may further include. In addition, the processor 102 may be implemented in the form of a system on chip (SoC) including at least one of a graphic processing unit, RAM, and ROM.

메모리(104)에는 프로세서(102)의 처리 및 제어를 위한 프로그램들(하나 이상의 인스트럭션들)을 저장할 수 있다. 메모리(104)에 저장된 프로그램들은 기능에 따라 복수 개의 모듈들로 구분될 수 있다.The memory 104 may store programs (one or more instructions) for processing and controlling the processor 102. Programs stored in the memory 104 may be divided into a plurality of modules according to functions.

본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.The steps of a method or algorithm described in connection with an embodiment of the present invention may be implemented directly in hardware, implemented as a software module executed by hardware, or a combination thereof. Software modules include Random Access Memory (RAM), Read Only Memory (ROM), Erasable Programmable ROM (EPROM), Electrically Erasable Programmable ROM (EEPROM), Flash Memory, hard disk, removable disk, CD-ROM, or It may reside on any type of computer-readable recording medium well known in the art to which the present invention pertains.

본 발명의 구성 요소들은 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 애플리케이션)으로 구현되어 매체에 저장될 수 있다. 본 발명의 구성 요소들은 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있으며, 이와 유사하게, 실시 예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다.Components of the present invention may be implemented as a program (or application) and stored in a medium in order to be executed in combination with a computer that is hardware. Components of the present invention may be implemented as software programming or software elements, and similarly, embodiments include various algorithms implemented with a combination of data structures, processes, routines or other programming elements, including C, C++ , Java, assembler, or the like may be implemented in a programming or scripting language. Functional aspects can be implemented with an algorithm running on one or more processors.

이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다. In the above, embodiments of the present invention have been described with reference to the accompanying drawings, but those of ordinary skill in the art to which the present invention pertains can be implemented in other specific forms without changing the technical spirit or essential features. You can understand. Therefore, the embodiments described above are illustrative in all respects, and should be understood as non-limiting.

10: 서버
20: 보청기
30: 전자 장치
10: server
20: hearing aid
30: electronic device

Claims (1)

서버 및 보청기에 의해 수행되는 보청기 시스템의 제어 방법에 있어서,
상기 서버가, 한국어 음성 데이터를 바탕으로 복수개의 주파수 대역을 획득하는 단계;
상기 서버가, 상기 복수개의 주파수 대역 각각에 대한 제1 주파수 이득값 및 제1 최대 출력값을 획득하는 단계;
상기 보청기가, 상기 획득된 복수개의 주파수 대역 각각에 대한 제1 주파수 이득값 및 제1 최대 출력값을 바탕으로 상기 보청기를 1차 보정하는 단계;
상기 서버가, 보청기 사용자의 청각 상태에 대한 데이터 및 상기 보청기 사용자의 음성 데이터를 획득하는 단계; 및
상기 보청기가, 상기 보청기 사용자의 청각 상태에 대한 데이터 및 상기 보청기 사용자의 음성 데이터를 바탕으로 상기 1차 보정된 보청기를 2차 보정하는 단계; 를 포함하는 제어 방법.
In the control method of a hearing aid system performed by a server and a hearing aid,
Obtaining, by the server, a plurality of frequency bands based on Korean voice data;
Obtaining, by the server, a first frequency gain value and a first maximum output value for each of the plurality of frequency bands;
Performing, by the hearing aid, primary correcting the hearing aid based on a first frequency gain value and a first maximum output value for each of the obtained plurality of frequency bands;
Obtaining, by the server, data on the hearing condition of the hearing aid user and voice data of the hearing aid user; And
Secondary correction of the first corrected hearing aid based on data on the hearing condition of the hearing aid user and voice data of the hearing aid user, by the hearing aid; Control method comprising a.
KR1020200005756A 2020-01-16 2020-01-16 Hearing aid system control method, apparatus and program for optimal amplification KR20200137951A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200005756A KR20200137951A (en) 2020-01-16 2020-01-16 Hearing aid system control method, apparatus and program for optimal amplification

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200005756A KR20200137951A (en) 2020-01-16 2020-01-16 Hearing aid system control method, apparatus and program for optimal amplification

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020190063256A Division KR102069893B1 (en) 2019-05-29 2019-05-29 Hearing aid system control method, apparatus and program for optimal amplification

Publications (1)

Publication Number Publication Date
KR20200137951A true KR20200137951A (en) 2020-12-09

Family

ID=73787134

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200005756A KR20200137951A (en) 2020-01-16 2020-01-16 Hearing aid system control method, apparatus and program for optimal amplification

Country Status (1)

Country Link
KR (1) KR20200137951A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100956167B1 (en) 2008-01-28 2010-05-06 주식회사베토벤보청기 Creation Method of channel of digital hearing-aid and Multi-channel digital hearing-aid

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100956167B1 (en) 2008-01-28 2010-05-06 주식회사베토벤보청기 Creation Method of channel of digital hearing-aid and Multi-channel digital hearing-aid

Similar Documents

Publication Publication Date Title
JP6509213B2 (en) Auditory profile inspection system and method
Jorgensen Verification and validation of hearing aids: Opportunity not an obstacle
Crowley et al. Estimation of client-assessed hearing aid performance based upon unaided variables
US11095995B2 (en) Hearing assist device fitting method, system, algorithm, software, performance testing and training
US10952649B2 (en) Hearing assist device fitting method and software
US10609493B2 (en) Method for adjusting hearing aid configuration based on pupillary information
Van Eeckhoutte et al. Speech recognition, loudness, and preference with extended bandwidth hearing aids for adult hearing aid users
Andreetta et al. Evaluation of speech amplification devices in Parkinson's disease
Scollie et al. Fitting noise management signal processing applying the American Academy of Audiology Pediatric Amplification Guideline: Verification protocols
Ooster et al. Speech audiometry at home: automated listening tests via smart speakers with normal-hearing and hearing-impaired listeners
KR102069892B1 (en) Control method, apparatus and program of hearing aid suitability management system
US20220369053A1 (en) Systems, devices and methods for fitting hearing assistance devices
AU2010347009B2 (en) Method for training speech recognition, and training device
KR102093365B1 (en) Control method, device, and program of the trial management data-based hearing aid compliance management system
EP3864862A1 (en) Hearing assist device fitting method, system, algorithm, software, performance testing and training
WO2020077348A1 (en) Hearing assist device fitting method, system, algorithm, software, performance testing and training
KR102093368B1 (en) Control method, device and program of hearing aid system for optimal amplification specialized in Korean
KR102093369B1 (en) Control method, device and program of hearing aid system for optimal amplification for extended threshold level
KR102093370B1 (en) Control method, device and program of hearing aid system for optimal amplification for compression threshold level
John et al. Evaluation of wideband frequency responses and nonlinear frequency compression for children with cookie-bite audiometric configurations
KR102069893B1 (en) Hearing aid system control method, apparatus and program for optimal amplification
KR20200137950A (en) Control method, apparatus and program of hearing aid suitability management system
KR20200137951A (en) Hearing aid system control method, apparatus and program for optimal amplification
Schafer et al. Verification and validation of remote-microphone technology on children and college-age adults who have autism spectrum disorder
KR102093366B1 (en) Control method, device and program of hearing aid compliance management system managed based on ear impression information