JP3632384B2 - Hearing aids - Google Patents

Hearing aids Download PDF

Info

Publication number
JP3632384B2
JP3632384B2 JP20283197A JP20283197A JP3632384B2 JP 3632384 B2 JP3632384 B2 JP 3632384B2 JP 20283197 A JP20283197 A JP 20283197A JP 20283197 A JP20283197 A JP 20283197A JP 3632384 B2 JP3632384 B2 JP 3632384B2
Authority
JP
Japan
Prior art keywords
sentence
signal
sound
detects
microphone
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP20283197A
Other languages
Japanese (ja)
Other versions
JPH1146398A (en
Inventor
克文 近藤
幸司 谷高
好典 林
浩 大脇
晃 三木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP20283197A priority Critical patent/JP3632384B2/en
Publication of JPH1146398A publication Critical patent/JPH1146398A/en
Application granted granted Critical
Publication of JP3632384B2 publication Critical patent/JP3632384B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Reverberation, Karaoke And Other Acoustics (AREA)

Description

【0001】
【発明の属する技術分野】
この発明は、装用者の低下した聴覚機能を補償する聴覚補助装置に関する。
【0002】
【従来の技術】
従来より、老齢化等により聴覚機能の低下した者は、低下した聴覚機能を補償する機能補助装置として補聴器を使用している。
【0003】
【発明が解決しようとする課題】
ところで、高齢者の場合には、最小可聴信号レベルの上昇,高音域の聴取機能などの伝音系機能の低下のほか音声識別機能(語音を識別する機能)などの聴覚中枢系の機能も低下している場合が多い。そして、音声識別機能の低下した高齢者等に対しては、音声信号の周波数帯域の一部または全部を増幅するだけでは、装用者の低下した聴覚機能を補償することができない。
【0004】
例えば、他人との対話における音声であれば語音を識別してその意味内容を理解できても、ラジオや駅のアナウンス等の音声であるとその意味内容を理解することができなくなるという人が多い。これは、他人との対話では話者の口元を見て、言葉(音声)が発せられることを事前に察知して、無意識の内に発せられる言葉を聞き取ろうと準備(集中)しているのであるが、ラジオや駅のアナウンス等の場合には、音声が発せられることを事前に察知することができないため、聞き取るべき音声に対して集中することができないからである。すなわち、装用者が音声の発せられることを事前に察知することができないラジオや駅のアナウンス等の場合には、装用者の低下した聴覚機能を補償できないという問題があった。
【0005】
この発明の目的は、装用者に音声信号を聞かせることを事前に知らしめ、これから聞かせる音声信号に対して集中させることにより、装用者の低下した聴覚機能を常に補償することができる聴覚補助装置を提供することにある。
【0006】
【課題を解決するための手段】
請求項1発明は、外部から入力される外来音を集音するマイクと、入力された信号を空気振動に変換して出力するレシーバと、前記マイクで集音した外来音を順次記憶させるメモリと、前記メモリに記憶した外来音から継続的に入力される音声の文頭を検出する文頭検出処理、前記文頭を検出したときにこれを報知する報知処理を行うとともに、前記メモリに記憶した外来音を、前記文頭検出処理および報知処理に要する時間遅延させて順次前記レシーバに出力する制御部と、を備えたことを特徴とする。
請求項2の発明は、前記制御部が、文頭検出処理において、継続的に入力される音声の文頭を検出したのち該音声の文末を検出し、文末を検出したのち次の文頭を検出することを特徴とする。
請求項3の発明は、前記制御部が行う報知処理は、報知音の発音、バイブレータによる振動、表示部への画像の表示のいずれかであることを特徴とする。
【0007】
この構成では、マイクロホンで集音された外来音は順次メモリに記憶される。また、制御部は順次メモリに記憶された外来音に対して継続的に入力された音声の文頭の検出を行い、文頭を検出したときにこれを報知させる。さらに、メモリに記憶された外来音は所定時間遅れで空気振動に変換されてレシーバから出力される。
【0008】
このように、マイクロホンで集音された外来音が所定の時間遅れでレシーバから出力されるようにしたことで、制御部による文頭検出の報知後に検出した文頭およびこの文頭に継続する音声を装用者に聞かせることができる。すなわち、装用者にこれから音声を聞かせることを事前に知らしめた後、音声を聞かせることができる。したがって、装用者は常に集中して音声(特に文頭部分)を聞くことができる。これにより、装用者の低下した聴覚機能を常に補償することができる。
【0009】
なお、人は会話やアナウンス等の全体を聞き取れなくても、その一部(特に、文頭)を聞き取ればその意味内容を理解することができる。ここで、本願発明の構成では、装用者は文頭の音声に対して最も集中することになる。したがって、装用者は少なくとも文頭部分の音声の語音を識別することができるので、全体の意味内容も十分理解することができるようになる。
【0010】
【発明の実施の形態】
図1は、この発明の実施形態である聴覚補助装置の構成を示すブロック図である。1は、この実施形態の聴覚補助装置(以下、補聴器と言う。)本体である。2は、外来音を集音するマイクロホンである。3は、マイクロホン1で集音された音声信号を所定の増幅率で増幅する前置増幅器である。4は、前置増幅器3で増幅された音声信号の高域成分をカットするアンチエリアシングフィルタである。5は、アンチエリアシングフィルタ4で高域成分のカットされた音声信号をディジタル信号に変換するA/D変換器である。6は、入力された音声信号を処理する信号処理部である。この信号処理部6がこの発明で言う制御部に相当する。7は、入力された音声信号を一時的に記憶させるメモリである。8は、メモリ7に記憶させた音声信号等のディジタル信号をアナログ信号に変換するD/A変換器である。9は、D/A変換器8におけるアナログ変換時の不連続ノイズを除去するスムージングフィルタである。10は装用者が可聴できるレベルに信号を増幅させる増幅器である。11は、レシーバであり、増幅器10で増幅されたアナログ信号を空気振動に変換して装用者の外耳道に放出する。
【0011】
以下、この実施形態の補聴器1の動作について説明する。この実施形態の補聴器1では、マイクロホン2が集音した外来音を電気信号に変換して前置増幅器3に入力する。なお、外来音とは、会話やアナウンス等の人声である音声信号や、ノイズ等からなる可聴周波数信号である。前置増幅器3は、入力された電気信号(外来音)を設定されている増幅率で増幅し、これをアンチエリアシングフィルタ4に入力する。アンチエリアシングフィルタ4は、A/D変換器5におけるA/D変換のサンプリング周波数の1/2以上の周波数をカットするローパスフィルタであり、A/D変換にともなう歪みの発生を防止するために設けている。そして、信号処理部6は、A/D変換器5でディジタル信号に変換された音声信号をメモリ7に順次記憶させていく。
【0012】
また、信号処理部6は上記した処理に加えて、メモリ7に記憶させた音声信号を所定時間(設定されている時間)経過後に順次取り出し、これをD/A変換器8に入力する。D/A変換器8では、このディジタル信号をアナログ信号に変換してスムージングフィルタ9に入力する。スムージングフィルタ9では、D/A変換器8におけるD/A変換で生じた不連続ノイズを除去する。そして、D/A変換時における不連続ノイズの除去された音声信号が増幅器10で装用者の可聴できるレベルまで増幅される。そして、レシーバ11がこの増幅された音声信号(電気信号)を空気振動に変換して装用者の外耳道に放出する。
【0013】
このように、この実施形態の補聴器1では、図2に示すようにマイクロホン2で集音した外来音(音声信号)を所定時間遅らせて装用者の外耳道に放出するようにしている。すなわち、装用者は所定時間遅れで音声信号を聞くことになる。なお、音声信号を遅らせる時間は予め設定されている。また、この遅延時間を図示していない入力部において装用者が任意に設定できる構成としてもよい。
【0014】
さらに、信号処理部6は以下の処理を実行する。図3はここで説明する制御部の処理を示すフローチャートである。補聴器1では、上記したようにマイクロホン1で集音した外来音である音声信号が順次メモリ7に記憶されていく。信号処理部6は、メモリ7に記憶されている音声信号を記憶させた順番に処理し、継続的に入力されている一連の音声信号の先頭(この発明で言う文頭)を検出する文頭検出処理を実行する(n1)。n1における文頭検出処理の詳細については後述する。なお、上記n1の処理中にも、マイクロホン2で集音した音声信号はメモリ7に順次記憶され、また、レシーバ11からメモリ7に記憶された音声信号が所定時間遅れで放出されている。n1の処理は、メモリ7に記憶された音声信号から文頭を検出したことによって終了する。
【0015】
信号処理部6はn1で文頭を検出すると、合図信号(例えば、ピーピーという音声信号)をレシーバ11から一定時間出力させる(n2)。例えば、信号処理部6にSIN波の数値テーブルを設けておき、一定時間継続してこの数値テーブルから順次読みだした値を合図信号としてD/A変換器8に入力させればよい。このようにすれば、周波数f0の純音を一定時間継続して装用者に聞かせることができる。
【0016】
このように、この実施形態の補聴器1は、レシーバ11からマイクロホン2で集音した音声信号を所定時間遅らせて出力するだけではなく、マイクロホン2で集音した音声信号から文頭の検出を行い、文頭を検出したときに合図信号出力する。この合図信号によってレシーバ11から音声信号が放出されることを装用者に知らしめることができる。したがって、装用者はこれから聞かされる音声信号に対して集中することができるようになる。これにより、装用者の低下した聴覚機能を常に補償できる。なお、マイクロホン2で集音した音声信号がレシーバ11から出力されるまでの遅延時間は、音声信号の文頭部分が合図信号の出力後にレシーバ11から放出されるように設定している。
【0017】
信号処理部6は、n2で合図信号を出力すると、n1で文頭を検出した文章と他の文章との間である文間を検出する文間検出処理を実行する(n3)。文間とは、図4に示すように入力された2つの入力音声の間である。n3における文間検出処理も、文間が検出されるまで継続して行われる。文間検出処理の詳細については後述する。信号処理部6は、文間を検出するとn1に戻って上記した処理を繰り返す。
【0018】
このように、本実施形態の補聴器1は、図4に示すようにマイクロホン2で集音された入力音声が、レシーバ11から所定時間(図に示す遅延時間)遅れて放出される。また、レシーバ11から音声信号の出力が開始される直前には、合図信号が出力される。そして、この合図信号によって、装用者にマイクロホン2で集音した音声信号をレシーバ11から放出することを事前に知らしめることができる。したがって、装用者はラジオや駅のアナウンス等であっても集中してレシーバ11から放出される音声を聞くことができるようになり、その音声を聞き取って意味内容を理解することができる。また、マイクロホン2で集音された音声信号を単に所定時間だけ遅らせてレシーバ11から出力しているだけであるため、了解度の低下していない自然で明瞭な音声信号をレシーバ11から出力させることができる。すなわち、マイクロホン2で集音した音声信号の明瞭度を低下させることなく装用者に聞かせることができる。
【0019】
次に、n1における文頭検出処理について説明する。図5は、文頭検出処理を示すフローチャートである。信号処理部6はマイクロホン2から入力されメモリ7に記憶されているN個のデータ(フレームデータ)を波形データとして取り込む(n11)。なお、ここでは、メモリ7に記憶した順に取り込む。信号処理部はn11で波形データを取り込むと、この波形データの平均パワーPを算出する(n12)。平均パワーPは、N個の各データを2乗した値の総和のN分の1である。そして、n12で算出した平均パワーPと、予め設定されている音声パワー閾値Pthとの大小を比較する(n13)。ここで、
平均パワーP≦音声閾値Pth の場合、この区間は無音区間または子音等の無声音の区間である(母音等の有声音の区間である可能性がない。)としてn11に戻りつぎの波形データを取り込んで、上記した処理を繰り返す。一方、
平均パワーP>音声閾値Pth の場合、この区間は母音等の有声音の区間である可能性がある。そこで、この区間の波形データのピッチ周期を求め(n14)、このピッチ周期からこの区間が母音等の有声音の区間であるかどうかを判定する(n15)。なお、ピッチ周期は、波形データを適当な窓幅で切り出して求めた自己相関関数から求めることができる。また、有声音の区間であるかどうかを判定する方法としては、ここで求めたピッチ周期が特定の範囲内にあるかどうかから判定すればよい(母音等の有声音と子音等の無声音とを比較すると、有声音のほうが周波数が低い(ピッチ周期が長い。)。)。したがって、n14で求めたピッチ周期が予め設定した閾値よりも短いと子音等の無声音の区間であると判定させ、この閾値よりも長いと有声音の区間であると判定させればよい。
【0020】
n15において有声音の区間でないと判定すると、n11に戻りつぎの波形データを取り込んで、上記した処理を繰り返す。一方、n15で有声音の区間であると判定すると、この有声音の区間に連続しているメモリ7に記憶されている過去の音声信号の内で最初に平均パワーPが後述する無音閾値Pth2 を越えたタイミングtaを文頭する(n16)(図6参照)。なお、図6中に示すタイミングtbが平均パワーPが音声閾値Pthを越えたタイミングである。信号処理部6は、上記したように文頭を検出するとこの処理を終了し、n2に進んでレシーバ11から合図信号を出力する。
【0021】
次に、n3の文間検出処理について説明する。図7は、文間検出処理を示すフローチャートである。信号処理部7は、図示していない時間計測カウンタをリセットする(n21)。なお、この時間計測カウンタは、信号処理部6に設けられている。そして、メモリ7に記憶されているN個のデータ(フレームデータ)を波形データとして取り込む(n22)。この波形データの取り込みも、上記した文頭検出処理の場合と同様であり、メモリ7に記憶した順に取り込む。そして、n22で取り込んだ波形データの平均パワーPを算出する(n23)。n23で算出した平均パワーPと、予め設定されている無音閾値Pth2 との大小を比較する(n24)。なお、図6に示すようにPth>Pth2 の関係にある。ここで、
平均パワーP≦無音閾値Pth2 であると、この区間は無音区間である可能性があるとして、時間計測カウンタのカウント値Lを1カウントアップする(n25)。そして、時間計測カウンタのカウント値Lが予め設定されている閾値Lthよりも大きいかどうかを判定する(n26)。ここで、
L<Lth であれば、この区間が図4に示す無声区間である可能性もあるので、n22に戻って上記した処理を繰り返す。一方、
L=Lth であれば、この区間は無音区間であると判定する。ここで、継続的に入力されていた音声信号の後に無音区間があるということは、n1で文頭が検出された文章の入力が完了していると言える。なお、この無音区間が図4に示した文間である。信号処理部6は、この文間検出処理で文間を検出すると、n1に戻って上記した文頭検出処理を開始する。
【0022】
このように、マイクロホン2で集音された音声信号は、所定時間遅延させられて出力される。また、マイクロホン2に集音された音声信号の文章毎に文頭を検出し、文頭を検出する毎に合図信号を出力するようにしているため、装用者にこれから音声信号(文章)を聞かせることを知らしめることができる。これにより、装用者はこれから聞かされる音声信号に対して集中することができる。したがって、装用者の低下した聴覚機能を常に補償することができる。
【0023】
次に、この発明の別の実施形態について説明する。図8は、この実施形態にかかる補聴器の構成を示すブロック図である。なお、図において、上記した実施形態と同様の部分については同じ符号を付した。この実施形態と上記した実施形態とで、構成上の異なる点は、表示部21と前記表示部21の表示を制御する表示制御部22とを備えている点である。
【0024】
また、動作上異なる点は、信号処理部6が上記した実施形態における合図信号に代えて、表示制御部22に対して表示データを入力する点および、表示制御部22が入力された表示データに基づく画面を表示部21に表示させる点である。すなわち、上記した実施形態では、レシーバ11から合図信号を出力することにより、装用者にこれから音声信号を聞かせることを知らしめるようにしていたが、この実施形態では表示部21に画像を表示することにより、これから音声信号を聞かせることを知らしめるようにしている。この方式でも、装用者にこれから音声信号を聞かせることを知らしめることができるため、上記した実施形態の補聴器1と同様の効果を得ることができる。
【0025】
さらに、この発明の別の実施形態について説明する。図9は、この実施形態の補聴器の構成を示すブロック図である。なお、図において、上記した2つの実施形態と同様の部分については同じ符号を付した。この実施形態と上記した2つの実施形態とで、構成上の異なる点は、バイブレータ25と、このバイブレータ25の振動を制御するドライバ26とを備えている点である(表示部21および表示制御部22は備えていない)。
【0026】
また、動作上異なる点は、信号処理部6が上記した実施形態における合図信号に代えて、ドライバ26に対してバイブレータ25を振動させるデータを入力する点である。すなわち、この実施形態では、これから音声信号を聞かせることをバイブレータ25を振動させることにより装用者に知らしめるようにしている。この方式でも、装用者にこれから音声信号を聞かせることを知らしめることができるため、上記した2つの実施形態の補聴器1と同様の効果を得ることができる。
【0027】
なお、上記した実施形態では、マイクロホン2で集音した音声信号を単に増幅してレシーバ11から放出する補聴器1で説明を行ったが、マイクロホン2で集音した音声信号を単に増幅するだけでなく、マイクロホン2で集音した音声信号に対して時間的に伸長する公知の話速変換処理を行う補聴器であっても本願発明を適用できる。
【0028】
【発明の効果】
以上のように、この発明によれば、マイクロホンで集音された外来音が所定の時間遅れでレシーバから出力されるようにしたことで、制御部による文頭検出の報知後に検出した文頭およびこの文頭に継続する音声を装用者に聞かせることができる。すなわち、装用者にこれから音声を聞かせることを事前に知らしめた後、音声を聞かせることができる。したがって、装用者は常に集中して音声(特に文頭部分)を聞くことができる。これにより、装用者の低下した聴覚機能を常に補償することができる。
【図面の簡単な説明】
【図1】この発明の実施形態である聴覚補助装置の構成を示す図である。
【図2】マイクロホンで集音された音声信号とレシーバから出力される音声信号の関係を示す図である。
【図3】この実施形態の信号処理部の処理を示すフローチャートである。
【図4】マイクロホンで集音された音声信号とレシーバから出力される信号のタイミングを示す図である。
【図5】文頭検出処理を示すフローチャートである。
【図6】マイクロホンで集音された音声信号と音声パワーとの関係を示す図である。
【図7】文末検出処理を示すフローチャートである。
【図8】この発明の他の実施形態である聴覚補助装置の構成を示す図である。
【図9】この発明の他の実施形態である聴覚補助装置の構成を示す図である。
【符号の説明】
1−聴覚補助装置(補聴器)
2−マイク
6−信号処理部
7−メモリ
11−レシーバ
21−表示部
22−表示制御部
25−バイブレータ
26−ドライバ
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a hearing aid device that compensates for a reduced hearing function of a wearer.
[0002]
[Prior art]
Conventionally, a person whose auditory function has decreased due to aging or the like has used a hearing aid as a function assisting device that compensates for the decreased auditory function.
[0003]
[Problems to be solved by the invention]
By the way, for the elderly, the minimum audible signal level is increased, the sound transmission system functions such as high-frequency listening function are decreased, and the functions of the auditory central system such as the voice identification function (the function for identifying speech sounds) are also decreased. There are many cases. And for elderly people and the like who have a reduced voice identification function, it is not possible to compensate for the reduced hearing function of the wearer simply by amplifying part or all of the frequency band of the voice signal.
[0004]
For example, many people say that if they are voices in dialogue with others, they can understand the meaning of the speech and understand the meaning, but if the voice is a radio or station announcement, the meaning cannot be understood. . This is because in conversations with other people, the speaker's mouth is seen, the fact that words (speech) are spoken in advance, and preparation (concentration) is made to listen to the words that are unconsciously spoken. However, in the case of radio or station announcements, it is impossible to detect in advance that the sound will be emitted, so it is not possible to concentrate on the sound to be heard. That is, in the case of a radio or station announcement that the wearer cannot detect in advance that the sound is emitted, there is a problem that the lowered hearing function of the wearer cannot be compensated.
[0005]
An object of the present invention is to provide a hearing aid that can always compensate a wearer's reduced hearing function by letting the wearer know in advance that he / she wants to hear a sound signal and concentrating on the sound signal to be heard. To provide an apparatus.
[0006]
[Means for Solving the Problems]
According to the first aspect of the present invention, there is provided a microphone for collecting external sound input from the outside, a receiver for converting the input signal into air vibration and outputting it, and a memory for sequentially storing the external sound collected by the microphone. when, from extraneous sounds stored in the memory with initial detection process for detecting the beginning of a sentence of speech that are continuously input, performs a notification process of notifying it when it detects the beginning of a sentence, and stored in the memory outpatient And a controller that sequentially outputs the sound to the receiver with a time delay required for the sentence head detection process and the notification process .
In the invention according to claim 2, the control unit detects the sentence head of the voice that is continuously input in the sentence head detection process, detects the sentence end of the voice, detects the sentence end, and then detects the next sentence head. It is characterized by.
According to a third aspect of the present invention, the notification process performed by the control unit is any one of sound generation of a notification sound, vibration by a vibrator, and display of an image on a display unit.
[0007]
In this configuration, the external sound collected by the microphone is sequentially stored in the memory. In addition, the control unit sequentially detects the head of the voice that is continuously input with respect to the external sound stored in the memory, and notifies this when the head of the sound is detected. Further, the external sound stored in the memory is converted into air vibration with a predetermined time delay and output from the receiver.
[0008]
As described above, the external sound collected by the microphone is output from the receiver with a predetermined time delay, so that the head of the sentence detected after the notification of the beginning of sentence detection by the control unit and the sound continuing to the beginning of the sentence can be provided to the wearer. Can be heard. That is, after the wearer is informed in advance that the voice is to be heard, the voice can be heard. Therefore, the wearer can always concentrate and listen to the voice (particularly the beginning of the sentence). Thereby, it is possible to always compensate the auditory function of the wearer.
[0009]
In addition, even if a person cannot hear the whole conversation or announcement, he / she can understand its meaning by listening to a part (particularly the beginning of a sentence). Here, in the configuration of the present invention, the wearer concentrates most on the voice at the beginning of the sentence. Therefore, since the wearer can identify at least the speech sound of the beginning of the sentence, the entire semantic content can be fully understood.
[0010]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 is a block diagram showing a configuration of a hearing aid apparatus according to an embodiment of the present invention. Reference numeral 1 denotes a hearing aid device (hereinafter referred to as a hearing aid) body of this embodiment. Reference numeral 2 denotes a microphone that collects foreign sounds. Reference numeral 3 denotes a preamplifier that amplifies the sound signal collected by the microphone 1 at a predetermined amplification factor. Reference numeral 4 denotes an anti-aliasing filter that cuts a high-frequency component of the audio signal amplified by the preamplifier 3. Reference numeral 5 denotes an A / D converter that converts an audio signal whose high frequency component has been cut by the anti-aliasing filter 4 into a digital signal. Reference numeral 6 denotes a signal processing unit that processes an input audio signal. The signal processing unit 6 corresponds to the control unit referred to in the present invention. Reference numeral 7 denotes a memory for temporarily storing the input audio signal. A D / A converter 8 converts a digital signal such as an audio signal stored in the memory 7 into an analog signal. Reference numeral 9 denotes a smoothing filter that removes discontinuous noise during analog conversion in the D / A converter 8. Reference numeral 10 denotes an amplifier that amplifies the signal to a level that the wearer can hear. Reference numeral 11 denotes a receiver that converts the analog signal amplified by the amplifier 10 into air vibrations and emits it to the ear canal of the wearer.
[0011]
Hereinafter, the operation of the hearing aid 1 of this embodiment will be described. In the hearing aid 1 of this embodiment, the external sound collected by the microphone 2 is converted into an electric signal and input to the preamplifier 3. The external sound is an audio signal that is a human voice such as a conversation or announcement, or an audible frequency signal that includes noise or the like. The preamplifier 3 amplifies the input electric signal (foreign sound) with a set amplification factor and inputs it to the anti-aliasing filter 4. The anti-aliasing filter 4 is a low-pass filter that cuts a frequency that is 1/2 or more of the sampling frequency of the A / D conversion in the A / D converter 5, and prevents distortion caused by the A / D conversion. Provided. Then, the signal processing unit 6 sequentially stores the audio signal converted into the digital signal by the A / D converter 5 in the memory 7.
[0012]
Further, in addition to the above-described processing, the signal processing unit 6 sequentially takes out the audio signal stored in the memory 7 after a predetermined time (set time) has elapsed, and inputs it to the D / A converter 8. In the D / A converter 8, this digital signal is converted into an analog signal and input to the smoothing filter 9. The smoothing filter 9 removes discontinuous noise generated by D / A conversion in the D / A converter 8. Then, the audio signal from which the discontinuous noise is removed at the time of D / A conversion is amplified by the amplifier 10 to a level that can be heard by the wearer. Then, the receiver 11 converts the amplified audio signal (electrical signal) into air vibrations and releases it to the ear canal of the wearer.
[0013]
Thus, in the hearing aid 1 of this embodiment, as shown in FIG. 2, the external sound (audio signal) collected by the microphone 2 is delayed by a predetermined time and released to the ear canal of the wearer. That is, the wearer listens to the audio signal with a predetermined time delay. Note that the time for delaying the audio signal is set in advance. Moreover, it is good also as a structure which a wearer can set arbitrarily for this delay time in the input part which is not shown in figure.
[0014]
Further, the signal processing unit 6 executes the following processing. FIG. 3 is a flowchart showing processing of the control unit described here. In the hearing aid 1, audio signals that are external sounds collected by the microphone 1 as described above are sequentially stored in the memory 7. The signal processing unit 6 processes the audio signals stored in the memory 7 in the order in which they are stored, and detects the beginning of a series of audio signals that are continuously input (the beginning of the word in the present invention). Is executed (n1). Details of the sentence head detection process in n1 will be described later. Even during the processing of n1, the audio signal collected by the microphone 2 is sequentially stored in the memory 7, and the audio signal stored in the memory 7 is released from the receiver 11 with a predetermined time delay. The process of n1 ends when the beginning of a sentence is detected from the audio signal stored in the memory 7.
[0015]
When the signal processing unit 6 detects the beginning of the sentence at n1, the signal processing unit 6 outputs a cue signal (for example, an audio signal called “Peep”) from the receiver 11 for a predetermined time (n2). For example, a SIN wave numerical table may be provided in the signal processing unit 6, and values sequentially read from the numerical table may be input to the D / A converter 8 as a cue signal. In this way, a pure tone having a frequency f0 can be continuously heard by the wearer for a certain period of time.
[0016]
Thus, the hearing aid 1 of this embodiment not only outputs the audio signal collected by the microphone 2 from the receiver 11 after being delayed by a predetermined time, but also detects the beginning of the sentence from the audio signal collected by the microphone 2 and When a signal is detected, a signal is output. The wearer can be informed that the audio signal is emitted from the receiver 11 by this signal. Therefore, the wearer can concentrate on the audio signal to be heard. Thereby, the hearing function which the wearer deteriorated can always be compensated. Note that the delay time until the audio signal collected by the microphone 2 is output from the receiver 11 is set so that the sentence head portion of the audio signal is emitted from the receiver 11 after the cue signal is output.
[0017]
When the signal processing unit 6 outputs a cue signal at n2, the signal processing unit 6 executes an inter-sentence detection process for detecting an inter-sentence between a sentence in which the sentence head is detected at n1 and another sentence (n3). The sentence interval is between two input voices input as shown in FIG. The inter-sentence detection process at n3 is also continuously performed until an inter-sentence is detected. Details of the sentence detection process will be described later. When the signal processing unit 6 detects an interval between sentences, the signal processing unit 6 returns to n1 and repeats the above processing.
[0018]
Thus, in the hearing aid 1 of the present embodiment, the input sound collected by the microphone 2 as shown in FIG. 4 is emitted from the receiver 11 with a delay of a predetermined time (delay time shown in the figure). In addition, a signal is output immediately before the output of the audio signal from the receiver 11 is started. Then, it is possible to inform the wearer in advance that the audio signal collected by the microphone 2 is emitted from the receiver 11 by this signal. Therefore, the wearer can listen to the voice emitted from the receiver 11 in a concentrated manner even if it is a radio or station announcement, and can understand the meaning content by listening to the voice. In addition, since the audio signal collected by the microphone 2 is merely delayed by a predetermined time and output from the receiver 11, a natural and clear audio signal without a decrease in intelligibility is output from the receiver 11. Can do. That is, the wearer can hear the voice signal collected by the microphone 2 without lowering the clarity of the voice signal.
[0019]
Next, the sentence head detection process in n1 will be described. FIG. 5 is a flowchart showing sentence head detection processing. The signal processing unit 6 takes in N pieces of data (frame data) input from the microphone 2 and stored in the memory 7 as waveform data (n11). In this case, the data are taken in the order stored in the memory 7. When the signal processing unit captures the waveform data at n11, the average power P of the waveform data is calculated (n12). The average power P is 1 / N of the sum total of values obtained by squaring N pieces of data. Then, the average power P calculated at n12 is compared with a preset audio power threshold Pth (n13). here,
If average power P ≦ speech threshold Pth, this section is a silent section or a section of unvoiced sounds such as consonants (it may not be a section of voiced sounds such as vowels), and the process returns to n11 to capture the next waveform data. The above process is repeated. on the other hand,
If average power P> speech threshold Pth, this section may be a section of voiced sounds such as vowels. Therefore, the pitch period of the waveform data in this section is obtained (n14), and it is determined from this pitch period whether this section is a section of voiced sounds such as vowels (n15). The pitch period can be obtained from an autocorrelation function obtained by cutting out waveform data with an appropriate window width. In addition, as a method for determining whether or not it is a voiced segment, it is only necessary to determine whether or not the pitch period obtained here is within a specific range (voiced sounds such as vowels and unvoiced sounds such as consonants). In comparison, the voiced sound has a lower frequency (longer pitch period). Therefore, if the pitch period obtained in n14 is shorter than a preset threshold, it is determined that the section is a voiceless sound such as a consonant, and if it is longer than this threshold, it is determined that the section is a voiced sound.
[0020]
If it is determined that it is not a voiced sound section at n15, the process returns to n11 and the next waveform data is taken in, and the above processing is repeated. On the other hand, if it is determined that it is a voiced sound section at n15, the average power P is first set to a silent threshold value Pth2 to be described later in the past audio signals stored in the memory 7 continuous in the voiced sound section. The timing ta beyond the beginning is started (n16) (see FIG. 6). Note that the timing tb shown in FIG. 6 is the timing when the average power P exceeds the voice threshold value Pth. When the signal processing unit 6 detects the beginning of the sentence as described above, the signal processing unit 6 ends the process, proceeds to n2, and outputs a signal from the receiver 11.
[0021]
Next, the n3 sentence space detection process will be described. FIG. 7 is a flowchart showing a sentence detection process. The signal processing unit 7 resets a time measurement counter (not shown) (n21). This time measurement counter is provided in the signal processing unit 6. Then, N pieces of data (frame data) stored in the memory 7 are taken in as waveform data (n22). The waveform data is captured in the same manner as in the sentence head detection process described above, and is captured in the order stored in the memory 7. Then, the average power P of the waveform data captured at n22 is calculated (n23). The average power P calculated at n23 is compared with a preset silence threshold Pth2 (n24). As shown in FIG. 6, there is a relationship of Pth> Pth2. here,
If average power P ≦ silence threshold Pth2, this section may be a silent section, and the count value L of the time measurement counter is incremented by 1 (n25). Then, it is determined whether or not the count value L of the time measurement counter is larger than a preset threshold value Lth (n26). here,
If L <Lth, there is a possibility that this section is a silent section shown in FIG. 4, so the process returns to n22 and the above-described processing is repeated. on the other hand,
If L = Lth, this section is determined to be a silent section. Here, if there is a silent section after the voice signal that has been continuously input, it can be said that the input of the sentence in which the sentence head is detected at n1 has been completed. Note that this silent section is between sentences shown in FIG. When the signal processing unit 6 detects an inter-sentence in this inter-sentence detection process, the signal processing unit 6 returns to n1 and starts the above-described sentence head detecting process.
[0022]
As described above, the sound signal collected by the microphone 2 is output after being delayed by a predetermined time. In addition, the beginning of the sentence is detected for each sentence of the voice signal collected by the microphone 2, and a cue signal is output every time the beginning of the sentence is detected, so that the wearer will hear the voice signal (sentence) from now on. Can be informed. As a result, the wearer can concentrate on the audio signal to be heard. Therefore, it is possible to always compensate for the hearing function of the wearer.
[0023]
Next, another embodiment of the present invention will be described. FIG. 8 is a block diagram showing the configuration of the hearing aid according to this embodiment. In addition, in the figure, the same code | symbol was attached | subjected about the part similar to above-described embodiment. A difference in configuration between this embodiment and the above-described embodiment is that a display unit 21 and a display control unit 22 that controls the display of the display unit 21 are provided.
[0024]
The difference in operation is that the signal processing unit 6 inputs display data to the display control unit 22 instead of the signal signal in the above-described embodiment, and the display data to which the display control unit 22 is input. The screen based on this is displayed on the display unit 21. That is, in the above-described embodiment, a signal is output from the receiver 11 so that the wearer is informed that an audio signal will be heard from now on. However, in this embodiment, an image is displayed on the display unit 21. In this way, we will let you know that you will hear audio signals. Even in this method, the wearer can be informed that an audio signal will be heard from now on, and therefore the same effect as the hearing aid 1 of the above-described embodiment can be obtained.
[0025]
Furthermore, another embodiment of the present invention will be described. FIG. 9 is a block diagram showing the configuration of the hearing aid of this embodiment. In addition, in the figure, the same code | symbol was attached | subjected about the part similar to above-mentioned two embodiment. The difference between this embodiment and the above-described two embodiments is that it includes a vibrator 25 and a driver 26 that controls the vibration of the vibrator 25 (the display unit 21 and the display control unit). 22 is not provided).
[0026]
Further, the operation is different in that the signal processing unit 6 inputs data for vibrating the vibrator 25 to the driver 26 instead of the signal signal in the above-described embodiment. That is, in this embodiment, the wearer is informed by vibrating the vibrator 25 that an audio signal will be heard from now on. Even in this method, the wearer can be informed that an audio signal will be heard from now on, and therefore the same effect as the hearing aid 1 of the two embodiments described above can be obtained.
[0027]
In the above-described embodiment, the hearing aid 1 that simply amplifies the sound signal collected by the microphone 2 and emits it from the receiver 11 has been described. However, the sound signal collected by the microphone 2 is not simply amplified. The present invention can also be applied to a hearing aid that performs a known speech speed conversion process that extends in time with respect to a sound signal collected by the microphone 2.
[0028]
【The invention's effect】
As described above, according to the present invention, the extraneous sound collected by the microphone is output from the receiver with a predetermined time delay, so that the sentence head detected after the sentence head detection notification by the control unit and the sentence head It is possible to let the wearer hear the voice that continues to That is, after the wearer is informed in advance that the voice is to be heard, the voice can be heard. Therefore, the wearer can always concentrate and listen to the voice (particularly the beginning of the sentence). Thereby, it is possible to always compensate the auditory function of the wearer.
[Brief description of the drawings]
FIG. 1 is a diagram showing a configuration of a hearing aid apparatus according to an embodiment of the present invention.
FIG. 2 is a diagram illustrating a relationship between an audio signal collected by a microphone and an audio signal output from a receiver.
FIG. 3 is a flowchart showing processing of a signal processing unit of this embodiment.
FIG. 4 is a diagram illustrating the timing of an audio signal collected by a microphone and a signal output from a receiver.
FIG. 5 is a flowchart showing sentence head detection processing;
FIG. 6 is a diagram illustrating a relationship between an audio signal collected by a microphone and audio power.
FIG. 7 is a flowchart showing sentence end detection processing;
FIG. 8 is a diagram showing a configuration of a hearing aid apparatus according to another embodiment of the present invention.
FIG. 9 is a diagram showing a configuration of a hearing aid apparatus according to another embodiment of the present invention.
[Explanation of symbols]
1-Hearing aid (Hearing aid)
2-microphone 6-signal processing unit 7-memory 11-receiver 21-display unit 22-display control unit 25-vibrator 26-driver

Claims (3)

外部から入力される外来音を集音するマイクと、
入力された信号を空気振動に変換して出力するレシーバと、
前記マイクで集音した外来音を順次記憶させるメモリと、
前記メモリに記憶した外来音から継続的に入力される音声の文頭を検出する文頭検出処理、前記文頭を検出したときにこれを報知する報知処理を行うとともに、前記メモリに記憶した外来音を、前記文頭検出処理および報知処理に要する時間遅延させて順次前記レシーバに出力する制御部と、
を備えたことを特徴とする聴覚補助装置。
A microphone that collects external sound input from outside,
A receiver that converts the input signal to air vibration and outputs it;
A memory for sequentially storing external sounds collected by the microphone;
From extraneous sounds stored in the memory with initial detection process for detecting the beginning of a sentence of speech that are continuously input, performs a notification process of notifying it when it detects the beginning of a sentence, a foreign sound stored in the memory A control unit that sequentially outputs to the receiver with a time delay required for the sentence head detection process and the notification process ;
A hearing aid device characterized by comprising:
前記制御部は、文頭検出処理において、継続的に入力される音声の文頭を検出したのち該音声の文末を検出し、文末を検出したのち次の文頭を検出する請求項1に記載の聴覚補助装置。The auditory assistance according to claim 1, wherein the control unit detects a sentence head of the voice that is continuously input, detects a sentence end of the voice, detects a sentence end, and then detects a next sentence head in the sentence head detection process. apparatus. 前記制御部が行う報知処理は、報知音の発音、バイブレータによる振動、表示部への画像の表示のいずれかである請求項1または請求項2に記載の聴覚補助装置。The hearing aid apparatus according to claim 1, wherein the notification process performed by the control unit is any one of pronunciation of a notification sound, vibration by a vibrator, and display of an image on a display unit.
JP20283197A 1997-07-29 1997-07-29 Hearing aids Expired - Fee Related JP3632384B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP20283197A JP3632384B2 (en) 1997-07-29 1997-07-29 Hearing aids

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP20283197A JP3632384B2 (en) 1997-07-29 1997-07-29 Hearing aids

Publications (2)

Publication Number Publication Date
JPH1146398A JPH1146398A (en) 1999-02-16
JP3632384B2 true JP3632384B2 (en) 2005-03-23

Family

ID=16463922

Family Applications (1)

Application Number Title Priority Date Filing Date
JP20283197A Expired - Fee Related JP3632384B2 (en) 1997-07-29 1997-07-29 Hearing aids

Country Status (1)

Country Link
JP (1) JP3632384B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001300024A (en) * 2000-04-27 2001-10-30 Takeya Co Ltd Game machine

Also Published As

Publication number Publication date
JPH1146398A (en) 1999-02-16

Similar Documents

Publication Publication Date Title
JP5115818B2 (en) Speech signal enhancement device
US10176824B2 (en) Method and system for consonant-vowel ratio modification for improving speech perception
JP4876245B2 (en) Consonant processing device, voice information transmission device, and consonant processing method
WO2008007616A1 (en) Non-audible murmur input alarm device, method, and program
JPH0968997A (en) Method and device for processing voice
JP2000152394A (en) Hearing aid for moderately hard of hearing, transmission system having provision for the moderately hard of hearing, recording and reproducing device for the moderately hard of hearing and reproducing device having provision for the moderately hard of hearing
JP3961616B2 (en) Speech speed conversion method and hearing aid with speech speed conversion function
JP5124768B2 (en) Broadcast equipment
JPH08179792A (en) Speech processing device
JP3632384B2 (en) Hearing aids
JP2006333396A (en) Audio signal loudspeaker
JP4127155B2 (en) Hearing aids
JP3284968B2 (en) Hearing aid with speech speed conversion function
JP2008102551A (en) Apparatus for processing voice signal and processing method thereof
JP3219892B2 (en) Real-time speech speed converter
CN102222507B (en) Method and equipment for compensating hearing loss of Chinese language
JP2008042740A (en) Non-audible murmur pickup microphone
JP2870421B2 (en) Hearing aid with speech speed conversion function
JP3420831B2 (en) Bone conduction voice noise elimination device
JP2959468B2 (en) Speech rate conversion method and hearing aid with speech rate conversion function
JP3257379B2 (en) Hearing aid with speech speed conversion function
JP3292098B2 (en) Hearing aid
JP4134844B2 (en) Hearing aids
JPH08298698A (en) Environmental sound analyzer
JP4005166B2 (en) Audio signal processing circuit

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040402

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040831

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041101

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20041130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20041213

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090107

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100107

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110107

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120107

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130107

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140107

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees