JP2020113981A - 補聴器システム - Google Patents
補聴器システム Download PDFInfo
- Publication number
- JP2020113981A JP2020113981A JP2020001123A JP2020001123A JP2020113981A JP 2020113981 A JP2020113981 A JP 2020113981A JP 2020001123 A JP2020001123 A JP 2020001123A JP 2020001123 A JP2020001123 A JP 2020001123A JP 2020113981 A JP2020113981 A JP 2020113981A
- Authority
- JP
- Japan
- Prior art keywords
- sound
- data
- image
- sound collection
- processing device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 claims abstract description 67
- 230000007613 environmental effect Effects 0.000 claims abstract description 45
- 238000003672 processing method Methods 0.000 claims abstract description 13
- 238000000034 method Methods 0.000 claims abstract description 12
- 238000004458 analytical method Methods 0.000 claims description 19
- 230000008569 process Effects 0.000 claims description 6
- 238000001914 filtration Methods 0.000 claims description 5
- 230000004044 response Effects 0.000 claims description 5
- 230000004913 activation Effects 0.000 claims description 4
- 238000003891 environmental analysis Methods 0.000 claims description 4
- 239000004973 liquid crystal related substance Substances 0.000 claims description 2
- 239000011521 glass Substances 0.000 claims 2
- 230000008859 change Effects 0.000 abstract description 2
- 238000005516 engineering process Methods 0.000 description 6
- 230000005236 sound signal Effects 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000007635 classification algorithm Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000013075 data extraction Methods 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 210000005069 ears Anatomy 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000010485 coping Effects 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 210000000613 ear canal Anatomy 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/02—Casings; Cabinets ; Supports therefor; Mountings therein
- H04R1/028—Casings; Cabinets ; Supports therefor; Mountings therein associated with devices performing functions other than acoustics, e.g. electric candles
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/20—Arrangements for obtaining desired frequency or directional characteristics
- H04R1/32—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
- H04R1/40—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
- H04R1/406—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers microphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R25/00—Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L2021/02087—Noise filtering the noise being separate speech, e.g. cocktail party
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2201/00—Details of transducers, loudspeakers or microphones covered by H04R1/00 but not provided for in any of its subgroups
- H04R2201/40—Details of arrangements for obtaining desired directional characteristic by combining a number of identical transducers covered by H04R1/40 but not provided for in any of its subgroups
- H04R2201/401—2D or 3D arrays of transducers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2203/00—Details of circuits for transducers, loudspeakers or microphones covered by H04R3/00 but not provided for in any of its subgroups
- H04R2203/12—Beamforming aspects for stereophonic sound reproduction with loudspeaker arrays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2430/00—Signal processing covered by H04R, not provided for in its groups
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2430/00—Signal processing covered by H04R, not provided for in its groups
- H04R2430/20—Processing of the output signals of the acoustic transducers of an array for obtaining a desired directivity characteristic
- H04R2430/25—Array processing for suppression of unwanted side-lobes in directivity characteristics, e.g. a blocking matrix
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Otolaryngology (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Quality & Reliability (AREA)
- Computational Linguistics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Neurosurgery (AREA)
- Circuit For Audible Band Transducer (AREA)
- Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)
- User Interface Of Digital Computer (AREA)
- Circuits Of Receivers In General (AREA)
Abstract
【課題】着用者の周囲の状況に応じて集音方法を変更することができる補聴器システムを提供する。【解決手段】補聴器システムは、イメージキャプチャー4と、マイクロフォンアレイ5と、集音処理装置6と、スピーカー7と、を備えている。集音処理装置6は、イメージキャプチャー4が撮影した着用者の前方の視野を分析し、着用者がいる環境状況に合う環境画像サンプルデータを選び、その環境画像サンプルデータに対応する集音制御方針データとサウンド処理方法に基づいて、マイクロフォンアレイ5を起動及び制御して集音し、そして、スピーカー7に処理されたサウンドデータを出力させる。【選択図】図2
Description
本発明は補聴器に関し、特に環境を分析し集音処理する補聴器システムに関する。
従来の補聴器は、例えば特許文献1に記載されるものが挙げられ、音声信号の特性の違いを利用して、スピーチとノイズを区別してノイズを効果的に除去したり、指向性マイクロフォンを用いて、ユーザーの後方や側面からの音を排除したりなどの機能を持った製品が提供されてきたが、日常生活の環境では、着用者の前方からの話し声であっても、会話対象の話し声以外の他人の会話音も集音されることが多い。また、例えば、市場やレストラン、会議などの環境では、話す人の音源は多様で異なり、従来の音声信号処理方法では、これらの状況に応じて集音方法を調整することができず、使用上の不便な点がまだ多々ある。
また、バイノーラル(Binaural)技術とビームフォーミング技術を補聴器に用いることによって、音声出力する際に音の方向を着用者に伝えることができるが、複数の言語音声が補聴器着用者の前方から伝わる際、通常は着用者の真正面からの音声を強調して出力するように構成されているため、複数の人間が会話をする状況においては目的の話し声を円滑に取得できないことがよくある。
そこで、本発明の目的は、着用者の周囲の状況に応じて集音方法を変更することができる補聴器システムを提供することにある。
上記目的を達成すべく、本発明の補聴器システムは、着用者の前方の視野を撮影してデジタルイメージデータに変換するイメージキャプチャーと、それぞれ独立して周囲の音を収集してデジタルサウンドデータに変換する複数のマイクロフォンユニットにより構成されたマイクロフォンアレイと、前記イメージキャプチャー及び前記マイクロフォンアレイに信号的に接続して前記イメージキャプチャー及び各前記マイクロフォンユニットから受信した前記デジタルイメージデータ及び各前記デジタルサウンドデータに基づいて出力サウンドデータを作成して出力する集音処理装置と、前記集音処理装置に接続して前記出力サウンドデータを受信して対応の音に変換して出力するスピーカーと、を備える補聴器システムであって、前記集音処理装置は、複数の環境画像サンプルデータと、各前記環境画像サンプルデータにそれぞれ対応する複数の集音制御方針データと、各前記環境画像サンプルデータにそれぞれ対応する複数のサウンド処理方法データと、が保存されているメモリと、前記メモリにアクセスし、前記イメージキャプチャーから受信した前記デジタルイメージデータを分析して複数の前記環境画像サンプルデータから対応の1つを選択する環境分析部と、前記メモリにアクセスし、前記環境分析部により選択された前記環境画像サンプルデータに対応する前記集音制御方針データに基づいて、前記マイクロフォンアレイを構成する各前記マイクロフォンユニットを制御する集音制御部と、前記メモリにアクセスし、前記環境分析部により選択された前記環境画像サンプルデータに対応する前記サウンド処理方法データに基づいて、前記マイクロフォンアレイを構成する各前記マイクロフォンユニットからそれぞれ受信した各前記デジタルサウンドデータを変換して前記出力サウンドデータとして作成して前記スピーカーに出力する出力処理部と、を有している。
上記構成により、本発明の補聴器システムは、イメージキャプチャーから受信したデジタルイメージデータを分析して複数の環境サンプルデータから対応する1つを選択し、且つ、該選択された環境画像サンプルデータに応じた集音制御方針データに基づいてマイクロフォンアレイを制御して集音する上、該選択された環境サンプルデータに応じたサウンド処理方法データに基づいてマイクロフォンアレイからのデジタルサウンドデータを変換して出力サウンドデータを作成してスピーカーに出力させるので、着用者がいる環境の音源パターンをより正確に識別し、適宜な集音制御方針を起動することができ、即ち、着用者の周囲の状況に応じて集音方法を変更することが可能な補聴器システムを提供することができる。
以下は説明図を参照しながら本発明の補聴器システムについて詳しく説明する。
図1と図2には、本発明の補聴器システム200の実施例が示されている。図示のように、この実施例の補聴器システム200は、装着者が着用する装身具3と、ディスプレイ手段8を有する。
本実施例の装身具3は、眼鏡タイプに構成され、着用者の頭部に装着することができる。装身具3は一対のレンズ32を保持しているフロントサポーター31と、着用者の耳に掛けるためにフロントサポーター31の左右両端にそれぞれ連結されているサイドサポーター33を有している。更に装身具3には、フロントサポーター31の中央に配置されるイメージキャプチャー4と、一対のレンズ32それぞれの上方に配置される複数のマイクロフォンユニット51により構成されるマイクロフォンアレイ5と、サイドサポーター33に配置される集音処理装置6と、サイドサポーター33に接続されていると共に、着用者の外耳道に挿入して装着可能な2つのスピーカー7と、がそれぞれ設置されている。
集音処理装置6は、イメージキャプチャー4とマイクロフォンアレイ5とスピーカー7と信号的に接続されている。
ディスプレイ手段8は、モバイル端末やタブレットコンピューター、または体に身に付けるリストバンド、腕時計、ネックレス状に設計可能で、有線通信技術や無線通信技術によって、集音処理装置6と信号的に接続され、画像を表示できる。
イメージキャプチャー4は、フロントサポーター31の真ん中、即ち本実施例では一対のレンズ32の間に設置されており、着用者の前方の視野を撮影してデジタルイメージデータに変換することができる。
マイクロフォンアレイ5は複数のマイクロフォンユニット51により構成され、複数のマイクロフォンユニット51はフロントサポーター31とサイドサポーター33に取り付けらている。マイクロフォンユニット51はそれぞれ独立して周囲の音を収集してデジタルサウンドデータに変換することができる。
集音処理装置6は、イメージキャプチャー4と各マイクロフォンユニット51から受信した前記デジタルイメージデータ及び各デジタルサウンドデータに基づいて出力サウンドデータを作成してスピーカー7に出力する装置である。
スピーカー7は、集音処理装置6に信号的に接続して前記出力サウンドデータを受信して対応の音に変換して出力する。
以下、集音処理装置6の構成についてより詳細に説明する。
集音処理装置6は、メモリ(図示せず)と、起動制御部61と、環境分析部62と、集音制御部63と、出力処理部65と、を有している。
メモリには、複数の環境画像サンプルデータと、各前記環境画像サンプルデータにそれぞれ対応する複数の集音制御方針データと、各前記環境画像サンプルデータにそれぞれ対応する複数のサウンド処理方法データと、が保存されている。
起動制御部61は、少なくとも1つのマイクロフォンユニット51を起動し、周囲の音を収集してデジタルサウンドデータに変換し、前記デジタルサウンドデータに人間の話し声の存在があるかどうかを出力処理部65に分析させ、出力処理部65は前記デジタルサウンドデータを分析して人間の話し声を検出すると、イメージキャプチャー4を起動させ着用者の視野を撮影してデジタルイメージデータに変換し、環境分析部62に送信する。
環境分析部62は、起動制御部61からのデジタルイメージデータの受信によって起動し、下述する自動選択モード622にある場合には、イメージキャプチャー4から受信した前記デジタルイメージデータを分析するように構成されている。
環境画像サンプルデータは、さまざまな場面に存在する可能性のある人物の数、着用者に対する人物の向き、距離、方向、移動/運動方法、およびさまざまな背景物などの各種パラメーターに基づいて、前記各種パラメーターに対して特定の分類アルゴリズムを用いた分類認識学習により作成された分類モデルデータであると共に、各環境画像サンプルデータにはそれぞれ対応する画像が含まれている。
各環境画像サンプルデータに含まれる画像は、例えば、講演/授業環境、会議環境、屋外/公園環境、パーティー環境、市場環境、スーパー/コンビニ環境、市街環境、車内環境、及び銀行環境などに対応する。前記背景物は、例えば、会議テーブル、ホワイトボード、黒板、教卓、プロジェクタ/スクリーン、樹木/緑地、天空、歩道、各種交通手段、棚、またはレジなどが挙げられる。
分類認識学習に用いられる前記特定の分類アルゴリズムとしては、例えば、深層学習(deep belief network)、決定木アルゴリズム(Complex tree)、k近傍法(cosine k-nearest neighbors, Cosine KNN)、畳み込みニューラルネットワーク(convolutional neural network, CNN)、及びサポートベクターマシン(Quadratic support vector machine、Quadratic SVM)などが挙げられる。
集音処理装置6は、着用者により切替可能な手動選択モード621と自動選択モード622との2種類の制御モードがある。
集音処理装置6が手動選択モード621に切り替えられると、全部の環境画像サンプルデータにそれぞれ対応する画像をディスプレイ手段8に表示させるように送信し、着用者に選択させる。この場合、環境分析部62は、着用者が選択した1つの画像に対応する環境画像サンプルデータを対応の1つとして選択する。
また、集音処理装置6が自動選択モード622に切り替えられると、環境分析部62がイメージキャプチャー4から受信したデジタルイメージデータを分析する際、前記デジタルイメージデータに対して前記特定の分類アルゴリズムを実行すると共に、メモリにアクセスし、複数の環境画像サンプルデータにおいて類似度が一定の閾値を越えた複数の前記環境画像サンプルデータに対応する画像をディスプレイ手段8に表示させるように送信し、着用者がディスプレイ手段8に表示された複数の前記画像から1つを選択して集音処理装置6に送信することに応じて、集音処理装置6の環境分析部62は着用者により選択された前記画像に対応する前記環境画像サンプルデータを前記対応の1つとして選択する。なお、環境分析部62が分析し選び出した環境画像サンプルデータが1つのみである場合は、即ち、類似度が一定の閾値を越えた環境画像サンプルデータが1つのみである場合は、それがそのまま前記対応の1つとして自動的に選択される。
集音制御部63は、メモリにアクセスし、環境分析部62により選択された(着用者により選択された1つを環境分析部62が前記対応の1つとして選択する場合を含む)環境画像サンプルデータに対応する集音制御方針データに基づいて、マイクロフォンアレイ5を構成する各マイクロフォンユニット51を制御する。
集音制御方針データは、1つまたは複数のマイクロフォンユニット51をどのように起動及び制御して集音するかの方針データであり、例えば、どれか1つのマイクロフォンユニット51を起動及び制御し、全方向性集音を行わせたり、または、複数のマイクロフォンユニット51を起動及び制御し、互いに連携させ指向性集音を行うなどである。
集音制御部63は、ディスプレイ手段8に表示された、環境画像サンプルデータに対応する画像が着用者により例えば画面をタッチされて選ばれると、その選ばれた前記環境画像サンプルデータに対応する集音制御方針データに基づいて、特定の1つまたは複数のマイクロフォンユニット51を起動して集音をする。
集音制御部63はまた、ディスプレイ手段8に表示された、イメージキャプチャー4から転送されたリアルタイムの画像のある1箇所がタッチされて発生した信号を受け取ると、タッチされた画像の中の方角にあわせ特定の位置と数のマイクロフォンユニット51を起動し、互いに連携させマイクロフォンのアレイによる集音を行なうことができるようにも構成される。
出力処理部65は、メモリにアクセスし、環境分析部62により選択された環境画像サンプルデータに対応するサウンド処理方法データに基づいて、マイクロフォンアレイ5を構成する各マイクロフォンユニット51からそれぞれ受信した各デジタルサウンドデータを変換して出力サウンドデータとして作成してスピーカ7に出力する。
サウンド処理方法データのサウンド処理方法は、例えば、アナログ/デジタル変換、ノイズリダクション、音声データ抽出処理など、音声信号から必要としないノイズを除去し、話し声信号に対してフィルタリング処理を実行し増幅出力することによって、信号対雑音比(SNR)がよいサウンドデータを得ることができ、スピーカー7に処理されたサウンドデータを出力する。
集音制御部63が、ディスプレイ手段8に表示された、イメージキャプチャー4から転送されたリアルタイムの画像のある1箇所がタッチされて発生した信号を受け取って、タッチされた画像の中の方角にあわせ特定の位置と数のマイクロフォンユニット51を起動し集音した際、出力処理部65は、集音した音声信号に対してアナログ/デジタル変換とノイズリダクションを行うほか、さらに、デジタルサウンドデータに変換された音声信号に対してビームフォーミングによるフィルタリング処理と、音声データ抽出処理と、によって、着用者が目的とする画像の中の方角に対応するサウンドデータを得ることができる。
上記ノイズリダクションや音声データ抽出処理、ビームフォーミングによるフィルタリング処理に関しては、従来の技術を応用することができるので、ここでは詳しい説明を省略する。
ディスプレイ手段8は、リモートコントローラー81とタッチパネルユニット82とを有している。リモートコントローラー81には、切替可能な環境集音モード811と指向性集音モード812がある。リモートコントローラー81を操作することにより環境集音モード811が起動されると、集音処理装置6の制御によりタッチパネルユニット82には全部の環境画像サンプルデータにそれぞれ対応する画像、もしくは、分析されたデジタルイメージデータに対応する1つまたは複数の前記環境画像サンプルデータにそれぞれ対応する画像が表示され、そして、画像が複数ある場合には着用者がタッチパネルユニット82に表示された複数の前記画像から1つを選択して集音処理装置6に対応する信号を送信する。
一方、リモートコントローラー81を操作することにより指向性集音モード812が起動されると、集音処理装置6の制御によりイメージキャプチャー4からの画像がリアルタイムでタッチパネルユニット82に表示されるように転送され、着用者がタッチパネルユニット82に表示される画像にあるいずれかの1箇所をタッチして、集音処理装置6にそのタッチ位置に対応する信号を送信する。
本発明の補聴器システム200を使用する際、着用者は装身具3を頭部に装着し、スピーカー7を両耳につけて、ディスプレイ手段8を所持する。システムの起動後、イメージキャプチャー4はすぐには起動せず、先に集音処理装置6が1つのマイクロフォンユニット51を起動及び制御して全方向性集音を行い、得られた音声信号から話し声を検出した場合のみ、イメージキャプチャー4を起動して着用者の前方の視野を撮影してデジタルイメージデータに変換する。集音処理装置6の環境分析部62は、受信した前記デジタルイメージデータを分析し、類似度が一定の閾値を越えた1つまたは複数の環境画像サンプルデータを選択し、さらに、選択された全ての前記環境画像サンプルデータにそれぞれ対応する集音制御方針データ及びサウンド処理方法データを選び出す。
リモートコントローラー81を操作することにより環境集音モード811が起動され、かつ、集音処理装置6が手動選択モード621に切り替えられていると、集音処理装置6の制御により全部の前記環境画像サンプルデータにそれぞれ対応する画像がタッチパネルユニット82に表示され、着用者に選択させる。一方、集音処理装置6が自動選択モード622に切り替えられていると、集音処理装置6の環境分析部62が上記選択された全ての前記環境画像サンプルデータにそれぞれ対応する画像をタッチパネルユニット82に表示されるように転送する。この時、上記選択された前記環境画像サンプルデータが複数である場合は、着用者はその場の状況に応じて、タッチパネユニット82に表示された複数の画像から、一番適している1つを選択して集音処理装置6に信号を送信することに応じて、集音処理装置6の環境分析部62は着用者により選択された前記画像に対応する前記環境画像サンプルデータを前記対応の1つとして選択し、そして、集音制御部63は、前記対応の1つに対応する前記集音制御方針データに基づいて、特定の位置と数のマイクロフォンユニット51を起動し集音する。そして、出力処理部65は、マイクロフォンユニット51によって集音された前記デジタルサウンドデータに対して音声データ抽出処理をし、処理された前記デジタルサウンドデータを前記出力サウンドデータに作成し、スピーカ7に出力させる。
リモートコントローラー81を操作することにより指向性集音モード812が起動されると、集音処理装置6の制御によりイメージキャプチャー4からの画像がリアルタイムでタッチパネルユニット82に表示されるように転送される。この時、着用者は目的とするタッチパネルユニット82に表示されている画像にある1箇所をタッチし、集音処理装置6にそのタッチ位置に対応する信号を送信する。それに応じて、集音処理装置6の集音制御部63及び出力処理部65は、該1箇所に対応する方角に向けて集音するようにマイクロフォンアレイ5を制御すると共に、該1箇所に対応する方角からの音がスピーカー7に出力されるよう、集音したデジタルサウンドデータに対してビームフォーミングによるフィルタリング処理を実行して出力サウンドデータを作成し、スピーカ7に出力させる。
本実施例では、集音処理装置6は、装身具3に設置されており、着用者が所持しているディスプレイ手段8と無線通信技術によって接続されている。しかし、本発明の別の実施形態では、集音処理装置6を装身具3に設置するのではなく、そのかわりに、集音処理装置6をディスプレイ手段8に設置することで、装身具3に設置されている電子部品の数量をおさえ、軽量化により着用者の負担を減らすことができる。
また、本発明のさらに別の実施形態では、ディスプレイ手段8をプロジェクターに変え、装身具3に設置し、かつ、装身具3のレンズ32に画像を投写表示することができるように構成すれば、複数の前記環境画像サンプルデータに対応する画像やイメージキャプチャー4からの画像をレンズ32に表示し、着用者が視線入力または他の入力手段によって、複数の前記環境画像サンプルデータに対応する画像の選択やイメージキャプチャー4からの画像の一箇所を選ぶことができる。
本発明のさらに別の実施形態では、ディスプレイ手段8を透明液晶パネルに変えることもできる。この場合、ディスプレイ手段8は着用者の目の前の装身具3のレンズ32に設置して使う。
さらに、本発明の他の実施形態において、ディスプレイ手段8の存在は必要ではなく、集音処理装置6は、デジタルイメージデータを分析し、複数の前記環境サンプルデータにおいて類似度が最も高い前記環境画像サンプルデータを選択し、対応する前記集音制御方針データに基づいて、マイクロフォンアレイ5を起動及び制御し集音を行えるので、ディスプレイ手段8での選択を必要としない。
以上により、本発明に係る補聴器システムは、集音処理装置6のメモリに保存されている複数の環境画像サンプルデータと、各前記環境画像サンプルデータにそれぞれ対応する複数の集音制御方針データと、各前記環境画像サンプルデータにそれぞれ対応する複数のサウンド処理方法データと、の構成により、及び、イメージキャプチャー4が撮影した着用者の前方の視野を分析し、類似度が一定の閾値を越えた1つまたは複数の前記環境画像サンプルデータを選び出す構成により、着用者がいる環境の音源パターンをより正確に識別でき、また、着用者はディスプレイ手段8を操作し、自ら一番適している前記環境画像サンプルデータに対応する画像を選ぶこともできる。さらに、着用者はディスプレイ手段8を操作して指向性集音モード812を起動することにより、イメージキャプチャー4から転送されたリアルタイムの画像のある1箇所をタッチし、集音処理装置6がビームフォーミング技術によって特定の方角を集音することもでき、使用上便利である。
以上、本発明の好ましい実施形態を説明したが、本発明はこれらに限定されるものではなく、最も広い解釈の精神および範囲内に含まれる様々な構成として、全ての修飾および均等な構成を包含するものとする。
上記構成により、本発明の補聴器システムは、着用者がいる環境の音源パターンをより正確に識別し、適宜な集音制御方針を起動することができ、即ち、着用者の周囲の状況に応じて集音方法を変更しスピーカーに出力させることができるため、着用者が従来の補聴器を着用しても聞き取りが不便で困難であった環境の対応が可能な補聴器システムを提供することができる。
200 補聴器システム
3 装身具
31 フロントサポーター
32 レンズ
33 サイドサポーター
4 イメージキャプチャー
5 マイクロフォンアレイ
51 マイクロフォンユニット
6 集音処理装置
61 起動制御部
62 環境分析部
621 手動選択モード
622 自動選択モード
63 集音制御部
65 出力処理部
7 スピーカー
8 ディスプレイ手段
81 リモートコントローラー
811 環境集音モード
812 指向性集音モード
82 タッチパネルユニット
3 装身具
31 フロントサポーター
32 レンズ
33 サイドサポーター
4 イメージキャプチャー
5 マイクロフォンアレイ
51 マイクロフォンユニット
6 集音処理装置
61 起動制御部
62 環境分析部
621 手動選択モード
622 自動選択モード
63 集音制御部
65 出力処理部
7 スピーカー
8 ディスプレイ手段
81 リモートコントローラー
811 環境集音モード
812 指向性集音モード
82 タッチパネルユニット
Claims (9)
- 着用者の前方の視野を撮影してデジタルイメージデータに変換するイメージキャプチャーと、
それぞれ独立して周囲の音を収集してデジタルサウンドデータに変換する複数のマイクロフォンユニットにより構成されたマイクロフォンアレイと、
前記イメージキャプチャー及び前記マイクロフォンアレイに信号的に接続して前記イメージキャプチャー及び各前記マイクロフォンユニットから受信した前記デジタルイメージデータ及び各前記デジタルサウンドデータに基づいて出力サウンドデータを作成して出力する集音処理装置と、
前記集音処理装置に信号的に接続して前記出力サウンドデータを受信して対応の音に変換して出力するスピーカーと、を備える補聴器システムであって、
前記集音処理装置は、
複数の環境画像サンプルデータと、各前記環境画像サンプルデータにそれぞれ対応する複数の集音制御方針データと、各前記環境画像サンプルデータにそれぞれ対応する複数のサウンド処理方法データと、が保存されているメモリと、
前記メモリにアクセスし、前記イメージキャプチャーから受信した前記デジタルイメージデータを分析して複数の前記環境画像サンプルデータから対応の1つを選択する環境分析部と、
前記メモリにアクセスし、前記環境分析部により選択された前記環境画像サンプルデータに対応する前記集音制御方針データに基づいて、前記マイクロフォンアレイを構成する各前記マイクロフォンユニットを制御する集音制御部と、
前記メモリにアクセスし、前記環境分析部により選択された前記環境画像サンプルデータに対応する前記サウンド処理方法データに基づいて、前記マイクロフォンアレイを構成する各前記マイクロフォンユニットからそれぞれ受信した各前記デジタルサウンドデータを変換して前記出力サウンドデータとして作成して前記スピーカーに出力する出力処理部と、
を有していることを特徴とする補聴器システム。 - 前記集音処理装置に信号的に接続して画像を表示できるディスプレイ手段を更に備え、
前記集音処理装置は、前記環境分析部が前記イメージキャプチャーから受信した前記デジタルイメージデータを分析する際、複数の前記環境画像サンプルデータにおいて類似度が一定の閾値を越えた複数の前記環境画像サンプルデータに対応する画像を前記ディスプレイ手段に表示させるように送信し、着用者が前記ディスプレイ手段に表示された複数の前記画像から1つを選択して前記集音処理装置に送信することに応じて、前記集音処理装置の前記環境分析部は着用者により選択された前記画像に対応する前記環境画像サンプルデータを前記対応の1つとして選択するように構成されることを特徴とする請求項1に記載の補聴器システム。 - 前記集音処理装置は、着用者により切替可能な手動選択モードと自動選択モードとの2種類の制御モードがあり、
前記手動選択モードに切り替えられると、全部の前記環境画像サンプルデータにそれぞれ対応する画像を前記ディスプレイ手段に表示させるように送信し、
前記自動選択モードに切り替えられると、前記環境分析部が前記イメージキャプチャーから受信した前記デジタルイメージデータを分析する際、着用者が手動で選択できるように複数の前記環境画像サンプルデータにおいて類似度が一定の閾値を越えた複数の前記環境画像サンプルデータに対応する画像を前記ディスプレイ手段に表示させるように送信するように構成されることを特徴とする請求項2に記載の補聴器システム。 - 前記集音処理装置は、起動制御部を更に有しており、
前記起動制御部は少なくとも1つの前記マイクロフォンユニットを起動し、
前記出力処理部が該起動されたマイクロフォンユニットからの前記デジタルサウンドデータを分析して人間の話し声を検出すると、前記環境分析部を起動するように構成されることを特徴とする請求項2または請求項3に記載の補聴器システム。 - 着用者が着用可能な装身具を更に備え、前記イメージキャプチャー及び前記マイクロフォンアレイは該装身具に取り付けられていることを特徴とする請求項2または請求項3に記載の補聴器システム。
- 前記装身具は眼鏡であり、前記ディスプレイ手段は、前記眼鏡のレンズに画像を投写表示するプロジェクターを有していることを特徴とする請求項5に記載の補聴器システム。
- 前記装身具は眼鏡であり、前記ディスプレイ手段は、前記眼鏡のレンズに設置される透明液晶パネルを有していることを特徴とする請求項5に記載の補聴器システム。
- 前記ディスプレイ手段は、リモートコントローラーとタッチパネルユニットとを有しており、
前記リモートコントローラーを操作することにより環境集音モードが起動されると、前記タッチパネルユニットには全部の前記環境画像サンプルデータにそれぞれ対応する画像が表示され、着用者が前記タッチパネルユニットに表示された複数の前記画像から1つを選択して前記集音処理装置に送信することに応じて、前記集音処理装置の前記環境分析部は着用者により選択された前記画像に対応する前記環境画像サンプルデータを前記対応の1つとして選択するように構成されることを特徴とする請求項5に記載の補聴器システム。 - 前記リモートコントローラーを操作することにより指向性集音モードが起動されると、前記集音処理装置の制御により前記イメージキャプチャーからの画像がリアルタイムで前記タッチパネルユニットに表示されるように転送され、着用者が前記タッチパネルユニットに表示される画像にあるいずれかの1箇所をタッチすると、前記集音処理装置の前記集音制御部及び前記出力処理部は、該1箇所に対応する方角に向けて集音するように前記マイクロフォンアレイを制御すると共に、該1箇所に対応する方角からの音が前記スピーカーから出力されるよう、集音した前記デジタルサウンドデータに対してビームフォーミングによるフィルタリング処理を実行して前記出力サウンドデータを作成することを特徴とする請求項8に記載の補聴器システム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW108100992 | 2019-01-10 | ||
TW108100992A TWI768175B (zh) | 2019-01-10 | 2019-01-10 | 具收音場景切換功能的助聽系統 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020113981A true JP2020113981A (ja) | 2020-07-27 |
Family
ID=71517150
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020001123A Pending JP2020113981A (ja) | 2019-01-10 | 2020-01-08 | 補聴器システム |
Country Status (4)
Country | Link |
---|---|
US (1) | US10827260B2 (ja) |
JP (1) | JP2020113981A (ja) |
CN (1) | CN111429928A (ja) |
TW (1) | TWI768175B (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022234871A1 (ko) * | 2021-05-04 | 2022-11-10 | 엘지전자 주식회사 | 음장 제어 장치 및 방법 |
CN115695620A (zh) * | 2021-07-22 | 2023-02-03 | 所乐思(深圳)科技有限公司 | 智能眼镜及其控制方法和*** |
CN114615609B (zh) * | 2022-03-15 | 2024-01-30 | 深圳市昂思科技有限公司 | 助听器控制方法、助听器设备、装置、设备和计算机介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160277850A1 (en) * | 2015-03-18 | 2016-09-22 | Lenovo (Singapore) Pte. Ltd. | Presentation of audio based on source |
JP2017005356A (ja) * | 2015-06-05 | 2017-01-05 | リウ チン フォンChing−Feng LIU | オーディオ信号を処理する方法及び補聴器システム |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1229518A1 (en) * | 2001-01-31 | 2002-08-07 | Alcatel | Speech recognition system, and terminal, and system unit, and method |
WO2002072317A1 (fr) * | 2001-03-09 | 2002-09-19 | Japan Science And Technology Corporation | Systeme de robot audiovisuel |
US9153195B2 (en) * | 2011-08-17 | 2015-10-06 | Microsoft Technology Licensing, Llc | Providing contextual personal information by a mixed reality device |
KR102052153B1 (ko) * | 2013-02-15 | 2019-12-17 | 삼성전자주식회사 | 보청기를 제어하는 휴대 단말 및 방법 |
US10229697B2 (en) * | 2013-03-12 | 2019-03-12 | Google Technology Holdings LLC | Apparatus and method for beamforming to obtain voice and noise signals |
TWI543635B (zh) * | 2013-12-18 | 2016-07-21 | jing-feng Liu | Speech Acquisition Method of Hearing Aid System and Hearing Aid System |
US10282057B1 (en) * | 2014-07-29 | 2019-05-07 | Google Llc | Image editing on a wearable device |
CA2927046A1 (en) * | 2016-04-12 | 2017-10-12 | 11 Motion Pictures Limited | Method and system for 360 degree head-mounted display monitoring between software program modules using video or image texture sharing |
US10375266B2 (en) * | 2016-10-26 | 2019-08-06 | Orcam Technologies Ltd. | Systems and methods for selecting an action based on a detected person |
US10362270B2 (en) * | 2016-12-12 | 2019-07-23 | Dolby Laboratories Licensing Corporation | Multimodal spatial registration of devices for congruent multimedia communications |
US10599950B2 (en) * | 2017-05-30 | 2020-03-24 | Google Llc | Systems and methods for person recognition data management |
US10452923B2 (en) * | 2017-11-28 | 2019-10-22 | Visual Semantics, Inc. | Method and apparatus for integration of detected object identifiers and semantic scene graph networks for captured visual scene behavior estimation |
-
2019
- 2019-01-10 TW TW108100992A patent/TWI768175B/zh active
- 2019-12-05 CN CN201911233217.6A patent/CN111429928A/zh active Pending
-
2020
- 2020-01-06 US US16/734,671 patent/US10827260B2/en active Active
- 2020-01-08 JP JP2020001123A patent/JP2020113981A/ja active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160277850A1 (en) * | 2015-03-18 | 2016-09-22 | Lenovo (Singapore) Pte. Ltd. | Presentation of audio based on source |
JP2017005356A (ja) * | 2015-06-05 | 2017-01-05 | リウ チン フォンChing−Feng LIU | オーディオ信号を処理する方法及び補聴器システム |
Also Published As
Publication number | Publication date |
---|---|
US20200228894A1 (en) | 2020-07-16 |
TW202027520A (zh) | 2020-07-16 |
TWI768175B (zh) | 2022-06-21 |
US10827260B2 (en) | 2020-11-03 |
CN111429928A (zh) | 2020-07-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9491553B2 (en) | Method of audio signal processing and hearing aid system for implementing the same | |
JP6094190B2 (ja) | 情報処理装置および記録媒体 | |
CN105981375B (zh) | 信息处理设备、控制方法、程序和*** | |
US20230045237A1 (en) | Wearable apparatus for active substitution | |
US20170303052A1 (en) | Wearable auditory feedback device | |
JP2020113981A (ja) | 補聴器システム | |
EP2824541A1 (en) | Method and apparatus for connecting devices using eye tracking | |
US20200380959A1 (en) | Real time speech translating communication system | |
CN114115515A (zh) | 用于帮助用户的方法和头戴式单元 | |
US20200227067A1 (en) | Communication aid system | |
CN115620728B (zh) | 音频处理方法、装置、存储介质及智能眼镜 | |
US20210055367A1 (en) | Audio-based feedback for head-mountable device | |
US20170186431A1 (en) | Speech to Text Prosthetic Hearing Aid | |
CN106842565A (zh) | 一种分离式可穿戴智能视觉增强设备 | |
JP6290827B2 (ja) | オーディオ信号を処理する方法及び補聴器システム | |
WO2022009626A1 (ja) | 音声入力装置 | |
JP6853589B1 (ja) | 首掛け型装置 | |
US20240064420A1 (en) | Cameras for multiple views | |
US20230083358A1 (en) | Earphone smartcase with audio processor | |
JP2021082301A (ja) | 首掛け型装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211026 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220927 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230418 |