JP2020113981A - 補聴器システム - Google Patents

補聴器システム Download PDF

Info

Publication number
JP2020113981A
JP2020113981A JP2020001123A JP2020001123A JP2020113981A JP 2020113981 A JP2020113981 A JP 2020113981A JP 2020001123 A JP2020001123 A JP 2020001123A JP 2020001123 A JP2020001123 A JP 2020001123A JP 2020113981 A JP2020113981 A JP 2020113981A
Authority
JP
Japan
Prior art keywords
sound
data
image
sound collection
processing device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020001123A
Other languages
English (en)
Inventor
シアオ ハン チェン
Chen Hsiao-Han
シアオ ハン チェン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hsiao Han Chen
Original Assignee
Hsiao Han Chen
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hsiao Han Chen filed Critical Hsiao Han Chen
Publication of JP2020113981A publication Critical patent/JP2020113981A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/02Casings; Cabinets ; Supports therefor; Mountings therein
    • H04R1/028Casings; Cabinets ; Supports therefor; Mountings therein associated with devices performing functions other than acoustics, e.g. electric candles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • H04R1/406Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L2021/02087Noise filtering the noise being separate speech, e.g. cocktail party
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2201/00Details of transducers, loudspeakers or microphones covered by H04R1/00 but not provided for in any of its subgroups
    • H04R2201/40Details of arrangements for obtaining desired directional characteristic by combining a number of identical transducers covered by H04R1/40 but not provided for in any of its subgroups
    • H04R2201/4012D or 3D arrays of transducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2203/00Details of circuits for transducers, loudspeakers or microphones covered by H04R3/00 but not provided for in any of its subgroups
    • H04R2203/12Beamforming aspects for stereophonic sound reproduction with loudspeaker arrays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups
    • H04R2430/20Processing of the output signals of the acoustic transducers of an array for obtaining a desired directivity characteristic
    • H04R2430/25Array processing for suppression of unwanted side-lobes in directivity characteristics, e.g. a blocking matrix

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Otolaryngology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Quality & Reliability (AREA)
  • Computational Linguistics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Neurosurgery (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)
  • User Interface Of Digital Computer (AREA)
  • Circuits Of Receivers In General (AREA)

Abstract

【課題】着用者の周囲の状況に応じて集音方法を変更することができる補聴器システムを提供する。【解決手段】補聴器システムは、イメージキャプチャー4と、マイクロフォンアレイ5と、集音処理装置6と、スピーカー7と、を備えている。集音処理装置6は、イメージキャプチャー4が撮影した着用者の前方の視野を分析し、着用者がいる環境状況に合う環境画像サンプルデータを選び、その環境画像サンプルデータに対応する集音制御方針データとサウンド処理方法に基づいて、マイクロフォンアレイ5を起動及び制御して集音し、そして、スピーカー7に処理されたサウンドデータを出力させる。【選択図】図2

Description

本発明は補聴器に関し、特に環境を分析し集音処理する補聴器システムに関する。
従来の補聴器は、例えば特許文献1に記載されるものが挙げられ、音声信号の特性の違いを利用して、スピーチとノイズを区別してノイズを効果的に除去したり、指向性マイクロフォンを用いて、ユーザーの後方や側面からの音を排除したりなどの機能を持った製品が提供されてきたが、日常生活の環境では、着用者の前方からの話し声であっても、会話対象の話し声以外の他人の会話音も集音されることが多い。また、例えば、市場やレストラン、会議などの環境では、話す人の音源は多様で異なり、従来の音声信号処理方法では、これらの状況に応じて集音方法を調整することができず、使用上の不便な点がまだ多々ある。
また、バイノーラル(Binaural)技術とビームフォーミング技術を補聴器に用いることによって、音声出力する際に音の方向を着用者に伝えることができるが、複数の言語音声が補聴器着用者の前方から伝わる際、通常は着用者の真正面からの音声を強調して出力するように構成されているため、複数の人間が会話をする状況においては目的の話し声を円滑に取得できないことがよくある。
特開2018−98798号公報
そこで、本発明の目的は、着用者の周囲の状況に応じて集音方法を変更することができる補聴器システムを提供することにある。
上記目的を達成すべく、本発明の補聴器システムは、着用者の前方の視野を撮影してデジタルイメージデータに変換するイメージキャプチャーと、それぞれ独立して周囲の音を収集してデジタルサウンドデータに変換する複数のマイクロフォンユニットにより構成されたマイクロフォンアレイと、前記イメージキャプチャー及び前記マイクロフォンアレイに信号的に接続して前記イメージキャプチャー及び各前記マイクロフォンユニットから受信した前記デジタルイメージデータ及び各前記デジタルサウンドデータに基づいて出力サウンドデータを作成して出力する集音処理装置と、前記集音処理装置に接続して前記出力サウンドデータを受信して対応の音に変換して出力するスピーカーと、を備える補聴器システムであって、前記集音処理装置は、複数の環境画像サンプルデータと、各前記環境画像サンプルデータにそれぞれ対応する複数の集音制御方針データと、各前記環境画像サンプルデータにそれぞれ対応する複数のサウンド処理方法データと、が保存されているメモリと、前記メモリにアクセスし、前記イメージキャプチャーから受信した前記デジタルイメージデータを分析して複数の前記環境画像サンプルデータから対応の1つを選択する環境分析部と、前記メモリにアクセスし、前記環境分析部により選択された前記環境画像サンプルデータに対応する前記集音制御方針データに基づいて、前記マイクロフォンアレイを構成する各前記マイクロフォンユニットを制御する集音制御部と、前記メモリにアクセスし、前記環境分析部により選択された前記環境画像サンプルデータに対応する前記サウンド処理方法データに基づいて、前記マイクロフォンアレイを構成する各前記マイクロフォンユニットからそれぞれ受信した各前記デジタルサウンドデータを変換して前記出力サウンドデータとして作成して前記スピーカーに出力する出力処理部と、を有している。
上記構成により、本発明の補聴器システムは、イメージキャプチャーから受信したデジタルイメージデータを分析して複数の環境サンプルデータから対応する1つを選択し、且つ、該選択された環境画像サンプルデータに応じた集音制御方針データに基づいてマイクロフォンアレイを制御して集音する上、該選択された環境サンプルデータに応じたサウンド処理方法データに基づいてマイクロフォンアレイからのデジタルサウンドデータを変換して出力サウンドデータを作成してスピーカーに出力させるので、着用者がいる環境の音源パターンをより正確に識別し、適宜な集音制御方針を起動することができ、即ち、着用者の周囲の状況に応じて集音方法を変更することが可能な補聴器システムを提供することができる。
本発明の一実施例に係る補聴器システムの構造を模式的に示す斜視図である。 当該実施例の構成が示されるブロック図である。
以下は説明図を参照しながら本発明の補聴器システムについて詳しく説明する。
図1と図2には、本発明の補聴器システム200の実施例が示されている。図示のように、この実施例の補聴器システム200は、装着者が着用する装身具3と、ディスプレイ手段8を有する。
本実施例の装身具3は、眼鏡タイプに構成され、着用者の頭部に装着することができる。装身具3は一対のレンズ32を保持しているフロントサポーター31と、着用者の耳に掛けるためにフロントサポーター31の左右両端にそれぞれ連結されているサイドサポーター33を有している。更に装身具3には、フロントサポーター31の中央に配置されるイメージキャプチャー4と、一対のレンズ32それぞれの上方に配置される複数のマイクロフォンユニット51により構成されるマイクロフォンアレイ5と、サイドサポーター33に配置される集音処理装置6と、サイドサポーター33に接続されていると共に、着用者の外耳道に挿入して装着可能な2つのスピーカー7と、がそれぞれ設置されている。
集音処理装置6は、イメージキャプチャー4とマイクロフォンアレイ5とスピーカー7と信号的に接続されている。
ディスプレイ手段8は、モバイル端末やタブレットコンピューター、または体に身に付けるリストバンド、腕時計、ネックレス状に設計可能で、有線通信技術や無線通信技術によって、集音処理装置6と信号的に接続され、画像を表示できる。
イメージキャプチャー4は、フロントサポーター31の真ん中、即ち本実施例では一対のレンズ32の間に設置されており、着用者の前方の視野を撮影してデジタルイメージデータに変換することができる。
マイクロフォンアレイ5は複数のマイクロフォンユニット51により構成され、複数のマイクロフォンユニット51はフロントサポーター31とサイドサポーター33に取り付けらている。マイクロフォンユニット51はそれぞれ独立して周囲の音を収集してデジタルサウンドデータに変換することができる。
集音処理装置6は、イメージキャプチャー4と各マイクロフォンユニット51から受信した前記デジタルイメージデータ及び各デジタルサウンドデータに基づいて出力サウンドデータを作成してスピーカー7に出力する装置である。
スピーカー7は、集音処理装置6に信号的に接続して前記出力サウンドデータを受信して対応の音に変換して出力する。
以下、集音処理装置6の構成についてより詳細に説明する。
集音処理装置6は、メモリ(図示せず)と、起動制御部61と、環境分析部62と、集音制御部63と、出力処理部65と、を有している。
メモリには、複数の環境画像サンプルデータと、各前記環境画像サンプルデータにそれぞれ対応する複数の集音制御方針データと、各前記環境画像サンプルデータにそれぞれ対応する複数のサウンド処理方法データと、が保存されている。
起動制御部61は、少なくとも1つのマイクロフォンユニット51を起動し、周囲の音を収集してデジタルサウンドデータに変換し、前記デジタルサウンドデータに人間の話し声の存在があるかどうかを出力処理部65に分析させ、出力処理部65は前記デジタルサウンドデータを分析して人間の話し声を検出すると、イメージキャプチャー4を起動させ着用者の視野を撮影してデジタルイメージデータに変換し、環境分析部62に送信する。
環境分析部62は、起動制御部61からのデジタルイメージデータの受信によって起動し、下述する自動選択モード622にある場合には、イメージキャプチャー4から受信した前記デジタルイメージデータを分析するように構成されている。
環境画像サンプルデータは、さまざまな場面に存在する可能性のある人物の数、着用者に対する人物の向き、距離、方向、移動/運動方法、およびさまざまな背景物などの各種パラメーターに基づいて、前記各種パラメーターに対して特定の分類アルゴリズムを用いた分類認識学習により作成された分類モデルデータであると共に、各環境画像サンプルデータにはそれぞれ対応する画像が含まれている。
各環境画像サンプルデータに含まれる画像は、例えば、講演/授業環境、会議環境、屋外/公園環境、パーティー環境、市場環境、スーパー/コンビニ環境、市街環境、車内環境、及び銀行環境などに対応する。前記背景物は、例えば、会議テーブル、ホワイトボード、黒板、教卓、プロジェクタ/スクリーン、樹木/緑地、天空、歩道、各種交通手段、棚、またはレジなどが挙げられる。
分類認識学習に用いられる前記特定の分類アルゴリズムとしては、例えば、深層学習(deep belief network)、決定木アルゴリズム(Complex tree)、k近傍法(cosine k-nearest neighbors, Cosine KNN)、畳み込みニューラルネットワーク(convolutional neural network, CNN)、及びサポートベクターマシン(Quadratic support vector machine、Quadratic SVM)などが挙げられる。
集音処理装置6は、着用者により切替可能な手動選択モード621と自動選択モード622との2種類の制御モードがある。
集音処理装置6が手動選択モード621に切り替えられると、全部の環境画像サンプルデータにそれぞれ対応する画像をディスプレイ手段8に表示させるように送信し、着用者に選択させる。この場合、環境分析部62は、着用者が選択した1つの画像に対応する環境画像サンプルデータを対応の1つとして選択する。
また、集音処理装置6が自動選択モード622に切り替えられると、環境分析部62がイメージキャプチャー4から受信したデジタルイメージデータを分析する際、前記デジタルイメージデータに対して前記特定の分類アルゴリズムを実行すると共に、メモリにアクセスし、複数の環境画像サンプルデータにおいて類似度が一定の閾値を越えた複数の前記環境画像サンプルデータに対応する画像をディスプレイ手段8に表示させるように送信し、着用者がディスプレイ手段8に表示された複数の前記画像から1つを選択して集音処理装置6に送信することに応じて、集音処理装置6の環境分析部62は着用者により選択された前記画像に対応する前記環境画像サンプルデータを前記対応の1つとして選択する。なお、環境分析部62が分析し選び出した環境画像サンプルデータが1つのみである場合は、即ち、類似度が一定の閾値を越えた環境画像サンプルデータが1つのみである場合は、それがそのまま前記対応の1つとして自動的に選択される。
集音制御部63は、メモリにアクセスし、環境分析部62により選択された(着用者により選択された1つを環境分析部62が前記対応の1つとして選択する場合を含む)環境画像サンプルデータに対応する集音制御方針データに基づいて、マイクロフォンアレイ5を構成する各マイクロフォンユニット51を制御する。
集音制御方針データは、1つまたは複数のマイクロフォンユニット51をどのように起動及び制御して集音するかの方針データであり、例えば、どれか1つのマイクロフォンユニット51を起動及び制御し、全方向性集音を行わせたり、または、複数のマイクロフォンユニット51を起動及び制御し、互いに連携させ指向性集音を行うなどである。
集音制御部63は、ディスプレイ手段8に表示された、環境画像サンプルデータに対応する画像が着用者により例えば画面をタッチされて選ばれると、その選ばれた前記環境画像サンプルデータに対応する集音制御方針データに基づいて、特定の1つまたは複数のマイクロフォンユニット51を起動して集音をする。
集音制御部63はまた、ディスプレイ手段8に表示された、イメージキャプチャー4から転送されたリアルタイムの画像のある1箇所がタッチされて発生した信号を受け取ると、タッチされた画像の中の方角にあわせ特定の位置と数のマイクロフォンユニット51を起動し、互いに連携させマイクロフォンのアレイによる集音を行なうことができるようにも構成される。
出力処理部65は、メモリにアクセスし、環境分析部62により選択された環境画像サンプルデータに対応するサウンド処理方法データに基づいて、マイクロフォンアレイ5を構成する各マイクロフォンユニット51からそれぞれ受信した各デジタルサウンドデータを変換して出力サウンドデータとして作成してスピーカ7に出力する。
サウンド処理方法データのサウンド処理方法は、例えば、アナログ/デジタル変換、ノイズリダクション、音声データ抽出処理など、音声信号から必要としないノイズを除去し、話し声信号に対してフィルタリング処理を実行し増幅出力することによって、信号対雑音比(SNR)がよいサウンドデータを得ることができ、スピーカー7に処理されたサウンドデータを出力する。
集音制御部63が、ディスプレイ手段8に表示された、イメージキャプチャー4から転送されたリアルタイムの画像のある1箇所がタッチされて発生した信号を受け取って、タッチされた画像の中の方角にあわせ特定の位置と数のマイクロフォンユニット51を起動し集音した際、出力処理部65は、集音した音声信号に対してアナログ/デジタル変換とノイズリダクションを行うほか、さらに、デジタルサウンドデータに変換された音声信号に対してビームフォーミングによるフィルタリング処理と、音声データ抽出処理と、によって、着用者が目的とする画像の中の方角に対応するサウンドデータを得ることができる。
上記ノイズリダクションや音声データ抽出処理、ビームフォーミングによるフィルタリング処理に関しては、従来の技術を応用することができるので、ここでは詳しい説明を省略する。
ディスプレイ手段8は、リモートコントローラー81とタッチパネルユニット82とを有している。リモートコントローラー81には、切替可能な環境集音モード811と指向性集音モード812がある。リモートコントローラー81を操作することにより環境集音モード811が起動されると、集音処理装置6の制御によりタッチパネルユニット82には全部の環境画像サンプルデータにそれぞれ対応する画像、もしくは、分析されたデジタルイメージデータに対応する1つまたは複数の前記環境画像サンプルデータにそれぞれ対応する画像が表示され、そして、画像が複数ある場合には着用者がタッチパネルユニット82に表示された複数の前記画像から1つを選択して集音処理装置6に対応する信号を送信する。
一方、リモートコントローラー81を操作することにより指向性集音モード812が起動されると、集音処理装置6の制御によりイメージキャプチャー4からの画像がリアルタイムでタッチパネルユニット82に表示されるように転送され、着用者がタッチパネルユニット82に表示される画像にあるいずれかの1箇所をタッチして、集音処理装置6にそのタッチ位置に対応する信号を送信する。
本発明の補聴器システム200を使用する際、着用者は装身具3を頭部に装着し、スピーカー7を両耳につけて、ディスプレイ手段8を所持する。システムの起動後、イメージキャプチャー4はすぐには起動せず、先に集音処理装置6が1つのマイクロフォンユニット51を起動及び制御して全方向性集音を行い、得られた音声信号から話し声を検出した場合のみ、イメージキャプチャー4を起動して着用者の前方の視野を撮影してデジタルイメージデータに変換する。集音処理装置6の環境分析部62は、受信した前記デジタルイメージデータを分析し、類似度が一定の閾値を越えた1つまたは複数の環境画像サンプルデータを選択し、さらに、選択された全ての前記環境画像サンプルデータにそれぞれ対応する集音制御方針データ及びサウンド処理方法データを選び出す。
リモートコントローラー81を操作することにより環境集音モード811が起動され、かつ、集音処理装置6が手動選択モード621に切り替えられていると、集音処理装置6の制御により全部の前記環境画像サンプルデータにそれぞれ対応する画像がタッチパネルユニット82に表示され、着用者に選択させる。一方、集音処理装置6が自動選択モード622に切り替えられていると、集音処理装置6の環境分析部62が上記選択された全ての前記環境画像サンプルデータにそれぞれ対応する画像をタッチパネルユニット82に表示されるように転送する。この時、上記選択された前記環境画像サンプルデータが複数である場合は、着用者はその場の状況に応じて、タッチパネユニット82に表示された複数の画像から、一番適している1つを選択して集音処理装置6に信号を送信することに応じて、集音処理装置6の環境分析部62は着用者により選択された前記画像に対応する前記環境画像サンプルデータを前記対応の1つとして選択し、そして、集音制御部63は、前記対応の1つに対応する前記集音制御方針データに基づいて、特定の位置と数のマイクロフォンユニット51を起動し集音する。そして、出力処理部65は、マイクロフォンユニット51によって集音された前記デジタルサウンドデータに対して音声データ抽出処理をし、処理された前記デジタルサウンドデータを前記出力サウンドデータに作成し、スピーカ7に出力させる。
リモートコントローラー81を操作することにより指向性集音モード812が起動されると、集音処理装置6の制御によりイメージキャプチャー4からの画像がリアルタイムでタッチパネルユニット82に表示されるように転送される。この時、着用者は目的とするタッチパネルユニット82に表示されている画像にある1箇所をタッチし、集音処理装置6にそのタッチ位置に対応する信号を送信する。それに応じて、集音処理装置6の集音制御部63及び出力処理部65は、該1箇所に対応する方角に向けて集音するようにマイクロフォンアレイ5を制御すると共に、該1箇所に対応する方角からの音がスピーカー7に出力されるよう、集音したデジタルサウンドデータに対してビームフォーミングによるフィルタリング処理を実行して出力サウンドデータを作成し、スピーカ7に出力させる。
本実施例では、集音処理装置6は、装身具3に設置されており、着用者が所持しているディスプレイ手段8と無線通信技術によって接続されている。しかし、本発明の別の実施形態では、集音処理装置6を装身具3に設置するのではなく、そのかわりに、集音処理装置6をディスプレイ手段8に設置することで、装身具3に設置されている電子部品の数量をおさえ、軽量化により着用者の負担を減らすことができる。
また、本発明のさらに別の実施形態では、ディスプレイ手段8をプロジェクターに変え、装身具3に設置し、かつ、装身具3のレンズ32に画像を投写表示することができるように構成すれば、複数の前記環境画像サンプルデータに対応する画像やイメージキャプチャー4からの画像をレンズ32に表示し、着用者が視線入力または他の入力手段によって、複数の前記環境画像サンプルデータに対応する画像の選択やイメージキャプチャー4からの画像の一箇所を選ぶことができる。
本発明のさらに別の実施形態では、ディスプレイ手段8を透明液晶パネルに変えることもできる。この場合、ディスプレイ手段8は着用者の目の前の装身具3のレンズ32に設置して使う。
さらに、本発明の他の実施形態において、ディスプレイ手段8の存在は必要ではなく、集音処理装置6は、デジタルイメージデータを分析し、複数の前記環境サンプルデータにおいて類似度が最も高い前記環境画像サンプルデータを選択し、対応する前記集音制御方針データに基づいて、マイクロフォンアレイ5を起動及び制御し集音を行えるので、ディスプレイ手段8での選択を必要としない。
以上により、本発明に係る補聴器システムは、集音処理装置6のメモリに保存されている複数の環境画像サンプルデータと、各前記環境画像サンプルデータにそれぞれ対応する複数の集音制御方針データと、各前記環境画像サンプルデータにそれぞれ対応する複数のサウンド処理方法データと、の構成により、及び、イメージキャプチャー4が撮影した着用者の前方の視野を分析し、類似度が一定の閾値を越えた1つまたは複数の前記環境画像サンプルデータを選び出す構成により、着用者がいる環境の音源パターンをより正確に識別でき、また、着用者はディスプレイ手段8を操作し、自ら一番適している前記環境画像サンプルデータに対応する画像を選ぶこともできる。さらに、着用者はディスプレイ手段8を操作して指向性集音モード812を起動することにより、イメージキャプチャー4から転送されたリアルタイムの画像のある1箇所をタッチし、集音処理装置6がビームフォーミング技術によって特定の方角を集音することもでき、使用上便利である。
以上、本発明の好ましい実施形態を説明したが、本発明はこれらに限定されるものではなく、最も広い解釈の精神および範囲内に含まれる様々な構成として、全ての修飾および均等な構成を包含するものとする。
上記構成により、本発明の補聴器システムは、着用者がいる環境の音源パターンをより正確に識別し、適宜な集音制御方針を起動することができ、即ち、着用者の周囲の状況に応じて集音方法を変更しスピーカーに出力させることができるため、着用者が従来の補聴器を着用しても聞き取りが不便で困難であった環境の対応が可能な補聴器システムを提供することができる。
200 補聴器システム
3 装身具
31 フロントサポーター
32 レンズ
33 サイドサポーター
4 イメージキャプチャー
5 マイクロフォンアレイ
51 マイクロフォンユニット
6 集音処理装置
61 起動制御部
62 環境分析部
621 手動選択モード
622 自動選択モード
63 集音制御部
65 出力処理部
7 スピーカー
8 ディスプレイ手段
81 リモートコントローラー
811 環境集音モード
812 指向性集音モード
82 タッチパネルユニット

Claims (9)

  1. 着用者の前方の視野を撮影してデジタルイメージデータに変換するイメージキャプチャーと、
    それぞれ独立して周囲の音を収集してデジタルサウンドデータに変換する複数のマイクロフォンユニットにより構成されたマイクロフォンアレイと、
    前記イメージキャプチャー及び前記マイクロフォンアレイに信号的に接続して前記イメージキャプチャー及び各前記マイクロフォンユニットから受信した前記デジタルイメージデータ及び各前記デジタルサウンドデータに基づいて出力サウンドデータを作成して出力する集音処理装置と、
    前記集音処理装置に信号的に接続して前記出力サウンドデータを受信して対応の音に変換して出力するスピーカーと、を備える補聴器システムであって、
    前記集音処理装置は、
    複数の環境画像サンプルデータと、各前記環境画像サンプルデータにそれぞれ対応する複数の集音制御方針データと、各前記環境画像サンプルデータにそれぞれ対応する複数のサウンド処理方法データと、が保存されているメモリと、
    前記メモリにアクセスし、前記イメージキャプチャーから受信した前記デジタルイメージデータを分析して複数の前記環境画像サンプルデータから対応の1つを選択する環境分析部と、
    前記メモリにアクセスし、前記環境分析部により選択された前記環境画像サンプルデータに対応する前記集音制御方針データに基づいて、前記マイクロフォンアレイを構成する各前記マイクロフォンユニットを制御する集音制御部と、
    前記メモリにアクセスし、前記環境分析部により選択された前記環境画像サンプルデータに対応する前記サウンド処理方法データに基づいて、前記マイクロフォンアレイを構成する各前記マイクロフォンユニットからそれぞれ受信した各前記デジタルサウンドデータを変換して前記出力サウンドデータとして作成して前記スピーカーに出力する出力処理部と、
    を有していることを特徴とする補聴器システム。
  2. 前記集音処理装置に信号的に接続して画像を表示できるディスプレイ手段を更に備え、
    前記集音処理装置は、前記環境分析部が前記イメージキャプチャーから受信した前記デジタルイメージデータを分析する際、複数の前記環境画像サンプルデータにおいて類似度が一定の閾値を越えた複数の前記環境画像サンプルデータに対応する画像を前記ディスプレイ手段に表示させるように送信し、着用者が前記ディスプレイ手段に表示された複数の前記画像から1つを選択して前記集音処理装置に送信することに応じて、前記集音処理装置の前記環境分析部は着用者により選択された前記画像に対応する前記環境画像サンプルデータを前記対応の1つとして選択するように構成されることを特徴とする請求項1に記載の補聴器システム。
  3. 前記集音処理装置は、着用者により切替可能な手動選択モードと自動選択モードとの2種類の制御モードがあり、
    前記手動選択モードに切り替えられると、全部の前記環境画像サンプルデータにそれぞれ対応する画像を前記ディスプレイ手段に表示させるように送信し、
    前記自動選択モードに切り替えられると、前記環境分析部が前記イメージキャプチャーから受信した前記デジタルイメージデータを分析する際、着用者が手動で選択できるように複数の前記環境画像サンプルデータにおいて類似度が一定の閾値を越えた複数の前記環境画像サンプルデータに対応する画像を前記ディスプレイ手段に表示させるように送信するように構成されることを特徴とする請求項2に記載の補聴器システム。
  4. 前記集音処理装置は、起動制御部を更に有しており、
    前記起動制御部は少なくとも1つの前記マイクロフォンユニットを起動し、
    前記出力処理部が該起動されたマイクロフォンユニットからの前記デジタルサウンドデータを分析して人間の話し声を検出すると、前記環境分析部を起動するように構成されることを特徴とする請求項2または請求項3に記載の補聴器システム。
  5. 着用者が着用可能な装身具を更に備え、前記イメージキャプチャー及び前記マイクロフォンアレイは該装身具に取り付けられていることを特徴とする請求項2または請求項3に記載の補聴器システム。
  6. 前記装身具は眼鏡であり、前記ディスプレイ手段は、前記眼鏡のレンズに画像を投写表示するプロジェクターを有していることを特徴とする請求項5に記載の補聴器システム。
  7. 前記装身具は眼鏡であり、前記ディスプレイ手段は、前記眼鏡のレンズに設置される透明液晶パネルを有していることを特徴とする請求項5に記載の補聴器システム。
  8. 前記ディスプレイ手段は、リモートコントローラーとタッチパネルユニットとを有しており、
    前記リモートコントローラーを操作することにより環境集音モードが起動されると、前記タッチパネルユニットには全部の前記環境画像サンプルデータにそれぞれ対応する画像が表示され、着用者が前記タッチパネルユニットに表示された複数の前記画像から1つを選択して前記集音処理装置に送信することに応じて、前記集音処理装置の前記環境分析部は着用者により選択された前記画像に対応する前記環境画像サンプルデータを前記対応の1つとして選択するように構成されることを特徴とする請求項5に記載の補聴器システム。
  9. 前記リモートコントローラーを操作することにより指向性集音モードが起動されると、前記集音処理装置の制御により前記イメージキャプチャーからの画像がリアルタイムで前記タッチパネルユニットに表示されるように転送され、着用者が前記タッチパネルユニットに表示される画像にあるいずれかの1箇所をタッチすると、前記集音処理装置の前記集音制御部及び前記出力処理部は、該1箇所に対応する方角に向けて集音するように前記マイクロフォンアレイを制御すると共に、該1箇所に対応する方角からの音が前記スピーカーから出力されるよう、集音した前記デジタルサウンドデータに対してビームフォーミングによるフィルタリング処理を実行して前記出力サウンドデータを作成することを特徴とする請求項8に記載の補聴器システム。
JP2020001123A 2019-01-10 2020-01-08 補聴器システム Pending JP2020113981A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
TW108100992 2019-01-10
TW108100992A TWI768175B (zh) 2019-01-10 2019-01-10 具收音場景切換功能的助聽系統

Publications (1)

Publication Number Publication Date
JP2020113981A true JP2020113981A (ja) 2020-07-27

Family

ID=71517150

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020001123A Pending JP2020113981A (ja) 2019-01-10 2020-01-08 補聴器システム

Country Status (4)

Country Link
US (1) US10827260B2 (ja)
JP (1) JP2020113981A (ja)
CN (1) CN111429928A (ja)
TW (1) TWI768175B (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022234871A1 (ko) * 2021-05-04 2022-11-10 엘지전자 주식회사 음장 제어 장치 및 방법
CN115695620A (zh) * 2021-07-22 2023-02-03 所乐思(深圳)科技有限公司 智能眼镜及其控制方法和***
CN114615609B (zh) * 2022-03-15 2024-01-30 深圳市昂思科技有限公司 助听器控制方法、助听器设备、装置、设备和计算机介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160277850A1 (en) * 2015-03-18 2016-09-22 Lenovo (Singapore) Pte. Ltd. Presentation of audio based on source
JP2017005356A (ja) * 2015-06-05 2017-01-05 リウ チン フォンChing−Feng LIU オーディオ信号を処理する方法及び補聴器システム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1229518A1 (en) * 2001-01-31 2002-08-07 Alcatel Speech recognition system, and terminal, and system unit, and method
WO2002072317A1 (fr) * 2001-03-09 2002-09-19 Japan Science And Technology Corporation Systeme de robot audiovisuel
US9153195B2 (en) * 2011-08-17 2015-10-06 Microsoft Technology Licensing, Llc Providing contextual personal information by a mixed reality device
KR102052153B1 (ko) * 2013-02-15 2019-12-17 삼성전자주식회사 보청기를 제어하는 휴대 단말 및 방법
US10229697B2 (en) * 2013-03-12 2019-03-12 Google Technology Holdings LLC Apparatus and method for beamforming to obtain voice and noise signals
TWI543635B (zh) * 2013-12-18 2016-07-21 jing-feng Liu Speech Acquisition Method of Hearing Aid System and Hearing Aid System
US10282057B1 (en) * 2014-07-29 2019-05-07 Google Llc Image editing on a wearable device
CA2927046A1 (en) * 2016-04-12 2017-10-12 11 Motion Pictures Limited Method and system for 360 degree head-mounted display monitoring between software program modules using video or image texture sharing
US10375266B2 (en) * 2016-10-26 2019-08-06 Orcam Technologies Ltd. Systems and methods for selecting an action based on a detected person
US10362270B2 (en) * 2016-12-12 2019-07-23 Dolby Laboratories Licensing Corporation Multimodal spatial registration of devices for congruent multimedia communications
US10599950B2 (en) * 2017-05-30 2020-03-24 Google Llc Systems and methods for person recognition data management
US10452923B2 (en) * 2017-11-28 2019-10-22 Visual Semantics, Inc. Method and apparatus for integration of detected object identifiers and semantic scene graph networks for captured visual scene behavior estimation

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160277850A1 (en) * 2015-03-18 2016-09-22 Lenovo (Singapore) Pte. Ltd. Presentation of audio based on source
JP2017005356A (ja) * 2015-06-05 2017-01-05 リウ チン フォンChing−Feng LIU オーディオ信号を処理する方法及び補聴器システム

Also Published As

Publication number Publication date
US20200228894A1 (en) 2020-07-16
TW202027520A (zh) 2020-07-16
TWI768175B (zh) 2022-06-21
US10827260B2 (en) 2020-11-03
CN111429928A (zh) 2020-07-17

Similar Documents

Publication Publication Date Title
US9491553B2 (en) Method of audio signal processing and hearing aid system for implementing the same
JP6094190B2 (ja) 情報処理装置および記録媒体
CN105981375B (zh) 信息处理设备、控制方法、程序和***
US20230045237A1 (en) Wearable apparatus for active substitution
US20170303052A1 (en) Wearable auditory feedback device
JP2020113981A (ja) 補聴器システム
EP2824541A1 (en) Method and apparatus for connecting devices using eye tracking
US20200380959A1 (en) Real time speech translating communication system
CN114115515A (zh) 用于帮助用户的方法和头戴式单元
US20200227067A1 (en) Communication aid system
CN115620728B (zh) 音频处理方法、装置、存储介质及智能眼镜
US20210055367A1 (en) Audio-based feedback for head-mountable device
US20170186431A1 (en) Speech to Text Prosthetic Hearing Aid
CN106842565A (zh) 一种分离式可穿戴智能视觉增强设备
JP6290827B2 (ja) オーディオ信号を処理する方法及び補聴器システム
WO2022009626A1 (ja) 音声入力装置
JP6853589B1 (ja) 首掛け型装置
US20240064420A1 (en) Cameras for multiple views
US20230083358A1 (en) Earphone smartcase with audio processor
JP2021082301A (ja) 首掛け型装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211026

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220927

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230418