JP2022535299A - 個人用のヒアリングデバイスにおける適応サウンドイコライゼーションのためのシステムおよび方法 - Google Patents

個人用のヒアリングデバイスにおける適応サウンドイコライゼーションのためのシステムおよび方法 Download PDF

Info

Publication number
JP2022535299A
JP2022535299A JP2021572667A JP2021572667A JP2022535299A JP 2022535299 A JP2022535299 A JP 2022535299A JP 2021572667 A JP2021572667 A JP 2021572667A JP 2021572667 A JP2021572667 A JP 2021572667A JP 2022535299 A JP2022535299 A JP 2022535299A
Authority
JP
Japan
Prior art keywords
audio signal
signal
listener
target
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021572667A
Other languages
English (en)
Inventor
マイケル エム グッドウィン
マーティン ウォルシュ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
DTS Inc
Original Assignee
DTS Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by DTS Inc filed Critical DTS Inc
Publication of JP2022535299A publication Critical patent/JP2022535299A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/22Arrangements for obtaining desired frequency or directional characteristics for obtaining desired frequency characteristic only 
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03GCONTROL OF AMPLIFICATION
    • H03G5/00Tone control or bandwidth control in amplifiers
    • H03G5/16Automatic control
    • H03G5/165Equalizers; Volume or gain control in limited frequency bands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • G10K11/178Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
    • G10K11/1781Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase characterised by the analysis of input or output signals, e.g. frequency range, modes, transfer functions
    • G10K11/17821Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase characterised by the analysis of input or output signals, e.g. frequency range, modes, transfer functions characterised by the analysis of the input signals only
    • G10K11/17823Reference signals, e.g. ambient acoustic environment
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • G10K11/178Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
    • G10K11/1781Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase characterised by the analysis of input or output signals, e.g. frequency range, modes, transfer functions
    • G10K11/17821Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase characterised by the analysis of input or output signals, e.g. frequency range, modes, transfer functions characterised by the analysis of the input signals only
    • G10K11/17827Desired external signals, e.g. pass-through audio such as music or speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • G10K11/178Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
    • G10K11/1785Methods, e.g. algorithms; Devices
    • G10K11/17853Methods, e.g. algorithms; Devices of the filter
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • G10K11/178Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
    • G10K11/1785Methods, e.g. algorithms; Devices
    • G10K11/17853Methods, e.g. algorithms; Devices of the filter
    • G10K11/17854Methods, e.g. algorithms; Devices of the filter the filter being an adaptive filter
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • G10K11/178Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
    • G10K11/1787General system configurations
    • G10K11/17879General system configurations using both a reference signal and an error signal
    • G10K11/17881General system configurations using both a reference signal and an error signal the reference signal being an acoustic signal, e.g. recorded with a microphone
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03GCONTROL OF AMPLIFICATION
    • H03G5/00Tone control or bandwidth control in amplifiers
    • H03G5/005Tone control or bandwidth control in amplifiers of digital signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1016Earpieces of the intra-aural type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/50Customised settings for obtaining desired overall acoustical characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/307Frequency adjustment, e.g. tone control
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/036Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal of musical genre, i.e. analysing the style of musical pieces, usually for selection, filtering or classification
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K2210/00Details of active noise control [ANC] covered by G10K11/178 but not provided for in any of its subgroups
    • G10K2210/10Applications
    • G10K2210/108Communication systems, e.g. where useful sound is kept and noise is cancelled
    • G10K2210/1081Earphones, e.g. for telephones, ear protectors or headsets
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K2210/00Details of active noise control [ANC] covered by G10K11/178 but not provided for in any of its subgroups
    • G10K2210/30Means
    • G10K2210/301Computational
    • G10K2210/3028Filtering, e.g. Kalman filters or special analogue or digital filters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1083Reduction of ambient noise
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2201/00Details of transducers, loudspeakers or microphones covered by H04R1/00 but not provided for in any of its subgroups
    • H04R2201/10Details of earpieces, attachments therefor, earphones or monophonic headphones covered by H04R1/10 but not provided for in any of its subgroups
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2225/00Details of deaf aids covered by H04R25/00, not provided for in any of its subgroups
    • H04R2225/41Detection or adaptation of hearing aid parameters or programs to listening situation, e.g. pub, forest
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/50Customised settings for obtaining desired overall acoustical characteristics
    • H04R25/505Customised settings for obtaining desired overall acoustical characteristics using digital signal processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Neurosurgery (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Soundproofing, Sound Blocking, And Sound Damping (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Headphones And Earphones (AREA)

Abstract

個人用のヒアリングデバイスにおける適応サウンドイコライゼーションのためのシステムおよび方法の実施形態が開示される。いくつかの実施形態では、個人用のヒアリングデバイスのマイクロフォンが、リスナーの環境からサウンドを受信する。次いで、サウンドは、1以上の所望の目標、たとえばラウドネスレベルまたはスペクトルバランスを決定するために分析される。決定された目標は次に、マイクロフォンによって受信されたサウンドの適応処理を制御するのに用いられ、知覚的に改善されたサウンドを生成し、リスナーに対してレンダリングされる。【選択図】図1

Description

<関連出願および優先権の主張>
本出願は、全体が引用により本明細書に組み入られる「アクティブイコライゼーションによるアクティブおよびパッシブノイズキャンセレーション」という名称の2019年6月7日に出願された米国仮特許出願第62/858,469号明細書に関連し、これに対する優先権を主張するものである。
音楽コンサートなどの一部のリスニング体験は、知覚的に最適以下である可能性がある。たとえば、大きな会場での人気のある音楽コンサートは、大音響のレベルでレンダリングされることがあり、リスナーの好みを満足させることなく、リスナーのヒアリングに潜在的に有害である可能性もある。さらにまた、音楽は、たとえば過度の低音によって好ましくないスペクトルインバランスによってレンダリングされることがある。このような問題は同様に他の状況でも起こり、さらにリスニング体験にとって共通の障害である。たとえば、リスナーは、航空機などの雑音の多い環境でまたは公共の交通機関を使用中、より明瞭に会話を聞き取りたい場合がある。別の例では、都市の街路にいるサイクリストは、通過車両または道路工事からの過度の騒音公害の悪影響を制限しながら、安全性のためにリスニングデバイスを音響的に透過性であることを望む場合がある。レベルおよびイコライゼーションに関するプリファレンスは、人によって異なり、リスニング環境に依存する場合がある。従って、リスナーの個人のプリファレンスに基づいて、リスナーによって体験されるサウンドシーンのラウドネスとスペクトルイコライゼーションの両方をリスナーが制御しカスタマイズできることが望ましい。
音楽コンサートなどの大音響のリスニング環境におけるラウドネスの低減および聴力保護のための共通の手法は、発泡体の耳栓を使用することである。発泡体の耳栓を使用する目的は、外耳の物理的閉塞によって鼓膜に到達するサウンドを減衰させることである。これは鼓膜に到達するサウンドを低減するが、このような耳栓は、低周波コンテンツよりも高周波コンテンツを不均衡に低減する。これは、リスナーに対するサウンドのスペクトルバランスに悪影響を与える可能性がある。スペクトルバランス問題は、消費者リスナーに利用可能な現行の解決策によって対処されていない。
この発明の概要は、発明を実施するための形態において以下でさらに説明される概念の中から選択された内容を簡易的な形態で紹介するために提供される。この要約は、本発明の重要な要素を特定すること、および本発明の技術的範囲を正確に説明することを意図するものではない。
ライブ音楽コンサートおよび他の状況でのリスニング体験は、知覚的に最適以下である可能性がある。たとえば、これらは、リスナーの快適さまたは聴覚の健康にとっては大きすぎるレベルで、およびリスナーのプリファレンスに一致しないスペクトルバランスでレンダリングされることがある。本発明の実施形態は、ラウドネスとスペクトルバランスの問題の両方に対処しリスニング体験を改善する。
本明細書で開示されたシステムおよび方法の実施形態は、パッシブサウンドサプレッションおよび適応サウンドイコライゼーションを統合して個人用ヒアラブルデバイスにおいてリアルタイムで入力オーディオ信号(incoming audio signal)を処理する新規の技術を用いる。本明細書に記載されるシステムおよび方法の実施形態は、目標性能基準に適応して一致するように、「現実世界」の聴覚事象(音楽パフォーマンスなど)のスペクトルバランス、ダイナミクスおよびラウドネス特性をアクティブにモニタし適応させる新規の技術を含む。これは、他の何れの製品または応用によっても試みたことがなく、ライブ音響パフォーマンスなどの状況において有効な聴力保護および改善された音質の組み合わせに関連する共通して体験される問題を解決する。
本発明の実施形態は、耳栓の使用のようにレベル減衰のためのイヤフォンフォームファクタを用いる。いくつかの実施形態では、本発明は、音響的に密閉されたオーバーザイヤヘッドセットを用いる。いくつかの実施形態では、1対のイヤフォンがリスナーによって各耳に1つずつ用いられる。他の実施形態では、各イヤフォンは、入力サウンドを受信する外部マイクロフォンと、入力サウンドを処理する内部信号処理ユニットと、処理されたサウンドをリスナーに対してレンダリングするトランスデューサとを含む。いくつかの実施形態では、各イヤフォンが、リスナーに対してレンダリングされたサウンドをモニタする内部マイクロフォンをさらに含む。本発明の他の実施形態は、音響的に密閉されたイヤキャップを備えたヘッドフォンフォームファクタを用いる。いくつかの実施形態では、ヘッドフォンは、入力サウンドを受信する外部マイクロフォンを各耳に含む。いくつかの実施形態では、さらに、リスナーに対してレンダリングされたサウンドをモニタするために、内部マイクロフォンが各耳に含まれる。
リスナーのプリファレンスは、リスニング環境に応じて異なる場合がある。たとえば、純粋に雑音の多い環境では、リスナーのプリファレンスは、環境からのサウンドの何れも聞こえない場合がある。他のケースでは、リスナーのプリファレンスは、たとえば環境の何らかの認識を維持するために、減衰レベルでだけ環境からのサウンドを聞くことになる場合がある。他のケースでは、リスナーのプリファレンスは、改善されたスペクトルバランスでだけ環境サウンドを聞くことにできる。他のケースでは、リスナーのプリファレンスは、環境サウンドの態様を選択的に聞くことにできる。場合によっては、環境サウンドが経時的に変化する可能性があり、リスナーのプリファレンスに継続的に満足させるには、環境への何らかの適応を必要とする場合がある。従って、リスニング体験を改善するために入力サウンドのレベルおよびスペクトルバランスを適応的に制御することが重要である。いくつかの実施形態では、入力サウンドの適応処理は、目標レベルを達成するよう構成される。いくつかの実施形態では、入力サウンドの適応処理は、目標スペクトルバランスを達成するよう構成される。
本発明のいくつかの実施形態は、ユーザプリファレンスに一部基づいてサウンドをレンダリングするための目標ラウドネスを設定する。本発明のいくつかの実施形態は、義務付けられる聴力保護ガイドラインに一部基づいて、サウンドをレンダリングするための目標ラウドネスを設定する。いくつかの実施形態は、ユーザ設定に一部基づいて、入力サウンドをレンダリングするための目標スペクトルバランスを設定する。いくつかの実施形態は、入力サウンドを分析して分析結果に従ってスペクトルバランスを決定することによって、目標スペクトルバランスを設定する。たとえば、分析は、ジャズ音楽に対するユーザの好みのイコライゼーションが目標バランスの選択を通知するように入力サウンドがジャズ音楽であることを決定することができる。
個人用のヒアリングデバイスにおける適応サウンドイコライゼーションのシステムおよび方法の実施形態が開示される。いくつかの実施形態では、入力オーディオ信号を処理する方法は、入力オーディオ信号にアクティブイコライゼーションを適用し、イコライズされたオーディオ信号を取得する。このイコライズされたオーディオ信号は次に、目標イコライゼーションに調整されて、出力オーディオ信号を取得する。この出力オーディオ信号は、リスナーへの再生のためにレンダリングされる。出力オーディオ信号は、少なくとも目標イコライゼーションが調整される特定のリスナーに対する入力オーディオ信号の知覚的に改善されたバージョンである。
いくつかの実施形態では、本方法は、アーティストの録音の知識に基づいて目標イコライゼーションを決定することを含む。典型的には、これは、入力オーディオ信号にレコーディングが含まれる音楽アーティストである。いくつかの実施形態では、1以上の機械学習技術が、アーティストの録音を含むデータベースを分析するために用いられる。これは、本発明のシステムおよび方法の実施形態が、アーティストの録音のデータベースに基づいて目標イコライゼーションを決定するのを可能にする。いくつかの実施形態では、アクティブフィルタが、イコライズされたオーディオ信号を目標イコライゼーションに調整するために用いられる。
本発明の実施形態はまた、入力オーディオ信号のオーディオ特性をアクティブにモニタして、目標性能基準を含む目標データを提供することを含む、入力オーディオ信号を処理する方法を含む。一部の事例では、この目標データは、リスナーのオーディオグラムまたは測定された聴力損失曲線(hearing loss curve)を含む。これは、リスナーが聴力に問題がある可能性がある特定の周波数を増幅できるように、入力オーディオを調整または適応させることができる。いくつかの実施形態では、本発明の方法は、ダイアログ周波数帯域を強調して、適応されたオーディオ特性を取得することを含む。これにより、他の場合にリスナーが聞き取ることが難しい可能性があるテレビ番組または映画でのダイアログをリスナーが聞き取るのを可能にする。
本方法の実施形態はまた、入力オーディオ信号のオーディオ特性を目標性能基準に適応させて入力オーディオ信号の適応オーディオ特性を取得することを含む。いくつかの実施形態では、オーディオ特性を適応させることは、目標性能基準に基づいて適応フィルタを更新することによって達成される。適応オーディオ特性は出力信号でレンダリングされる。これは、入力オーディオ信号に比べて出力信号からのより優良なリスニング体験をリスナーに提供する。いくつかの実施形態ではオーディオ信号における適応オーディオ特性が、個人用のヒアリングデバイスでレンダリングされる。
いくつかの実施形態では、個人用のヒアリングデバイスのマイクロフォンは、リスナーの環境からサウンドを受信する。このサウンドは次に、1以上の所望の目標、たとえばラウドネルレベルまたはスペクトルバランスを決定するために分析される。決定された目標は次に、マイクロフォンによって受信されたサウンドの適応処理を制御して、リスナーに対してレンダリングするために知覚的に改善されたサウンドを生成するために用いられる。
本方法の実施形態はまた、入力オーディオ信号に存在する楽曲を識別し、識別した楽曲を取得することと、識別した楽曲に基づいて目標データを決定することとを含む。他の実施形態は、入力オーディオ信号に存在する楽曲のジャンルを識別して、識別したジャンルを取得することと、識別したジャンルに基づいて目標データを決定することとを含む。さらに他の実施形態は、入力オーディオ信号における望ましくないサウンドのオーディオ特性を識別することと、望ましくないサウンドのオーディオ特性に基づいて目標データを決定することとを含む。
実施形態はまた、入力オーディオ信号を処理するヒアラブルデバイスを含む。ヒアラブルデバイスは、プロセッサと、命令を格納するメモリと、を含む。これらの命令は、プロセッサによって実行された時に、入力オーディオ信号のオーディオ特性をアクティブにモニタするようヒアラブルデバイスを構成する。ヒアリングデバイスはまた、目標性能基準を含む目標データを提供し、入力オーディオ信号のオーディオ特性を目標性能基準に適応させ、入力オーディオ信号の適応されたオーディオ特性を取得するよう構成される。これらの適応オーディオ特性は、リスナーにとっての改善された聴覚体験として出力信号にてレンダリングされる。
本開示の要約の目的で、本発明の特定の態様、利点および新規の特徴を本明細書で説明してきた。全てのこのような利点が必ずしも本明細書で開示する発明の何れの特定の実施形態によっても達成できるとは限らない点を理解されたい。従って、本明細書に開示する発明は、本明細書で教示または提案することができる他の利点を必ずしも達成することなく、本明細書にて教示されるように1つの利点または利点の一群を達成または最適化する方式で実施または具現化することができる。
代替の実施形態が可能であること、本明細書で論じるステップおよび要素が、特定の実施形態に応じて変更、追加、または削除することができる点に留意されたい。これらの代替の実施形態は、本発明の範囲から逸脱することなく、使用できる代替のステップおよび代替の要素、および行い得る構造的変更を含む。
図面全体を通じて、参照要素間の対応関係を示すために参照符号は再使用される。図面は、本明細書で説明する発明の実施形態を例証するために提供され、本発明の範囲を限定するものではない。
本発明の実施形態による、イヤフォンフォームファクタにおける個人用のヒアリングデバイスの第1の例示的な実施形態を示す図である。
本発明の実施形態による、イヤフォンフォームファクタにおける個人用のヒアリングデバイスの第2の例示的な実施形態を示す図である。
本発明の実施形態による、図1に示されたオーディオプロセッサのシステムブロック図である。
本発明の実施形態による、図3に示された中央プロセッサのブロック図である。
本発明の実施形態による、図4に示された目標決定モジュールのブロック図である。
本発明の第1の実施形態による、図4に示された適応処理モジュールのブロック図である。
本発明の第2の実施形態による、図4に示された適応処理モジュールのブロック図である。
本発明の実施形態の第1セットの方法を示す概略流れ図である。
本発明の実施形態の第2セットの方法を示す概略流れ図である。
背景および発明の概要において上述したように、現実世界のリスニング体験は、極端なラウドネス、不十分なスペクトルバランス、または他の要因によって知覚的に劣化する可能性がある。このため、有用な解決策は、ラウドネス低減および好ましいスペクトルバランスの維持の2つの目的に対処することになる。2014年には少なくとも1つのライブ音楽フェスティバルに3200万人が参加しており(ニールセンによる)、改善されたライブ音楽リスニング体験から恩恵を受けることができる多数の潜在的ユーザがいることは明らかである。
劣化したリスニング体験の1つの例は、大型アリーナの音楽コンサートである。典型的なロックコンサートの聴衆メンバは、120dB SPLの平均サウンドレベルに曝される可能性があり、これは耳鳴りなどの短期の聴力問題および永久的な聴覚損失などの長期の聴力問題を引き起こす可能性がある。リスニング体験の更なる劣化として、会場の大きなサブウーファおよび低周波音響モードが、重大なスペクトルインバランスおよびパフォーマンスの明瞭度の喪失を生じる可能性がある。このような劣化は、座席位置に応じて変わる可能性がある。劣化したリスニング体験の別の例は、超大作映画であり、劇場でのサウンドレベルが危険なまでに大きい可能性がある。コンサートまたは映画などの状況では、リスナーは、ラウドネスを望ましいレベルに制限することを好む可能性がある。リスナーは、望ましいスペクトルバランスでサウンドをレンダリングすることを好む可能性がある。場合によっては、リスナーは、リスナーのオーディオグラムを補償するスペクトルバランス目標または対話を強調するスペクトルバランスを選択することができる。場合によっては、リスナーは、リスニング環境の劣化したスペクトル効果を発生させることなく、オリジナルプログラム材料のスペクトルバランスを有するサウンドをレンダリングするのを好む場合がある。従って、本発明の実施形態は、個人用のヒアリングデバイスにおける適応サウンドイコライゼーションおよびレベル調整を提供してこのようなプリファレンスに対応する。
リスナーは、上述以外のさらに他のリスニング状況で個人用のヒアリングデバイスにおいて外部サウンドの適応再生を好む場合がある。たとえば、航空機または公共交通機関などの雑音環境での会話を実施する際に、リスナーは、スピーチを強めると同時に背景雑音を減衰させることを好むことがある。別の例として、音楽を聴くためにイヤフォンまたはヘッドフォンなどの個人用のヒアリングデバイスを用いるリスナーは、外部環境からの重要なサウンド、たとえば車両トラフィックまたはパブリックアドレスアナウンスのサウンドを潜在的に聞くことができない可能性がある。このような外部サウンドは、リスナーにとって不快であるかまたはリスナーの聴力に有害である可能性がある、極めて高いサウンドレベルへのリスナーの暴露を制限しながらリスナーに対してレンダリングすることができる。従って、本発明の実施形態は、個人用のヒアリングデバイスにおける適応サウンドイコライゼーションおよびレベル調整を提供して、リスナーへの関心のある外部サウンドの改善されたレンダリングを可能にする。
本発明の実施形態はまた、イヤフォンフォームファクタの個人用のヒアリングデバイスを含む。イヤフォンフォームファクタは、外耳の物理的閉塞によってユーザの環境からの入力サウンドの何らかの減衰(またはパッシブ抑制)を提供する。本発明の実施形態はまた、ユーザの環境からのサウンドのパッシブ減衰を同様に提供することができるヘッドフォンフォームファクタの個人用のヒアリングデバイスを含む。
パッシブラウドネス減衰のための耳栓の使用は、コンサートでは一般的である。一部のアクティブ個人用のヒアリングデバイスは、固定された利得または固定されたイコライゼーションをリスナーの環境からのサウンドに適用するよう構成される。本発明の実施形態は、リスナーに対してレンダリングされたサウンドを、リスナーによって指定できるかまたは安全なリスニングレベルのガイドラインに従った特定のラウドネルレベルに適応させることによって、以前の手法を改善している。本発明の実施形態は、リスナーによって指定できるかまたはレンダリングされるサウンドに関連付けられるデータによる指定されたスペクトルバランスを達成するためにリスナーに対してレンダリングされたサウンドを適応させることによって以前の方法を改善している。
本発明のいくつかの実施形態によれば、図1は、リスナーの外耳に挿入される耳栓またはイヤフォンのフォームファクタの個人用のヒアリングデバイス100として本発明の第1の例示的な実施形態を示す。この図示したデバイスは、入力サウンドを受信する外部マイクロフォンと、受信したサウンドを処理するオーディオプロセッサと、リスナーにサウンドをレンダリングする内部トランスデューサとを含む。「外部マイクロフォン」は、外部リスニング環境に開かれたマイクロフォンである点に留意されたい。対照的に、「内部マイクロフォン」は、リスナーの耳に開かれたマイクロフォンである。同様に、「内部ラウドスピーカ」はリスナーの耳に開かれたラウドスピーカである。典型的には、外部マイクロフォンと内部マイクロフォンとの間には、あるタイプの物理的な音響的障壁が存在する。この図は単一の要素を示しているが、典型的な実施形態では、このようなデバイスは、リスナーの耳のそれぞれに用いられる。
図1を参照すると、個人用のヒアリングデバイス100は、外部サウンドが外耳に到達することから物理的に阻止されるように、リスナーの外耳の閉塞を提供するよう設計された形状である。ポート付きのマイクロフォン102は、入力サウンド響信号を受信するために外部環境に開かれている。換言すると、サウンドはリスナーの環境からリスナーに音響伝播される。ポート付きのマイクロフォン102は、受信した音響信号を電気形式に変換する。変換された電気信号は、オーディオプロセッサ104に提供され、次に、オーディオプロセッサ104が、処理した信号を外耳にポートされたラウドスピーカ106に提供する。ラウドスピーカ106は、処理された信号を、ユーザの外耳を介してユーザの鼓膜に伝えるため音響信号に変換する。
本発明のいくつかの実施形態によれば、図2は、リスナーの外耳に挿入された耳栓またはイヤフォンのフォームファクタの個人用のヒアリングデバイス200として本発明の第2の例示的な実施形態を示している。図では、単一の要素を示しているが、典型的な実施形態におけるこのようなデバイスは、リスナーの耳の各々に用いられる。個人用のヒアリングデバイス200は、入力サウンドを受信する外部マイクロフォンと、受信したサウンドを処理するオーディオプロセッサと、リスナーにサウンドをレンダリングするための内部トランスデューサと、リスナーに対してレンダリングされたサウンドをモニタする内部マイクロフォンとを含む。内部マイクロフォンによって受信された信号はまた、プロセッサに提供される。
図2を参照すると、個人用のヒアリングデバイス200は、外部サウンドが外耳に到達することから物理的に阻止されるように外耳の閉塞を提供するよう設計された形状である。ポート付きのマイクロフォン202は、入力サウンド響信号を受信するために外部環境に開かれている。マイクロフォンは、受信した音響信号を電気信号に変換する。変換された電気信号は、オーディオプロセッサ204に提供され、次にオーディオプロセッサ204が、処理した信号を外耳にポートされたラウドスピーカ206に提供する。ラウドスピーカ206は、処理された信号をユーザの外耳を介してユーザの鼓膜に伝えるための音響信号に変換する。
ポート付きのマイクロフォン208は、内部音響信号を電気信号に変換するために外耳に開かれている。電気形態の信号は、オーディオプロセッサ204に提供され、ラウドスピーカ206によってレンダリングされた音響信号と内部に物理的に伝播する何れかの外部サウンドとの組み合わせである、外耳の音響信号をモニタする。たとえば、外部サウンドは、個人用のヒアリングデバイス200の外耳閉塞によって完全には阻止されない場合があり、従って、一部は外耳に伝播する可能性がある。
図3は、本発明のいくつかの実施形態による、図1に示されたオーディオプロセッサ104のブロック図である。オーディオプロセッサ104は、ライン302上で入力としてマイクロフォン(図示せず)から出力信号を受信する。アナログ/デジタルコンバータ304は、信号302をアナログ信号からデジタル信号に変換して、このデジタル信号がプロセッサ306に入力として提供される。
プロセッサ306は、デジタル/アナログコンバータ308によってデジタル信号からアナログ信号に変換された処理済みデジタル信号を出力する。デジタル/アナログコンバータの出力は、ラウドスピーカ(図示せず)による後続の変換のためにライン310上に提供される。当業者であれば、図2に示されたオーディオプロセッサ204(または本発明のさらに他の実施形態のためのオーディオプロセッサ)がオーディオプロセッサ104について記載されたものに類似の構成要素を備えることは理解されるであろう。たとえば、オーディオプロセッサ204を用いた実施形態は、第2マイクロフォン入力、第2アナログ/デジタルコンバータ、および中央プロセッサへの第2デジタル入力を含むことになる。
図3に示されたブロック図では、中央プロセッサ306がメモリユニット312に接続されている。いくつかの実施形態では、中央プロセッサ306は、メモリユニット312に情報を格納し、メモリユニット312から情報を読み出す。いくつかの実施形態では、メモリユニット312は、制御ロジック314を含む。いくつかの実施形態では、メモリユニット312は、データユニット316を含む。データユニット316は、中央プロセッサ306によって得られたデータ、たとえば入力オーディオ信号のいくつかの周波数帯域のエネルギー尺度を格納する。いくつかの実施形態では、データユニット316は、中央プロセッサ306によって使用されるデータを格納する。いくつかの実施形態では、データユニット316は、リスナーに対してレンダリングされるサウンドの目標ラウドネスレベルを格納する。いくつかの実施形態の目標ラウドネスは、プロセッサ入力信号に必要な処理を少なくとも部分的に決定してプロセッサ出力信号を決定するために中央プロセッサ306によって用いられる。いくつかの実施形態では、データユニット316は、リスナーに対してレンダリングされるサウンドに対して、スペクトルイコライゼーションと呼ばれることもある目標スペクトルバランスを格納する。いくつかの実施形態では、目標スペクトルバランスは、プロセッサ入力信号に必要な処理を少なくとも部分的に決定してプロセッサ出力信号を決定するために、中央プロセッサ306によって用いられる。
上述のように、いくつかの実施形態では、データユニット316が、出力信号を生成するために入力信号に必要とされる処理を決定する際に中央プロセッサ316によって用いられる目標データを格納する。目標データは、出力信号の目標平均ラウドネスレベルを含むことができる。目標データは、出力信号の目標ピークラウドネスレベルを含むことができる。目標データは、出力信号の目標スペクトルバランスまたはイコライゼーションを含むことができる。目標データは、目標ラウドネルレベルまたは目標スペクトルバランス以外の情報を含むことができる。本発明のいくつかの実施形態では、目標データは、デフォルト設定に対応する。いくつかの実施形態では、この目標データは、ユーザが選択したプリセットに少なくとも部分的に基づく。いくつかの実施形態では、目標データは、固定することができる。場合によっては、目標データは、時間的に変化することができる。いくつかの実施形態では、目標データは、ユーザ入力に少なくとも部分的に基づく。たとえば、ユーザが目標ラウドネルレベルを選択するか、または目標スペクトルバランスを設定する。いくつかの実施形態では、目標データは、外部マイクロフォン(図1に示されたマイクロフォン102または図2に示されたマイクロフォン202など)によって変換された信号の分析に少なくとも部分的に基づく。換言すると、目標データは、リスナーの環境におけるサウンドの分析に少なくとも部分的に基づくことができる。
たとえば、ライブコンサートの状況では、入力信号、または入力信号の特定の特徴は、音楽認識アプリケーションにストリーミングすることができ、音楽認識アプリケーションは、楽曲を識別して、当該楽曲に関する目標データ、たとえば目標ラウドネスまたは目標スペクトルバランスを返すことができる。このデータを用いて、中央プロセッサ316によって用いられる目標データを少なくとも部分的に決定することができる。他の場合には、たとえばこのようなデータが音楽認識サービスの一部として利用できない時に、このような曲固有の目標データは、たとえば特定のアーティストによる曲または特定のジャンルの曲など、たとえばライブラリの関連部分のスペクトルバランスおよびラウドネス特性を分析することによって、ユーザ固有のコンテンツライブラリを用いてローカルでオフラインで事前にコンピュータ計算することができる。
図4は、本発明の実施形態による、図3に示された中央プロセッサ306の処理ブロック図である。図4を参照すると、中央プロセッサ306は、適応処理モジュール404と、適応処理モジュール404の動作を少なくとも部分的に制御するためのデータを提供する目標決定モジュール408とを含む。中央プロセッサ306は、ライン402上で入力としてデジタルオーディオ信号を受信する。このデジタルオーディオ信号は、適応処理モジュール404によって処理され、ライン406上で出力としてデジタルオーディオ信号を提供する。ライン402上のデジタルオーディオ信号は、目標決定モジュール408への入力としてさらに提供される。いくつかの実施形態では、目標決定モジュール408は、ライン402上の入力デジタルオーディオ信号に少なくとも部分的に基づいて、ライン410上の適応処理モジュール404に提供する目標データを決定する。いくつかの実施形態では、適応処理モジュール404は、ライン412上で目標決定モジュール408にデータを提供する。いくつかの実施形態では、目標決定モジュール408は、ライン412上のデータを用いて、ライン410上で適応処理モジュール404に提供する目標データを少なくとも部分的に決定する。
いくつかの実施形態では、適応モジュール404は、目標決定モジュール408にデータを提供しないよう構成される。いくつかの実施形態では、目標決定モジュール408は、ライン402上でデジタルオーディオ信号を受信しないよう構成される。当業者であれば、中央プロセッサ306の構成の変形形態が可能であることを理解し評価するであろう。たとえば、本発明のいくつかの実施形態は、図2に示されたオーディオプロセッサ204による、プロセッサへの第2デジタルオーディオ入力信号の取り込みを含む。
図5は、本発明の実施形態による、図4に示された目標決定モジュール408のブロック図である。いくつかの実施形態では、この目標決定モジュール408は、ライン402上で入力としてデジタルオーディオ信号を受信する。いくつかの実施形態では、目標決定モジュール408は、ライン412上で適応処理モジュール404からデータを受信する。
いくつかの実施形態では、特徴決定モジュール502は、ライン402上のデジタルオーディオ信号に少なくとも部分的に基づいて、リスナーの環境においてサウンドに関係付けられる特徴を決定する。いくつかの実施形態では、この特徴決定モジュール502は、ライン412上で設けられた適応処理モジュール404からのデータに少なくとも部分的に基づいて、リスナーの環境にてサウンドに関係付けられる特徴を決定する。特徴決定モジュール502は、特徴マッピングモジュール504に特徴を出力する。特徴マッピングモジュール504は、特徴決定モジュール502によって提供された特徴に少なくとも部分的に基づいて、目標データを決定する。特徴マッピングモジュール504は、ライン410上の目標データを適応処理モジュール404に提供する。
いくつかの実施形態では、特徴マッピングモジュール504は、ヒアリングデバイス200のため、ヒアリングデバイス100の外部にあるデバイスまたはシステムと通信するための構成要素を含む。例として、これらの構成要素は、スマートフォンなどのパーソナルデバイスまたはデータサーバなどのクラウドベースシステムを含む。特徴マッピングモジュール504は、外部デバイスまたはシステムに特徴を伝達する。外部デバイスまたはシステムは、この特徴を用いて目標データを決定する。外部デバイスまたはシステムは、目標データを特徴マッピングモジュール504に伝達する。
いくつかの実施形態では、外部デバイスまたはシステムは、これらの特徴を用いてリスナーの環境において再生されている楽曲を識別し、識別された楽曲による目標データを決定する。いくつかの実施形態では、外部デバイスまたはシステムは、これらの特徴を用いて、リスナーの環境において再生されている音楽のジャンルを識別し、また、識別したジャンルによる目標データを決定する。いくつかの実施形態では、外部デバイスは、これらの特徴を用いて、背景雑音などのリスナーの環境における望ましくないサウンドの特性を決定し、決定した特性による目標データを決定する。
図6は、本発明の第1の実施形態による、図4に示された適応処理モジュール404のブロック図である。図6に示すように、適応プロセッサモジュール404は、ライン402上の入力信号X(ω)を受信し、これは、ヒアリングデバイスの外向きポート付きマイクロフォン、たとえば図1に示されたマイクロフォン102によって受信された信号のデジタル形式に対応する。入力信号X(ω)は、適応フィルタ602への入力として提供される。適応フィルタ602の伝達関数は、図6にH(ω)で示されている。この入力信号は、適応制御モジュール606および漏れモデル604への入力としてさらに提供される。漏れモデル604は、伝達関数L(ω)を少なくとも部分的に含む。漏れモデル604の出力L(ω)X(ω)は、ヒアリングデバイス(たとえば図1に示された個人用のヒアリングデバイス100)の閉塞を介してリスナーの外耳に漏れるリスナーの環境からのサウンドの推定値に対応する。当業者であれば、ωが周波数変数であること、および本明細書の信号およびシステムが周波数ドメインにおいて考慮されることを理解するであろう。たとえば、X(ω)は、入力信号の周波数ドメイン表現である。当業者であれば、たとえばプロセッサ306におけるデジタル信号処理は、周波数ドメイン処理の前に適切な順方向変換と周波数ドメイン処理後の適切な逆変換、たとえば順方向変換としてスライディングウィンドウ短時間フーリエ変換および逆変換として重畳加算法による逆短時間フーリエ変換を組み入れることによって周波数ドメインにて行うことができることを理解するであろう。
一部の例示的な実施形態では、この漏れは、適応制御モジュール606において考慮される。目標データT(ω)は、ライン410上で適応制御モジュール606に提供される。適応制御モジュール606は、ライン608上の制御データを適応フィルタ602に提供する。この適応フィルタ602は、たとえば、適応制御モジュール606への入力の1以上によって更新することができる。
いくつかの実施形態では、適応制御モジュール606は、リスナーによって受信されたサウンドが目標スペクトルバランスT(ω)を有するようにフィルタを決定するよう構成される。この数学的展開において、リスナーによって受信されたサウンドは、適応フィルタ602の出力と個人用のヒアリングデバイス100の閉塞を介したリスナーの外耳への外部サウンドの漏れとの和として表される。
これは次式で数学的に示される。
Figure 2022535299000002
ここでY(ω)はリスナーによって受信されるサウンドを示し、H(ω)X(ω)は適応フィルタの出力であり、L(ω)X(ω)は漏れの推定値である。
フィルタH(ω)は、出力スペクトラムY(ω)と目標T(ω)との間の差の尺度を最小化することによって決定される。いくつかの実施形態では、二乗誤差メトリックが差の尺度として用いられ、詳細には、
Figure 2022535299000003
である。式(1)を用いると、二乗誤差メトリックの最適フィルタH*(ω)は、次式のように決定される(なお、H*は、Hの上にハット記号(キャレット)が付されたものを表すものとする)。
Figure 2022535299000004
または、統計的尺度を用いると、
Figure 2022535299000005
である。式(3)および(4)におけるスペクトルおよび統計的尺度は、時間的に変化することができ、このため、最適フィルタも時間的に変化することができる。時間依存は、次式のように式(4)に含めることができる。
Figure 2022535299000006
当業者によって理解されるように、入力と目標との間の相関関係および入力の自動相関(周波数ωおよび時間tでの)にそれぞれ対応する、統計的尺度RXT(ω,t)およびRXX(ω,t)が適切な時間スケールを介して推定される。統計的尺度は、入力信号、目標、または両方の変化として経時的に変化できることは、当業者によってさらに理解されるであろう。いくつかの実施形態では、適応フィルタ602は、たとえば次式のように、前の処理時間t-1のフィルタ設定と時間tでの適応制御ブロック606によって提供される最適フィルタとの組み合わせにより処理時間tにて適応される。
Figure 2022535299000007
ここでαは、適切に選択された忘却因子である。
図7は、本発明の第2の実施形態による、図4に示された適応処理モジュール404のブロック図である。図7を参照すると、適応プロセッサモジュール404は、ライン402上で入力信号X(ω)を受信し、これは、ヒアリングデバイスの外向きポート付きマイクロフォン(図2に示された個人用のヒアリングデバイス200のマイクロフォン202など)によって受信された信号のデジタル形式に対応する。入力信号X(ω)は、適応フィルタ702への入力として提供される。適応フィルタ702の伝達関数は、H(ω)で示される。
信号Y(ω)は、ライン710上で適応制御モジュール706への入力として提供される。信号Y(ω)は、リスナーの外耳のサウンドをモニタリングする内部マイクロフォン(図2に示された個人用のヒアリングデバイス200の内向きポート付きのマイクロフォン208など)によって受信および変換された信号に対応する。目標データT(ω)は、ライン410上で適応制御モジュール706に提供される。適応制御モジュール706は、適応フィルタ702、たとえば適応制御モジュール706への入力の1以上に従って決定された更新されたフィルタにライン708上の制御データを提供する。
いくつかの実施形態では、適応制御モジュール706は、たとえば次式のように、二乗誤差メトリックによる最適フィルタを決定する。
Figure 2022535299000008
ここで統計的尺度RXZ(ω,t)は、入力X(ω)と、Y(ω)-H(ω)X(ω)としてコンピュータ計算される漏れ信号Z(ω)と、の間の相互相関に対応する。当業者であれば、時間依存が式(5)のように式(7)に組み入れられ、次式を得ることは理解されるであろう。
Figure 2022535299000009
図8は、本発明の実施形態の第1セットによる流れ図である。本方法は、外部マイクロフォンで音響信号を受信することで開始する(ボックス802)。たとえば、この外部マイクロフォンは、図1に示された個人用のヒアリングデバイス100における外部ポート付きのマイクロフォン102とすることができる。次に、音響信号が、外部マイクロフォンによって電気形式に変換され、次に、たとえばアナログ-デジタルコンバータ304によってデジタル形式に変換される(ボックス804)。アナログ-デジタルコンバータによって生成されたデジタル入力信号は、次に、プロセッサ、たとえばプロセッサ306によって受信される(ボックス806)。
デジタル入力信号の特徴は、たとえば特徴決定モジュール502において決定される(ボックス808)。特徴決定モジュール502は、プロセッサ306の構成要素である目標決定モジュール408の構成要素である。次に、目標データは、たとえば図5に示された特徴マッピングモジュール504において決定された信号特徴によって少なくとも部分的に決定される(ボックス810)。特徴マッピングモジュール504は、プロセッサ306の構成要素である目標決定モジュール408の構成要素である。
この処理は、図6に示された漏れモジュール604など、リスナーの外耳への外部音響信号の漏れの推定値を決定することに進む(ボックス812)。漏れモジュール604は、プロセッサ306の構成要素である適応処理モジュール404の構成要素である。ボックス806においてプロセッサによって受信されたデジタル入力信号、ボックス810で決定された目標データ、およびボックス814で決定された漏れ推定値は、適応制御モジュール606などの適応制御モジュールに提供される(ボックス814)。適応制御モジュール606は、プロセッサ306の構成要素である適応処理モジュール404の構成要素である。
処理は、適応フィルタを更新すること(ボックス816)に進む。いくつかの実施形態では、適応制御モジュール606は、たとえば式(5)に従って更新された適応フィルタをコンピュータ計算し、ライン608上で更新された適応フィルタを適応フィルタ602に提供する。次に、適応フィルタは、デジタル入力信号に適用され、デジタル出力信号を生成する(ボックス818)。たとえば、適応処理モジュール404で、適応フィルタ602がライン402上の入力信号に適用されて、ライン406上で出力信号を生成する。最終的に、デジタル出力信号は、アナログ形式に変換される(ボックス820)。たとえば、これは、デジタル-アナログコンバータ308によって行うことができる。アナログ信号は次に、たとえば個人用のヒアリングデバイス100の内向きポート付きのラウドスピーカ106によって音響形式に変換される。
図9は、本発明の実施形態の第2セットによる流れ図である。この処理は、外部マイクロフォン、たとえば図2に示すような個人用のヒアリングデバイス200の外向きポート付きのマイクロフォン202にて音響信号を受信すること(ボックス902)で開始する。次に、音響信号は、外部マイクロフォンによって電気形式に変換され、さらに、たとえばアナログ-デジタルコンバータ304によってデジタル形式に変換される(ボックス904)。アナログ-デジタルコンバータによって生成されたデジタル入力信号は次に、プロセッサ、たとえば図3に示されたプロセッサ306によって受信される(ボックス906)。
この処理は、たとえば図5に示された特徴決定モジュール502において、デジタル入力信号の特徴を決定すること(ボックス908)に進む。特徴決定モジュール502は、プロセッサ306の構成要素である目標決定モジュール408の構成要素である。目標データは、たとえば図5に示された特徴マッピングモジュール504において、決定された信号特徴によって少なくとも部分的に決定される(ボックス910)。特徴マッピングモジュール504は、プロセッサ306の構成要素である目標決定モジュール408の構成要素である。次に、音響信号は、内部マイクロフォン、たとえば個人用のヒアリングデバイス200の内向きポート付きのマイクロフォン208にて受信され、内部マイクロフォンによって電気形式に変換され、次にアナログ-デジタルコンバータによってデジタル形式に変換される(ボックス912)。この信号は、リスナーの外耳のサウンドをモニタする働きをするモニタリング信号と呼ぶことができる。
ボックス912で決定されたデジタルモニタリング信号およびボックス910で決定された目標データは、適応制御モジュール、たとえば図7に示された適応制御モジュール706に提供される(ボックス914)。適応制御モジュール706は、プロセッサ306の構成要素である適応処理モジュール404の構成要素である。目標データは次に、ライン410上で適応制御モジュール706に提供され、デジタルモニタリング信号は、ライン710上で適応制御モジュール706に提供される。次に適応フィルタが更新される(ボックス916)。いくつかの実施形態では、適応制御モジュール706は、たとえば式(8)に従って更新された適応フィルタをコンピュータ計算し、次にライン708上で更新された適応フィルタを適応フィルタ702に提供する。適応フィルタは次に、デジタル入力信号に適用され、デジタル出力信号を生成する(ボックス918)。たとえば、適応処理モジュール404において、適応フィルタ702がライン402上の入力信号に適用され、ライン406上で出力信号を生成する。最終的に、デジタル出力信号がアナログ形式に変換される(ボックス920)。たとえば、これは、デジタル-アナログコンバータ308によって実行することができる。アナログ信号は、次に、たとえば個人用のヒアリングデバイス200の内向きにポートされたラウドスピーカ206によって音響形式に変換される。
<代替の実施形態および例示的な動作環境>
本明細書に記載されるもの以外の多くの他の変形形態が、本明細書から明らかになるであろう。たとえば、実施形態によっては、本明細書に記載する方法およびアルゴリズムの何れかの特定の動作、事象、または機能を異なるシーケンスで実行することができ、追加、統合、または省略することができる(全ての記載された動作または事象が本方法およびアルゴリズムの実施に必要であるとは限らない)。さらにまた、特定の実施形態では、動作または事象は、連続的ではなく同時に、マルチスレッド処理、割り込み処理、またはマルチプロセッサまたはプロセッサコアなどを介して、または他の並列アーキテクチャで実行することができる。加えて、異なるタスクまたは処理は、互いに機能することができる異なるマシンおよびコンピュータシステムによって実行することができる。
本明細書に開示する実施形態に関連して説明した様々な例示的論理ブロック、モジュール、方法、およびアルゴリズムの処理および順序は、電子ハードウェア、コンピュータソフトウェア、またはこれら両方の組み合わせとして実装することができる。ハードウェアとソフトウェアとのこの互換性を明確に説明するために、様々な例示的コンポーネント、ブロック、モジュール、および処理の動作は、上記では一般的にこれらの機能性に関して説明されている。このような機能性がハードウェアとして実装されるかまたはソフトウェアとして実装されるかは、特定の用途、およびシステム全体に課された設計上の制約条件に依存する。説明した機能性は、特定の用途の各々に関して異なる方法で実施できるが、このような実施の決定が、本明細書の範囲からの逸脱を生じさせると解釈すべきでない。
本明細書に開示する実施形態に関して記載された様々な例証の論理ブロックおよびモジュールは、汎用プロセッサ、処理デバイス、1以上の処理デバイスを有するコンピュータデバイス、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)または他のプログラマブルロジックデバイス、ディスクリートゲートまたはトランジスタロジック、ディスクリートハードウェア構成要素、または本明細書に記載された機能を実行するよう設計されたこれらの何れかの組み合わせなどのマシンによって実装または実行することができる。汎用プロセッサおよび処理デバイスは、マイクロプロセッサとすることができるが、代替形態では、プロセッサは、コントローラ、マイクロコントローラ、または状態機械、同様の組み合わせまたは同様のものとすることができる。プロセッサはまた、DSPおよびマイクロプロセッサの組み合わせ、複数のマイクロプロセッサ、DSPコアと連動する1以上のマイクロプロセッサ、または他の何れかのこのような構成などのコンピュータデバイスの組み合わせとして実施することもできる。
本明細書に記載のシステムおよび方法の実施形態は、多くのタイプの汎用または専用コンピュータシステム環境または構成内で動作可能である。一般に、コンピュータ環境は、いくつかの例を挙げると、限定ではないが、1以上のマイクロプロセッサ、メインフレームコンピュータ、デジタル信号プロセッサ、携帯用コンピュータデバイス、パーソナルオーガナイザ、デバイスコントローラ、電気製品内部のコンピュータエンジン、携帯電話、デスクトップコンピュータ、モバイルコンピュータ、タブレットコンピュータ、スマートフォン、および組込型コンピュータを備えた電気製品に基づくコンピュータシステムを含む任意のタイプのコンピュータシステムを含むことができる。
このようなコンピュータデバイスは、通常、限定ではないが、パーソナルコンピュータ、サーバコンピュータ、ハンドヘルドコンピュータデバイス、ラップトップまたはモバイルコンピュータ、携帯電話およびPDAなどの通信デバイス、マルチプロセッサシステム、マイクロプロセッサベースのシステム、セットトップボックス、プログラム可能な家庭用電化製品、ネットワークPC、ミニコンピュータ、メインフレームコンピュータ、オーディオまたはビデオメディアプレーヤなどを含む、少なくとも何らかの最低限の計算能力を有するデバイスに見出すことができる。いくつかの実施形態において、コンピュータデバイスは、1以上のプロセッサを含むことになる。各プロセッサは、デジタル信号プロセッサ(DSP)、超長命令語(VLIW)、または他のマイクロコントローラなどの専用マイクロプロセッサとすることができ、或いは、マルチコアCPU内の専用グラフィックス処理ユニット(GPU)ベースのコアを含む、1以上の処理コアを有する従来型の中央処理ユニット(CPU)とすることができる。
本明細書で開示された実施形態に関連して記載された方法、処理、またはアルゴリズムの処理動作または動作は、ハードウェアで直接、プロセッサによって実行されるソフトウェアモジュールで、またはこれら2つの何れかの組み合わせで具現化することができる。ソフトウェアモジュールは、コンピュータデバイスによってアクセスすることができるコンピュータ可読媒体に包含することができる。コンピュータ可読媒体は、取り外し可能、取り外し不可、またはこれらの何らかの組み合わせである揮発性および不揮発性媒体の両方を含む。コンピュータ可読媒体は、コンピュータ可読またはコンピュータ実行可能命令、データ構造、プログラムモジュール、または他のデータなどの情報を格納するのに用いられる。限定ではなく例として、コンピュータ可読媒体は、コンピュータストレージ媒体および通信媒体を含むことができる。
コンピュータストレージ媒体は、限定ではないが、ブルーレイディスク(BD)、デジタル多機能ディスク(DVD)、コンパクトディスク(CD)、フロッピーディスク、テープドライブ、ハードドライブ、光学ドライブ、固体状態メモリデバイス、RAMメモリ、ROMメモリ、EPROMメモリ、EEPROMメモリ、フラッシュメモリまたは他のメモリ技術、磁気カセット、磁気テープ、磁気ディスクストレージ、または他の磁気ストレージデバイス、または所望の情報を格納するのに用いることができ且つ1以上のコンピュータデバイスによってアクセス可能な他の何れかのデバイスなどのコンピュータまたは機械可読媒体またはストレージデバイスを含む。
ソフトウェアモジュールは、RAMメモリ、フラッシュメモリ、ROMメモリ、EPROMメモリ、EEPROMメモリ、レジスタ、ハードディスク、取り外し可能ディスク、CD-ROM、または当該技術で公知の非一時的コンピュータ可読ストレージ媒体、メディア、または物理的コンピュータストレージの他の何れかの形態に存在することができる。例示的なストレージ媒体は、プロセッサがストレージ媒体から情報を読み取り、ストレージ媒体に情報を書き込むことができるようにプロセッサに結合することができる。代替では、ストレージ媒体をプロセッサに一体化することができる。プロセッサおよびストレージ媒体は特定用途向け集積回路(ASIC)に存在することができる。ASICは、ユーザ端末に存在することができる。代替として、プロセッサおよびストレージ媒体は、ユーザ端末の個別構成要素として存在することができる。
本明細書で使用される「非一時的」という語句は、「永続的または長寿命」を意味する。「非一時的コンピュータ可読媒体」という語句は、任意のおよび全てのコンピュータ可読媒体を含み、唯一の実施例外は、一時的な伝播信号である。この語句は、限定ではなく例として、レジスタメモリ、プロセッサキャッシュ、およびランダムアクセスメモリ(RAM)などの非一時的コンピュータ可読媒体を含む。
「オーディオ信号」という語句は、物理的なサウンドを表す信号である。
また、コンピュータ可読命令またはコンピュータ実行可能命令、データ構造、プログラムモジュールなどのような情報の保持は、1以上の変調データ信号、電磁波(搬送波など)、または他の伝送機構若しくは通信プロトコルを符号化するための様々な通信媒体を使用して実現することもでき、何らかの有線または無線情報配信機構を含む。一般に、これらの通信媒体は、情報または命令を信号内に符号化するような方法で設定または変更される信号特性のうちの1以上を有する信号を参照する。たとえば、通信媒体は、1以上の変調データ信号を搬送する有線ネットワークまたは直接有線接続などの有線媒体と、音響、無線周波数(RF)、赤外線、レーザなどの無線媒体と、1以上の変調データ信号または電磁波を送信、受信、または送受信するための他の無線媒体とを含む。上記の何れかの組み合わせは、同様に、通信媒体の範囲内に含まれるはずである。
さらに、本明細書に記載のシステムおよび方法の様々な実施形態の一部または全部を具現化するソフトウェア、プログラム、コンピュータプログラム製品のうちの1つまたは何れかの組み合わせ、或いはこれの一部分は、コンピュータ実行可能命令または他のデータ構造の形式で、コンピュータ可読媒体またはマシン可読媒体またはストレージデバイスおよび通信媒体の任意の所望の組み合わせに格納、受信、送信、またはこれらから読み出すことができる。
本明細書に記載のシステムおよび方法の実施形態は、コンピュータデバイスによって実行されるプログラムモジュールなどのコンピュータ実行可能命令という一般的状況でさらに説明することができる。一般に、プログラムモジュールは、特定のタスクを実行するかまたは特定の抽象データタイプを実装する、ルーチン、プログラム、オブジェクト、コンポーネント、データ構造などを含む。また、本明細書に記載の実施形態は、1以上のリモート処理デバイスによって、または1以上のデバイスからなるクラウド内でタスクが実行される分散コンピュータ環境で実施することもでき、これらのデバイスは、1以上の通信ネットワークを介してリンクされている。分散コンピュータ環境では、プログラムモジュールは、メディアストレージデバイスを含む、ローカルおよびリモート両方のコンピュータストレージ媒体内に配置することができる。さらに、上述した命令は、プロセッサを含むことがあるかまたはプロセッサを含まないこともあるハードウェア論理回路として部分的にまたは全体的に実装することができる。
本明細書で使用する条件語、とりわけ、「できる(can)」、「してよい(might)」、「できる(may)」、「たとえば(e.g.)」、および同様のものは、別途明確に言及されていない限り、または使用される文脈でそれ以外に理解されない限り、一般に、特定の実施形態が、特定の特徴、要素、および/または状態を含むが、他の実施形態は、これらを含まないことを伝えることを意図している。従って、このような条件語は、一般に、特徴、要素、および/または状態が、1以上の実施形態にとって必ず必要であることを示唆するものでなく、作成者の入力または指示があってもなくても、これらの特徴、要素、および/または状態が含まれるかまたは何れかの特定の実施形態で実行されるか否かを決定するためのロジックを、1以上の実施形態が必ず含むことを示唆するものでもない。「備える(comprising)」、「含む(including)」、「有する(having)」という用語、および同様のものは、同義であり、包含的にオープンエンド方式で使用され、追加の要素、特徴、動作、操作、およびその他を除外するものではない。また、「または」という用語は、包括的な意味で(排他的意味ではなく)使用され、従って、たとえば、要素のリストを結び付けるのに使用される際に、「または」という用語は、リスト内の要素のうちの1つ、いくつか、または全てを意味する。
上記の詳細な説明は、様々な実施形態に適用される新規性のある特徴を示し、説明し、指摘しているが、本開示の趣旨から逸脱することなく、様々な省略、置換、および変更が、例証されたデバイスまたはアルゴリズムの形態および詳細において実施できることが理解されるであろう。認識されるように、一部の特徴は、他の特徴から切り離して使用または実施することができるので、本明細書で説明する本発明の特定の実施形態は、本明細書に示された特徴および利点の全てを提供するとは限らない形態の範囲内で具現化することができる。

Claims (14)

  1. 入力オーディオ信号を処理する方法であって、
    前記入力オーディオ信号にアクティブイコライゼーションを適用して、イコライズされたオーディオ信号を取得することと、
    前記イコライズされたオーディオ信号を目標イコライゼーションに調整して、出力オーディオ信号を取得することと、
    リスナーに対する再生のために前記出力オーディオ信号をレンダリングすることと、
    を含む、方法。
  2. アーティストの録音の知識に基づいて、前記目標イコライゼーションを決定することをさらに含む、
    請求項1に記載の方法。
  3. 機械学習技術を用いて、前記アーティストの録音を含むデータベースを分析することをさらに含む、
    請求項2に記載の方法。
  4. アクティブフィルタを用いて前記イコライズされたオーディオ信号を前記目標イコライゼーションに調整することをさらに含む、
    請求項1に記載の方法。
  5. 入力オーディオ信号を処理する方法であって、
    前記入力オーディオ信号のオーディオ特性をアクティブにモニタすることと、
    目標性能基準を含む目標データを提供することと、
    前記入力オーディオ信号のオーディオ特性を前記目標性能基準に適応させて、前記入力オーディオ信号の適応されたオーディオ特性を取得することと、
    前記適応されたオーディオ特性を出力信号においてレンダリングすることと、
    を含む、方法。
  6. 個人用のヒアリングデバイスで前記オーディオ信号において適応されたオーディオ特性をレンダリングすることをさらに含む、
    請求項5に記載の方法。
  7. 前記目標データは、リスナーのオーディオグラムまたは測定された聴力損失曲線を含む、
    請求項5に記載の方法。
  8. 前記入力オーディオ信号のオーディオ特性を適応させることは、前記リスナーのオーディオグラムまたは測定された聴力損失曲線を補償することをさらに含む、
    請求項7に記載の方法。
  9. 前記入力オーディオ信号のオーディオ特性を適応させることは、ダイアログ周波数帯域を強調して前記適応されたオーディオ特性を取得することをさらに含む、
    請求項5に記載の方法。
  10. 前記オーディオ信号のオーディオ特性を適応させることは、前記目標性能基準に基づいて適応フィルタを更新することをさらに含む、
    請求項5に記載の方法。
  11. 前記入力オーディオ信号に存在する楽曲を識別して、識別した楽曲を取得することと、
    前記識別した楽曲に基づいて前記目標データを決定することと、
    をさらに含む、請求項5に記載の方法。
  12. 前記入力オーディオ信号に存在する楽曲のジャンルを識別して、識別したジャンルを取得することと、
    前記識別したジャンルに基づいて、前記目標データを決定することと、
    をさらに含む、請求項5に記載の方法。
  13. 前記入力オーディオ信号における望ましくないサウンドのオーディオ特性を識別することと、
    前記望ましくないサウンドのオーディオ特性に基づいて、前記目標データを決定することと、
    をさらに含む、請求項5に記載の方法。
  14. 入力オーディオ信号を処理するヒアラブルデバイスであって、
    プロセッサと、
    命令を格納するメモリと、
    を備え、
    前記命令は、前記プロセッサによって実行された時に、
    前記入力オーディオ信号のオーディオ特性をアクティブにモニタし、
    目標性能基準を含む目標データを提供し、
    前記入力オーディオ信号のオーディオ特性を前記目標性能基準に適応させて、前記入力オーディオ信号の適応されたオーディオ特性を取得し、
    前記適応されたオーディオ特性を出力信号においてレンダリングする、
    ように前記ヒアラブルデバイスを構成する、
    ヒアラブルデバイス。
JP2021572667A 2019-06-07 2020-06-07 個人用のヒアリングデバイスにおける適応サウンドイコライゼーションのためのシステムおよび方法 Pending JP2022535299A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201962858469P 2019-06-07 2019-06-07
US62/858,469 2019-06-07
PCT/US2020/036519 WO2020247892A1 (en) 2019-06-07 2020-06-07 System and method for adaptive sound equalization in personal hearing devices

Publications (1)

Publication Number Publication Date
JP2022535299A true JP2022535299A (ja) 2022-08-05

Family

ID=71944199

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021572667A Pending JP2022535299A (ja) 2019-06-07 2020-06-07 個人用のヒアリングデバイスにおける適応サウンドイコライゼーションのためのシステムおよび方法

Country Status (6)

Country Link
US (1) US20220166396A1 (ja)
EP (1) EP3981167A1 (ja)
JP (1) JP2022535299A (ja)
KR (1) KR20220018540A (ja)
CN (1) CN114128307A (ja)
WO (1) WO2020247892A1 (ja)

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050058313A1 (en) * 2003-09-11 2005-03-17 Victorian Thomas A. External ear canal voice detection
US7450730B2 (en) * 2004-12-23 2008-11-11 Phonak Ag Personal monitoring system for a user and method for monitoring a user
WO2009152442A1 (en) * 2008-06-14 2009-12-17 Michael Petroff Hearing aid with anti-occlusion effect techniques and ultra-low frequency response
US20100041330A1 (en) * 2008-08-13 2010-02-18 Sony Ericsson Mobile Communications Ab Synchronized playing of songs by a plurality of wireless mobile terminals
US8447042B2 (en) * 2010-02-16 2013-05-21 Nicholas Hall Gurin System and method for audiometric assessment and user-specific audio enhancement
DE102011087569A1 (de) * 2011-12-01 2013-06-06 Siemens Medical Instruments Pte. Ltd. Verfahren zum Anpassen einer Hörvorrichtung durch eine formale Sprache
US20140064513A1 (en) * 2012-09-06 2014-03-06 MUSIC Group IP Ltd. System and method for remotely controlling audio equipment
US9344815B2 (en) * 2013-02-11 2016-05-17 Symphonic Audio Technologies Corp. Method for augmenting hearing
CN104079247B (zh) * 2013-03-26 2018-02-09 杜比实验室特许公司 均衡器控制器和控制方法以及音频再现设备
US8767996B1 (en) * 2014-01-06 2014-07-01 Alpine Electronics of Silicon Valley, Inc. Methods and devices for reproducing audio signals with a haptic apparatus on acoustic headphones
EP3111670B1 (en) * 2014-02-27 2023-11-22 Sonarworks SIA Method of and apparatus for determining an equalization filter
WO2016079513A1 (en) * 2014-11-18 2016-05-26 Limitear Ltd Portable programmable device, system, method and computer program product
US9508335B2 (en) * 2014-12-05 2016-11-29 Stages Pcs, Llc Active noise control and customized audio system
EP3373602A1 (en) * 2017-03-09 2018-09-12 Oticon A/s A method of localizing a sound source, a hearing device, and a hearing system
US10838686B2 (en) * 2017-07-13 2020-11-17 Josh Kovacevic Artificial intelligence to enhance a listening experience
CN110663173B (zh) * 2017-10-04 2023-09-19 谷歌有限责任公司 基于房间特性自动均衡音频输出的方法和***
US10817252B2 (en) * 2018-03-10 2020-10-27 Staton Techiya, Llc Earphone software and hardware

Also Published As

Publication number Publication date
CN114128307A (zh) 2022-03-01
WO2020247892A1 (en) 2020-12-10
EP3981167A1 (en) 2022-04-13
KR20220018540A (ko) 2022-02-15
US20220166396A1 (en) 2022-05-26

Similar Documents

Publication Publication Date Title
US10333483B2 (en) Loudness-based audio-signal compensation
JP6374529B2 (ja) ヘッドセットと音源との間のオーディオの協調的処理
JP6325686B2 (ja) ヘッドセットと音源との間のオーディオの協調的処理
US9557960B2 (en) Active acoustic filter with automatic selection of filter parameters based on ambient sound
US9344828B2 (en) System and method for digital signal processing
AU2017206654A1 (en) Headphones with combined ear-cup and ear-bud
JP5572391B2 (ja) 音声データを処理する装置及び方法
JP2013537321A (ja) 知覚スペクトルアンバランス改善のための音声信号動的補正
JPH11504478A (ja) ステレオ増強システム
GB2546563A (en) Dynamic frequency-dependent sidetone generation
WO2021184501A1 (zh) 音频输出设备及其漏音消除方法
US20160295325A1 (en) Method and device
TW202038859A (zh) 補償聽力測試之方法、裝置及系統
US20220166396A1 (en) System and method for adaptive sound equalization in personal hearing devices
JP6954905B2 (ja) オーディオ信号を出力するためのシステム及びそれぞれの方法と設定装置
JP6699280B2 (ja) 音響再生装置
JP2020537470A (ja) オーディオ信号の個人適用のためのパラメータを設定するための方法
US11950089B2 (en) Perceptual bass extension with loudness management and artificial intelligence (AI)
CN115361614A (zh) 一种基于耳机的声音补偿方法及设备
JP2015173343A (ja) オーディオ信号処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230508

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240701