JP6663490B2 - スピーカシステム、音声信号レンダリング装置およびプログラム - Google Patents
スピーカシステム、音声信号レンダリング装置およびプログラム Download PDFInfo
- Publication number
- JP6663490B2 JP6663490B2 JP2018520966A JP2018520966A JP6663490B2 JP 6663490 B2 JP6663490 B2 JP 6663490B2 JP 2018520966 A JP2018520966 A JP 2018520966A JP 2018520966 A JP2018520966 A JP 2018520966A JP 6663490 B2 JP6663490 B2 JP 6663490B2
- Authority
- JP
- Japan
- Prior art keywords
- audio signal
- unit
- speaker
- rendering
- rendering process
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000009877 rendering Methods 0.000 title claims description 194
- 230000005236 sound signal Effects 0.000 title claims description 133
- 238000000034 method Methods 0.000 claims description 146
- 230000008569 process Effects 0.000 claims description 118
- 230000004807 localization Effects 0.000 claims description 86
- 238000012545 processing Methods 0.000 claims description 28
- 230000002708 enhancing effect Effects 0.000 claims description 19
- 238000001514 detection method Methods 0.000 claims description 7
- 238000004091 panning Methods 0.000 claims description 6
- 238000004458 analytical method Methods 0.000 description 33
- 238000010586 diagram Methods 0.000 description 25
- 239000013598 vector Substances 0.000 description 18
- 238000009792 diffusion process Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 12
- 230000000694 effects Effects 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 230000000295 complement effect Effects 0.000 description 5
- 238000012937 correction Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/302—Electronic adaptation of stereophonic sound system to listener position or orientation
- H04S7/303—Tracking of listener position or orientation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/20—Arrangements for obtaining desired frequency or directional characteristics
- H04R1/32—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
- H04R1/40—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
- H04R1/403—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers loud-speakers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
- H04R3/12—Circuits for transducers, loudspeakers or microphones for distributing signals to two or more loudspeakers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R5/00—Stereophonic arrangements
- H04R5/02—Spatial or constructional arrangements of loudspeakers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R5/00—Stereophonic arrangements
- H04R5/04—Circuit arrangements, e.g. for selective connection of amplifier inputs/outputs to loudspeakers, for loudspeaker detection, or for adaptation of settings to personal preferences or hearing impairments
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S3/00—Systems employing more than two channels, e.g. quadraphonic
- H04S3/008—Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/302—Electronic adaptation of stereophonic sound system to listener position or orientation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/01—Multi-channel, i.e. more than two input channels, sound reproduction with two speakers wherein the multi-channel information is substantially preserved
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Otolaryngology (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Stereophonic System (AREA)
- Circuit For Audible Band Transducer (AREA)
Description
図1は、本発明の第1の実施形態に係るスピーカシステム1の概略構成を示すブロック図である。第1の実施形態に係るスピーカシステム1は、再生するコンテンツの特徴量を解析し、同時にスピーカシステムの配置位置を加味することで、これらに基づいた好適な音声レンダリングを行い再生するシステムである。図1に示すように、コンテンツ解析部101aは、DVDやBDなどのディスクメディア、HDD(Hard Disc Drive)等に記録されている映像コンテンツ乃至音声コンテンツに含まれる音声信号やこれに付随するメタデータを解析する。記憶部101bは、コンテンツ解析部101aで得られた解析結果や後述するスピーカ位置情報取得部102から取得された情報、コンテンツ解析等に必要な各種パラメータを記憶する。スピーカ位置情報取得部102は、現在のスピーカ配置位置を取得する。
コンテンツ解析部101aは、再生するコンテンツに含まれる音声トラックとこれに付随する任意のメタデータを解析し、その情報を音声信号レンダリング部103に送る。本実施形態では、コンテンツ解析部101aが受け取る再生コンテンツは1つ以上の音声トラックを含むコンテンツであるものとする。また、この音声トラックは、大きく2種類に分類し、ステレオ(2ch)や5.1chなどに採用されている「チャネルベース」の音声トラックか、個々の発音オブジェクト単位を1トラックとし、このトラックの任意の時刻における位置的・音量的変化を記述した付随情報を付与した「オブジェクトベース」の音声トラックのいずれかであるものとする。
記憶部101bは、コンテンツ解析部101aで用いられる種々のデータを記録するための二次記憶装置によって構成される。記憶部101bは、例えば、磁気ディスク、光ディスク、フラッシュメモリなどによって構成され、より具体的な例としては、HDD、SSD(Solid State Drive)、SDメモリーカード、BD、DVDなどが挙げられる。コンテンツ解析部101aは、必要に応じて記憶部101bからデータを読み出す。また、解析結果を含む各種パラメータデータを、記憶部101bに記録することもできる。
スピーカ位置情報取得部102は、後述する音声出力部105(スピーカ)各々の配置位置を取得する。スピーカ位置は、例えば、図7Aに示すように、予めモデル化された視聴部屋情報7を、タブレット端末等を通じて提示し、図7Bに示すように、ユーザ位置701、スピーカ位置702、703、704、705、706を入力させるものとし、ユーザ位置を中心とした図2Aに示す座標系の位置情報として取得する。
音声出力部105は、音声信号レンダリング部103で処理された音声信号を出力する。図11A〜Eでは、それぞれにおいて、紙面に対して上側がスピーカエンクロージャ(筐体)の斜視図を表し、スピーカユニットを二重丸で表している。また、図11A〜Eの紙面に対して下側がスピーカユニットの位置関係を概念として示す平面図であり、スピーカユニットの配置を示している。図11A〜Eに示すように、音声出力部105は、少なくとも2つ以上のスピーカユニット1201を備え、そのうち1つ以上のスピーカユニットが他のスピーカユニットと異なる方向を向くように配されている。例えば図11Aに示すように、底面が台形形状の四角柱型のスピーカエンクロージャ(筐体)の3面にスピーカユニットを配するようにしても良いし、図11Bに示すように、六角柱形状や図11Cに示すように、三角柱形状のスピーカエンクロージャに各々ユニットを6個、3個配するようにしても良い。また、図11Dに示すように、上方向に向けたスピーカユニット1202(二重丸で表示)を配しても良いし、図11Eに示すように、スピーカユニット1203と1204とが同一方向を向き、1205がこれらとは異なる方向を向くように配しても良い。
音声信号レンダリング部103は、コンテンツ解析部101aで得られたトラック情報401と、スピーカ位置情報取得部102で得られた音声出力部105の位置情報に基づき、各音声出力部105から出力される音声信号を構築する。
r1 = sin(θ2) / sin(θ1+θ2)
r2 = cos(θ2) - sin(θ2) / tan(θ1+θ2)
で表すことができる。
但し、θ1はベクトル1104と1105の成す角、θ2はベクトル1106と1105の成す角である。
第1の実施形態では、コンテンツ解析部101aが受け取る音声コンテンツに、チャネルベース、オブジェクトベース両方のトラックが存在するものとして、また、チャネルベースのトラックには音像の定位感を強調すべき音声信号が含まれていないものとして、説明を行ったが、音声コンテンツにチャネルベースのトラックのみが含まれている場合やチャネルベースのトラックに音像の定位感を強調すべき音声信号が含まれている場合の、コンテンツ解析部101aの動作について、第2の実施形態として記述する。なお、第1の実施形態と本実施形態の違いは、コンテンツ解析部101aの挙動のみであり、他の処理部の説明については省略する。
第1の実施形態では、音声出力部105の正面方向は予め決められており、また同出力部の設置時にこの正面方向をユーザ側に向けることとしていたが、図15のスピーカシステム16のように、音声出力部1602が、自身の向き情報を音声信号レンダリング部1601に通知し、ユーザ位置に対して音声信号レンダリング部1601がこれに基づく音声レンダリングを行うようにしても良い。すなわち、図15に示すように、本発明の第3の実施形態にかかるスピーカシステム16では、コンテンツ解析部101aが、DVDやBDなどのディスクメディア、HDD(Hard Disc Drive)等に記録されている映像コンテンツ乃至音声コンテンツに含まれる音声信号やこれに付随するメタデータを解析する。記憶部101bは、コンテンツ解析部101aで得られた解析結果やスピーカ位置情報取得部102から取得された情報、コンテンツ解析等に必要な各種パラメータを記憶する。スピーカ位置情報取得部102は、現在のスピーカ配置位置を取得する。
スピーカシステム1、14〜17の制御ブロック(特にスピーカ位置情報取得部102、コンテンツ解析部101a、音声信号レンダリング部103)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。
後者の場合、スピーカシステム1、14〜17は、各機能を実現するソフトウェアであるプログラムの命令を実行するコンピュータを備えている。このコンピュータは、例えば1つ以上のプロセッサを備えていると共に、上記プログラムを記憶したコンピュータ読み取り可能な記録媒体を備えている。そして、上記コンピュータにおいて、上記プロセッサが上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記プロセッサとしては、例えばCPU(Central Processing Unit)を用いることができる。上記記録媒体としては、「一時的でない有形の媒体」、例えば、ROM(Read Only Memory)等の他、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムを展開するRAM(Random Access Memory)などをさらに備えていてもよい。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
本出願は、2016年5月31日に出願された日本国特許出願:特願2016-109490に対して優先権の利益を主張するものであり、それを参照することにより、その内容の全てが本書に含まれる。
7 視聴部屋情報
101a コンテンツ解析部
101b 記憶部
102 スピーカ位置情報取得部
103 音声信号レンダリング部
105 音声出力部
201 センターチャネル
202 フロントライトチャネル
203 フロントレフトチャネル
204 サラウンドライトチャネル
205 サラウンドレフトチャネル
301、302、305 スピーカ位置
303、306 音像位置
401 トラック情報
601、602 スピーカの位置
603 音像定位位置
701 ユーザの位置
702、703、704、705、706 スピーカ位置
1001、1002 スピーカの位置
1003 トラックにおける発音オブジェクトの位置
1004、1006 スピーカの位置
1005 トラックにおける発音オブジェクトの位置
1101、1102 スピーカの配置位置
1103 発音オブジェクトの再現位置
1104、1105、1106 ベクトル
1107 視聴者
1201、1202、1203、1204、1205、1301、1302 スピーカユニット
1303、1304 音声出力部
1401 スピーカ位置情報取得部
1601 音声信号レンダリング部
1602 音声出力部
1603 方向検知部
1701 スピーカユニット
Claims (14)
- 少なくとも一つの音声出力部であって、各々が複数のスピーカユニットを有し、前記音声出力部において、少なくとも一つのスピーカユニットがその他のスピーカユニットとは異なる向きに配置されている音声出力部と、
入力された音声信号に基づいて、各スピーカユニットから出力される音声信号を生成するレンダリング処理を実行する音声信号レンダリング部と、
を備え、
前記音声信号レンダリング部は、入力された音声信号に含まれる第1の音声信号に対して、第1のレンダリング処理を実行し、入力された音声信号に含まれる第2の音声信号に対して、第2のレンダリング処理を実行し、
第1のレンダリング処理は、第2のレンダリング処理よりも定位感を強調するレンダリング処理であり、
前記音声信号レンダリング部は、第1のレンダリング処理を行う場合、第1の音声信号における発音オブジェクトの位置と、当該発音オブジェクトを挟む直近の2つの前記音声出力部のユーザ位置に対する成す角とに基づいて、各スピーカユニットを切り替えて音声信号を出力することを特徴とするスピーカシステム。 - 各音声出力部が有する複数のスピーカユニットには、音像定位感を強調する目的を有するスピーカユニットと、音像定位感を強調する目的を有しないスピーカユニットとが含まれることを特徴とする請求項1に記載のスピーカシステム。
- 前記音像定位感を強調する目的を有するスピーカユニットは、ユーザ側を向いたスピーカユニットであり、前記音像定位感を強調する目的を有しないスピーカユニットは、ユーザ側を向いていないスピーカユニットであることを特徴とする請求項2に記載のスピーカシステム。
- 少なくとも一つの音声出力部であって、各々が複数のスピーカユニットを有し、前記音声出力部において、少なくとも一つのスピーカユニットがその他のスピーカユニットとは異なる向きに配置されている音声出力部と、
入力された音声信号に基づいて、各スピーカユニットから出力される音声信号を生成するレンダリング処理を実行する音声信号レンダリング部と、
各スピーカユニットの位置情報を取得するスピーカ位置情報取得部と、
を備え、
各音声出力部が有する複数のスピーカユニットには、音像定位感を強調する目的を有するスピーカユニットと、音像定位感を強調する目的を有しないスピーカユニットとが含まれ、
前記音声信号レンダリング部は、入力された音声信号に含まれる第1の音声信号に対して、第1のレンダリング処理を実行し、入力された音声信号に含まれる第2の音声信号に対して、第2のレンダリング処理を実行し、
第1のレンダリング処理は、第2のレンダリング処理よりも定位感を強調するレンダリング処理であり、
前記第1のレンダリング処理は、前記複数のスピーカユニットのうちユーザ側を向いたスピーカユニットを使用し、
前記音声信号レンダリング部は、第1のレンダリング処理を行う場合、前記各スピーカユニットの位置情報と、第1の音声信号における発音オブジェクトの位置とに基づいて、前記音像定位感を強調する目的を有するスピーカユニットから音声信号を出力する音像定位強調レンダリング処理と、前記音像定位感を強調する目的を有しないスピーカユニットから音声信号を出力する音像定位補完レンダリング処理と、を切り替えて実行することを特徴とするスピーカシステム。 - 前記音声信号レンダリング部は、第1のレンダリング処理を行う場合、音圧パンニングを実行することを特徴とする請求項4に記載のスピーカシステム。
- 前記音声信号レンダリング部は、第2のレンダリング処理を行う場合、前記音像定位感を強調する目的を有しないスピーカユニットから音声信号を出力することを特徴とする請求項2〜5の何れか一項に記載のスピーカシステム。
- 前記音声信号レンダリング部は、第2のレンダリング処理を行う場合、前記音像定位感を強調する目的を有しないスピーカユニットから同じ音声信号を出力することを特徴とする請求項6に記載のスピーカシステム。
- 各音声出力部は、当該音声出力部が有する各スピーカユニットの向きを検出する方向検知部を更に備え、
前記音声信号レンダリング部は、前記方向検知部が検出した各スピーカユニットの向きに基づいて、第1のレンダリング処理および第2のレンダリング処理において使用するスピーカユニットを選択することを特徴とする請求項1〜7の何れか一項に記載のスピーカシステム。 - 前記音声信号レンダリング部は、入力された音声信号に含まれるオブジェクトベースの音声信号を第1の音声信号とし、入力された音声信号に含まれるチャネルベースの音声信号を第2の音声信号とすることを特徴とする請求項1〜8の何れか一項に記載のスピーカシステム。
- 前記音声信号レンダリング部は、隣り合うチャネルの相関に基づいて、入力された音声信号から、第1の音声信号および第2の音声信号を識別することを特徴とする請求項1〜8の何れか一項に記載のスピーカシステム。
- 前記音声信号レンダリング部は、ユーザからの入力操作に基づいて、レンダリング処理を選択することを特徴とする請求項1〜8の何れか一項に記載のスピーカシステム。
- 前記第1のレンダリング処理は、前記複数のスピーカユニットのうちユーザ側を向いたスピーカユニットを使用することを特徴とする請求項1〜11の何れか一項に記載のスピーカシステム。
- 入力された音声信号に基づいて、少なくとも一つの音声出力部であって、各々が複数のスピーカユニットを有し、各音声出力部において、少なくとも一つのスピーカユニットがその他のスピーカユニットとは異なる向きに配置されている音声出力部のスピーカユニットから出力される音声信号を生成するレンダリング処理を実行する音声信号レンダリング部を備え、
前記音声信号レンダリング部は、入力された音声信号に含まれる第1の音声信号に対して、第1のレンダリング処理を実行し、入力された音声信号に含まれる第2の音声信号に対して、第2のレンダリング処理を実行し、
第1のレンダリング処理は、第2のレンダリング処理よりも定位感を強調するレンダリング処理であり、
前記音声信号レンダリング部は、第1のレンダリング処理を行う場合、第1の音声信号における発音オブジェクトの位置と、当該発音オブジェクトを挟む直近の2つの前記音声出力部のユーザ位置に対する成す角とに基づいて、各スピーカユニットを切り替えて音声信号を出力することを特徴とする音声信号レンダリング装置。 - 請求項13に記載の音声信号レンダリング装置としてコンピュータを機能させるための音声信号レンダリングプログラムであって、上記音声信号レンダリング部としてコンピュータを機能させるための音声信号レンダリングプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016109490 | 2016-05-31 | ||
JP2016109490 | 2016-05-31 | ||
PCT/JP2017/020310 WO2017209196A1 (ja) | 2016-05-31 | 2017-05-31 | スピーカシステム、音声信号レンダリング装置およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2017209196A1 JPWO2017209196A1 (ja) | 2019-04-18 |
JP6663490B2 true JP6663490B2 (ja) | 2020-03-11 |
Family
ID=60477562
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018520966A Expired - Fee Related JP6663490B2 (ja) | 2016-05-31 | 2017-05-31 | スピーカシステム、音声信号レンダリング装置およびプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US10869151B2 (ja) |
JP (1) | JP6663490B2 (ja) |
WO (1) | WO2017209196A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022045553A (ja) * | 2020-09-09 | 2022-03-22 | ヤマハ株式会社 | 音信号処理方法および音信号処理装置 |
US20230388735A1 (en) * | 2020-11-06 | 2023-11-30 | Sony Interactive Entertainment Inc. | Information processing apparatus, information processing apparatus control method, and program |
US11488621B1 (en) * | 2021-04-23 | 2022-11-01 | Tencent America LLC | Estimation through multiple measurements |
US11681491B1 (en) * | 2022-05-04 | 2023-06-20 | Audio Advice, Inc. | Systems and methods for designing a theater room |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4581831B2 (ja) | 2005-05-16 | 2010-11-17 | ソニー株式会社 | 音響装置、音響調整方法および音響調整プログラム |
NZ587483A (en) * | 2010-08-20 | 2012-12-21 | Ind Res Ltd | Holophonic speaker system with filters that are pre-configured based on acoustic transfer functions |
JP5696416B2 (ja) * | 2010-09-28 | 2015-04-08 | ヤマハ株式会社 | サウンドマスキングシステム及びマスカ音出力装置 |
JP5640911B2 (ja) * | 2011-06-30 | 2014-12-17 | ヤマハ株式会社 | スピーカアレイ装置 |
JP2013055439A (ja) | 2011-09-02 | 2013-03-21 | Sharp Corp | 音声信号変換装置、方法、プログラム、及び記録媒体 |
JP6078556B2 (ja) * | 2012-01-23 | 2017-02-08 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | オーディオ・レンダリング・システムおよびそのための方法 |
US20140056430A1 (en) * | 2012-08-21 | 2014-02-27 | Electronics And Telecommunications Research Institute | System and method for reproducing wave field using sound bar |
KR20140046980A (ko) * | 2012-10-11 | 2014-04-21 | 한국전자통신연구원 | 오디오 데이터 생성 장치 및 방법, 오디오 데이터 재생 장치 및 방법 |
JP6515087B2 (ja) | 2013-05-16 | 2019-05-15 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | オーディオ処理装置及び方法 |
JP6355049B2 (ja) * | 2013-11-27 | 2018-07-11 | パナソニックIpマネジメント株式会社 | 音響信号処理方法、及び音響信号処理装置 |
EP3128762A1 (en) * | 2015-08-03 | 2017-02-08 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Soundbar |
US10425723B2 (en) * | 2015-08-14 | 2019-09-24 | Dolby Laboratories Licensing Corporation | Upward firing loudspeaker having asymmetric dispersion for reflected sound rendering |
JP6905824B2 (ja) * | 2016-01-04 | 2021-07-21 | ハーマン ベッカー オートモーティブ システムズ ゲーエムベーハー | 非常に多数のリスナのための音響再生 |
-
2017
- 2017-05-31 JP JP2018520966A patent/JP6663490B2/ja not_active Expired - Fee Related
- 2017-05-31 US US16/306,505 patent/US10869151B2/en active Active
- 2017-05-31 WO PCT/JP2017/020310 patent/WO2017209196A1/ja active Application Filing
Also Published As
Publication number | Publication date |
---|---|
US10869151B2 (en) | 2020-12-15 |
JPWO2017209196A1 (ja) | 2019-04-18 |
WO2017209196A1 (ja) | 2017-12-07 |
US20190335286A1 (en) | 2019-10-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102182526B1 (ko) | 빔형성 라우드스피커 어레이를 위한 공간적 오디오 렌더링 | |
KR102327504B1 (ko) | 공간적으로 분산된 또는 큰 오디오 오브젝트들의 프로세싱 | |
JP6515087B2 (ja) | オーディオ処理装置及び方法 | |
CN106961645B (zh) | 音频再生装置以及方法 | |
JP6663490B2 (ja) | スピーカシステム、音声信号レンダリング装置およびプログラム | |
US20170289724A1 (en) | Rendering audio objects in a reproduction environment that includes surround and/or height speakers | |
US20200280815A1 (en) | Audio signal processing device and audio signal processing system | |
US10999678B2 (en) | Audio signal processing device and audio signal processing system | |
KR102527336B1 (ko) | 가상 공간에서 사용자의 이동에 따른 오디오 신호 재생 방법 및 장치 | |
CN111512648A (zh) | 启用空间音频内容的渲染以用于由用户消费 | |
JP6179862B2 (ja) | オーディオ信号再生装置およびオーディオ信号再生方法 | |
WO2018150774A1 (ja) | 音声信号処理装置及び音声信号処理システム | |
US20240056758A1 (en) | Systems and Methods for Rendering Spatial Audio Using Spatialization Shaders | |
Moore | The development of a design tool for 5-speaker surround sound decoders | |
RU2803638C2 (ru) | Обработка пространственно диффузных или больших звуковых объектов | |
RU2779295C2 (ru) | Обработка монофонического сигнала в декодере 3d-аудио, предоставляющая бинауральный информационный материал | |
KR102058619B1 (ko) | 예외 채널 신호의 렌더링 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181127 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181127 |
|
AA64 | Notification of invalidation of claim of internal priority (with term) |
Free format text: JAPANESE INTERMEDIATE CODE: A241764 Effective date: 20190212 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190220 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190716 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190917 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191112 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191206 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200121 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200214 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6663490 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |