JPWO2006080358A1 - 音声符号化装置および音声符号化方法 - Google Patents
音声符号化装置および音声符号化方法 Download PDFInfo
- Publication number
- JPWO2006080358A1 JPWO2006080358A1 JP2007500549A JP2007500549A JPWO2006080358A1 JP WO2006080358 A1 JPWO2006080358 A1 JP WO2006080358A1 JP 2007500549 A JP2007500549 A JP 2007500549A JP 2007500549 A JP2007500549 A JP 2007500549A JP WO2006080358 A1 JPWO2006080358 A1 JP WO2006080358A1
- Authority
- JP
- Japan
- Prior art keywords
- signal
- channel
- monaural
- weighting
- encoding
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims description 11
- 238000004891 communication Methods 0.000 claims description 16
- 238000012935 Averaging Methods 0.000 claims description 4
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 abstract description 9
- 230000005236 sound signal Effects 0.000 description 15
- 238000004364 calculation method Methods 0.000 description 13
- 238000005516 engineering process Methods 0.000 description 4
- 230000010354 integration Effects 0.000 description 3
- 238000010295 mobile communication Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/008—Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Stereophonic System (AREA)
Abstract
ステレオ信号からモノラル信号を生成する際に、明瞭性や了解性に富んだ、めり張りある適切なモノラル信号を生成することができる音声符号化装置。この装置では、重み付け部(11)は、Lチャネル信号XLおよびRチャネル信号XRそれぞれに重み付けを行って、重み付けしたLチャネル信号XLWおよびRチャネル信号XRWをモノラル信号生成部(12)に入力し、モノラル信号生成部(12)は、Lチャネル信号XLWとRチャネル信号XRWを平均してモノラル信号XMWを生成してモノラル信号符号化部(13)に入力し、モノラル信号符号化部(13)は、モノラル信号XMWを符号化してモノラル信号XMWの符号化パラメータ(モノラル信号符号化パラメータ)を出力する。
Description
本発明は、音声符号化装置および音声符号化方法に関し、特に、ステレオの音声入力信号からモノラル信号を生成して符号化する音声符号化装置および音声符号化方法に関する。
移動体通信やIP通信での伝送帯域の広帯域化、サービスの多様化に伴い、音声通信において高音質化、高臨場感化のニーズが高まっている。例えば、今後、テレビ電話サービスにおけるハンズフリー形態での通話、テレビ会議における音声通信、多地点で複数話者が同時に会話を行うような多地点音声通信、臨場感を保持したまま周囲の音環境を伝送できるような音声通信などの需要が増加すると見込まれる。その場合、モノラル信号より臨場感があり、また複数話者の発話位置が認識できるような、ステレオ音声による音声通信を実現することが望まれる。このようなステレオ音声による音声通信を実現するためには、ステレオ音声の符号化が必須となる。
また、IPネットワーク上での音声データ通信において、ネットワーク上のトラフィック制御やマルチキャスト通信実現のために、スケーラブルな構成を有する音声符号化が望まれている。スケーラブルな構成とは、受信側で部分的な符号化データからでも音声データの復号が可能な構成をいう。
よって、ステレオ音声を符号化し伝送する場合にも、ステレオ信号の復号と、モノラル信号の復号とを受信側において選択可能な、モノラル−ステレオ間でのスケーラブル構成(モノラル−ステレオ・スケーラブル構成)を有する符号化が望まれる。
このような、モノラル−ステレオ・スケーラブル構成を有する音声符号化においては、ステレオの入力信号からモノラル信号を生成する。モノラル信号の生成方法としては、例えば、ステレオ信号の各チャネルの信号を単純に平均してモノラル信号を得るものがある(非特許文献1参照)。
ISO/IEC 14496−3,"Information Technology−Coding of audio−visual objects−Part 3:Audio",subpart−4,4.B.14 Scalable AAC with core coder,pp.304−305,Sep.2000.
ISO/IEC 14496−3,"Information Technology−Coding of audio−visual objects−Part 3:Audio",subpart−4,4.B.14 Scalable AAC with core coder,pp.304−305,Sep.2000.
しかしながら、単にステレオ信号の各チャネルの信号をそのまま平均してモノラル信号を生成すると、特に音声では、めり張りのない聞き難いモノラル信号となってしまうことがある。
本発明の目的は、ステレオ信号からモノラル信号を生成する際に、明瞭性や了解性に富んだ、めり張りある適切なモノラル信号を生成することができる音声符号化装置および音声符号化方法を提供することである。
本発明の音声符号化装置は、ステレオ信号の各チャネルの信号の音声情報量に応じた重み付け係数により前記各チャネルの信号を重み付けする重み付け手段と、重み付けされた前記各チャネルの信号を平均してモノラル信号を生成する生成手段と、前記モノラル信号を符号化する符号化手段と、を具備する構成を採る。
本発明によれば、ステレオ信号からモノラル信号を生成する際に、明瞭性や了解性に富んだ、めり張りある適切なモノラル信号を生成することができる。
以下、本発明の実施の形態について、添付図面を参照して詳細に説明する。
(実施の形態1)
本実施の形態に係る音声符号化装置の構成を図1に示す。図1に示す音声符号化装置10は、重み付け部11、モノラル信号生成部12、モノラル信号符号化部13、モノラル信号復号部14、差分信号生成部15、および、ステレオ信号符号化部16を備える。
本実施の形態に係る音声符号化装置の構成を図1に示す。図1に示す音声符号化装置10は、重み付け部11、モノラル信号生成部12、モノラル信号符号化部13、モノラル信号復号部14、差分信号生成部15、および、ステレオ信号符号化部16を備える。
ステレオ音声信号のLチャネル(左チャネル)信号XLおよびRチャネル(右チャネル)信号XRは、重み付け部11および差分信号生成部15に入力される。
重み付け部11は、Lチャネル信号XLおよびRチャネル信号XRそれぞれに重み付けを行う。重み付けの具体的な方法については後述する。重み付けされたLチャネル信号XLWおよびRチャネル信号XRWは、モノラル信号生成部12に入力される。
モノラル信号生成部12は、Lチャネル信号XLWとRチャネル信号XRWを平均してモノラル信号XMWを生成する。このモノラル信号XMWは、モノラル信号符号化部13に入力される。
モノラル信号符号化部13は、モノラル信号XMWを符号化し、モノラル信号XMWの符号化パラメータ(モノラル信号符号化パラメータ)を出力する。このモノラル信号符号化パラメータは、ステレオ信号符号化部16から出力されるステレオ信号符号化パラメータと多重されて音声復号装置へ伝送される。また、モノラル信号符号化パラメータは、モノラル信号復号部14に入力される。
モノラル信号復号部14は、モノラル信号符号化パラメータを復号してモノラル信号を得る。このモノラル信号は、差分信号生成部15に入力される。
差分信号生成部15は、Lチャネル信号XLとモノラル信号との差分信号ΔXLおよびRチャネル信号XRとモノラル信号との差分信号ΔXRを生成する。これらの差分信号ΔXL、ΔXRは、ステレオ信号符号化部16に入力される。
ステレオ信号符号化部16は、Lチャネルの差分信号ΔXLおよびRチャネルの差分信号ΔXRを符号化し、こられの差分信号の符号化パラメータ(ステレオ信号符号化パラメータ)を出力する。
次いで、重み付け部11の詳細について図2を用いて説明する。この図に示すように、重み付け部11は、指標算出部111、重み付け係数算出部112、および、乗算部113を備える。
ステレオ音声信号のLチャネル信号XLおよびRチャネル信号XRは、指標算出部111および乗算部113に入力される。
指標算出部111は、各チャネルの信号XL、XRの音声情報量の度合いを表す指標IL、IRを一定区間毎(例えば、各フレーム毎、複数のフレーム毎等)に算出する。Lチャネル信号の指標ILとRチャネル信号の指標IRは時間的に同じ区間における値を示すものとする。これらの指標IL、IRは、重み付け係数算出部112に入力される。なお、具体的な指標IL、IRについては、後の実施の形態において説明する。
重み付け係数算出部112は、ステレオ信号の各チャネルの信号に対する重み付け係数を指標IL、IRに基づいて算出する。重み付け係数算出部112は、Lチャネル信号XLに対する一定区間毎の重み付け係数WL、Rチャネル信号XRに対する一定区間毎の重み付け係数WRを、式(1)および(2)に従って算出する。なお、ここでの一定区間は、指標算出部111が指標IL、IRを算出した際の一定区間と同一である。これらの重み付け係数WL、WRは、乗算部113に入力される。
乗算部113は、ステレオ信号の各チャネルの信号の振幅に、重み付け係数を乗算する。これにより、ステレオ信号の各チャネルの信号は、各チャネルの信号の音声情報量に応じた重み付け係数により重み付けされる。具体的には、Lチャネル信号の一定区間内のi番目のサンプルをXL(i)、Rチャネル信号のi番目のサンプルをXR(i)とすると、重み付けされたLチャネル信号のi番目のサンプルXLW(i)および重み付けされたRチャネル信号のi番目のサンプルXRW(i)は、式(3)および(4)に従って求められる。重み付けされた各チャネルの信号XLW、XRWは、モノラル信号生成部12に入力される。
そして、図1に示すモノラル信号生成部12は、重み付けされたLチャネル信号XLWと重み付けされたRチャネル信号XRWの平均値を算出し、その平均値をモノラル信号XMWとする。モノラル信号生成部12は、モノラル信号のi番目のサンプルXMW(i)を式(5)に従って生成する。
モノラル信号符号化部13は、モノラル信号XMW(i)を符号化し、モノラル信号復号部14は、モノラル信号符号化パラメータを復号してモノラル信号を得る。
差分信号生成部15は、Lチャネル信号のi番目のサンプルをXL(i)、Rチャネル信号のi番目のサンプルをXR(i)、モノラル信号のi番目のサンプルをXMW(i)とすると、Lチャネル信号のi番目のサンプルの差分信号ΔXL(i)、および、Rチャネル信号のi番目のサンプルの差分信号ΔXR(i)を式(6)および(7)に従って求める。
そして、ステレオ信号符号化部16において、差分信号ΔXL(i)およびΔXR(i)に対して各々符号化を行う。差分信号の符号化方法は、例えば差分PCM符号化等、音声差分信号を符号化するのに適した方法を用いる。
ここで、例えば、図3に示すようにLチャネル信号は音声信号から成り、図4に示すようにRチャネル信号は無音(DC成分のみ)から成る場合は、音声信号から成るLチャネル信号の方が無音(DC成分のみ)から成るRチャネル信号よりも多くの情報を受信側の受聴者に与える。よって、従来のように、単に各チャネルの信号をそのまま平均してモノラル信号を生成すると、そのモノラル信号は、Lチャネル信号の振幅を2分の1にした信号となり、明瞭性や了解性に乏しい信号になってしまうと考えられる。
これに対し、本実施の形態では、各チャネルの信号の音声情報量の度合いを示す指標に応じた重み付け係数により重み付けした各チャネルの信号からモノラル信号を生成する。音声情報量が多いほど、モノラル信号の受信側でモノラル信号を復号・再生した際の明瞭性や了解性が高まるものと考えられる。よって、本実施の形態のようにしてモノラル信号を生成することにより、明瞭性や了解性に富んだ、めり張りある適切なモノラル信号を生成することができる。
また、本実施の形態では、このようにして生成したモノラル信号に基づいてモノラル−ステレオ・スケーラブル構成を有する符号化を行っているため、音声情報量の度合いの大きいチャネルの信号とモノラル信号との差分信号のパワーが、各チャネルの信号の平均値をモノラル信号とする場合よりも小さくなり(すなわち、音声情報量の度合いの大きいチャネルの信号とモノラル信号との類似性が高くなり)、その結果、そのチャネルの信号に対する符号化歪みを低減することができる。音声情報量の度合いの小さい他のチャネルの信号とモノラル信号との差分信号のパワーは、各チャネルの信号の平均値をモノラル信号とする場合よりも大きくなるものの、チャネル間において各チャネルの符号化歪みに偏りをもたせることができ、音声情報量の多いチャネルの信号の符号化歪みをより小さくすることができる。よって、受信側で復号されるステレオ信号全体としての聴感的歪み感を小さくすることができる。
(実施の形態2)
本実施の形態では、音声情報量の度合いを表す指標として、各チャネルの信号のエントロピーを用いる場合について説明する。この場合、指標算出部111は以下のようにしてエントロピーを算出し、重み付け係数算出部112は以下のようして重み付け係数を算出する。なお、符号化されるステレオ信号は実際には標本化された離散値であるが、連続値として扱っても同様の性質を有するので、以下の説明においては連続値として説明する。
本実施の形態では、音声情報量の度合いを表す指標として、各チャネルの信号のエントロピーを用いる場合について説明する。この場合、指標算出部111は以下のようにしてエントロピーを算出し、重み付け係数算出部112は以下のようして重み付け係数を算出する。なお、符号化されるステレオ信号は実際には標本化された離散値であるが、連続値として扱っても同様の性質を有するので、以下の説明においては連続値として説明する。
指標算出部111は、式(8)に従って、各チャネルの信号に対してエントロピーH(X)を求める。ここでは、一般的に音声信号が式(9)に示す指数分布(ラプラス分布)で近似できることを利用してエントロピーH(X)を求める。なお、αは後述の式(12)により定義される。
式(9)を用いることで、式(8)に示すエントロピーH(X)は式(10)により算出される。つまり、式(10)により求められるエントロピーH(X)は、1標本値を表現するのに必要なビット数を示すため、音声情報量の度合いを表す指標として用いることができる。なお、式(10)においては、式(11)に示すように、音声信号の振幅の絶対値の平均値を0とみなしている。
このようにして、指標算出部111では、各チャネルの信号のエントロピーHL、HRが求められ、これらのエントロピーが重み付け係数算出部112に入力される。
なお、上記説明では、音声信号の分布は指数分布と仮定してエントロピーを求めたが、実際の信号のサンプルxiと、その信号の発生頻度から算出される発生確率p(xi)とから、各チャネルの信号のエントロピーHL、HRを算出することも可能である。
そして、重み付け係数算出部112では、エントロピーHL、HRを実施の形態1において示した指標IL、IRとして用いて、重み付け係数WL、WRを式(17)および(18)に従って算出する。これらの重み付け係数WL、WRは、乗算部113に入力される。
このように、本実施の形態では、エントロピーを音声情報量(ビット数)を表す指標として用い、各チャネルの信号にエントロピーに応じた重み付けを行うことにより、音声情報量が多いチャネルの信号が強調された、めり張りあるモノラル信号を生成することができる。
(実施の形態3)
本実施の形態では、音声情報量の度合いを表す指標として、各チャネルの信号のS/N比を用いる場合について説明する。この場合、指標算出部111は以下のようにしてS/N比を算出し、重み付け係数算出部112は以下のようして重み付け係数を算出する。
本実施の形態では、音声情報量の度合いを表す指標として、各チャネルの信号のS/N比を用いる場合について説明する。この場合、指標算出部111は以下のようにしてS/N比を算出し、重み付け係数算出部112は以下のようして重み付け係数を算出する。
本実施の形態で用いるS/N比は、入力信号において、主となる信号Sとそれ以外の信号Nとの比である。例えば、入力信号が音声信号の場合は、主となる音声信号Sと背景の周囲雑音信号Nとの比である。具体的には、式(19)によって求められる、入力音声信号の平均パワー(入力音声信号のフレーム単位のパワーを時間的に平均化したもの)PSと非音声区間(雑音のみの区間)での雑音信号の平均パワー(非音声区間のフレーム単位のパワーを時間的に平均化したもの)PEとの比を逐次計算・更新することでS/N比とする。また、受聴者にとっては、一般に雑音信号Nよりも音声信号Sの方が必要な情報であることが多いため、S/N比を指標として用いることで受聴者が必要な情報が強調されたモノラル信号を生成することができる。そこで、本実施の形態では、S/N比を音声情報量の度合いを表す指標として用いる。
ただし、(S/N)L、(S/N)Rが負となる場合は、負となるS/N比を、予め定めた正の下限値に置き換える。
このようにして、指標算出部111では、各チャネルの信号のS/N比(S/N)L、(S/N)Rが求められ、これらのS/N比が重み付け係数算出部112に入力される。
そして、重み付け係数算出部112では、S/N比(S/N)L、(S/N)Rを実施の形態1において示した指標IL、IRとして用いて、重み付け係数WL、WRを式(22)および(23)に従って算出する。これらの重み付け係数WL、WRは、乗算部113に入力される。
なお、重み付け係数は以下のようにして求めてもよい。すなわち、式(20)、(21)に示すlog領域でのS/N比の代わりに、logをとらないS/N比を用いて重み付け係数を求めてもよい。また、式(22)、(23)を用いて重み付け係数を算出する代わりに、S/N比が大きいほど重み付け係数が大きくなるような、S/N比と重み付け係数との対応関係を示すテーブルを予め用意しておき、S/N比に基づいてそのテーブルを参照して重み付け係数を求めてもよい。
このように、本実施の形態では、S/N比を音声情報量を表す指標として用い、各チャネルの信号にS/N比に応じた重み付けを行うことにより、音声情報量が多いチャネルの信号が強調された、めり張りあるモノラル信号を生成することができる。
なお、音声情報量の度合いを表す指標としては、他に、音声波形の規則性(不規則性が大きいほど音声情報量が多いことに基づく)や、スペクトラム包絡の時間的変化量(変化量が大きいほど音声情報量が多いことに基づく)等を用いることも可能である。
なお、上記各実施の形態に係る音声符号化装置を、移動体通信システムにおいて使用される無線通信移動局装置や無線通信基地局装置等の無線通信装置に搭載することも可能である。
また、上記実施の形態では、本発明をハードウェアで構成する場合を例にとって説明したが、本発明はソフトウェアで実現することも可能である。
また、上記実施の形態の説明に用いた各機能ブロックは、典型的には集積回路であるLSIとして実現される。これらは個別に1チップ化されてもよいし、一部又は全てを含むように1チップ化されてもよい。
ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。
また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサーを利用してもよい。
さらには、半導体技術の進歩又は派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適応等が可能性としてありえる。
本明細書は、2005年1月26日出願の特願2005−018150に基づくものである。この内容はすべてここに含めておく。
本発明は、移動体通信システムやインターネットプロトコルを用いたパケット通信システム等における通信装置の用途に適用できる。
Claims (6)
- ステレオ信号の各チャネルの信号の音声情報量に応じた重み付け係数により前記各チャネルの信号を重み付けする重み付け手段と、
重み付けされた前記各チャネルの信号を平均してモノラル信号を生成する生成手段と、
前記モノラル信号を符号化する符号化手段と、
を具備する音声符号化装置。 - 前記重み付け手段は、各チャネルの信号のエントロピーを前記音声情報量として用いて前記重み付け係数を算出する、
請求項1記載の音声符号化装置。 - 前記重み付け手段は、各チャネルの信号のS/N比を前記音声情報量として用いて前記重み付け係数を算出する、
請求項1記載の音声符号化装置。 - 請求項1記載の音声符号化装置を具備する無線通信移動局装置。
- 請求項1記載の音声符号化装置を具備する無線通信基地局装置。
- ステレオ信号の各チャネルの信号の音声情報量に応じた重み付け係数により前記各チャネルの信号を重み付けする重み付け工程と、
重み付けされた前記各チャネルの信号を平均してモノラル信号を生成する生成工程と、
前記モノラル信号を符号化する符号化工程と、
を具備する音声符号化方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005018150 | 2005-01-26 | ||
JP2005018150 | 2005-01-26 | ||
PCT/JP2006/301154 WO2006080358A1 (ja) | 2005-01-26 | 2006-01-25 | 音声符号化装置および音声符号化方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPWO2006080358A1 true JPWO2006080358A1 (ja) | 2008-06-19 |
Family
ID=36740388
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007500549A Withdrawn JPWO2006080358A1 (ja) | 2005-01-26 | 2006-01-25 | 音声符号化装置および音声符号化方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20090055169A1 (ja) |
EP (1) | EP1852689A1 (ja) |
JP (1) | JPWO2006080358A1 (ja) |
CN (1) | CN101107505A (ja) |
BR (1) | BRPI0607303A2 (ja) |
WO (1) | WO2006080358A1 (ja) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101414341B1 (ko) * | 2007-03-02 | 2014-07-22 | 파나소닉 인텔렉츄얼 프로퍼티 코포레이션 오브 아메리카 | 부호화 장치 및 부호화 방법 |
JP5596341B2 (ja) * | 2007-03-02 | 2014-09-24 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 音声符号化装置および音声符号化方法 |
RU2463674C2 (ru) * | 2007-03-02 | 2012-10-10 | Панасоник Корпорэйшн | Кодирующее устройство и способ кодирования |
EP2133872B1 (en) | 2007-03-30 | 2012-02-29 | Panasonic Corporation | Encoding device and encoding method |
US9053701B2 (en) | 2009-02-26 | 2015-06-09 | Panasonic Intellectual Property Corporation Of America | Channel signal generation device, acoustic signal encoding device, acoustic signal decoding device, acoustic signal encoding method, and acoustic signal decoding method |
EP2439736A1 (en) * | 2009-06-02 | 2012-04-11 | Panasonic Corporation | Down-mixing device, encoder, and method therefor |
WO2012074503A1 (en) * | 2010-11-29 | 2012-06-07 | Nuance Communications, Inc. | Dynamic microphone signal mixer |
US20130315402A1 (en) * | 2012-05-24 | 2013-11-28 | Qualcomm Incorporated | Three-dimensional sound compression and over-the-air transmission during a call |
EP3053356B8 (en) | 2013-10-30 | 2020-06-17 | Cerence Operating Company | Methods and apparatus for selective microphone signal combining |
JP6501259B2 (ja) * | 2015-08-04 | 2019-04-17 | 本田技研工業株式会社 | 音声処理装置及び音声処理方法 |
EP3891737B1 (en) * | 2019-01-11 | 2024-07-03 | Boomcloud 360, Inc. | Soundstage-conserving audio channel summation |
WO2024142360A1 (ja) * | 2022-12-28 | 2024-07-04 | 日本電信電話株式会社 | 音信号処理装置、音信号処理方法、プログラム |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06319200A (ja) * | 1993-05-10 | 1994-11-15 | Fujitsu General Ltd | ステレオ用バランス調整装置 |
JP2000354300A (ja) * | 1999-06-11 | 2000-12-19 | Accuphase Laboratory Inc | マルチチャンネルオーディオ再生装置 |
DE19959156C2 (de) * | 1999-12-08 | 2002-01-31 | Fraunhofer Ges Forschung | Verfahren und Vorrichtung zum Verarbeiten eines zu codierenden Stereoaudiosignals |
JP3670562B2 (ja) * | 2000-09-05 | 2005-07-13 | 日本電信電話株式会社 | ステレオ音響信号処理方法及び装置並びにステレオ音響信号処理プログラムを記録した記録媒体 |
US7177432B2 (en) * | 2001-05-07 | 2007-02-13 | Harman International Industries, Incorporated | Sound processing system with degraded signal optimization |
JP2003330497A (ja) * | 2002-05-15 | 2003-11-19 | Matsushita Electric Ind Co Ltd | オーディオ信号の符号化方法及び装置、符号化及び復号化システム、並びに符号化を実行するプログラム及び当該プログラムを記録した記録媒体 |
JP4842147B2 (ja) * | 2004-12-28 | 2011-12-21 | パナソニック株式会社 | スケーラブル符号化装置およびスケーラブル符号化方法 |
WO2006121101A1 (ja) * | 2005-05-13 | 2006-11-16 | Matsushita Electric Industrial Co., Ltd. | 音声符号化装置およびスペクトル変形方法 |
US20090018824A1 (en) * | 2006-01-31 | 2009-01-15 | Matsushita Electric Industrial Co., Ltd. | Audio encoding device, audio decoding device, audio encoding system, audio encoding method, and audio decoding method |
-
2006
- 2006-01-25 BR BRPI0607303-4A patent/BRPI0607303A2/pt not_active Application Discontinuation
- 2006-01-25 JP JP2007500549A patent/JPWO2006080358A1/ja not_active Withdrawn
- 2006-01-25 US US11/814,833 patent/US20090055169A1/en not_active Abandoned
- 2006-01-25 WO PCT/JP2006/301154 patent/WO2006080358A1/ja active Application Filing
- 2006-01-25 EP EP06712349A patent/EP1852689A1/en not_active Withdrawn
- 2006-01-25 CN CNA2006800032877A patent/CN101107505A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
CN101107505A (zh) | 2008-01-16 |
BRPI0607303A2 (pt) | 2009-08-25 |
WO2006080358A1 (ja) | 2006-08-03 |
EP1852689A1 (en) | 2007-11-07 |
US20090055169A1 (en) | 2009-02-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPWO2006080358A1 (ja) | 音声符号化装置および音声符号化方法 | |
US11978460B2 (en) | Truncateable predictive coding | |
JP5046653B2 (ja) | 音声符号化装置および音声符号化方法 | |
JP4832305B2 (ja) | ステレオ信号生成装置およびステレオ信号生成方法 | |
US9460729B2 (en) | Layered approach to spatial audio coding | |
US10224046B2 (en) | Spatial comfort noise | |
KR101056325B1 (ko) | 복수의 파라미터적으로 코딩된 오디오 소스들을 결합하는 장치 및 방법 | |
JP5753540B2 (ja) | ステレオ信号符号化装置、ステレオ信号復号装置、ステレオ信号符号化方法及びステレオ信号復号方法 | |
US7904292B2 (en) | Scalable encoding device, scalable decoding device, and method thereof | |
US7848932B2 (en) | Stereo encoding apparatus, stereo decoding apparatus, and their methods | |
JP4887288B2 (ja) | 音声符号化装置および音声符号化方法 | |
JPWO2006118178A1 (ja) | 音声符号化装置および音声符号化方法 | |
US8036390B2 (en) | Scalable encoding device and scalable encoding method | |
KR20070090217A (ko) | 스케일러블 부호화 장치 및 스케일러블 부호화 방법 | |
US8024187B2 (en) | Pulse allocating method in voice coding | |
JPWO2008132826A1 (ja) | ステレオ音声符号化装置およびステレオ音声符号化方法 | |
US10242683B2 (en) | Optimized mixing of audio streams encoded by sub-band encoding | |
Taleb et al. | G. 719: The first ITU-T standard for high-quality conversational fullband audio coding | |
Ito et al. | A Study on Effect of IP Performance Degradation on Horizontal Sound Localization in a VoIP Phone Service with 3D Sound Effects | |
Lee et al. | Performance comparison of audio codecs for high-quality color ring-back-tone services over CDMA | |
Dai Yang et al. | Design of Progressive Syntax-Rich Multichannel Audio Codec |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090119 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090119 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20090414 |