JPWO2006080358A1 - 音声符号化装置および音声符号化方法 - Google Patents

音声符号化装置および音声符号化方法 Download PDF

Info

Publication number
JPWO2006080358A1
JPWO2006080358A1 JP2007500549A JP2007500549A JPWO2006080358A1 JP WO2006080358 A1 JPWO2006080358 A1 JP WO2006080358A1 JP 2007500549 A JP2007500549 A JP 2007500549A JP 2007500549 A JP2007500549 A JP 2007500549A JP WO2006080358 A1 JPWO2006080358 A1 JP WO2006080358A1
Authority
JP
Japan
Prior art keywords
signal
channel
monaural
weighting
encoding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007500549A
Other languages
English (en)
Inventor
道代 後藤
道代 後藤
吉田 幸司
幸司 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Publication of JPWO2006080358A1 publication Critical patent/JPWO2006080358A1/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Stereophonic System (AREA)

Abstract

ステレオ信号からモノラル信号を生成する際に、明瞭性や了解性に富んだ、めり張りある適切なモノラル信号を生成することができる音声符号化装置。この装置では、重み付け部(11)は、Lチャネル信号XLおよびRチャネル信号XRそれぞれに重み付けを行って、重み付けしたLチャネル信号XLWおよびRチャネル信号XRWをモノラル信号生成部(12)に入力し、モノラル信号生成部(12)は、Lチャネル信号XLWとRチャネル信号XRWを平均してモノラル信号XMWを生成してモノラル信号符号化部(13)に入力し、モノラル信号符号化部(13)は、モノラル信号XMWを符号化してモノラル信号XMWの符号化パラメータ(モノラル信号符号化パラメータ)を出力する。

Description

本発明は、音声符号化装置および音声符号化方法に関し、特に、ステレオの音声入力信号からモノラル信号を生成して符号化する音声符号化装置および音声符号化方法に関する。
移動体通信やIP通信での伝送帯域の広帯域化、サービスの多様化に伴い、音声通信において高音質化、高臨場感化のニーズが高まっている。例えば、今後、テレビ電話サービスにおけるハンズフリー形態での通話、テレビ会議における音声通信、多地点で複数話者が同時に会話を行うような多地点音声通信、臨場感を保持したまま周囲の音環境を伝送できるような音声通信などの需要が増加すると見込まれる。その場合、モノラル信号より臨場感があり、また複数話者の発話位置が認識できるような、ステレオ音声による音声通信を実現することが望まれる。このようなステレオ音声による音声通信を実現するためには、ステレオ音声の符号化が必須となる。
また、IPネットワーク上での音声データ通信において、ネットワーク上のトラフィック制御やマルチキャスト通信実現のために、スケーラブルな構成を有する音声符号化が望まれている。スケーラブルな構成とは、受信側で部分的な符号化データからでも音声データの復号が可能な構成をいう。
よって、ステレオ音声を符号化し伝送する場合にも、ステレオ信号の復号と、モノラル信号の復号とを受信側において選択可能な、モノラル−ステレオ間でのスケーラブル構成(モノラル−ステレオ・スケーラブル構成)を有する符号化が望まれる。
このような、モノラル−ステレオ・スケーラブル構成を有する音声符号化においては、ステレオの入力信号からモノラル信号を生成する。モノラル信号の生成方法としては、例えば、ステレオ信号の各チャネルの信号を単純に平均してモノラル信号を得るものがある(非特許文献1参照)。
ISO/IEC 14496−3,"Information Technology−Coding of audio−visual objects−Part 3:Audio",subpart−4,4.B.14 Scalable AAC with core coder,pp.304−305,Sep.2000.
しかしながら、単にステレオ信号の各チャネルの信号をそのまま平均してモノラル信号を生成すると、特に音声では、めり張りのない聞き難いモノラル信号となってしまうことがある。
本発明の目的は、ステレオ信号からモノラル信号を生成する際に、明瞭性や了解性に富んだ、めり張りある適切なモノラル信号を生成することができる音声符号化装置および音声符号化方法を提供することである。
本発明の音声符号化装置は、ステレオ信号の各チャネルの信号の音声情報量に応じた重み付け係数により前記各チャネルの信号を重み付けする重み付け手段と、重み付けされた前記各チャネルの信号を平均してモノラル信号を生成する生成手段と、前記モノラル信号を符号化する符号化手段と、を具備する構成を採る。
本発明によれば、ステレオ信号からモノラル信号を生成する際に、明瞭性や了解性に富んだ、めり張りある適切なモノラル信号を生成することができる。
本発明の実施の形態1に係る音声符号化装置の構成を示すブロック図 本発明の実施の形態1に係る重み付け部の構成を示すブロック図 本発明の実施の形態1に係るLチャネル信号の波形例 本発明の実施の形態1に係るRチャネル信号の波形例
以下、本発明の実施の形態について、添付図面を参照して詳細に説明する。
(実施の形態1)
本実施の形態に係る音声符号化装置の構成を図1に示す。図1に示す音声符号化装置10は、重み付け部11、モノラル信号生成部12、モノラル信号符号化部13、モノラル信号復号部14、差分信号生成部15、および、ステレオ信号符号化部16を備える。
ステレオ音声信号のLチャネル(左チャネル)信号XおよびRチャネル(右チャネル)信号Xは、重み付け部11および差分信号生成部15に入力される。
重み付け部11は、Lチャネル信号XおよびRチャネル信号Xそれぞれに重み付けを行う。重み付けの具体的な方法については後述する。重み付けされたLチャネル信号XLWおよびRチャネル信号XRWは、モノラル信号生成部12に入力される。
モノラル信号生成部12は、Lチャネル信号XLWとRチャネル信号XRWを平均してモノラル信号XMWを生成する。このモノラル信号XMWは、モノラル信号符号化部13に入力される。
モノラル信号符号化部13は、モノラル信号XMWを符号化し、モノラル信号XMWの符号化パラメータ(モノラル信号符号化パラメータ)を出力する。このモノラル信号符号化パラメータは、ステレオ信号符号化部16から出力されるステレオ信号符号化パラメータと多重されて音声復号装置へ伝送される。また、モノラル信号符号化パラメータは、モノラル信号復号部14に入力される。
モノラル信号復号部14は、モノラル信号符号化パラメータを復号してモノラル信号を得る。このモノラル信号は、差分信号生成部15に入力される。
差分信号生成部15は、Lチャネル信号Xとモノラル信号との差分信号ΔXおよびRチャネル信号Xとモノラル信号との差分信号ΔXを生成する。これらの差分信号ΔX、ΔXは、ステレオ信号符号化部16に入力される。
ステレオ信号符号化部16は、Lチャネルの差分信号ΔXおよびRチャネルの差分信号ΔXを符号化し、こられの差分信号の符号化パラメータ(ステレオ信号符号化パラメータ)を出力する。
次いで、重み付け部11の詳細について図2を用いて説明する。この図に示すように、重み付け部11は、指標算出部111、重み付け係数算出部112、および、乗算部113を備える。
ステレオ音声信号のLチャネル信号XおよびRチャネル信号Xは、指標算出部111および乗算部113に入力される。
指標算出部111は、各チャネルの信号X、Xの音声情報量の度合いを表す指標I、Iを一定区間毎(例えば、各フレーム毎、複数のフレーム毎等)に算出する。Lチャネル信号の指標IとRチャネル信号の指標Iは時間的に同じ区間における値を示すものとする。これらの指標I、Iは、重み付け係数算出部112に入力される。なお、具体的な指標I、Iについては、後の実施の形態において説明する。
重み付け係数算出部112は、ステレオ信号の各チャネルの信号に対する重み付け係数を指標I、Iに基づいて算出する。重み付け係数算出部112は、Lチャネル信号Xに対する一定区間毎の重み付け係数W、Rチャネル信号Xに対する一定区間毎の重み付け係数Wを、式(1)および(2)に従って算出する。なお、ここでの一定区間は、指標算出部111が指標I、Iを算出した際の一定区間と同一である。これらの重み付け係数W、Wは、乗算部113に入力される。
Figure 2006080358
Figure 2006080358
乗算部113は、ステレオ信号の各チャネルの信号の振幅に、重み付け係数を乗算する。これにより、ステレオ信号の各チャネルの信号は、各チャネルの信号の音声情報量に応じた重み付け係数により重み付けされる。具体的には、Lチャネル信号の一定区間内のi番目のサンプルをX(i)、Rチャネル信号のi番目のサンプルをX(i)とすると、重み付けされたLチャネル信号のi番目のサンプルXLW(i)および重み付けされたRチャネル信号のi番目のサンプルXRW(i)は、式(3)および(4)に従って求められる。重み付けされた各チャネルの信号XLW、XRWは、モノラル信号生成部12に入力される。
Figure 2006080358
Figure 2006080358
そして、図1に示すモノラル信号生成部12は、重み付けされたLチャネル信号XLWと重み付けされたRチャネル信号XRWの平均値を算出し、その平均値をモノラル信号XMWとする。モノラル信号生成部12は、モノラル信号のi番目のサンプルXMW(i)を式(5)に従って生成する。
Figure 2006080358
モノラル信号符号化部13は、モノラル信号XMW(i)を符号化し、モノラル信号復号部14は、モノラル信号符号化パラメータを復号してモノラル信号を得る。
差分信号生成部15は、Lチャネル信号のi番目のサンプルをX(i)、Rチャネル信号のi番目のサンプルをX(i)、モノラル信号のi番目のサンプルをXMW(i)とすると、Lチャネル信号のi番目のサンプルの差分信号ΔX(i)、および、Rチャネル信号のi番目のサンプルの差分信号ΔX(i)を式(6)および(7)に従って求める。
Figure 2006080358
Figure 2006080358
そして、ステレオ信号符号化部16において、差分信号ΔX(i)およびΔX(i)に対して各々符号化を行う。差分信号の符号化方法は、例えば差分PCM符号化等、音声差分信号を符号化するのに適した方法を用いる。
ここで、例えば、図3に示すようにLチャネル信号は音声信号から成り、図4に示すようにRチャネル信号は無音(DC成分のみ)から成る場合は、音声信号から成るLチャネル信号の方が無音(DC成分のみ)から成るRチャネル信号よりも多くの情報を受信側の受聴者に与える。よって、従来のように、単に各チャネルの信号をそのまま平均してモノラル信号を生成すると、そのモノラル信号は、Lチャネル信号の振幅を2分の1にした信号となり、明瞭性や了解性に乏しい信号になってしまうと考えられる。
これに対し、本実施の形態では、各チャネルの信号の音声情報量の度合いを示す指標に応じた重み付け係数により重み付けした各チャネルの信号からモノラル信号を生成する。音声情報量が多いほど、モノラル信号の受信側でモノラル信号を復号・再生した際の明瞭性や了解性が高まるものと考えられる。よって、本実施の形態のようにしてモノラル信号を生成することにより、明瞭性や了解性に富んだ、めり張りある適切なモノラル信号を生成することができる。
また、本実施の形態では、このようにして生成したモノラル信号に基づいてモノラル−ステレオ・スケーラブル構成を有する符号化を行っているため、音声情報量の度合いの大きいチャネルの信号とモノラル信号との差分信号のパワーが、各チャネルの信号の平均値をモノラル信号とする場合よりも小さくなり(すなわち、音声情報量の度合いの大きいチャネルの信号とモノラル信号との類似性が高くなり)、その結果、そのチャネルの信号に対する符号化歪みを低減することができる。音声情報量の度合いの小さい他のチャネルの信号とモノラル信号との差分信号のパワーは、各チャネルの信号の平均値をモノラル信号とする場合よりも大きくなるものの、チャネル間において各チャネルの符号化歪みに偏りをもたせることができ、音声情報量の多いチャネルの信号の符号化歪みをより小さくすることができる。よって、受信側で復号されるステレオ信号全体としての聴感的歪み感を小さくすることができる。
(実施の形態2)
本実施の形態では、音声情報量の度合いを表す指標として、各チャネルの信号のエントロピーを用いる場合について説明する。この場合、指標算出部111は以下のようにしてエントロピーを算出し、重み付け係数算出部112は以下のようして重み付け係数を算出する。なお、符号化されるステレオ信号は実際には標本化された離散値であるが、連続値として扱っても同様の性質を有するので、以下の説明においては連続値として説明する。
確率密度関数p(x)をもつ連続標本値xのエントロピーは式(8)により定義される。
Figure 2006080358
指標算出部111は、式(8)に従って、各チャネルの信号に対してエントロピーH(X)を求める。ここでは、一般的に音声信号が式(9)に示す指数分布(ラプラス分布)で近似できることを利用してエントロピーH(X)を求める。なお、αは後述の式(12)により定義される。
Figure 2006080358
式(9)を用いることで、式(8)に示すエントロピーH(X)は式(10)により算出される。つまり、式(10)により求められるエントロピーH(X)は、1標本値を表現するのに必要なビット数を示すため、音声情報量の度合いを表す指標として用いることができる。なお、式(10)においては、式(11)に示すように、音声信号の振幅の絶対値の平均値を0とみなしている。
Figure 2006080358
Figure 2006080358
ところで、指数分布の場合、音声信号の標準偏差をσとすると、αは式(12)により表される。
Figure 2006080358
上記のように音声信号の振幅の絶対値の平均値は0とみなせるので、標準偏差は音声信号のパワーPを用いて式(13)のように表される。
Figure 2006080358
式(12)および式(13)を用いると、式(10)は、式(14)のようになる。
Figure 2006080358
よって、Lチャネル信号の一定区間毎のエントロピーHは、Lチャネル信号のパワーをPとすると、式(15)に従って求められる。
Figure 2006080358
同様に、Rチャネル信号の一定区間毎のエントロピーHは、Rチャネル信号のパワーをPとすると、式(16)に従って求められる。
Figure 2006080358
このようにして、指標算出部111では、各チャネルの信号のエントロピーH、Hが求められ、これらのエントロピーが重み付け係数算出部112に入力される。
なお、上記説明では、音声信号の分布は指数分布と仮定してエントロピーを求めたが、実際の信号のサンプルxと、その信号の発生頻度から算出される発生確率p(x)とから、各チャネルの信号のエントロピーH、Hを算出することも可能である。
そして、重み付け係数算出部112では、エントロピーH、Hを実施の形態1において示した指標I、Iとして用いて、重み付け係数W、Wを式(17)および(18)に従って算出する。これらの重み付け係数W、Wは、乗算部113に入力される。
Figure 2006080358
Figure 2006080358
このように、本実施の形態では、エントロピーを音声情報量(ビット数)を表す指標として用い、各チャネルの信号にエントロピーに応じた重み付けを行うことにより、音声情報量が多いチャネルの信号が強調された、めり張りあるモノラル信号を生成することができる。
(実施の形態3)
本実施の形態では、音声情報量の度合いを表す指標として、各チャネルの信号のS/N比を用いる場合について説明する。この場合、指標算出部111は以下のようにしてS/N比を算出し、重み付け係数算出部112は以下のようして重み付け係数を算出する。
本実施の形態で用いるS/N比は、入力信号において、主となる信号Sとそれ以外の信号Nとの比である。例えば、入力信号が音声信号の場合は、主となる音声信号Sと背景の周囲雑音信号Nとの比である。具体的には、式(19)によって求められる、入力音声信号の平均パワー(入力音声信号のフレーム単位のパワーを時間的に平均化したもの)Pと非音声区間(雑音のみの区間)での雑音信号の平均パワー(非音声区間のフレーム単位のパワーを時間的に平均化したもの)Pとの比を逐次計算・更新することでS/N比とする。また、受聴者にとっては、一般に雑音信号Nよりも音声信号Sの方が必要な情報であることが多いため、S/N比を指標として用いることで受聴者が必要な情報が強調されたモノラル信号を生成することができる。そこで、本実施の形態では、S/N比を音声情報量の度合いを表す指標として用いる。
Figure 2006080358
式(19)より、Lチャネル信号のS/N比(S/N)は、Lチャネル信号の音声信号の平均パワー(Pと、Lチャネル信号の雑音信号の平均パワー(Pとから、式(20)によって表される。
Figure 2006080358
同様に、Rチャネル信号のS/N比(S/N)は、Rチャネル信号の音声信号の平均パワー(Pと、Rチャネル信号の雑音信号の平均パワー(Pとから、式(21)によって表される。
Figure 2006080358
ただし、(S/N)、(S/N)が負となる場合は、負となるS/N比を、予め定めた正の下限値に置き換える。
このようにして、指標算出部111では、各チャネルの信号のS/N比(S/N)、(S/N)が求められ、これらのS/N比が重み付け係数算出部112に入力される。
そして、重み付け係数算出部112では、S/N比(S/N)、(S/N)を実施の形態1において示した指標I、Iとして用いて、重み付け係数W、Wを式(22)および(23)に従って算出する。これらの重み付け係数W、Wは、乗算部113に入力される。
Figure 2006080358
Figure 2006080358
なお、重み付け係数は以下のようにして求めてもよい。すなわち、式(20)、(21)に示すlog領域でのS/N比の代わりに、logをとらないS/N比を用いて重み付け係数を求めてもよい。また、式(22)、(23)を用いて重み付け係数を算出する代わりに、S/N比が大きいほど重み付け係数が大きくなるような、S/N比と重み付け係数との対応関係を示すテーブルを予め用意しておき、S/N比に基づいてそのテーブルを参照して重み付け係数を求めてもよい。
このように、本実施の形態では、S/N比を音声情報量を表す指標として用い、各チャネルの信号にS/N比に応じた重み付けを行うことにより、音声情報量が多いチャネルの信号が強調された、めり張りあるモノラル信号を生成することができる。
なお、音声情報量の度合いを表す指標としては、他に、音声波形の規則性(不規則性が大きいほど音声情報量が多いことに基づく)や、スペクトラム包絡の時間的変化量(変化量が大きいほど音声情報量が多いことに基づく)等を用いることも可能である。
なお、上記各実施の形態に係る音声符号化装置を、移動体通信システムにおいて使用される無線通信移動局装置や無線通信基地局装置等の無線通信装置に搭載することも可能である。
また、上記実施の形態では、本発明をハードウェアで構成する場合を例にとって説明したが、本発明はソフトウェアで実現することも可能である。
また、上記実施の形態の説明に用いた各機能ブロックは、典型的には集積回路であるLSIとして実現される。これらは個別に1チップ化されてもよいし、一部又は全てを含むように1チップ化されてもよい。
ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。
また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサーを利用してもよい。
さらには、半導体技術の進歩又は派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適応等が可能性としてありえる。
本明細書は、2005年1月26日出願の特願2005−018150に基づくものである。この内容はすべてここに含めておく。
本発明は、移動体通信システムやインターネットプロトコルを用いたパケット通信システム等における通信装置の用途に適用できる。

Claims (6)

  1. ステレオ信号の各チャネルの信号の音声情報量に応じた重み付け係数により前記各チャネルの信号を重み付けする重み付け手段と、
    重み付けされた前記各チャネルの信号を平均してモノラル信号を生成する生成手段と、
    前記モノラル信号を符号化する符号化手段と、
    を具備する音声符号化装置。
  2. 前記重み付け手段は、各チャネルの信号のエントロピーを前記音声情報量として用いて前記重み付け係数を算出する、
    請求項1記載の音声符号化装置。
  3. 前記重み付け手段は、各チャネルの信号のS/N比を前記音声情報量として用いて前記重み付け係数を算出する、
    請求項1記載の音声符号化装置。
  4. 請求項1記載の音声符号化装置を具備する無線通信移動局装置。
  5. 請求項1記載の音声符号化装置を具備する無線通信基地局装置。
  6. ステレオ信号の各チャネルの信号の音声情報量に応じた重み付け係数により前記各チャネルの信号を重み付けする重み付け工程と、
    重み付けされた前記各チャネルの信号を平均してモノラル信号を生成する生成工程と、
    前記モノラル信号を符号化する符号化工程と、
    を具備する音声符号化方法。
JP2007500549A 2005-01-26 2006-01-25 音声符号化装置および音声符号化方法 Withdrawn JPWO2006080358A1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2005018150 2005-01-26
JP2005018150 2005-01-26
PCT/JP2006/301154 WO2006080358A1 (ja) 2005-01-26 2006-01-25 音声符号化装置および音声符号化方法

Publications (1)

Publication Number Publication Date
JPWO2006080358A1 true JPWO2006080358A1 (ja) 2008-06-19

Family

ID=36740388

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007500549A Withdrawn JPWO2006080358A1 (ja) 2005-01-26 2006-01-25 音声符号化装置および音声符号化方法

Country Status (6)

Country Link
US (1) US20090055169A1 (ja)
EP (1) EP1852689A1 (ja)
JP (1) JPWO2006080358A1 (ja)
CN (1) CN101107505A (ja)
BR (1) BRPI0607303A2 (ja)
WO (1) WO2006080358A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101414341B1 (ko) * 2007-03-02 2014-07-22 파나소닉 인텔렉츄얼 프로퍼티 코포레이션 오브 아메리카 부호화 장치 및 부호화 방법
JP5596341B2 (ja) * 2007-03-02 2014-09-24 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 音声符号化装置および音声符号化方法
RU2463674C2 (ru) * 2007-03-02 2012-10-10 Панасоник Корпорэйшн Кодирующее устройство и способ кодирования
EP2133872B1 (en) 2007-03-30 2012-02-29 Panasonic Corporation Encoding device and encoding method
US9053701B2 (en) 2009-02-26 2015-06-09 Panasonic Intellectual Property Corporation Of America Channel signal generation device, acoustic signal encoding device, acoustic signal decoding device, acoustic signal encoding method, and acoustic signal decoding method
EP2439736A1 (en) * 2009-06-02 2012-04-11 Panasonic Corporation Down-mixing device, encoder, and method therefor
WO2012074503A1 (en) * 2010-11-29 2012-06-07 Nuance Communications, Inc. Dynamic microphone signal mixer
US20130315402A1 (en) * 2012-05-24 2013-11-28 Qualcomm Incorporated Three-dimensional sound compression and over-the-air transmission during a call
EP3053356B8 (en) 2013-10-30 2020-06-17 Cerence Operating Company Methods and apparatus for selective microphone signal combining
JP6501259B2 (ja) * 2015-08-04 2019-04-17 本田技研工業株式会社 音声処理装置及び音声処理方法
EP3891737B1 (en) * 2019-01-11 2024-07-03 Boomcloud 360, Inc. Soundstage-conserving audio channel summation
WO2024142360A1 (ja) * 2022-12-28 2024-07-04 日本電信電話株式会社 音信号処理装置、音信号処理方法、プログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06319200A (ja) * 1993-05-10 1994-11-15 Fujitsu General Ltd ステレオ用バランス調整装置
JP2000354300A (ja) * 1999-06-11 2000-12-19 Accuphase Laboratory Inc マルチチャンネルオーディオ再生装置
DE19959156C2 (de) * 1999-12-08 2002-01-31 Fraunhofer Ges Forschung Verfahren und Vorrichtung zum Verarbeiten eines zu codierenden Stereoaudiosignals
JP3670562B2 (ja) * 2000-09-05 2005-07-13 日本電信電話株式会社 ステレオ音響信号処理方法及び装置並びにステレオ音響信号処理プログラムを記録した記録媒体
US7177432B2 (en) * 2001-05-07 2007-02-13 Harman International Industries, Incorporated Sound processing system with degraded signal optimization
JP2003330497A (ja) * 2002-05-15 2003-11-19 Matsushita Electric Ind Co Ltd オーディオ信号の符号化方法及び装置、符号化及び復号化システム、並びに符号化を実行するプログラム及び当該プログラムを記録した記録媒体
JP4842147B2 (ja) * 2004-12-28 2011-12-21 パナソニック株式会社 スケーラブル符号化装置およびスケーラブル符号化方法
WO2006121101A1 (ja) * 2005-05-13 2006-11-16 Matsushita Electric Industrial Co., Ltd. 音声符号化装置およびスペクトル変形方法
US20090018824A1 (en) * 2006-01-31 2009-01-15 Matsushita Electric Industrial Co., Ltd. Audio encoding device, audio decoding device, audio encoding system, audio encoding method, and audio decoding method

Also Published As

Publication number Publication date
CN101107505A (zh) 2008-01-16
BRPI0607303A2 (pt) 2009-08-25
WO2006080358A1 (ja) 2006-08-03
EP1852689A1 (en) 2007-11-07
US20090055169A1 (en) 2009-02-26

Similar Documents

Publication Publication Date Title
JPWO2006080358A1 (ja) 音声符号化装置および音声符号化方法
US11978460B2 (en) Truncateable predictive coding
JP5046653B2 (ja) 音声符号化装置および音声符号化方法
JP4832305B2 (ja) ステレオ信号生成装置およびステレオ信号生成方法
US9460729B2 (en) Layered approach to spatial audio coding
US10224046B2 (en) Spatial comfort noise
KR101056325B1 (ko) 복수의 파라미터적으로 코딩된 오디오 소스들을 결합하는 장치 및 방법
JP5753540B2 (ja) ステレオ信号符号化装置、ステレオ信号復号装置、ステレオ信号符号化方法及びステレオ信号復号方法
US7904292B2 (en) Scalable encoding device, scalable decoding device, and method thereof
US7848932B2 (en) Stereo encoding apparatus, stereo decoding apparatus, and their methods
JP4887288B2 (ja) 音声符号化装置および音声符号化方法
JPWO2006118178A1 (ja) 音声符号化装置および音声符号化方法
US8036390B2 (en) Scalable encoding device and scalable encoding method
KR20070090217A (ko) 스케일러블 부호화 장치 및 스케일러블 부호화 방법
US8024187B2 (en) Pulse allocating method in voice coding
JPWO2008132826A1 (ja) ステレオ音声符号化装置およびステレオ音声符号化方法
US10242683B2 (en) Optimized mixing of audio streams encoded by sub-band encoding
Taleb et al. G. 719: The first ITU-T standard for high-quality conversational fullband audio coding
Ito et al. A Study on Effect of IP Performance Degradation on Horizontal Sound Localization in a VoIP Phone Service with 3D Sound Effects
Lee et al. Performance comparison of audio codecs for high-quality color ring-back-tone services over CDMA
Dai Yang et al. Design of Progressive Syntax-Rich Multichannel Audio Codec

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090119

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090119

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20090414