JP2002175098A - Device and method for encoding, and program, and program recording medium - Google Patents

Device and method for encoding, and program, and program recording medium

Info

Publication number
JP2002175098A
JP2002175098A JP2001287905A JP2001287905A JP2002175098A JP 2002175098 A JP2002175098 A JP 2002175098A JP 2001287905 A JP2001287905 A JP 2001287905A JP 2001287905 A JP2001287905 A JP 2001287905A JP 2002175098 A JP2002175098 A JP 2002175098A
Authority
JP
Japan
Prior art keywords
audio
signal
code string
information
stream
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001287905A
Other languages
Japanese (ja)
Inventor
Takashi Katayama
崇 片山
Masaharu Matsumoto
正治 松本
Kosuke Nishio
孝祐 西尾
Akihisa Kawamura
明久 川村
Takashi Fujita
剛史 藤田
Masahiro Sueyoshi
雅弘 末吉
Kazutada Abe
一任 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2001287905A priority Critical patent/JP2002175098A/en
Publication of JP2002175098A publication Critical patent/JP2002175098A/en
Pending legal-status Critical Current

Links

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Television Systems (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

PROBLEM TO BE SOLVED: To record information that an encoded signal contains with information in an amount less than that at its transmission. SOLUTION: This encoding device 1 is provided with a decoder which decodes a 1st stream signal, where a 1st video stream containing 1st video code sequence information having a 1st video signal encoded and a 1st audio stream containing 1st audio code sequence information having a 1st audio signal encoded are multiplexed and a re-encoder, which generates a 2nd video stream containing 2nd video code sequence information having a lower bit rate than the 1st video code sequence information and a 2nd audio stream, containing 2nd audio code sequence information having a bit rate lower than that of the 1st audio code sequence information and multiplexes the 2nd video stream and 2nd audio stream for generating a 2nd stream signal.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、符号化された信号
のビットレートを変更する符号化装置、符号化方法、符
号化処理を実行するためのプログラムおよびそのプログ
ラムが記録されたプログラム記録媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an encoding apparatus for changing the bit rate of an encoded signal, an encoding method, a program for executing an encoding process, and a program recording medium on which the program is recorded. .

【0002】[0002]

【従来の技術】一般に、テレビ番組放送等により伝送さ
れる映像情報およびオーディオ情報はビデオテープ等の
テープ媒体に記録される。このようなビデオテープに映
像情報およびオーディオ情報を記録する記録モードとし
ては標準モードとロングモードとがある。ロングモード
では、同じテープ長に標準モードよりも長時間の映像信
号およびオーディオ信号を記録することが可能である。
このような長時間の記録を実現するためにロングモード
では、映像信号の一部を削って単位時間当りの映像情報
を記録するのに必要なテープ長を短くしていた。
2. Description of the Related Art Generally, video information and audio information transmitted by television program broadcasting or the like are recorded on a tape medium such as a video tape. There are a standard mode and a long mode as recording modes for recording video information and audio information on such a video tape. In the long mode, it is possible to record video and audio signals on the same tape length for a longer time than in the standard mode.
In order to realize such a long recording, in the long mode, a part of the video signal is cut off to shorten a tape length necessary for recording video information per unit time.

【0003】[0003]

【発明が解決しようとする課題】近年、デジタル衛星放
送を実現するための具体的な技術が開発された。この放
送に用いられる映像信号およびオーディオ信号はデジタ
ル符号化された信号で伝送されることが決定している。
デジタル衛星放送ではオーディオ信号の伝送にチャンネ
ル数として5.1chが設定され、最大320kbps
の転送レートが規格化されている。
In recent years, specific techniques for realizing digital satellite broadcasting have been developed. It has been determined that the video and audio signals used for this broadcast are transmitted as digitally encoded signals.
In digital satellite broadcasting, 5.1 channels are set as the number of channels for transmitting an audio signal, and a maximum of 320 kbps is set.
Has been standardized.

【0004】デジタル衛星放送において伝送される映像
信号およびオーディオ信号の量は、従来のテレビ番組放
送よりも多くなる。これに伴い、映像情報およびオーデ
ィオ情報を記録する記録媒体としてより高密度な記録媒
体が要求され、光ディスク媒体であるDVD−RAMを
用いた記録技術も開発されている。しかしながら光ディ
スクなどの記録媒体は総記録容量が決まっている。この
ため、決められた記録容量で記録時間を長くするために
は、符号化信号が含む情報を伝送時よりも少ない情報量
で記録媒体に記録することが望ましい。
[0004] The amount of video and audio signals transmitted in digital satellite broadcasting is larger than in conventional television program broadcasting. Accordingly, a higher density recording medium is required as a recording medium for recording video information and audio information, and a recording technique using a DVD-RAM, which is an optical disk medium, has been developed. However, recording media such as optical disks have a fixed total recording capacity. For this reason, in order to lengthen the recording time with the determined recording capacity, it is desirable to record the information included in the encoded signal on the recording medium with a smaller amount of information than at the time of transmission.

【0005】本発明は、このような従来の課題を鑑みて
なされたものであり、符号化信号が含む情報を伝送時よ
りも少ない情報量で記録媒体に記録可能な符号化装置、
符号化方法を提供することを目的とする。さらに、この
ような符号化処理を実行するためのプログラムおよびそ
のプログラムが記録された記録媒体を提供することを目
的とする。
SUMMARY OF THE INVENTION The present invention has been made in view of such conventional problems, and has been made in consideration of the problems described above, and provides an encoding apparatus capable of recording information included in an encoded signal on a recording medium with a smaller amount of information than when transmitting.
It is an object to provide an encoding method. It is still another object of the present invention to provide a program for executing such encoding processing and a recording medium on which the program is recorded.

【0006】[0006]

【課題を解決するための手段】本発明の符号化装置は、
第1映像信号が符号化された第1映像符号列情報を含む
第1映像ストリームと、第1オーディオ信号が符号化さ
れた第1オーディオ符号列情報を含む第1オーディオス
トリームとが多重化された第1ストリーム信号をデコー
ドするデコーダと、デコードされた第1ストリーム信号
に基づき、第1映像符号列情報よりもビットレートが低
い第2映像符号列情報を含む第2映像ストリームと、第
1オーディオ符号列情報よりもビットレートが低い第2
オーディオ符号列情報を含む第2オーディオストリーム
とを生成し、第2映像ストリームと第2オーディオスト
リームとを多重化して第2ストリーム信号を生成するリ
エンコーダとを備え、そのことにより上記目的が達成さ
れる。
An encoding apparatus according to the present invention comprises:
A first video stream including first video code string information obtained by encoding the first video signal and a first audio stream including first audio code string information obtained by coding the first audio signal are multiplexed. A decoder for decoding the first stream signal; a second video stream including second video code string information having a lower bit rate than the first video code string information based on the decoded first stream signal; 2nd bit rate lower than column information
A re-encoder that generates a second audio stream including audio code string information, and multiplexes the second video stream and the second audio stream to generate a second stream signal, whereby the object is achieved. You.

【0007】第1オーディオ符号列情報は、第1オーデ
ィオ信号に時間−周波数変換を行って周波数領域信号に
変換し、周波数領域信号を量子化した情報であり、リエ
ンコーダは、聴覚特性によりマスキングされる第1オー
ディオ信号の周波数領域を示す聴覚心理モデル情報を算
出し、聴覚心理モデル情報に基づき、第1オーディオ符
号列情報を第1オーディオ符号列情報よりもビットレー
トの低い第2オーディオ符号列情報に変換することによ
り第2オーディオストリームを生成してもよい。
The first audio code string information is information obtained by performing time-frequency conversion on the first audio signal to convert the first audio signal into a frequency domain signal and quantizing the frequency domain signal. The re-encoder is masked based on auditory characteristics. Psychoacoustic model information indicating the frequency domain of the first audio signal is calculated, and based on the psychoacoustic model information, the first audio code string information is converted into second audio code string information having a lower bit rate than the first audio code string information. To generate the second audio stream.

【0008】周波数領域信号の量子化は、周波数領域信
号の周波数領域毎の周波数スペクトルを仮数部と指数部
とで示す量子化であり、指数部は、周波数領域毎の周波
数スペクトルのスケールファクタであり、リエンコーダ
は、量子化後の情報である周波数領域毎の周波数スペク
トルのスケールファクタに基づき、聴覚心理モデル情報
を算出し、聴覚心理モデル情報に基づき、仮数部に割り
当てられたビット数の再割り当てを行うことにより、第
1オーディオ符号列情報を第1オーディオ符号列情報よ
りもビットレートの低い第2オーディオ符号列情報に変
換してもよい。
The quantization of the frequency domain signal is a quantization in which the frequency spectrum of each frequency domain of the frequency domain signal is represented by a mantissa and an exponent, and the exponent is a scale factor of the frequency spectrum for each frequency domain. , The re-encoder calculates psychoacoustic model information based on the scale factor of the frequency spectrum for each frequency domain, which is the information after quantization, and, based on the psychoacoustic model information, reassigns the number of bits assigned to the mantissa. , The first audio code string information may be converted into second audio code string information having a lower bit rate than the first audio code string information.

【0009】周波数領域信号の量子化は、周波数領域信
号の周波数領域毎の周波数スペクトルを仮数部と指数部
とで示す量子化であり、指数部は、周波数領域毎の周波
数スペクトルのスケールファクタであり、リエンコーダ
は、第1オーディオ符号列情報を逆量子化することによ
り生成される逆量子化された周波数領域毎の周波数スペ
クトルに基づき、聴覚心理モデル情報を算出し、聴覚心
理モデル情報に基づき、仮数部に割り当てられたビット
数の再割り当てを行うことにより、第1オーディオ符号
列情報を第1オーディオ符号列情報よりもビットレート
の低い第2オーディオ符号列情報に変換してもよい。
The quantization of the frequency domain signal is a quantization in which the frequency spectrum of each frequency domain of the frequency domain signal is represented by a mantissa part and an exponent part, and the exponent part is a scale factor of the frequency spectrum for each frequency domain. , The re-encoder calculates psychoacoustic model information based on the dequantized frequency spectrum for each frequency domain generated by dequantizing the first audio code string information, and based on the psychoacoustic model information, By reassigning the number of bits assigned to the mantissa, the first audio code string information may be converted to second audio code string information having a lower bit rate than the first audio code string information.

【0010】リエンコーダは、第2オーディオストリー
ムのチャンネル数を第1オーディオストリームのチャン
ネル数よりも減じるダウンミックス処理を行う場合は、
ダウンミックス処理が行われた逆量子化された周波数領
域毎の周波数スペクトルに基づいて聴覚心理モデル情報
を算出してもよい。
[0010] The re-encoder performs downmix processing for reducing the number of channels of the second audio stream from the number of channels of the first audio stream.
The psychoacoustic model information may be calculated based on the inversely quantized frequency spectrum for each of the frequency regions subjected to the downmix processing.

【0011】第1ストリーム信号を受信する受信部と、
リエンコーダへ第2映像符号列情報および第2オーディ
オ符号列情報のビットレートを指示する制御部と、第2
ストリーム信号を記録媒体に記録する記録部とをさらに
備えてもよい。
A receiving section for receiving the first stream signal;
A control unit for instructing a bit rate of the second video code string information and the second audio code string information to the re-encoder;
A recording unit that records the stream signal on a recording medium.

【0012】本発明の符号化方法は、第1映像信号が符
号化された第1映像符号列情報を含む第1映像ストリー
ムと、第1オーディオ信号が符号化された第1オーディ
オ符号列情報を含む第1オーディオストリームとが多重
化された第1ストリーム信号をデコードする第1ステッ
プと、デコードされた第1ストリーム信号に基づき、第
1映像符号列情報よりもビットレートが低い第2映像符
号列情報を含む第2映像ストリームと、第1オーディオ
符号列情報よりもビットレートが低い第2オーディオ符
号列情報を含む第2オーディオストリームとを生成し、
第2映像ストリームと第2オーディオストリームとを多
重化して第2ストリーム信号を生成する第2ステップと
を包含する符号化方法であって、第1オーディオ符号列
情報は、第1オーディオ信号に時間−周波数変換を行っ
て周波数領域信号に変換し、周波数領域信号を量子化し
た情報であり、第2ステップは、聴覚特性によりマスキ
ングされる第1オーディオ信号の周波数領域を示す聴覚
心理モデル情報を算出する第3ステップと、聴覚心理モ
デル情報に基づき、第1オーディオ符号列情報を第1オ
ーディオ符号列情報よりもビットレートの低い第2オー
ディオ符号列情報に変換することにより第2オーディオ
ストリームを生成する第4ステップとを包含し、そのこ
とにより上記目的が達成される。
[0012] The encoding method of the present invention comprises the steps of: combining a first video stream including first video code string information in which a first video signal is encoded; and first audio code string information in which the first audio signal is encoded. A first step of decoding a first stream signal multiplexed with a first audio stream including the first audio stream, and a second video code string having a lower bit rate than the first video code string information based on the decoded first stream signal. Generating a second video stream including information and a second audio stream including second audio code string information having a lower bit rate than the first audio code string information;
A second step of multiplexing the second video stream and the second audio stream to generate a second stream signal, wherein the first audio code string information is obtained by adding a time- The information is obtained by performing frequency conversion to convert the signal into a frequency domain signal and quantizing the frequency domain signal. In the second step, psychoacoustic model information indicating the frequency domain of the first audio signal masked by the auditory characteristics is calculated. A third step of generating a second audio stream by converting the first audio code string information into second audio code string information having a lower bit rate than the first audio code string information based on the psychoacoustic model information; 4 steps, whereby the object is achieved.

【0013】周波数領域信号の量子化は、周波数領域信
号の周波数領域毎の周波数スペクトルを仮数部と指数部
とで示す量子化であり、指数部は、周波数領域毎の周波
数スペクトルのスケールファクタであり、第3ステップ
は、量子化後の情報である周波数領域毎の周波数スペク
トルのスケールファクタに基づき聴覚心理モデル情報を
算出し、第4ステップは、聴覚心理モデル情報に基づき
仮数部に割り当てられたビット数の再割り当てを行うこ
とにより、第1オーディオ符号列情報を第1オーディオ
符号列情報よりもビットレートの低い第2オーディオ符
号列情報に変換してもよい。
The quantization of the frequency domain signal is a quantization in which the frequency spectrum of each frequency domain of the frequency domain signal is represented by a mantissa and an exponent. The exponent is a scale factor of the frequency spectrum for each frequency domain. The third step calculates psychoacoustic model information based on the scale factor of the frequency spectrum for each frequency domain, which is the information after quantization, and the fourth step calculates the bits assigned to the mantissa based on the psychoacoustic model information. The first audio code string information may be converted to second audio code string information having a lower bit rate than the first audio code string information by reassigning the numbers.

【0014】周波数領域信号の量子化は、周波数領域信
号の周波数領域毎の周波数スペクトルを仮数部と指数部
とで示す量子化であり、指数部は、周波数領域毎の周波
数スペクトルのスケールファクタであり、第3ステップ
は、第1オーディオ符号列情報を逆量子化することによ
り生成される逆量子化された周波数領域毎の周波数スペ
クトルに基づき、聴覚心理モデル情報を算出し、第4ス
テップは、聴覚心理モデル情報に基づき仮数部に割り当
てられたビット数の再割り当てを行うことにより、第1
オーディオ符号列情報を第1オーディオ符号列情報より
もビットレートの低い第2オーディオ符号列情報に変換
してもよい。
The quantization of the frequency domain signal is a quantization in which the frequency spectrum of each frequency domain of the frequency domain signal is represented by a mantissa part and an exponent part, and the exponent part is a scale factor of the frequency spectrum for each frequency domain. , A third step calculates psychoacoustic model information based on a frequency spectrum of each dequantized frequency domain generated by dequantizing the first audio code string information, and a fourth step includes: By reallocating the number of bits allocated to the mantissa based on the psychological model information, the first
The audio code string information may be converted to second audio code string information having a lower bit rate than the first audio code string information.

【0015】第3ステップは、第2オーディオストリー
ムのチャンネル数を第1オーディオストリームのチャン
ネル数よりも減じるダウンミックス処理を行う場合は、
ダウンミックス処理が行われた逆量子化された周波数領
域毎の周波数スペクトルに基づいて聴覚心理モデル情報
を算出してもよい。
In the third step, when performing a downmix process of reducing the number of channels of the second audio stream from the number of channels of the first audio stream,
The psychoacoustic model information may be calculated based on the inversely quantized frequency spectrum for each of the frequency regions subjected to the downmix processing.

【0016】本発明のプログラムは、符号化処理をコン
ピュータに実行させるためのプログラムであって、符号
化処理は、第1映像信号が符号化された第1映像符号列
情報を含む第1映像ストリームと、第1オーディオ信号
が符号化された第1オーディオ符号列情報を含む第1オ
ーディオストリームとが多重化された第1ストリーム信
号をデコードする第1ステップと、デコードされた第1
ストリーム信号に基づき、第1映像符号列情報よりもビ
ットレートが低い第2映像符号列情報を含む第2映像ス
トリームと、第1オーディオ符号列情報よりもビットレ
ートが低い第2オーディオ符号列情報を含む第2オーデ
ィオストリームとを生成し、第2映像ストリームと第2
オーディオストリームとを多重化して第2ストリーム信
号を生成する第2ステップとを包含し、第1オーディオ
符号列情報は、第1オーディオ信号に時間−周波数変換
を行って周波数領域信号に変換し、周波数領域信号を量
子化した情報であり、第2ステップは、聴覚特性により
マスキングされる第1オーディオ信号の周波数領域を示
す聴覚心理モデル情報を算出する第3ステップと、聴覚
心理モデル情報に基づき、第1オーディオ符号列情報を
第1オーディオ符号列情報よりもビットレートの低い第
2オーディオ符号列情報に変換することにより第2オー
ディオストリームを生成する第4ステップとを包含し、
そのことにより上記目的が達成される。
A program according to the present invention is a program for causing a computer to execute an encoding process, wherein the encoding process includes a first video stream including first video code string information in which a first video signal is encoded. And a first step of decoding a first stream signal in which a first audio stream including first audio code string information in which the first audio signal is encoded is multiplexed.
Based on the stream signal, a second video stream including second video code string information having a lower bit rate than the first video code string information, and a second audio code string information having a lower bit rate than the first audio code string information. And generating a second audio stream including the second video stream and the second audio stream.
Multiplexing the audio stream with a second stream signal to generate a second stream signal, wherein the first audio code string information is converted into a frequency domain signal by performing time-frequency conversion on the first audio signal, A second step of calculating psychoacoustic model information indicating a frequency domain of the first audio signal masked by the auditory characteristics; and a second step based on the psychoacoustic model information. Converting the first audio code string information into second audio code string information having a lower bit rate than the first audio code string information, thereby generating a second audio stream.
Thereby, the above object is achieved.

【0017】周波数領域信号の量子化は、周波数領域信
号の周波数領域毎の周波数スペクトルを仮数部と指数部
とで示す量子化であり、指数部は、周波数領域毎の周波
数スペクトルのスケールファクタであり、第3ステップ
は、量子化後の情報である周波数領域毎の周波数スペク
トルのスケールファクタに基づき聴覚心理モデル情報を
算出し、第4ステップは、聴覚心理モデル情報に基づき
仮数部に割り当てられたビット数の再割り当てを行うこ
とにより、第1オーディオ符号列情報を第1オーディオ
符号列情報よりもビットレートの低い第2オーディオ符
号列情報に変換してもよい。
The quantization of the frequency domain signal is a quantization in which the frequency spectrum of each frequency domain of the frequency domain signal is represented by a mantissa part and an exponent part, and the exponent part is a scale factor of the frequency spectrum for each frequency domain. The third step calculates psychoacoustic model information based on the scale factor of the frequency spectrum for each frequency domain, which is the information after quantization, and the fourth step calculates the bits assigned to the mantissa based on the psychoacoustic model information. The first audio code string information may be converted to second audio code string information having a lower bit rate than the first audio code string information by reassigning the numbers.

【0018】周波数領域信号の量子化は、周波数領域信
号の周波数領域毎の周波数スペクトルを仮数部と指数部
とで示す量子化であり、指数部は、周波数領域毎の周波
数スペクトルのスケールファクタであり、第3ステップ
は、第1オーディオ符号列情報を逆量子化することによ
り生成される逆量子化された周波数領域毎の周波数スペ
クトルに基づき、聴覚心理モデル情報を算出し、第4ス
テップは、聴覚心理モデル情報に基づき仮数部に割り当
てられたビット数の再割り当てを行うことにより、第1
オーディオ符号列情報を第1オーディオ符号列情報より
もビットレートの低い第2オーディオ符号列情報に変換
してもよい。
The quantization of the frequency domain signal is a quantization in which the frequency spectrum of each frequency domain of the frequency domain signal is represented by a mantissa and an exponent. The exponent is a scale factor of the frequency spectrum for each frequency domain. , A third step calculates psychoacoustic model information based on a frequency spectrum of each dequantized frequency domain generated by dequantizing the first audio code string information, and a fourth step includes: By reallocating the number of bits allocated to the mantissa based on the psychological model information, the first
The audio code string information may be converted to second audio code string information having a lower bit rate than the first audio code string information.

【0019】第3ステップは、第2オーディオストリー
ムのチャンネル数を第1オーディオストリームのチャン
ネル数よりも減じるダウンミックス処理を行う場合は、
ダウンミックス処理が行われた逆量子化された周波数領
域毎の周波数スペクトルに基づいて聴覚心理モデル情報
を算出してもよい。
In the third step, when performing a downmix process of reducing the number of channels of the second audio stream from the number of channels of the first audio stream,
The psychoacoustic model information may be calculated based on the inversely quantized frequency spectrum for each of the frequency regions subjected to the downmix processing.

【0020】本発明の記録媒体は、符号化処理をコンピ
ュータに実行させるためのプログラムを記録したコンピ
ュータ読み取り可能な記録媒体であって、符号化処理
は、第1映像信号が符号化された第1映像符号列情報を
含む第1映像ストリームと、第1オーディオ信号が符号
化された第1オーディオ符号列情報を含む第1オーディ
オストリームとが多重化された第1ストリーム信号をデ
コードする第1ステップと、デコードされた第1ストリ
ーム信号に基づき、第1映像符号列情報よりもビットレ
ートが低い第2映像符号列情報を含む第2映像ストリー
ムと、第1オーディオ符号列情報よりもビットレートが
低い第2オーディオ符号列情報を含む第2オーディオス
トリームとを生成し、第2映像ストリームと第2オーデ
ィオストリームとを多重化して第2ストリーム信号を生
成する第2ステップとを包含し、第1オーディオ符号列
情報は、第1オーディオ信号に時間−周波数変換を行っ
て周波数領域信号に変換し、周波数領域信号を量子化し
た情報であり、第2ステップは、聴覚特性によりマスキ
ングされる第1オーディオ信号の周波数領域を示す聴覚
心理モデル情報を算出する第3ステップと、聴覚心理モ
デル情報に基づき、第1オーディオ符号列情報を第1オ
ーディオ符号列情報よりもビットレートの低い第2オー
ディオ符号列情報に変換することにより第2オーディオ
ストリームを生成する第4ステップとを包含し、そのこ
とにより上記目的が達成される。
A recording medium according to the present invention is a computer-readable recording medium on which a program for causing a computer to execute an encoding process is recorded. The encoding process includes a first encoding method in which a first video signal is encoded. Decoding a first stream signal obtained by multiplexing a first video stream including video code string information and a first audio stream including first audio code string information obtained by encoding the first audio signal; A second video stream including second video code string information having a lower bit rate than the first video code string information based on the decoded first stream signal, and a second video stream having a lower bit rate than the first audio code string information. And generating a second audio stream including the second audio code string information, and combining the second video stream and the second audio stream. Multiplexing to generate a second stream signal, the first audio code string information is converted into a frequency domain signal by performing time-frequency conversion on the first audio signal, and the frequency domain signal is quantized. A second step of calculating psychoacoustic model information indicating a frequency domain of the first audio signal masked by auditory characteristics, and a first audio code string based on the psychoacoustic model information. Converting the information into second audio code stream information having a lower bit rate than the first audio code stream information to generate a second audio stream, thereby achieving the above object.

【0021】周波数領域信号の量子化は、周波数領域信
号の周波数領域毎の周波数スペクトルを仮数部と指数部
とで示す量子化であり、指数部は、周波数領域毎の周波
数スペクトルのスケールファクタであり、第3ステップ
は、量子化後の情報である周波数領域毎の周波数スペク
トルのスケールファクタに基づき聴覚心理モデル情報を
算出し、第4ステップは、聴覚心理モデル情報に基づき
仮数部に割り当てられたビット数の再割り当てを行うこ
とにより、第1オーディオ符号列情報を第1オーディオ
符号列情報よりもビットレートの低い第2オーディオ符
号列情報に変換してもよい。
The quantization of the frequency domain signal is a quantization in which the frequency spectrum of each frequency domain of the frequency domain signal is represented by a mantissa part and an exponent part, and the exponent part is a scale factor of the frequency spectrum for each frequency domain. The third step calculates psychoacoustic model information based on the scale factor of the frequency spectrum for each frequency domain, which is the information after quantization, and the fourth step calculates the bits assigned to the mantissa based on the psychoacoustic model information. The first audio code string information may be converted to second audio code string information having a lower bit rate than the first audio code string information by reassigning the numbers.

【0022】周波数領域信号の量子化は、周波数領域信
号の周波数領域毎の周波数スペクトルを仮数部と指数部
とで示す量子化であり、指数部は、周波数領域毎の周波
数スペクトルのスケールファクタであり、第3ステップ
は、第1オーディオ符号列情報を逆量子化することによ
り生成される逆量子化された周波数領域毎の周波数スペ
クトルに基づき、聴覚心理モデル情報を算出し、第4ス
テップは、聴覚心理モデル情報に基づき仮数部に割り当
てられたビット数の再割り当てを行うことにより、第1
オーディオ符号列情報を第1オーディオ符号列情報より
もビットレートの低い第2オーディオ符号列情報に変換
してもよい。
The quantization of the frequency domain signal is a quantization in which the frequency spectrum of each frequency domain of the frequency domain signal is represented by a mantissa and an exponent, and the exponent is a scale factor of the frequency spectrum for each frequency domain. , A third step calculates psychoacoustic model information based on a frequency spectrum of each dequantized frequency domain generated by dequantizing the first audio code string information, and a fourth step includes: By reallocating the number of bits allocated to the mantissa based on the psychological model information, the first
The audio code string information may be converted to second audio code string information having a lower bit rate than the first audio code string information.

【0023】第3ステップは、第2オーディオストリー
ムのチャンネル数を第1オーディオストリームのチャン
ネル数よりも減じるダウンミックス処理を行う場合は、
ダウンミックス処理が行われた逆量子化された周波数領
域毎の周波数スペクトルに基づいて聴覚心理モデル情報
を算出してもよい。
In the third step, when performing a downmix process of reducing the number of channels of the second audio stream from the number of channels of the first audio stream,
The psychoacoustic model information may be calculated based on the inversely quantized frequency spectrum for each of the frequency regions subjected to the downmix processing.

【0024】[0024]

【発明の実施の形態】(実施の形態1)図1に本発明の
実施の形態1における符号化装置1000を示す。
(Embodiment 1) FIG. 1 shows an encoding apparatus 1000 according to Embodiment 1 of the present invention.

【0025】符号化装置1000は、デジタル衛星放送
および光ディスク媒体等により供給される符号化された
ストリーム信号120を受信する第1受信部101と、
第1受信部101により受信されたストリーム信号12
0をデコードすることにより、システム情報信号12
1、映像信号127およびオーディオ信号126を生成
するデコーダ106と、システム情報信号121、映像
信号127およびオーディオ信号126を符号化するこ
とにより、ストリーム信号120が含む映像情報および
オーディオ情報よりもビットレートを低くした映像情報
およびオーディオ情報を含むストリーム信号122を生
成するリエンコーダ102と、ストリーム信号122が
含む映像情報、オーディオ情報およびシステム情報を光
ディスク媒体等の記録媒体107に記録する記録再生部
104と、リモコン108等からの無線信号125を受
信し、受信信号124を出力する第2受信部と、各信号
の送受信を媒介するバス109と、符号化装置1000
内の信号処理を制御する制御部105とを備える。
The encoding apparatus 1000 includes: a first receiving unit 101 that receives an encoded stream signal 120 supplied by digital satellite broadcasting and an optical disk medium;
Stream signal 12 received by first receiving section 101
0, the system information signal 12
1. The decoder 106 that generates the video signal 127 and the audio signal 126 and the encoding of the system information signal 121, the video signal 127, and the audio signal 126 make the bit rate lower than the video information and the audio information included in the stream signal 120. A re-encoder 102 for generating a stream signal 122 including lowered video information and audio information, a recording / reproducing unit 104 for recording the video information, audio information and system information included in the stream signal 122 on a recording medium 107 such as an optical disk medium; A second receiving unit that receives a wireless signal 125 from the remote controller 108 or the like and outputs a received signal 124; a bus 109 that mediates transmission and reception of each signal;
And a control unit 105 for controlling the signal processing in the inside.

【0026】ストリーム信号120は、例えばデジタル
衛星放送等の伝送媒体から送信されたトランスポートス
トリーム(TS)信号または記録媒体から読み出された
プログラムストリーム(PS)信号等である。一例とし
て、TS信号およびPS信号の構成を図9および図10
に示す。
The stream signal 120 is, for example, a transport stream (TS) signal transmitted from a transmission medium such as digital satellite broadcasting or a program stream (PS) signal read from a recording medium. As an example, the configurations of the TS signal and the PS signal are shown in FIGS.
Shown in

【0027】図9を参照して、PS信号は複数のパック
901を含み、各パック901はパックヘッダ911、
システムヘッダ912、PES(Packetized
Elementary stream)パケット91
3を含む。各PESパケット913は映像情報を示すビ
デオエレメンタリーストリーム922またはオーディオ
情報を示すオーディオエレメンタリーストリーム923
を含む。ビデオおよびオーディオエレメンタリーストリ
ーム922および923にはそれぞれPESパケットヘ
ッダ921が付加される。PESパケットヘッダ921
は、符号化信号固有の情報を示すシステム情報として各
エレメンタリーストリームを識別するコード、パケット
のサイズ、タイムスタンプであるPTS(Presen
tation Time Stamp)およびDTS
(Decoding Time Stamp)、チャン
ネル数情報等を含む。各パック901にはパックヘッダ
911およびシステムヘッダ912が付加されている。
パックヘッダ911は、システム情報としてパックの開
始コードおよびSCR(System ClockRe
ference)等を含む。システムヘッダ912は、
システム情報として各エレメンタリーストリームのビッ
トレートおよびバッファサイズ等を含む。
Referring to FIG. 9, the PS signal includes a plurality of packs 901, each of which includes a pack header 911,
System header 912, PES (Packetized)
Elementary stream) packet 91
3 inclusive. Each PES packet 913 includes a video elementary stream 922 indicating video information or an audio elementary stream 923 indicating audio information.
including. A PES packet header 921 is added to each of the video and audio elementary streams 922 and 923. PES packet header 921
Is a code for identifying each elementary stream as system information indicating information unique to an encoded signal, a packet size, and a PTS (Presen) which is a time stamp.
station Time Stamp) and DTS
(Decoding Time Stamp), channel number information, and the like. Each pack 901 has a pack header 911 and a system header 912 added thereto.
The pack header 911 includes a pack start code and an SCR (System Clock Re
reference). The system header 912 is
The system information includes the bit rate and buffer size of each elementary stream.

【0028】図10を参照して、TS信号は複数のTS
パケット951を含む。各TSパケット951にはアダ
プテーションフィールド962および963およびペイ
ロード962’および963’の少なくとも一方が含ま
れる。アダプテーションフィールド962および963
はシステム情報としてタイムスタンプであるPCR(P
rogram Clock Reference)を含
み、各ペイロード962’および963’は映像情報お
よびオーディオ情報の何れかであり、各ペイロード96
2’および963’はビデオおよびオーディオエレメン
タリーストリームに対応する。アダプテーションフィー
ルド962および963およびペイロード962’およ
び963’にはパケットヘッダ961が付加され、パケ
ットヘッダ961はシステム情報としてパケット識別
子、フラグ情報、チャンネル数情報およびビットレート
を含む。
Referring to FIG. 10, a TS signal includes a plurality of TSs.
Packet 951. Each TS packet 951 includes at least one of adaptation fields 962 and 963 and payloads 962 'and 963'. Adaptation fields 962 and 963
Is a PCR (P
program Clock Reference), each payload 962 'and 963' is either video information or audio information, and each payload 962 'and 963'
2 'and 963' correspond to video and audio elementary streams. A packet header 961 is added to the adaptation fields 962 and 963 and the payloads 962 ′ and 963 ′, and the packet header 961 includes packet identifier, flag information, channel number information, and bit rate as system information.

【0029】符号化装置1000では、記録媒体107
に情報を記録する記録モードとしては標準モードとロン
グモードとが選択できる。ロングモードでは標準モード
よりも長時間の情報を記録することが可能である。標準
モードおよびロングモードの何れで記録を行うかの命令
は、例えばリモコン108により第2受信部103に与
えられる。制御部105は第2受信部103から出力さ
れる受信信号124を受け取り、標準モードおよびロン
グモードの何れのモードで記録を行うかを決定する。
In the encoding device 1000, the recording medium 107
A standard mode and a long mode can be selected as a recording mode for recording information in the first mode. In the long mode, it is possible to record information for a longer time than in the standard mode. An instruction to perform recording in the standard mode or the long mode is given to the second receiving unit 103 by the remote controller 108, for example. The control unit 105 receives the reception signal 124 output from the second reception unit 103, and determines whether to perform recording in the standard mode or the long mode.

【0030】標準モードで記録を行う場合、第1受信部
101が受信したストリーム信号120はバス109を
介して直接記録再生部120に出力され、ストリーム信
号120が含む映像情報、オーディオ情報およびシステ
ム情報はレーザ光130により記録媒体107へ記録さ
れる。
When recording is performed in the standard mode, the stream signal 120 received by the first receiving unit 101 is directly output to the recording / reproducing unit 120 via the bus 109, and the video information, the audio information, and the system information included in the stream signal 120 are included. Is recorded on the recording medium 107 by the laser beam 130.

【0031】一方、ロングモードで記録を行う場合、第
1受信部101が受信したストリーム信号120はデコ
ーダ106に出力される。
On the other hand, when recording is performed in the long mode, the stream signal 120 received by the first receiving unit 101 is output to the decoder 106.

【0032】図11に符号化装置1000の動作を示す
フローチャートを示す。
FIG. 11 is a flowchart showing the operation of the encoding apparatus 1000.

【0033】図1を参照して、デコーダ106は、シス
テムデコーダ144と、オーディオデコーダ145と、
ビデオデコーダ146とを備える。ストリーム信号12
0は先ずシステムデコーダ144に入力される。入力さ
れたストリーム信号120は、システムデコーダ144
が備えるデマルチプレクサにより、ビデオエレメンタリ
ーストリーム128、オーディオエレメンタリーストリ
ーム129およびシステム情報ストリームとに分離され
る。システムデコーダ144はシステム情報ストリーム
をデコードしてシステム情報信号121を生成する。ビ
デオエレメンタリーストリーム128はビデオデコーダ
146に入力される。ビデオデコーダ146はビデオエ
レメンタリーストリーム128をデコードして映像信号
127を生成する(S101)。システムデコーダ14
4およびビデオデコーダ146での信号処理は当業者に
は周知の技術を用いて行われるので本明細書中での詳細
な説明は省略する。オーディオエレメンタリーストリー
ム129はオーディオデコーダ145に入力される。オ
ーディオデコーダ145はオーディオエレメンタリース
トリーム129をデコードしてオーディオ信号126を
生成する(S102)。オーディオデコーダ145での
デコード処理を図2を参照して説明する。
Referring to FIG. 1, decoder 106 includes a system decoder 144, an audio decoder 145,
And a video decoder 146. Stream signal 12
0 is first input to the system decoder 144. The input stream signal 120 is output to the system decoder 144.
Are separated into a video elementary stream 128, an audio elementary stream 129, and a system information stream. The system decoder 144 decodes the system information stream to generate a system information signal 121. The video elementary stream 128 is input to the video decoder 146. The video decoder 146 decodes the video elementary stream 128 to generate a video signal 127 (S101). System decoder 14
4 and the signal processing in the video decoder 146 are performed by using a technique well known to those skilled in the art, and a detailed description thereof will be omitted. The audio elementary stream 129 is input to the audio decoder 145. The audio decoder 145 decodes the audio elementary stream 129 to generate an audio signal 126 (S102). The decoding process in the audio decoder 145 will be described with reference to FIG.

【0034】図2にオーディオデコーダ145内部を示
す。オーディオデコーダ145は、符号列入力部201
と、符号列分解部202と、記憶部203と、逆量子化
部208と、周波数−時間変換部211と、時間領域ダ
ウンミックス部212とを備える。
FIG. 2 shows the inside of the audio decoder 145. The audio decoder 145 includes a code string input unit 201
, A code sequence decomposition unit 202, a storage unit 203, an inverse quantization unit 208, a frequency-time conversion unit 211, and a time domain downmix unit 212.

【0035】オーディオエレメンタリーストリーム12
9は符号列入力部201に入力される。符号列入力部2
01はバッファとして機能し得、オーディオエレメンタ
リーストリーム129をオーディオ情報を含む入力符号
列信号221として出力する。入力符号列信号221
は、時系列信号を周波数領域信号に変換した後、周波数
領域信号を仮数部とスケールファクタとに量子化するこ
とにより生成された複数の量子化信号を符号化した信号
である。さらに詳細には、入力符号列信号221は、オ
ーディオ信号に時間−周波数変換を行って周波数領域信
号に変換し、周波数領域信号を量子化した符号列情報を
含む。周波数領域信号の量子化は、周波数領域信号の周
波数領域毎の周波数スペクトルを仮数部と指数部とで示
す量子化である。指数部は周波数領域毎の周波数スペク
トルのスケールファクタである。
Audio elementary stream 12
9 is input to the code string input unit 201. Code string input unit 2
01 can function as a buffer, and outputs the audio elementary stream 129 as an input code string signal 221 including audio information. Input code string signal 221
Is a signal obtained by encoding a plurality of quantized signals generated by converting a time-series signal into a frequency domain signal and then quantizing the frequency domain signal into a mantissa and a scale factor. More specifically, the input code string signal 221 includes code string information obtained by performing time-frequency conversion on an audio signal, converting the audio signal into a frequency domain signal, and quantizing the frequency domain signal. The quantization of the frequency domain signal is a quantization in which the frequency spectrum of each frequency domain of the frequency domain signal is represented by a mantissa part and an exponent part. The exponent is the scale factor of the frequency spectrum for each frequency domain.

【0036】符号列分解部202は、符号列入力部20
1から出力された入力符号列信号221を解析して符号
列情報信号222に復号する。符号列情報信号222
は、周波数スペクトルの指数部の情報を示すスケールフ
ァクタ情報、周波数スペクトルの仮数部情報、仮数部に
割り当てられたビット数を示すビット割り当て情報等の
量子化された情報を含む。この符号列情報信号222は
記憶部203に記憶される。逆量子化部208は符号列
情報信号222を記憶部203から読み出して逆量子化
し、各チャンネル毎に周波数領域により分けられたスペ
クトル信号223を生成する。周波数−時間変換部21
1はこのスペクトル信号223を時間軸データ信号22
4に変換する。
The code string disassembling section 202 is provided with the code string input section 20.
The input code string signal 221 output from 1 is analyzed and decoded into a code string information signal 222. Code string information signal 222
Includes quantized information such as scale factor information indicating the information of the exponent part of the frequency spectrum, mantissa information of the frequency spectrum, and bit allocation information indicating the number of bits allocated to the mantissa. This code string information signal 222 is stored in the storage unit 203. The inverse quantization unit 208 reads out the code string information signal 222 from the storage unit 203 and inversely quantizes the code sequence information signal 222 to generate a spectrum signal 223 divided for each channel by a frequency domain. Frequency-time converter 21
1 converts this spectrum signal 223 into the time axis data signal 22
Convert to 4.

【0037】入力符号列信号221と出力符号列信号2
28とでオーディオ情報のチャンネル数が異なる場合、
ダウンミックス処理が行われる。この場合、時間領域ダ
ウンミックス部212は制御部105からの制御信号1
23により出力符号列信号228のチャンネル数を決定
する。時間領域ダウンミックス部212は、チャンネル
数が出力符号列信号228のチャンネル数となるように
時間軸データ信号224にダウンミックス処理を行う。
ダウンミックス処理により時間軸データ信号224は時
間領域信号225に変換される。時間領域信号225は
オーディオ信号126としてリエンコーダ102へ出力
される。
The input code string signal 221 and the output code string signal 2
If the number of audio information channels differs between
Downmix processing is performed. In this case, the time-domain downmix unit 212 outputs the control signal 1 from the control unit 105.
23 determines the number of channels of the output code string signal 228. The time domain downmix unit 212 performs a downmix process on the time axis data signal 224 such that the number of channels is equal to the number of channels of the output code string signal 228.
The time axis data signal 224 is converted into a time domain signal 225 by the downmix process. The time domain signal 225 is output to the re-encoder 102 as the audio signal 126.

【0038】尚、入力符号列信号221と出力符号列信
号228とのチャンネル数が同じ場合、ダウンミックス
処理は行われず、時間軸データ信号224がオーディオ
信号126としてリエンコーダ102へ出力される。
When the number of channels of the input code string signal 221 and the number of channels of the output code string signal 228 are the same, the downmix process is not performed, and the time axis data signal 224 is output to the re-encoder 102 as the audio signal 126.

【0039】図1を参照して、リエンコーダ102は、
システムエンコーダ141と、オーディオエンコーダ1
42と、ビデオエンコーダ143とを備える。システム
エンコーダ141にはシステム情報信号121が入力さ
れ、オーディオエンコーダ142にはオーディオ信号1
26が入力され、ビデオエンコーダ143には映像信号
127が入力される。
Referring to FIG. 1, re-encoder 102 includes:
System encoder 141 and audio encoder 1
42 and a video encoder 143. The system information signal 121 is input to the system encoder 141, and the audio signal 1 is input to the audio encoder 142.
26, and the video signal 127 is input to the video encoder 143.

【0040】システムエンコーダ141は、デコーダ1
06およびリエンコーダ102において変更されるビッ
トレート、チャンネル数および時間情報等に応じてシス
テム情報信号を作成し直す。ビデオエンコーダ143
は、周知のMPEG(Moving Picture
Experts Group)規格等の映像圧縮技術を
用いて映像信号127に符号化処理を行い、制御信号1
23が示すビットレートの映像情報を含むビデオエレメ
ンタリーストリーム151を生成する(S103)。制
御信号123が示すビットレートはビデオエレメンタリ
ーストリーム128のビットレートよりも低い。この低
いビットレートとなるように映像信号127の符号化処
理を行うことにより、圧縮された映像情報が生成され
る。ビデオエレメンタリーストリーム151はシステム
エンコーダ141へ出力される。システムエンコーダ1
41およびビデオエンコーダ143での信号処理は当業
者には周知の技術を用いて行われるので本明細書中での
詳細な説明は省略する。
The system encoder 141 includes the decoder 1
06 and the system information signal are re-created according to the bit rate, the number of channels, and the time information changed in the re-encoder 102. Video encoder 143
Is a well-known MPEG (Moving Picture)
An encoding process is performed on the video signal 127 using a video compression technique such as the Experts Group standard, and the control signal 1
The video elementary stream 151 including the video information of the bit rate indicated by 23 is generated (S103). The bit rate indicated by the control signal 123 is lower than the bit rate of the video elementary stream 128. By performing the encoding process of the video signal 127 so as to have this low bit rate, compressed video information is generated. The video elementary stream 151 is output to the system encoder 141. System encoder 1
Since signal processing in the video encoder 41 and the video encoder 143 is performed using a technique well known to those skilled in the art, detailed description thereof will be omitted.

【0041】図2を参照して、オーディオエンコーダ1
42の符号化処理を説明する。オーディオエンコーダ1
42は、時間−周波数変換部213と、量子化部214
と、符号化部205とを備える。時間−周波数変換部2
13はオーディオ信号126として時間軸データ信号2
24または時間領域信号225を入力してスペクトル信
号226に変換する。量子化部214はスペクトル信号
226を量子化することにより量子化信号227を生成
する。符号化部205は、制御部105からの制御信号
123が示すビットレートになるよう量子化信号227
を再符号化する。制御信号123が示すビットレートは
オーディオエレメンタリーストリーム129のビットレ
ートよりも低い。この低いビットレートとなるように量
子化信号227を再符号化することにより、ビットレー
トの低いオーディオ情報を含む出力符号列信号228が
生成される(S104)。出力符号列信号228はオー
ディオエレメンタリーストリーム150としてシステム
エンコーダ141へ出力される。
Referring to FIG. 2, audio encoder 1
The encoding process of No. 42 will be described. Audio encoder 1
42 is a time-frequency conversion unit 213 and a quantization unit 214
And an encoding unit 205. Time-frequency converter 2
13 is a time axis data signal 2 as an audio signal 126.
24 or a time domain signal 225 is input and converted into a spectrum signal 226. The quantization unit 214 generates a quantized signal 227 by quantizing the spectrum signal 226. The encoding unit 205 controls the quantization signal 227 so that the bit rate indicated by the control signal 123 from the control unit 105 becomes the bit rate.
Is re-encoded. The bit rate indicated by the control signal 123 is lower than the bit rate of the audio elementary stream 129. By re-encoding the quantized signal 227 so as to have the low bit rate, an output code string signal 228 including audio information with a low bit rate is generated (S104). The output code string signal 228 is output to the system encoder 141 as the audio elementary stream 150.

【0042】オーディオエレメンタリーストリーム15
0、ビデオエレメンタリーストリーム151およびシス
テム情報信号は、システムエンコーダ141が備えるマ
ルチプレクサにより組み合わされてストリーム信号12
2が生成される(S105)。ストリーム信号122は
図9および図10を参照して上述したプログラムストリ
ームまたはトランスポートストリームのフォーマットで
構成され得る。
Audio elementary stream 15
0, the video elementary stream 151 and the system information signal are combined by a multiplexer provided in the system encoder 141 to form a stream signal 12.
2 is generated (S105). The stream signal 122 can be configured in the format of the program stream or the transport stream described above with reference to FIGS.

【0043】ストリーム信号122は、バス109を介
して記録再生部120に出力され、ストリーム信号12
2が含む映像情報、オーディオ情報およびシステム情報
はレーザ光130により記録媒体107へ記録される。
The stream signal 122 is output to the recording / reproducing unit 120 via the bus 109,
The video information, audio information and system information included in 2 are recorded on the recording medium 107 by the laser beam 130.

【0044】記録媒体107に記録された映像情報、オ
ーディオ情報およびシステム情報の再生は、記録媒体1
07から反射したレザー光131を記録再生部120が
受け取り、ストリーム信号120(またはストリーム信
号122)に変換することにより行われる。デコーダ1
06は、記録再生部120から出力されるストリーム信
号120(またはストリーム信号122)をデコードし
てオーディオ信号126および映像信号127を生成す
る。オーディオ信号126および映像信号127は外部
へ出力されてD/Aコンバータ(図示せず)でアナログ
信号に変換されてディスプレイ(図示せず)およびスピ
ーカ(図示せず)へ出力される。
The reproduction of the video information, audio information, and system information recorded on the recording medium 107 is performed on the recording medium 1.
The recording / reproducing unit 120 receives the laser beam 131 reflected from the signal 07 and converts it into a stream signal 120 (or a stream signal 122). Decoder 1
Reference numeral 06 decodes the stream signal 120 (or the stream signal 122) output from the recording / reproducing unit 120 to generate an audio signal 126 and a video signal 127. The audio signal 126 and the video signal 127 are output to the outside, converted into analog signals by a D / A converter (not shown), and output to a display (not shown) and a speaker (not shown).

【0045】なお、本発明においてはデコーダ106と
リエンコーダ102とが一体化されてもよい。この場
合、例えば、デコーダ106とリエンコーダ102とが
同一基板上に実装される。
In the present invention, the decoder 106 and the re-encoder 102 may be integrated. In this case, for example, the decoder 106 and the re-encoder 102 are mounted on the same substrate.

【0046】また、図3に示す符号化装置1001のよ
うに、デコーダ106に加えてデコーダ106’がリエ
ンコーダ102内に設けられてもよい。デコーダ10
6’は図1に示すデコーダ106と同様にシステムデコ
ーダ、オーディオデコーダおよびビデオデコーダを備
え、ストリーム信号120をデコードすることにより映
像信号、オーディオ信号およびシステム情報信号を生成
する。デコーダ106’が生成したこれらの信号はシス
テムエンコーダ141、オーディオエンコーダ142お
よびビデオエンコーダ143に入力されストリーム信号
122が生成される。また、符号化装置1001におい
て、デコーダ106は記録再生部120から出力される
ストリーム信号120またはストリーム信号122をデ
コードしてオーディオ信号126’および映像信号12
7’を外部へ出力する。
As in the encoding device 1001 shown in FIG. 3, a decoder 106 ′ may be provided in the re-encoder 102 in addition to the decoder 106. Decoder 10
Reference numeral 6 'includes a system decoder, an audio decoder, and a video decoder similarly to the decoder 106 shown in FIG. 1, and generates a video signal, an audio signal, and a system information signal by decoding the stream signal 120. These signals generated by the decoder 106 'are input to a system encoder 141, an audio encoder 142, and a video encoder 143, and a stream signal 122 is generated. Further, in the encoding device 1001, the decoder 106 decodes the stream signal 120 or the stream signal 122 output from the recording / reproducing section 120 to decode the audio signal 126 ′ and the video signal 12 ′.
7 'is output to the outside.

【0047】上述のように本実施の形態によれば、スト
リーム信号120が含むオーディオ情報のビットレート
を下げることにより記録媒体107に記録する情報量を
減らすことが出来る。従って、ストリーム信号120に
含まれる情報をそのまま記録媒体107に記録する場合
と比べて、長時間の情報を記録媒体107に記録するこ
とが出来る。
As described above, according to the present embodiment, the amount of information recorded on the recording medium 107 can be reduced by reducing the bit rate of the audio information included in the stream signal 120. Therefore, compared to a case where the information included in the stream signal 120 is recorded on the recording medium 107 as it is, a longer time information can be recorded on the recording medium 107.

【0048】また、映像情報およびオーディオ情報の両
方のビットレートを下げることにより、映像情報のみの
ビットレートを下げる場合に比べて記録媒体107に記
録する情報量を減らすことが出来る。従って、映像情報
のみのビットレートを下げる場合よりも長時間の情報を
記録媒体107に記録することが出来る。
By reducing the bit rates of both the video information and the audio information, the amount of information to be recorded on the recording medium 107 can be reduced as compared with the case where the bit rate of only the video information is reduced. Therefore, it is possible to record information on the recording medium 107 for a longer time than when the bit rate of only the video information is reduced.

【0049】また、オーディオ情報のビットレートを下
げることに加えて、デコードしたオーディオ信号にダウ
ンミックス処理を行うことにより、さらにオーディオ信
号の情報量を減らすことが出来るので、より長時間の情
報を記録媒体107に記録することが出来る。
In addition to lowering the bit rate of the audio information, by performing downmix processing on the decoded audio signal, the information amount of the audio signal can be further reduced, so that information for a longer time can be recorded. It can be recorded on the medium 107.

【0050】(実施の形態2)図4に、本発明の実施の
形態2におけるオーディオデコーダ401およびオーデ
ィオエンコーダ402を示す。オーディオデコーダ40
1およびオーディオエンコーダ402は、図2に示すオ
ーディオデコーダ145およびオーディオエンコーダ1
42と置き替えられて、図1に示す符号化装置1000
に搭載される。本実施の形態では、入力符号列と出力符
号列のチャンネル数が同じであるとする。なお、システ
ムデコーダ144およびビデオデコーダ146、システ
ムエンコーダ141およびビデオエンコーダ143の動
作は実施の形態1と同様である。
(Embodiment 2) FIG. 4 shows an audio decoder 401 and an audio encoder 402 according to Embodiment 2 of the present invention. Audio decoder 40
1 and the audio encoder 402 are the audio decoder 145 and the audio encoder 1 shown in FIG.
42, the encoding device 1000 shown in FIG.
Mounted on In the present embodiment, it is assumed that the number of channels of the input code string is the same as the number of channels of the output code string. The operations of system decoder 144 and video decoder 146, and system encoder 141 and video encoder 143 are the same as those in the first embodiment.

【0051】オーディオデコーダ401は、符号列入力
部201と符号列分解部202とを備える。実施の形態
1と同様に、オーディオエレメンタリーストリーム12
9は符号列入力部201に入力される。符号列入力部2
01はバッファとして機能し得、オーディオエレメンタ
リーストリーム129をオーディオ情報を含む入力符号
列信号221として出力する。符号列分解部202は符
号列入力部201から出力された入力符号列信号221
を解析して符号列情報信号222に復号する。符号列情
報信号222は、周波数スペクトルの指数部の情報を示
すスケールファクタ情報、周波数スペクトルの仮数部情
報、仮数部に割り当てられたビット数を示すビット割り
当て情報等を含む。符号列情報信号222はオーディオ
信号126(図1)としてオーディオエンコーダ402
へ出力される。
The audio decoder 401 includes a code string input unit 201 and a code string decomposition unit 202. As in the first embodiment, the audio elementary stream 12
9 is input to the code string input unit 201. Code string input unit 2
01 can function as a buffer, and outputs the audio elementary stream 129 as an input code string signal 221 including audio information. The code sequence decomposing unit 202 receives the input code sequence signal 221 output from the code sequence input unit 201.
Is analyzed and decoded into a code string information signal 222. The code string information signal 222 includes scale factor information indicating information of the exponent part of the frequency spectrum, mantissa information of the frequency spectrum, bit allocation information indicating the number of bits allocated to the mantissa, and the like. The code string information signal 222 is converted into an audio signal 126 (FIG. 1) by the audio encoder 402.
Output to

【0052】図12はオーディオエンコーダ402の符
号化処理を示すフローチャートである。
FIG. 12 is a flowchart showing the encoding process of the audio encoder 402.

【0053】図4および図12を参照して、オーディオ
エンコーダ402の符号化処理を説明する。オーディオ
エンコーダ402は、記憶部403と、聴覚心理モデル
計算部404と、符号化部405とを備える。オーディ
オ信号126としてオーディオエンコーダ402に入力
された符号列情報信号222は記憶部403に格納され
る。
The encoding process of the audio encoder 402 will be described with reference to FIGS. The audio encoder 402 includes a storage unit 403, a psychoacoustic model calculation unit 404, and an encoding unit 405. The code string information signal 222 input to the audio encoder 402 as the audio signal 126 is stored in the storage unit 403.

【0054】聴覚心理モデル計算部404は、記憶部2
03から符号列情報信号222読み出し、符号列情報信
号222に含まれるオーディオ信号を用いて聴覚心理モ
デルを計算する。通常、聴覚心理モデルは周波数スペク
トル情報を用いて計算される。しかし、本実施の形態で
は、周波数スペクトル情報の代わりにスケールファクタ
情報を用いて聴覚心理モデルを計算する(S201、S
202)。スケールファクタ情報を用いて聴覚心理モデ
ルを計算することにより、周波数スペクトル情報を用い
た場合よりも信号処理を高速に行うことが出来る。
The psychoacoustic model calculation unit 404 stores in the storage unit 2
The code sequence information signal 222 is read from the code sequence 03, and the psychoacoustic model is calculated using the audio signal included in the code sequence information signal 222. Usually, the psychoacoustic model is calculated using frequency spectrum information. However, in the present embodiment, the psychoacoustic model is calculated using scale factor information instead of frequency spectrum information (S201, S201).
202). By calculating the psychoacoustic model using the scale factor information, the signal processing can be performed faster than in the case where the frequency spectrum information is used.

【0055】図5(a)〜(d)にオーディオ信号に含
まれる符号列情報から聴覚心理モデルを計算する手順を
示す。図5(a)に示すように、各周波数領域f1
2、f 3、f4、f5、f6におけるスペクトル信号のレ
ベルを夫々a1、a2、a3、a4、a5、a6とする。スペ
クトル信号のレベルa1〜a6の中ではレベルa1、a3
5が大きいので、図5(b)に示すような聴感マスキ
ング曲線Aが得られる。一方、受聴者の最低可聴閾値は
一般に図5(c)に示すような曲線Bとなる。このよう
な聴感マスキング曲線と最低可聴閾値とを組み合わせる
と、図5(d)に示すような総合マスキング曲線Cが得
られる。総合マスキング曲線Cは各周波数領域のマスキ
ング閾値をつなぎ合わせた曲線である。総合マスキング
曲線C以下(すなわちマスキング閾値以下)のレベルを
有するスペクトル信号a2、a4、a6は聴感上受聴者に
聞き取られないので、削除されても聴覚上は同じ音に聞
こえる。従って、聴覚心理モデル計算部404はレベル
1、a3、a5を有するスペクトル信号のみを出力すれ
ばよいことを示す聴覚心理モデル情報を含む聴覚心理モ
デル情報信号421を符号化部405へ出力する。
FIGS. 5A to 5D show the audio signals included in the audio signal.
Procedure to calculate the psychoacoustic model from the encoded code string information
Show. As shown in FIG. 5A, each frequency region f1,
fTwo, F Three, FFour, FFive, F6Of the spectral signal at
Bell each1, ATwo, AThree, AFour, AFive, A6And Spec
Level of the signal a1~ A6Within level a1, AThree,
a FiveIs large, so that the auditory masking as shown in FIG.
A curve A is obtained. On the other hand, the lowest audible threshold of the listener is
Generally, the curve B is as shown in FIG. like this
The optimal auditory masking curve with the lowest audible threshold
And an overall masking curve C as shown in FIG.
Can be The total masking curve C is the masking curve for each frequency domain.
It is a curve obtained by connecting the threshold values. Comprehensive masking
The level below curve C (ie below the masking threshold)
Having a spectral signal aTwo, AFour, A6Is to the listener
Since it cannot be heard, even if it is deleted,
Exceed Therefore, the psychoacoustic model calculation unit 404 sets the level
a1, AThree, AFiveOutput only the spectral signal with
Psychoacoustic model including psychoacoustic model information
The Dell information signal 421 is output to the encoding unit 405.

【0056】聴覚心理モデル情報信号421に含まれる
スペクトル信号は、 F*x∧(α*S) で示される形式に聴覚心理モデル計算部404において
変換されている。
The spectral signal included in the psychoacoustic model information signal 421 has been converted by the psychoacoustic model calculation unit 404 into a format represented by F * x∧ (α * S).

【0057】但し、Fは仮数部情報、Sはスケールファ
クタ、xは指数部の底、αは定数、∧は巾乗記号であ
る。
Where F is the mantissa information, S is the scale factor, x is the base of the exponent, α is a constant, and ∧ is the power-of-power symbol.

【0058】本実施の形態の聴覚心理モデル計算部40
4は、符号列情報信号222に含まれるスペクトル信号
1、a3、a5に対応するスケールファクタs1、s3
5の値に基づいた総合マスキング曲線Cを聴覚心理モ
デルとして計算する。このような聴覚心理モデル情報を
含む聴覚心理モデル情報信号421は符号化部405へ
出力される。
The psychoacoustic model calculator 40 of the present embodiment.
4 is a scale factor s 1 , s 3 , corresponding to the spectrum signals a 1 , a 3 , a 5 included in the code sequence information signal 222.
the overall masking curve C based on the value of s 5 is calculated as the psychoacoustic model. The psychoacoustic model information signal 421 including such psychoacoustic model information is output to the encoding unit 405.

【0059】符号化部405は、総合マスキング曲線C
に従って、各バンド毎へのビット割り当てを決定する。
ビット割り当て方法は任意であり、例えば、総合マスキ
ング曲線Cと各スペクトル信号の比であるSMR(Sp
ectol To Masking Ratio)とビ
ットレートとから各バンド毎へのビット割当量が決定さ
れる。符号化部405は、決定されたビット割当量に従
って、スペクトル信号の仮数部情報Fのビット数を見積
もる。尚、ビットレート情報で指定されるビットレート
は、符号化方法で規定された範囲内の任意の値のビット
レートを取ることができる。符号化部405は、計算さ
れた聴覚心理モデルと、制御部105から出力される制
御信号123が示すビットレート情報に基づいて、平均
ビットレートが指定されたビットレートとなるように符
号列情報信号222を再符号化し、出力符号列信号42
2を生成する(S204)。制御信号123が示すビッ
トレートはオーディオストリーム信号129のビットレ
ートよりも低い。この低いビットレートとなるように符
号列情報信号222を再符号化することにより、ビット
レートの低いオーディオ情報を含む出力符号列信号42
2がオーディオストリーム信号150として生成され
る。
The encoding unit 405 calculates the total masking curve C
, Bit allocation for each band is determined.
The bit allocation method is arbitrary, and for example, SMR (SpR) which is a ratio between the total masking curve C and each spectrum signal.
The amount of bits to be allocated to each band is determined based on the E.tol To Masking Ratio) and the bit rate. The encoding unit 405 estimates the number of bits of the mantissa information F of the spectrum signal according to the determined bit allocation amount. The bit rate specified by the bit rate information can take a bit rate of an arbitrary value within a range specified by the encoding method. Encoding section 405 generates a code sequence information signal based on the calculated psychoacoustic model and the bit rate information indicated by control signal 123 output from control section 105 such that the average bit rate becomes the specified bit rate. 222 is re-encoded and the output code string signal 42
2 is generated (S204). The bit rate indicated by the control signal 123 is lower than the bit rate of the audio stream signal 129. By re-encoding the code string information signal 222 so as to have the low bit rate, the output code string signal 42 including audio information with a low bit rate is output.
2 is generated as the audio stream signal 150.

【0060】実施の形態1と同様に、オーディオエレメ
ンタリーストリーム150、ビデオエレメンタリースト
リーム151およびシステム情報信号は、システムエン
コーダ141が備えるマルチプレクサにより組み合わさ
れてストリーム信号122が生成される。
As in the first embodiment, the audio elementary stream 150, the video elementary stream 151, and the system information signal are combined by a multiplexer provided in the system encoder 141 to generate a stream signal 122.

【0061】ストリーム信号122は、バス109を介
して記録再生部120に出力され、ストリーム信号12
2が含む映像情報、オーディオ情報およびシステム情報
はレーザ光130により記録媒体107へ記録される。
The stream signal 122 is output to the recording / reproducing unit 120 via the bus 109,
The video information, audio information and system information included in 2 are recorded on the recording medium 107 by the laser beam 130.

【0062】本実施の形態では、周波数−時間変換、時
間−周波数変換、逆量子化および量子化の各信号処理が
行われないため、図2に示す周波数−時間変換部21
1、時間−周波数変換部213、逆量子化部208、量
子化部214および記憶部203を省略することができ
る。また、入力符号列信号に含まれるオーディオ情報と
出力符号列信号に含まれるオーディオ情報とは、両方と
もに周波数領域信号を符号化した情報であり、ビットレ
ートが異なるだけであるので、聴覚上の時間的な遅延や
位相ずれは発生しない。
In this embodiment, since the signal processing of the frequency-time conversion, the time-frequency conversion, the inverse quantization and the quantization is not performed, the frequency-time conversion unit 21 shown in FIG.
1. The time-frequency conversion unit 213, the inverse quantization unit 208, the quantization unit 214, and the storage unit 203 can be omitted. Also, the audio information included in the input code string signal and the audio information included in the output code string signal are both pieces of information obtained by encoding the frequency domain signal, and only have different bit rates. No delay or phase shift occurs.

【0063】上記のように本実施の形態のオーディオデ
コーダ401およびオーディオエンコーダ402によれ
ば、逆量子化処理を行うことなく入力符号列情報を再符
号化する。このことにより、実施の形態1のオーディオ
デコーダ145およびオーディオエンコーダ142と比
較し、信号処理量および信号処理に必要なメモリ量が削
減される。また、時間遅延や位相ずれの発生しない、ビ
ットレートの低い符号化信号を生成することが出来る。
As described above, according to the audio decoder 401 and the audio encoder 402 of the present embodiment, the input code string information is re-encoded without performing the inverse quantization processing. As a result, compared to the audio decoder 145 and the audio encoder 142 of the first embodiment, the amount of signal processing and the amount of memory required for signal processing are reduced. Further, it is possible to generate a coded signal having a low bit rate without occurrence of time delay or phase shift.

【0064】なお、本実施の形態から、オーディオデコ
ーダ401とオーディオエンコーダ402とを備える、
オーディオ情報の符号化処理を行う符号化装置400が
実現される。符号化装置400では、オーディオストリ
ーム信号129を入力し、オーディオデコーダ401と
オーディオエンコーダ402とにより上述の信号処理を
行うことにより、オーディオストリーム信号129に含
まれるオーディオ情報よりもビットレートの低いオーデ
ィオ情報を含む出力符号列信号422が生成される。出
力符号列信号422はオーディオストリーム信号150
として符号化装置400から出力される。
It should be noted that, from the present embodiment, an audio decoder 401 and an audio encoder 402 are provided.
An encoding device 400 that performs audio information encoding processing is realized. The encoding device 400 receives the audio stream signal 129 and performs the above-described signal processing by the audio decoder 401 and the audio encoder 402, so that the audio information having a lower bit rate than the audio information included in the audio stream signal 129 can be obtained. An output code string signal 422 is generated. The output code string signal 422 is the audio stream signal 150
Is output from the encoding device 400.

【0065】(実施の形態3)図6に、本発明の実施の
形態3におけるオーディオデコーダ401およびオーデ
ィオエンコーダ602を示す。オーディオデコーダ40
1およびオーディオエンコーダ602は、図2に示すオ
ーディオデコーダ145およびオーディオエンコーダ1
42と置き替えられて、図1に示す符号化装置1000
に搭載される。本実施の形態では、入力符号列と出力符
号列のチャンネル数が同じであるとする。なお、システ
ムデコーダ144およびビデオデコーダ146、システ
ムエンコーダ141およびビデオエンコーダ143の動
作は実施の形態1と同様である。
(Embodiment 3) FIG. 6 shows an audio decoder 401 and an audio encoder 602 according to Embodiment 3 of the present invention. Audio decoder 40
1 and the audio encoder 602 are the audio decoder 145 and the audio encoder 1 shown in FIG.
42, the encoding device 1000 shown in FIG.
Mounted on In the present embodiment, it is assumed that the number of channels of the input code string is the same as the number of channels of the output code string. The operations of system decoder 144 and video decoder 146, and system encoder 141 and video encoder 143 are the same as those in the first embodiment.

【0066】オーディオデコーダ401は、実施の形態
2で説明したように符号列情報信号222をオーディオ
信号126としてオーディオエンコーダ602へ出力す
る。
The audio decoder 401 outputs the code string information signal 222 to the audio encoder 602 as the audio signal 126 as described in the second embodiment.

【0067】図6および図12を参照して、オーディオ
エンコーダ602の符号化処理を説明する。オーディオ
エンコーダ602は、記憶部403と、逆量子化部60
3と、聴覚心理モデル計算部404と、符号化部405
とを備える。オーディオエンコーダ602に入力された
符号列情報信号222は記憶部403に格納される。
The encoding process of the audio encoder 602 will be described with reference to FIGS. The audio encoder 602 includes a storage unit 403 and an inverse quantization unit 60
3, the psychoacoustic model calculation unit 404, and the encoding unit 405
And The code string information signal 222 input to the audio encoder 602 is stored in the storage unit 403.

【0068】逆量子化部603は、記憶部403から符
号列情報信号222に含まれるスケールファクタ情報お
よび仮数部情報を受け取り、逆量子化を行ってチャンネ
ル毎かつ周波数領域毎のスペクトル信号620を生成す
る。聴覚心理モデル計算部604はこのスペクトル信号
620を用いて聴覚心理モデルを計算する(S201、
S202)。本実施の形態では、スペクトル信号620
そのものから図5(d)に示す総合マスキング曲線Cを
作成する。この手順により得られる聴覚心理モデルは、
実施の形態2の聴覚心理モデルと比較して精度が高くな
る。聴覚心理モデル計算部604は聴覚心理モデル情報
を含む聴覚心理モデル情報信号621を符号化部605
へ出力する。
The inverse quantization section 603 receives the scale factor information and the mantissa information included in the code string information signal 222 from the storage section 403 and performs inverse quantization to generate a spectrum signal 620 for each channel and each frequency domain. I do. The psychoacoustic model calculation unit 604 calculates a psychoacoustic model using the spectrum signal 620 (S201,
S202). In the present embodiment, spectrum signal 620
A total masking curve C shown in FIG. The psychoacoustic model obtained by this procedure is
Accuracy is higher than in the psychoacoustic model of the second embodiment. The psychoacoustic model calculation unit 604 encodes the psychoacoustic model information signal 621 including the psychoacoustic model information into the encoding unit 605.
Output to

【0069】符号化部605は、聴覚心理モデル情報
と、制御信号123が示すビットレート情報とに基づい
て、平均ビットレートが指定されたビットレートになる
ように符号列情報信号222を再符号化し、出力符号列
信号622を生成する(S204)。制御信号123が
示すビットレートは、符号化方法で規定された範囲内の
任意の値を取ることができる。制御信号123が示すビ
ットレートはオーディオストリーム信号129のビット
レートよりも低い。この低いビットレートに収まるよう
に符号列情報信号222を再符号化することにより、圧
縮されたオーディオ情報を含む出力符号列信号622が
オーディオエレメンタリーストリーム150として生成
される。
The encoding section 605 re-encodes the code string information signal 222 based on the psychoacoustic model information and the bit rate information indicated by the control signal 123 so that the average bit rate becomes the specified bit rate. , And generates an output code string signal 622 (S204). The bit rate indicated by the control signal 123 can take an arbitrary value within a range defined by the encoding method. The bit rate indicated by the control signal 123 is lower than the bit rate of the audio stream signal 129. By re-encoding the code string information signal 222 so as to fall within this low bit rate, an output code string signal 622 including compressed audio information is generated as the audio elementary stream 150.

【0070】実施の形態1と同様に、オーディオエレメ
ンタリーストリーム150、ビデオエレメンタリースト
リーム151およびシステム情報信号は、システムエン
コーダ141が備えるマルチプレクサにより組み合わさ
れてストリーム信号122が生成される。
As in the first embodiment, the stream signal 122 is generated by combining the audio elementary stream 150, the video elementary stream 151, and the system information signal by the multiplexer provided in the system encoder 141.

【0071】ストリーム信号122は、バス109を介
して記録再生部120に出力され、ストリーム信号12
2が含む映像情報、オーディオ情報およびシステム情報
はレーザ光130により記録媒体107へ記録される。
The stream signal 122 is output to the recording / reproducing unit 120 via the bus 109,
The video information, audio information and system information included in 2 are recorded on the recording medium 107 by the laser beam 130.

【0072】本実施の形態の符号化装置では、周波数−
時間変換、時間−周波数、量子化の各信号処理が行われ
ないため、図2に示す周波数−時間変換部211、時間
−周波数変換部213、量子化部214および記憶部2
03を省略することができる。また、入力符号列信号に
含まれるオーディオ情報と出力符号列信号に含まれるオ
ーディオ情報とは、両方ともに周波数領域信号を符号化
した情報であり、ビットレートが異なるだけであるの
で、聴覚上の時間的な遅延や位相ずれは発生しない。
In the coding apparatus according to the present embodiment, the frequency
Since each signal processing of time conversion, time-frequency, and quantization is not performed, the frequency-time conversion unit 211, the time-frequency conversion unit 213, the quantization unit 214, and the storage unit 2 illustrated in FIG.
03 can be omitted. Also, the audio information included in the input code string signal and the audio information included in the output code string signal are both pieces of information obtained by encoding the frequency domain signal, and only have different bit rates. No delay or phase shift occurs.

【0073】上記のように本実施の形態のオーディオデ
コーダ401およびオーディオエンコーダ602によれ
ば、符号化部605は、逆量子化処理が行われていない
入力符号列情報222を再符号化する。このことによ
り、実施の形態1のオーディオデコーダ145およびオ
ーディオエンコーダ142と比較し、信号処理量および
必要なメモリ量が削減される。また、時間遅延や位相ず
れの発生しない、ビットレートの低い出力符号列信号6
22を生成することが出来る。
As described above, according to audio decoder 401 and audio encoder 602 of the present embodiment, encoding section 605 re-encodes input code string information 222 that has not been subjected to inverse quantization. As a result, compared with the audio decoder 145 and the audio encoder 142 of the first embodiment, the amount of signal processing and the required memory are reduced. In addition, the output code string signal 6 having a low bit rate and having no time delay or phase shift.
22 can be generated.

【0074】なお、本実施の形態から、オーディオデコ
ーダ401とオーディオエンコーダ602とを備える、
オーディオ情報の符号化処理を行う符号化装置600が
実現される。符号化装置600では、オーディオストリ
ーム信号129を入力し、オーディオデコーダ401と
オーディオエンコーダ602とにより上述の信号処理を
行うことにより、オーディオストリーム信号129に含
まれるオーディオ情報よりもビットレートの低いオーデ
ィオ情報を含む出力符号列信号622が生成される。オ
ーディオストリーム信号150として出力符号列信号6
22が符号化装置600から出力される。
It should be noted that, from the present embodiment, it is provided with the audio decoder 401 and the audio encoder 602.
An encoding device 600 that performs audio information encoding processing is realized. The encoding device 600 receives the audio stream signal 129 and performs the above-described signal processing by the audio decoder 401 and the audio encoder 602, thereby converting audio information having a lower bit rate than the audio information included in the audio stream signal 129. An output code string signal 622 is generated. Output code string signal 6 as audio stream signal 150
22 is output from the encoding device 600.

【0075】(実施の形態4)図7に、本発明の実施の
形態3におけるオーディオデコーダ401およびオーデ
ィオエンコーダ702を示す。オーディオデコーダ40
1およびオーディオエンコーダ702は、図2に示すオ
ーディオデコーダ145およびオーディオエンコーダ1
42と置き替えられて、図1に示す符号化装置1000
に搭載される。本実施の形態では、入力符号列と出力符
号列のチャンネル数が異なり得る。なお、システムデコ
ーダ144およびビデオデコーダ146、システムエン
コーダ141およびビデオエンコーダ143の動作は実
施の形態1と同様である。
(Embodiment 4) FIG. 7 shows an audio decoder 401 and an audio encoder 702 according to Embodiment 3 of the present invention. Audio decoder 40
1 and the audio encoder 702 are the audio decoder 145 and the audio encoder 1 shown in FIG.
42, the encoding device 1000 shown in FIG.
Mounted on In the present embodiment, the number of channels of the input code string may be different from the number of channels of the output code string. The operations of system decoder 144 and video decoder 146, and system encoder 141 and video encoder 143 are the same as those in the first embodiment.

【0076】オーディオデコーダ401は、実施の形態
2で説明したように符号列情報信号222をオーディオ
信号126としてリエンコーダ102へ出力する。
The audio decoder 401 outputs the code string information signal 222 to the re-encoder 102 as the audio signal 126 as described in the second embodiment.

【0077】図7および図12を参照して、オーディオ
エンコーダ702の符号化処理を説明する。オーディオ
エンコーダ702は、記憶部403と、逆量子化部70
3と、聴覚心理モデル計算部404と、符号化部405
とを備える。オーディオエンコーダ702に入力された
符号列情報信号222は記憶部403に格納される。
The encoding process of the audio encoder 702 will be described with reference to FIGS. The audio encoder 702 includes a storage unit 403 and an inverse quantization unit 70
3, the psychoacoustic model calculation unit 404, and the encoding unit 405
And The code string information signal 222 input to the audio encoder 702 is stored in the storage unit 403.

【0078】逆量子化部703は、記憶部403から符
号列情報信号222に含まれるスケールファクタ情報お
よび仮数部情報を受け取り、逆量子化を行ってチャンネ
ル毎のスペクトル信号720を生成する。
The inverse quantization unit 703 receives the scale factor information and the mantissa information included in the code string information signal 222 from the storage unit 403, and performs inverse quantization to generate a spectrum signal 720 for each channel.

【0079】ダウンミックス部706は、逆量子化部7
03で生成されたスペクトル信号720に、制御信号1
23が示す出力チャンネル数に合わせてダウンミックス
を行う。ここで、入力符号列を例えばL、R、C、SL
およびSRの5チャンネルとし、出力符号列を例えばL
およびRの2チャンネルとする。この場合のダウンミッ
クス処理は以下の(1)式および(2)式で表すことが
できる。
The downmixing section 706 includes an inverse quantization section 7
03, the control signal 1
Downmixing is performed according to the number of output channels indicated by 23. Here, the input code string is, for example, L, R, C, SL
And SR, and the output code string is, for example, L
And R. The downmix processing in this case can be represented by the following equations (1) and (2).

【0080】 L=β(L+ CMIX *C+ SMIX *SL) ・・・(1) R=β(R+ CMIX *C+ SMIX *SR) ・・・(2) ここでβは正規化係数であり、LおよびRが夫々オーバ
ーフローしないような値を設定する必要がある。CMI
XおよびSMIXは任意の係数である。なお、ダウンミ
ックス処理に用いられる式は(1)式および(2)式に
限定されず、これら以外の式を用いてダウンミックス処
理を行ってもよい。
L = β (L + CMIX * C + SMIX * SL) (1) R = β (R + CMIX * C + SMIX * SR) (2) where β is a normalization coefficient and L And R need to be set so that they do not overflow. CMI
X and SMIX are arbitrary coefficients. Note that the equations used for the downmix processing are not limited to the equations (1) and (2), and the downmix processing may be performed using other equations.

【0081】以上のようにして入力符号列の周波数スペ
クトルを、出力チャンネル数の周波数スペクトルにダウ
ンミックスを行った後、聴覚心理モデル計算部704が
ダウンミックス後の周波数領域毎のスペクトル信号72
2を用いて聴覚心理モデルを計算する(S201、S2
03)。聴覚心理モデル計算部704は、スペクトル信
号722そのものから図5(d)に示す総合マスキング
曲線Cを作成する。この手順により得られる聴覚心理モ
デルは、実施の形態2の聴覚心理モデルと比較して精度
が高くなる。聴覚心理モデル計算部704は聴覚心理モ
デル情報を含む聴覚心理モデル情報信号721を符号化
部705へ出力する。
After down-mixing the frequency spectrum of the input code string into the frequency spectrum of the number of output channels as described above, the psychoacoustic model calculation unit 704 outputs the down-mixed spectrum signal 72 for each frequency domain.
2 is used to calculate the psychoacoustic model (S201, S2
03). The psychoacoustic model calculation unit 704 creates an overall masking curve C shown in FIG. 5D from the spectrum signal 722 itself. The psychoacoustic model obtained by this procedure has higher accuracy than the psychoacoustic model of the second embodiment. The psychoacoustic model calculation unit 704 outputs a psychoacoustic model information signal 721 including psychoacoustic model information to the encoding unit 705.

【0082】符号化部705は、聴覚心理モデル情報
と、制御信号123が示すビットレート情報とに基づい
て、平均ビットレートが指定されたビットレートになる
ように符号列情報信号222を再符号化し、出力符号列
信号723を生成する(S204)。制御信号123が
示すビットレートは、符号化方法で規定された範囲内の
任意の値を取ることができる。制御信号123が示すビ
ットレートはオーディオストリーム信号129のビット
レートよりも低い。この低いビットレートに収まるよう
に符号列情報信号222を再符号化することにより、圧
縮されたオーディオ情報を含む出力符号列信号723が
オーディオストリーム信号150として生成される。
The coding section 705 re-codes the code string information signal 222 based on the psychoacoustic model information and the bit rate information indicated by the control signal 123 so that the average bit rate becomes the specified bit rate. , An output code string signal 723 is generated (S204). The bit rate indicated by the control signal 123 can take an arbitrary value within a range defined by the encoding method. The bit rate indicated by the control signal 123 is lower than the bit rate of the audio stream signal 129. By re-encoding the code string information signal 222 so as to fall within this low bit rate, an output code string signal 723 including compressed audio information is generated as the audio stream signal 150.

【0083】実施の形態1と同様に、オーディオエレメ
ンタリーストリーム150、ビデオエレメンタリースト
リーム151およびシステム情報信号は、システムエン
コーダ141が備えるマルチプレクサにより組み合わさ
れてストリーム信号122が生成される。
As in the first embodiment, the audio elementary stream 150, the video elementary stream 151, and the system information signal are combined by a multiplexer provided in the system encoder 141 to generate a stream signal 122.

【0084】ストリーム信号122は、バス109を介
して記録再生部120に出力され、ストリーム信号12
2が含む映像情報、オーディオ情報およびシステム情報
はレーザ光130により記録媒体107へ記録される。
The stream signal 122 is output to the recording / reproducing unit 120 via the bus 109,
The video information, audio information and system information included in 2 are recorded on the recording medium 107 by the laser beam 130.

【0085】本実施の形態の符号化装置では、周波数−
時間変換、時間−周波数、量子化の各信号処理が行われ
ないため、図2に示す周波数−時間変換部211、時間
−周波数変換部213、量子化部214および記憶部2
03を省略することができる。また、入力符号列信号に
含まれるオーディオ情報と出力符号列信号に含まれるオ
ーディオ情報とは、両方ともに周波数領域信号を符号化
した情報であり、ビットレートが異なるだけであるの
で、聴覚上の時間的な遅延や位相ずれは発生しない。
In the coding apparatus according to the present embodiment, the frequency
Since each signal processing of time conversion, time-frequency, and quantization is not performed, the frequency-time conversion unit 211, the time-frequency conversion unit 213, the quantization unit 214, and the storage unit 2 illustrated in FIG.
03 can be omitted. Also, the audio information included in the input code string signal and the audio information included in the output code string signal are both pieces of information obtained by encoding the frequency domain signal, and only have different bit rates. No delay or phase shift occurs.

【0086】上記のように本実施の形態のオーディオデ
コーダ401およびオーディオエンコーダ702によれ
ば、符号化部705は、ダウンミックス部706から出
力されるスペクトル信号722を再符号化する。このこ
とにより、実施の形態1のオーディオデコーダ145お
よびオーディオエンコーダ142と比較し、信号処理量
および必要なメモリ量が削減される。また、チャンネル
数が調整され、時間遅延や位相ずれの発生しない、ビッ
トレートの低い出力符号列信号723を生成することが
出来る。
As described above, according to audio decoder 401 and audio encoder 702 of the present embodiment, encoding section 705 re-encodes spectrum signal 722 output from downmix section 706. As a result, compared with the audio decoder 145 and the audio encoder 142 of the first embodiment, the amount of signal processing and the required memory are reduced. In addition, the number of channels is adjusted, and an output code string signal 723 with a low bit rate that does not cause a time delay or a phase shift can be generated.

【0087】なお、本実施の形態から、オーディオデコ
ーダ401とオーディオエンコーダ702とを備える、
オーディオ情報の符号化処理を行う符号化装置700が
実現される。符号化装置700では、オーディオストリ
ーム信号129を入力し、オーディオデコーダ401と
オーディオエンコーダ702とにより上述の信号処理を
行うことにより、オーディオストリーム信号129に含
まれるオーディオ情報よりもビットレートの低いオーデ
ィオ情報を含む出力符号列信号723が生成される。オ
ーディオストリーム信号150として出力符号列信号7
23が符号化装置700から出力される。
Note that, from the present embodiment, it is provided with the audio decoder 401 and the audio encoder 702.
An encoding device 700 that performs audio information encoding processing is realized. The encoding device 700 receives the audio stream signal 129 and performs the above-described signal processing by the audio decoder 401 and the audio encoder 702, thereby converting audio information having a lower bit rate than the audio information included in the audio stream signal 129. An output code string signal 723 is generated. Output code string signal 7 as audio stream signal 150
23 is output from the encoding device 700.

【0088】上述した本発明の実施の形態1〜4におけ
る符号化処理は、プログラムの形式で記録媒体に記録さ
れ得る。記録媒体としては、フロッピィーディスクやC
D−ROM等のコンピュータによって読み取り可能な任
意のタイプの記録媒体を使用することが出来る。ストリ
ーム信号等のデジタル信号を入出力することのできる任
意のコンピュータに記録媒体から読み出された符号化処
理プログラムをインストールすることにより、そのコン
ピュータを符号化処理装置として機能させることが出来
る。この場合の符号化処理は、コンピュータに内蔵また
は接続される符号化処理手段により実行されてもよい
し、符号化処理の少なくとも一部をコンピュータがソフ
トウェア上で実行してもよい。
The above-described encoding processing in the first to fourth embodiments of the present invention can be recorded on a recording medium in the form of a program. As a recording medium, a floppy disk or C
Any type of recording medium that can be read by a computer, such as a D-ROM, can be used. By installing the encoding processing program read from the recording medium into any computer that can input and output digital signals such as stream signals, the computer can function as an encoding processing device. The encoding process in this case may be executed by encoding processing means built in or connected to the computer, or the computer may execute at least a part of the encoding process on software.

【0089】このような符号化処理を実行するコンピュ
ータの1つの実施形態を図8に示す。コンピュータ90
は、CPU91と、コンピュータ90に符号化処理を実
行させるためのプログラムを格納する記録ディスク96
からそのプログラムを読み出すディスクドライブ装置9
2と、ディスクドライブ装置92により読み出されたプ
ログラムを格納するメモリ93と、ストリーム信号12
0およびオーディオストリーム信号129に符号化処理
を行うことにより生成されたストリーム信号97を入出
力する入出力部94と、バス95とを備える。コンピュ
ータ90において、本発明の実施の形態1〜4における
符号化処理は、CPU91およびメモリ93により実行
される。メモリ93はハードディスク等であってもよ
い。コンピュータ90によって生成されるストリーム信
号97はメモリ93に記憶されてもよいし、ディスクド
ライブ装置92に設置された記録媒体に記録されてもよ
い。
FIG. 8 shows one embodiment of a computer that executes such an encoding process. Computer 90
Is a recording disk 96 storing a program for causing the CPU 91 and the computer 90 to execute an encoding process.
Disk drive 9 that reads the program from
2, a memory 93 for storing a program read by the disk drive 92, and a stream signal 12
An input / output unit 94 for inputting / outputting a stream signal 97 generated by performing an encoding process on 0 and the audio stream signal 129, and a bus 95. In the computer 90, the encoding process according to the first to fourth embodiments of the present invention is executed by the CPU 91 and the memory 93. The memory 93 may be a hard disk or the like. The stream signal 97 generated by the computer 90 may be stored in the memory 93 or may be recorded on a recording medium installed in the disk drive 92.

【0090】プログラムは記録ディスク96等の記録媒
体によって提供されてもよいし、インターネット等のデ
ータ配信によって提供されてもよい。
The program may be provided by a recording medium such as the recording disk 96, or may be provided by data distribution such as the Internet.

【0091】[0091]

【発明の効果】本発明によれば、ストリーム信号をデコ
ードすることにより生成された映像信号およびオーディ
オ信号を、ストリーム信号が含む映像情報およびオーデ
ィオ情報よりもビットレートが低い映像情報およびオー
ディオ情報を含む符号化信号に符号化する。映像信号お
よびオーディオ信号の両方のビットレートを下げること
により、映像信号のみのビットレートを下げる場合に比
べて記録媒体に記録する情報量を減らすことが出来る。
従って、映像信号のみのビットレートを下げる場合より
も長時間の情報を記録媒体に記録することが出来る。
According to the present invention, a video signal and an audio signal generated by decoding a stream signal include video information and audio information having a lower bit rate than the video information and audio information included in the stream signal. Encode into an encoded signal. By reducing the bit rates of both the video signal and the audio signal, the amount of information to be recorded on the recording medium can be reduced as compared with the case where the bit rate of only the video signal is reduced.
Therefore, it is possible to record information on the recording medium for a longer time than when lowering the bit rate of only the video signal.

【0092】また、本発明によれば、ストリーム信号を
デコードすることにより生成した符号列情報信号を、聴
覚心理モデルに基づいてストリーム信号が含むオーディ
オ情報よりもビットレートが低いオーディオ情報を含む
符号化信号に符号化する。この場合、周波数−時間変換
処理、時間−周波数変換処理、逆量子化処理および量子
化処理を行うことなく、符号列情報信号を再符号化する
ことにより符号化信号を生成する。このように、オーデ
ィオ情報のビットレートを下げることに加えて、入力符
号化列信号を一旦時間領域信号に変換して再符号化する
処理を行わなわずに符号列情報信号を直接符号化するこ
とにより、符号化処理に必要な信号処理量およびメモリ
量が削減される。このため、記録容量の限定された記録
媒体により多くのコンテンツまたは番組のオーディオ情
報を記録することができる。また、入力符号列信号に含
まれるオーディオ情報と出力符号列信号に含まれるオー
ディオ情報とは、両方ともに周波数領域信号を符号化し
た情報であり、ビットレートが異なるだけであるので、
聴覚上の時間的な遅延や位相ずれは発生しない。従っ
て、時間遅延や位相ずれの発生しない、ビットレートの
低い出力符号列信号を生成することが出来る。
Further, according to the present invention, a coded stream information signal generated by decoding a stream signal is encoded based on an psychoacoustic model, including audio information having a lower bit rate than audio information included in the stream signal. Encode into a signal. In this case, an encoded signal is generated by re-encoding the code string information signal without performing the frequency-time conversion processing, the time-frequency conversion processing, the inverse quantization processing, and the quantization processing. As described above, in addition to lowering the bit rate of the audio information, directly encoding the code sequence information signal without performing the process of temporarily converting the input coded sequence signal into a time domain signal and re-encoding is performed. As a result, the amount of signal processing and the amount of memory required for the encoding process are reduced. For this reason, it is possible to record audio information of more contents or programs on a recording medium having a limited recording capacity. In addition, the audio information included in the input code string signal and the audio information included in the output code string signal are both information obtained by encoding a frequency domain signal, and only have different bit rates.
No auditory time delay or phase shift occurs. Therefore, it is possible to generate an output code string signal having a low bit rate and no time delay or phase shift.

【0093】また、本発明によれば、ストリーム信号を
デコードすることにより生成した符号列情報信号を逆量
子化することにより生成したスペクトル信号を用いて聴
覚心理モデルを計算する。計算された聴覚心理モデルに
基づいて符号列情報信号を、ストリーム信号が含むオー
ディオ情報よりもビットレートが低いオーディオ情報を
含む符号化信号に符号化する。このように、オーディオ
情報のビットレートを下げることに加えて、逆量子化さ
れたスペクトル信号を用いて聴覚心理モデルを計算する
ことにより、精度が高い聴覚心理モデルを得ることが出
来る。また、周波数−時間変換処理、時間−周波数変換
処理および量子化処理を行うことなく、入力符号列情報
を再符号化し、符号化信号を生成する。このことによ
り、符号化処理に必要な信号処理量およびメモリ量が削
減される。
According to the present invention, a psychoacoustic model is calculated using a spectrum signal generated by inversely quantizing a code string information signal generated by decoding a stream signal. Based on the calculated psychoacoustic model, the code string information signal is encoded into an encoded signal containing audio information having a lower bit rate than the audio information contained in the stream signal. As described above, in addition to lowering the bit rate of audio information, a psychoacoustic model with high accuracy can be obtained by calculating the psychoacoustic model using the dequantized spectrum signal. Further, the input code string information is re-encoded without performing the frequency-time conversion processing, the time-frequency conversion processing, and the quantization processing, to generate an encoded signal. This reduces the amount of signal processing and memory required for the encoding process.

【0094】また、本発明によれば、ストリーム信号を
デコードすることにより生成した符号列情報信号を逆量
子化するとともにダウンミックス処理を行ってスペクト
ル信号を生成する。この生成したスペクトル信号を用い
て聴覚心理モデルを計算する。計算された聴覚心理モデ
ルに基づいて符号列情報信号を、ストリーム信号が含む
オーディオ情報よりもビットレートが低いオーディオ情
報を含む符号化信号に符号化する。このように、オーデ
ィオ情報のビットレートを下げることに加えて、ダウン
ミックス処理を行うことにより、符号化信号の情報量を
減らすことが出来る。
Further, according to the present invention, a code signal information signal generated by decoding a stream signal is dequantized and a downmix process is performed to generate a spectrum signal. A psychoacoustic model is calculated using the generated spectrum signal. Based on the calculated psychoacoustic model, the coded stream information signal is coded into a coded signal containing audio information having a lower bit rate than the audio information contained in the stream signal. As described above, by performing the downmix process in addition to reducing the bit rate of the audio information, the information amount of the encoded signal can be reduced.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の形態1における符号化装置を示
す図
FIG. 1 is a diagram showing an encoding device according to Embodiment 1 of the present invention.

【図2】本発明の実施の形態1における符号化装置のデ
コーダおよびリエンコーダを示す図
FIG. 2 is a diagram showing a decoder and a re-encoder of the encoding device according to the first embodiment of the present invention.

【図3】本発明の実施の形態1における符号化装置を示
す図
FIG. 3 is a diagram showing an encoding device according to Embodiment 1 of the present invention.

【図4】本発明の実施の形態2における符号化装置を示
す図
FIG. 4 is a diagram showing an encoding device according to a second embodiment of the present invention.

【図5】本発明の実施の形態2〜4における聴覚心理モ
デル計算部の動作を示す図
FIG. 5 is a diagram illustrating an operation of a psychoacoustic model calculation unit according to Embodiments 2 to 4 of the present invention.

【図6】本発明の実施の形態3における符号化装置を示
す図
FIG. 6 is a diagram showing an encoding device according to a third embodiment of the present invention.

【図7】本発明の実施の形態4における符号化装置を示
す図
FIG. 7 is a diagram showing an encoding device according to a fourth embodiment of the present invention.

【図8】本発明の符号化処理を実行するコンピュータを
示す図
FIG. 8 is a diagram illustrating a computer that executes an encoding process according to the present invention.

【図9】プログラムストリームを示す図FIG. 9 shows a program stream.

【図10】トランスポートストリームを示す図FIG. 10 is a diagram showing a transport stream.

【図11】本発明の符号化装置の符号化処理を示すフロ
ーチャート
FIG. 11 is a flowchart showing an encoding process of the encoding device of the present invention.

【図12】本発明の符号化装置の符号化処理を示すフロ
ーチャート
FIG. 12 is a flowchart showing an encoding process of the encoding device of the present invention.

【符号の説明】[Explanation of symbols]

201 符号列入力部 202 符号列分解部 403 記憶部 404 聴覚心理モデル計算部 405 符号化部 603 逆量子化部 706 ダウンミックス部 201 code string input section 202 code string decomposition section 403 storage section 404 psychoacoustic model calculation section 405 coding section 603 inverse quantization section 706 downmix section

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 5/92 H04N 5/92 H 5J064 7/08 G10L 7/04 G 7/081 H04N 7/08 101 7/24 (72)発明者 西尾 孝祐 大阪府門真市大字門真1006番地 松下電器 産業株式会社内 (72)発明者 川村 明久 大阪府門真市大字門真1006番地 松下電器 産業株式会社内 (72)発明者 藤田 剛史 大阪府門真市大字門真1006番地 松下電器 産業株式会社内 (72)発明者 末吉 雅弘 大阪府門真市大字門真1006番地 松下電器 産業株式会社内 (72)発明者 阿部 一任 大阪府門真市大字門真1006番地 松下電器 産業株式会社内 Fターム(参考) 5C053 FA02 FA25 GB11 GB28 GB37 JA07 JA22 LA07 5C059 KK41 MA00 RB10 RC03 RC04 RC32 SS02 SS12 SS20 TA17 TB01 TC47 UA02 UA05 UA39 5C063 AB03 AB07 AC01 AC06 CA11 CA36 5D044 AB05 AB07 BC04 DE01 GK08 GK10 GL01 5D045 DA20 5J064 AA01 AA05 BB10 BC02 BC14 BC16 BD03 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification code FI Theme coat ゛ (Reference) H04N 5/92 H04N 5/92 H 5J064 7/08 G10L 7/04 G 7/081 H04N 7/08 101 7 / 24 (72) Inventor Kosuke Nishio 1006 Kadoma Kadoma, Osaka Pref.Matsushita Electric Industrial Co., Ltd. (72) Inventor Kawamura Akihisa 1006 Odama Kadoma, Kadoma City, Osaka Pref. Takeshi 1006 Kazuma Kadoma, Kadoma City, Osaka Prefecture Matsushita Electric Industrial Co., Ltd. (72) Inventor Masahiro Sueyoshi 1006 Kadoma Kadoma, Kadoma City, Osaka Prefecture Inside the Matsushita Electric Industrial Co., Ltd. (72) Kazuma Abe Kazuma Abe 1006 Kadoma Kadoma Kadoma, Osaka Prefecture Address Matsushita Electric Industrial Co., Ltd. F-term (reference) 5C053 FA02 FA25 GB11 GB28 GB37 JA07 JA22 LA07 5C059 KK41 MA00 RB10 RC03 RC04 RC 32 SS02 SS12 SS20 TA17 TB01 TC47 UA02 UA05 UA39 5C063 AB03 AB07 AC01 AC06 CA11 CA36 5D044 AB05 AB07 BC04 DE01 GK08 GK10 GL01 5D045 DA20 5J064 AA01 AA05 BB10 BC02 BC14 BC16 BD03

Claims (18)

【特許請求の範囲】[Claims] 【請求項1】 第1映像信号が符号化された第1映像符
号列情報を含む第1映像ストリームと、第1オーディオ
信号が符号化された第1オーディオ符号列情報を含む第
1オーディオストリームとが多重化された第1ストリー
ム信号をデコードするデコーダと、 デコードされた前記第1ストリーム信号に基づき、前記
第1映像符号列情報よりもビットレートが低い第2映像
符号列情報を含む第2映像ストリームと、前記第1オー
ディオ符号列情報よりもビットレートが低い第2オーデ
ィオ符号列情報を含む第2オーディオストリームとを生
成し、前記第2映像ストリームと前記第2オーディオス
トリームとを多重化して第2ストリーム信号を生成する
リエンコーダとを備える符号化装置。
1. A first video stream including first video code string information in which a first video signal is encoded, and a first audio stream including first audio code string information in which a first audio signal is encoded. A decoder that decodes a first stream signal multiplexed with a second video code stream based on the decoded first stream signal, the second video stream including a second video code stream information having a lower bit rate than the first video code stream information. Stream and a second audio stream including second audio code string information having a lower bit rate than the first audio code string information, and multiplexing the second video stream and the second audio stream to generate a second audio stream. An encoding device comprising: a re-encoder that generates a two-stream signal.
【請求項2】 前記第1オーディオ符号列情報は、前記
第1オーディオ信号に時間−周波数変換を行って周波数
領域信号に変換し、前記周波数領域信号を量子化した情
報であり、 前記リエンコーダは、 聴覚特性によりマスキングされる前記第1オーディオ信
号の周波数領域を示す聴覚心理モデル情報を算出し、 前記聴覚心理モデル情報に基づき、前記第1オーディオ
符号列情報を前記第1オーディオ符号列情報よりもビッ
トレートの低い前記第2オーディオ符号列情報に変換す
ることにより前記第2オーディオストリームを生成す
る、請求項1に記載の符号化装置。
2. The first audio code string information is information obtained by performing time-frequency conversion on the first audio signal to convert the first audio signal into a frequency domain signal, and quantizing the frequency domain signal. Calculating psychoacoustic model information indicating a frequency domain of the first audio signal masked by auditory characteristics, and, based on the psychoacoustic model information, the first audio code string information is compared with the first audio code string information. The encoding device according to claim 1, wherein the second audio stream is generated by converting the information into the second audio code string information having a low bit rate.
【請求項3】 前記周波数領域信号の量子化は、前記周
波数領域信号の周波数領域毎の周波数スペクトルを仮数
部と指数部とで示す量子化であり、 前記指数部は、前記周波数領域毎の周波数スペクトルの
スケールファクタであり、 前記リエンコーダは、 量子化後の情報である前記周波数領域毎の周波数スペク
トルのスケールファクタに基づき、前記聴覚心理モデル
情報を算出し、 前記聴覚心理モデル情報に基づき、前記仮数部に割り当
てられたビット数の再割り当てを行うことにより、前記
第1オーディオ符号列情報を前記第1オーディオ符号列
情報よりもビットレートの低い前記第2オーディオ符号
列情報に変換する、請求項2に記載の符号化装置。
3. The quantization of the frequency domain signal is a quantization in which a frequency spectrum of each frequency domain of the frequency domain signal is represented by a mantissa part and an exponent part. The scale factor of the spectrum, the re-encoder calculates the psychoacoustic model information based on the scale factor of the frequency spectrum for each frequency domain that is the information after quantization, based on the psychoacoustic model information, The first audio code string information is converted to the second audio code string information having a lower bit rate than the first audio code string information by re-assigning the number of bits assigned to the mantissa. 3. The encoding device according to 2.
【請求項4】 前記周波数領域信号の量子化は、前記周
波数領域信号の周波数領域毎の周波数スペクトルを仮数
部と指数部とで示す量子化であり、 前記指数部は、前記周波数領域毎の周波数スペクトルの
スケールファクタであり、 前記リエンコーダは、 前記第1オーディオ符号列情報を逆量子化することによ
り生成される逆量子化された前記周波数領域毎の周波数
スペクトルに基づき、前記聴覚心理モデル情報を算出
し、 前記聴覚心理モデル情報に基づき、前記仮数部に割り当
てられたビット数の再割り当てを行うことにより、前記
第1オーディオ符号列情報を前記第1オーディオ符号列
情報よりもビットレートの低い前記第2オーディオ符号
列情報に変換する、請求項2に記載の符号化装置。
4. The quantization of the frequency domain signal is a quantization in which a frequency spectrum of each frequency domain of the frequency domain signal is represented by a mantissa part and an exponent part. A scale factor of a spectrum, wherein the re-encoder converts the psychoacoustic model information based on a dequantized frequency spectrum for each frequency domain generated by dequantizing the first audio code string information. Calculating, based on the psychoacoustic model information, by re-assigning the number of bits assigned to the mantissa, so that the first audio code string information has a lower bit rate than the first audio code string information. The encoding device according to claim 2, wherein the encoding device converts the information into second audio code string information.
【請求項5】 前記リエンコーダは、前記第2オーディ
オストリームのチャンネル数を前記第1オーディオスト
リームのチャンネル数よりも減じるダウンミックス処理
を行う場合は、ダウンミックス処理が行われた逆量子化
された前記周波数領域毎の周波数スペクトルに基づいて
前記聴覚心理モデル情報を算出する、請求項4に記載の
符号化装置。
5. The re-encoder performs a downmix process in which the number of channels of the second audio stream is less than the number of channels of the first audio stream. The encoding device according to claim 4, wherein the psychoacoustic model information is calculated based on a frequency spectrum for each frequency domain.
【請求項6】 前記第1ストリーム信号を受信する受信
部と、 前記リエンコーダへ前記第2映像符号列情報および前記
第2オーディオ符号列情報のビットレートを指示する制
御部と、 前記第2ストリーム信号を記録媒体に記録する記録部と
をさらに備える、請求項1に記載の符号化装置。
6. A receiving unit for receiving the first stream signal; a control unit for instructing the re-encoder on a bit rate of the second video code string information and the second audio code string information; The encoding device according to claim 1, further comprising: a recording unit that records the signal on a recording medium.
【請求項7】 第1映像信号が符号化された第1映像符
号列情報を含む第1映像ストリームと、第1オーディオ
信号が符号化された第1オーディオ符号列情報を含む第
1オーディオストリームとが多重化された第1ストリー
ム信号をデコードする第1ステップと、 デコードされた前記第1ストリーム信号に基づき、前記
第1映像符号列情報よりもビットレートが低い第2映像
符号列情報を含む第2映像ストリームと、前記第1オー
ディオ符号列情報よりもビットレートが低い第2オーデ
ィオ符号列情報を含む第2オーディオストリームとを生
成し、前記第2映像ストリームと前記第2オーディオス
トリームとを多重化して第2ストリーム信号を生成する
第2ステップとを包含する符号化方法であって、 前記第1オーディオ符号列情報は、前記第1オーディオ
信号に時間−周波数変換を行って周波数領域信号に変換
し、前記周波数領域信号を量子化した情報であり、 前記第2ステップは、 聴覚特性によりマスキングされる前記第1オーディオ信
号の周波数領域を示す聴覚心理モデル情報を算出する第
3ステップと、 前記聴覚心理モデル情報に基づき、前記第1オーディオ
符号列情報を前記第1オーディオ符号列情報よりもビッ
トレートの低い前記第2オーディオ符号列情報に変換す
ることにより前記第2オーディオストリームを生成する
第4ステップとを包含する、符号化方法。
7. A first video stream including first video code string information obtained by encoding a first video signal, and a first audio stream including first audio code string information obtained by coding a first audio signal. A first step of decoding a multiplexed first stream signal, and a second step including, based on the decoded first stream signal, second video code string information having a lower bit rate than the first video code string information. And generating a second video stream and a second audio stream including second audio code string information having a lower bit rate than the first audio code string information, and multiplexing the second video stream and the second audio stream. And generating a second stream signal by using the first audio code string information. One audio signal is converted into a frequency domain signal by performing time-frequency conversion, and is information obtained by quantizing the frequency domain signal. The second step is a frequency domain of the first audio signal masked by auditory characteristics. A third step of calculating psychoacoustic model information indicating the second audio code string information having a lower bit rate than the first audio code string information based on the psychoacoustic model information. Generating the second audio stream by converting the second audio stream into a second audio stream.
【請求項8】 前記周波数領域信号の量子化は、前記周
波数領域信号の周波数領域毎の周波数スペクトルを仮数
部と指数部とで示す量子化であり、 前記指数部は、前記周波数領域毎の周波数スペクトルの
スケールファクタであり、 前記第3ステップは、量子化後の情報である前記周波数
領域毎の周波数スペクトルのスケールファクタに基づき
前記聴覚心理モデル情報を算出し、 前記第4ステップは、前記聴覚心理モデル情報に基づき
前記仮数部に割り当てられたビット数の再割り当てを行
うことにより、前記第1オーディオ符号列情報を前記第
1オーディオ符号列情報よりもビットレートの低い前記
第2オーディオ符号列情報に変換する、請求項7に記載
の符号化方法。
8. The quantization of the frequency domain signal is a quantization in which a frequency spectrum of each frequency domain of the frequency domain signal is represented by a mantissa part and an exponent part. A scale factor of a spectrum, wherein the third step calculates the psychoacoustic model information based on a scale factor of a frequency spectrum for each frequency domain, which is information after quantization, and the fourth step includes: By re-assigning the number of bits assigned to the mantissa based on model information, the first audio code string information is converted to the second audio code string information having a lower bit rate than the first audio code string information. The encoding method according to claim 7, wherein the encoding is performed.
【請求項9】 前記周波数領域信号の量子化は、前記周
波数領域信号の周波数領域毎の周波数スペクトルを仮数
部と指数部とで示す量子化であり、 前記指数部は、前記周波数領域毎の周波数スペクトルの
スケールファクタであり、 前記第3ステップは、前記第1オーディオ符号列情報を
逆量子化することにより生成される逆量子化された前記
周波数領域毎の周波数スペクトルに基づき、前記聴覚心
理モデル情報を算出し、 前記第4ステップは、前記聴覚心理モデル情報に基づき
前記仮数部に割り当てられたビット数の再割り当てを行
うことにより、前記第1オーディオ符号列情報を前記第
1オーディオ符号列情報よりもビットレートの低い前記
第2オーディオ符号列情報に変換する、請求項7に記載
の符号化方法。
9. The quantization of the frequency domain signal is a quantization in which a frequency spectrum of each frequency domain of the frequency domain signal is represented by a mantissa part and an exponent part. A scale factor of a spectrum, wherein the third step is based on a dequantized frequency spectrum for each frequency domain generated by dequantizing the first audio code string information, and based on the psychoacoustic model information. The fourth step calculates the first audio code string information from the first audio code string information by reassigning the number of bits assigned to the mantissa based on the psychoacoustic model information. The encoding method according to claim 7, further converting the second audio code string information having a low bit rate into the second audio code string information.
【請求項10】 第3ステップは、前記第2オーディオ
ストリームのチャンネル数を前記第1オーディオストリ
ームのチャンネル数よりも減じるダウンミックス処理を
行う場合は、ダウンミックス処理が行われた逆量子化さ
れた前記周波数領域毎の周波数スペクトルに基づいて前
記聴覚心理モデル情報を算出する、請求項9に記載の符
号化方法。
10. The down-quantized inverse-quantized down-mixing process is performed when the down-mixing process is performed to reduce the number of channels of the second audio stream from the number of channels of the first audio stream. The encoding method according to claim 9, wherein the psychoacoustic model information is calculated based on a frequency spectrum for each frequency domain.
【請求項11】 符号化処理をコンピュータに実行させ
るためのプログラムであって、 前記符号化処理は、 第1映像信号が符号化された第1映像符号列情報を含む
第1映像ストリームと、第1オーディオ信号が符号化さ
れた第1オーディオ符号列情報を含む第1オーディオス
トリームとが多重化された第1ストリーム信号をデコー
ドする第1ステップと、 デコードされた前記第1ストリーム信号に基づき、前記
第1映像符号列情報よりもビットレートが低い第2映像
符号列情報を含む第2映像ストリームと、前記第1オー
ディオ符号列情報よりもビットレートが低い第2オーデ
ィオ符号列情報を含む第2オーディオストリームとを生
成し、前記第2映像ストリームと前記第2オーディオス
トリームとを多重化して第2ストリーム信号を生成する
第2ステップとを包含し、 前記第1オーディオ符号列情報は、前記第1オーディオ
信号に時間−周波数変換を行って周波数領域信号に変換
し、前記周波数領域信号を量子化した情報であり、 前記第2ステップは、 聴覚特性によりマスキングされる前記第1オーディオ信
号の周波数領域を示す聴覚心理モデル情報を算出する第
3ステップと、 前記聴覚心理モデル情報に基づき、前記第1オーディオ
符号列情報を前記第1オーディオ符号列情報よりもビッ
トレートの低い前記第2オーディオ符号列情報に変換す
ることにより前記第2オーディオストリームを生成する
第4ステップとを包含する、プログラム。
11. A program for causing a computer to execute an encoding process, wherein the encoding process includes: a first video stream including first video code string information obtained by encoding a first video signal; A first step of decoding a first stream signal in which a first audio stream including first audio code string information in which one audio signal is encoded is multiplexed, based on the decoded first stream signal, A second video stream including second video code string information having a lower bit rate than the first video code string information; and a second audio stream including second audio code string information having a lower bit rate than the first audio code string information. And multiplexing the second video stream and the second audio stream to generate a second stream signal. Wherein the first audio code string information is information obtained by performing time-frequency conversion on the first audio signal to convert the first audio signal into a frequency domain signal, and quantizing the frequency domain signal; The second step is a third step of calculating psychoacoustic model information indicating a frequency domain of the first audio signal masked by auditory characteristics, and the first audio code string information is calculated based on the psychoacoustic model information. Converting the second audio stream to a second audio stream having a lower bit rate than the first audio stream.
【請求項12】 前記周波数領域信号の量子化は、前記
周波数領域信号の周波数領域毎の周波数スペクトルを仮
数部と指数部とで示す量子化であり、 前記指数部は、前記周波数領域毎の周波数スペクトルの
スケールファクタであり、 前記第3ステップは、量子化後の情報である前記周波数
領域毎の周波数スペクトルのスケールファクタに基づき
前記聴覚心理モデル情報を算出し、 前記第4ステップは、前記聴覚心理モデル情報に基づき
前記仮数部に割り当てられたビット数の再割り当てを行
うことにより、前記第1オーディオ符号列情報を前記第
1オーディオ符号列情報よりもビットレートの低い前記
第2オーディオ符号列情報に変換する、請求項11に記
載のプログラム。
12. The quantization of the frequency domain signal is a quantization in which a frequency spectrum of each frequency domain of the frequency domain signal is represented by a mantissa part and an exponent part. A scale factor of a spectrum, wherein the third step calculates the psychoacoustic model information based on a scale factor of a frequency spectrum for each frequency domain, which is information after quantization, and the fourth step includes: By re-assigning the number of bits assigned to the mantissa based on model information, the first audio code string information is converted to the second audio code string information having a lower bit rate than the first audio code string information. The program according to claim 11, which converts.
【請求項13】 前記周波数領域信号の量子化は、前記
周波数領域信号の周波数領域毎の周波数スペクトルを仮
数部と指数部とで示す量子化であり、 前記指数部は、前記周波数領域毎の周波数スペクトルの
スケールファクタであり、 前記第3ステップは、前記第1オーディオ符号列情報を
逆量子化することにより生成される逆量子化された前記
周波数領域毎の周波数スペクトルに基づき、前記聴覚心
理モデル情報を算出し、 前記第4ステップは、前記聴覚心理モデル情報に基づき
前記仮数部に割り当てられたビット数の再割り当てを行
うことにより、前記第1オーディオ符号列情報を前記第
1オーディオ符号列情報よりもビットレートの低い前記
第2オーディオ符号列情報に変換する、請求項11に記
載のプログラム。
13. The quantization of the frequency domain signal is a quantization in which a frequency spectrum of each frequency domain of the frequency domain signal is represented by a mantissa part and an exponent part. A scale factor of a spectrum, wherein the third step is based on a dequantized frequency spectrum for each frequency domain generated by dequantizing the first audio code string information, and based on the psychoacoustic model information. The fourth step calculates the first audio code string information from the first audio code string information by reassigning the number of bits assigned to the mantissa based on the psychoacoustic model information. The program according to claim 11, wherein the program also converts the second audio code string information having a low bit rate.
【請求項14】 第3ステップは、前記第2オーディオ
ストリームのチャンネル数を前記第1オーディオストリ
ームのチャンネル数よりも減じるダウンミックス処理を
行う場合は、ダウンミックス処理が行われた逆量子化さ
れた前記周波数領域毎の周波数スペクトルに基づいて前
記聴覚心理モデル情報を算出する、請求項13に記載の
プログラム。
14. The method of claim 3, wherein the downmixing is performed when the number of channels of the second audio stream is less than the number of channels of the first audio stream. 14. The program according to claim 13, wherein the psychoacoustic model information is calculated based on a frequency spectrum for each frequency domain.
【請求項15】 符号化処理をコンピュータに実行させ
るためのプログラムを記録したコンピュータ読み取り可
能な記録媒体であって、 前記符号化処理は、 第1映像信号が符号化された第1映像符号列情報を含む
第1映像ストリームと、第1オーディオ信号が符号化さ
れた第1オーディオ符号列情報を含む第1オーディオス
トリームとが多重化された第1ストリーム信号をデコー
ドする第1ステップと、 デコードされた前記第1ストリーム信号に基づき、前記
第1映像符号列情報よりもビットレートが低い第2映像
符号列情報を含む第2映像ストリームと、前記第1オー
ディオ符号列情報よりもビットレートが低い第2オーデ
ィオ符号列情報を含む第2オーディオストリームとを生
成し、前記第2映像ストリームと前記第2オーディオス
トリームとを多重化して第2ストリーム信号を生成する
第2ステップとを包含し、 前記第1オーディオ符号列情報は、前記第1オーディオ
信号に時間−周波数変換を行って周波数領域信号に変換
し、前記周波数領域信号を量子化した情報であり、 前記第2ステップは、 聴覚特性によりマスキングされる前記第1オーディオ信
号の周波数領域を示す聴覚心理モデル情報を算出する第
3ステップと、 前記聴覚心理モデル情報に基づき、前記第1オーディオ
符号列情報を前記第1オーディオ符号列情報よりもビッ
トレートの低い前記第2オーディオ符号列情報に変換す
ることにより前記第2オーディオストリームを生成する
第4ステップとを包含する、記録媒体。
15. A computer-readable recording medium having recorded thereon a program for causing a computer to execute an encoding process, wherein the encoding process includes first video code string information in which a first video signal is encoded. And a first step of decoding a first stream signal obtained by multiplexing a first video stream including the first audio stream and a first audio stream including first audio code string information obtained by encoding the first audio signal. Based on the first stream signal, a second video stream including second video code string information having a lower bit rate than the first video code string information, and a second video stream having a lower bit rate than the first audio code string information. Generating a second audio stream including audio code string information, and generating the second video stream and the second audio stream; Generating a second stream signal by multiplexing the first audio code stream with the first audio code stream, and performing time-frequency conversion on the first audio signal to convert the first audio signal into a frequency domain signal. , Which is information obtained by quantizing the frequency domain signal, wherein the second step is a step of calculating psychoacoustic model information indicating a frequency domain of the first audio signal masked by auditory characteristics; A fourth step of generating the second audio stream by converting the first audio code string information into the second audio code string information having a lower bit rate than the first audio code string information based on the model information; A recording medium comprising:
【請求項16】 前記周波数領域信号の量子化は、前記
周波数領域信号の周波数領域毎の周波数スペクトルを仮
数部と指数部とで示す量子化であり、 前記指数部は、前記周波数領域毎の周波数スペクトルの
スケールファクタであり、 前記第3ステップは、量子化後の情報である前記周波数
領域毎の周波数スペクトルのスケールファクタに基づき
前記聴覚心理モデル情報を算出し、 前記第4ステップは、前記聴覚心理モデル情報に基づき
前記仮数部に割り当てられたビット数の再割り当てを行
うことにより、前記第1オーディオ符号列情報を前記第
1オーディオ符号列情報よりもビットレートの低い前記
第2オーディオ符号列情報に変換する、請求項15に記
載の記録媒体。
16. The quantization of the frequency domain signal is a quantization in which a frequency spectrum of each frequency domain of the frequency domain signal is represented by a mantissa part and an exponent part. A scale factor of a spectrum, wherein the third step calculates the psychoacoustic model information based on a scale factor of a frequency spectrum for each frequency domain, which is information after quantization, and the fourth step includes: By re-assigning the number of bits assigned to the mantissa based on model information, the first audio code string information is converted to the second audio code string information having a lower bit rate than the first audio code string information. 16. The recording medium according to claim 15, wherein the recording medium is converted.
【請求項17】 前記周波数領域信号の量子化は、前記
周波数領域信号の周波数領域毎の周波数スペクトルを仮
数部と指数部とで示す量子化であり、 前記指数部は、前記周波数領域毎の周波数スペクトルの
スケールファクタであり、 前記第3ステップは、前記第1オーディオ符号列情報を
逆量子化することにより生成される逆量子化された前記
周波数領域毎の周波数スペクトルに基づき、前記聴覚心
理モデル情報を算出し、 前記第4ステップは、前記聴覚心理モデル情報に基づき
前記仮数部に割り当てられたビット数の再割り当てを行
うことにより、前記第1オーディオ符号列情報を前記第
1オーディオ符号列情報よりもビットレートの低い前記
第2オーディオ符号列情報に変換する、請求項15に記
載の記録媒体。
17. The quantization of the frequency domain signal is a quantization in which a frequency spectrum of each frequency domain of the frequency domain signal is represented by a mantissa part and an exponent part, and the exponent part is a frequency spectrum of the frequency domain. A scale factor of a spectrum, wherein the third step is based on a dequantized frequency spectrum for each frequency domain generated by dequantizing the first audio code string information, and based on the psychoacoustic model information. The fourth step calculates the first audio code string information from the first audio code string information by reassigning the number of bits assigned to the mantissa based on the psychoacoustic model information. 16. The recording medium according to claim 15, wherein the recording medium also converts the bit rate into the second audio code string information having a low bit rate.
【請求項18】 第3ステップは、前記第2オーディオ
ストリームのチャンネル数を前記第1オーディオストリ
ームのチャンネル数よりも減じるダウンミックス処理を
行う場合は、ダウンミックス処理が行われた逆量子化さ
れた前記周波数領域毎の周波数スペクトルに基づいて前
記聴覚心理モデル情報を算出する、請求項17に記載の
記録媒体。
18. The method according to claim 10, wherein the downmixing is performed when the downmixing process is performed to reduce the number of channels of the second audio stream from the number of channels of the first audio stream. The recording medium according to claim 17, wherein the psychoacoustic model information is calculated based on a frequency spectrum for each frequency domain.
JP2001287905A 2000-09-21 2001-09-20 Device and method for encoding, and program, and program recording medium Pending JP2002175098A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001287905A JP2002175098A (en) 2000-09-21 2001-09-20 Device and method for encoding, and program, and program recording medium

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2000-286543 2000-09-21
JP2000286543 2000-09-21
JP2001287905A JP2002175098A (en) 2000-09-21 2001-09-20 Device and method for encoding, and program, and program recording medium

Publications (1)

Publication Number Publication Date
JP2002175098A true JP2002175098A (en) 2002-06-21

Family

ID=26600394

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001287905A Pending JP2002175098A (en) 2000-09-21 2001-09-20 Device and method for encoding, and program, and program recording medium

Country Status (1)

Country Link
JP (1) JP2002175098A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004280994A (en) * 2003-03-18 2004-10-07 Matsushita Electric Ind Co Ltd Data creation method and data recorder
JP2007221216A (en) * 2006-02-14 2007-08-30 Oki Electric Ind Co Ltd Mix-down method and apparatus
JP2012141412A (en) * 2010-12-28 2012-07-26 Fujitsu Ltd Encoder, encoding method, and encoding program

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0865663A (en) * 1994-08-19 1996-03-08 Canon Inc Digital image information processor
JPH08237133A (en) * 1995-02-28 1996-09-13 Toshiba Corp Variable rate compressor and variable rate expander
JPH09252254A (en) * 1995-09-29 1997-09-22 Nippon Steel Corp Audio decoder
JPH11219197A (en) * 1998-02-02 1999-08-10 Fujitsu Ltd Method and device for encoding audio signal
JP2000029498A (en) * 1998-07-15 2000-01-28 Yamaha Corp Mixing method for digital audio signal and mixing apparatus therefor
JP2000036755A (en) * 1998-05-15 2000-02-02 Sony Corp Method and device for code convesion and program supply medium thereof
JP2000137497A (en) * 1998-10-29 2000-05-16 Ricoh Co Ltd Device and method for encoding digital audio signal, and medium storing digital audio signal encoding program
JP2000244927A (en) * 1999-02-23 2000-09-08 Matsushita Electric Ind Co Ltd Moving picture transforming device
JP2000244872A (en) * 1999-02-19 2000-09-08 Toshiba Corp Transcoder device

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0865663A (en) * 1994-08-19 1996-03-08 Canon Inc Digital image information processor
JPH08237133A (en) * 1995-02-28 1996-09-13 Toshiba Corp Variable rate compressor and variable rate expander
JPH09252254A (en) * 1995-09-29 1997-09-22 Nippon Steel Corp Audio decoder
JPH11219197A (en) * 1998-02-02 1999-08-10 Fujitsu Ltd Method and device for encoding audio signal
JP2000036755A (en) * 1998-05-15 2000-02-02 Sony Corp Method and device for code convesion and program supply medium thereof
JP2000029498A (en) * 1998-07-15 2000-01-28 Yamaha Corp Mixing method for digital audio signal and mixing apparatus therefor
JP2000137497A (en) * 1998-10-29 2000-05-16 Ricoh Co Ltd Device and method for encoding digital audio signal, and medium storing digital audio signal encoding program
JP2000244872A (en) * 1999-02-19 2000-09-08 Toshiba Corp Transcoder device
JP2000244927A (en) * 1999-02-23 2000-09-08 Matsushita Electric Ind Co Ltd Moving picture transforming device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004280994A (en) * 2003-03-18 2004-10-07 Matsushita Electric Ind Co Ltd Data creation method and data recorder
JP2007221216A (en) * 2006-02-14 2007-08-30 Oki Electric Ind Co Ltd Mix-down method and apparatus
JP2012141412A (en) * 2010-12-28 2012-07-26 Fujitsu Ltd Encoder, encoding method, and encoding program

Similar Documents

Publication Publication Date Title
US7668723B2 (en) Scalable lossless audio codec and authoring tool
JP3354863B2 (en) Audio data encoding / decoding method and apparatus with adjustable bit rate
US8374858B2 (en) Scalable lossless audio codec and authoring tool
US7835907B2 (en) Method and apparatus for low bit rate encoding and decoding
EP1741093B1 (en) Scalable lossless audio codec and authoring tool
US7106943B2 (en) Coding device, coding method, program and recording medium
JP2002175098A (en) Device and method for encoding, and program, and program recording medium
JP3942523B2 (en) Digital signal encoding method, decoding method, encoder, decoder, and programs thereof
JP4244223B2 (en) Speech encoding method and speech decoding method
JP4148260B2 (en) Speech encoding method and speech decoding method
JP4148259B2 (en) Speech encoding method and speech decoding method
Truman Surround Sound Encoding for Consumer Applications
JP2006171774A (en) Voice coding method and decoding method
JP2006171769A (en) Voice coding method and decoding method
JP2006171770A (en) Voice coding method and decoding method
JP2006171780A (en) Voice coding method and decoding method
JP2006171777A (en) Voice coding method and decoding method
JP2006171779A (en) Voice coding method and decoding method
JP2004140569A (en) Digital signal encoding method, decoding method, encoder and decoder for them, and program for them
JP2006171775A (en) Voice coding method and decoding method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080717

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101029

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110307

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110822

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20111213