JP2002223167A - データ処理装置およびデータ処理方法、並びにプログラムおよび記録媒体 - Google Patents

データ処理装置およびデータ処理方法、並びにプログラムおよび記録媒体

Info

Publication number
JP2002223167A
JP2002223167A JP2001016869A JP2001016869A JP2002223167A JP 2002223167 A JP2002223167 A JP 2002223167A JP 2001016869 A JP2001016869 A JP 2001016869A JP 2001016869 A JP2001016869 A JP 2001016869A JP 2002223167 A JP2002223167 A JP 2002223167A
Authority
JP
Japan
Prior art keywords
data
tap
prediction
decoding
class
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001016869A
Other languages
English (en)
Other versions
JP4507046B2 (ja
JP2002223167A5 (ja
Inventor
Tetsujiro Kondo
哲二郎 近藤
Tsutomu Watanabe
勉 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2001016869A priority Critical patent/JP4507046B2/ja
Application filed by Sony Corp filed Critical Sony Corp
Priority to DE2002611854 priority patent/DE60211854T2/de
Priority to EP02716352A priority patent/EP1355428B1/en
Priority to US10/239,805 priority patent/US7082220B2/en
Priority to PCT/JP2002/000490 priority patent/WO2002060069A1/ja
Priority to CNB028005414A priority patent/CN1269314C/zh
Priority to KR20027012587A priority patent/KR100847179B1/ko
Publication of JP2002223167A publication Critical patent/JP2002223167A/ja
Publication of JP2002223167A5 publication Critical patent/JP2002223167A5/ja
Application granted granted Critical
Publication of JP4507046B2 publication Critical patent/JP4507046B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/149Data rate or code amount at the encoder output by estimating the code amount by means of a model, e.g. mathematical model or statistical model
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/41Bandwidth or redundancy reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • H04N19/122Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/147Data rate or code amount at the encoder output according to rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/18Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a set of transform coefficients
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/192Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding the adaptation method, adaptation tool or adaptation type being iterative or recursive
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/40Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video transcoding, i.e. partial or full decoding of a coded input stream followed by re-encoding of the decoded output stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/98Adaptive-dynamic-range coding [ADRC]

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Algebra (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Discrete Mathematics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)

Abstract

(57)【要約】 【課題】 画像や音声等の復号データの品質を、より向
上させる。 【解決手段】 復号部21は、例えば、画像をJPEG符号
化した符号化データを復号し、符号化部22は、その結
果得られる第1復号データを符号化して、再符号化デー
タを出力する。さらに、復号部23は、再符号化データ
を復号して、第2復号データを得る。クラス分類適応処
理回路24は、学習を行うことにより求められたタップ
係数との所定の予測演算を行う予測タップを、第1復号
データと第2復号データから生成し、予測タップとタッ
プ係数とを用いて、所定の予測演算を行うことにより、
学習において教師として用いられた教師データに対応す
る予測値を求める。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、データ処理装置お
よびデータ処理方法、並びにプログラムおよび記録媒体
に関し、特に、例えば、画質の良い画像や、音質の良い
音声等を復号することができるようにするデータ処理装
置およびデータ処理方法、並びにプログラムおよび記録
媒体に関する。
【0002】
【従来の技術】本件出願人は、画像の画質や音声の音質
を向上させる方法として、クラス分類適応処理を、先に
提案している。
【0003】クラス分類適応処理は、クラス分類処理と
適応処理とからなり、クラス分類処理によって、データ
を、その性質に基づいてクラス分けし、各クラスごとに
適応処理を施すものであり、適応処理は、以下のような
手法のものである。
【0004】即ち、例えば、いま、画像を対象とする
と、適応処理では、例えば、低画質の画像の画素値と、
所定のタップ係数との線形結合により、高画質の画像の
画素値の予測値を求めることで、低画質の画像が、高画
質の画像に変換される。
【0005】具体的には、例えば、いま、ある高画質の
画像を教師データとするとともに、その高画質の画像
を、例えば、JPEG(Joint Photographic Experts Group)
方式やMPEG(Moving Picture Experts Group)方式等によ
って符号化し、さらに、その符号化データを復号して得
られる、画質の低下した復号画像を生徒データとして、
教師データである高画質の画素値yの予測値E[y]
を、生徒データである低画質の画素値の幾つかx1
2,・・・の集合と、所定のタップ係数w1,w2,・
・・の線形結合により規定される線形1次結合モデルに
より求めることを考える。この場合、予測値E[y]
は、次式で表すことができる。
【0006】 E[y]=w11+w22+・・・・・・(1)
【0007】式(1)を一般化するために、タップ係数
jの集合でなる行列W、生徒データxijの集合でなる
行列X、および予測値E[yj]の集合でなる行列Y’
を、
【数1】 で定義すると、次のような観測方程式が成立する。
【0008】XW=Y’・・・(2) ここで、行列Xの成分xijは、i件目の生徒データの集
合(i件目の教師データyiの予測に用いる生徒データ
の集合)の中のj番目の生徒データを意味し、行列Wの
成分wjは、生徒データの集合の中のj番目の生徒デー
タとの積が演算されるタップ係数を表す。また、y
iは、i件目の教師データを表し、従って、E[yi
は、i件目の教師データの予測値を表す。なお、式
(1)の左辺におけるyは、行列Yの成分yiのサフィ
ックスiを省略したものであり、また、式(1)の右辺
におけるx1,x2,・・・も、行列Xの成分xijのサフ
ィックスiを省略したものである。
【0009】式(2)の観測方程式に最小自乗法を適用
して、画質の良い画素値yに近い予測値E[y]を求め
ることを考える。この場合、教師データとなる画素値y
の集合でなる行列Y、および画素値yに対する予測値E
[y]の残差eの集合でなる行列Eを、
【数2】 で定義すると、式(2)から、次のような残差方程式が
成立する。
【0010】 XW=Y+E・・・(3)
【0011】この場合、元の画素値yに近い予測値E
[y]を求めるためのタップ係数wjは、自乗誤差
【数3】 を最小にすることで求めることができる。
【0012】従って、上述の自乗誤差をタップ係数wj
で微分したものが0になる場合、即ち、次式を満たすタ
ップ係数wjが、画素値yに近い予測値E[y]を求め
るため最適値ということになる。
【0013】
【数4】 ・・・(4)
【0014】そこで、まず、式(3)を、タップ係数w
jで微分することにより、次式が成立する。
【0015】
【数5】 ・・・(5)
【0016】式(4)および(5)より、式(6)が得
られる。
【数6】 ・・・(6)
【0017】さらに、式(3)の残差方程式における生
徒データxij、タップ係数wj、教師データyi、および
残差eiの関係を考慮すると、式(6)から、次のよう
な正規方程式を得ることができる。
【0018】
【数7】 ・・・(7)
【0019】なお、式(7)に示した正規方程式は、行
列(共分散行列)Aおよびベクトルvを、
【数8】 で定義するとともに、ベクトルWを、数1で示したよう
に定義すると、式 AW=v・・・(8) で表すことができる。
【0020】式(7)における各正規方程式は、生徒デ
ータxijおよび教師データyiのセットを、ある程度の
数だけ用意することで、求めるべきタップ係数wjの数
Jと同じ数だけたてることができ、従って、式(8)
を、ベクトルWについて解くことで(但し、式(8)を
解くには、式(8)における行列Aが正則である必要が
ある)、統計的な予測誤差を最小にするタップ係数(こ
こでは、自乗誤差を最小にするタップ係数)wjを求め
ることができる。なお、式(8)を解くにあたっては、
例えば、掃き出し法(Gauss-Jordanの消去法)などを用
いることが可能である。
【0021】以上のようにして、統計的な予測誤差を最
小にするタップ係数wjを求めておき、さらに、そのタ
ップ係数wjを用い、式(1)により、高画質の画素値
yに近い予測値E[y]を求めるのが適応処理である。
【0022】なお、例えば、教師データとして、符号化
する画像と同一画質の画像を用いるとともに、生徒デー
タとして、その教師データを復号して得られる復号画像
を用いた場合、タップ係数としては、符号化された画像
データを、元の画像データに復号するのに、予測誤差が
統計的に最小となるものが得られることになる。
【0023】また、例えば、教師データとして、符号化
する画像よりも高解像度の画像を用いるとともに、生徒
データとして、その教師データの解像度を、符号化する
画像と同一画質に劣化させ、それを符号化して復号する
ことにより得られる復号画像を用いた場合、タップ係数
としては、符号化された画像データを、高解像度の画像
データに復号するのに、予測誤差が統計的に最小となる
ものが得られることになる。
【0024】従って、この場合、適応処理によれば、教
師データまたは生徒データとなる画像を変えることで、
復号画像の画質を任意に調整することの可能なタップ係
数を得ることができる。
【0025】なお、適応処理は、学習によって、予測誤
差が統計的に最小になるタップ係数が用いられる点、お
よびそのようなタップ係数を用いることにより、符号化
される画像には含まれていない高周波数成分が再現され
ることがある点等において、フィルタによる単なるフィ
ルタリングとは大きく異なる。
【0026】
【発明が解決しようとする課題】以上から、符号化デー
タを復号した復号画像を対象に、クラス分類適応処理を
行った場合には、画質を向上させた復号画像を得ること
ができる。
【0027】しかしながら、符号化データを復号した復
号画像の画質が、例えば、符号化データを伝送する伝送
路の状態や、画像データの符号化時における圧縮率等に
起因して大きく劣化している場合には、復号画像だけを
用いてクラス分類適応処理を行っても、その画質を十分
に改善することが困難なことがあった。
【0028】本発明は、このような状況に鑑みてなされ
たものであり、品質が十分に改善されたデータを得るこ
とができるようにするものである。
【0029】
【課題を解決するための手段】本発明の第1のデータ処
理装置は、符号化データを復号し、復号データを出力す
る復号手段と、復号データを符号化し、再符号化データ
を出力する再符号化手段と、学習を行うことにより求め
られたタップ係数との所定の予測演算を行う予測タップ
を、復号データと、再符号化データから得られる情報と
から生成する予測タップ生成手段と、予測タップとタッ
プ係数とを用いて、所定の予測演算を行うことにより、
学習において教師として用いられた教師データに対応す
る予測値を求める予測手段とを備えることを特徴とす
る。
【0030】本発明の第1のデータ処理方法は、符号化
データを復号し、復号データを出力する復号ステップ
と、復号データを符号化し、再符号化データを出力する
再符号化ステップと、学習を行うことにより求められた
タップ係数との所定の予測演算を行う予測タップを、復
号データと、再符号化データから得られる情報とから生
成する予測タップ生成ステップと、予測タップとタップ
係数とを用いて、所定の予測演算を行うことにより、学
習において教師として用いられた教師データに対応する
予測値を求める予測ステップとを備えることを特徴とす
る。
【0031】本発明の第1のプログラムは、符号化デー
タを復号し、復号データを出力する復号ステップと、復
号データを符号化し、再符号化データを出力する再符号
化ステップと、学習を行うことにより求められたタップ
係数との所定の予測演算を行う予測タップを、復号デー
タと、再符号化データから得られる情報とから生成する
予測タップ生成ステップと、予測タップとタップ係数と
を用いて、所定の予測演算を行うことにより、学習にお
いて教師として用いられた教師データに対応する予測値
を求める予測ステップとを備えることを特徴とする。
【0032】本発明の第1の記録媒体は、符号化データ
を復号し、復号データを出力する復号ステップと、復号
データを符号化し、再符号化データを出力する再符号化
ステップと、学習を行うことにより求められたタップ係
数との所定の予測演算を行う予測タップを、復号データ
と、再符号化データから得られる情報とから生成する予
測タップ生成ステップと、予測タップとタップ係数とを
用いて、所定の予測演算を行うことにより、学習におい
て教師として用いられた教師データに対応する予測値を
求める予測ステップとを備えるプログラムが記録されて
いることを特徴とする。
【0033】本発明の第2のデータ処理装置は、教師と
なる教師データから、その教師データを符号化して復号
した復号データと、その復号データを符号化した再符号
化データから得られる情報とを、生徒となる生徒データ
として生成する生徒データ生成手段と、教師データを予
測するのに用いる予測タップを、生徒データから生成す
る予測タップ生成手段と、予測タップとタップ係数とを
用いて、所定の予測演算を行うことにより得られる教師
データの予測値の予測誤差が、統計的に最小になるよう
に学習を行い、タップ係数を求める学習手段とを備える
ことを特徴とする。
【0034】本発明の第2のデータ処理方法は、教師と
なる教師データから、その教師データを符号化して復号
した復号データと、その復号データを符号化した再符号
化データから得られる情報とを、生徒となる生徒データ
として生成する生徒データ生成ステップと、教師データ
を予測するのに用いる予測タップを、生徒データから生
成する予測タップ生成ステップと、予測タップとタップ
係数とを用いて、所定の予測演算を行うことにより得ら
れる教師データの予測値の予測誤差が、統計的に最小に
なるように学習を行い、タップ係数を求める学習ステッ
プとを備えることを特徴とする。
【0035】本発明の第2のプログラムは、教師となる
教師データから、その教師データを符号化して復号した
復号データと、その復号データを符号化した再符号化デ
ータから得られる情報とを、生徒となる生徒データとし
て生成する生徒データ生成ステップと、教師データを予
測するのに用いる予測タップを、生徒データから生成す
る予測タップ生成ステップと、予測タップとタップ係数
とを用いて、所定の予測演算を行うことにより得られる
教師データの予測値の予測誤差が、統計的に最小になる
ように学習を行い、タップ係数を求める学習ステップと
を備えることを特徴とする。
【0036】本発明の第2の記録媒体は、教師となる教
師データから、その教師データを符号化して復号した復
号データと、その復号データを符号化した再符号化デー
タから得られる情報とを、生徒となる生徒データとして
生成する生徒データ生成ステップと、教師データを予測
するのに用いる予測タップを、生徒データから生成する
予測タップ生成ステップと、予測タップとタップ係数と
を用いて、所定の予測演算を行うことにより得られる教
師データの予測値の予測誤差が、統計的に最小になるよ
うに学習を行い、タップ係数を求める学習ステップとを
備えるプログラムが記録されていることを特徴とする。
【0037】本発明の第3のデータ処理装置は、データ
を符号化した符号化データを復号し、復号データを出力
する復号手段と、復号データを符号化し、再符号化デー
タを出力する再符号化手段と、クラス分類に用いるクラ
スタップを、復号データと、再符号化データから得られ
る情報とから生成するクラスタップ生成手段と、クラス
タップに基づいて、クラス分類を行うクラス分類手段と
を備えることを特徴とする。
【0038】本発明の第3のデータ処理方法は、データ
を符号化した符号化データを復号し、復号データを出力
する復号ステップと、復号データを符号化し、再符号化
データを出力する再符号化ステップと、クラス分類に用
いるクラスタップを、復号データと、再符号化データか
ら得られる情報とから生成するクラスタップ生成ステッ
プと、クラスタップに基づいて、クラス分類を行うクラ
ス分類ステップとを備えることを特徴とする。
【0039】本発明の第3のプログラムは、データを符
号化した符号化データを復号し、復号データを出力する
復号ステップと、復号データを符号化し、再符号化デー
タを出力する再符号化ステップと、クラス分類に用いる
クラスタップを、復号データと、再符号化データから得
られる情報とから生成するクラスタップ生成ステップ
と、クラスタップに基づいて、クラス分類を行うクラス
分類ステップとを備えることを特徴とする。
【0040】本発明の第3の記録媒体は、データを符号
化した符号化データを復号し、復号データを出力する復
号ステップと、復号データを符号化し、再符号化データ
を出力する再符号化ステップと、クラス分類に用いるク
ラスタップを、復号データと、再符号化データから得ら
れる情報とから生成するクラスタップ生成ステップと、
クラスタップに基づいて、クラス分類を行うクラス分類
ステップとを備えるプログラムが記録されていることを
特徴とする。
【0041】本発明の第1のデータ処理装置およびデー
タ処理方法、並びにプログラムおよび記録媒体において
は、符号化データが復号され、その結果得られる復号デ
ータが符号化されて、再符号化データが出力される。そ
して、学習を行うことにより求められたタップ係数との
所定の予測演算を行う予測タップが、復号データと、再
符号化データから得られる情報とから生成され、予測タ
ップとタップ係数とを用いて、所定の予測演算を行うこ
とにより、学習において教師として用いられた教師デー
タに対応する予測値が求められる。
【0042】本発明の第2のデータ処理装置およびデー
タ処理方法、並びにプログラムおよび記録媒体において
は、教師となる教師データから、その教師データを符号
化して復号した復号データと、その復号データを符号化
した再符号化データから得られる情報とが、生徒となる
生徒データとして生成される。そして、教師データを予
測するのに用いる予測タップが、生徒データから生成さ
れ、予測タップとタップ係数とを用いて、所定の予測演
算を行うことにより得られる教師データの予測値の予測
誤差が、統計的に最小になるように学習が行われ、タッ
プ係数が求められる。
【0043】本発明の第3のデータ処理装置およびデー
タ処理方法、並びにプログラムおよび記録媒体において
は、データを符号化した符号化データが復号され、その
結果得られる復号データが符号化されて、再符号化デー
タが出力される。そして、クラス分類に用いるクラスタ
ップが、復号データと、再符号化データから得られる情
報とから生成され、そのクラスタップに基づいて、クラ
ス分類が行われる。
【0044】
【発明の実施の形態】図1は、本発明を適用したデータ
伝送システムの一実施の形態の構成例を示している。
【0045】伝送すべきデータは、エンコーダ1に供給
されるようになっており、エンコーダ1は、そこに供給
されるデータを、例えば、所定の符号化方式にしたがっ
て符号化し、符号化データとする。この符号化データ
は、例えば、半導体メモリ、光磁気ディスク、磁気ディ
スク、光ディスク、磁気テープ、相変化ディスクなどで
なる記録媒体3に記録され、あるいは、また、例えば、
地上波、衛星回線、CATV(Cable Television)網、
インターネット、公衆回線などでなる伝送媒体4を介し
て伝送される。
【0046】デコーダ2は、記録媒体3または伝送媒体
4を介して提供される符号化データを受信して復号し、
その結果得られる復号データを出力する。復号データ
が、例えば、画像データである場合には、その画像デー
タは、例えば、図示せぬディスプレイに供給されて表示
される。また、符号化データが、例えば、音声データで
ある場合には、その音声データは、例えば、図示せぬス
ピーカに供給されて出力される。
【0047】次に、図2は、図1のデコーダ2の構成例
を示している。
【0048】符号化データは、復号部21に供給される
ようになっており、復号部21は、例えば、エンコーダ
1における符号化方式に対応する復号方式にしたがっ
て、符号化データを復号し、その結果得られる復号デー
タを、符号化部22とクラス分類適応処理回路24に供
給する。さらに、復号部21は、符号化データを復号す
る過程において得られる情報を、付加情報として、クラ
ス分類適応処理回路24に供給する。
【0049】符号化部22は、復号部21から供給され
る復号データを、例えば、図1のエンコーダ1における
のと同一の符号化方式にしたがって符号化(再符号化)
し、再符号化データを得る。この再符号化データは、符
号化部22から復号部23に供給される。
【0050】復号部23は、例えば、復号部21と同様
にして、符号化部22からの再符号化データを復号し、
その結果得られる復号データを、クラス分類適応処理回
路24に供給する。さらに、復号部23は、再符号化デ
ータを復号する過程において得られる情報を、付加情報
として、クラス分類適応処理回路24に供給する。
【0051】ここで、以下、適宜、最初の復号を行う復
号部21が出力する復号データを第1復号データと、2
番目の復号を行う復号部23が出力する復号データを第
2復号データと、それぞれ記述する。同様に、以下、適
宜、最初の復号を行う復号部21が出力する付加情報を
第1付加情報と、2番目の復号を行う復号部23が出力
する付加情報を第2付加情報と、それぞれ記述する。ま
た、以下、適宜、第1復号データと第2復号データをま
とめて、単に、復号データとも記述する。同様に、以
下、適宜、第1付加情報と第2付加情報をまとめて、単
に、付加情報とも記述する。
【0052】クラス分類適応処理回路24は、復号部2
1から供給される第1復号データと第1付加情報、さら
には、復号部23から供給される第2復号データと第2
付加情報を用いて、クラス分類適応処理を行い、符号化
データの最終的な復号結果としての復号データ(以下、
適宜、最終的な復号データという)を出力する。
【0053】従って、クラス分類適応処理回路24で
は、符号化データを復号して得られる第1復号データの
他、その復号過程で得られる第1付加情報、さらには、
第1復号データを再符号化し、その再符号化データを復
号した第2復号データ、および再符号化データを復号す
る過程で得られる第2付加情報を用いて、クラス分類適
応処理が行われるので、第1符号化データの品質が大き
く劣化している場合であっても、最終的な復号データと
して、十分に品質が改善されたものを得ることが可能と
なる。
【0054】なお、復号部23の後段には、符号化部2
2と復号部23のセットと同様のセットを、1以上設け
ることができ、これにより、クラス分類適応処理回路2
4には、第2符号化データを符号化し、その結果得られ
る符号化データを復号した第3復号データや、その復号
過程で得られる第3付加情報を供給して、クラス分類適
応処理を行わせることが可能である。
【0055】次に、図3は、図2のクラス分類適応処理
回路24の構成例を示している。
【0056】第1復号データ、第1付加情報、第2復号
データ、および第2付加情報は、タップ生成部31と3
2に供給される。
【0057】タップ生成部31は、第1復号データ、第
1付加情報、第2復号データ、および第2付加情報か
ら、後述する予測部35における予測演算に用いられる
予測タップとなるものを生成する。即ち、タップ生成部
31は、例えば、品質を改善しようとして注目している
注目データに対して、時間的または空間的に近い位置に
ある第1復号データと第2復号データを抽出するととと
もに、その第1復号データと第2復号データの復号にそ
れぞれ用いられた第1付加情報と第2付加情報を抽出
し、その抽出したデータ(情報)を、予測タップとし
て、予測部35に供給する。
【0058】タップ生成部32は、第1復号データ、第
1付加情報、第2復号データ、および第2付加情報か
ら、後述するクラス分類部33におけるクラス分類に用
いられるクラスタップとなるものを生成する。即ち、タ
ップ生成部32は、例えば、注目データについて、タッ
プ生成部31で生成される予測タップと同一構成のクラ
スタップを生成し、クラス分類部35に供給する。
【0059】なお、ここでは、説明を簡単にするため
に、同一のクラスタップおよび予測タップを構成するよ
うにしたが、クラスタップと予測タップとは、異なる構
成とすること、即ち、第1復号データ、第1付加情報、
第2復号データ、および第2付加情報から、異なるデー
タを抽出して生成することが可能である。
【0060】クラス分類部33は、タップ生成部32か
らのクラスタップに基づき、注目データについてクラス
分類を行い、その結果得られるクラスに対応するクラス
コードを、係数メモリ34に出力する。
【0061】係数メモリ34は、後述する図6の学習装
置において学習処理が行われることにより得られる、ク
ラスごとのタップ係数を記憶しており、クラス分類部3
3が出力するクラスコードに対応するアドレスに記憶さ
れているタップ係数を、予測部35に出力する。
【0062】予測部35は、タップ生成部31が出力す
る予測タップと、係数メモリ34が出力するタップ係数
とを取得し、その予測タップとタップ係数とを用いて、
式(1)に示した線形予測演算(積和演算)を行い、注
目データについて品質を改善したデータ、即ち、注目デ
ータを高品質にしたものの予測値を求めて出力する。
【0063】次に、図4は、図3のクラス分類部33の
構成例を示している。
【0064】クラス分類部33は、例えば、図4(A)
に示すように、ADRC(Adaptive Dynamic Range Coding)
回路41Aおよび41B、並びに合成回路41Cで構成
することができる。
【0065】この場合、ADRC回路41Aと41Bは、ク
ラスタップを構成する復号データと付加情報をそれぞれ
KビットADRC処理し、その結果得られるADRCコードを、
合成回路41Cに出力する。
【0066】ここで、KビットADRC処理においては、例
えば、クラスタップを構成する情報の最大値MAXと最小
値MINが検出され、DR=MAX-MINを、集合の局所的なダイ
ナミックレンジとし、このダイナミックレンジDRに基づ
いて、クラスタップを構成する情報がKビットに再量子
化される。即ち、クラスタップを構成する各情報から、
最小値MINが減算され、その減算値がDR/2Kで除算(量子
化)される。そして、以上のようにして得られる、クラ
スタップを構成する各情報のKビットの値を、所定の順
番で並べたビット列が、ADRCコードとして出力される。
【0067】合成回路41Cは、ADRC回路41Aが出力
する復号データのADRCコードと、ADRC回路41Bが出力
する付加情報のADRCコードとを、1つのコードに合成
し、クラスコードとして出力する。
【0068】ここで、後述するように、クラスタップを
構成する付加情報は、1種類とは限らないが、付加情報
が複数種類存在する場合には、ADRC回路41Bでは、そ
の複数種類の付加情報それぞれについて、ADRC処理が行
われ、複数のADRCコードが出力される。そして、合成回
路41Cでは、その複数のADRCコードから、1つのコー
ドが生成される。後述する図4(B)乃至図4(C)そ
れぞれに示すクラス分類部33においても同様である。
【0069】次に、クラス分類部33は、例えば、図4
(B)に示すように、演算器42Aおよび42Bと、図
4(A)に示したADRC回路41Aおよび41B、並びに
合成回路41Cとから構成することもできる。
【0070】即ち、この場合、演算器42Aは、クラス
タップを構成する第1復号データと、その第1復号デー
タに対応する第2復号データとの差分を演算し、その差
分値を、ADRC回路41Aに供給する。演算器42Bは、
クラスタップを構成する第1付加情報と、その第1付加
情報に対応する第2付加情報との差分を演算し、その差
分値を、ADRC回路41Bに出力する。
【0071】ここで、第1復号データに対応する第2復
号データとは、例えば、復号データが画像である場合に
は、第1復号データとして得られた復号画素と同一の、
第2復号データとして得られた復号画素を意味する。即
ち、あるフレームfにおける位置(x,y)における第
1復号データと第2復号データとしての復号画素を、そ
れぞれ、p1(f,x,y)とp2(f,x,y)と表
すこととすると、第1復号データp1(f,x,y)に
対応する第2復号データとは、p2(f,x,y)を意
味する。
【0072】また、第1付加情報に対応する第2付加情
報とは、例えば、復号データが後述するCELP(Code Exci
ted Liner Prediction coding)方式で復号された音声デ
ータであり、かつ、付加情報が、その復号の過程で得ら
れる線形予測係数である場合には、第1付加情報として
得られた線形予測係数と同一次数の、第2付加情報とし
て得られた線形予測係数を意味する。即ち、あるフレー
ム(またはサブフレーム)fにおける第1復号データと
第2復号データとしての音声の復号に用いられる第p次
の線形予測係数を、それぞれ、α1(f,p)とα2
(f,p)と表すこととすると、第1付加情報α1
(f,p)に対応する第2付加情報とは、α2(f,
p)を意味する。さらに、例えば、復号データが、後述
するJPEG方式で復号された画像データであり、かつ付加
情報が、その復号の過程で得られるDCT係数である場合
には、第1付加情報に対応する第2付加情報とは、第1
付加情報として得られたDCT係数と同一空間周波数成分
の、第2付加情報として得られたDCT係数を意味する。
即ち、あるフレームfの、ある8×8のブロックbにお
ける位置(x,y)の第1付加情報と第2付加情報とし
てのDCT係数を、それぞれ、d1(f,b,x,y)と
d2(f,b,x,y)と表すこととすると、第1付加
情報d1(f,b,x,y)に対応する第2付加情報と
は、d2(f,b,x,y)を意味する。
【0073】以下、第1復号データと第2復号データの
差分値、および第1付加情報と第2付加情報との差分値
について、図4(A)における場合と同様の処理が行わ
れ、クラスコードが求められる。
【0074】さらに、クラス分類回路33は、例えば、
図4(C)に示すように構成することも可能である。
【0075】この場合も、図4(B)における場合と同
様に、演算器42Aにおいて、第1復号データと第2復
号データとの差分値が求められるとともに、演算器42
Bにおいて、第1付加情報と第2付加情報との差分値が
求められる。
【0076】第1復号データと第2復号データとの差分
値は、演算器42Aから極性判別回路43Cに供給さ
れ、極性判別回路43Cは、第1復号データと第2復号
データとの差分値の極性(符号)を判別し、その極性に
応じて、0または1を、合成回路43Eに出力する。
【0077】また、第1付加情報と第2付加情報との差
分値は、演算器42Bから極性判別回路43Dに供給さ
れ、極性判別回路43Dは、第1付加情報と第2付加情
報との差分値の極性を判別し、やはり、その極性に応じ
て、0または1を、合成回路43Eに出力する。
【0078】合成回路43Eは、極性判別回路43Cと
44Cそれぞれからの、極性に対応する0または1の系
列を、1つのコードに合成し、クラスコードとして出力
する。
【0079】さらに、クラス分類部33は、図4(D)
に示すように、遅延回路44Aおよび44B、並びに演
算器44Cおよび44Dと、図4(A)に示したADRC回
路41Aおよび41B、並びに合成回路41Cとから構
成することも可能である。
【0080】この場合、遅延回路44Aは、クラスタッ
プを構成する復号データを、例えば、1サンプル分の時
間だけ遅延して、演算器44Cに供給する。演算器44
Cは、クラスタップを構成する復号データと、遅延回路
44Aからの、その復号データを遅延したものとの差分
を演算し、その差分値を、ADRC回路41Aに供給する。
【0081】一方、遅延回路44Bは、クラスタップを
構成する付加情報を、例えば、1サンプル分の時間だけ
遅延して、演算器44Dに供給する。演算器44Dは、
クラスタップを構成する付加情報と、遅延回路44Bか
らの、その付加情報を遅延したものとの差分を演算し、
その差分値を、ADRC回路41Bに供給する。
【0082】以下、ADRC回路41Aおよび41B、並び
に合成回路41Cでは、上述の差分値を対象に、図4
(A)における場合と同様の処理が行われ、クラスコー
ドが出力される。
【0083】なお、クラス分類部33は、その他、例え
ば、図4(A)乃至図4(D)に示した回路のうちの任
意の2以上の出力を1つのコードに合成して出力する回
路によって構成することも可能である。
【0084】さらに、クラス分類部33は、図4に示し
た回路以外の回路によって構成することも可能である。
即ち、例えば、符号化データが、JPEGやMPEG符号化され
たもののような、その復号過程において、直交変換係数
の1つであるDCT(Discrete Cosine Transform)係数が得
られるものであり、クラスタップを構成する付加情報
に、そのようなDCT係数が含まれる場合には、クラス分
類部33は、8×8のブロックのDCT係数から得られる
画像のアクティビティに基づくクラスコードを出力した
り、注目している画素のブロック内の位置に基づくクラ
スコードを出力したりするように構成することが可能で
ある。また、クラス分類部33は、例えば、クラスタッ
プを構成する復号データや付加情報のベクトル量子化結
果を、クラスコードとして出力するように構成すること
等も可能である。
【0085】次に、図5のフローチャートを参照して、
図2のデコーダ2の処理(復号処理)について説明す
る。
【0086】復号部21は、エンコーダ1における符号
化方式に対応する復号方式にしたがって、符号化データ
を復号し、その結果得られる第1復号データを、符号化
部22とクラス分類適応処理回路24に供給する。さら
に、復号部21は、符号化データを復号する過程におい
て得られる情報を、第1付加情報として、クラス分類適
応処理回路24に供給する。符号化部22は、復号部2
1から供給される符号化データを再符号化し、その結果
得られる再符号化データを、復号部23に供給する。復
号部23は、復号部21と同様にして、符号化部22か
らの再符号化データを復号し、その結果得られる第2復
号データを、クラス分類適応処理回路24に供給する。
さらに、復号部23は、再符号化データを復号する過程
において得られる情報を、第2付加情報として、クラス
分類適応処理回路24に供給する。
【0087】クラス分類適応処理回路24(図3)で
は、ステップS1において、タップ生成部31が、そこ
に供給される第1復号データを、順次、注目データと
し、例えば、その注目データに対して、時間的または空
間的に近い位置にある第1復号データ、注目データに対
応する第2復号データに対して、時間的または空間的に
近い位置にある第2復号データ、注目データの復号過程
で得られた第1付加情報、注目データに対応する第2復
号データの復号過程で得られた第2付加情報から、注目
データについての予測タップを生成し、予測部35に出
力する。さらに、ステップS1では、タップ生成部32
が、例えば、タップ生成部31と同様にして、注目デー
タについてのクラスタップを生成し、クラス分類部33
に出力する。
【0088】そして、ステップS2に進み、クラス分類
部33は、タップ生成部32から供給されるクラスタッ
プに基づいて、クラス分類を行い、その結果得られるク
ラスコードを、係数メモリ34に供給して、ステップS
3に進む。
【0089】ステップS3では、係数メモリ34は、ク
ラス分類部33から供給されるクラスコードに対応する
アドレスから、タップ係数を読み出し、予測部35に供
給する。
【0090】そして、ステップS4に進み、予測部35
は、係数メモリ34が出力するタップ係数を取得し、そ
のタップ係数と、タップ生成部31からの予測タップと
を用いて、式(1)に示した積和演算を行い、注目デー
タを高品質にしたデータ(の予測値)を得て、ステップ
S5に進む。
【0091】ステップS5では、まだ、注目データとし
て処理すべき第1復号データがあるかどうかが判定さ
れ、あると判定された場合、ステップS1に戻り、次に
注目データとすべき第1復号データを、新たに注目デー
タとして、以下、同様の処理を繰り返す。また、ステッ
プS5において、注目データとして処理すべきデータが
ないと判定された場合、処理を終了する。
【0092】次に、図6は、図3の係数メモリ34に記
憶させるタップ係数の学習処理を行う学習装置の一実施
の形態の構成例を示している。
【0093】学習装置には、図1のエンコーダ1におい
て符号化の対象とされるデータの、例えば、高品質のも
のが、学習用データとして供給される。この学習用デー
タは、学習の教師となる教師データとして、生徒データ
生成部51と正規方程式加算回路60に供給される。
【0094】生徒データ生成部51は、そこに供給され
る教師データから、学習の生徒となる生徒データを生成
する。
【0095】即ち、生徒データ生成部51は、符号化部
52、媒体特性反映部53、復号部54、符号化部5
5、および復号部56から構成される。
【0096】符号化部52は、教師データを、図1のエ
ンコーダ1と同様にして符号化し、その結果得られる符
号化データを、媒体特性反映部53に供給する。媒体特
性反映部53は、図1の記録媒体3または伝送媒体4を
介することによって信号に付加される雑音等を、符号化
部52からの符号化データに付加し(反映し)、復号部
54に供給する。
【0097】復号部54、符号化部55、復号部56
は、図2に示したデコーダ2の復号部21、符号化部2
2、復号部23とそれぞれ同様に構成される。従って、
復号部54、符号化部55、復号部56では、媒体特性
反映部53が出力する符号化データが、図2の復号部2
1、符号化部22、復号部23それぞれにおける場合と
同様に処理され、その結果、復号部54は、第1復号デ
ータおよび第1付加情報を、復号部56は、第2復号デ
ータおよび第2付加情報を、それぞれ、生徒データとし
て出力する。この生徒データとしての第1復号データお
よび第1付加情報、並びに第2復号データおよび第2付
加情報は、タップ生成部57および58に供給される。
【0098】なお、図2のデコーダ2は、上述したよう
に、復号部23の後段に、符号化部22と復号部23の
セットと同様のセットを、1以上設けて構成することが
できるが、この場合、図6の学習装置の生徒データ生成
部51は、デコーダ2と同様に、復号部54の後段に、
符号化部55と復号部56のセットと同様のセットを、
1以上設けて構成する必要がある。
【0099】タップ生成部57は、図3のクラス分類適
応処理回路24のタップ生成部31と同様に構成され、
そこに供給される生徒データとしての第1復号データお
よび第1付加情報、並びに第2復号データおよび第2付
加情報から、タップ生成部31における場合と同様にし
て、予測タップを生成し、正規方程式加算回路60に供
給する。
【0100】タップ生成部58は、図3のクラス分類適
応処理回路24のタップ生成部32と同様に構成され、
そこに供給される生徒データとしての第1復号データお
よび第1付加情報、並びに第2復号データおよび第2付
加情報から、タップ生成部32における場合と同様にし
て、クラスタップを生成し、クラス分類部59に供給す
る。
【0101】クラス分類部59は、タップ生成部58か
ら供給されるクラスタップに基づいて、図3のクラス分
類適応処理回路24のクラス分類部33における場合と
同様のクラス分類を行い、その結果得られるクラスコー
ドを、正規方程式加算回路60に供給する。
【0102】正規方程式加算回路60は、そこに供給さ
れる教師データを、順次、注目教師データとして、タッ
プ生成部57から供給される、注目教師データについて
生成された予測タップと、注目教師データを対象とした
足し込みを、クラス分類部59から供給されるクラスコ
ードが表すクラスごとに行う。
【0103】即ち、正規方程式加算回路60は、クラス
分類部59から供給されるクラスコードに対応するクラ
スごとに、予測タップ(生徒データ)を用い、式(8)
の行列Aにおける各コンポーネントとなっている、生徒
データどうしの乗算(xin im)と、サメーション
(Σ)に相当する演算を行う。
【0104】さらに、正規方程式加算回路60は、やは
り、クラス分類部59から供給されるクラスコードに対
応するクラスごとに、予測タップ(生徒データ)および
注目教師データを用い、式(8)のベクトルvにおける
各コンポーネントとなっている、生徒データと注目教師
データの乗算(xini)と、サメーション(Σ)に相
当する演算を行う。
【0105】正規方程式加算回路60は、以上の足し込
みを、そこに供給される教師データすべてを注目教師デ
ータとして行い、これにより、各クラスについて、式
(8)に示した正規方程式をたてる。
【0106】タップ係数決定回路61は、正規方程式加
算回路60においてクラスごとに生成された正規方程式
を解くことにより、クラスごとに、タップ係数を求め、
係数メモリ62の、各クラスに対応するアドレスに供給
する。
【0107】なお、学習用データの量や内容等によって
は、正規方程式加算回路60において、タップ係数を求
めるのに必要な数の正規方程式が得られないクラスが生
じる場合があり得るが、タップ係数決定回路61は、そ
のようなクラスについては、例えば、デフォルトのタッ
プ係数を出力する。
【0108】係数メモリ62は、タップ係数決定回路6
1から供給されるクラスごとのタップ係数を記憶する。
【0109】次に、図7のフローチャートを参照して、
図6の学習装置の処理(学習処理)について説明する。
【0110】学習装置には、学習用データが供給され、
この学習用データは、教師データとして、生徒データ生
成部51と正規方程式加算回路60に供給される。そし
て、ステップS11において、生徒データ生成部51
は、教師データから、生徒データを生成する。
【0111】即ち、ステップS11では、符号化部52
が、教師データを、図1のエンコーダ1と同様に符号化
し、その結果得られる符号化データを、媒体特性反映部
53を介して、復号部54に供給する。復号部54は、
そこに供給される符号化データを復号し、その結果得ら
れる第1復号データを、符号化部55に供給するととも
に、生徒データとして、タップ生成部57および58に
供給する。また、復号部54は、符号化データを第1復
号データに復号する過程において得られる第1付加情報
も、生徒データとして、タップ生成部57および58に
供給する。
【0112】さらに、ステップS11では、符号化部5
5が、復号部54からの第1復号データを再符号化し、
その結果得られる再符号化データを、復号部56に供給
する。復号部56は、符号化部55からの再符号化デー
タを復号し、その結果得られる第2復号データと、再符
号化データを第2復号データに復号する過程において得
られる第2付加情報を、生徒データとして、タップ生成
部57および58に供給する。
【0113】その後、正規方程式加算回路60におい
て、そこに供給される教師データが注目教師データとさ
れ、ステップS12に進み、タップ生成部57と58
が、そこに供給される生徒データから、注目教師データ
について、予測タップとクラスタップを、それぞれ生成
する。タップ生成部57で生成された予測タップは、正
規方程式加算回路61に供給され、タップ生成部58で
生成されたクラスタップは、クラス分類部59に供給さ
れる。
【0114】そして、ステップS13に進み、クラス分
類部59が、タップ生成部58からのクラスタップに基
づいて、クラス分類を行い、その結果得られるクラスコ
ードを、正規方程式加算回路60に供給して、ステップ
S14に進む。
【0115】ステップS14では、正規方程式加算回路
60は、クラス分類部59から供給されるクラスコード
が表すクラスについて、そこに供給される注目教師デー
タと、タップ生成部57から供給される予測タップを構
成する生徒データを対象とした、式(8)の行列Aとベ
クトルvの、上述したような足し込みを行い、ステップ
S15に進む。
【0116】ステップS15では、まだ、注目教師デー
タとして処理すべき教師データがあるかどうかが判定さ
れ、あると判定された場合、ステップS11に戻り、例
えば、次に供給される教師データを新たに注目教師デー
タとして、以下、同様の処理が繰り返される。
【0117】また、ステップS15において、注目教師
データとして処理すべき教師データがないと判定された
場合、即ち、例えば、正規方程式加算回路60におい
て、各クラスについて、正規方程式が得られた場合、ス
テップS16に進み、タップ係数決定回路61は、各ク
ラスごとに生成された正規方程式を解くことにより、各
クラスごとのタップ係数を求め、係数メモリ62の、各
クラスに対応するアドレスに供給して記憶させ、処理を
終了する。
【0118】以上のようにして、係数メモリ62に記憶
された各クラスごとのタップ係数が、図3の係数メモリ
34に記憶されている。
【0119】従って、図3の係数メモリ34に記憶され
たタップ係数は、線形予測演算を行うことにより得られ
る、学習用データと同様の品質のデータの予測値につい
て、その予測誤差(ここでは、自乗誤差)が、統計的に
最小になるように学習を行うことにより求められたもの
であるから、図3の予測部35が出力する最終的な復号
データは、学習用データと同様の品質のものとなる。
【0120】次に、図8は、図1のデータ伝送システム
が、音声信号(音声データ)をCELP(例えば、VSELP(Ve
ctor Sum Excited Liner Prediction),PSI-CELP(Pitch
Synchronous Innovation CELP),CS-ACELP(Conjugate
Structure Algebraic CELP)等の各種のCELPを含む)方
式で符号化して伝送する場合の、図1のエンコーダ1の
構成例を示している。なお、上述したことから、図1の
エンコーダ1が図8に示すように構成される場合は、図
2の符号化部22並びに図6の符号化部52および55
も、図8に示したのと同様に構成される。
【0121】符号化の対象となる音声信号(人の発話の
他、曲等の信号も含む)は、例えば、アナログの音声信
号を、8kHz等のサンプリング周波数でサンプリング
することにより、ディジタルの音声信号にA/D変換
し、さらに、所定のビット数で量子化を行って得られた
もので、演算器71とLPC(Liner Prediction Coeffi
cient)分析部72に供給される。
【0122】LPC分析部72は、そこに供給される符
号化対象の音声信号を、例えば、160サンプル分の長
さのフレームごとにLPC分析し、P次の線形予測係数
α1,α2,・・・,αPを求める。そして、LPC分析
部72は、このP次の線形予測係数αp(p=1,2,
・・・,P)を要素とするベクトルを、音声の特徴ベク
トルとして、ベクトル量子化部73に供給する。
【0123】ベクトル量子化部73は、線形予測係数を
要素とするコードベクトルとコードとを対応付けたコー
ドブックを記憶しており、そのコードブックに基づい
て、LPC分析部72からの特徴ベクトルαをベクトル
量子化し、そのベクトル量子化の結果得られるコード
(以下、適宜、Aコード(A_code)という)を、コード決
定部83に供給する。
【0124】さらに、ベクトル量子化部73は、Aコー
ドに対応するコードベクトルα’を構成する要素となっ
ている線形予測係数α1’,α2’,・・・,αP’を、
音声合成フィルタ74に供給する。
【0125】音声合成フィルタ74は、例えば、IIR
(Infinite Impulse Response)型のディジタルフィルタ
で、ベクトル量子化部73からの線形予測係数αp
(p=1,2,・・・,P)をIIRフィルタのタップ
係数とするとともに、演算器82から供給される残差信
号eを入力信号として、音声合成を行う。
【0126】即ち、LPC分析部72で行われるLPC
分析は、現在時刻nの音声信号(のサンプル値)sn
およびこれに隣接する過去のP個のサンプル値sn-1
n-2,・・・,sn-Pに、式 sn+α1n-1+α2n-2+・・・+αPn-P=en ・・・(9) で示す線形1次結合が成立すると仮定し、現在時刻nの
サンプル値snの予測値(線形予測値)sn’を、過去の
P個の標本値sn-1,sn-2,・・・,sn-Pを用いて、
式 sn’=−(α1n-1+α2n-2+・・・+αPn-P) ・・・(10) によって線形予測したときに、実際のサンプル値sn
線形予測値sn’との間の自乗誤差を最小にする線形予
測係数αpを求めるものである。
【0127】ここで、式(9)において、{en}(・・
・,en-1,en,en+1,・・・)は、平均値が0で、分散
が所定値σ2の互いに無相関な確率変数である。
【0128】式(9)から、サンプル値snは、式 sn=en−(α1n-1+α2n-2+・・・+αPn-P) ・・・(11) で表すことができ、これを、Z変換すると、次式が成立
する。
【0129】 S=E/(1+α1-1+α2-2+・・・+αP-P) ・・・(12) 但し、式(12)において、SとEは、式(11)にお
けるsnとenのZ変換を、それぞれ表す。
【0130】ここで、式(9)および(10)から、e
nは、式 en=sn−sn’・・・(13) で表すことができ、実際のサンプル値snと線形予測値
n’との間の残差信号と呼ばれる。
【0131】従って、式(12)から、線形予測係数α
pをIIRフィルタのタップ係数とするとともに、残差
信号enをIIRフィルタの入力信号とすることによ
り、音声信号snを求めることができる。
【0132】そこで、音声合成フィルタ74は、上述し
たように、ベクトル量子化部73からの線形予測係数α
p’をタップ係数とするとともに、演算器82から供給
される残差信号eを入力信号として、式(12)を演算
し、音声信号(合成音信号)ssを求める。
【0133】なお、音声合成フィルタ74では、LPC
分析部72によるLPC分析の結果得られる線形予測係
数αpではなく、そのベクトル量子化の結果得られるコ
ードに対応するコードベクトルとしての線形予測係数α
p’が用いられるため、音声合成フィルタ74が出力す
る合成音信号は、LPC分析前の音声信号とは、基本的に
同一にはならない。
【0134】音声合成フィルタ74が出力する合成音信
号ssは、演算器71に供給される。演算器71は、音
声合成フィルタ74からの合成音信号ssから、元の音
声信号sを減算し、その減算値を、自乗誤差演算部75
に供給する。自乗誤差演算部75は、演算器71からの
減算値の自乗和(第kフレームのサンプル値についての
自乗和)を演算し、その結果得られる自乗誤差を、自乗
誤差最小判定部76に供給する。
【0135】自乗誤差最小判定部76は、自乗誤差演算
部75が出力する自乗誤差に対応付けて、ラグを表すコ
ードとしてのLコード(L_code)、ゲインを表すコードと
してのGコード(G_code)、および符号語(励起コードブ
ック)を表すコードとしてのIコード(I_code)を記憶し
ており、自乗誤差演算部75が出力する自乗誤差に対応
するLコード、Gコード、およびLコードを出力する。
Lコードは、適応コードブック記憶部77に、Gコード
は、ゲイン復号器78に、Iコードは、励起コードブッ
ク記憶部79に、それぞれ供給される。さらに、Lコー
ド、Gコード、およびIコードは、コード決定部83に
も供給される。
【0136】適応コードブック記憶部77は、例えば7
ビットのLコードと、所定の遅延時間(ラグ)とを対応
付けた適応コードブックを記憶しており、演算器82か
ら供給される残差信号eを、自乗誤差最小判定部76か
ら供給されるLコードに対応付けられた遅延時間だけ遅
延して、演算器80に出力する。
【0137】ここで、適応コードブック記憶部77は、
残差信号eを、Lコードに対応する時間だけ遅延して出
力することから、その出力信号は、その遅延時間を周期
とする周期信号に近い信号となる。この信号は、線形予
測係数を用いた音声合成において、主として、有声音の
合成音を生成するための駆動信号となる。
【0138】ゲイン復号器78は、Gコードと、所定の
ゲインβおよびγとを対応付けたテーブルを記憶してお
り、自乗誤差最小判定部76から供給されるGコードに
対応付けられたゲインβおよびγを出力する。ゲインβ
とγは、演算器80と81に、それぞれ供給される。こ
こで、ゲインβは、長期フィルタ状態出力ゲインと呼ば
れるものであり、また、ゲインγは、励起コードブック
ゲインと呼ばれるものである。
【0139】励起コードブック記憶部79は、例えば9
ビットのIコードと、所定の励起信号とを対応付けた励
起コードブックを記憶しており、自乗誤差最小判定部7
6から供給されるIコードに対応付けられた励起信号
を、演算器81に出力する。
【0140】ここで、励起コードブックに記憶されてい
る励起信号は、例えば、ホワイトノイズ等に近い信号で
あり、線形予測係数を用いた音声合成において、主とし
て、無声音の合成音を生成するための駆動信号となる。
【0141】演算器80は、適応コードブック記憶部7
7の出力信号と、ゲイン復号器78が出力するゲインβ
とを乗算し、その乗算値lを、演算器82に供給する。
演算器81は、励起コードブック記憶部79の出力信号
と、ゲイン復号器78が出力するゲインγとを乗算し、
その乗算値nを、演算器82に供給する。演算器82
は、演算器80からの乗算値lと、演算器81からの乗
算値nとを加算し、その加算値を、残差信号eとして、
音声合成フィルタ74と適応コードブック記憶部77に
供給する。
【0142】音声合成フィルタ74では、以上のように
して、演算器82から供給される残差信号eを入力信号
が、ベクトル量子化部73から供給される線形予測係数
αp’をタップ係数とするIIRフィルタでフィルタリ
ングされ、その結果得られる合成音信号が、演算器71
に供給される。そして、演算器71および自乗誤差演算
部75において、上述の場合と同様の処理が行われ、そ
の結果得られる自乗誤差が、自乗誤差最小判定部76に
供給される。
【0143】自乗誤差最小判定部76は、自乗誤差演算
部75からの自乗誤差が最小(極小)になったかどうか
を判定する。そして、自乗誤差最小判定部76は、自乗
誤差が最小になっていないと判定した場合、上述のよう
に、その自乗誤差に対応するLコード、Gコード、およ
びLコードを出力し、以下、同様の処理が繰り返され
る。
【0144】一方、自乗誤差最小判定部76は、自乗誤
差が最小になったと判定した場合、確定信号を、コード
決定部83に出力する。コード決定部83は、ベクトル
量子化部73から供給されるAコードをラッチするとと
もに、自乗誤差最小判定部76から供給されるLコー
ド、Gコード、およびIコードを順次ラッチするように
なっており、自乗誤差最小判定部76から確定信号を受
信すると、そのときラッチしているAコード、Lコー
ド、Gコード、およびIコードを、チャネルエンコーダ
84に供給する。チャネルエンコーダ84は、コード決
定部83からのAコード、Lコード、Gコード、および
Iコードを多重化し、その多重化結果であるコードデー
タを、符号化データとして出力する。
【0145】なお、以下では、説明を簡単にするため、
Aコード、Lコード、Gコード、およびIコードは、フ
レームごとに求められるものとする。但し、例えば、1
フレームを、4つのサブフレームに分割し、Lコード、
Gコード、およびIコードは、サブフレームごとに求め
るようにすること等が可能である。
【0146】ここで、図8(後述する図9においても同
様)では、各変数に、[k]が付され、配列変数とされて
いる。このkは、フレーム数を表すが、明細書中では、
その記述は、適宜省略する。
【0147】次に、図9は、図1のエンコーダ1が図8
に示したように構成される場合の、図2の復号部21の
構成例を示している。なお、上述したことから、図2の
復号部21が図9に示すように構成される場合は、図2
の復号部23、並びに図6の復号部54および56も、
図9に示したのと同様に構成される。
【0148】図8のエンコーダ1が出力する符号化デー
タとしてのコードデータは、チャネルデコーダ91で受
信される。チャネルデコーダ91は、コードデータか
ら、Lコード、Gコード、Iコード、Aコードを分離
し、それぞれを、適応コードブック記憶部92、ゲイン
復号器93、励起コードブック記憶部94、フィルタ係
数復号器95に供給する。
【0149】適応コードブック記憶部92、ゲイン復号
器93、励起コードブック記憶部94、演算器96乃至
98は、図8の適応コードブック記憶部77、ゲイン復
号器78、励起コードブック記憶部79、演算器80乃
至82とそれぞれ同様に構成されるもので、図8で説明
した場合と同様の処理が行われることにより、Lコー
ド、Gコード、およびIコードが、残差信号eに復号さ
れる。この残差信号eは、音声合成フィルタ99に対し
て、入力信号として与えられるとともに、適応コードブ
ック記憶部92に供給される。
【0150】フィルタ係数復号器95は、図8のベクト
ル量子化部73が記憶しているのと同一のコードブック
を記憶しており、Aコードを、線形予測係数αp’に復
号し、音声合成フィルタ99に供給する。
【0151】音声合成フィルタ99は、図8の音声合成
フィルタ74と同様に構成されており、フィルタ係数復
号器95からの線形予測係数αp’をタップ係数とする
とともに、演算器98から供給される残差信号eを入力
信号として、式(12)を演算し、これにより、図8の
自乗誤差最小判定部76において自乗誤差が最小と判定
されたときの合成音信号を生成する。この合成音信号
は、符号化データの復号結果(復号データ)として出力
される。
【0152】一方、付加情報出力部100は、上述のよ
うに、符号化データを、復号データとしての合成音信号
に復号する過程において得られる情報を取得し、その情
報のうちの一部または全部を、付加情報として出力す
る。
【0153】即ち、付加情報出力部100には、チャネ
ルデコーダ91が出力するLコード、Gコード、Iコー
ド、およびAコードや、ゲイン復号器93が出力するゲ
インβおよびγ、フィルタ係数復号器95が出力する線
形予測係数αp、演算器96が出力する演算結果l、演算
器97が出力する演算結果γ、演算器98が出力する残
差信号e等が供給されるようになっており、付加情報出
力部100は、これらの情報のうちの一部または全部
を、付加情報として出力する。
【0154】次に、図10は、図1のデータ伝送システ
ムが、静止画の画像データをJPEG方式で符号化して伝送
する場合の、図1のエンコーダ1の構成例を示してい
る。なお、図1のエンコーダ1が図10に示すように構
成される場合は、図2の符号化部22並びに図6の符号
化部52および55も、図10に示したのと同様に構成
される。
【0155】符号化対象の画像データは、ブロック化回
路111に入力され、ブロック化回路111は、そこに
入力される画像データを、8×8画素の64画素でなる
ブロックに分割する。ブロック化回路111で得られる
各ブロックは、DCT回路112に供給される。DCT
回路112は、ブロック化回路111からのブロックに
対して、DCT(離散コサイン変換)処理を施し、1個
のDC(Direct Current)成分と、水平方向および垂直方
向についての63個の周波数成分(AC(Alternating C
urrent)成分)の、合計64個のDCT係数に変換す
る。各ブロックごとの64個のDCT係数は、DCT回
路112から量子化回路113に供給される。
【0156】量子化回路113は、所定の量子化テーブ
ルにしたがって、DCT回路112からのDCT係数を
量子化し、その量子化結果(以下、適宜、量子化DCT
係数という)を、量子化に用いた量子化テーブルととも
に、エントロピー符号化回路114に供給する。
【0157】ここで、量子化回路113において用いら
れる量子化テーブルには、一般に、人間の視覚特性を考
慮して、重要性の高い低周波数のDCT係数は細かく量
子化し、重要性の低い高周波数のDCT係数は粗く量子
化するような量子化ステップが設定されており、これに
より、画像の画質の劣化を抑えて、効率の良い圧縮が行
われるようになっている。
【0158】また、JPEG符号化において、どのよう
な量子化テーブルを用いるかは、例えば、ユーザが設定
する圧縮率等に基づいて決定される。
【0159】エントロピー符号化回路114は、量子化
回路113からの量子化DCT係数に対して、例えば、
ハフマン符号化等のエントロピー符号化処理を施して、
量子化回路113からの量子化テーブルを付加し、その
結果得られる符号化データを出力する。
【0160】次に、図11は、図1のエンコーダ1が図
10に示したように構成される場合の、図2の復号部2
1の構成例を示している。なお、図2の復号部21が図
11に示すように構成される場合は、図2の復号部2
3、並びに図6の復号部54および56も、図11に示
したのと同様に構成される。
【0161】符号化データは、エントロピー復号回路1
21に入力され、エントロピー復号回路121は、符号
化データを、エントロピー符号化された量子化DCT係
数と、量子化テーブルとに分離する。さらに、エントロ
ピー復号回路121は、エントロピー符号化された量子
化DCT係数をエントロピー復号し、その結果得られる
量子化DCT係数を、量子化テーブルとともに、逆量子
化回路122に供給する。逆量子化回路122は、エン
トロピー復号回路121からの量子化DCT係数を、同
じくエントロピー復号回路121からの量子化テーブル
にしたがって逆量子化し、その結果得られるDCT係数
を、逆DCT回路123に供給する。逆DCT回路12
3は、逆量子化回路12からのDCT係数に、逆DCT
処理を施し、その結果得られる8×8画素の復号ブロッ
クを、ブロック分解回路124に供給する。ブロック分
解回路124は、逆DCT回路123からの復号ブロッ
クのブロック化を解くことで、復号画像データを得て出
力する。
【0162】一方、付加情報出力部125は、上述のよ
うに、符号化データを、復号画像データに復号する過程
において得られる情報を取得し、その情報のうちの一部
または全部を、付加情報として出力する。
【0163】即ち、付加情報出力部125には、エント
ロピー復号回路121が出力する量子化テーブルおよび
量子化DCT係数や、逆量子化回路122が出力するD
CT係数等が供給されるようになっており、付加情報出
力部125は、これらの情報のうちの一部または全部
を、付加情報として出力する。
【0164】次に、図12は、図1のデータ伝送システ
ムが、動画の画像データをMPEG2方式で符号化して伝送
する場合の、図1のエンコーダ1の構成例を示してい
る。なお、図1のエンコーダ1が図12に示すように構
成される場合は、図2の符号化部22並びに図6の符号
化部52および55も、図12に示したのと同様に構成
される。
【0165】MPEG符号化の対象である動画を構成す
るフレーム(またはフィールド)は、順次、動き検出回
路131と演算器132に供給される。
【0166】動き検出回路131は、そこに供給される
フレームについて、マクロブロック単位で、動きベクト
ルを検出し、エントロピー符号化回路136および動き
補償回路140に供給する。
【0167】演算器132は、そこに供給される画像
が、I(Intra)ピクチャであれば、そのままブロック化
回路133に供給し、P(Predictive)またはB(Bidirec
tionally predictive)ピクチャであれば、動き補償回路
140から供給される参照画像との差分を演算して、そ
の差分値を、ブロック化回路133に供給する。
【0168】ブロック化回路133は、演算器132の
出力を、8×8画素の画素ブロックにブロック化し、D
CT回路134に供給する。DCT回路134は、ブロ
ック化回路133からの画素ブロックをDCT処理し、
その結果得られるDCT係数を、量子化回路135に供
給する。量子化回路135は、DCT回路133からの
ブロック単位のDCT係数を所定の量子化テーブルにし
たがって量子化し、その結果得られる量子化DCT係数
を、用いた量子化テーブルとともに、エントロピー符号
化回路136に供給する。エントロピー符号化回路13
6は、量子化回路135からの量子化DCT係数をエン
トロピー符号化し、動き検出回路131からの動きベク
トルや、量子化回路135からの量子化テーブル、その
他の必要な情報(例えば、MPEGストリームの各レイヤの
ヘッダとなる情報など)を付加して、その結果得られる
符号化データを、MPEG符号化結果として出力する。
【0169】量子化回路135が出力する量子化DCT
係数のうち、IピクチャおよびPピクチャは、後で符号
化されるPピクチャやBピクチャの参照画像として用い
るのにローカルデコードする必要があるため、エントロ
ピー符号化回路136の他、逆量子化回路137にも供
給される。また、逆量子化回路137には、量子化回路
135で用いられた量子化テーブルも供給される。
【0170】逆量子化回路137は、量子化回路135
からの量子化DCT係数を、同じく量子化回路135か
らの量子化テーブルにしたがって逆量子化することによ
り、DCT係数とし、逆DCT回路138に供給する。
逆DCT回路138は、逆量子化回路137からのDC
T係数を逆DCT処理し、演算器139に出力する。演
算器139には、逆DCT回路138の出力の他、動き
補償回路140が出力する参照画像も供給されるように
なっており、演算器139は、逆DCT回路138の出
力が、Pピクチャのものである場合には、その出力と、
動き補償回路140の出力とを加算することで、元の画
像を復号し、動き補償回路140に供給する。また、演
算器139は、逆DCT回路138の出力が、Iピクチ
ャのものである場合には、その出力は、Iピクチャの復
号画像となっているので、そのまま、動き補償回路14
0に供給する。
【0171】動き補償回路140は、演算器139から
供給される、ローカルデコードされた画像に対して、動
き検出回路131からの動きベクトルにしたがった動き
補償を施し、その動き補償後の画像を、参照画像とし
て、演算器132および99に供給する。
【0172】次に、図13は、図1のエンコーダ1が図
12に示したように構成される場合の、図2の復号部2
1の構成例を示している。なお、図2の復号部21が図
13に示すように構成される場合は、図2の復号部2
3、並びに図6の復号部54および56も、図13に示
したのと同様に構成される。
【0173】符号化データは、エントロピー復号回路1
51に供給され、エントロピー復号回路151は、符号
化データをエントロピー復号し、量子化DCT係数を得
るとともに、その符号化データに含まれる動きベクト
ル、量子化テーブル、その他の必要な情報を分離する。
そして、量子化DCT係数および量子化テーブルは、逆
量子化回路152に供給され、動きベクトルは、動き補
償回路156に供給される。
【0174】逆量子化回路152は、エントロピー復号
回路151からの量子化DCT係数を、同じくエントロ
ピー復号回路11からの量子化テーブルにしたがって逆
量子化することにより、DCT係数とし、逆DCT回路
153に供給する。逆DCT回路153は、逆量子化回
路152からのDCT係数を逆DCT処理し、演算器1
54に出力する。演算器154には、逆量子化回路15
3の出力の他、動き補償回路156が出力する、既に復
号されたIピクチャまたはPピクチャを、エントロピー
復号回路151からの動きベクトルにしたがって動き補
償したものが参照画像として供給されるようになってお
り、演算器154は、逆DCT回路153の出力が、P
またはBピクチャのものである場合には、その出力と、
動き補償回路156の出力とを加算することで、元の画
像を復号し、ブロック分解回路155に供給する。ま
た、演算器154は、逆DCT回路153の出力が、I
ピクチャのものである場合には、その出力は、Iピクチ
ャの復号画像となっているので、そのまま、ブロック分
解回路155に供給する。
【0175】ブロック分解回路155は、演算器154
から画素ブロック単位で供給される復号画像のブロック
化を解くことで、復号画像データを得て出力する。
【0176】また、動き補償回路156は、演算器15
4が出力する復号画像のうちのIピクチャとPピクチャ
を受信し、エントロピー復号回路151からの動きベク
トルにしたがった動き補償を施す。そして、動き補償回
路156は、その動き補償後の画像を、参照画像とし
て、演算器154に供給する。
【0177】一方、付加情報出力部157は、上述のよ
うに、符号化データを、復号画像データに復号する過程
において得られる情報を取得し、その情報のうちの一部
または全部を、付加情報として出力する。
【0178】即ち、付加情報出力部157には、エント
ロピー復号回路151が出力する量子化テーブル、量子
化DCT係数、および動きベクトルや、逆量子化回路1
22が出力するDCT係数が供給されるようになってい
る。さらに、付加情報出力部157には、エントロピー
復号回路151が符号化データをエントロピー復号する
ことにより得られるMPEGストリームの各レイヤに配置さ
れた情報(例えば、ピクチャタイプや、ブロックの位置
情報、フレームDCTモード/フィールドDCTモード
の別など)も供給されるようになっている。付加情報出
力部157は、これらの情報のうちの一部または全部
を、付加情報として出力する。
【0179】次に、上述した一連の処理は、ハードウェ
アにより行うこともできるし、ソフトウェアにより行う
こともできる。一連の処理をソフトウェアによって行う
場合には、そのソフトウェアを構成するプログラムが、
汎用のコンピュータ等にインストールされる。
【0180】そこで、図14は、上述した一連の処理を
実行するプログラムがインストールされるコンピュータ
の一実施の形態の構成例を示している。
【0181】プログラムは、コンピュータに内蔵されて
いる記録媒体としてのハードディスク205やROM2
03に予め記録しておくことができる。
【0182】あるいはまた、プログラムは、フロッピー
(登録商標)ディスク、CD-ROM(Compact Disc Read Onl
y Memory),MO(Magneto optical)ディスク,DVD(Digita
l Versatile Disc)、磁気ディスク、半導体メモリなど
のリムーバブル記録媒体211に、一時的あるいは永続
的に格納(記録)しておくことができる。このようなリ
ムーバブル記録媒体211は、いわゆるパッケージソフ
トウエアとして提供することができる。
【0183】なお、プログラムは、上述したようなリム
ーバブル記録媒体211からコンピュータにインストー
ルする他、ダウンロードサイトから、ディジタル衛星放
送用の人工衛星を介して、コンピュータに無線で転送し
たり、LAN(Local Area Network)、インターネットとい
ったネットワークを介して、コンピュータに有線で転送
し、コンピュータでは、そのようにして転送されてくる
プログラムを、通信部208で受信し、内蔵するハード
ディスク205にインストールすることができる。
【0184】コンピュータは、CPU(Central Processing
Unit)202を内蔵している。CPU202には、バス2
01を介して、入出力インタフェース210が接続され
ており、CPU202は、入出力インタフェース210を
介して、ユーザによって、キーボードや、マウス、マイ
ク等で構成される入力部207が操作等されることによ
り指令が入力されると、それにしたがって、ROM(Read O
nly Memory)203に格納されているプログラムを実行
する。あるいは、また、CPU202は、ハードディスク
205に格納されているプログラム、衛星若しくはネッ
トワークから転送され、通信部208で受信されてハー
ドディスク205にインストールされたプログラム、ま
たはドライブ209に装着されたリムーバブル記録媒体
211から読み出されてハードディスク205にインス
トールされたプログラムを、RAM(Random Access Memor
y)204にロードして実行する。これにより、CPU20
2は、上述したフローチャートにしたがった処理、ある
いは上述したブロック図の構成により行われる処理を行
う。そして、CPU202は、その処理結果を、必要に応
じて、例えば、入出力インタフェース210を介して、
LCD(Liquid CryStal Display)やスピーカ等で構成され
る出力部206から出力、あるいは、通信部208から
送信、さらには、ハードディスク205に記録等させ
る。
【0185】ここで、本明細書において、コンピュータ
に各種の処理を行わせるためのプログラムを記述する処
理ステップは、必ずしもフローチャートとして記載され
た順序に沿って時系列に処理する必要はなく、並列的あ
るいは個別に実行される処理(例えば、並列処理あるい
はオブジェクトによる処理)も含むものである。
【0186】また、プログラムは、1のコンピュータに
より処理されるものであっても良いし、複数のコンピュ
ータによって分散処理されるものであっても良い。さら
に、プログラムは、遠方のコンピュータに転送されて実
行されるものであっても良い。
【0187】なお、本発明は、特定の符号化/復号方式
に限定されることなく適用可能である。即ち、本実施の
形態においては、CELP方式、JPEG方式、MPEG2方式につ
いて説明したが、本発明は、その他、例えば、M-JPEG(M
otion JPEG)方式や、MPEG1,4,MP3(MPEG-1 Audio Layer
3)方式、ATRAC(Adaptive TRansform Acoustic Codin
g)方式等の種々の符号化/復号方式に適用可能である。
【0188】また、本実施の形態では、符号化データ
を、その符号化方式に対応した復号方式によって復号す
るようにしたが、符号化データの復号は、クラス分類適
応処理によって行うことが可能である。クラス分類適応
処理による符号化データの復号は、符号化の対象とする
データを教師データとするとともに、そのデータを符号
化した符号化データを生徒データとして学習を行うこと
によって得られるタップ係数を用いることで行うことが
可能である。
【0189】さらに、本実施の形態では、タップ係数を
用いた線形1次予測演算によって、高品質のデータの予
測値を求めるようにしたが、この予測値は、その他、2
次以上の高次の予測演算によって求めることも可能であ
る。
【0190】また、本実施の形態では、デコーダ2のク
ラス分類適応処理回路24において、品質を向上させる
ためのタップ係数を、あらかじめ記憶しておくようにし
たが、タップ係数は、符号化データに含めて、デコーダ
2に提供するようにすることが可能である。
【0191】さらに、本実施の形態では、予測タップ
を、第1復号データおよび第2復号データの他、第1付
加情報および第2付加情報から生成するようにしたが、
予測タップは、その他、例えば、第1復号データおよび
第2復号データだけから生成するようにすること等が可
能である。クラスタップについても、同様である。
【0192】
【発明の効果】本発明の第1のデータ処理装置およびデ
ータ処理方法、並びにプログラムおよび記録媒体によれ
ば、符号化データが復号され、その結果得られる復号デ
ータが符号化されて、再符号化データが出力される。そ
して、学習を行うことにより求められたタップ係数との
所定の予測演算を行う予測タップが、復号データと、再
符号化データから得られる情報とから生成され、予測タ
ップとタップ係数とを用いて、所定の予測演算を行うこ
とにより、学習において教師として用いられた教師デー
タに対応する予測値が求められる。従って、例えば、品
質が十分に改善されたデータを得ることが可能となる。
【0193】本発明の第2のデータ処理装置およびデー
タ処理方法、並びにプログラムおよび記録媒体によれ
ば、教師となる教師データから、その教師データを符号
化して復号した復号データと、その復号データを符号化
した再符号化データから得られる情報とが、生徒となる
生徒データとして生成される。そして、教師データを予
測するのに用いる予測タップが、生徒データから生成さ
れ、予測タップとタップ係数とを用いて、所定の予測演
算を行うことにより得られる教師データの予測値の予測
誤差が、統計的に最小になるように学習が行われ、タッ
プ係数が求められる。従って、そのタップ係数を用いて
予測演算を行うことにより、例えば、品質が十分に改善
されたデータを得ることが可能となる。
【0194】本発明の第3のデータ処理装置およびデー
タ処理方法、並びにプログラムおよび記録媒体によれ
ば、データを符号化した符号化データが復号され、その
結果得られる復号データが符号化されて、再符号化デー
タが出力される。そして、クラス分類に用いるクラスタ
ップが、復号データと、再符号化データから得られる情
報とから生成され、そのクラスタップに基づいて、クラ
ス分類が行われる。従って、データの適切なクラス分け
が可能となる。
【図面の簡単な説明】
【図1】本発明を適用したデータ伝送システムの一実施
の形態の構成例を示す図である。
【図2】デコーダ2の構成例を示すブロック図である。
【図3】クラス分類適応処理回路24の構成例を示すブ
ロック図である。
【図4】クラス分類部33および59の構成例を示すブ
ロック図である。
【図5】デコーダ2の処理を説明するフローチャートで
ある。
【図6】本発明を適用した学習装置の一実施の形態の構
成例を示すブロック図である。
【図7】学習装置の処理を説明するフローチャートであ
る。
【図8】エンコーダ1、符号化部22,52、および5
5の第1の構成例を示すブロック図である。
【図9】復号部21,23,54、および56の第1の
構成例を示すブロック図である。
【図10】エンコーダ1、符号化部22,52、および
55の第2の構成例を示すブロック図である。
【図11】復号部21,23,54、および56の第2
の構成例を示すブロック図である。
【図12】エンコーダ1、符号化部22,52、および
55の第3の構成例を示すブロック図である。
【図13】復号部21,23,54、および56の第3
の構成例を示すブロック図である。
【図14】本発明を適用したコンピュータの一実施の形
態の構成例を示すブロック図である。
【符号の説明】
1 エンコーダ, 2 デコーダ, 3 記録媒体,
4 伝送媒体, 21復号部, 22 符号化部, 2
3 復号部, 24 クラス分類適応処理回路, 3
1,32 タップ生成部, 33 クラス分類部, 3
4 係数メモリ, 35 予測部, 41A,41B
ADRC回路, 41C 合成回路, 42A,42B 演
算器, 43C,43D 極性判別回路, 43E 合
成回路,44A,44B 遅延回路, 44C,44D
演算器, 51 生徒データ生成部, 52 符号化
部, 53 媒体特性反映部, 54 復号部, 55
符号化部, 56 復号部, 57,58 タップ生成
部, 59 クラス分類部, 60 正規方程式加算回
路, 61 タップ決定回路, 62 係数メモリ,
71 演算器, 72 LPC分析部, 73 ベクト
ル量子化部,74 音声合成フィルタ, 75 自乗誤
差演算部, 76 自乗誤差最小判定部, 77 適応
コードブック記憶部, 78 ゲイン復号器, 79
励起コードブック記憶部, 80乃至82 演算器,
83 コード決定部, 84チャネルエンコーダ, 9
1 チャンネルデコーダ, 92 適応コードブック記
憶部, 93 ゲイン復号器, 94 励起コードブッ
ク記憶部, 95 フィルタ係数復号器, 96乃至9
8 演算器, 99 音声合成フィルタ, 100 付
加情報出力部, 111 ブロック化回路, 112
DCT回路,113 量子化回路, 114 エントロ
ピー符号化部, 121 エントロピー復号回路, 1
22 逆量子化回路, 123 逆DCT回路, 12
4 ブロック分解回路, 125 付加情報出力部,
131 動き検出回路, 132 演算器, 133
ブロック化回路, 134 DCT回路, 135 量
子化回路, 136 エントロピー符号化回路, 13
7 逆量子化回路, 138 逆DCT回路, 139
演算器, 140 動き補償回路, 151エントロ
ピー復号回路, 152 逆量子化回路, 153 逆
DCT回路,154 演算器, 155 ブロック分解
回路, 156 動き補償回路, 157 付加情報出
力部, 201 バス, 202 CPU, 203 RO
M, 204 RAM, 205 ハードディスク, 20
6 出力部, 207 入力部, 208 通信部,
209 ドライブ, 210 入出力インタフェース,
211 リムーバブル記録媒体
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 7/32 H04N 7/137 Z Fターム(参考) 5C059 KK00 LA00 MA00 SS06 SS12 SS20 SS30 TA69 TB07 TC02 TC04 TD02 TD05 TD13 UA05 UA39 5C078 AA04 BA35 BA57 CA00 DA01 DA02 5D045 CC02 5J064 AA01 BB03 BC02 BC28 BD02 BD03

Claims (43)

    【特許請求の範囲】
  1. 【請求項1】 データを符号化して得られる符号化デー
    タを処理するデータ処理装置であって、 前記符号化データを復号し、復号データを出力する復号
    手段と、 前記復号データを符号化し、再符号化データを出力する
    再符号化手段と、 学習を行うことにより求められたタップ係数との所定の
    予測演算を行う予測タップを、前記復号データと、前記
    再符号化データから得られる情報とから生成する予測タ
    ップ生成手段と、 前記タップ係数を取得するタップ係数取得手段と、 前記予測タップとタップ係数とを用いて、所定の予測演
    算を行うことにより、前記学習において教師として用い
    られた教師データに対応する予測値を求める予測手段と
    を備えることを特徴とするデータ処理装置。
  2. 【請求項2】 前記予測手段は、前記予測タップとタッ
    プ係数とを用いて、線形1次予測演算を行うことによ
    り、前記予測値を求めることを特徴とする請求項1に記
    載のデータ処理装置。
  3. 【請求項3】 前記復号手段は、前記符号化データを復
    号する過程において得られる情報を、付加情報として出
    力し、 前記予測タップ生成手段は、前記付加情報からも、前記
    予測タップを生成することを特徴とする請求項1に記載
    のデータ処理装置。
  4. 【請求項4】 前記再符号化データを復号し、再復号デ
    ータを出力する再復号手段をさらに備え、 前記予測タップ生成手段は、前記復号データと再復号デ
    ータとから、前記予測タップを生成することを特徴とす
    る請求項1に記載のデータ処理装置。
  5. 【請求項5】 前記再復号手段は、前記再符号化データ
    を復号する過程において得られる情報を、付加情報とし
    て出力し、 前記予測タップ生成手段は、前記付加情報からも、前記
    予測タップを生成することを特徴とする請求項4に記載
    のデータ処理装置。
  6. 【請求項6】 情報をクラス分けするクラス分類を行う
    のに用いられるクラスタップを、前記復号データと、前
    記再符号化データから得られる情報とから生成するクラ
    スタップ生成手段と、 前記クラスタップに基づいて、クラス分類を行うクラス
    分類手段とをさらに備え、 前記タップ係数取得手段は、前記クラス分類手段が出力
    するクラスに対応する前記タップ係数を取得し、 前記予測手段は、前記クラス分類手段が出力するクラス
    に対応する前記タップ係数を用いて、前記予測値を求め
    ることを特徴とする請求項1に記載のデータ処理装置。
  7. 【請求項7】 前記復号手段は、前記符号化データを復
    号する過程において得られる情報を、付加情報として出
    力し、 前記クラスタップ生成手段は、前記付加情報からも、前
    記クラスタップを生成することを特徴とする請求項6に
    記載のデータ処理装置。
  8. 【請求項8】 前記再符号化データを復号し、再復号デ
    ータを出力する再復号手段をさらに備え、 前記クラスタップ生成手段は、前記復号データと再復号
    データとから、前記クラスタップを生成することを特徴
    とする請求項6に記載のデータ処理装置。
  9. 【請求項9】 前記再復号手段は、前記再符号化データ
    を復号する過程において得られる情報を、付加情報とし
    て出力し、 前記予測タップ生成手段は、前記付加情報からも、前記
    予測タップを生成することを特徴とする請求項8に記載
    のデータ処理装置。
  10. 【請求項10】 前記データは、画像データであること
    を特徴とする請求項1に記載のデータ処理装置。
  11. 【請求項11】 前記符号化データは、前記画像データ
    を、少なくとも直交変換して得られるデータを含むこと
    を特徴とする請求項10に記載のデータ処理装置。
  12. 【請求項12】 前記データは、音声データであること
    を特徴とする請求項1に記載のデータ処理装置。
  13. 【請求項13】 前記符号化データは、少なくとも、線
    形予測係数と残差信号に対応するコードを含むことを特
    徴とする請求項12に記載のデータ処理装置。
  14. 【請求項14】 データを符号化して得られる符号化デ
    ータを処理するデータ処理方法であって、 前記符号化データを復号し、復号データを出力する復号
    ステップと、 前記復号データを符号化し、再符号化データを出力する
    再符号化ステップと、 学習を行うことにより求められたタップ係数との所定の
    予測演算を行う予測タップを、前記復号データと、前記
    再符号化データから得られる情報とから生成する予測タ
    ップ生成ステップと、 前記タップ係数を取得するタップ係数取得ステップと、 前記予測タップとタップ係数とを用いて、所定の予測演
    算を行うことにより、前記学習において教師として用い
    られた教師データに対応する予測値を求める予測ステッ
    プとを備えることを特徴とするデータ処理方法。
  15. 【請求項15】 データを符号化して得られる符号化デ
    ータを、コンピュータに処理させるプログラムであっ
    て、 前記符号化データを復号し、復号データを出力する復号
    ステップと、 前記復号データを符号化し、再符号化データを出力する
    再符号化ステップと、 学習を行うことにより求められたタップ係数との所定の
    予測演算を行う予測タップを、前記復号データと、前記
    再符号化データから得られる情報とから生成する予測タ
    ップ生成ステップと、 前記タップ係数を取得するタップ係数取得ステップと、 前記予測タップとタップ係数とを用いて、所定の予測演
    算を行うことにより、前記学習において教師として用い
    られた教師データに対応する予測値を求める予測ステッ
    プとを備えることを特徴とするプログラム。
  16. 【請求項16】 データを符号化して得られる符号化デ
    ータを、コンピュータに処理させるプログラムが記録さ
    れている記録媒体であって、 前記符号化データを復号し、復号データを出力する復号
    ステップと、 前記復号データを符号化し、再符号化データを出力する
    再符号化ステップと、 学習を行うことにより求められたタップ係数との所定の
    予測演算を行う予測タップを、前記復号データと、前記
    再符号化データから得られる情報とから生成する予測タ
    ップ生成ステップと、 前記タップ係数を取得するタップ係数取得ステップと、 前記予測タップとタップ係数とを用いて、所定の予測演
    算を行うことにより、 前記学習において教師として用いられた教師データに対
    応する予測値を求める予測ステップとを備えるプログラ
    ムが記録されていることを特徴とする記録媒体。
  17. 【請求項17】 データを符号化して得られる符号化デ
    ータを処理するのに用いる所定のタップ係数を学習する
    データ処理装置であって、 教師となる教師データから、その教師データを符号化し
    て復号した復号データと、その復号データを符号化した
    再符号化データから得られる情報とを、生徒となる生徒
    データとして生成する生徒データ生成手段と、 前記教師データを予測するのに用いる予測タップを、前
    記生徒データから生成する予測タップ生成手段と、 前記予測タップとタップ係数とを用いて、所定の予測演
    算を行うことにより得られる前記教師データの予測値の
    予測誤差が、統計的に最小になるように学習を行い、前
    記タップ係数を求める学習手段とを備えることを特徴と
    するデータ処理装置。
  18. 【請求項18】 前記学習手段は、前記予測タップとタ
    ップ係数とを用いて線形1次予測演算を行うことにより
    得られる前記教師データの予測値の予測誤差が、統計的
    に最小になるように学習を行うことを特徴とする請求項
    17に記載のデータ処理装置。
  19. 【請求項19】 前記生徒データ生成手段は、前記教師
    データを符号化した符号化データを復号する過程におい
    て得られる情報も、前記生徒データとして出力すること
    を特徴とする請求項17に記載のデータ処理装置。
  20. 【請求項20】 前記生徒データ生成手段は、前記再符
    号化データを復号し、その結果得られる再復号データ
    を、前記生徒データとして出力することを特徴とする請
    求項17に記載のデータ処理装置。
  21. 【請求項21】 前記生徒データ生成手段は、前記再符
    号化データを復号する過程において得られる情報も、前
    記生徒データとして出力することを特徴とする請求項2
    0に記載のデータ処理装置。
  22. 【請求項22】 情報をクラス分けするクラス分類を行
    うのに用いられるクラスタップを、前記生徒データから
    生成するクラスタップ生成手段と、 前記クラスタップに基づいて、クラス分類を行うクラス
    分類手段とをさらに備え、 前記学習手段は、前記クラス分類手段が出力するクラス
    ごとに、前記タップ係数を求めることを特徴とする請求
    項17に記載のデータ処理装置。
  23. 【請求項23】 前記生徒データ生成手段は、前記教師
    データを符号化した符号化データを復号する過程におい
    て得られる情報も、前記生徒データとして出力すること
    を特徴とする請求項22に記載のデータ処理装置。
  24. 【請求項24】 前記生徒データ生成手段は、前記再符
    号化データを復号し、その結果得られる再復号データ
    を、前記生徒データとして出力することを特徴とする請
    求項22に記載のデータ処理装置。
  25. 【請求項25】 前記生徒データ生成手段は、前記再符
    号化データを復号する過程において得られる情報も、前
    記生徒データとして出力することを特徴とする請求項2
    4に記載のデータ処理装置。
  26. 【請求項26】 前記教師データは、画像データである
    ことを特徴とする請求項17に記載のデータ処理装置。
  27. 【請求項27】 前記生徒データ生成手段は、前記画像
    データを、少なくとも直交変換することにより符号化す
    ることを特徴とする請求項26に記載のデータ処理装
    置。
  28. 【請求項28】 前記データは、音声データであること
    を特徴とする請求項17に記載のデータ処理装置。
  29. 【請求項29】 前記生徒データ生成手段は、前記音声
    データを、少なくとも、線形予測係数と残差信号に対応
    するコードに符号化することを特徴とする請求項28に
    記載のデータ処理装置。
  30. 【請求項30】 データを符号化して得られる符号化デ
    ータを処理するのに用いる所定のタップ係数を学習する
    データ処理方法であって、 教師となる教師データから、その教師データを符号化し
    て復号した復号データと、その復号データを符号化した
    再符号化データから得られる情報とを、生徒となる生徒
    データとして生成する生徒データ生成ステップと、 前記教師データを予測するのに用いる予測タップを、前
    記生徒データから生成する予測タップ生成ステップと、 前記予測タップとタップ係数とを用いて、所定の予測演
    算を行うことにより得られる前記教師データの予測値の
    予測誤差が、統計的に最小になるように学習を行い、前
    記タップ係数を求める学習ステップとを備えることを特
    徴とするデータ処理方法。
  31. 【請求項31】 データを符号化して得られる符号化デ
    ータを処理するのに用いる所定のタップ係数を学習する
    データ処理を、コンピュータに行わせるプログラムであ
    って、 教師となる教師データから、その教師データを符号化し
    て復号した復号データと、その復号データを符号化した
    再符号化データから得られる情報とを、生徒となる生徒
    データとして生成する生徒データ生成ステップと、 前記教師データを予測するのに用いる予測タップを、前
    記生徒データから生成する予測タップ生成ステップと、 前記予測タップとタップ係数とを用いて、所定の予測演
    算を行うことにより得られる前記教師データの予測値の
    予測誤差が、統計的に最小になるように学習を行い、前
    記タップ係数を求める学習ステップとを備えることを特
    徴とするプログラム。
  32. 【請求項32】 データを符号化して得られる符号化デ
    ータを処理するのに用いる所定のタップ係数を学習する
    データ処理を、コンピュータに行わせるプログラムが記
    録されている記録媒体であって、 教師となる教師データから、その教師データを符号化し
    て復号した復号データと、その復号データを符号化した
    再符号化データから得られる情報とを、生徒となる生徒
    データとして生成する生徒データ生成ステップと、 前記教師データを予測するのに用いる予測タップを、前
    記生徒データから生成する予測タップ生成ステップと、 前記予測タップとタップ係数とを用いて、所定の予測演
    算を行うことにより得られる前記教師データの予測値の
    予測誤差が、統計的に最小になるように学習を行い、前
    記タップ係数を求める学習ステップとを備えるプログラ
    ムが記録されていることを特徴とする記録媒体。
  33. 【請求項33】 情報をクラス分けするクラス分類を行
    うデータ処理装置であって、 データを符号化した符号化データを復号し、復号データ
    を出力する復号手段と、 前記復号データを符号化し、再符号化データを出力する
    再符号化手段と、 前記クラス分類に用いるクラスタップを、前記復号デー
    タと、前記再符号化データから得られる情報とから生成
    するクラスタップ生成手段と、 前記クラスタップに基づいて、クラス分類を行うクラス
    分類手段とを備えることを特徴とするデータ処理装置。
  34. 【請求項34】 前記復号手段は、前記符号化データを
    復号する過程において得られる情報を、付加情報として
    出力し、 前記クラスタップ生成手段は、前記付加情報からも、前
    記クラスタップを生成することを特徴とする請求項33
    に記載のデータ処理装置。
  35. 【請求項35】 前記再符号化データを復号し、再復号
    データを出力する再復号手段をさらに備え、 前記クラスタップ生成手段は、前記復号データと再復号
    データとから、前記クラスタップを生成することを特徴
    とする請求項33に記載のデータ処理装置。
  36. 【請求項36】 前記再復号手段は、前記再符号化デー
    タを復号する過程において得られる情報を、付加情報と
    して出力し、 前記予測タップ生成手段は、前記付加情報からも、前記
    予測タップを生成することを特徴とする請求項35に記
    載のデータ処理装置。
  37. 【請求項37】 前記データは、画像データであること
    を特徴とする請求項33に記載のデータ処理装置。
  38. 【請求項38】 前記符号化データは、前記画像データ
    を、少なくとも直交変換して得られるデータを含むこと
    を特徴とする請求項37に記載のデータ処理装置。
  39. 【請求項39】 前記データは、音声データであること
    を特徴とする請求項33に記載のデータ処理装置。
  40. 【請求項40】 前記符号化データは、少なくとも、線
    形予測係数と残差信号に対応するコードを含むことを特
    徴とする請求項39に記載のデータ処理装置。
  41. 【請求項41】 情報をクラス分けするクラス分類を行
    うデータ処理方法であって、 データを符号化した符号化データを復号し、復号データ
    を出力する復号ステップと、 前記復号データを符号化し、再符号化データを出力する
    再符号化ステップと、 前記クラス分類に用いるクラスタップを、前記復号デー
    タと、前記再符号化データから得られる情報とから生成
    するクラスタップ生成ステップと、 前記クラスタップに基づいて、クラス分類を行うクラス
    分類ステップとを備えることを特徴とするデータ処理方
    法。
  42. 【請求項42】 情報をクラス分けするクラス分類を行
    うデータ処理を、コンピュータに行わせるプログラムで
    あって、 データを符号化した符号化データを復号し、復号データ
    を出力する復号ステップと、 前記復号データを符号化し、再符号化データを出力する
    再符号化ステップと、 前記クラス分類に用いるクラスタップを、前記復号デー
    タと、前記再符号化データから得られる情報とから生成
    するクラスタップ生成ステップと、 前記クラスタップに基づいて、クラス分類を行うクラス
    分類ステップとを備えることを特徴とするプログラム。
  43. 【請求項43】 情報をクラス分けするクラス分類を行
    うデータ処理を、コンピュータに行わせるプログラムが
    記録されている記録媒体であって、 データを符号化した符号化データを復号し、復号データ
    を出力する復号ステップと、 前記復号データを符号化し、再符号化データを出力する
    再符号化ステップと、 前記クラス分類に用いるクラスタップを、前記復号デー
    タと、前記再符号化データから得られる情報とから生成
    するクラスタップ生成ステップと、 前記クラスタップに基づいて、クラス分類を行うクラス
    分類ステップとを備えるプログラムが記録されているこ
    とを特徴とする記録媒体。
JP2001016869A 2001-01-25 2001-01-25 データ処理装置およびデータ処理方法、並びにプログラムおよび記録媒体 Expired - Fee Related JP4507046B2 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2001016869A JP4507046B2 (ja) 2001-01-25 2001-01-25 データ処理装置およびデータ処理方法、並びにプログラムおよび記録媒体
EP02716352A EP1355428B1 (en) 2001-01-25 2002-01-24 Data processing apparatus
US10/239,805 US7082220B2 (en) 2001-01-25 2002-01-24 Data processing apparatus
PCT/JP2002/000490 WO2002060069A1 (en) 2001-01-25 2002-01-24 Data processing apparatus
DE2002611854 DE60211854T2 (de) 2001-01-25 2002-01-24 Vorrichtung zur datenverarbeitung
CNB028005414A CN1269314C (zh) 2001-01-25 2002-01-24 数据处理装置
KR20027012587A KR100847179B1 (ko) 2001-01-25 2002-01-24 데이터 처리 장치, 방법 및 기록 매체

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001016869A JP4507046B2 (ja) 2001-01-25 2001-01-25 データ処理装置およびデータ処理方法、並びにプログラムおよび記録媒体

Publications (3)

Publication Number Publication Date
JP2002223167A true JP2002223167A (ja) 2002-08-09
JP2002223167A5 JP2002223167A5 (ja) 2008-03-06
JP4507046B2 JP4507046B2 (ja) 2010-07-21

Family

ID=18883164

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001016869A Expired - Fee Related JP4507046B2 (ja) 2001-01-25 2001-01-25 データ処理装置およびデータ処理方法、並びにプログラムおよび記録媒体

Country Status (6)

Country Link
EP (1) EP1355428B1 (ja)
JP (1) JP4507046B2 (ja)
KR (1) KR100847179B1 (ja)
CN (1) CN1269314C (ja)
DE (1) DE60211854T2 (ja)
WO (1) WO2002060069A1 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004047454A1 (ja) * 2002-11-20 2004-06-03 Sony Corporation 画像信号の処理装置および処理方法、それに使用される係数データの生成装置および生成方法、並びに各方法を実行するためのプログラムおよびそのプログラムを記録したコンピュータ読み取り可能な媒体
JP2006031693A (ja) * 2004-07-02 2006-02-02 Microsoft Corp ネットワークコーディングを使用したコンテンツ配信
WO2008075660A1 (ja) 2006-12-18 2008-06-26 Sony Corporation 画像信号処理装置
WO2008075657A1 (ja) 2006-12-18 2008-06-26 Sony Corporation 表示制御装置、表示制御方法、及びプログラム
WO2008075658A1 (ja) 2006-12-18 2008-06-26 Sony Corporation 画像信号処理装置、画像信号処理方法、及びプログラム
JP2009284090A (ja) * 2008-05-20 2009-12-03 Sony Corp 画像信号処理装置および画像信号処理方法、予測係数生成装置および予測係数生成処理方法、並びに各方法をコンピュータに実行させるためのプログラム
JP2010078915A (ja) * 2008-09-26 2010-04-08 Fujitsu Ltd オーディオ復号方法、装置、及びプログラム
JP2010139671A (ja) * 2008-12-11 2010-06-24 Fujitsu Ltd オーディオ復号装置、方法、及びプログラム
US8140849B2 (en) 2004-07-02 2012-03-20 Microsoft Corporation Security for network coding file distribution

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06152432A (ja) * 1992-11-13 1994-05-31 Sony Corp 高能率符号化及び/又は復号化装置
JPH08307835A (ja) * 1995-05-10 1996-11-22 Sony Corp クラス分類適応処理装置および方法
JPH08322041A (ja) * 1995-05-25 1996-12-03 Sony Corp ブロック歪み除去装置
JPH09186608A (ja) * 1995-12-28 1997-07-15 Sony Corp 量子化ビット数変換装置および方法
JPH1155630A (ja) * 1997-07-31 1999-02-26 Sony Corp 画像処理装置および画像処理方法
JP2001008056A (ja) * 1999-06-21 2001-01-12 Sony Corp データ処理装置およびデータ処理方法、並びに媒体

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3946812B2 (ja) * 1997-05-12 2007-07-18 ソニー株式会社 オーディオ信号変換装置及びオーディオ信号変換方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06152432A (ja) * 1992-11-13 1994-05-31 Sony Corp 高能率符号化及び/又は復号化装置
JPH08307835A (ja) * 1995-05-10 1996-11-22 Sony Corp クラス分類適応処理装置および方法
JPH08322041A (ja) * 1995-05-25 1996-12-03 Sony Corp ブロック歪み除去装置
JPH09186608A (ja) * 1995-12-28 1997-07-15 Sony Corp 量子化ビット数変換装置および方法
JPH1155630A (ja) * 1997-07-31 1999-02-26 Sony Corp 画像処理装置および画像処理方法
JP2001008056A (ja) * 1999-06-21 2001-01-12 Sony Corp データ処理装置およびデータ処理方法、並びに媒体

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7729558B2 (en) 2002-11-20 2010-06-01 Sony Corporation Image signal, processing device and processing method, coefficient data generation device and generation method used for the same, program for executing the methods and computer readable medium containing the program
WO2004047454A1 (ja) * 2002-11-20 2004-06-03 Sony Corporation 画像信号の処理装置および処理方法、それに使用される係数データの生成装置および生成方法、並びに各方法を実行するためのプログラムおよびそのプログラムを記録したコンピュータ読み取り可能な媒体
KR101031740B1 (ko) 2002-11-20 2011-04-29 소니 주식회사 화상 신호의 처리 장치 및 처리 방법, 그에 사용되는 계수 데이터의 생성 장치 및 생성 방법, 및 각 방법을 실행하기 위한 프로그램을 기록한 컴퓨터 판독 가능한 매체
JP2006031693A (ja) * 2004-07-02 2006-02-02 Microsoft Corp ネットワークコーディングを使用したコンテンツ配信
KR101153124B1 (ko) 2004-07-02 2012-06-04 마이크로소프트 코포레이션 네트워크 코딩을 사용한 콘텐츠 분배
US8140849B2 (en) 2004-07-02 2012-03-20 Microsoft Corporation Security for network coding file distribution
JP4726557B2 (ja) * 2004-07-02 2011-07-20 マイクロソフト コーポレーション ネットワークコーディングを使用したコンテンツ配信
WO2008075658A1 (ja) 2006-12-18 2008-06-26 Sony Corporation 画像信号処理装置、画像信号処理方法、及びプログラム
WO2008075657A1 (ja) 2006-12-18 2008-06-26 Sony Corporation 表示制御装置、表示制御方法、及びプログラム
WO2008075660A1 (ja) 2006-12-18 2008-06-26 Sony Corporation 画像信号処理装置
JP4656452B2 (ja) * 2008-05-20 2011-03-23 ソニー株式会社 画像信号処理装置および画像信号処理方法、予測係数生成装置および予測係数生成処理方法、並びに各方法をコンピュータに実行させるためのプログラム
JP2009284090A (ja) * 2008-05-20 2009-12-03 Sony Corp 画像信号処理装置および画像信号処理方法、予測係数生成装置および予測係数生成処理方法、並びに各方法をコンピュータに実行させるためのプログラム
US8358862B2 (en) 2008-05-20 2013-01-22 Sony Corporation Image signal processing apparatus, image signal processing method, prediction coefficient generating apparatus, prediction coefficient generating method, and programs for causing computer to execute the methods
JP2010078915A (ja) * 2008-09-26 2010-04-08 Fujitsu Ltd オーディオ復号方法、装置、及びプログラム
US8619999B2 (en) 2008-09-26 2013-12-31 Fujitsu Limited Audio decoding method and apparatus
JP2010139671A (ja) * 2008-12-11 2010-06-24 Fujitsu Ltd オーディオ復号装置、方法、及びプログラム
US8374882B2 (en) 2008-12-11 2013-02-12 Fujitsu Limited Parametric stereophonic audio decoding for coefficient correction by distortion detection

Also Published As

Publication number Publication date
DE60211854D1 (de) 2006-07-06
EP1355428A4 (en) 2005-09-07
KR20030062230A (ko) 2003-07-23
DE60211854T2 (de) 2007-05-24
WO2002060069A1 (en) 2002-08-01
KR100847179B1 (ko) 2008-07-17
CN1269314C (zh) 2006-08-09
JP4507046B2 (ja) 2010-07-21
EP1355428B1 (en) 2006-05-31
EP1355428A1 (en) 2003-10-22
CN1457552A (zh) 2003-11-19

Similar Documents

Publication Publication Date Title
US7082220B2 (en) Data processing apparatus
EP1335353A2 (en) Decoding apparatus, encoding apparatus, decoding method and encoding method
JPH08123494A (ja) 音声符号化装置、音声復号化装置、音声符号化復号化方法およびこれらに使用可能な位相振幅特性導出装置
JP4507046B2 (ja) データ処理装置およびデータ処理方法、並びにプログラムおよび記録媒体
JP4857468B2 (ja) データ処理装置およびデータ処理方法、並びにプログラムおよび記録媒体
JP4748113B2 (ja) 学習装置および学習方法、並びにプログラムおよび記録媒体
JP4000589B2 (ja) 復号装置および復号方法、並びにプログラムおよび記録媒体
JP2016536859A (ja) メディア信号のエンコード及びデコード方法並びにそれを用いる装置
JP4857467B2 (ja) データ処理装置およびデータ処理方法、並びにプログラムおよび記録媒体
JP4517448B2 (ja) データ処理装置およびデータ処理方法、並びに記録媒体
JP4752088B2 (ja) データ処理装置およびデータ処理方法、並びに記録媒体
WO2011087333A2 (ko) 오디오 신호 처리 방법 및 장치
JP4505729B2 (ja) 画像処理装置、画像処理方法、プログラム、および記録媒体
JP4538698B2 (ja) データ処理装置およびデータ処理方法、並びに記録媒体
JP4678454B2 (ja) データ処理装置およびデータ処理方法、並びに記録媒体
JP4438655B2 (ja) 符号化装置、復号装置、符号化方法及び復号方法
JP4120916B2 (ja) 情報処理装置および方法、記録媒体、並びにプログラム
KR20230023560A (ko) 부호화 방법 및 복호화 방법, 상기 방법을 수행하는 부호화기 및 복호화기
JP4736266B2 (ja) 音声処理装置および音声処理方法、学習装置および学習方法、並びにプログラムおよび記録媒体
JP4517262B2 (ja) 音声処理装置および音声処理方法、学習装置および学習方法、並びに記録媒体
JP3714786B2 (ja) 音声符号化装置
JP2003264837A5 (ja)
JP2002335405A (ja) 画像データ処理装置および方法、記録媒体、並びにプログラム
JP5175813B2 (ja) 符号化装置、復号装置及び画像処理プログラム
JPH11352999A (ja) 音声圧縮符号化装置

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080121

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091203

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100408

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100421

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130514

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130514

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees