JP4678454B2 - データ処理装置およびデータ処理方法、並びに記録媒体 - Google Patents

データ処理装置およびデータ処理方法、並びに記録媒体 Download PDF

Info

Publication number
JP4678454B2
JP4678454B2 JP2000164024A JP2000164024A JP4678454B2 JP 4678454 B2 JP4678454 B2 JP 4678454B2 JP 2000164024 A JP2000164024 A JP 2000164024A JP 2000164024 A JP2000164024 A JP 2000164024A JP 4678454 B2 JP4678454 B2 JP 4678454B2
Authority
JP
Japan
Prior art keywords
data
class
tap
teacher
block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000164024A
Other languages
English (en)
Other versions
JP2001346209A (ja
Inventor
哲二郎 近藤
威 國弘
丈晴 西片
真史 内田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2000164024A priority Critical patent/JP4678454B2/ja
Publication of JP2001346209A publication Critical patent/JP2001346209A/ja
Application granted granted Critical
Publication of JP4678454B2 publication Critical patent/JP4678454B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、データ処理装置およびデータ処理方法、並びに記録媒体に関し、特に、例えば、不可逆圧縮された画像等を復号する場合等に用いて好適なデータ処理装置およびデータ処理方法、並びに記録媒体に関する。
【0002】
【従来の技術】
例えば、ディジタル画像データは、そのデータ量が多いため、そのまま記録や伝送を行うには、大容量の記録媒体や伝送媒体が必要となる。そこで、一般には、画像データを圧縮符号化することにより、そのデータ量を削減してから、記録や伝送が行われる。
【0003】
画像を圧縮符号化する方式としては、例えば、静止画の圧縮符号化方式であるJPEG(Joint Photographic Experts Group)方式や、動画の圧縮符号化方式であるMPEG(Moving Picture Experts Group)方式等がある。
【0004】
例えば、JPEG方式による画像データの符号化/復号は、図1に示すように行われる。
【0005】
即ち、図1(A)は、従来のJPEG符号化装置の一例の構成を示している。
【0006】
符号化対象の画像データは、ブロック化回路1に入力され、ブロック化回路1は、そこに入力される画像データを、8×8画素の64画素でなるブロックに分割する。ブロック化回路1で得られる各ブロックは、DCT(Discrete Cosine Transform)回路2に供給される。DCT回路2は、ブロック化回路1からのブロックに対して、DCT(離散コサイン変換)処理を施し、1個のDC(Direct Current)成分(直流成分)と、水平方向および垂直方向についての63個の周波数成分(AC(Alternating Current)成分)(交流成分)の、合計64個のDCT係数に変換する。各ブロックごとの64個のDCT係数は、DCT回路2から量子化回路3に供給される。
【0007】
量子化回路3は、所定の量子化テーブルにしたがって、DCT回路2からのDCT係数を量子化し、その量子化結果(以下、適宜、量子化DCT係数という)を、量子化に用いた量子化テーブルとともに、エントロピー符号化回路4に供給する。
【0008】
ここで、図1(B)は、量子化回路3において用いられる量子化テーブルの例を示している。量子化テーブルには、一般に、人間の視覚特性を考慮して、重要性の高い低周波数のDCT係数は細かく量子化し、重要性の低い高周波数のDCT係数は粗く量子化するような量子化ステップが設定されており、これにより、画像の画質の劣化を抑えて、効率の良い圧縮が行われるようになっている。
【0009】
エントロピー符号化回路4は、量子化回路3からの量子化DCT係数に対して、例えば、ハフマン符号化等のエントロピー符号化処理を施して、量子化回路3からの量子化テーブルを付加し、その結果得られる符号化データを、JPEG符号化結果として出力する。
【0010】
次に、図1(C)は、図1(A)のJPEG符号化装置が出力する符号化データを復号する、従来のJPEG復号装置の一例の構成を示している。
【0011】
符号化データは、エントロピー復号回路11に入力され、エントロピー復号回路11は、符号化データを、エントロピー符号化された量子化DCT係数と、量子化テーブルとに分離する。さらに、エントロピー復号回路11は、エントロピー符号化された量子化DCT係数をエントロピー復号し、その結果得られる量子化DCT係数を、量子化テーブルとともに、逆量子化回路12に供給する。逆量子化回路12は、エントロピー復号回路11からの量子化DCT係数を、同じくエントロピー復号回路11からの量子化テーブルにしたがって逆量子化し、その結果得られるDCT係数を、逆DCT回路13に供給する。逆DCT回路13は、逆量子化回路12からのDCT係数に、逆DCT処理を施し、その結果られる8×8画素の(復号)ブロックを、ブロック分解回路14に供給する。ブロック分解回路14は、逆DCT回路13からのブロックのブロック化を解くことで、復号画像を得て出力する。
【0012】
【発明が解決しようとする課題】
図1(A)のJPEG符号化装置では、その量子化回路3において、ブロックの量子化に用いる量子化テーブルの量子化ステップを大きくすることにより、符号化データのデータ量を削減することができる。即ち、高圧縮を実現することができる。
【0013】
しかしながら、量子化ステップを大きくすると、いわゆる量子化誤差も大きくなることから、図1(C)のJPEG復号装置で得られる復号画像の画質が劣化する。即ち、復号画像には、ぼけや、ブロック歪み、モスキートノイズ等が顕著に現れる。
【0014】
従って、符号化データのデータ量の削減しながら、復号画像の画質を劣化させないようにするには、あるいは、符号化データのデータ量を維持して、復号画像の画質を向上させるには、JPEG復号した後に、何らかの画質向上のための処理を行う必要がある。
【0015】
しかしながら、JPEG復号した後に、画質向上のための処理を行うことは、処理が煩雑になり、最終的に復号画像が得られるまでの時間も長くなる。
【0016】
本発明は、このような状況に鑑みてなされたものであり、JPEG符号化された画像等から、効率的に、画質の良い復号画像を得ること等ができるようにするものである。
【0017】
【課題を解決するための手段】
本発明の第1のデータ処理装置は、学習を行うことにより求められたタップ係数を取得する取得手段と、注目しているデータである注目データを、幾つかのクラスのうちのいずれかにクラス分類するのに用いる変換データを、少なくとも、注目データに対応するブロック以外のブロックから抽出し、クラスタップとして出力するクラスタップ抽出手段と、クラスタップとなっている変換データである、離散コサイン変換されたデータの直流成分または交流成分の電力に基づいて、注目データのクラスを求めるクラス分類を行うクラス分類手段と、注目データのクラスのタップ係数と、変換データとの線形1次予測演算を行うことにより、注目データの予測値を求める演算手段とを備え、タップ係数は、学習時の教師となる教師データに対し、少なくとも、離散コサイン変換処理を所定のブロック単位で施すことにより得られるブロック単位の変換データを、学習時の生徒となる生徒データとして生成し、学習時の教師となる教師データとして用いられるデータのうちの、注目している教師データである注目教師データを、幾つかのクラスのうちのいずれかにクラス分類するのに用いる生徒データを、少なくとも、注目教師データに対応するブロック以外のブロックから抽出し、クラスタップとして出力し、クラスタップとなっている生徒データである、離散コサイン変換されたデータの直流成分または交流成分の電力に基づいて、注目教師データのクラスを求めるクラス分類を行い、クラスごとのタップ係数と、生徒データとの線形1次予測演算を行うことにより得られる教師データの予測値の予測誤差が、統計的に最小になるように学習を行う学習処理によりクラスごとに求められたものであることを特徴とする。
【0019】
第1のデータ処理装置には、タップ係数を記憶している記憶手段をさらに設けることができ、この場合、取得手段には、記憶手段から、タップ係数を取得させることができる。
【0022】
第1のデータ処理装置において、クラスタップ抽出手段には、注目データに対応するブロックの周辺のブロックから、クラスタップとする変換データを抽出させることができる。
【0023】
第1のデータ処理装置において、クラスタップ抽出手段には、注目データに対応するブロックからも、クラスタップとする変換データを抽出させることができる。
【0025】
第1のデータ処理装置において、データは、動画または静止画の画像データとすることができる。
【0026】
本発明の第1のデータ処理方法は、学習を行うことにより求められたタップ係数を取得する取得ステップと、注目しているデータである注目データを、幾つかのクラスのうちのいずれかにクラス分類するのに用いる変換データを、少なくとも、注目データに対応するブロック以外のブロックから抽出し、クラスタップとして出力するクラスタップ抽出ステップと、クラスタップとなっている変換データである、離散コサイン変換されたデータの直流成分または交流成分の電力に基づいて、注目データのクラスを求めるクラス分類を行うクラス分類ステップと、注目データのクラスのタップ係数と、変換データとの線形1次予測演算を行うことにより、注目データの予測値を求める演算ステップとを備え、タップ係数は、学習時の教師となる教師データに対し、少なくとも、離散コサイン変換処理を所定のブロック単位で施すことにより得られるブロック単位の変換データを、学習時の生徒となる生徒データとして生成し、学習時の教師となる教師データとして用いられるデータのうちの、注目している教師データである注目教師データを、幾つかのクラスのうちのいずれかにクラス分類するのに用いる生徒データを、少なくとも、注目教師データに対応するブロック以外のブロックから抽出し、クラスタップとして出力し、クラスタップとなっている生徒データである、離散コサイン変換されたデータの直流成分または交流成分の電力に基づいて、注目教師データのクラスを求めるクラス分類を行い、クラスごとのタップ係数と、生徒データとの線形1次予測演算を行うことにより得られる教師データの予測値の予測誤差が、統計的に最小になるように学習を行う学習処理によりクラスごとに求められたものであることを特徴とする。
【0027】
本発明の第1の記録媒体は、学習を行うことにより求められたタップ係数を取得する取得ステップと、注目しているデータである注目データを、幾つかのクラスのうちのいずれかにクラス分類するのに用いる変換データを、少なくとも、注目データに対応するブロック以外のブロックから抽出し、クラスタップとして出力するクラスタップ抽出ステップと、クラスタップとなっている変換データである、離散コサイン変換されたデータの直流成分または交流成分の電力に基づいて、注目データのクラスを求めるクラス分類を行うクラス分類ステップと、注目データのクラスのタップ係数と、変換データとの線形1次予測演算を行うことにより、注目データの予測値を求める演算ステップとを実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体であり、タップ係数は、学習時の教師となる教師データに対し、少なくとも、離散コサイン変換処理を所定のブロック単位で施すことにより得られるブロック単位の変換データを、学習時の生徒となる生徒データとして生成し、学習時の教師となる教師データとして用いられるデータのうちの、注目している教師データである注目教師データを、幾つかのクラスのうちのいずれかにクラス分類するのに用いる生徒データを、少なくとも、注目教師データに対応するブロック以外のブロックから抽出し、クラスタップとして出力し、クラスタップとなっている生徒データである、離散コサイン変換されたデータの直流成分または交流成分の電力に基づいて、注目教師データのクラスを求めるクラス分類を行い、クラスごとのタップ係数と、生徒データとの線形1次予測演算を行うことにより得られる教師データの予測値の予測誤差が、統計的に最小になるように学習を行う学習処理によりクラスごとに求められたものであることを特徴とする。
【0028】
本発明の第2のデータ処理装置は、学習時の教師となる教師データに対し、少なくとも、離散コサイン変換処理を所定のブロック単位で施すことにより得られるブロック単位の変換データを、学習時の生徒となる生徒データとして生成する生成手段と、学習時の教師となる教師データとして用いられるデータのうちの、注目している教師データである注目教師データを、幾つかのクラスのうちのいずれかにクラス分類するのに用いる生徒データを、少なくとも、注目教師データに対応するブロック以外のブロックから抽出し、クラスタップとして出力するクラスタップ抽出手段と、クラスタップとなっている生徒データである、離散コサイン変換されたデータの直流成分または交流成分の電力に基づいて、注目教師データのクラスを求めるクラス分類を行うクラス分類手段と、クラスごとのタップ係数と、生徒データとの線形1次予測演算を行うことにより得られる教師データの予測値の予測誤差が、統計的に最小になるように学習を行い、タップ係数を、クラスごとに求める学習手段とを備えることを特徴とする。
【0032】
第2のデータ処理装置において、クラスタップ抽出手段には、注目教師データに対応するブロックの周辺のブロックから、クラスタップとする生徒データを抽出させることができる。
【0033】
第2のデータ処理装置において、クラスタップ抽出手段には、注目教師データに対応するブロックからも、クラスタップとする生徒データを抽出させることができる。
【0034】
第2のデータ処理装置において、データは、動画または静止画の画像データとすることができる。
【0035】
本発明の第2のデータ処理方法は、学習時の教師となる教師データに対し、少なくとも、離散コサイン変換処理を所定のブロック単位で施すことにより得られるブロック単位の変換データを、学習時の生徒となる生徒データとして生成する生成ステップと、学習時の教師となる教師データとして用いられるデータのうちの、注目している教師データである注目教師データを、幾つかのクラスのうちのいずれかにクラス分類するのに用いる生徒データを、少なくとも、注目教師データに対応するブロック以外のブロックから抽出し、クラスタップとして出力するクラスタップ抽出ステップと、クラスタップとなっている生徒データである、離散コサイン変換されたデータの直流成分または交流成分の電力に基づいて、注目教師データのクラスを求めるクラス分類を行うクラス分類ステップと、クラスごとのタップ係数と、生徒データとの線形1次予測演算を行うことにより得られる教師データの予測値の予測誤差が、統計的に最小になるように学習を行い、タップ係数を、クラスごとに求める学習ステップとを備えることを特徴とする。
【0036】
本発明の第2の記録媒体は、学習時の教師となる教師データに対し、少なくとも、離散コサイン変換処理を所定のブロック単位で施すことにより得られるブロック単位の変換データを、学習時の生徒となる生徒データとして生成する生成ステップと、学習時の教師となる教師データとして用いられるデータのうちの、注目している教師データである注目教師データを、幾つかのクラスのうちのいずれかにクラス分類するのに用いる生徒データを、少なくとも、注目教師データに対応するブロック以外のブロックから抽出し、クラスタップとして出力するクラスタップ抽出ステップと、クラスタップとなっている生徒データである、離散コサイン変換されたデータの直流成分または交流成分の電力に基づいて、注目教師データのクラスを求めるクラス分類を行うクラス分類ステップと、クラスごとのタップ係数と、生徒データとの線形1次予測演算を行うことにより得られる教師データの予測値の予測誤差が、統計的に最小になるように学習を行い、タップ係数を、クラスごとに求める学習ステップとを実行させるためのプログラムが記録されていることを特徴とする。
【0037】
本発明の第1のデータ処理装置およびデータ処理方法、並びに記録媒体においては、注目データを、幾つかのクラスのうちのいずれかにクラス分類するのに用いる変換データが、少なくとも、注目データに対応するブロック以外のブロックから抽出され、クラスタップとして出力される。そして、そのクラスタップとなっている変換データである、離散コサイン変換されたデータの直流成分または交流成分の電力に基づいて、注目データのクラスを求めるクラス分類が行われ、注目データのクラスのタップ係数と、変換データとの線形1次予測演算を行うことにより、注目データの予測値が求められる。そして、タップ係数は、学習時の教師となる教師データに対し、少なくとも、離散コサイン変換処理を所定のブロック単位で施すことにより得られるブロック単位の変換データを、学習時の生徒となる生徒データとして生成し、学習時の教師となる教師データとして用いられるデータのうちの、注目している教師データである注目教師データを、幾つかのクラスのうちのいずれかにクラス分類するのに用いる生徒データを、少なくとも、注目教師データに対応するブロック以外のブロックから抽出し、クラスタップとして出力し、クラスタップとなっている生徒データである、離散コサイン変換されたデータの直流成分または交流成分の電力に基づいて、注目教師データのクラスを求めるクラス分類を行い、クラスごとのタップ係数と、生徒データとの線形1次予測演算を行うことにより得られる教師データの予測値の予測誤差が、統計的に最小になるように学習を行う学習処理によりクラスごとに求められたものである。
【0038】
本発明の第2のデータ処理装置およびデータ処理方法、並びに記録媒体においては、注目教師データを、幾つかのクラスのうちのいずれかにクラス分類するのに用いる生徒データが、少なくとも、注目教師データに対応するブロック以外のブロックから抽出され、クラスタップとして出力される。さらに、そのクラスタップとなっている生徒データである、離散コサイン変換されたデータの直流成分または交流成分の電力に基づいて、注目教師データのクラスを求めるクラス分類が行われる。そして、クラスごとのタップ係数と、生徒データとの線形1次予測演算を行うことにより得られる教師データの予測値の予測誤差が、統計的に最小になるように学習が行われ、タップ係数が、クラスごとに求められる。
【0039】
【発明の実施の形態】
図2は、本発明を適用した画像伝送システムの一実施の形態の構成例を示している。
【0040】
伝送すべき画像データは、エンコーダ21に供給されるようになっており、エンコーダ21は、そこに供給される画像データを、例えば、JPEG符号化し、符号化データとする。即ち、エンコーダ21は、例えば、前述の図1(A)に示したJPEG符号化装置と同様に構成されており、画像データをJPEG符号化する。エンコーダ21がJPEG符号化を行うことにより得られる符号化データは、例えば、半導体メモリ、光磁気ディスク、磁気ディスク、光ディスク、磁気テープ、相変化ディスクなどでなる記録媒体23に記録され、あるいは、また、例えば、地上波、衛星回線、CATV(Cable Television)網、インターネット、公衆回線などでなる伝送媒体24を介して伝送される。
【0041】
デコーダ22は、記録媒体23または伝送媒体24を介して提供される符号化データを受信して、元の画像データに復号する。この復号化された画像データは、例えば、図示せぬモニタに供給されて表示等される。
【0042】
次に、図3は、図2のデコーダ22の構成例を示している。
【0043】
符号化データは、エントロピー復号回路31に供給されるようになっており、エントロピー復号回路31は、符号化データを、エントロピー復号して、その結果得られるブロックごとの量子化DCT係数Qを、係数変換回路32に供給する。なお、符号化データには、図1(C)のエントロピー復号回路11で説明した場合と同様に、エントロピー符号化された量子化DCT係数の他、量子化テーブルも含まれるが、量子化テーブルは、後述するように、必要に応じて、量子化DCT係数の復号に用いることが可能である。
【0044】
係数変換回路32は、エントロピー復号回路31からの量子化DCT係数Qと、後述する学習を行うことにより求められるタップ係数を用いて、所定の予測演算を行うことにより、ブロックごとの量子化DCT係数を、8×8画素の元のブロックに復号する。
【0045】
ブロック分解回路33は、係数変換回路32において得られる、復号されたブロック(復号ブロック)のブロック化を解くことで、復号画像を得て出力する。
【0046】
次に、図4のフローチャートを参照して、図3のデコーダ22の処理について説明する。
【0047】
符号化データは、エントロピー復号回路31に順次供給され、ステップS1において、エントロピー復号回路31は、符号化データをエントロピー復号し、ブロックごとの量子化DCT係数Qを、係数変換回路32に供給する。係数変換回路32は、ステップS2において、エントロピー復号回路31からのブロックごとの量子化DCT係数Qを、タップ係数を用いた予測演算を行うことにより、ブロックごとの画素値に復号し、ブロック分解回路33に供給する。ブロック分解回路33は、ステップS3において、係数変換回路32からの画素値のブロック(復号ブロック)のブロック化を解くブロック分解を行い、その結果得られる復号画像を出力して、処理を終了する。
【0048】
次に、図3の係数変換回路32では、例えば、クラス分類適応処理を利用して、量子化DCT係数を、画素値に復号することができる。
【0049】
クラス分類適応処理は、クラス分類処理と適応処理とからなり、クラス分類処理によって、データを、その性質に基づいてクラス分けし、各クラスごとに適応処理を施すものであり、適応処理は、以下のような手法のものである。
【0050】
即ち、適応処理では、例えば、量子化DCT係数と、所定のタップ係数との線形結合により、元の画素の予測値を求めることで、量子化DCT係数が、元の画素値に復号される。
【0051】
具体的には、例えば、いま、ある画像を教師データとするとともに、その画像を、ブロック単位でDCT処理し、さらに量子化して得られる量子化DCT係数を生徒データとして、教師データである画素の画素値yの予測値E[y]を、幾つかの量子化DCT係数x1,x2,・・・の集合と、所定のタップ係数w1,w2,・・・の線形結合により規定される線形1次結合モデルにより求めることを考える。この場合、予測値E[y]は、次式で表すことができる。
【0052】
E[y]=w11+w22+・・・・・・(1)
【0053】
式(1)を一般化するために、タップ係数wjの集合でなる行列W、生徒データxijの集合でなる行列X、および予測値E[yj]の集合でなる行列Y’を、
【数1】
Figure 0004678454
で定義すると、次のような観測方程式が成立する。
【0054】
XW=Y’・・・(2)
ここで、行列Xの成分xijは、i件目の生徒データの集合(i件目の教師データyiの予測に用いる生徒データの集合)の中のj番目の生徒データを意味し、行列Wの成分wjは、生徒データの集合の中のj番目の生徒データとの積が演算されるタップ係数を表す。また、yiは、i件目の教師データを表し、従って、E[yi]は、i件目の教師データの予測値を表す。なお、式(1)の左辺におけるyは、行列Yの成分yiのサフィックスiを省略したものであり、また、式(1)の右辺におけるx1,x2,・・・も、行列Xの成分xijのサフィックスiを省略したものである。
【0055】
そして、この観測方程式に最小自乗法を適用して、元の画素値yに近い予測値E[y]を求めることを考える。この場合、教師データとなる真の画素値yの集合でなる行列Y、および画素値yに対する予測値E[y]の残差eの集合でなる行列Eを、
【数2】
Figure 0004678454
で定義すると、式(2)から、次のような残差方程式が成立する。
【0056】
XW=Y+E・・・(3)
【0057】
この場合、元の画素値yに近い予測値E[y]を求めるためのタップ係数wjは、自乗誤差
【数3】
Figure 0004678454
を最小にすることで求めることができる。
【0058】
従って、上述の自乗誤差をタップ係数wjで微分したものが0になる場合、即ち、次式を満たすタップ係数wjが、元の画素値yに近い予測値E[y]を求めるため最適値ということになる。
【0059】
【数4】
Figure 0004678454
・・・(4)
【0060】
そこで、まず、式(3)を、タップ係数wjで微分することにより、次式が成立する。
【0061】
【数5】
Figure 0004678454
・・・(5)
【0062】
式(4)および(5)より、式(6)が得られる。
【0063】
【数6】
Figure 0004678454
・・・(6)
【0064】
さらに、式(3)の残差方程式における生徒データxij、タップ係数wj、教師データyi、および残差eiの関係を考慮すると、式(6)から、次のような正規方程式を得ることができる。
【0065】
【数7】
Figure 0004678454
・・・(7)
【0066】
なお、式(7)に示した正規方程式は、行列(共分散行列)Aおよびベクトルvを、
【数8】
Figure 0004678454
で定義するとともに、ベクトルWを、数1で示したように定義すると、式
AW=v・・・(8)
で表すことができる。
【0067】
式(7)における各正規方程式は、生徒データxijおよび教師データyiのセットを、ある程度の数だけ用意することで、求めるべきタップ係数wjの数Jと同じ数だけたてることができ、従って、式(8)を、ベクトルWについて解くことで(但し、式(8)を解くには、式(8)における行列Aが正則である必要がある)、最適なタップ係数(ここでは、自乗誤差を最小にするタップ係数)wjを求めることができる。なお、式(8)を解くにあたっては、例えば、掃き出し法(Gauss-Jordanの消去法)などを用いることが可能である。
【0068】
以上のようにして、最適なタップ係数wjを求めておき、さらに、そのタップ係数wjを用い、式(1)により、元の画素値yに近い予測値E[y]を求めるのが適応処理である。
【0069】
なお、例えば、教師データとして、JPEG符号化する画像と同一画質の画像を用いるとともに、生徒データとして、その教師データをDCTおよび量子化して得られる量子化DCT係数を用いた場合、タップ係数としては、JPEG符号化された画像データを、元の画像データに復号するのに、予測誤差が、統計的に最小となるものが得られることになる。
【0070】
従って、JPEG符号化を行う際の圧縮率を高くしても、即ち、量子化に用いる量子化ステップを粗くしても、適応処理によれば、予測誤差が、統計的に最小となる復号処理が施されることになり、実質的に、JPEG符号化された画像の復号処理と、その画質を向上させるための処理とが、同時に施されることになる。その結果、圧縮率を高くしても、復号画像の画質を維持することができる。
【0071】
また、例えば、教師データとして、JPEG符号化する画像よりも高画質の画像を用いるとともに、生徒データとして、その教師データの画質を、JPEG符号化する画像と同一画質に劣化させ、さらに、DCTおよび量子化して得られる量子化DCT係数を用いた場合、タップ係数としては、JPEG符号化された画像データを、高画質の画像データに復号するのに、予測誤差が、統計的に最小となるものが得られることになる。
【0072】
従って、この場合、適応処理によれば、JPEG符号化された画像の復号処理と、その画質をより向上させるための処理とが、同時に施されることになる。なお、上述したことから、教師データまたは生徒データとなる画像の画質を変えることで、復号画像の画質を任意のレベルとするタップ係数を得ることができる。
【0073】
また、上述の場合には、教師データとして画像データを用い、生徒データとして量子化DCT係数を用いるようにしたが、その他、例えば、教師データとしてDCT係数を用い、生徒データとして、そのDCT係数を量子化した量子化DCT係数を用いるようにすることも可能である。この場合、適応処理によれば、量子化DCT係数から、量子化誤差を低減(抑制)したDCT係数を予測するためのタップ係数が得られることになる。
【0074】
図5は、以上のようなクラス分類適応処理により、量子化DCT係数を画素値に復号する、図3の係数変換回路32の第1の構成例を示している。
【0075】
エントロピー復号回路31(図3)が出力するブロックごとの量子化DCT係数は、予測タップ抽出回路41およびクラスタップ抽出回路42に供給されるようになっている。
【0076】
予測タップ抽出回路41は、そこに供給される量子化DCT係数のブロック(以下、適宜、DCTブロックという)に対応する画素値のブロック(この画素値のブロックは、現段階では存在しないが、仮想的に想定される)(以下、適宜、画素ブロックという)を、順次、注目画素ブロックとし、さらに、その注目画素ブロックを構成する各画素を、例えば、いわゆるラスタスキャン順に、順次、注目画素とする。さらに、予測タップ抽出回路41は、注目画素の画素値を予測するのに用いる量子化DCT係数を抽出し、予測タップとする。
【0077】
即ち、予測タップ抽出回路41は、例えば、図6(A)に示すように、注目画素が属する画素ブロックに対応するDCTブロックのすべての量子化DCT係数、即ち、8×8の64個の量子化DCT係数を、予測タップとして抽出する。従って、本実施の形態では、ある画素ブロックのすべての画素について、同一の予測タップが構成される。但し、予測タップは、注目画素ごとに、異なる量子化DCT係数で構成することが可能である。
【0078】
なお、予測タップを構成する量子化DCT係数は、上述したパターンのものに限定されるものではない。
【0079】
予測タップ抽出回路41において得られる、画素ブロックを構成する各画素についての予測タップ、即ち、64画素それぞれについての64セットの予測タップは、積和演算回路45に供給される。但し、本実施の形態では、上述したように、画素ブロックのすべての画素について、同一の予測タップが構成されるので、実際には、1つの画素ブロックに対して、1セットの予測タップを、積和演算回路45に供給すれば良い。
【0080】
クラスタップ抽出回路42は、注目画素を、幾つかのクラスのうちのいずれかに分類するためのクラス分類に用いる量子化DCT係数を抽出して、クラスタップとする。
【0081】
なお、JPEG符号化では、画像が、画素ブロックごとに符号化(DCT処理および量子化)されることから、ある画素ブロックに属する画素は、例えば、すべて同一のクラスにクラス分類することとする。従って、クラスタップ抽出回路42は、ある画素ブロックの各画素については、同一のクラスタップを構成する。
【0082】
即ち、本実施の形態では、クラスタップ抽出回路42は、例えば、図6(B)に示すように、注目画素が属する画素ブロックに対応するDCTブロックと、その上下左右に隣接する4個のDCTブロックの、合計で5個のDCTブロックの320(=8×8×5)個の量子化DCT係数を、クラスタップとして抽出する。
【0083】
ここで、画素ブロックに属する各画素を、すべて同一のクラスにクラス分類するということは、その画素ブロックをクラス分類することと等価である。従って、クラスタップ抽出回路42には、注目画素ブロックを構成する64画素それぞれをクラス分類するための64セットのクラスタップではなく、注目画素ブロックをクラス分類するための1セットのクラスタップを構成させれば良く、このため、クラスタップ抽出回路42は、画素ブロックごとに、その画素ブロックをクラス分類するために、その画素ブロックに対応するDCTブロックと、その上下左右に隣接する4個のDCTブロックの量子化DCT係数を抽出して、クラスタップとするようになっている。
【0084】
なお、クラスタップを構成する量子化DCT係数は、上述したパターンのものに限定されるものではない。
【0085】
即ち、JPEG符号化では、8×8画素の画素ブロック単位で、DCTおよび量子化が行われることにより、8×8の量子化DCT係数からなるDCTブロックが構成されるから、ある画素ブロックの画素を、クラス分類適応処理によって復号する場合には、その画素ブロックに対応するDCTブロックの量子化DCT係数だけを、クラスタップとして用いることが考えられる。
【0086】
しかしながら、画像においては、ある画素ブロックに注目した場合に、その画素ブロックの画素と、その周辺の画素ブロックの画素との間には、少なからず相関があるのが一般的である。従って、上述のように、ある画素ブロックに対応するDCTブロックだけでなく、それ以外のDCTブロックからも、量子化DCT係数を抽出して、クラスタップとして用いることによって、注目画素を、より適切にクラス分けすることが可能となり、その結果、画素ブロックに対応するDCTブロックの量子化DCT係数だけを、クラスタップとして用いる場合に比較して、復号画像の画質を向上させることが可能となる。
【0087】
ここで、上述の場合には、ある画素ブロックに対応するDCTブロックと、その上下左右に隣接する4個のDCTブロックの量子化DCT係数を、クラスタップとするようにしたが、クラスタップとする量子化DCT係数は、その他、ある画素ブロックに対応するDCTブロックの斜め方向に隣接するDCTブロックや、隣接しないが周辺にあるDCTブロック等から抽出するようにしても良い。即ち、どのような範囲のDCTブロックから、クラスタップとする量子化DCT係数を抽出するかは、特に限定されるものではない。
【0088】
クラスタップ抽出回路42において得られる、注目画素ブロックのクラスタップは、クラス分類回路43に供給されるようになっており、クラス分類回路43は、クラスタップ抽出回路42からのクラスタップに基づき、注目画素ブロックをクラス分類し、その結果得られるクラスに対応するクラスコードを出力する。
【0089】
ここで、クラス分類を行う方法としては、例えば、ADRC(Adaptive Dynamic Range Coding)等を採用することができる。
【0090】
ADRCを用いる方法では、クラスタップを構成する量子化DCT係数が、ADRC処理され、その結果得られるADRCコードにしたがって、注目画素ブロックのクラスが決定される。
【0091】
なお、KビットADRCにおいては、例えば、クラスタップを構成する量子化DCT係数の最大値MAXと最小値MINが検出され、DR=MAX-MINを、集合の局所的なダイナミックレンジとし、このダイナミックレンジDRに基づいて、クラスタップを構成する量子化DCT係数がKビットに再量子化される。即ち、クラスタップを構成する量子化DCT係数の中から、最小値MINが減算され、その減算値がDR/2Kで除算(量子化)される。そして、以上のようにして得られる、クラスタップを構成するKビットの各量子化DCT係数を、所定の順番で並べたビット列が、ADRCコードとして出力される。従って、クラスタップが、例えば、1ビットADRC処理された場合には、そのクラスタップを構成する各量子化DCT係数は、最小値MINが減算された後に、最大値MAXと最小値MINとの平均値で除算され、これにより、各量子化DCT係数が1ビットとされる(2値化される)。そして、その1ビットの量子化DCT係数を所定の順番で並べたビット列が、ADRCコードとして出力される。
【0092】
なお、クラス分類回路43には、例えば、クラスタップを構成する量子化DCT係数のレベル分布のパターンを、そのままクラスコードとして出力させることも可能であるが、この場合、クラスタップが、N個の量子化DCT係数で構成され、各量子化DCT係数に、Kビットが割り当てられているとすると、クラス分類回路43が出力するクラスコードの場合の数は、(2NK通りとなり、量子化DCT係数のビット数Kに指数的に比例した膨大な数となる。
【0093】
従って、クラス分類回路43においては、クラスタップの情報量を、上述のADRC処理や、あるいはベクトル量子化等によって圧縮してから、クラス分類を行うのが好ましい。
【0094】
ところで、本実施の形態では、クラスタップは、上述したように、320個の量子化DCT係数で構成される。従って、例えば、仮に、クラスタップを1ビットADRC処理することにより、クラス分類を行うこととしても、クラスコードの場合の数は、2320通りという膨大な値となる。
【0095】
そこで、本実施の形態では、クラス分類回路43において、クラスタップを構成する量子化DCT係数から、重要性の高い特徴量を抽出し、その特徴量に基づいてクラス分類を行うことで、クラス数を低減するようになっている。
【0096】
即ち、図7は、図5のクラス分類回路43の構成例を示している。
【0097】
クラスタップは、電力演算回路51に供給されるようになっており、電力演算回路51は、クラスタップを構成する量子化DCT係数を、幾つかの空間周波数帯域のものに分け、各周波数帯域の電力を演算する。
【0098】
即ち、本実施の形態では、クラスタップは、図6(B)に示したように、5個のDCTブロックの量子化DCT係数から構成されるが、電力演算回路51は、クラスタップを構成する各DCTブロックの8×8個の量子化DCT係数を、例えば、図8に示すような4つの空間周波数帯域S0,S1,S2,S3に分割する。
【0099】
ここで、1つのDCTブロックの8×8個の量子化DCT係数それぞれを、アルファベットxに、図6(A)に示したような、ラスタスキャン順に、0からのシーケンシャルな整数を付して表すこととすると、空間周波数帯域S0は、4個の量子化DCT係数x0,x1,x8,x9から構成され、空間周波数帯域S1は、12個の量子化DCT係数x2,x3,x4,x5,x6,x7,x10,x11,x12,x13,x14,x15から構成される。また、空間周波数帯域S2は、12個の量子化DCT係数x16,x17,x24,x25,x32,x33,x40,x41,x48,x49,x56,x57から構成され、空間周波数帯域S3は、36個の量子化DCT係数x18,x19,x20,x21,x22,x23,x26,x27,x28,x29,x30,x31,x34,x35,x36,x37,x38,x39,x42,x43,x44,x45,x46,x47,x50,x51,x52,x53,x54,x55,x58,x59,x60,x61,x62,x63から構成される。
【0100】
さらに、電力演算回路51は、クラスタップを構成する5つのDCTブロックそれぞれについて、その空間周波数帯域S0,S1,S2,S3のそれぞれに関し、量子化DCT係数のAC成分の電力P0,P1,P2,P3を演算し、クラスコード生成回路52に出力する。
【0101】
即ち、電力演算回路51は、空間周波数帯域S0については、上述の4個の量子化DCT係数x0,x1,x8,x9のうちのAC成分x1,x8,x9の2乗和x1 2+x8 2+x9 2を求め、これを、電力P0として、クラスコード生成回路52に出力する。また、電力演算回路51は、空間周波数帯域S1についての、上述の12個の量子化DCT係数のAC成分、即ち、12個すべての量子化DCT係数の2乗和を求め、これを、電力P1として、クラスコード生成回路52に出力する。さらに、電力演算回路51は、空間周波数帯域S2とS3についても、空間周波数帯域S1における場合と同様にして、それぞれの電力P2とP3を求め、クラスコード生成回路52に出力する。
【0102】
クラスコード生成回路52は、電力演算回路51からの、クラスタップを構成する5個のDCTブロックそれぞれについての電力P0,P1,P2,P3を、閾値テーブル記憶部53に記憶された、対応する閾値TH0,TH1,TH2,TH3とそれぞれ比較し、それぞれの大小関係に基づいて、クラスコードを出力する。即ち、クラスコード生成回路52は、電力P0と閾値TH0とを比較し、その大小関係を表す1ビットのコードを得る。同様に、クラスコード生成回路52は、電力P1と閾値TH1、電力P2と閾値TH2、電力P3と閾値TH3を、それぞれ比較することにより、それぞれについて、1ビットのコードを得る。
【0103】
クラスコード生成回路52は、クラスタップを構成する5個のDCTブロックそれぞれについて、上述のようにして、4つの1ビットのコード、即ち、合計で、20ビットのコードを得る。そして、クラスコード生成回路52は、この20ビットのコードを、注目画素ブロックのクラスを表すクラスコードとして出力する。この場合、注目画素ブロックは、220個のクラスのうちのいずれかにクラス分類されることになる。
【0104】
閾値テーブル記憶部53は、空間周波数帯域S0乃至S3の電力P0乃至P3とそれぞれ比較する閾値TH0乃至TH3を記憶している。
【0105】
なお、上述の場合には、クラス分類処理に、量子化DCT係数のDC成分x0が用いられないが、このDC成分x0をも用いてクラス分類処理を行うことも可能である。
【0106】
図5に戻り、以上のようなクラス分類回路43が出力するクラスコードは、係数テーブル記憶部44に、アドレスとして与えられる。
【0107】
係数テーブル記憶部44は、後述するような学習処理が行われることにより得られるタップ係数が登録された係数テーブルを記憶しており、クラス分類回路43が出力するクラスコードに対応するアドレスに記憶されているタップ係数を積和演算回路45に出力する。
【0108】
ここで、本実施の形態では、画素ブロックがクラス分類されるから、注目画素ブロックについて、1つのクラスコードが得られる。一方、画素ブロックは、本実施の形態では、8×8画素の64画素で構成されるから、注目画素ブロックについて、それを構成する64画素それぞれを復号するための64セットのタップ係数が必要である。従って、係数テーブル記憶部44には、1つのクラスコードに対応するアドレスに対して、64セットのタップ係数が記憶されている。
【0109】
積和演算回路45は、予測タップ抽出回路41が出力する予測タップと、係数テーブル記憶部44が出力するタップ係数とを取得し、その予測タップとタップ係数とを用いて、式(1)に示した線形予測演算(積和演算)を行い、その結果得られる注目画素ブロックの8×8画素の画素値を、対応するDCTブロックの復号結果として、ブロック分解回路33(図3)に出力する。
【0110】
ここで、予測タップ抽出回路41においては、上述したように、注目画素ブロックの各画素が、順次、注目画素とされるが、積和演算回路45は、注目画素ブロックの、注目画素となっている画素の位置に対応した動作モード(以下、適宜、画素位置モードという)となって、処理を行う。
【0111】
即ち、例えば、注目画素ブロックの画素のうち、ラスタスキャン順で、i番目の画素を、piと表し、画素piが、注目画素となっている場合、積和演算回路45は、画素位置モード#iの処理を行う。
【0112】
具体的には、上述したように、係数テーブル記憶部44は、注目画素ブロックを構成する64画素それぞれを復号するための64セットのタップ係数を出力するが、そのうちの画素piを復号するためのタップ係数のセットをWiと表すと、積和演算回路45は、動作モードが、画素位置モード#iのときには、予測タップと、64セットのタップ係数のうちのセットWiとを用いて、式(1)の積和演算を行い、その積和演算結果を、画素piの復号結果とする。
【0113】
次に、図9のフローチャートを参照して、図5の係数変換回路32の処理について説明する。
【0114】
エントロピー復号回路31が出力するブロックごとの量子化DCT係数は、予測タップ抽出回路41およびクラスタップ抽出回路42において順次受信され、予測タップ抽出回路41は、そこに供給される量子化DCT係数のブロック(DCTブロック)に対応する画素ブロックを、順次、注目画素ブロックとする。
【0115】
そして、クラスタップ抽出回路42は、ステップS11において、そこで受信した量子化DCT係数の中から、注目画素ブロックをクラス分類するのに用いるもの、即ち、本実施の形態では、注目画素ブロックに対応するDCTブロックと、その上下左右に隣接する4個のDCTブロックとの、合計で5個のDCTブロックの量子化DCT係数を抽出して、クラスタップを構成し、クラス分類回路43に供給する。
【0116】
クラス分類回路43は、ステップS12において、クラスタップ抽出回路42からのクラスタップを用いて、注目画素ブロックをクラス分類し、その結果得られるクラスコードを、係数テーブル記憶部44に出力する。
【0117】
即ち、ステップS12では、図10のフローチャートに示すように、まず最初に、ステップS21において、クラス分類回路43(図7)の電力演算回路51が、クラスタップを構成する5個のDCTブロックそれぞれについて、図8に示した4つの空間周波数帯域S0乃至S3それぞれの電力P0乃至P3を演算する。この電力P0乃至P3は、電力演算回路51からクラスコード生成回路52に出力される。
【0118】
クラスコード生成回路52は、ステップS22において、閾値テーブル記憶部53から閾値TH0乃至TH3を読み出し、電力演算回路51からの、クラスタップを構成する5個のDCTブロックの電力P0乃至P3それぞれと、閾値TH0乃至TH3それぞれとを比較し、それぞれの大小関係に基づいたクラスコードを生成して、リターンする。
【0119】
図9に戻り、ステップS12において以上のようにして得られるクラスコードは、クラス分類回路43から係数テーブル記憶部44に対して、アドレスとして与えられる。
【0120】
係数テーブル記憶部44は、クラス分類回路43からのアドレスとしてのクラスコードを受信すると、ステップS13において、そのアドレスに記憶されている64セットのタップ係数を読み出し、積和演算回路45に出力する。
【0121】
そして、ステップS14に進み、予測タップ抽出回路41は、注目画素ブロックの画素のうち、ラスタスキャン順で、まだ、注目画素とされていない画素を、注目画素として、その注目画素の画素値を予測するのに用いる量子化DCT係数を抽出し、予測タップとして構成する。この予測タップは、予測タップ抽出回路41から積和演算回路45に供給される。
【0122】
ここで、本実施の形態では、各画素ブロックごとに、その画素ブロックのすべての画素について、同一の予測タップが構成されるので、実際には、ステップS14の処理は、注目画素ブロックについて、最初に注目画素とされる画素に対してだけ行えば、残りの63画素に対しては、行う必要がない。
【0123】
積和演算回路45は、ステップS15において、ステップS13で係数テーブル記憶部44が出力する64セットのタップ係数のうち、注目画素に対する画素位置モードに対応するタップ係数のセットを取得し、そのタップ係数のセットと、ステップS14で予測タップ抽出回路41から供給される予測タップとを用いて、式(1)に示した積和演算を行い、注目画素の画素値の復号値を得る。
【0124】
そして、ステップS16に進み、予測タップ抽出回路41は、注目画素ブロックのすべての画素を、注目画素として処理を行ったかどうかを判定する。ステップS16において、注目画素ブロックのすべての画素を、注目画素として、まだ処理を行っていないと判定された場合、ステップS14に戻り、予測タップ抽出回路41は、注目画素ブロックの画素のうち、ラスタスキャン順で、まだ、注目画素とされていない画素を、新たに注目画素として、以下、同様の処理を繰り返す。
【0125】
また、ステップS16において、注目画素ブロックのすべての画素を、注目画素として処理を行ったと判定された場合、即ち、注目画素ブロックのすべての画素の復号値が得られた場合、積和演算回路45は、その復号値で構成される画素ブロック(復号ブロック)を、ブロック分解回路33(図3)に出力し、処理を終了する。
【0126】
なお、図9のフローチャートにしたがった処理は、予測タップ抽出回路41が、新たな注目画素ブロックを設定するごとに繰り返し行われる。
【0127】
次に、上述の場合には、クラス分類回路43において、クラスタップを構成する5つのDCTブロックそれぞれについて、同一の空間周波数帯域S0乃至S3の電力P0乃至P3を計算し、その電力に基づいて、クラス分類を行うようにしたが、その他、クラス分類は、例えば、クラスタップを構成する5つのDCTブロックの幾つかについて、異なる空間周波数帯域の電力を計算し、その電力に基づいて行うようにすることも可能である。
【0128】
即ち、例えば、図11に斜線を付して示すように、クラスタップを構成する5つのDCTブロックのうち、注目画素ブロックに対応するDCTブロック(以下、適宜、注目DCTブロックという)については、垂直方向の高周波数帯域の電力Pvおよび水平方向の高周波数帯域の電力Phを、注目DCTブロックの上に隣接するDCTブロックについては、垂直方向の高周波数帯域の電力Puを、注目DCTブロックの下に隣接するDCTブロックについては、垂直方向の高周波数帯域の電力Pdを、注目DCTブロックの左隣のDCTブロックについては、水平方向の高周波数帯域の電力Plを、注目DCTブロックの右隣のDCTブロックについては、水平方向の高周波数帯域の電力Prを、それぞれ計算し、それらの電力Pv,Ph,Pu,Pd,Pl,Prに基づき、図7および図10で説明した場合と同様にして、クラス分類を行うようにすることが可能である。
【0129】
この場合、図7に示したクラス分類回路43では、図9のステップS12において、図12に示すような処理が行われる。
【0130】
即ち、まず最初に、ステップS31において、クラス分類回路43(図7)の電力演算回路51が、クラスタップを構成する5個のDCTブロックについて、図11で説明したような各周波数帯域の電力Pv,Ph,Pu,Pd,Pl,Prを演算し、クラスコード生成回路52に出力する。
【0131】
クラスコード生成回路52は、ステップS32において、閾値テーブル記憶部53から閾値を読み出す。なお、ここでは、閾値テーブル記憶部53に、電力Pv,Ph,Pu,Pd,Pl,Prそれぞれと比較するための閾値THv,THh,THu,THd,THl,THrが記憶されているものとする。
【0132】
クラスコード生成回路52は、閾値テーブル記憶部53から閾値THv,THh,THu,THd,THl,THrを読み出すと、それぞれを、電力演算回路51からの電力Pv,Ph,Pu,Pd,Pl,Prそれぞれと比較し、それぞれの大小関係に基づいた、6個の1ビットを得る。そして、クラスコード生成回路52は、その6個の1ビットのコードからなる6ビットのコードを、クラスコードとして出力し、リターンする。従って、この場合、注目画素(注目画素ブロック)は、64(=26)個のクラスのうちのいずれかにクラス分類されることになる。
【0133】
次に、以上においては、クラスタップとしての量子化DCT係数のAC成分をクラス分類に用いるようにしたが、クラス分類は、その他、量子化DCT係数のDC成分を用いて行うことも可能である。
【0134】
即ち、クラス分類は、例えば、図13に示すように、注目DCTブロックのDC成分C0、その上下左右に隣接するDCTブロックそれぞれのDC成分Cu,Cd,Cl,Crを用いて行うことが可能である。
【0135】
この場合、図5のクラス分類回路43は、例えば、図14に示すように構成される。
【0136】
クラスタップは、差分演算回路151に供給されるようになっており、差分演算回路151は、クラスタップを構成する5個のDCTブロックのうち、注目DCTブロックの上下左右に隣接するDCTブロックのDC成分Cu,Cd,Cl,Crそれぞれと、注目DCTブロックのDC成分C0との差分の絶対値Du,Dd,Dl,Drを演算し、クラスコード生成回路152に供給する。即ち、差分演算回路151は、式Du=|Cu−C0|,Dd=|Cd−C0|,Dl=|Cl−C0|,Dr=|Cr−C0|を演算し、その演算結果を、クラスコード生成回路152に供給する。
【0137】
クラスコード生成回路152は、差分演算回路151からの演算結果(差分絶対値)Du,Dd,Dl,Drを、閾値テーブル記憶部153に記憶された、対応する閾値THu,THd,THl,THrとそれぞれ比較し、それぞれの大小関係に基づいて、クラスコードを出力する。即ち、クラスコード生成回路152は、差分絶対値Duと閾値THuとを比較し、その大小関係を表す1ビットのコードを得る。同様に、クラスコード生成回路152は、差分絶対値Ddと閾値THd、差分絶対値Dlと閾値THl、差分絶対値Drと閾値THrを、それぞれ比較することにより、それぞれについて、1ビットのコードを得る。
【0138】
そして、クラスコード生成回路152は、以上のようにして得られる4つの1ビットのコードを、例えば、所定の順番で並べることにより得られる4ビットのコード(従って、0乃至15のうちのいずれかの値)を、注目画素ブロックのクラスを表すクラスコードとして出力する。従って、この場合、注目画素ブロックは、24(=16)個のクラスのうちのいずれかにクラス分類されることになる。
【0139】
閾値テーブル記憶部153は、差分絶対値Du,Dd,Dl,Drとそれぞれ比較する閾値THu,THd,,THl,THrを記憶している。
【0140】
クラス分類回路43が図14に示したように構成される場合、図9のステップS12では、図15に示すような処理が行われる。
【0141】
即ち、この場合、まず最初に、ステップS41において、差分演算回路151は、クラスタップを構成する5個のDCTブロックそれぞれのDC成分C0,Cu,Cd,Cl,Crを用いて、上述の差分絶対値Du,Dd,Dl,Drを演算し、クラスコード生成回路152に供給する。
【0142】
クラスコード生成回路152は、ステップS42において、閾値テーブル記憶部153に記憶された閾値THu,THd,THl,THrそれぞれと、差分演算回路151からの差分絶対値Du,Dd,Dl,Drそれぞれと比較し、その大小関係を表す4つの1ビットのコードを得る。そして、クラスコード生成回路152は、その4つの1ビットのコードでなる4ビットのコードを、クラスコードとして出力し、リターンする。
【0143】
なお、クラス分類は、量子化DCT係数のAC成分だけ、またはDC成分だけを用いて行う他、AC成分およびDC成分の両方を用いて行うことも可能である。即ち、クラス分類の方法は、上述した手法に限定されるものではない。
【0144】
次に、図16は、図5の係数テーブル記憶部44に記憶させるタップ係数の学習処理を行う学習装置の一実施の形態の構成例を示している。
【0145】
ブロック化回路61には、1枚以上の学習用の画像データが供給されるようになっており、ブロック化回路61は、その学習用の画像を、JPEG符号化における場合と同様に、8×8画素の画素ブロックにブロック化する。
【0146】
DCT回路62は、ブロック化回路61がブロック化した画素ブロックを、順次、注目画素ブロックとして読み出し、その注目画素ブロックを、DCT処理することで、DCT係数のブロックとする。このDCT係数のブロックは、量子化回路63に供給される。
【0147】
量子化回路63は、DCT回路62からのDCT係数のブロックを、JPEG符号化に用いられるのと同一の量子化テーブルにしたがって量子化し、その結果得られる量子化DCT係数のブロック(DCTブロック)を、予測タップ抽出回路64およびクラスタップ抽出回路65に順次供給する。
【0148】
予測タップ抽出回路64は、注目画素ブロックの画素のうち、ラスタスキャン順で、まだ、注目画素とされていない画素を、注目画素として、その注目画素について、図5の予測タップ抽出回路41が構成するのと同一の予測タップを、量子化回路63の出力から、必要な量子化DCT係数を抽出することで構成する。この予測タップは、学習時の生徒となる生徒データとして、予測タップ抽出回路64から正規方程式加算回路67に供給される。
【0149】
クラスタップ抽出回路65は、注目画素ブロックについて、図5のクラスタップ抽出回路42が構成するのと同一のクラスタップを、量子化回路63の出力から、必要な量子化DCT係数を抽出することで構成する。このクラスタップは、クラスタップ抽出回路65からクラス分類回路66に供給される。
【0150】
クラス分類回路66は、クラスタップ抽出回路65からのクラスタップを用いて、図5のクラス分類回路43と同一の処理を行うことで、注目画素ブロックをクラス分類し、その結果得られるクラスコードを、正規方程式加算回路67に供給する。
【0151】
正規方程式加算回路67は、ブロック化回路61から、注目画素(の画素値)を教師データとして読み出し、予測タップ構成回路64からの生徒データとしての予測タップ(を構成する量子化DCT係数)、および注目画素を対象とした足し込みを行う。
【0152】
即ち、正規方程式加算回路67は、クラス分類回路66から供給されるクラスコードに対応するクラスごとに、予測タップ(生徒データ)を用い、式(8)の行列Aにおける各コンポーネントとなっている、生徒データどうしの乗算(xinim)と、サメーション(Σ)に相当する演算を行う。
【0153】
さらに、正規方程式加算回路67は、やはり、クラス分類回路66から供給されるクラスコードに対応するクラスごとに、予測タップ(生徒データ)および注目画素(教師データ)を用い、式(8)のベクトルvにおける各コンポーネントとなっている、生徒データと教師データの乗算(xini)と、サメーション(Σ)に相当する演算を行う。
【0154】
なお、正規方程式加算回路67における、上述のような足し込みは、各クラスについて、注目画素に対する画素位置モードごとに行われる。
【0155】
正規方程式加算回路67は、以上の足し込みを、ブロック化回路61に供給された学習用の画像を構成する画素すべてを注目画素として行い、これにより、各クラスについて、画素位置モードごとに、式(8)に示した正規方程式がたてられる。
【0156】
タップ係数決定回路68は、正規方程式加算回路67においてクラスごとに(かつ、画素位置モードごとに)生成された正規方程式を解くことにより、クラスごとに、64セットのタップ係数を求め、係数テーブル記憶部69の、各クラスに対応するアドレスに供給する。
【0157】
なお、学習用の画像として用意する画像の枚数や、その画像の内容等によっては、正規方程式加算回路67において、タップ係数を求めるのに必要な数の正規方程式が得られないクラスが生じる場合があり得るが、タップ係数決定回路68は、そのようなクラスについては、例えば、デフォルトのタップ係数を出力する。
【0158】
係数テーブル記憶部69は、タップ係数決定回路68から供給されるクラスごとの64セットのタップ係数を記憶する。
【0159】
次に、図17のフローチャートを参照して、図16の学習装置の処理(学習処理)について説明する。
【0160】
ブロック化回路61には、学習用の画像データが供給され、ブロック化回路61は、ステップS51において、学習用の画像データを、JPEG符号化における場合と同様に、8×8画素の画素ブロックにブロック化して、ステップS52に進む。ステップS52では、DCT回路62が、ブロック化回路61がブロック化した画素ブロックを、順次読み出し、その画素ブロックを、DCT処理することで、DCT係数のブロックとし、ステップS53に進む。ステップS53では、量子化回路63が、DCT回路62において得られたDCT係数のブロックを順次読み出し、JPEG符号化に用いられるのと同一の量子化テーブルにしたがって量子化して、量子化DCT係数で構成されるブロック(DCTブロック)とする。
【0161】
そして、ステップS54に進み、クラスタップ抽出回路65は、ブロック化回路61でブロック化された画素ブロックのうち、まだ注目画素ブロックとされていないものを、注目画素ブロックとする。さらに、クラスタップ抽出回路65は、注目画素ブロックをクラス分類するのに用いる量子化DCT係数を、量子化回路63で得られたDCTブロックから抽出して、クラスタップを構成し、クラス分類回路66に供給する。クラス分類回路66は、ステップS55において、図10のフローチャートで説明した場合と同様に、クラスタップ抽出回路65からのクラスタップを用いて、注目画素ブロックをクラス分類し、その結果得られるクラスコードを、正規方程式加算回路67に供給して、ステップS56に進む。
【0162】
ステップS56では、予測タップ抽出回路64が、注目画素ブロックの画素のうち、ラスタスキャン順で、まだ、注目画素とされていない画素を、注目画素として、その注目画素について、図5の予測タップ抽出回路41が構成するのと同一の予測タップを、量子化回路63の出力から必要な量子化DCT係数を抽出することで構成する。そして、予測タップ抽出回路64は、注目画素についての予測タップを、生徒データとして、正規方程式加算回路67に供給し、ステップS57に進む。
【0163】
ステップS57では、正規方程式加算回路67は、ブロック化回路61から、注目画素を教師データとして読み出し、生徒データとしての予測タップ(を構成する量子化DCT係数)、および教師データとしての注目画素を対象として、式(8)の行列Aとベクトルvの、上述したような足し込みを行う。なお、この足し込みは、クラス分類回路66からのクラスコードに対応するクラスごとに、かつ注目画素に対する画素位置モードごとに行われる。
【0164】
そして、ステップS58に進み、予測タップ抽出回路64は、注目画素ブロックのすべての画素を、注目画素として、足し込みを行ったかどうかを判定する。ステップS58において、注目画素ブロックのすべての画素を、注目画素として、まだ足し込みを行っていないと判定された場合、ステップS56に戻り、予測タップ抽出回路64は、注目画素ブロックの画素のうち、ラスタスキャン順で、まだ、注目画素とされていない画素を、新たに注目画素として、以下、同様の処理を繰り返す。
【0165】
また、ステップS58において、注目画素ブロックのすべての画素を、注目画素として、足し込みを行ったと判定された場合、ステップS59に進み、ブロック化回路61は、学習用の画像から得られたすべての画素ブロックを、注目画素ブロックとして処理を行ったかどうかを判定する。ステップS59において、学習用の画像から得られたすべての画素ブロックを、注目画素ブロックとして、まだ処理を行っていないと判定された場合、ステップS54に戻り、ブロック化回路61でブロック化された画素ブロックのうち、まだ注目画素ブロックとされていないものが、新たに注目画素ブロックとされ、以下、同様の処理が繰り返される。
【0166】
一方、ステップS59において、学習用の画像から得られたすべての画素ブロックを、注目画素ブロックとして処理を行ったと判定された場合、即ち、正規方程式加算回路67において、各クラスについて、画素位置モードごとの正規方程式が得られた場合、ステップS60に進み、タップ係数決定回路68は、各クラスの画素位置モードごとに生成された正規方程式を解くことにより、各クラスごとに、そのクラスの64の画素位置モードそれぞれに対応する64セットのタップ係数を求め、係数テーブル記憶部69の、各クラスに対応するアドレスに供給して記憶させ、処理を終了する。
【0167】
以上のようにして、係数テーブル記憶部69に記憶された各クラスごとのタップ係数が、図5の係数テーブル記憶部44に記憶されている。
【0168】
従って、係数テーブル記憶部44に記憶されたタップ係数は、線形予測演算を行うことにより得られる元の画素値の予測値の予測誤差(ここでは、自乗誤差)が、統計的に最小になるように学習を行うことにより求められたものであり、その結果、図5の係数変換回路32によれば、JPEG符号化された画像を、元の画像に限りなく近い画像に復号することができる。
【0169】
また、上述したように、JPEG符号化された画像の復号処理と、その画質を向上させるための処理とが、同時に施されることとなるので、JPEG符号化された画像から、効率的に、画質の良い復号画像を得ることができる。
【0170】
次に、図18は、図3の係数変換回路32の第2の構成例を示している。なお、図中、図5における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。即ち、図18の係数変換回路32は、逆量子化回路71が新たに設けられている他は、基本的に、図5における場合と同様に構成されている。
【0171】
図18の実施の形態において、逆量子化回路71には、エントロピー復号回路31(図3)において符号化データをエントロピー復号することにより得られるブロックごとの量子化DCT係数が供給される。
【0172】
なお、エントロピー復号回路31においては、上述したように、符号化データから、量子化DCT係数の他、量子化テーブルも得られるが、図18の実施の形態では、この量子化テーブルも、エントロピー復号回路31から逆量子化回路71に供給されるようになっている。
【0173】
逆量子化回路71は、エントロピー復号回路31からの量子化DCT係数を、同じくエントロピー復号回路31からの量子化テーブルにしたがって逆量子化し、その結果られるDCT係数を、予測タップ抽出回路41およびクラスタップ抽出回路42に供給する。
【0174】
従って、予測タップ抽出回路41とクラスタップ抽出回路42では、量子化DCT係数ではなく、DCT係数を対象として、予測タップとクラスタップがそれぞれ構成され、以降も、DCT係数を対象として、図5における場合と同様の処理が行われる。
【0175】
このように、図18の実施の形態では、量子化DCT係数ではなく、DCT係数(量子化DCT係数を逆量子化したもの)を対象として処理が行われるため、係数テーブル記憶部44に記憶させるタップ係数は、図5における場合と異なるものとする必要がある。
【0176】
そこで、図19は、図18の係数テーブル記憶部44に記憶させるタップ係数の学習処理を行う学習装置の一実施の形態の構成例を示している。なお、図中、図16における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。即ち、図19の学習装置は、量子化回路63の後段に、逆量子化回路81が新たに設けられている他は、図16における場合と基本的に同様に構成されている。
【0177】
図19の実施の形態において、逆量子化回路81は、逆量子化回路63が出力する量子化DCT係数を、図18の逆量子化回路71と同様に逆量子化し、その結果得られるDCT係数を、予測タップ抽出回路64およびクラスタップ抽出回路65に供給する。
【0178】
従って、予測タップ抽出回路64とクラスタップ抽出回路65では、量子化DCT係数ではなく、DCT係数を対象として、予測タップとクラスタップがそれぞれ構成され、以降も、DCT係数を対象として、図16における場合と同様の処理が行われる。
【0179】
その結果、DCT係数が量子化され、さらに逆量子化されることにより生じる量子化誤差の影響を低減するタップ係数が得られることになる。
【0180】
次に、図20は、図3の係数変換回路32の第3の構成例を示している。なお、図中、図5における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。即ち、図20の係数変換回路32は、積和演算回路45の後段に、逆DCT回路101が新たに設けられている他は、基本的に、図5における場合と同様に構成されている。
【0181】
逆DCT回路101は、積和演算回路45の出力を逆DCT処理することにより、画像に復号して出力する。従って、図20の実施の形態では、積和演算回路45は、予測タップ抽出回路41が出力する予測タップを構成する量子化DCT係数と、係数テーブル記憶部44に記憶されたタップ係数とを用いた積和演算を行うことにより、DCT係数を出力する。
【0182】
このように、図20の実施の形態では、量子化DCT係数が、タップ係数との積和演算により、画素値に復号されるのではなく、DCT係数に変換され、さらに、そのDCT係数が、逆DCT回路101で逆DCTされることにより、画素値に復号される。従って、係数テーブル記憶部44に記憶させるタップ係数は、図5における場合と異なるものとする必要がある。
【0183】
そこで、図21は、図20の係数テーブル記憶部44に記憶させるタップ係数の学習処理を行う学習装置の一実施の形態の構成例を示している。なお、図中、図16における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。即ち、図21の学習装置は、正規方程式加算回路67に対し、教師データとして、学習用の画像の画素値ではなく、DCT回路62が出力する、学習用の画像をDCT処理したDCT係数が与えられるようになっている他は、図16における場合と同様に構成されている。
【0184】
従って、図21の実施の形態では、正規方程式加算回路67が、DCT回路62が出力するDCT係数を教師データとするとともに、予測タップ構成回路64が出力する予測タップを構成する量子化DCT係数を生徒データとして、上述の足し込みを行う。そして、タップ係数決定回路68は、そのような足し込みにより得られる正規方程式を解くことにより、タップ係数を求める。その結果、図21の学習装置では、量子化DCT係数を、量子化回路63における量子化による量子化誤差を低減(抑制)したDCT係数に変換するタップ係数が求められることになる。
【0185】
図20の係数変換回路32では、積和演算回路45が、上述のようなタップ係数を用いて積和演算を行うため、その出力は、予測タップ抽出回路41が出力する量子化DCT係数を、その量子化誤差を低減したDCT係数に変換したものとなっている。従って、そのようなDCT係数が、逆DCT回路101で逆DCTされることにより、量子化誤差の影響による画質の劣化を低減した復号画像が得られることになる。
【0186】
次に、図22は、図3の係数変換回路32の第4の構成例を示している。なお、図中、図5、図18、または図20における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。即ち、図22の係数変換回路32は、図18における場合と同様に、逆量子化回路71が新たに設けられ、かつ、図20における場合と同様に、逆DCT回路101が新たに設けられている他は、図5における場合と同様に構成されている。
【0187】
従って、図22の実施の形態では、予測タップ抽出回路41とクラスタップ抽出回路42では、量子化DCT係数ではなく、DCT係数を対象として、予測タップとクラスタップがそれぞれ構成される。さらに、図22の実施の形態では、積和演算回路45は、予測タップ抽出回路41が出力する予測タップを構成するDCT係数と、係数テーブル記憶部44に記憶されたタップ係数とを用いた積和演算を行うことにより、量子化誤差を低減したDCT係数を得て、逆DCT回路101に出力する。
【0188】
次に、図23は、図22の係数テーブル記憶部44に記憶させるタップ係数の学習処理を行う学習装置の一実施の形態の構成例を示している。なお、図中、図16、図19、または図21における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。即ち、図23の学習装置は、図19における場合と同様に、逆量子化回路81が新たに設けられ、さらに、図21における場合と同様に、正規方程式加算回路67に対し、教師データとして、学習用の画像の画素値ではなく、DCT回路62が出力する、学習用の画像をDCT処理したDCT係数が与えられるようになっている他は、図16における場合と同様に構成されている。
【0189】
従って、図23の実施の形態では、正規方程式加算回路67が、DCT回路62が出力するDCT係数(量子化誤差のないDCT係数)を教師データとするとともに、予測タップ構成回路64が出力する予測タップを構成するDCT係数(量子化されて逆量子化されたDCT係数)を生徒データとして、上述の足し込みを行う。そして、タップ係数決定回路68は、そのような足し込みにより得られる正規方程式を解くことにより、タップ係数を求める。その結果、図23の学習装置では、量子化され、さらに逆量子化されたDCT係数を、その量子化および逆量子化による量子化誤差を低減したDCT係数に変換するタップ係数が求められることになる。
【0190】
次に、上述した一連の処理は、ハードウェアにより行うこともできるし、ソフトウェアにより行うこともできる。一連の処理をソフトウェアによって行う場合には、そのソフトウェアを構成するプログラムが、汎用のコンピュータ等にインストールされる。
【0191】
そこで、図24は、上述した一連の処理を実行するプログラムがインストールされるコンピュータの一実施の形態の構成例を示している。
【0192】
プログラムは、コンピュータに内蔵されている記録媒体としてのハードディスク205やROM203に予め記録しておくことができる。
【0193】
あるいはまた、プログラムは、フロッピーディスク、CD-ROM(Compact Disc Read Only Memory),MO(Magneto optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリなどのリムーバブル記録媒体211に、一時的あるいは永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体211は、いわゆるパッケージソフトウエアとして提供することができる。
【0194】
なお、プログラムは、上述したようなリムーバブル記録媒体211からコンピュータにインストールする他、ダウンロードサイトから、ディジタル衛星放送用の人工衛星を介して、コンピュータに無線で転送したり、LAN(Local Area Network)、インターネットといったネットワークを介して、コンピュータに有線で転送し、コンピュータでは、そのようにして転送されてくるプログラムを、通信部208で受信し、内蔵するハードディスク205にインストールすることができる。
【0195】
コンピュータは、CPU(Central Processing Unit)202を内蔵している。CPU202には、バス201を介して、入出力インタフェース210が接続されており、CPU202は、入出力インタフェース210を介して、ユーザによって、キーボードや、マウス、マイク等で構成される入力部207が操作等されることにより指令が入力されると、それにしたがって、ROM(Read Only Memory)203に格納されているプログラムを実行する。あるいは、また、CPU202は、ハードディスク205に格納されているプログラム、衛星若しくはネットワークから転送され、通信部208で受信されてハードディスク205にインストールされたプログラム、またはドライブ209に装着されたリムーバブル記録媒体211から読み出されてハードディスク205にインストールされたプログラムを、RAM(Random Access Memory)204にロードして実行する。これにより、CPU202は、上述したフローチャートにしたがった処理、あるいは上述したブロック図の構成により行われる処理を行う。そして、CPU202は、その処理結果を、必要に応じて、例えば、入出力インタフェース210を介して、LCD(Liquid CryStal Display)やスピーカ等で構成される出力部206から出力、あるいは、通信部208から送信、さらには、ハードディスク205に記録等させる。
【0196】
ここで、本明細書において、コンピュータに各種の処理を行わせるためのプログラムを記述する処理ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含むものである。
【0197】
また、プログラムは、1のコンピュータにより処理されるものであっても良いし、複数のコンピュータによって分散処理されるものであっても良い。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであっても良い。
【0198】
なお、本実施の形態では、画像データを対象としたが、本発明は、その他、例えば、音声データにも適用可能である。
【0199】
さらに、本実施の形態では、静止画を圧縮符号化するJPEG符号化された画像を対象としたが、本発明は、動画を圧縮符号化する、例えば、MPEG符号化された画像を対象とすることも可能である。
【0200】
また、本実施の形態では、少なくとも、DCT処理を行うJPEG符号化された符号化データの復号を行うようにしたが、本発明は、その他の直交変換または周波数変換によって、ブロック単位(ある所定の単位)で変換されたデータの復号や変換に適用可能である。即ち、本発明は、例えば、サブバンド符号化されたデータや、フーリエ変換されたデータ等を復号したり、それらの量子化誤差等を低減したデータに変換する場合にも適用可能である。
【0201】
さらに、本実施の形態では、デコーダ22において、タップ係数を、あらかじめ記憶しておくようにしたが、タップ係数は、符号化データに含めて、デコーダ22に提供するようにすることが可能である。
【0202】
また、本実施の形態では、タップ係数を用いた線形1次予測演算によって、復号や変換を行うようにしたが、復号および変換は、その他、2次以上の高次の予測演算によって行うことも可能である。
【0203】
さらに、本実施の形態では、クラスタップを、注目画素に対応するDCTブロックの量子化DCT係数だけでなく、他のDCTブロックの量子化DCT係数をも用いて構成するようにしたが、予測タップも、同様に構成することが可能である。
【0204】
【発明の効果】
本発明の第1のデータ処理装置およびデータ処理方法、並びに記録媒体によれば、効率的に、変換データから、元のデータの予測値を求めることが可能となる。
【0205】
本発明の第2のデータ処理装置およびデータ処理方法、並びに記録媒体によれば、効率的に、直交変換または周波数変換されたデータから元のデータの予測値を求めることが可能となる。
【図面の簡単な説明】
【図1】従来のJPEG符号化/復号を説明するための図である。
【図2】本発明を適用した画像伝送システムの一実施の形態の構成例を示す図である。
【図3】図2のデコーダ22の構成例を示すブロック図である。
【図4】図3のデコーダ22の処理を説明するフローチャートである。
【図5】図3の係数変換回路32の第1の構成例を示すブロック図である。
【図6】クラスタップの例を説明する図である。
【図7】図5のクラス分類回路43の構成例を示すブロック図である。
【図8】電力演算回路51の処理を説明するための図である。
【図9】図5の係数変換回路32の処理を説明するフローチャートである。
【図10】図9のステップS12の処理のより詳細を説明するフローチャートである。
【図11】クラス分類の方法を説明するための図である。
【図12】図5のクラス分類回路43の処理を説明するフローチャートである。
【図13】クラス分類の他の方法を説明するための図である。
【図14】図5のクラス分類回路43の他の構成例を示すブロック図である。
【図15】図14のクラス分類回路43の処理を説明するフローチャートである。
【図16】タップ係数を学習する学習装置の第1実施の形態の構成例を示すブロック図である。
【図17】図16の学習装置の処理を説明するフローチャートである。
【図18】図3の係数変換回路32の第2の構成例を示すブロック図である。
【図19】学習装置の第2実施の形態の構成例を示すブロック図である。
【図20】図3の係数変換回路32の第3の構成例を示すブロック図である。
【図21】学習装置の第3実施の形態の構成例を示すブロック図である。
【図22】図3の係数変換回路32の第4の構成例を示すブロック図である。
【図23】学習装置の第4実施の形態の構成例を示すブロック図である。
【図24】本発明を適用したコンピュータの一実施の形態の構成例を示すブロック図である。
【符号の説明】
21 エンコーダ, 22 デコーダ, 23 記録媒体, 24 伝送媒体, 31 エントロピー復号回路, 32 係数変換回路, 33 ブロック分解回路, 41 予測タップ抽出回路, 42 クラスタップ抽出回路, 43クラス分類回路, 44 係数テーブル記憶部, 45積和演算回路, 51電力演算回路, 52 クラスコード生成回路, 53 閾値テーブル記憶部, 61 ブロック化回路, 62 DCT回路, 63 量子化回路, 64予測タップ抽出回路, 65 クラスタップ抽出回路, 66 クラス分類回路, 67 正規方程式加算回路, 68 タップ係数決定回路, 69 係数テーブル記憶部, 71,81 逆量子化回路, 91 逆量子化回路, 101 逆DCT回路, 151 差分演算回路, 152 クラスコード生成回路, 153 閾値テーブル記憶部, 201 バス, 202 CPU, 203 ROM, 204 RAM, 205 ハードディスク, 206 出力部, 207 入力部, 208 通信部, 209 ドライブ, 210 入出力インタフェース, 211 リムーバブル記録媒体

Claims (13)

  1. データに対し、少なくとも、離散コサイン変換処理を所定のブロック単位で施すことにより得られるブロック単位の変換データを処理し、元のデータの予測値を求めるデータ処理装置であって、
    学習を行うことにより求められたタップ係数を取得する取得手段と、
    注目している前記データである注目データを、幾つかのクラスのうちのいずれかにクラス分類するのに用いる前記変換データを、少なくとも、前記注目データに対応するブロック以外のブロックから抽出し、クラスタップとして出力するクラスタップ抽出手段と、
    前記クラスタップとなっている変換データである、離散コサイン変換されたデータの直流成分または交流成分の電力に基づいて、前記注目データのクラスを求めるクラス分類を行うクラス分類手段と、
    前記注目データのクラスの前記タップ係数と、前記変換データとの線形1次予測演算を行うことにより、前記注目データの予測値を求める演算手段と
    を備え、
    前記タップ係数は、
    学習時の教師となる教師データに対し、少なくとも、離散コサイン変換処理を所定のブロック単位で施すことにより得られる前記ブロック単位の変換データを、学習時の生徒となる生徒データとして生成し、
    前記教師データとして用いられる前記データのうちの、注目している教師データである注目教師データを、幾つかのクラスのうちのいずれかにクラス分類するのに用いる前記生徒データを、少なくとも、前記注目教師データに対応するブロック以外のブロックから抽出し、クラスタップとして出力し、
    前記クラスタップとなっている生徒データである、離散コサイン変換されたデータの直流成分または交流成分の電力に基づいて、前記注目教師データのクラスを求めるクラス分類を行い、
    前記クラスごとの前記タップ係数と、前記生徒データとの線形1次予測演算を行うことにより得られる前記教師データの予測値の予測誤差が、統計的に最小になるように学習を行う
    学習処理によりクラスごとに求められたものである
    ことを特徴とするデータ処理装置。
  2. 前記タップ係数を記憶している記憶手段をさらに備え、
    前記取得手段は、前記記憶手段から、前記タップ係数を取得する
    ことを特徴とする請求項1に記載のデータ処理装置。
  3. 前記クラスタップ抽出手段は、注目データに対応するブロックの周辺のブロックから、前記クラスタップとする前記変換データを抽出する
    ことを特徴とする請求項1に記載のデータ処理装置。
  4. 前記クラスタップ抽出手段は、注目データに対応するブロックからも、前記クラスタップとする前記変換データを抽出する
    ことを特徴とする請求項1に記載のデータ処理装置。
  5. 前記データは、動画または静止画の画像データである
    ことを特徴とする請求項1に記載のデータ処理装置。
  6. データに対し、少なくとも、離散コサイン変換処理を所定のブロック単位で施すことにより得られるブロック単位の変換データを処理し、元のデータの予測値を求めるデータ処理方法であって、
    学習を行うことにより求められたタップ係数を取得する取得ステップと、
    注目している前記データである注目データを、幾つかのクラスのうちのいずれかにクラス分類するのに用いる前記変換データを、少なくとも、前記注目データに対応するブロック以外のブロックから抽出し、クラスタップとして出力するクラスタップ抽出ステップと、
    前記クラスタップとなっている変換データである、離散コサイン変換されたデータの直流成分または交流成分の電力に基づいて、前記注目データのクラスを求めるクラス分類を行うクラス分類ステップと、
    前記注目データのクラスの前記タップ係数と、前記変換データとの線形1次予測演算を行うことにより、前記注目データの予測値を求める演算ステップと
    を備え、
    前記タップ係数は、
    学習時の教師となる教師データに対し、少なくとも、離散コサイン変換処理を所定のブロック単位で施すことにより得られる前記ブロック単位の変換データを、学習時の生徒となる生徒データとして生成し、
    前記教師データとして用いられる前記データのうちの、注目している教師データである注目教師データを、幾つかのクラスのうちのいずれかにクラス分類するのに用いる前記生徒データを、少なくとも、前記注目教師データに対応するブロック以外のブロックから抽出し、クラスタップとして出力し、
    前記クラスタップとなっている生徒データである、離散コサイン変換されたデータの直流成分または交流成分の電力に基づいて、前記注目教師データのクラスを求めるクラス分類を行い、
    前記クラスごとの前記タップ係数と、前記生徒データとの線形1次予測演算を行うことにより得られる前記教師データの予測値の予測誤差が、統計的に最小になるように学習を行う
    学習処理によりクラスごとに求められたものである
    ことを特徴とするデータ処理方法。
  7. データに対し、少なくとも、離散コサイン変換処理を所定のブロック単位で施すことにより得られるブロック単位の変換データを処理し、元のデータの予測値を求めるデータ処理を、コンピュータに行わせるプログラムが記録されている記録媒体であって、
    学習を行うことにより求められたタップ係数を取得する取得ステップと、
    注目している前記データである注目データを、幾つかのクラスのうちのいずれかにクラス分類するのに用いる前記変換データを、少なくとも、前記注目データに対応するブロック以外のブロックから抽出し、クラスタップとして出力するクラスタップ抽出ステップと、
    前記クラスタップとなっている変換データである、離散コサイン変換されたデータの直流成分または交流成分の電力に基づいて、前記注目データのクラスを求めるクラス分類を行うクラス分類ステップと、
    前記注目データのクラスの前記タップ係数と、前記変換データとの線形1次予測演算を行うことにより、前記注目データの予測値を求める演算ステップと
    を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体であり、
    前記タップ係数は、
    学習時の教師となる教師データに対し、少なくとも、離散コサイン変換処理を所定のブロック単位で施すことにより得られる前記ブロック単位の変換データを、学習時の生徒となる生徒データとして生成し、
    前記学習時の教師となる教師データとして用いられる前記データのうちの、注目している教師データである注目教師データを、幾つかのクラスのうちのいずれかにクラス分類するのに用いる前記生徒データを、少なくとも、前記注目教師データに対応するブロック以外のブロックから抽出し、クラスタップとして出力し、
    前記クラスタップとなっている生徒データである、離散コサイン変換されたデータの直流成分または交流成分の電力に基づいて、前記注目教師データのクラスを求めるクラス分類を行い、
    前記クラスごとの前記タップ係数と、前記生徒データとの線形1次予測演算を行うことにより得られる前記教師データの予測値の予測誤差が、統計的に最小になるように学習を行う
    学習処理によりクラスごとに求められたものである
    ことを特徴とする記録媒体。
  8. データに対し、少なくとも、離散コサイン変換処理を所定のブロック単位で施すことにより得られるブロック単位の変換データを処理し、元のデータの予測値を求めるのに用いるタップ係数を学習するデータ処理装置であって、
    学習時の教師となる教師データに対し、少なくとも、離散コサイン変換処理を所定のブロック単位で施すことにより得られる前記ブロック単位の変換データを、学習時の生徒となる生徒データとして生成する生成手段と、
    前記教師データとして用いられる前記データのうちの、注目している教師データである注目教師データを、幾つかのクラスのうちのいずれかにクラス分類するのに用いる前記生徒データを、少なくとも、前記注目教師データに対応するブロック以外のブロックから抽出し、クラスタップとして出力するクラスタップ抽出手段と、
    前記クラスタップとなっている生徒データである、離散コサイン変換されたデータの直流成分または交流成分の電力に基づいて、前記注目教師データのクラスを求めるクラス分類を行うクラス分類手段と、
    前記クラスごとの前記タップ係数と、前記生徒データとの線形1次予測演算を行うことにより得られる前記教師データの予測値の予測誤差が、統計的に最小になるように学習を行い、前記タップ係数を、クラスごとに求める学習手段と
    を備えることを特徴とするデータ処理装置。
  9. 前記クラスタップ抽出手段は、注目教師データに対応するブロックの周辺のブロックから、前記クラスタップとする前記生徒データを抽出する
    ことを特徴とする請求項8に記載のデータ処理装置。
  10. 前記クラスタップ抽出手段は、注目教師データに対応するブロックからも、前記クラスタップとする前記生徒データを抽出する
    ことを特徴とする請求項8に記載のデータ処理装置。
  11. 前記データは、動画または静止画の画像データである
    ことを特徴とする請求項8に記載のデータ処理装置。
  12. データに対し、少なくとも、離散コサイン変換処理を所定のブロック単位で施すことにより得られるブロック単位の変換データを処理し、元のデータの予測値を求めるのに用いるタップ係数を学習するデータ処理方法であって、
    学習時の教師となる教師データに対し、少なくとも、離散コサイン変換処理を所定のブロック単位で施すことにより得られる前記ブロック単位の変換データを、学習時の生徒となる生徒データとして生成する生成ステップと、
    前記教師データとして用いられる前記データのうちの、注目している教師データである注目教師データを、幾つかのクラスのうちのいずれかにクラス分類するのに用いる前記生徒データを、少なくとも、前記注目教師データに対応するブロック以外のブロックから抽出し、クラスタップとして出力するクラスタップ抽出ステップと、
    前記クラスタップとなっている生徒データである、離散コサイン変換されたデータの直流成分または交流成分の電力に基づいて、前記注目教師データのクラスを求めるクラス分類を行うクラス分類ステップと、
    前記クラスごとの前記タップ係数と、前記生徒データとの線形1次予測演算を行うことにより得られる前記教師データの予測値の予測誤差が、統計的に最小になるように学習を行い、前記タップ係数を、クラスごとに求める学習ステップと
    を備えることを特徴とするデータ処理方法。
  13. データに対し、少なくとも、離散コサイン変換処理を所定のブロック単位で施すことにより得られるブロック単位の変換データを処理し、元のデータの予測値を求めるのに用いるタップ係数を学習するデータ処理を、コンピュータに行わせるプログラムが記録されている記録媒体であって、
    学習時の教師となる教師データに対し、少なくとも、離散コサイン変換処理を所定のブロック単位で施すことにより得られる前記ブロック単位の変換データを、学習時の生徒となる生徒データとして生成する生成ステップと、
    前記教師データとして用いられる前記データのうちの、注目している教師データである注目教師データを、幾つかのクラスのうちのいずれかにクラス分類するのに用いる前記生徒データを、少なくとも、前記注目教師データに対応するブロック以外のブロックから抽出し、クラスタップとして出力するクラスタップ抽出ステップと、
    前記クラスタップとなっている生徒データである、離散コサイン変換されたデータの直流成分または交流成分の電力に基づいて、前記注目教師データのクラスを求めるクラス分類を行うクラス分類ステップと、
    前記クラスごとの前記タップ係数と、前記生徒データとの線形1次予測演算を行うことにより得られる前記教師データの予測値の予測誤差が、統計的に最小になるように学習を行い、前記タップ係数を、クラスごとに求める学習ステップと
    を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
JP2000164024A 2000-06-01 2000-06-01 データ処理装置およびデータ処理方法、並びに記録媒体 Expired - Fee Related JP4678454B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000164024A JP4678454B2 (ja) 2000-06-01 2000-06-01 データ処理装置およびデータ処理方法、並びに記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000164024A JP4678454B2 (ja) 2000-06-01 2000-06-01 データ処理装置およびデータ処理方法、並びに記録媒体

Publications (2)

Publication Number Publication Date
JP2001346209A JP2001346209A (ja) 2001-12-14
JP4678454B2 true JP4678454B2 (ja) 2011-04-27

Family

ID=18667695

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000164024A Expired - Fee Related JP4678454B2 (ja) 2000-06-01 2000-06-01 データ処理装置およびデータ処理方法、並びに記録媒体

Country Status (1)

Country Link
JP (1) JP4678454B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4748113B2 (ja) * 2007-06-04 2011-08-17 ソニー株式会社 学習装置および学習方法、並びにプログラムおよび記録媒体
JP4951113B1 (ja) 2010-12-20 2012-06-13 株式会社東芝 画像復号化装置、画像復号化方法およびプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0779434A (ja) * 1993-09-06 1995-03-20 Sony Corp ディジタル画像信号の受信/再生装置
JPH09331526A (ja) * 1996-04-11 1997-12-22 Sony Corp 画像信号処理装置および方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0779434A (ja) * 1993-09-06 1995-03-20 Sony Corp ディジタル画像信号の受信/再生装置
JPH09331526A (ja) * 1996-04-11 1997-12-22 Sony Corp 画像信号処理装置および方法

Also Published As

Publication number Publication date
JP2001346209A (ja) 2001-12-14

Similar Documents

Publication Publication Date Title
US7336829B2 (en) Data processing apparatus and method and recording medium
JP5957559B2 (ja) 大きいサイズの変換単位を用いた映像符号化、復号化方法及び装置
US8331454B2 (en) Integer transform function for video compression systems
US9693057B2 (en) Integer transform video compression system, method and computer program product
JP2004528791A (ja) インターフレーム符号化方法および装置
JP4517448B2 (ja) データ処理装置およびデータ処理方法、並びに記録媒体
JP4678454B2 (ja) データ処理装置およびデータ処理方法、並びに記録媒体
JP4752088B2 (ja) データ処理装置およびデータ処理方法、並びに記録媒体
JP4538698B2 (ja) データ処理装置およびデータ処理方法、並びに記録媒体
JP4538699B2 (ja) データ処理装置およびデータ処理方法、並びに記録媒体
JP4419287B2 (ja) 画像処理装置および画像処理方法、並びに記録媒体
JP4147789B2 (ja) 画像処理装置および画像処理方法、並びにプログラムおよび記録媒体
WO2019198519A1 (ja) データ処理装置及びデータ処理方法
JP4081745B2 (ja) 復号装置および復号方法、学習装置および学習方法、並びにプログラムおよび記録媒体
JP2001345707A (ja) データ処理装置およびデータ処理方法、並びに記録媒体
JP4505729B2 (ja) 画像処理装置、画像処理方法、プログラム、および記録媒体
JP4154647B2 (ja) データ処理装置およびデータ処理方法、並びにプログラムおよび記録媒体
JP4491701B2 (ja) データ処理装置およびデータ処理方法、並びに記録媒体
JP4649770B2 (ja) 画像データ処理装置および方法、記録媒体、並びにプログラム
Furht Image presentation and compression
JP2007208662A (ja) 画像復号器、画像復号方法、画像復号プログラムおよびそれを記録したコンピュータ読み取り可能な記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070219

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090818

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090915

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100527

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100713

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110106

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110119

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140210

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees