JP4362895B2 - データ処理装置およびデータ処理方法、並びに記録媒体 - Google Patents

データ処理装置およびデータ処理方法、並びに記録媒体 Download PDF

Info

Publication number
JP4362895B2
JP4362895B2 JP17429599A JP17429599A JP4362895B2 JP 4362895 B2 JP4362895 B2 JP 4362895B2 JP 17429599 A JP17429599 A JP 17429599A JP 17429599 A JP17429599 A JP 17429599A JP 4362895 B2 JP4362895 B2 JP 4362895B2
Authority
JP
Japan
Prior art keywords
data
prediction
error
coefficients
identification information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP17429599A
Other languages
English (en)
Other versions
JP2001008056A (ja
Inventor
哲二郎 近藤
健司 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP17429599A priority Critical patent/JP4362895B2/ja
Priority to US09/597,854 priority patent/US6571142B1/en
Publication of JP2001008056A publication Critical patent/JP2001008056A/ja
Application granted granted Critical
Publication of JP4362895B2 publication Critical patent/JP4362895B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0125Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level one of the standards being a high definition standard
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/004Predictors, e.g. intraframe, interframe coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0135Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes
    • H04N7/0145Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes the interpolation being class adaptive, i.e. it uses the information of class which is determined for a pixel based upon certain characteristics of the neighbouring pixels

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Picture Signal Circuits (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、データ処理装置およびデータ処理方法、並びに記録媒体に関し、特に、例えば、S/N(Signal to Noise Ratio)の低い低S/N画像を、S/Nの高い高S/N画像に変換すること等ができるようにするデータ処理装置およびデータ処理方法、並びに記録媒体に関する。
【0002】
【従来の技術】
本件出願人は、例えば、画像のS/Nや解像度等の画質の向上、その他の画像の改善を行うための処理として、クラス分類適応処理を、先に提案している。
【0003】
クラス分類適応処理は、クラス分類処理と適応処理とからなり、クラス分類処理によって、データを、その性質に基づいてクラス分けし、各クラスごとに適応処理を施すものであり、適応処理は、以下のような手法のものである。
【0004】
即ち、適応処理では、例えば、低S/N画像(クラス分類適応処理の処理対象の画像)を構成する画素(以下、適宜、低S/N画素という)と、所定の予測係数との線形結合により、その低S/N画像のS/Nが劣化する前の原画像である高S/N画像の画素の予測値を求めることで、その低S/N画像に含まれるノイズを除去した画像や、低S/N画像に生じているぼけを改善した画像等が得られるようになっている。
【0005】
具体的には、例えば、いま、原画像(ここでは、例えば、ノイズを含まない画像や、ぼけのない画像等)を教師データとするとともに、その原画像にノイズを重畳したり、あるいはぼかしを付加した低S/N画像を生徒データとして、原画像を構成する画素(以下、適宜、原画素という)の画素値yの予測値E[y]を、幾つかの低S/N画素(低S/N画像を構成する画素)の画素値x1,x2,・・・の集合と、所定の予測係数w1,w2,・・・の線形結合により規定される線形1次結合モデルにより求めることを考える。この場合、予測値E[y]は、次式で表すことができる。
【0006】
E[y]=w11+w22+・・・
・・・(1)
式(1)を一般化するために、予測係数wの集合でなる行列W、生徒データの集合でなる行列X、および予測値E[y]の集合でなる行列Y’を、
【0007】
【数1】
Figure 0004362895
で定義すると、次のような観測方程式が成立する。
【0008】
XW=Y’
・・・(2)
ここで、行列Xの成分xijは、i件目の生徒データの集合(i件目の教師データyiの予測に用いる生徒データの集合)の中のj番目の生徒データを意味し、行列Wの成分wjは、生徒データの集合の中のj番目の生徒データとの積が演算される予測係数を表す。また、yiは、i件目の教師データを表し、従って、E[yi]は、i件目の教師データの予測値を表す。
【0009】
そして、この観測方程式に最小自乗法を適用して、原画素の画素値yに近い予測値E[y]を求めることを考える。この場合、教師データとなる原画素の真の画素値(真値)yの集合でなる行列Y、および原画素の画素値yに対する予測値E[y]の残差eの集合でなる行列Eを、
【0010】
【数2】
Figure 0004362895
で定義すると、式(2)から、次のような残差方程式が成立する。
【0011】
XW=Y+E
・・・(3)
この場合、原画素の画素値yに近い予測値E[y]を求めるための予測係数wiは、自乗誤差
【0012】
【数3】
Figure 0004362895
を最小にすることで求めることができる。
【0013】
従って、上述の自乗誤差を予測係数wiで微分したものが0になる場合、即ち、次式を満たす予測係数wiが、原画素の画素値yに近い予測値E[y]を求めるため最適値ということになる。
【0014】
【数4】
Figure 0004362895
・・・(4)
そこで、まず、式(3)を、予測係数wiで微分することにより、次式が成立する。
【0015】
【数5】
Figure 0004362895
・・・(5)
式(4)および(5)より、式(6)が得られる。
【0016】
【数6】
Figure 0004362895
・・・(6)
さらに、式(3)の残差方程式における生徒データx、予測係数w、教師データy、および残差eの関係を考慮すると、式(6)から、次のような正規方程式を得ることができる。
【0017】
【数7】
Figure 0004362895
・・・(7)
式(7)の正規方程式を構成する各式は、生徒データxおよび教師データyを、ある程度の数だけ用意することで、求めるべき予測係数wの数と同じ数だけたてることができ、従って、式(7)を解くことで(但し、式(7)を解くには、式(7)において、予測係数wにかかる係数で構成される行列が正則である必要がある)、最適な予測係数wを求めることができる。なお、式(7)を解くにあたっては、例えば、掃き出し法(Gauss-Jordanの消去法)などを用いることが可能である。
【0018】
以上のようにして、最適な予測係数wを求めておき、さらに、その予測係数wを用い、式(1)により、原画素の画素値yに近い予測値E[y]を求めるのが適応処理である。
【0019】
なお、適応処理は、低S/N画像には含まれていないが、原画像に含まれる成分が再現される点で、例えば、単なる補間処理とは異なる。即ち、適応処理では、式(1)だけを見る限りは、いわゆる補間フィルタを用いての補間処理と同一であるが、その補間フィルタのタップ係数に相当する予測係数wが、教師データyを用いての、いわば学習により求められるため、原画像に含まれる成分を再現することができる。即ち、容易に、高S/Nの画像を得ることができる。このことから、適応処理は、いわば画像の創造(解像度想像)作用がある処理ということができ、従って、低S/N画像からノイズやぼけを除去した原画像の予測値を求める他、例えば、低解像度または標準解像度の画像を、高解像度の画像に変換するような場合にも用いることができる。
【0020】
図1は、以上のようなクラス分類適応処理により、低S/N画像を高S/N画像に変換する画像処理装置の一例の構成を示している。
【0021】
フレームメモリ1には、処理の対象となる低S/N画像が順次供給されるようになっており、フレームメモリ1は、そこに入力される低S/N画像を、例えば、フレーム単位で一時記憶するようになされている。なお、フレームメモリ1は、複数フレームの低S/N画像を、バンク切換によって記憶することができるようになっており、これにより、そこに入力される低S/N画像が動画であっても、その処理をリアルタイムで行うことができるようになっている。
【0022】
クラスタップ生成回路2は、クラス分類適応処理により、予測値を求めようとする原画素(原画素は、ここでは現実に存在しないから、想定することになる)を、注目原画素として、その注目原画素についてのクラス分類に用いる低S/N画素を、フレームメモリ1に記憶された低S/N画像から抽出し、これを、クラスタップとして、クラス分類回路4に出力する。即ち、クラスタップ生成回路2は、例えば、注目原画素に対して、空間的または時間的に近い位置にある幾つかの低S/N画素を、フレームメモリ1から読み出し、これを、クラスタップとして、クラス分類回路4に出力する。
【0023】
クラス分類回路4は、クラスタップ生成回路2からのクラスタップに基づいて、注目原画素をクラス分類し、その結果得られるクラスに対応するクラスコードを、係数RAM5に対して、アドレスとして与える。即ち、クラス分類回路4には、クラスタップ生成回路2からクラスタップを、例えば、1ビットADRC(Adaptive Dynamic Range Coding)処理し、その結果得られるADRCコードを、クラスコードとして、係数RAM5に出力する。
【0024】
ここで、KビットADRC処理においては、例えば、クラスタップを構成する低S/N画素の画素値の最大値MAXと最小値MINが検出され、DR=MAX-MINを、集合の局所的なダイナミックレンジとし、このダイナミックレンジDRに基づいて、クラスタップを構成する低S/N画素がKビットに再量子化される。即ち、クラスタップを構成する画素の画素値の中から、最小値MINが減算され、その減算値がDR/2Kで除算(量子化)される。従って、クラスタップが、1ビットADRC処理された場合には、そのクラスタップを構成する各低S/N画素の画素値は1ビットとされることになる。そして、この場合、以上のようにして得られる、クラスタップを構成する各画素についての1ビットの画素値を、所定の順番で並べたビット列が、ADRCコードとして出力される。
【0025】
係数RAM5は、後述する図2の学習装置において学習が行われることにより得られるクラスごとの予測係数のセットを記憶しており、クラス分類回路4からクラスコードが供給されると、そのクラスコードに対応するアドレスに記憶されている予測係数のセットを読み出し、予測演算回路6に供給する。
【0026】
一方、予測タップ生成回路3は、予測演算回路6において注目原画素の予測値を求めるのに用いる低S/N画素を、フレームメモリ1に記憶された低S/N画像から抽出し、これを予測タップとして、予測演算回路6に供給する。即ち、予測タップ生成回路3は、注目原画素について、例えば、クラスタップと同一構成の予測タップを構成し、予測演算回路6に出力する。
【0027】
予測演算回路6は、係数RAM5から供給される、注目画素のクラスについての予測係数w,w2,・・・のセットと、予測タップ生成回路3からの予測タップ(を構成する各画素の画素値)x1,x2,・・・とを用いて、式(1)に示した演算を行うことにより、注目原画素yの予測値E[y]を求め、これを、低S/N画素のS/Nを改善した高S/N画素の画素値として出力する。
【0028】
次に、図2は、図1の係数RAM5に記憶させるクラスごとの予測係数のセットを求める学習装置の一例の構成を示している。
【0029】
学習装置には、教師データとしての原画像(ここでは、例えば、高S/Nの動画像)が、フレーム単位で供給されるようになっており、その原画像は、図1のフレームメモリ1と同様に構成されるフレームメモリ11において順次記憶されていく。また、フレームメモリ11に記憶された原画像としての高S/N画像は、ダウンコンバータ12に供給され、そこで、例えば、ノイズが付加されることにより、低S/N画像とされる。
【0030】
ダウンコンバータ12で得られた低S/N画像は、生徒データとして、図1のフレームメモリ1と同様に構成されるフレームメモリ13に順次供給されて記憶される。
【0031】
以上のようにして、学習処理のために用意されたすべての原画像に対応する低S/N画像が、フレームメモリ13に記憶されると、クラスタップ生成回路14または予測タップ生成回路15では、図1のクラスタップ生成回路2または予測タップ生成回路3における場合と同様に、予測値を求めようとする注目原画素についてのクラスタップまたは予測タップを構成させる低S/N画素が、フレームメモリ11から読み出され、クラスタップまたは予測タップがそれぞれ構成される。クラスタップはクラス分類回路16に供給され、また、予測タップは、加算回路17および19にそれぞれ供給される。
【0032】
クラス分類回路16では、図1のクラス分類回路4における場合と同様にして、クラスタップ生成回路14からのクラスタップを用いて、注目原画素がクラス分類され、そのクラス分類結果としてのクラスコードが、予測タップメモリ18および教師データメモリ20に対して、アドレスとして与えられる。
【0033】
そして、加算回路17または19それぞれにおいて、予測タップ(生徒データ)、教師データの足し込みが行われる。
【0034】
即ち、予測タップメモリ18は、クラス分類回路16が出力するクラスコードに対応するアドレスの記憶値を読み出し、加算回路17に供給する。加算回路17は、予測タップメモリ18から供給される記憶値と、予測タップ生成回路15から供給されるの予測タップを構成する低S/N画素とを用いて、式(7)の正規方程式の左辺における、予測係数の乗数となっているサメーション(Σ)に相当する演算を行う。そして、加算回路17は、その演算結果を、クラス分類回路16が出力するクラスコードに対応する、予測タップメモリ18のアドレスに、上書きする形で記憶させる。
【0035】
さらに、教師データメモリ20は、クラス分類回路16が出力するクラスコードに対応するアドレスの記憶値を読み出し、加算回路19に供給する。加算回路19は、フレームメモリ11から、注目原画素を読み出し、その注目原画素、さらには、予測タップ生成回路15からの予測タップを構成する低S/N画素、および教師データメモリ20から供給された記憶値とを用いて、式(7)の正規方程式の右辺におけるサメーション(Σ)に相当する演算を行う。そして、加算回路19は、その演算結果を、クラス分類回路16が出力するクラスコードに対応する、教師データメモリ20のアドレスに、上書きする形で記憶させる。
【0036】
なお、加算回路17および19では、式(7)における乗算も行われる。即ち、加算器17では、予測タップを構成する低S/N画素xどうしの乗算も行われ、また、加算器19では、予測タップを構成する低S/N画素xと、教師データ(注目原画素)yとの乗算も行われる。
【0037】
学習装置では、以上の処理が、フレームメモリ11に記憶された原画素すべてを、順次、注目原画素として行われる。
【0038】
そして、原画素すべてについて、上述の処理が終了すると、演算回路21は、予測タップメモリ18または教師データメモリ20それぞれから、各クラスコードに対応するアドレスに記憶されている記憶値を順次読み出し、式(7)に示した正規方程式をたてて、これを解くことにより、クラスごとの予測係数のセットを求める。
【0039】
なお、以上のような予測係数の学習処理において、予測係数を求めるのに必要な数の正規方程式が得られないクラスが生じる場合があり得るが、そのようなクラスについては、例えば、デフォルトの予測係数を出力するようにすること等が可能である。
【0040】
次に、図3は、上述のクラス分類適応処理を利用した画像伝送装置の一例の構成を示している。
【0041】
この画像伝送装置では、符号化器31において、高S/N画像が符号化されて符号化データとされ、復号器41において、その符号化データが、元の高S/N画像(の予測値)に復号されるようになされている。
【0042】
即ち、符号化器31は、ダウンコンバータ32で構成され、そこには、符号化対象である高S/N画像(のディジタルデータ)(動画または静止画のいずれであってもかまわない)が入力されるようになっている。ダウンコンバータ32では、そこに入力される高S/N画像が、例えば、LPF(Low Pass Filter)でフィルタリング等され、低S/N画像とされる。この低S/N画像は、符号化データとして出力され、例えば、衛星回線やインターネット、地上波等の伝送媒体51を介して伝送され、あるいは、例えば、光ディスクや、光磁気ディスク、磁気ディスク、磁気テープ、光カード、半導体メモリ等の記録媒体52に記録される。
【0043】
伝送媒体51を介して伝送され、あるいは、記録媒体52から再生される符号化データとしての低S/N画像は、復号器41に供給される。復号器41は、クラス分類適応処理回路42で構成され、このクラス分類適応処理回路42は、図1に示した画像処理装置と同様に構成されている。従って、クラス分類適応処理回路42では、そこに入力される符号化データとしての低S/N画像に対して、図1における場合と同様のクラス分類適応処理が施され、これにより、高S/N画像に変換されて出力される。
【0044】
【発明が解決しようとする課題】
ところで、図2の学習装置では、クラス分類回路16において、クラスタップをADRC処理することで、注目原画素がクラス分類され、その後、そのクラスごとに正規方程式をたてることで、クラスごとの予測係数のセットが求められる。
【0045】
即ち、学習装置では、各クラスごとに、原画素について構成される予測タップから、予測誤差(予測値の、原画素に対する誤差)の自乗和を最小にする予測係数のセットが求められる。その結果、あるクラスに注目すれば、そのクラスに分類される各原画素に対する予測誤差を最小にする予測係数のセットではなく、その予測誤差の総和を最小にする予測係数のセットが求められるため、図1の画像処理装置において、あるクラスに分類される原画素について、そのクラスに対応する予測係数のセットを用いて予測値を求めた場合、ごく小さな予測誤差の予測値(あるいは、予測誤差のない予測値)が得られることもあるが、それほど小さくない予測誤差の予測値が得られることもある。
【0046】
従って、予測係数のセットを、上述したようなクラス分類の結果得られるクラスごとに求めることは、必ずしも、低S/N画像を高S/N画像に変換するための、最適な予測係数のセットを得る方法であるとはいえないことがある。
【0047】
本発明は、このような状況に鑑みてなされたものであり、例えば、低S/N画像を高S/N画像に変換する等、画像を改善するために、最適な予測係数を求めることができるようにするとともに、そのような予測係数を用いて、より改善された画像を得ることができるようにするものである。
【0048】
【課題を解決するための手段】
本発明の第1の側面のデータ処理装置は、第1のデータから、第2のデータを生成する生成手段と、注目している第1のデータである注目第1データを予測するのに用いる予測用データを、第2のデータから抽出する予測用データ抽出手段と、第1のデータを予測するのに用いる複数セットの予測係数を記憶している予測係数記憶手段と、予測用データおよび所定の予測係数のセットを用いて、注目第1データの予測値を求める予測値演算手段と、予測値の、注目第1データに対する予測誤差を求める予測誤差演算手段と、予測誤差を最小にする予測係数のセットを検出する検出手段と、予測誤差を最小にする予測係数のセットを識別するための識別情報を記憶する識別情報記憶手段と、第2のデータとともに、識別情報を出力する出力手段とを含み、前記複数セットの予測係数は、前記第2のデータに相当する生徒データから抽出される前記予測用データと前記予測係数とを用いて求められる、前記第1のデータに相当する教師データの予測値の、前記教師データに対する誤差を小さくする前記予測係数を求める学習処理を行うことにより、あらかじめ求められているデータ処理装置である。
【0052】
本発明の第1の側面のデータ処理方法は、第1のデータから、第2のデータを生成する生成ステップと、注目している第1のデータである注目第1データを予測するのに用いる予測用データを、第2のデータから抽出する予測用データ抽出ステップと、第1のデータを予測するのに用いる複数セットの予測係数を記憶している予測係数記憶手段に記憶されている所定の予測係数のセットと、予測用データとを用いて、注目第1データの予測値を求める予測値演算ステップと、予測値の、注目第1データに対する予測誤差を求める予測誤差演算ステップと、予測誤差を最小にする予測係数のセットを検出する検出ステップと、予測誤差を最小にする予測係数のセットを識別するための識別情報を記憶する識別情報記憶ステップと、第2のデータとともに、識別情報を出力する出力ステップとを含み、前記複数セットの予測係数は、前記第2のデータに相当する生徒データから抽出される前記予測用データと前記予測係数とを用いて求められる、前記第1のデータに相当する教師データの予測値の、前記教師データに対する誤差を小さくする前記予測係数を求める学習処理を行うことにより、あらかじめ求められているデータ処理方法である。
【0053】
本発明の第1の側面の記録媒体、第1のデータから、第2のデータを生成する生成ステップと、注目している第1のデータである注目第1データを予測するのに用いる予測用データを、第2のデータから抽出する予測用データ抽出ステップと、第1のデータを予測するのに用いる複数セットの予測係数を記憶している予測係数記憶手段に記憶されている所定の予測係数のセットと、予測用データとを用いて、注目第1データの予測値を求める予測値演算ステップと、予測値の、注目第1データに対する予測誤差を求める予測誤差演算ステップと、予測誤差を最小にする予測係数のセットを検出する検出ステップと、予測誤差を最小にする予測係数のセットを識別するための識別情報を記憶する識別情報記憶ステップと、第2のデータとともに、識別情報を出力する出力ステップとを含むデータ処理を、コンピュータに実行させるプログラムであり、前記複数セットの予測係数は、前記第2のデータに相当する生徒データから抽出される前記予測用データと前記予測係数とを用いて求められる、前記第1のデータに相当する教師データの予測値の、前記教師データに対する誤差を小さくする前記予測係数を求める学習処理を行うことにより、あらかじめ求められているプログラムが記録された記録媒体である。
【0054】
本発明の第2の側面のデータ処理装置は、入力されたデータから、第2のデータと、複数セットの予測係数の各セットを識別するための識別情報とを分離する分離手段と、注目している第1のデータである注目第1データを予測するのに用いる予測用データを、第2のデータから抽出する予測用データ抽出手段と、識別情報に基づき、複数セットの予測係数の中から、注目第1データを予測するのに用いるものを選択し、その予測係数のセットと、予測用データとを用いて、注目第1データの予測値を求める予測値演算手段とを含み、前記複数セットの予測係数は、前記第2のデータに相当する生徒データから抽出される前記予測用データと前記予測係数とを用いて求められる、前記第1のデータに相当する教師データの予測値の、前記教師データに対する誤差を小さくする前記予測係数を求める学習処理を行うことにより、あらかじめ求められているデータ処理装置である。
【0058】
本発明の第2の側面のデータ処理方法は、入力されたデータから、第2のデータと、複数セットの予測係数の各セットを識別するための識別情報とを分離する分離ステップと、注目している第1のデータである注目第1データを予測するのに用いる予測用データを、第2のデータから抽出する予測用データ抽出ステップと、識別情報に基づき、複数セットの予測係数の中から、注目第1データを予測するのに用いるものを選択し、その予測係数のセットと、予測用データとを用いて、注目第1データの予測値を求める予測値演算ステップとを含み、前記複数セットの予測係数は、前記第2のデータに相当する生徒データから抽出される前記予測用データと前記予測係数とを用いて求められる、前記第1のデータに相当する教師データの予測値の、前記教師データに対する誤差を小さくする前記予測係数を求める学習処理を行うことにより、あらかじめ求められているデータ処理方法である。
【0059】
本発明の第2の側面の記録媒体、入力されたデータから、第2のデータと、複数セットの予測係数の各セットを識別するための識別情報とを分離する分離ステップと、注目している第1のデータである注目第1データを予測するのに用いる予測用データを、第2のデータから抽出する予測用データ抽出ステップと、識別情報に基づき、複数セットの予測係数の中から、注目第1データを予測するのに用いるものを選択し、その予測係数のセットと、予測用データとを用いて、注目第1データの予測値を求める予測値演算ステップとを含むデータ処理を、コンピュータに実行させるプログラムであり、前記複数セットの予測係数は、前記第2のデータに相当する生徒データから抽出される前記予測用データと前記予測係数とを用いて求められる、前記第1のデータに相当する教師データの予測値の、前記教師データに対する誤差を小さくする前記予測係数を求める学習処理を行うことにより、あらかじめ求められているプログラムが記録された記録媒体である。
【0060】
本発明の第3の側面のデータ処理装置は、第1のデータから、第2のデータを生成する生成手段と、注目している第1のデータである注目第1データを予測するのに用いる予測用データを、第2のデータから抽出する第1の予測用データ抽出手段と、第1のデータを予測するのに用いる複数セットの予測係数を記憶している予測係数記憶手段と、予測用データおよび所定の予測係数のセットを用いて、注目第1データの予測値を求める予測値演算手段と、予測値の、注目第1データに対する予測誤差を求める予測誤差演算手段と、予測誤差を最小にする予測係数のセットを検出する検出手段と、予測誤差を最小にする予測係数のセットを識別するための識別情報を記憶する識別情報記憶手段と、第2のデータとともに、識別情報を出力する出力手段と、入力されたデータから、第2のデータと識別情報とを分離する分離手段と、注目第1データを予測するのに用いる予測用データを、第2のデータから抽出する第2の予測用データ抽出手段と、識別情報に基づき、複数セットの予測係数の中から、注目第1データを予測するのに用いるものを選択し、その予測係数のセットと、予測用データとを用いて、注目第1データの予測値を求める予測値演算手段とを含み、前記複数セットの予測係数は、前記第2のデータに相当する生徒データから抽出される前記予測用データと前記予測係数とを用いて求められる、前記第1のデータに相当する教師データの予測値の、前記教師データに対する誤差を小さくする前記予測係数を求める学習処理を行うことにより、あらかじめ求められているデータ処理装置である。
【0076】
本発明の第1の側面においては、第1のデータから、第2のデータが生成され、注目している第1のデータである注目第1データを予測するのに用いる予測用データが、第2のデータから抽出される。さらに、予測係数記憶手段に記憶されている所定の予測係数のセットと、予測用データとを用いて、注目第1データの予測値が求められ、その予測値の、注目第1データに対する予測誤差が求められる。その後、予測誤差を最小にする予測係数のセットが検出され、その予測誤差を最小にする予測係数のセットを識別するための識別情報が記憶される。そして、第2のデータとともに、識別情報が出力される。前記複数セットの予測係数は、前記第2のデータに相当する生徒データから抽出される前記予測用データと前記予測係数とを用いて求められる、前記第1のデータに相当する教師データの予測値の、前記教師データに対する誤差を小さくする前記予測係数を求める学習処理を行うことにより、あらかじめ求められている
【0077】
本発明の第2の側面においては、入力されたデータから、第2のデータと、複数セットの予測係数の各セットを識別するための識別情報とが分離され、注目している第1のデータである注目第1データを予測するのに用いる予測用データが、第2のデータから抽出される。そして、識別情報に基づき、複数セットの予測係数の中から、注目第1データを予測するのに用いるものが選択され、その予測係数のセットと、予測用データとを用いて、注目第1データの予測値が求められる。前記複数セットの予測係数は、前記第2のデータに相当する生徒データから抽出される前記予測用データと前記予測係数とを用いて求められる、前記第1のデータに相当する教師データの予測値の、前記教師データに対する誤差を小さくする前記予測係数を求める学習処理を行うことにより、あらかじめ求められている
【0078】
本発明の第3の側面においては、第1のデータから、第2のデータが生成され、注目している第1のデータである注目第1データを予測するのに用いる予測用データが、第2のデータから抽出される。さらに、予測用データおよび所定の予測係数のセットを用いて、注目第1データの予測値が求められ、その予測値の、注目第1データに対する予測誤差が求められる。その後、予測誤差を最小にする予測係数のセットが検出され、その予測誤差を最小にする予測係数のセットを識別するための識別情報が記憶される。そして、第2のデータとともに、識別情報が出力される。一方、入力されたデータから、第2のデータと識別情報とが分離され、注目第1データを予測するのに用いる予測用データが、第2のデータから抽出される。そして、識別情報に基づき、複数セットの予測係数の中から、注目第1データを予測するのに用いるものが選択され、その予測係数のセットと、予測用データとを用いて、注目第1データの予測値が求められる。前記複数セットの予測係数は、前記第2のデータに相当する生徒データから抽出される前記予測用データと前記予測係数とを用いて求められる、前記第1のデータに相当する教師データの予測値の、前記教師データに対する誤差を小さくする前記予測係数を求める学習処理を行うことにより、あらかじめ求められている
【0081】
【発明の実施の形態】
図4は、本発明を適用した画像伝送装置の一実施の形態の構成例を示している。なお、図中、図3における場合と対応する部分については、同一の符号を付してある。即ち、図4の画像伝送装置は、符号化器31および復号器41で構成されており、従って、図3における場合と基本的に同様に構成されている。
【0082】
図5は、図4の符号化器31の構成例を示している。
【0083】
符号化の対象となる高S/N画像は、フレームメモリ61に供給されるようになっており、フレームメモリ61は、そこに供給される高S/N画像を、例えば、フレーム単位で順次記憶するようになっている。なお、フレームメモリ61は、複数フレームの画像を記憶することができるようになっており、これにより、そこに供給される高S/N画像が、動画像であっても、対処することができるようになっている。
【0084】
ダウンコンバータ62は、フレームメモリ61に記憶された高S/N画像を、例えば、フレーム単位で順次読み出し、低S/N画像に変換するようになっている。即ち、ダウンコンバータ62は、例えば、フレームメモリ61に記憶された高S/N画像を、LPFでフィルタリングしたり、あるいはノイズを付加することで、低S/N画像に変換するようになっている。この低S/N画像は、フレームメモリ63に供給されるようになっている。
【0085】
なお、ここでは、ダウンコンバータ62から出力される低S/N画像を構成する画素数は、そこに入力される高S/N画像を構成する画素数と変わらない(位置関係も変わらない)ものとする。但し、本発明は、低S/N画像の画素数が、高S/N画像の画素数よりも少ない場合にも適用可能である。
【0086】
フレームメモリ63は、フレームメモリ61と同様に構成され、ダウンコンバータ62が出力する低S/N画像を、例えば、フレーム単位で順次記憶するようになっている。
【0087】
予測タップ生成回路64は、図1の予測タップ生成回路3と同様に、予測タップを構成するようになっている。即ち、予測タップ生成回路64は、フレームメモリ61に記憶された高S/N画像の、あるフレームに注目し、その注目フレームを構成する各画素(高S/N画素)を、順次、注目画素として、その注目画素(と同一位置にある低S/N画素)の空間的または時間的周辺にある低S/N画像の画素を、フレームメモリ63から読み出し、これを、予測タップとして、予測演算回路65に供給するようになっている。
【0088】
予測演算回路65には、予測タップ生成回路64から予測タップが供給される他、係数RAM68から、所定の予測係数のセットが供給されるようになっている。そして、予測演算回路65は、そこに供給される予測タップと予測係数のセットとを用いて、式(1)に示した線形予測式を演算することで、注目画素の予測値を求め、誤差計算回路66に供給するようになっている。
【0089】
誤差計算回路66は、フレームメモリ61から、注目画素となっている高S/N画素(の画素値)を読み出し、その注目画素に対する、予測演算回路65からの予測値の予測誤差(ここでは、例えば、注目画素と予測値との差分値とし、また、予測誤差の大小は、その絶対値をとったときの大小を意味するものとする)を求め、比較部67に供給するようになっている。
【0090】
比較部67は、誤差計算回路66から供給される注目画素の予測値の予測誤差と、誤差/識別情報記憶部69に記憶された予測誤差とを比較し、その比較結果に基づいて、誤差/識別情報記憶部69の記憶値を変更するようになっている。さらに、比較部67は、係数RAM68に、後述する識別情報をアドレスとして与え、そのアドレスに記憶されている予測係数のセットを、予測演算回路65に供給させるようになっている。
【0091】
係数RAM68は、後述する図9の学習装置による学習処理によって得られる複数の予測係数のセットを記憶している。なお、係数RAM68では、複数の予測係数のセットそれぞれが、各セットを識別するための識別情報に対応するアドレスに記憶されている。
【0092】
誤差/識別情報記憶部69は、比較部67から供給される、高S/N画素の予測値の予測誤差と、その予測値を得るときに用いられた予測係数のセットの識別情報とを対応付けて記憶するようになっている。
【0093】
重畳部70は、フレームメモリ63に記憶された、注目フレームに対応する低S/N画像のフレームを読み出し、その低S/N画像の各低S/N画素に、その低S/N画素に対応する高S/N画素の予測値を得るときに用いられた予測係数のセットの識別情報を、誤差/識別情報記憶部69から読み出して対応付け、符号化データとして出力するようになっている。
【0094】
なお、重畳部70における低S/N画素と識別情報との対応付けは、例えば、低S/N画素の画素値としてのビット列に、対応する識別情報としてのビット列を付加することで行っても良いし、また、低S/N画素の画素値としてのビット列の下位ビットを、対応する識別情報としてのビット列に置き換えることで行っても良い。
【0095】
次に、図6のフローチャートを参照して、図5の符号化器31で行われる高S/N画像の符号化処理について説明する。
【0096】
符号化対象としての高S/N画像は、フレームメモリ61に順次供給され、フレームメモリ61では、そこに供給される高S/N画像が、フレーム単位で順次記憶されていく。
【0097】
そして、ステップS1において、ダウンコンバータ62は、フレームメモリ61に記憶された高S/N画像の所定のフレームを、注目フレームとして読み出し、低S/N画像に変換する。この低S/N画像は、フレームメモリ63に供給されて記憶される。
【0098】
さらに、ステップS1では、誤差/識別情報記憶部67の記憶値が初期化される。即ち、誤差/識別情報記憶部67に記憶された予測誤差は、所定の大きな値に初期化され、識別情報は、識別情報として取り得ない値に初期化される。
【0099】
その後、ステップS2に進み、比較部67は、今回の処理で用いる予測係数のセットを決定し、その決定した予測係数のセット(以下、適宜、決定予測係数のセットという)の識別情報を、係数RAM68に出力する。これにより、係数RAM68からは、決定予測係数のセットが読み出され、予測演算回路65に供給される。
【0100】
そして、ステップS3に進み、予測タップ生成回路64では、注目フレームの所定の高S/N画素を注目画素として、その注目画素についての予測タップを、フレームメモリ63に記憶された低S/N画素を読み出すことで構成する。この予測タップは、予測演算回路65に供給され、予測演算回路65では、ステップS4において、予測タップ生成回路64からの予測タップと、決定予測係数のセットとを用いて、注目画素の予測値が演算される。この予測値は、予測演算回路65から誤差計算回路66に供給される。
【0101】
誤差計算回路66では、ステップS5において、予測演算回路65からの予測値の予測誤差が計算され、比較部67に供給される。比較部67では、ステップS6において、その今回得られた予測誤差(以下、適宜、今回の誤差という)が、誤差/識別情報記憶部69に記憶されている注目画素の予測誤差(以下、適宜、記憶誤差という)より小さいかどうか(記憶誤差以下であるかどうか)が判定される。
【0102】
ステップS6において、今回の誤差が、記憶誤差よりも小さいと判定された場合、即ち、注目画素について、今回の予測係数のセット(直前のステップS2で係数RAM68から読み出された予測係数のセット)を用いて得られた予測値の予測誤差の方が、それまでに得られた予測値の予測誤差(それまでに係数RAM68から読み出された予測係数のセットを用いて得られた予測値の予測誤差)よりも小さく、従って、今回の予測係数のセットを用いた方が、より注目画素に近い予測値が得られる場合、ステップS7に進み、比較部67は、誤差/識別情報記憶部69の記憶内容を更新し、ステップS8に進む。
【0103】
即ち、比較部67は、今回の誤差と、今回の予測係数のセットの識別情報とを対応付け、注目画素について記憶されていた予測誤差とそれに対応付けられていた識別情報に替えて、誤差/識別情報記憶部69に、新たに記憶させる(上書きする)。
【0104】
一方、ステップS6において、今回の誤差が、記憶誤差よりも小さくないと判定された場合、ステップS7をスキップして、ステップS8に進み、注目フレームの中に、次に注目画素とすべき高S/N画素が、まだあるかどうかが判定される。ステップS8において、注目フレームの中に、次に注目画素とすべき高S/N画素があると判定された場合、その高S/N画素が、新たに注目画素とされ、ステップS3に戻り、以下、同様の処理が繰り返される。
【0105】
また、ステップS8において、注目フレームの中に、次に注目画素とすべき高S/N画素がないと判定された場合、即ち、注目フレームのすべての高S/N画素を注目画素として、決定予測係数のセットを用いた予測値の計算を行った場合、ステップS9に進み、係数RAM68に記憶されたすべての予測係数のセットを用いて、注目フレームについて、予測値の計算を行ったかどうかが判定される。
【0106】
ステップS9において、注目フレームについて、係数RAM68に記憶されたすべての予測係数のセットを用いて、予測値の計算を、まだ行っていないと判定された場合、ステップS2に戻り、比較部67は、係数RAM68に記憶された複数の予測係数のセットのうち、注目フレームについて、まだ、決定予測係数のセットとしていないものを、新たに決定予測係数のセットとして決定する。そして、以下、ステップS3以降の処理が繰り返される。
【0107】
一方、ステップS9において、係数RAM68に記憶されたすべての予測係数のセットを用いて、注目フレームについて、予測値の計算を行ったと判定された場合、即ち、注目フレームを構成する各高S/N画素について、その予測値の予測誤差を最も小さくする予測係数のセットの識別情報が、誤差/識別情報記憶部69に記憶された場合、ステップS10に進み、重畳部70は、フレームメモリ63に記憶された、注目フレームに対応する低S/N画像のフレームと、誤差/識別情報記憶部69に記憶された、注目フレームの高S/N画素それぞれに対応する識別情報とを読み出し、両者を対応付けて(注目フレームの各高S/N画素と同一位置にある低S/N画素と、その高S/N画素に対応する識別情報とを対応付けて)、符号化データとして出力する。
【0108】
そして、ステップS11に進み、フレームメモリ61に、次に処理すべき高S/N画像のフレームが記憶されているかどうかが判定され、記憶されていると判定された場合、その次に処理すべき高S/N画像のフレームを、新たに、注目フレームとして、ステップS1に戻り、以下、同様の処理を繰り返す。
【0109】
また、ステップS11において、フレームメモリ61に、次に処理すべき高S/N画像のフレームが記憶されていないと判定された場合、符号化処理を終了する。
【0110】
以上のように、符号化器31では、複数の予測係数のセットの中から、各高S/N画素の予測誤差を最小にするものを検出し、その予測係数のセットの識別情報を、低S/N画素とともに出力するようにしたので、復号器41において、その識別情報に対応する予測係数のセットを用いて適応処理を行うことで、低S/N画素を、予測誤差の小さい高S/N画素に変換することが可能となる。
【0111】
即ち、図7は、そのようにして低S/N画素を高S/N画素に変換する、図4の復号器41の構成例を示している。
【0112】
分離部71には、符号化データが入力されるようになっており、分離部71は、そこに入力される符号化データを、低S/N画像と、識別情報とに分離して出力するようになっている。フレームメモリ72は、図5のフレームメモリ61と同様に構成され、分離部71が出力する低S/N画像を、例えば、1フレーム単位で記憶するようになっている。
【0113】
予測タップ生成回路73は、予測値を求めようとする高S/N画素を注目画素とし、その注目画素について、図5の予測タップ生成回路64における場合と同様に、フレームメモリ72に記憶された低S/N画素を用いて予測タップを構成し、予測演算回路74に出力するようになっている。識別情報記憶部75は、分離部71が出力する、低S/N画像の低S/N画素に付加されていた識別情報を記憶し、注目画素と同一位置にある低S/N画素に対応付けられていた識別情報を、アドレスとして、係数RAM76に供給するようになっている。
【0114】
係数RAM76は、図5の係数RAM68に記憶されている予測係数のセットと同一の予測係数のセットを記憶しており、識別情報記憶部75から供給される識別情報に対応する予測係数のセットを、予測演算回路74に供給するようになっている。
【0115】
予測演算回路74は、予測タップ生成回路73からの予測タップと、係数RAM76からの予測係数のセットとを用いて、式(1)の線形予測式を演算することにより、注目画素である高S/N画素の予測値を求めて出力するようになっている。
【0116】
次に、図8のフローチャートを参照して、図7の復号器41で行われる低S/N画像の復号処理(低S/N画像を、高S/N画像(の予測値)に変換する処理)について説明する。
【0117】
分離部71では、符号化データが、順次受信される。そして、ステップS21において、分離部71は、符号化データを、低S/N画像と識別情報とに分離し、低S/N画像は、フレームメモリ72に供給して記憶させ、識別情報は、識別情報記憶部72に供給して記憶させる。
【0118】
その後、予測タップ生成回路73では、フレームメモリ72に記憶された低S/N画像に対応する高S/N画像のフレームが注目フレームとされ、その注目フレームの所定の高S/N画素が注目画素とされる。そして、ステップS22において、予測タップ生成回路73は、フレームメモリ72から必要な低S/N画素を読み出すことで、注目画素についての予測タップを構成し、予測演算回路74に出力する。
【0119】
さらに、ステップS22では、識別情報記憶部75において、注目画素に対応する識別情報が読み出され、係数RAM76に対して、アドレスとして与えられる。これにより、係数RAM76では、注目画素に対応する識別情報によって特定される予測係数のセットが読み出され、予測演算回路74に供給される。
【0120】
予測演算回路74では、ステップS23において、予測タップ生成回路73からの予測タップと、係数RAM76からの予測係数のセットとを用いて、式(1)の線形予測式が演算され、これにより、注目画素の予測値が求められて出力される。ここで、この予測値は、上述したことから、係数RAM76に記憶されている複数の予測係数のセットそれぞれを用いて、注目画素を線形予測した場合に、その予測誤差が最も小さくなるものとなっているから、予測誤差が最小の予測値が得られることになる。
【0121】
その後、ステップS24に進み、注目フレームの中に、次に注目画素とすべき高S/N画素が、まだあるかどうかが判定される。ステップS24において、注目フレームの中に、次に注目画素とすべき高S/N画素があると判定された場合、その高S/N画素が、新たに注目画素とされ、ステップS22に戻り、以下、同様の処理が繰り返される。
【0122】
また、ステップS24において、注目フレームの中に、次に注目画素とすべき高S/N画素がないと判定された場合、即ち、注目フレームのすべての高S/N画素を注目画素として、その予測値を求めた場合、ステップS25に進み、次のフレームに対応する符号化データが、分離部71に供給されたかどうかが判定される。ステップS25において、次のフレームに対応する符号化データが、分離部71に供給されたと判定された場合、そのフレームに対応する高S/N画像のフレームを、新たに注目フレームとして、ステップS21に戻り、以下、同様の処理が繰り返される。
【0123】
一方、ステップS25において、次のフレームに対応する符号化データが、分離部71に供給されていないと判定された場合、復号処理を終了する。
【0124】
以上のように、識別情報に対応する予測係数のセットを用いて、高S/N画素の予測値を求めるようにしたので、予測誤差の小さい予測値、即ち、よりS/Nが改善された画像を得ることができる。
【0125】
次に、図5の係数RAM68および図7の係数RAM76に記憶させる複数の予測係数のセットとしては、図2に示した学習装置によって得られるものを用いることも可能である。しかしながら、図2の学習装置では、上述したように、クラスごとに、予測係数のセットが求められるため、そのような予測係数のセットは、予測誤差をより小さくするという観点からは、必ずしも最適であるとはいえない。
【0126】
そこで、図9は、図5の係数RAM68および図7の係数RAM76に記憶させる最適な複数の予測係数のセットを求める学習を行う学習装置の一実施の形態の構成例を示している。なお、図中、図2における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。
【0127】
適応処理回路81には、フレームメモリ13に記憶された生徒データとしての低S/N画像、並びに演算回路21で得られた予測係数のセット、および係数記憶部88に記憶された予測係数のセットが供給されるようになっており、適応処理回路81は、その低S/N画像と、予測係数のセットとを用いて、適応処理、即ち、式(1)の線形予測式を演算し、その低S/N画像に対応する高S/N画像(教師データ)の予測値を求めるようになっている。この予測値は、誤差計算回路82に供給されるようになっている。
【0128】
誤差計算回路82には、適応処理回路81から高S/N画像の予測値が供給される他、その高S/N画像が、フレームメモリ11から供給されるようになっており、誤差計算回路82は、高S/N画素に対する、その予測値の予測誤差を計算し、識別情報書き込み回路84、誤差マスク作成回路85、およびピンポイント拡張マスク作成回路86に供給するようになっている。
【0129】
識別情報記憶部83は、高S/N画像を構成する高S/N画素ごとに(ここでは、高S/N画像と低S/N画像の画素数は同一なので、高S/N画素ごとという場合は、低S/N画素ごとという場合に等しい)、その高S/N画素の予測値を求めるのに最適な(予測値の予測誤差を最小にする)予測係数のセットの識別情報を記憶するようになっている。
【0130】
識別情報書き込み回路84は、収束判定回路87の出力と、誤差計算回路82からの出力に基づいて、識別情報記憶部83に、識別情報を書き込むようになっている。
【0131】
誤差マスク作成回路85は、収束判定回路87の出力と、誤差計算回路82からの出力に基づいて、式(7)の正規方程式におけるサメーション(Σ)の対象となっている項に対する第1の重みとしての誤差マスクを生成(変更)し、加算回路17および19に供給するようになっている。
【0132】
ピンポイント拡張マスク作成回路86は、収束判定回路87の出力と、誤差計算回路82からの出力に基づいて、式(7)の正規方程式におけるサメーション(Σ)の対象となっている項に対する第2の重みとしてのピンポイント拡張マスクを生成(変更)し、加算回路17および19に供給するようになっている。
【0133】
収束判定回路87は、演算回路21が出力する予測係数のセットが収束しているかどうかを判定し、その判定結果を、識別情報書き込み回路84、誤差マスク作成回路85、およびピンポイント拡張マスク作成回路86に供給するようになっている。さらに、収束判定回路87は、演算回路21が出力する予測係数のセットが収束していると判定した場合、その予測係数のセットに対する識別情報を設定し、係数記憶部88に供給するとともに、その予測係数のセットを、係数記憶部88に供給するようになっている。
【0134】
係数記憶部88は、収束判定回路87が出力する識別情報に対応するアドレスに、同じく収束判定回路87が出力する予測係数のセットを記憶するようになっている。
【0135】
次に、図10および図11を参照して、図9の学習装置で行われる、複数の予測係数のセットを求める学習処理の概要について説明する。なお、ここでは、説明を簡単にするために、学習用の教師データとしては、1フレームの高S/N画像が用意されているものとする。
【0136】
図9の学習装置では、まず最初に、すべての教師データ、即ち、ここでは、図10(A)に示すように、1フレームの高S/N画像を構成する高S/N画素すべてに対して、同一の予測係数のセットを用いて予測値を求めるものとして、1回目の適応処理(ここでいう適応処理は、式(7)の正規方程式をたてて解く処理)が行われる。この場合、図2の学習装置において、クラスを1つ(モノクラス(mono class))として(クラスがないとして)、学習処理を行った場合と同一の予測係数のセットが得られる。
【0137】
1回目の適応処理の結果得られる予測係数のセットによれば、1フレームの各高S/N画素の予測値の予測誤差は、そのすべてが小さくなることもあり得ないことではないが、一般には、幾つかの高S/N画素については小さくなり、他の幾つかの高S/N画素については中位になり、さらに他の幾つかの高S/N画素については大きくなる。
【0138】
そこで、図9の学習装置では、予測誤差が小さくない予測値が得られた高S/N画素のみを対象に、2回目の適応処理が行われ、新たに予測係数のセットが求められる。即ち、図10(A)の1フレームの高S/N画素すべてを対象として1回目の適応処理を行った結果得られた予測係数のセットによって、例えば、図10(B)に、Aで示す部分の高S/N画素について、予測誤差を小さくする予測値が得られる場合には、その部分Aを除く部分にある高S/N画素のみを対象に、2回目の適応処理が行われる。
【0139】
その結果得られる新たな予測係数のセットによれば、2回目の適応処理の対象となっている各高S/N画素の予測値の予測誤差は、そのすべてが小さくなることもあり得ないことではないが、一般には、やはり、幾つかの高S/N画素については小さくなり、他の幾つかの高S/N画素については中位になり、さらに他の幾つかの高S/N画素については大きくなる。
【0140】
そこで、図9の学習装置では、予測誤差が小さくない予測値が得られた高S/N画素のみを対象に、3回目の適応処理が行われ、さらに新たな予測係数のセットが求められる。即ち、図10(B)の部分Aを除く部分の高S/N画素すべてを対象として2回目の適応処理を行った結果得られた予測係数のセットによって、例えば、図10(C)に、Bで示す部分の高S/N画素について、予測誤差を小さくする予測値が得られる場合には、部分AおよびBを除く部分にある高S/N画素のみを対象に、3回目の適応処理が行われる。
【0141】
以下、同様の処理を繰り返すことで、教師データとしての高S/N画素すべてについて、幾つかの高S/N画素のグループごとに、予測誤差を小さくする予測係数のセットが、順次求められる。
【0142】
ところで、複数の高S/N画素について、式(7)の正規方程式を解いて、予測係数のセットを求める処理、即ち、適応処理は、図11(A)に示すように、その複数の高S/N画素それぞれである真値と、各高S/N画素について構成される予測タップとの関係を表すサンプル点(図11において、×印で示す)を近似する直線Lを求めることに相当する。即ち、図11(A)では、直線Lは、各サンプル点との距離の自乗和を最小にするものとなっており、1回目の適応処理により求められる予測係数のセットに対応する。
【0143】
そして、2回目の適応処理では、予測誤差が小さくない高S/N画素のみを対象に、予測係数のセットが求められるから、この2回目の適応処理は、図11(B)に示すように、直線Lから遠いサンプル点を近似する直線L’を求めることに相当する。
【0144】
図9の学習装置では、以上のように、適応処理の結果得られる予測係数のセットでは予測誤差が小さくならない高S/N画素のみを対象に、適応処理が繰り返し行われることで、教師データとしての高S/N画素すべてについて、予測誤差を小さくする予測係数のセットが求められる。しかしながら、ある1回の適応処理の結果得られる予測係数のセットを用いた場合に、予測誤差が小さくなる高S/N画素に注目してみると、その高S/N画素の中だけでも、予測誤差が大きなものもあれば、小さなものもある。即ち、図11(A)において、直線Lに近いサンプル点に注目すると、そのサンプル点の中には、直線Lに対して、比較的近い位置にあるものもあれば、比較的遠い位置にあるものもある。
【0145】
そこで、図9の学習装置では、予測の精度をより向上させるために(予測誤差をより小さくするために)、予測誤差の小さいサンプル点(以下、適宜、小誤差サンプル点という)に重きをおいて適応処理が行われるようになっている。この場合、例えば、図11(A)において、直線Lに近いサンプル点(小誤差サンプル点)に重きをおいて適応処理が行われることとなるが、この適応処理によれば、図11(C)に示すように、小誤差サンプル点との距離をより短くする直線L”が得られることになり、従って、小誤差サンプル点に対応する高S/N画素については、その予測値の予測誤差を、より小さくする予測係数のセットが得られることになる。
【0146】
なお、この場合、直線Lに近いサンプル点のうち、直線Lから比較的離れているものについては、その予測誤差は大きくなるが、これは、上述のように、予測誤差が小さくならない高S/N画素のみを対象に、適応処理を繰り返し行うことで救われる(その予測誤差を小さくする予測係数のセットが求められる)ことになる。
【0147】
以上のように、図9の学習装置では、第1に、適応処理の結果得られる予測係数のセットでは予測誤差が小さくならない高S/N画素のみを対象に、適応処理が繰り返し行われる。なお、上述の場合では、説明を簡単にするために、適応処理の結果得られる予測係数のセットでは予測誤差が小さくならない高S/N画素のみを対象に、次の適応処理を行うこととしたが、本実施の形態では、適応処理の結果得られる予測係数のセットを用いた場合に、予測誤差が大きくなる高S/N画素に重きをおいて、適応処理が行われる。これにより、次の適応処理では、前回の適応処理により得られた予測係数のセットでは予測誤差が大きくなる高S/N画素について、その予測誤差を大きくしない予測係数のセットが求められる。
【0148】
さらに、図9の学習処理では、第2に、予測誤差の小さいサンプル点に重きをおいて適応処理が行われる。これにより、予測誤差を、より小さくする予測係数のセットが求められる。
【0149】
ここで、以下、適宜、予測誤差の小さい高S/N画素に重きをおいて適応処理を行うことにより、予測誤差が、より小さくなる予測係数のセットを求める処理を、正帰還という。さらに、予測誤差が大きい高S/N画素に重きをおいて適応処理を行うことにより、予測誤差が大きくならない予測係数のセットを求める処理を、上述の正帰還に対して、負帰還という。
【0150】
負帰還は、図9において点線の矢印Bで示すように、演算回路21から収束判定回路87および誤差マスク作成回路85を介して、加算回路17および19に供給される信号(誤差マスク)によって実現される。また、正帰還は、図9において点線の矢印Fで示すように、演算回路21から収束判定回路87および本ポイント拡張マスク作成回路86を介して、加算回路17および19に供給される信号(ピンポイント拡張マスク)によって実現される。
【0151】
次に、図12のフローチャートを参照して、図9の学習装置で行われる学習処理について、さらに説明する。
【0152】
教師データとしての高S/N画像は、フレームメモリ11に供給されて記憶され、ステップS31において、ダウンコンバータ31は、フレームメモリ11に記憶された教師データとしての高S/N画像から、生徒データとしての低S/N画像を生成し、フレームメモリ13に供給して記憶させる。さらに、ステップS31では、各種の初期化が行われる。即ち、予測タップメモリ18および20、係数記憶部88の記憶値がクリアされ、また、識別情報記憶部83の記憶値が、識別情報として取り得ない値にセットされる。さらに、ステップS31では、誤差マスク作成回路85に記憶されている誤差マスク、およびピンポイント拡張マスク作成回路86に記憶されているピンポイント拡張マスクが、例えば1に初期化される。
【0153】
その後、ステップS32において、識別情報としての変数iが、例えば0に初期化され、ステップS33に進み、予測係数のセットを収束させるための処理回数をカウントする変数jが、例えば0に初期化される。
【0154】
そして、ステップS34に進み、予測タップ生成回路15は、教師データの中の、ある高S/N画素を注目画素として、その注目画素について予測タップを、フレームメモリ13に記憶された低S/N画素を読み出すことで構成する。この予測タップは、加算回路17および19に供給される。
【0155】
加算回路17および19では、ステップS35において、予測タップ(生徒データ)、教師データそれぞれの足し込みが行われる。
【0156】
即ち、予測タップメモリ18は、その記憶値を読み出し、加算回路17に供給する。加算回路17は、図2の学習装置における場合と同様に、予測タップメモリ18から供給される記憶値と、予測タップ生成回路15から供給されるの予測タップを構成する低S/N画素とを用いて、式(7)の正規方程式の左辺における、予測係数の乗数となっているサメーション(Σ)に相当する演算(足し込み)を行う。
【0157】
但し、加算回路17は、その足し込みに際して、誤差マスク作成回路85が出力する誤差マスク、およびピンポイント拡張マスク作成回路86が出力するピンポイント拡張マスクによる重み付けを行う。
【0158】
従って、i件目の教師データをyiと表すとともに、その教師データyiの予測値を求めるのに用いる予測タップを構成するj番目の生徒データをxijと表し、さらに、その教師データyiと予測タップの組み合わせに対する、誤差マスクおよびピンポイント拡張マスクによる重みを、hiと表すと、加算回路17では、式(7)における各サメーション(Σ)の項に、重みhiを乗算した形の次式に示す正規方程式の左辺における、予測係数の乗数となっているサメーション(Σ)に相当する演算(足し込み)が行われる。
【0159】
【数8】
Figure 0004362895
・・・(8)
そして、加算回路17は、その演算結果を、予測タップメモリ18に、上書きする形で記憶させる。
【0160】
一方、教師データメモリ20は、その記憶値を読み出し、加算回路19に供給する。加算回路19は、図2の学習装置における場合と同様に、フレームメモリ11から、注目画素となっている教師データyiを読み出し、その教師データyi、さらには、予測タップ生成回路15からの予測タップを構成する低S/N画素、および教師データメモリ20から供給された記憶値とを用いて、式(7)の正規方程式の右辺におけるサメーション(Σ)に相当する演算(足し込み)を行う。
【0161】
但し、加算回路19も、加算回路17と場合と同様に、誤差マスク作成回路85が出力する誤差マスク、およびピンポイント拡張マスク作成回路86が出力するピンポイント拡張マスクによる重みhiを付加した形で、足し込みを行う。
【0162】
従って、加算回路19では、式(8)に示す正規方程式の右辺における、予測係数の乗数となっているサメーション(Σ)に相当する演算(足し込み)が行われる。
【0163】
そして、ステップS36に進み、フレームメモリ11に記憶された教師データとしての高S/N画素の中で、まだ注目画素としていないもの(未処理画素)があるかどうかが判定され、あると判定された場合、その画素のうちの1つを、新たに注目画素として、ステップS34に戻り、以下、同様の処理が繰り返される。
【0164】
また、ステップS36において、フレームメモリ11に記憶された教師データとしての高S/N画素の中で、まだ注目画素としていないものがないと判定された場合、ステップS37に進み、演算回路21は、予測タップメモリ18または教師データメモリ20から、それぞれの記憶値を読み出し、式(8)に示した正規方程式を解くことにより、1セットの予測係数を求める。この予測係数のセットは、適応処理回路81および収束判定回路87に供給される。
【0165】
適応処理回路81は、演算回路21から予測係数のセットを受信すると、ステップS38において、その予測係数のセットを用いて、フレームメモリ11に記憶された教師データとしての高S/N画素それぞれの予測値が求められる。即ち、適応処理回路81は、フレームメモリ11に記憶された高S/N画素を、順次、注目画素とし、その注目画素についての予測タップを、フレームメモリ13に記憶された低S/N画素を用いて構成し、その予測タップと、演算回路21からの予測係数のセットとを用いて、式(1)の線形予測式を演算し、各高S/N画素の予測値を求める。
【0166】
適応処理回路81で求められた各高S/N画素の予測値は、誤差計算回路82に供給される。誤差計算回路82では、ステップS39において、フレームメモリ11に記憶された各高S/N画素(の画素値)が読み出され、その各高S/N画素に対する、適応処理回路81からの予測値の予測誤差が求められる。そして、誤差計算回路82は、名高S/N画素について求められる予測誤差を、ピンポイント拡張マスク作成回路86に供給する。
【0167】
そして、ステップS40に進み、収束判定回路87において、演算回路21が直前のステップS37で求めた予測係数のセットが収束しているかどうかが判定される。即ち、ステップS40では、演算回路21から今回出力された予測係数のセットが、演算回路21から前回出力された予測係数のセットとほぼ同一の値であるかどうかが判定される。
【0168】
ステップS40において、演算回路21が出力した予測係数のセットが収束していないと判定された場合、即ち、演算回路21から今回出力された予測係数のセットが、演算回路21から前回出力された予測係数のセットとほぼ同一の値でない場合、ステップS41に進み、変数jが1だけインクリメントされ、ステップS42に進み、変数jが、所定の回数MAXJよりも小さいかどうかが判定される。
【0169】
ステップS42において、変数jが、所定の回数MAXJよりも小さいと判定された場合、即ち、変数iについて、予測係数のセットを収束させるための処理であるステップS34乃至S43のループ処理を行った回数が、MAXJ以下である場合、ステップS43に進み、ピンポイント拡張マスク作成回路86において、ピンポイント拡張マスクが、誤差計算回路82からの予測誤差に基づいて更新(変更)される。
【0170】
即ち、収束判定回路87は、ステップS40において、演算回路21からの予測係数のセットが収束していないと判定した場合、その旨の信号(以下、適宜、非収束信号という)を、ピンポイント拡張マスク作成回路86に出力する。そして、ピンポイント拡張マスク作成回路86は、収束判定回路87から非収束信号を受信した場合において、予測係数のセットを収束させるための処理であるステップS34乃至S43のループ処理を行った回数が、MAXJ以下であるときには、誤差計算回路82からの予測誤差に基づいて、ピンポイント拡張マスクを更新する。そして、この更新されたピンポイント拡張マスクは、加算回路17および19に供給される。
【0171】
ここで、図13(A)は、ピンポイント拡張マスクを示している。図13(A)に示すように、ピンポイント拡張マスクは、各高S/N画素について、その予測値の予測誤差が0のときは、1に設定され、大きくなるほど(ここでは、上述したように、その絶対値が大きくなるほど)、小さな値が設定されるようになっている。なお、ピンポイント拡張マスクは、ここでは、例えば、ほぼ、関数y=1/√|x|の形で与えられるようになっている。
【0172】
従って、ピンポイント拡張マスク作成回路86では、予測誤差が小さい予測値が得られる高S/N画素に対してほど、大きな重みを与えるピンポイント拡張マスクが作成される。
【0173】
図12に戻り、ステップS43では、さらに、予測タップメモリ18および教師データメモリ20の記憶値が、例えば0に初期化され、ステップS34に戻り、以下、同様の処理が繰り返される。従って、その後に加算回路17および19で行われるステップS35の足し込みでは、式(8)における各項のうち、今回の予測値(直前のステップS38で求められた予測値)の予測誤差の小さかった教師データ(高S/N画素)yi、およびその教師データyiについての予測タップxijを用いた項には、大きな重みhiがおかれることになる。そして、その結果、図11(C)で説明したように、予測誤差の小さい教師データについては、さらに、その予測誤差を小さくするような予測係数のセット(図11(C)の直線L”に相当する予測係数のセット)が求められることになる。
【0174】
また、ステップS42において、変数jが、所定の回数MAXJよりも小さくないと判定された場合、即ち、変数iについて、予測係数のセットを収束させるための処理であるステップS34乃至S43のループ処理を行った回数が、MAXJとなった場合、ステップS44に進み、以下、後述する処理が行われる。
【0175】
ここで、本実施の形態では、上述のように、予測係数のセットを収束させるための処理であるステップS34乃至S43のループ処理については、予測係数のセットが収束しなくても、MAXJ回で打ち切るようにしているが、このループ処理は、そのような回数の制限を設けずに、予測係数が収束するまで行うようにすることが可能である。
【0176】
一方、ステップS40において、演算回路21が出力した予測係数のセットが収束していると判定された場合、即ち、演算回路21から今回出力された予測係数のセットが、演算回路21から前回出力された予測係数のセットとほぼ同一の値であり、従って、ある一部分の教師データについて、その予測値の予測誤差を非常に小さくする予測係数のセットが得られた場合、ステップS44に進み、収束判定回路87は、その今回出力された予測係数のセットを、係数記憶部88に供給し、識別情報としての変数iに対応する係数記憶部88のアドレスに記憶させる。そして、ステップS45に進み、各高S/N画素の予測値の最小予測誤差が求められる。
【0177】
即ち、収束判定回路87は、演算回路21からの予測係数のセットが収束していると判定した場合(上述のステップS42において、変数jがMAXJより小さくないと判定された場合も同様)、その旨の信号(以下、適宜、収束信号という)を、適応処理回路81、誤差計算回路82、識別情報書き込み回路84、および誤差マスク作成回路85に供給する。
【0178】
適応処理回路81は、収束信号を受信すると、係数記憶部88に既に記憶されている予測係数のセットをすべて読み出し、その予測係数のセットそれぞれを用いて、ステップS38における場合と同様に、各高S/N画素の予測値を求める。
【0179】
従って、この場合、適応処理回路81では、係数記憶部88に既に記憶されている1セット以上の予測係数のセットそれぞれを用いた場合の予測値が求められることとなり、その結果、演算回路21が出力する予測係数のセットが収束したときには、1つの高S/N画素について、1つ以上の予測値が求められる。
【0180】
適応処理回路81で求められた各高S/N画素の予測値は、誤差計算回路82に供給される。誤差計算回路82では、フレームメモリ11に記憶された各高S/N画素(の画素値)が読み出され、その各高S/N画素に対する、適応処理回路81からの1以上の予測値それぞれについての予測誤差が求められる。そして、誤差計算回路82は、各高S/N画素について求められる1以上の予測誤差のうちの最小のものを、識別情報書き込み回路84、および誤差マスク作成回路85に供給する。
【0181】
即ち、上述のように、ここでは、各高S/N画素について、1以上の予測値が求められるので、誤差計算回路82では、各高S/N画素それぞれについて、その1以上の予測値の予測誤差のうちの最小のもの(以下、適宜、最小予測誤差という)が、識別情報書き込み回路84、および誤差マスク作成回路85に供給される。
【0182】
なお、適応処理回路81は、係数記憶部88に既に記憶されている予測係数のセットを読み出すときに、各予測係数のセットに対して、その予測係数のセットが記憶されているアドレスである識別情報を対応付け、さらに、各予測係数のセットを用いて求めた予測値に、その予測係数のセットの識別情報を対応付けて、誤差計算回路82に出力するようになっている。
【0183】
また、誤差計算回路82は、最小予測誤差を、識別情報書き込み回路84、および誤差マスク作成回路85に出力するときに、その最小予測誤差が得られたときの予測値を求めるときに用いた予測係数のセットの識別情報を対応付けて出力するようになっている。
【0184】
従って、識別情報書き込み回路84、および誤差マスク作成回路85に対しては、各高S/N画素の予測値の最小予測誤差が、その予測値を求めるときに用いた予測係数のセットの識別情報とともに供給される。
【0185】
識別情報書き込み回路84は、各高S/N画素の予測値の最小予測誤差とともに、識別情報を受信すると、ステップS46において、識別情報記憶部83の、各高S/N画素に対応するアドレスに、その高S/N画素の予測値の最小予測誤差に対応付けられている識別情報を書き込む(上書きする)。
【0186】
従って、識別情報記憶部83の、各高S/N画素に対応するアドレスに記憶されている識別情報によって特定される予測係数のセットを用いて、その高S/N画素の予測値を求めた場合、いまの時点で、予測誤差を最も小さくする予測値が得られることになる。
【0187】
その後、ステップS47に進み、識別情報としての変数iが1だけインクリメントされ、ステップS48に進む。ステップS48では、変数iが、予測係数のセットの最大数として、あらかじめ設定された値MAXIより小さいかどうかが判定される。ステップS48において、変数iがMAXIより小さいと判定された場合、即ち、係数記憶部88に記憶されている予測係数のセットの数が、あらかじめ設定されたMAXIより少ない場合、ステップS49に進み、誤差マスク作成回路85において、誤差マスクが、誤差計算回路82からの最小予測誤差に基づいて更新(変更)される。
【0188】
即ち、誤差マスク作成回路85は、収束判定回路87から収束信号を受信すると、誤差計算回路82からの最小予測誤差に基づいて、誤差マスクを更新する。そして、この更新された誤差マスクは、加算回路17および19に供給される。
【0189】
ここで、図13(B)は、誤差マスクを示している。図13(B)に示すように、誤差マスクは、各高S/N画素について、その予測値の最小予測誤差が0のときは、0に設定され、最小予測誤差の大きさに比例した大きさの値、即ち、その大きさが大きくなるほど、大きな値が設定されるようになっている。なお、誤差マスクは、ここでは、例えば、ほぼ、関数y=|x|の形で与えられるようになっている。
【0190】
従って、誤差マスク作成回路85では、最小予測誤差が大きい予測値が得られる高S/N画素に対してほど、大きな重みを与える誤差マスクが作成される。
【0191】
図12に戻り、ステップS49では、さらに、ピンポイント拡張マスク作成回路86において、ピンポイント拡張マスクが、例えば1に初期化され、また、予測タップメモリ18および教師データメモリ20の記憶値が、例えば0に初期化される。そして、ステップS33に戻り、以下、同様の処理が繰り返される。
【0192】
従って、この場合、加算回路17および19では、式(8)における各項のうち、係数記憶部88に記憶されている予測係数のセットのいずれを用いても、予測誤差の小さくなかった教師データ(高S/N画素)yi、およびその教師データyiについての予測タップxijを用いた項には、大きな重みhiがおかれて足し込みが行われることになる。そして、その結果、図11(B)で説明したように、予測誤差の小さくない教師データについて、その予測誤差を小さくするような予測係数のセット(図11(B)の直線L’に相当する予測係数のセット)が求められることになる。
【0193】
一方、ステップS48において、変数iがMAXIより小さくないと判定された場合、即ち、係数記憶部88に、あらかじめ設定されたMAXIに等しいセット数の予測係数のセットが記憶された場合、学習処理を終了する。
【0194】
なお、加算回路17および19では、ステップS35における予測タップ(生徒データ)、教師データの足し込みは、常に、ピンポイント拡張マスクおよび誤差マスクの両者による重み付けをしながら行われる。即ち、図13(A)に示したピンポイント拡張マスクと、図13(B)に示した誤差マスクとの両者を重ね合わせたマスク(両者の積)は、図13(C)に示すように、ほぼ、関数y=√|x|の形となるが、式(8)に示した重みhiは、これによって与えられる。
【0195】
具体的には、図14に示すように、ある高S/N画素yiについて、その予測誤差に基づいて得られるピンポイント拡張マスクのマスク値がhpiであり、さらに、その最小予測誤差に基づいて得られる誤差マスクのマスク値がheiである場合には、式(8)に示した重み(マスク値)hiは、hpi×heiで与えられる。そして、加算回路17および19では、このようにして与えられる重みhiが各高S/N画素ごとに求められ、予測タップ(生徒データ)、教師データの足し込みの際の重み付けに用いられる。
【0196】
以上のように、図9の学習装置では、今までに求められた予測係数のセットを用いて求められる予測値の予測誤差のうち、最小値(最小予測誤差)が大きい予測値が得られる教師データと生徒データの組み合わせに対して大きな重みをおくとともに(そのような重みをおくための誤差マスクを使用するとともに)、新たな予測係数のセットを求めるための適応処理を行うごとに、その予測係数のセットを用いて求められる予測値の予測誤差が小さい予測値が得られる教師データと生徒データの組み合わせに対して大きな重みをおいて(そのような重みをおくためのピンポイント拡張マスクを使用して)、予測係数のセットが求められるので、低S/N画像を高S/N画像に変換するための、最適な予測係数を得ることができ、さらに、そのような予測係数を用いて、低S/N画像から、より高S/Nの画像を得ることができる。
【0197】
なお、本実施の形態では、誤差マスクおよびピンポイント拡張マスクの両方を使用するようにしたが、そのいずれか一方だけを使用して、予測係数のセットを求めるようにすることも可能である。
【0198】
次に、図9の学習装置において、識別情報記憶部83には、教師データとしての高S/N画像を構成する各高S/N画素に対して、その高S/N画素を高精度に予測する予測係数のセットの識別情報が記憶されるが、いま、1フレームの高S/N画像の各高S/N画素に対する識別情報の集合を、識別情報画像というものとする。また、ここでは、説明を簡単にするために、高S/N画像と低S/N画像の画素数(解像度)が同一であるとすると、識別情報画像を構成する、各高S/N画素に対応する識別情報は、各高S/N画素に対応する低S/N画素に対応付けることができる。
【0199】
そこで、図9の学習装置で生徒データとして用いた低S/N画像を構成する各低S/N画素と、その低S/N画素に対応する、識別情報画像を構成する各識別情報とを対応付けたものを利用して、低S/N画像を高S/N画像に変換する処理を行う画像処理装置について説明する。
【0200】
図15は、そのような画像処理装置の一実施の形態の構成例を示している。
【0201】
フレームメモリ91には、高S/N画像に変換する処理の対象とする低S/N画像(以下、適宜、処理対象画像という)が供給されるようになっており、フレームメモリ91は、その処理対象画像を、例えば、1フレーム単位で記憶するようになっている。
【0202】
検索タップ生成回路92は、処理対象画像を構成する各画素を、順次、注目画素とし、その注目画素の空間的または時間的周辺にある、処理対象画像の画素を、フレームメモリ91から読み出し、検索タップを構成するようになっている。この検索タップは、検索回路93に供給されるようになっている。
【0203】
検索回路93は、検索タップ生成回路92が出力する検索タップとを構成する画素と同一の位置関係にあり、かつ同一または類似の画素値を有する低S/N画素のパターン(以下、適宜、同一類似パターンという)を、ストレージ97に記憶されている低S/N画像の集合である低S/N画像群から検索し、さらに、その検索された同一類似パターンにおいて、注目画素に対応する画素に対応付けられている識別情報を、同じくストレージ97に記憶されている識別情報画像の集合である識別情報画像群から検出し、係数RAM94に対して、アドレスとして供給するようになっている。
【0204】
係数RAM94は、各アドレスに、そのアドレスに対応する識別情報によって特定される予測係数のセットを記憶している。なお、係数RAM94に記憶されている予測係数のセットは、図9の学習装置によって求められたものである。
【0205】
予測タップ生成回路95は、検索タップ生成回路92が注目画素とした画素の空間的または時間的周辺にある、処理対象画像の画素を、フレームメモリ91から読み出し、図9の学習装置を構成する予測タップ生成回路15における場合と同一の予測タップを生成するようになっている。この予測タップは、予測演算回路96に供給されるようになっている。
【0206】
予測演算回路96は、係数RAM94から供給される予測係数のセットと、予測タップ生成回路95からの予測タップとを用いて、式(1)に示した演算を行うことにより、高S/N画素の予測値を求めて出力するようになっている。
【0207】
ストレージ97は、図9の学習装置において求められる識別情報でなる識別情報画像の集合である識別情報画像群と、その識別情報を求めるのに用いられた生徒データとしての低S/N画像の集合である低S/N画像群が記憶されている。なお、低S/N画像群の各低S/N画素と、識別情報画像群の各識別情報とは、上述したように対応付けられている。
【0208】
次に、図16のフローチャートを参照して、図15の画像処理装置において行われる、処理対象画像を、そのS/Nを改善した高S/N画像に変換する変換処理について説明する。
【0209】
処理対象画像は、例えば、フレーム単位で、フレームメモリ91に供給されて記憶される。
【0210】
そして、検索タップ生成回路92は、処理対象画像を構成する、ある画素を、注目画素とし、ステップS51において、その注目画素の空間的または時間的周辺にある、処理対象画像の画素を、フレームメモリ91から読み出すことで、同一類似パターンを検索するときの比較対象とする検索タップを構成する。この検索タップは、検索タップ生成回路92から検索回路93に供給される。
【0211】
さらに、ステップS51では、予測タップ生成回路95において、検索タップ生成回路92が注目画素とした画素の空間的または時間的周辺にある、処理対象画像の画素が、フレームメモリ91から読み出され、図9の学習装置を構成する予測タップ生成回路15における場合と同一の予測タップが構成される。この予測タップは、予測タップ生成回路95から予測演算回路96に供給される。
【0212】
検索回路93は、検索タップ生成回路92から検索タップを受信すると、ステップS52において、その検索タップを構成する各画素と同一の位置関係を有する画素のパターンであって、検索タップを構成する各画素と同一またはほぼ同一の画素値を有する低S/N画素の集合である同一類似パターンを、ストレージ97に記憶されている低S/N画像群から検索し、ステップS53に進む。ステップS53では、検索回路93は、同一類似パターンを構成する低S/N画素のうちの、注目画素に対応する画素に対応付けられている識別情報を、ストレージ97に記憶されている識別情報画像群から検出する。
【0213】
ここで、同一類似パターンは、1つのみではなく、複数パターン検索されることがある。この場合、ステップS53では、複数の同一類似パターンそれぞれについて識別情報が検出されるが、その複数の識別情報が同一でない場合には(複数の識別情報の任意の1つと、他の1つとが異なる場合には)、係数RAM94に、その異なる数だけのアドレスが与えられることとなり、その結果、係数RAM94からは、複数セットの予測係数が、予測演算回路96に出力されることになる。一方、予測演算回路96において、ある注目画素について構成される予測タップとの式(1)の線形予測式を計算するのに用いる予測係数のセットは、1セットである必要があるから、同一類似パターンが、複数パターン検索され、さらに、その複数の同一類似パターンそれぞれについての識別情報が同一でない場合には、予測演算回路96において、式(1)の線形予測式を計算することが困難となる。
【0214】
そこで、ステップS54では、検索回路93において、同一類似パターンが、複数パターン検索され、かつ、その複数の同一類似パターンそれぞれについての識別情報の中に、異なるものがあるかどうかが判定される。
【0215】
ステップS54において、同一類似パターンが、複数パターン検索され、かつ、その複数の同一類似パターンそれぞれについての識別情報の中に、異なるものがあると判定された場合、ステップS55に進み、検索回路93は、検索タップを構成する、処理対象画像の画素を変更し、新たな検索タップを構成して出力するように、検索タップ生成回路92を制御する。この場合、検索タップ生成回路92は、注目画素について、新たに検索タップを構成し、検索回路93に供給する。即ち、検索タップ生成回路92は、注目画素について、今までに構成した検索タップを構成する処理対象画像の画素とは異なる画素をによって、新たに検索タップを構成する。具体的には、例えば、注目画素について、いま構成されている検索タップの画素に、新たな画素を加えたり、その一部の画素を、他の画素に変更することで、新たな検索タップを構成する。そして、ステップS52に戻り、その新たな検索タップを対象に、以下、同様の処理が繰り返される。
【0216】
そして、ステップ54において、同一類似パターンが、1パターンしか検索されなかったか、または、複数の同一類似パターンが検索されても、その複数の同一類似パターンそれぞれについての識別情報がすべて同一であると判定された場合、ステップS56に進み、検索回路93は、その1つの同一類似パターンの識別情報、または複数の同一類似パターンそれぞれについての同一の識別情報が、アドレスとして、係数RAM94に与える。これにより、係数RAM94では、検索回路93からの識別情報に対応するアドレスに記憶されている1セットの予測係数が読み出され、予測演算回路96に供給される。
【0217】
予測演算回路96は、係数RAM94から予測係数のセットを受信すると、ステップS57において、その予測係数のセットと、予測タップ生成回路95からの予測タップとを用いて、式(1)に示した演算を行うことにより、注目画素に対する高S/N画素の予測値を求めて出力し、ステップS58に進む。
【0218】
ステップS58では、次に処理すべき画素が、フレームメモリ91に記憶されているかどうかが判定され、記憶されていると判定された場合、その、次に処理すべき画素が、新たに注目画素とされ、ステップS51に戻り、以下、同様の処理が繰り返される。
【0219】
また、ステップS58において、次に処理すべき画素が、フレームメモリ91に記憶されていないと判定された場合、処理を終了する。
【0220】
以上のように、注目画素について構成される検索タップに対して、同一類似パターンを検索し、その同一類似パターンの、注目画素に対応する低S/N画素に対応付けられている識別情報によって特定される予測係数のセットを用いて、高S/N画素の予測値を求めるようにしたので、低S/N画像のみから、そのS/Nを向上させた高S/N画像を得ることができる。即ち、図7の復号器41に入力される符号化データのように、低S/N画素と、その低S/N画素を高S/N画素に変換するのに用いる予測係数のセットの識別情報とが対応付けられたデータでなくても、高S/N画像に変換することができる。従って、図15の画像処理装置は、図4の復号器41として用いることが可能であり、この場合、図4の符号化器41からは、低S/N画像だけを符号化データとして出力するだけで良い。
【0221】
次に、上述した一連の処理は、ハードウェアにより行うこともできるし、ソフトウェアにより行うこともできる。一連の処理をソフトウェアによって行う場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアとしての画素伝送装置や画素処理装置、学習装置に組み込まれているコンピュータ、または各種のプログラムをインストールすることで各種の処理を行う汎用のコンピュータ等にインストールされる。
【0222】
そこで、図17を参照して、上述した一連の処理を実行するプログラムをコンピュータにインストールし、コンピュータによって実行可能な状態とするために用いられる媒体について説明する。
【0223】
プログラムは、図17(A)に示すように、コンピュータ101に内蔵されている記録媒体としてのハードディスク102や半導体メモリ103に予めインストールした状態でユーザに提供することができる。
【0224】
あるいはまた、プログラムは、図17(B)に示すように、フロッピーディスク111、CD-ROM(Compact Disc Read Only Memory)112,MO(Magneto optical)ディスク113,DVD(Digital Versatile Disc)114、磁気ディスク115、半導体メモリ116などの記録媒体に、一時的あるいは永続的に格納し、パッケージソフトウエアとして提供することができる。
【0225】
さらに、プログラムは、図17(C)に示すように、ダウンロードサイト121から、ディジタル衛星放送用の人工衛星122を介して、コンピュータ101に無線で転送したり、LAN(Local Area Network)、インターネットといったネットワーク131を介して、コンピュータ101に有線で転送し、コンピュータ101において、内蔵するハードディスク102などに格納させるようにすることができる。
【0226】
本明細書における媒体とは、これら全ての媒体を含む広義の概念を意味するものである。
【0227】
また、本明細書において、媒体により提供されるプログラムを記述するステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含むものである。
【0228】
次に、図18は、図17のコンピュータ101の構成例を示している。
【0229】
コンピュータ101は、図18に示すように、CPU(Central Processing Unit)142を内蔵している。CPU142には、バス141を介して、入出力インタフェース145が接続されており、CPU142は、入出力インタフェース145を介して、ユーザによって、キーボードやマウス等で構成される入力部147が操作されることにより指令が入力されると、それにしたがって、図17(A)の半導体メモリ103に対応するROM(Read Only Memory)143に格納されているプログラムを実行する。あるいは、また、CPU142は、ハードディスク102に格納されているプログラム、衛星122若しくはネットワーク131から転送され、通信部148で受信されてハードディスク102にインストールされたプログラム、またはドライブ149に装着されたフロッピディスク111、CD-ROM112、MOディスク113、DVD114、若しくは磁気ディスク115から読み出されてハードディスク102にインストールされたプログラムを、RAM(Random Access Memory)144にロードして実行する。そして、CPU142は、その処理結果を、例えば、入出力インタフェース145を介して、LCD(Liquid CryStal Display)等で構成される表示部146に、必要に応じて出力する。
【0230】
なお、本実施の形態では、画像を処理の対象としたが、その他、例えば、音声等を処理の対象とすることも可能である。
【0231】
【発明の効果】
以上の如く、本発明の第1の側面によれば識別情報に基づいて、予測誤差を小さくする第1のデータの予測値を求めることが可能となる。
【0232】
本発明の第2の側面によれば予測誤差が小さい、第1のデータの予測値を求めることが可能となる。
【0233】
本発明の第3の側面によれば予測誤差が小さい、第1のデータの予測値を求めることが可能となる。
【図面の簡単な説明】
【図1】従来の画像処理装置の一例の構成を示すブロック図である。
【図2】従来の学習装置の一例の構成を示すブロック図である。
【図3】従来の画像伝送装置の一例の構成を示すブロック図である。
【図4】本発明を適用した画像伝送装置の一実施の形態の構成例を示すブロック図である。
【図5】図4の符号化器31の構成例を示すブロック図である。
【図6】図5の符号化器31の処理を説明するためのフローチャートである。
【図7】図4の復号器41の構成例を示すブロック図である。
【図8】図7の復号器41の処理を説明するためのフローチャートである。
【図9】本発明を適用した学習装置の一実施の形態の構成例を示すブロック図である。
【図10】図9の学習装置の処理を説明するための図である。
【図11】図9の学習装置の処理を説明するための図である。
【図12】図9の学習装置の処理を説明するためのフローチャートである。
【図13】ピンポイント拡張マスクと誤差マスクを説明するための図である。
【図14】図9の学習装置において最終的に用いられる重みを説明するための図である。
【図15】本発明を適用した画像処理装置の一実施の形態の構成例を示すブロック図である。
【図16】図15の画像処理装置の処理を説明するためのフローチャートである。
【図17】本発明を適用した媒体を説明するための図である。
【図18】図17のコンピュータ101の構成例を示すブロック図である。
【符号の説明】
11 フレームメモリ, 12 ダウンコンバータ, 13 フレームメモリ, 15 予測タップ生成回路, 17 加算回路, 18 予測タップメモリ, 19 加算回路, 20 教師データメモリ, 21 演算回路, 31 符号化器, 41 復号器, 51 伝送媒体, 52 記録媒体, 61 フレームメモリ, 62 ダウンコンバータ, 63 フレームメモリ, 64 予測タップ生成回路, 65 予測演算回路, 66 誤差計算回路, 67 比較部, 68 係数RAM, 69 誤差/識別情報記憶部, 70 重畳部,71 分離部, 72 フレームメモリ, 73 予測タップ生成回路, 74 予測演算回路, 75 識別情報記憶部, 76 係数RAM, 81 適応処理回路, 82 誤差計算回路, 83 識別情報記憶部, 84 識別情報書き込み回路, 85 誤差マスク作成回路, 86 ピンポイント拡張マスク作成回路, 87 収束判定回路, 88 係数記憶部, 91 フレームメモリ, 92 検索タップ生成回路, 93 検索回路, 94 係数RAM, 95 予測タップ生成回路, 96 予測演算回路, 97 ストレージ, 101 コンピュータ, 102 ハードディスク, 103 半導体メモリ, 111 フロッピーディスク, 112 CD-ROM, 113 MOディスク, 114 DVD, 115 磁気ディスク, 116 半導体メモリ, 121 ダウンロードサイト, 122 衛星, 131 ネットワーク, 141 バス,142 CPU, 143 ROM, 144 RAM, 145 入出力インタフェース, 146 表示部, 147 入力部, 148 通信部, 149 ドライブ

Claims (20)

  1. 第1のデータを処理して、第2のデータを出力するデータ処理装置であって、
    前記第1のデータから、前記第2のデータを生成する生成手段と、
    注目している前記第1のデータである注目第1データを予測するのに用いる予測用データを、前記第2のデータから抽出する予測用データ抽出手段と、
    前記第1のデータを予測するのに用いる複数セットの予測係数を記憶している予測係数記憶手段と、
    前記予測用データおよび所定の予測係数のセットを用いて、前記注目第1データの予測値を求める予測値演算手段と、
    前記予測値の、前記注目第1データに対する予測誤差を求める予測誤差演算手段と、
    前記予測誤差を最小にする前記予測係数のセットを検出する検出手段と、
    前記予測誤差を最小にする前記予測係数のセットを識別するための識別情報を記憶する識別情報記憶手段と、
    前記第2のデータとともに、前記識別情報を出力する出力手段と
    を含み、
    前記複数セットの予測係数は、前記第2のデータに相当する生徒データから抽出される前記予測用データと前記予測係数とを用いて求められる、前記第1のデータに相当する教師データの予測値の、前記教師データに対する誤差を小さくする前記予測係数を求める学習処理を行うことにより、あらかじめ求められている
    データ処理装置。
  2. 前記予測値演算手段は、前記予測用データと、所定の予測係数のセットとを用いて、前記注目第1データを線形予測する
    求項1に記載のデータ処理装置。
  3. 前記生成手段は、前記第1のデータを劣化させることで、前記第2のデータを生成する
    求項1に記載のデータ処理装置。
  4. 前記第1および第2のデータは、画像データである
    求項1に記載のデータ処理装置。
  5. 第1のデータを処理して、第2のデータを出力するデータ処理方法であって、
    前記第1のデータから、前記第2のデータを生成する生成ステップと、
    注目している前記第1のデータである注目第1データを予測するのに用いる予測用データを、前記第2のデータから抽出する予測用データ抽出ステップと、
    前記第1のデータを予測するのに用いる複数セットの予測係数を記憶している予測係数記憶手段に記憶されている所定の予測係数のセットと、前記予測用データとを用いて、前記注目第1データの予測値を求める予測値演算ステップと、
    前記予測値の、前記注目第1データに対する予測誤差を求める予測誤差演算ステップと、
    前記予測誤差を最小にする前記予測係数のセットを検出する検出ステップと、
    前記予測誤差を最小にする前記予測係数のセットを識別するための識別情報を記憶する識別情報記憶ステップと、
    前記第2のデータとともに、前記識別情報を出力する出力ステップと
    を含み、
    前記複数セットの予測係数は、前記第2のデータに相当する生徒データから抽出される前記予測用データと前記予測係数とを用いて求められる、前記第1のデータに相当する教師データの予測値の、前記教師データに対する誤差を小さくする前記予測係数を求める学習処理を行うことにより、あらかじめ求められている
    データ処理方法。
  6. 第1のデータを処理して、第2のデータを出力するデータ処理をコンピュータに実行させるプログラムが記録された記録媒体であって、
    前記第1のデータから、前記第2のデータを生成する生成ステップと、
    注目している前記第1のデータである注目第1データを予測するのに用いる予測用データを、前記第2のデータから抽出する予測用データ抽出ステップと、
    前記第1のデータを予測するのに用いる複数セットの予測係数を記憶している予測係数記憶手段に記憶されている所定の予測係数のセットと、前記予測用データとを用いて、前記注目第1データの予測値を求める予測値演算ステップと、
    前記予測値の、前記注目第1データに対する予測誤差を求める予測誤差演算ステップと、
    前記予測誤差を最小にする前記予測係数のセットを検出する検出ステップと、
    前記予測誤差を最小にする前記予測係数のセットを識別するための識別情報を記憶する識別情報記憶ステップと、
    前記第2のデータとともに、前記識別情報を出力する出力ステップと
    を含むデータ処理を、コンピュータに実行させるプログラムであり、
    前記複数セットの予測係数は、前記第2のデータに相当する生徒データから抽出される前記予測用データと前記予測係数とを用いて求められる、前記第1のデータに相当する教師データの予測値の、前記教師データに対する誤差を小さくする前記予測係数を求める学習処理を行うことにより、あらかじめ求められている
    プログラムが記録された記録媒体。
  7. 第1のデータより劣化した第2のデータを処理することにより、前記第1のデータの予測値を求めるデータ処理装置であって、
    入力されたデータから、前記第2のデータと、複数セットの予測係数の各セットを識別するための識別情報とを分離する分離手段と、
    注目している前記第1のデータである注目第1データを予測するのに用いる予測用データを、前記第2のデータから抽出する予測用データ抽出手段と、
    前記識別情報に基づき、前記複数セットの予測係数の中から、前記注目第1データを予測するのに用いるものを選択し、その予測係数のセットと、前記予測用データとを用いて、前記注目第1データの予測値を求める予測値演算手段と
    を含み、
    前記複数セットの予測係数は、前記第2のデータに相当する生徒データから抽出される前記予測用データと前記予測係数とを用いて求められる、前記第1のデータに相当する教師データの予測値の、前記教師データに対する誤差を小さくする前記予測係数を求める学習処理を行うことにより、あらかじめ求められている
    データ処理装置。
  8. 前記複数セットの予測係数を記憶している予測係数記憶手段をさらに含む
    求項7に記載のデータ処理装置。
  9. 前記予測値演算手段は、前記予測用データと、予測係数のセットとを用いて、前記注目第1データを線形予測する
    求項7に記載のデータ処理装置。
  10. 前記第1および第2のデータは、画像データである
    求項7に記載のデータ処理装置。
  11. 第1のデータより劣化した第2のデータを処理することにより、前記第1のデータの予測値を求めるデータ処理方法であって、
    入力されたデータから、前記第2のデータと、複数セットの予測係数の各セットを識別するための識別情報とを分離する分離ステップと、
    注目している前記第1のデータである注目第1データを予測するのに用いる予測用データを、前記第2のデータから抽出する予測用データ抽出ステップと、
    前記識別情報に基づき、前記複数セットの予測係数の中から、前記注目第1データを予測するのに用いるものを選択し、その予測係数のセットと、前記予測用データとを用いて、前記注目第1データの予測値を求める予測値演算ステップと
    を含み、
    前記複数セットの予測係数は、前記第2のデータに相当する生徒データから抽出される前記予測用データと前記予測係数とを用いて求められる、前記第1のデータに相当する教師データの予測値の、前記教師データに対する誤差を小さくする前記予測係数を求める学習処理を行うことにより、あらかじめ求められている
    データ処理方法。
  12. 第1のデータより劣化した第2のデータを処理することにより、前記第1のデータの予測値を求めるデータ処理をコンピュータに実行させるプログラムが記録された記録媒体であって、
    入力されたデータから、前記第2のデータと、複数セットの予測係数の各セットを識別するための識別情報とを分離する分離ステップと、
    注目している前記第1のデータである注目第1データを予測するのに用いる予測用データを、前記第2のデータから抽出する予測用データ抽出ステップと、
    前記識別情報に基づき、前記複数セットの予測係数の中から、前記注目第1データを予測するのに用いるものを選択し、その予測係数のセットと、前記予測用データとを用いて、前記注目第1データの予測値を求める予測値演算ステップと
    を含むデータ処理を、コンピュータに実行させるプログラムであり、
    前記複数セットの予測係数は、前記第2のデータに相当する生徒データから抽出される前記予測用データと前記予測係数とを用いて求められる、前記第1のデータに相当する教師データの予測値の、前記教師データに対する誤差を小さくする前記予測係数を求める学習処理を行うことにより、あらかじめ求められている
    プログラムが記録された記録媒体。
  13. 第1のデータを処理して、第2のデータを出力する第1の装置と、
    前記第2のデータを処理することにより、前記第1のデータの予測値を求める第2の装置と
    を備えるデータ処理装置であって、
    前記第1の装置は、
    前記第1のデータから、前記第2のデータを生成する生成手段と、
    注目している前記第1のデータである注目第1データを予測するのに用いる予測用データを、前記第2のデータから抽出する第1の予測用データ抽出手段と、
    前記第1のデータを予測するのに用いる複数セットの予測係数を記憶している予測係数記憶手段と、
    前記予測用データおよび所定の予測係数のセットを用いて、前記注目第1データの予測値を求める予測値演算手段と、
    前記予測値の、前記注目第1データに対する予測誤差を求める予測誤差演算手段と、
    前記予測誤差を最小にする前記予測係数のセットを検出する検出手段と、
    前記予測誤差を最小にする前記予測係数のセットを識別するための識別情報を記憶する識別情報記憶手段と、
    前記第2のデータとともに、前記識別情報を出力する出力手段と
    を含み、
    前記第2の装置は、
    入力されたデータから、前記第2のデータと識別情報とを分離する分離手段と、
    前記注目第1データを予測するのに用いる予測用データを、前記第2のデータから抽出する第2の予測用データ抽出手段と、
    前記識別情報に基づき、前記複数セットの予測係数の中から、前記注目第1データを予測するのに用いるものを選択し、その予測係数のセットと、前記予測用データとを用いて、前記注目第1データの予測値を求める予測値演算手段と
    を含み、
    前記複数セットの予測係数は、前記第2のデータに相当する生徒データから抽出される前記予測用データと前記予測係数とを用いて求められる、前記第1のデータに相当する教師データの予測値の、前記教師データに対する誤差を小さくする前記予測係数を求める学習処理を行うことにより、あらかじめ求められている
    データ処理装置。
  14. 前記学習処理では、
    前記教師データから、前記生徒データを生成し、
    前記教師データを予測するのに用いる予測用データを、前記生徒データから抽出し、
    所定の重みを付した前記教師データおよび予測用データを用いて、前記教師データを予測するのに用いる予測係数のセットを求め
    前記予測係数のセットと予測用データとを用いて、前記教師データの予測値を求め
    前記予測値の、前記教師データに対する予測誤差を求め
    前記予測誤差に基づいて、前記教師データおよび予測用データに付す前記重みを変更し、
    前記予測係数のセットを、その予測係数のセットから求められる予測値の予測誤差が小さくなる前記教師データのグループごとに求める
    請求項1に記載のデータ処理装置。
  15. 前記学習処理では、前記予測誤差が小さい前記教師データの予測値の予測誤差がより小さくなるように、その教師データおよびその教師データについての前記予測用データに付す前記重みを変更する
    求項14に記載のデータ処理装置。
  16. 前記学習処理では、前記予測誤差が小さくなる前記教師データの、あるグループについての前記予測係数のセットを求めた後に、前記予測誤差が大きい前記教師データの予測値の予測誤差が小さくなるように、その教師データおよびその教師データについての前記予測用データに付す前記重みを変更する
    求項14に記載のデータ処理装置。
  17. 前記学習処理では、前記予測係数のセットと予測用データとを用いた線形予測を行う
    求項14に記載のデータ処理装置。
  18. 前記学習処理では、所定の重みを付した前記教師データおよび予測用データを用いた正規方程式を解くことで、前記予測係数のセットを求める
    求項17に記載のデータ処理装置。
  19. 前記学習処理では、さらに、前記予測誤差を小さくする前記予測係数のセットを識別するための識別情報を記憶す
    求項14に記載のデータ処理装置。
  20. 前記教師データおよび生徒データは、画像データである
    求項14に記載のデータ処理装置。
JP17429599A 1999-06-21 1999-06-21 データ処理装置およびデータ処理方法、並びに記録媒体 Expired - Fee Related JP4362895B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP17429599A JP4362895B2 (ja) 1999-06-21 1999-06-21 データ処理装置およびデータ処理方法、並びに記録媒体
US09/597,854 US6571142B1 (en) 1999-06-21 2000-06-20 Data processing apparatus, data processing method, and medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP17429599A JP4362895B2 (ja) 1999-06-21 1999-06-21 データ処理装置およびデータ処理方法、並びに記録媒体

Publications (2)

Publication Number Publication Date
JP2001008056A JP2001008056A (ja) 2001-01-12
JP4362895B2 true JP4362895B2 (ja) 2009-11-11

Family

ID=15976178

Family Applications (1)

Application Number Title Priority Date Filing Date
JP17429599A Expired - Fee Related JP4362895B2 (ja) 1999-06-21 1999-06-21 データ処理装置およびデータ処理方法、並びに記録媒体

Country Status (2)

Country Link
US (1) US6571142B1 (ja)
JP (1) JP4362895B2 (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4696388B2 (ja) * 2000-11-15 2011-06-08 ソニー株式会社 情報信号処理装置、情報信号処理方法、画像信号処理装置およびそれを使用した画像表示装置、それに使用される係数種データ生成装置、係数データ生成装置、並びに情報記録媒体
JP4670169B2 (ja) * 2000-11-15 2011-04-13 ソニー株式会社 情報信号処理装置、情報信号処理方法、画像信号処理装置およびそれを使用した画像表示装置、それに使用される係数種データ生成装置、並びに情報記録媒体
JP4507046B2 (ja) * 2001-01-25 2010-07-21 ソニー株式会社 データ処理装置およびデータ処理方法、並びにプログラムおよび記録媒体
US7072525B1 (en) * 2001-02-16 2006-07-04 Yesvideo, Inc. Adaptive filtering of visual image using auxiliary image information
JP4238516B2 (ja) * 2002-04-26 2009-03-18 ソニー株式会社 データ変換装置およびデータ変換方法、学習装置および学習方法、並びにプログラムおよび記録媒体
JP4066146B2 (ja) 2002-04-26 2008-03-26 ソニー株式会社 データ変換装置およびデータ変換方法、学習装置および学習方法、並びにプログラムおよび記録媒体
JP3767692B2 (ja) * 2002-05-08 2006-04-19 ソニー株式会社 信号処理装置および方法、記録媒体、並びにプログラム
JP4517279B2 (ja) * 2004-01-22 2010-08-04 ソニー株式会社 情報処理装置および方法、記録媒体、並びにプログラム
EP1557789A2 (en) 2004-01-22 2005-07-27 Sony Corporation Interpolation with prestored training pairs
JP4650123B2 (ja) * 2005-06-27 2011-03-16 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
JP4517300B2 (ja) * 2006-01-06 2010-08-04 ソニー株式会社 表示装置および表示方法、学習装置および学習方法、並びにプログラム
KR101356548B1 (ko) 2006-01-23 2014-01-28 막스-플랑크-게젤샤프트 츄어 푀르더룽 데어 비쎈샤프텐 에.파우. 하이 다이나믹 레인지 코덱들
JP4808067B2 (ja) * 2006-04-24 2011-11-02 富士通株式会社 画像圧縮装置、画像圧縮プログラム、画像圧縮方法
JP4193871B2 (ja) * 2006-05-18 2008-12-10 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
JP5029869B2 (ja) * 2006-11-09 2012-09-19 ソニー株式会社 画像処理装置および画像処理方法、学習装置および学習方法、並びにプログラム
SG10201910966SA (en) * 2009-06-19 2020-01-30 Mitsubishi Electric Corp Image encoding device, image decoding device, image encoding method, and image decoding method
JP2013009293A (ja) * 2011-05-20 2013-01-10 Sony Corp 画像処理装置、画像処理方法、プログラム、および記録媒体、並びに学習装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4587620A (en) * 1981-05-09 1986-05-06 Nippon Gakki Seizo Kabushiki Kaisha Noise elimination device
US5054103A (en) * 1987-09-24 1991-10-01 Matsushita Electric Works, Ltd. Picture encoding system
US5663764A (en) * 1993-09-30 1997-09-02 Sony Corporation Hierarchical encoding and decoding apparatus for a digital image signal
JP2770137B2 (ja) * 1994-09-22 1998-06-25 日本プレシジョン・サーキッツ株式会社 波形データ圧縮装置

Also Published As

Publication number Publication date
JP2001008056A (ja) 2001-01-12
US6571142B1 (en) 2003-05-27

Similar Documents

Publication Publication Date Title
JP4362895B2 (ja) データ処理装置およびデータ処理方法、並びに記録媒体
JP4371457B2 (ja) 画像処理装置、方法及びコンピュータ読み取り可能な記憶媒体
US20100202711A1 (en) Image processing apparatus, image processing method, and program
JPH11191880A (ja) 画像変換装置および画像変換方法、並びに学習装置および学習方法
US20030035594A1 (en) Image processing device and method, and recorded medium
JPH1084548A (ja) 画像符号化装置および画像符号化方法、画像復号化装置および画像復号化方法、伝送方法、並びに記録媒体
JP4517409B2 (ja) データ処理装置およびデータ処理方法
JP4407015B2 (ja) ノイズ除去装置およびノイズ除去方法
JP4324825B2 (ja) データ処理装置およびデータ処理方法、並びに媒体
KR100971822B1 (ko) 데이터 변환 장치 및 데이터 변환 방법, 학습 장치 및 학습 방법, 및 기록 매체
KR100816593B1 (ko) 화상 처리 장치, 화상 처리 방법, 및 기록 매체
KR101089853B1 (ko) 계수 데이터의 생성 장치 및 생성 방법, 계수종 데이터의 생성 장치 및 생성 방법, 정보 신호 처리 장치, 및 프로그램을 기록한 매체
JPH0795591A (ja) ディジタル画像信号処理装置
JP3849817B2 (ja) 画像処理装置および画像処理方法
JP4135045B2 (ja) データ処理装置およびデータ処理方法、並びに媒体
JP2001222702A (ja) 画像処理装置および画像処理方法、並びに記録媒体
JP2005159830A (ja) 信号処理装置および方法、記録媒体、並びにプログラム
JP4281453B2 (ja) 信号処理装置および信号処理方法
JP3844031B2 (ja) 画像符号化装置および画像符号化方法、並びに、画像復号装置および画像復号方法
JP3912558B2 (ja) 画像符号化装置および画像符号化方法、並びに記録媒体
JP4096281B2 (ja) 画像処理装置および画像処理方法、並びに媒体
JP2007251690A (ja) 画像処理装置および方法、学習装置および方法、並びにプログラム
JP4225039B2 (ja) データ処理装置および方法、記録媒体、並びにプログラム
JP4265291B2 (ja) 情報信号の処理装置および処理方法、並びに情報信号の処理方法を実行するためのプログラム
JP4505729B2 (ja) 画像処理装置、画像処理方法、プログラム、および記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081020

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081202

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090728

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090810

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120828

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120828

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130828

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees