JP3543339B2 - Encoding device and its decoding device - Google Patents

Encoding device and its decoding device Download PDF

Info

Publication number
JP3543339B2
JP3543339B2 JP18443493A JP18443493A JP3543339B2 JP 3543339 B2 JP3543339 B2 JP 3543339B2 JP 18443493 A JP18443493 A JP 18443493A JP 18443493 A JP18443493 A JP 18443493A JP 3543339 B2 JP3543339 B2 JP 3543339B2
Authority
JP
Japan
Prior art keywords
image signal
digital image
value
coefficient
class
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP18443493A
Other languages
Japanese (ja)
Other versions
JPH0785287A (en
Inventor
哲二郎 近藤
秀雄 中屋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP18443493A priority Critical patent/JP3543339B2/en
Publication of JPH0785287A publication Critical patent/JPH0785287A/en
Application granted granted Critical
Publication of JP3543339B2 publication Critical patent/JP3543339B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

【0001】
【発明の属する技術分野】
この発明は、ディジタル画像信号の号化装置およびその復号装置に関する。
【0002】
【従来の技術】
ディジタル画像信号の高能率符号化の一つである予測符号化(DPCMとも称される)が知られている。従来の予測符号化では、水平方向および/または垂直方向の相関性に基づいた予測式によって推定値を形成し、真値と推定値との差分値を量子化している。推定値を得るための予測方法は、種々のものが知られているが、予測式が固定であるのが普通であった。さらに、推定値を形成する時に動き補償予測を行うものも知られている。
【0003】
【発明が解決しようとする課題】
予測式が固定の場合では、画像の内容によっては、推定誤差が非常に大きくなり、符号化効率の低下、符号化誤差の増大が生じた。また、動き補償を行うためには、動きベクトルを検出する必要があり、そのためのハードウエアの規模が大きくなる問題があった。
【0004】
従って、この発明の目的は、推定精度を向上させることができ、符号化効率および画質を改善できる号化装置およびその復号装置を提供することにある。
【0005】
【課題を解決するための手段】
請求項1の発明は、入力ディジタル画像信号の過去のディジタル画像信号に基づいて符号化を行なう符号化装置において、
入力ディジタル画像信号の過去のディジタル画像信号のパターン分布に応じたクラスを形成し、クラスに対応した所定の方式で、到来する入力ディジタル画像信号の推定値を生成する推定手段と、
推定値と到来する入力ディジタル画像信号との間の差分値を形成する差分手段と、
差分値を少なくとも含む符号化データを生成するデータ符号化手段とを有し、
推定手段は、
予め用意されたディジタル画像信号に基づいてクラス毎の学習により算出された、各クラスに応じた係数を出力する係数出力手段と、
係数と入力ディジタル画像信号との演算により、推定値を生成する生成手段とを有することを特徴とする符号化装置である。
【0006】
また、請求項6の発明は、上述の符号化装置の符号化出力を受信し、復号する復号装置である。すなわち、請求項の発明は、入力ディジタル画像信号をその特徴に応じて複数のクラスの一つに分類し、入力ディジタル画像信号に基づきクラスに対応した所定の方式で未来のディジタル画像信号の推定値を生成し、推定値と未来の入力ディジタル画像信号の値との差分値を生成し、差分値と特定のディジタル画像信号を少なくとも用いることで生成された符号化データを復号する復号装置において、
特定された入力画像信号と復号化されたディジタル画像信号とに基づいて、特定された入力画像信号と復号化されたディジタル画像信号のパターンに応じたクラスを生成し、クラスに応じた、学習により定められた所定の方式により、推定値の位置に相当する画像信号の値を生成値として生成する生成手段と、
生成値と差分値に基づいて、復号画像を生成する復号手段とを有することを特徴とする復号装置である。
【0007】
【作用】
過去の時空間の画素データと係数の線形1次結合によって未来の画素の推定値を形成する。この場合、過去のデータをクラス分類し、クラス毎に最適な係数が最小二乗法により予め学習により決定されるか、入力画像データを常に学習しながら決定される。推定値と真値との差分値が伝送される。復号側では、復号された過去の画像データのクラス分類を行ない、クラスの係数と復号画像データとから推定値を生成し、受信差分値と推定値とを加算する事によって、復号画像が生成される。クラス毎に係数が決められているので、推定値と実際の値との差を小とできる。
【0008】
【実施例】
以下、この発明による予測符号化装置について説明する。この発明の理解を容易とするために、まず、時空間モデルで画像を記述することについて、図1を参照して説明する。
【0009】
図1において、T1、T2は、時間的に連続する2フレームを示し、T1が過去のフレーム、T2が現在のフレームである。これらのフレーム中で、推定値の生成およびクラス分類のために使用する画素が図に示されている。×で示す現在フレーム内の未来の画素を図1に示す画素の値xi と係数wi (i=1,2,・・・,n)のnタップの線形1次結合モデルで表現する。この係数が予測係数である。そして、以下により詳細に説明するように、画素の値xi と係数wi の線形1次結合で表現される未来の画素の推定値yの真値に対する誤差の二乗が最小となるように、係数が最小二乗法で決定される。1フレーム毎およびクラス毎に1組の係数が確定される。
【0010】
図1に示す時空間モデルの例では、n=16である。現在フレームT2の未来の画素の予測値yは、16タップの入力画素の線形1次結合w1 1 +w2 2 +・・・+w1616によって表される。この線形1次結合モデルにおける係数wi については、実際の値と線形1次結合で表される推定値との残差が最小になるものが求められる。
【0011】
この未定係数wi を決定するために、入力画像を空間方向(水平方向および垂直方向)に1画素ずつずらした時の図1に示す各画素の値xi (i=1,・・・,n)と予測対象画素の実際の値yj (j=1,・・・,m)をそれぞれ代入した線形1次結合の式を作成する。例えば1フレームに対して1組の係数を求める時には、入力画像を1画素ずつシフトすることによって、非常に多くの式、すなわち、1フレームの画素数(=m)の連立方程式(観測方程式と称する)が作成される。16個の係数を決定するためには、最低で(m=16)の連立方程式が必要である。方程式の個数mは、精度の問題と処理時間との兼ね合いで適宜選定できる。観測方程式は、
XW=Y (1)
である。ここでX、W、Yは、それぞれ下記のような行列である。
【0012】
【数1】

Figure 0003543339
【0013】
係数wとして、実際の値との誤差を最小にするものを最小二乗法により求める。このために、観測方程式の右辺に残差行列Eを加えた下記の残差方程式を作成する。すなわち、最小二乗法において、残差方程式における残差行列Eの要素の二乗、すなわち二乗誤差が最小になる係数行列Wを求める。
【0014】
【数2】
Figure 0003543339
【0015】
次に、残差方程式(3)から係数行列Wの各要素wi の最確値を見いだすための条件は、ブロック内の画素に対応するm個の残差をそれぞれ二乗してその総和を最小にする条件を満足させればよい。この条件は、下記の式(4)により表される。
【0016】
【数3】
Figure 0003543339
【0017】
n個の条件を入れてこれを満足する係数行列Wの要素である未定係数w1 ,w2 ,・・・,wn を見出せばよい。従って、残差方程式(3)より、
【0018】
【数4】
Figure 0003543339
【0019】
となる。式(4)の条件をi=1,2,・・・,n)について立てれば、それぞれ
【0020】
【数5】
Figure 0003543339
【0021】
が得られる。式(3)と式(6)から、下記の正規方程式が得られる。
【0022】
【数6】
Figure 0003543339
【0023】
正規方程式(7)は、丁度、未知数の数がn個だけある連立方程式である。これにより、最確値たる各未定係数wi を求めることができる。正確には、式(7)における、wi にかかるマトリクスが正則であれば、解くことができる。実際には、Gauss-Jordanの消去法(別名、掃き出し法)を用いて未定係数wi を求めている。このようにして、未来の画素を表すための係数が1フレームで1組確定する。多数フレームの入力画像を使用して上述と同様の学習を行う時には、各フレームで確定した係数の平均値、あるいは最大出現頻度の係数が係数メモリ5に格納される。
【0024】
この実施例は、学習によって決定された係数を予測係数として使用し、予測符号化を行う。この場合、推定精度を向上するために、入力画像のクラス分類(クラスタリング)を行う。図1において、○で示す画素が線形1次結合モデルに使用したものを示し、◎が示す画素がモデルおよびクラス分類に使用した画素を示す。つまり、16画素中の4画素がクラス分類にも使用される。
【0025】
4画素のそれぞれが8ビットであると、4画素の値の組合せが非常に多くなり、現実的なクラス分類とは言えない。そこで、後述するように、この4画素のそれぞれのビット数を符号化により圧縮している。より具体的には、ADRC(ダイナミックレンジに適応した符号化)によって、各画素を1ビットのコードに圧縮する。その結果、24 =16通りのクラスを取り扱えば良い。クラスを指示するコードをインデックスと称する。ADRCに限らず、ベクトル量子化によって、画素のビット数を減少させることもできる。さらに、各画素の最上位ビットを集めてインデックスとしても良い。このように、予測画素の近傍の4画素をそれぞれ1ビットに正規化した4ビットのコードによってクラス分類することは、画像の時空間における変化の概略のパターン形状に応じてクラス分類を行ったことを意味する。
【0026】
図2は、学習のための構成の一例を示す。図2において、1で示す入力端子に入力画像データが供給される。入力画像データとしては、異なる絵柄の多数の静止画像データが好ましい。入力画像データが時系列変換回路2および最小二乗法の演算回路3に供給される。時系列変換回路2は、ラスター走査の入力画像データ中の線形1次結合モデルおよびクラス分類に使用される複数の画素データを同時化する。
【0027】
この時系列変換回路2の出力データが演算回路3およびクラス分類回路4に供給される。クラス分類回路4は、上述のように、画像の3次元の変化に対応するインデックスを発生する。このインデックスが演算回路3に供給される。演算回路3は、図1に示される時空間モデルに関して、上述した最小二乗法のアルゴリズムによって、インデックスで指示されるクラス毎に1組の係数wi を決定する。この係数が係数メモリ5に格納される。
【0028】
図3は、この発明による予測符号化のエンコーダの一例の構成を示す。図3において、15で示す係数メモリには、上述の学習により獲得された係数がクラス毎に格納されている。入力端子11からの入力画像データが時系列変換回路12に供給され、その出力データがクラス分類回路14および推定値生成回路16に供給される。時系列変換回路12は、ラスター走査の順序に従って入力された画素データを図1に示すように、過去において順次伝送されてくる画素と未来に伝送されてくる画素をひとまとめにして同時に出力する。クラス分類回路14には、クラス分類に使用する4画素のデータが供給される。クラス分類回路14からのインデックスが係数メモリ15に供給され、クラスに対応する1組の係数がメモリ15から読出される。
【0029】
この読出し係数が推定値生成回路16に供給され、時系列変換回路12からの画素データを使用して、推定値が生成される。この推定値が減算回路18に供給される。減算回路18の他の入力として、遅延回路17を介された入力画像データが供給される。時系列変換回路12、クラス分類回路14、係数メモリ15、推定値生成回路16がローカルデコーダを構成する。減算回路18によって、真値(実データ)と推定値との差分値が生成される。
【0030】
この差分値が圧縮符号化のためのエンコーダ19により符号化され、符号化出力(コード)が出力端子20に取り出される。圧縮符号化としては、一例として、適応量子化によってビット数を削減した後、生起確立に基づいて予め求められたハフマン符号によってエントロピー符号化を行う。さらに、エンコーダ19に対してリフレッシュ用に画素値そのものが供給され、所定の伝送データ毎に画素値が挿入される。圧縮符号化としては、他のものを採用できる。例えば差分値をブロック化した後、DCT変換のような直交変換を行ない、そしてエントロピー符号化を行っても良い。圧縮符号化出力が伝送、あるいは記録される。
【0031】
図3の例では、前もってなされる学習により獲得された汎用性のある係数を使用している。図4に示すエンコーダは、係数を入力画像と関連して更新することを可能とした構成である。すなわち、学習のためのものと同様の最小二乗法の演算回路13を設け、演算回路13からの係数で係数メモリ15を更新することを可能としている。より具体的には、クラス分類回路14からのインデックスが演算回路13および係数メモリ15に供給され、入力画像データが演算回路13に供給され、演算回路13からの確定係数が係数メモリ15に対して供給されている。入力画像の1フレーム毎に限らず、かなり多くのフレームを学習した結果に基づいて係数を更新する構成としても良い。また、図4の係数メモリに予め学習で決定された係数を格納し、これを入力画像によって変更するようにしても良い。図4の例では、係数メモリ15の内容が変化するので、出力端子21に取り出された係数データをコードと共に伝送する必要がある。図4の構成において、最小二乗法の演算回路13を選択的に動作させるようにしても良い。
【0032】
次に、学習時およびエンコーダにおいて使用される各回路のより詳細な構成について説明する。図5は、クラス分類回路4、14の一例である。入力画像データ(4画素のデータ)が1ビットADRC回路27に順次供給される。ADRC回路27では、4画素の値の最大値および最小値が検出され、最大値と最小値の差であるダイナミックレンジDRが検出される。このダイナミックレンジDRによって各画素の値が割算される。その商が0.5と比較され、商が0.5以上の時に`1' 、0.5より小の時に`0' のコードが形成される。
【0033】
ADRC回路27によって、各画素の値が1ビット(`0' または`1' )に圧縮される。このADRC回路27の出力がシフトレジスタ28によって直列並列変換される。シフトレジスタ28からの各1ビットのL1、L2、L3、L4がレジスタ29に格納される。この4ビット(L1,L2,L3,L4)がインデックスである。
【0034】
図6は、最小二乗法の演算回路3、13のより詳細な構成を示す。入力ディジタル画像信号が供給され、時空間モデルを構成するデータ、すなわち、対象画素の実データyと線形1次結合に使用するデータxi を同時化するための時系列変換回路31が設けられている。時系列変換回路31からのデータが乗算器アレー32に供給される。乗算器アレー32に対して加算メモリ33が接続される。インデックスがデコーダ35に供給され、デコーダ35からのクラス情報が加算メモリ33に供給される。これらの乗算器アレー32および加算メモリ33は、正規方程式生成回路を構成する。
【0035】
乗算器アレー32は、各画素同士の乗算を行ない、加算メモリ33は、乗算器アレー32からの乗算結果が供給される加算器アレーとメモリアレーとで構成される。図7は、乗算器アレー32の具体的構成である。図7において、その一つを拡大して示すように、四角のセルが乗算器を表す。乗算器アレー32において各画素同士の乗算が行われ、その結果が加算メモリ33に供給される。
【0036】
加算メモリ33は、図8に示すように、加算器アレー33aとメモリ(またはレジスタ、以下同様)アレー33bとからなる。クラスの個数と等しい個数のメモリアレー33bの並列回路が加算器アレー33aに対して接続されている。インデックスデコーダ35からの出力(クラス)に応答して一つのメモリアレー33bが選択される。また、メモリアレー33bの出力が加算器アレー33aに帰還される。これらの乗算器アレー32、加算器アレー33a、メモリアレー33bによって積和演算がなされる。インデックスによって決定されるクラス毎にメモリアレーが選択されて、積和演算の結果によってメモリアレーの内容が更新される。
【0037】
なお、前述の正規方程式(7)のwi にかかる積和演算の項を見ると、右上の項を反転すると、左下と同じものとなる。従って、(7)式を左上から右下に向かう線によって斜めに分割し、上側の三角形部分に含まれる項のみを演算すれば良い。この点から乗算器アレー32、加算器アレー33a、メモリアレー33bは、図7および図8に示すように、上側の三角形部分に含まれる項を演算するのに必要とされる、乗算セルあるいはメモリセルを備えている。
【0038】
以上のようにして、入力画像が到来するに従って積和演算が行われ、正規方程式が生成される。クラス毎の正規方程式の各項の結果は、クラスとそれぞれ対応するメモリアレー33bに記憶されており、次に図6に示すように、この正規方程式の各項が掃き出し法のCPU演算回路34に計算される。CPUを用いた演算によって正規方程式(連立方程式)が解かれ、最確値である係数が求まる。この係数が出力される。
【0039】
図9は、係数メモリ15および推定値生成回路16の一例の構成である。係数メモリ15は、各クラスの係数組を記憶し、インデックスデコーダ36からのクラス識別信号により選択された係数組を出力する。この係数組w1 〜wn がレジスタをそれぞれ介して乗算器371 〜37n にその一方の入力として供給される。乗算器371 〜37n の他方の入力としては、時系列変換回路38によりまとめられた画素データx1 〜xn が供給される。乗算器371 〜37n の出力が加算器39で加算される。加算器39からは、推定値y(=x1 1 +x2 2 +・・・・+xn n )が得られる。
【0040】
上述のように符号化されたデータを受信あるいは再生し、受信データが図10に示すデコーダに供給される。41で示す入力端子からの受信コードが圧縮符号化のデコーダ43に供給され、42で示す入力端子からの受信係数が係数メモリ44に供給される。係数メモリ44は、クラス分類回路45からのインデックスに応答してクラスと対応する係数を出力する。学習によって得られた係数を変更しない時には、係数メモリ44の内容が変更されない。係数メモリ44の内容は、送信側のものと同一とされることが必要である。係数が推定値生成回路46に供給される。
【0041】
デコーダ43からは、復号差分データが得られ、これが加算器47に供給される。また、リフレッシュ用に挿入されている画素値は、推定値生成回路46に供給され、推定値の生成に用いられる。加算器47は、復号差分値と推定値生成回路46からの推定値とを加算し、復号値を発生する。この復号値が時系列変換回路48および49に供給される。時系列変換回路48は、推定に必要な複数の復号画素データをまとめる。時系列変換回路49は、復号データをテレビジョンのラスター走査の順序に復号データの順序を変換する。出力端子50に復号データが発生する。
【0042】
時系列変換回路48からの復号画素データが推定値生成回路46に供給され、また、クラス分類に必要な復号画素データがクラス分類回路45に供給される。クラス分類回路45は、上述したように、1ビットADRC回路の構成であり、そこからのインデックスが係数メモリ44に供給される。かかる図10に示すデコーダ中の各回路の構成は、エンコーダについて説明したものと同様であり、その説明は、省略する。
【0043】
なお、この発明では、時空間モデルとしては、図1に示すものに限られない。線形1次結合のタップ数を増やすことで、空間的な広がりが増し、誤差を減少できる。もっとも、タップ数の増大は、計算時間の増加をもたらす問題がある。
【0044】
【発明の効果】
以上の説明からも明らかなように、この発明においては、過去のデータのパターンに応じたクラスを形成し、このクラスに対応する係数を算出し、この係数と過去のデータとの線形1次結合によって推定値を作成する。従って、クラス毎に最適な推定値を形成できるので、推定精度が向上し、符号化効率ならびに画質を向上することができる。
【図面の簡単な説明】
【図1】この発明の一実施例における時空間モデルを説明するための略線図である。
【図2】この発明による予測符号化回路の係数を決定するためになされる学習のための構成の一例を示すブロック図である。
【図3】この発明による予測符号化回路の一例のブロック図である。
【図4】この発明による予測符号化回路の他の例のブロック図である。
【図5】クラス分類回路の一例のブロック図である。
【図6】最小二乗法の演算回路の構成を示すブロック図である。
【図7】最小二乗法の演算回路に含まれる乗算器アレーを説明するための略線図である。
【図8】最小二乗法の演算回路に含まれる加算器アレーおよびメモリアレーを説明するための略線図である。
【図9】推定値生成回路の一例のブロック図である。
【図10】この発明による復号装置の一例のブロック図である。
【符号の説明】
3、13 最小二乗法の演算回路
4、14、45 クラス分類回路
5、15、44 係数メモリ[0001]
TECHNICAL FIELD OF THE INVENTION
This invention relates to marks Goka apparatus and decoding apparatus in a digital image signal.
[0002]
[Prior art]
2. Description of the Related Art Predictive coding (also referred to as DPCM), which is one of high-efficiency coding of digital image signals, is known. In the conventional prediction coding, an estimated value is formed by a prediction expression based on horizontal and / or vertical correlation, and a difference value between a true value and the estimated value is quantized. Various prediction methods are known for obtaining the estimated value, but the prediction formula is usually fixed. Further, there is also known an apparatus that performs motion compensation prediction when forming an estimated value.
[0003]
[Problems to be solved by the invention]
When the prediction formula is fixed, the estimation error becomes very large depending on the content of the image, and the coding efficiency is reduced and the coding error is increased. Further, in order to perform motion compensation, it is necessary to detect a motion vector, and there has been a problem that the scale of hardware for that purpose is increased.
[0004]
Accordingly, an object of the present invention, it is possible to improve the estimation accuracy is to provide a mark Goka apparatus and a decoding apparatus capable of improving the coding efficiency and image quality.
[0005]
[Means for Solving the Problems]
According to a first aspect of the present invention, there is provided an encoding apparatus which performs encoding based on a past digital image signal of an input digital image signal,
Estimating means for forming a class according to the pattern distribution of the past digital image signal of the input digital image signal and generating an estimated value of the incoming input digital image signal in a predetermined manner corresponding to the class;
Difference means for forming a difference value between the estimated value and the incoming digital image signal;
Data encoding means for generating encoded data including at least the difference value,
The estimating means is:
Coefficient output means for outputting a coefficient corresponding to each class, calculated by learning for each class based on a digital image signal prepared in advance,
A coding apparatus comprising: generating means for generating an estimated value by calculating a coefficient and an input digital image signal.
[0006]
According to a sixth aspect of the present invention, there is provided a decoding device for receiving and decoding the encoded output of the encoding device. That is, the invention according to claim 6 classifies an input digital image signal into one of a plurality of classes according to its characteristics, and estimates a future digital image signal by a predetermined method corresponding to the class based on the input digital image signal. A decoding device that generates a value, generates a difference value between the estimated value and the value of the future input digital image signal, and decodes encoded data generated by using at least the difference value and the specific digital image signal.
Based on the specified input image signal and the decoded digital image signal, a class corresponding to the specified input image signal and the pattern of the decoded digital image signal is generated. Generating means for generating, as a generated value, a value of an image signal corresponding to the position of the estimated value by a predetermined method;
A decoding unit that generates a decoded image based on the generated value and the difference value.
[0007]
[Action]
An estimated value of a future pixel is formed by a linear linear combination of past spatiotemporal pixel data and coefficients. In this case, the past data is classified into classes, and the optimum coefficient for each class is determined in advance by learning using the least squares method, or is determined while always learning the input image data. A difference value between the estimated value and the true value is transmitted. The decoding side classifies the decoded past image data, generates an estimated value from the class coefficient and the decoded image data, and adds the received difference value and the estimated value to generate a decoded image. You. Since the coefficient is determined for each class, the difference between the estimated value and the actual value can be reduced.
[0008]
【Example】
Hereinafter, a predictive coding apparatus according to the present invention will be described. To facilitate understanding of the present invention, description of an image with a spatiotemporal model will be described first with reference to FIG.
[0009]
In FIG. 1, T1 and T2 indicate two temporally continuous frames, where T1 is a past frame and T2 is a current frame. In these frames, the pixels used for generation of estimates and classification are shown in the figure. A future pixel in the current frame indicated by x is represented by an n-tap linear linear combination model of the pixel value x i and the coefficient w i (i = 1, 2,..., N) shown in FIG. This coefficient is a prediction coefficient. Then, as will be described in more detail below, the square of the error with respect to the true value of the estimated value y of the future pixel represented by a linear linear combination of the pixel value x i and the coefficient w i is minimized. The coefficients are determined by the least squares method. One set of coefficients is determined for each frame and each class.
[0010]
In the example of the spatio-temporal model shown in FIG. 1, n = 16. Prediction value y of the future pixels of the current frame T2 is represented by linear combination w 1 x 1 + w 2 x 2 + ··· + w 16 x 16 input pixels 16 taps. For the coefficient w i in this linear linear combination model, a coefficient that minimizes the residual between the actual value and the estimated value represented by the linear linear combination is obtained.
[0011]
In order to determine the undetermined coefficient w i , the value x i (i = 1,...,..., Of each pixel shown in FIG. 1 when the input image is shifted by one pixel in the spatial direction (horizontal direction and vertical direction). n) and an actual value y j (j = 1,..., m) of the pixel to be predicted are substituted to create an equation of linear linear combination. For example, when obtaining one set of coefficients for one frame, an input image is shifted one pixel at a time, so that a large number of equations, that is, simultaneous equations of the number of pixels (= m) in one frame (referred to as observation equations) ) Is created. In order to determine 16 coefficients, at least (m = 16) simultaneous equations are required. The number m of equations can be appropriately selected in consideration of accuracy and processing time. The observation equation is
XW = Y (1)
It is. Here, X, W, and Y are the following matrices, respectively.
[0012]
(Equation 1)
Figure 0003543339
[0013]
The coefficient w that minimizes the error from the actual value is obtained by the least square method. For this purpose, the following residual equation is created by adding the residual matrix E to the right side of the observation equation. That is, in the least squares method, the square of the elements of the residual matrix E in the residual equation, that is, the coefficient matrix W that minimizes the square error is obtained.
[0014]
(Equation 2)
Figure 0003543339
[0015]
Next, the condition for finding the most probable value of each element w i of the coefficient matrix W from the residual equation (3) is that the m residuals corresponding to the pixels in the block are each squared to minimize the sum thereof. What is necessary is just to satisfy the conditions to perform. This condition is represented by the following equation (4).
[0016]
[Equation 3]
Figure 0003543339
[0017]
undetermined coefficient w 1 is an element of the coefficient matrix W to satisfy this put the n-number of conditions, w 2, ···, you may find a w n. Therefore, from the residual equation (3),
[0018]
(Equation 4)
Figure 0003543339
[0019]
It becomes. If the condition of equation (4) is established for i = 1, 2,..., N),
(Equation 5)
Figure 0003543339
[0021]
Is obtained. From the equations (3) and (6), the following normal equation is obtained.
[0022]
(Equation 6)
Figure 0003543339
[0023]
The normal equation (7) is a simultaneous equation having exactly n unknowns. As a result, the most probable values of the undetermined coefficients w i can be obtained. To be precise, in the formula (7), according to the w i if matrix is regular, can be solved. Actually, the undetermined coefficient w i is obtained by using the Gauss-Jordan elimination method (also called a sweeping method). In this way, one set of coefficients for representing a future pixel is determined in one frame. When learning similar to the above is performed using input images of many frames, the average value of the coefficients determined in each frame or the coefficient of the maximum appearance frequency is stored in the coefficient memory 5.
[0024]
In this embodiment, predictive coding is performed by using a coefficient determined by learning as a prediction coefficient. In this case, a class classification (clustering) of the input image is performed to improve the estimation accuracy. In FIG. 1, pixels indicated by ○ indicate pixels used for the linear primary combination model, and pixels indicated by ◎ indicate pixels used for the model and class classification. That is, four of the sixteen pixels are also used for class classification.
[0025]
If each of the four pixels has 8 bits, the number of combinations of the values of the four pixels becomes very large, and it cannot be said that the classification is realistic. Therefore, as described later, the number of bits of each of the four pixels is compressed by encoding. More specifically, each pixel is compressed into a 1-bit code by ADRC (encoding adapted to a dynamic range). As a result, 2 4 = 16 classes may be handled. The code indicating the class is called an index. Not limited to ADRC, the number of bits of a pixel can be reduced by vector quantization. Further, the most significant bits of each pixel may be collected and used as an index. As described above, classifying the four pixels in the vicinity of the predicted pixel by the 4-bit code normalized to 1 bit respectively requires performing the class classification according to the approximate pattern shape of the change in the spatio-temporal of the image. Means
[0026]
FIG. 2 shows an example of a configuration for learning. In FIG. 2, input image data is supplied to an input terminal indicated by 1. As the input image data, a large number of still image data of different patterns are preferable. The input image data is supplied to a time-series conversion circuit 2 and a least-squares method operation circuit 3. The time-series conversion circuit 2 synchronizes a plurality of pixel data used for the linear primary combination model and the class classification in the input image data of the raster scan.
[0027]
The output data of the time series conversion circuit 2 is supplied to the arithmetic circuit 3 and the class classification circuit 4. The classifying circuit 4 generates an index corresponding to a three-dimensional change of the image as described above. This index is supplied to the arithmetic circuit 3. The arithmetic circuit 3 determines one set of coefficients w i for each class indicated by the index by the above-mentioned least squares algorithm for the spatiotemporal model shown in FIG. This coefficient is stored in the coefficient memory 5.
[0028]
FIG. 3 shows an exemplary configuration of an encoder for predictive coding according to the present invention. In FIG. 3, a coefficient memory indicated by 15 stores coefficients obtained by the above-described learning for each class. The input image data from the input terminal 11 is supplied to the time series conversion circuit 12, and the output data is supplied to the class classification circuit 14 and the estimated value generation circuit 16. As shown in FIG. 1, the time-series conversion circuit 12 collectively outputs pixels sequentially transmitted in the past and pixels transmitted in the future as a group, and simultaneously outputs the pixel data input in the raster scanning order. The class classification circuit 14 is supplied with data of four pixels used for class classification. The index from the class classification circuit 14 is supplied to the coefficient memory 15, and a set of coefficients corresponding to the class is read from the memory 15.
[0029]
The read coefficient is supplied to the estimated value generation circuit 16, and an estimated value is generated using the pixel data from the time series conversion circuit 12. This estimated value is supplied to the subtraction circuit 18. As another input of the subtraction circuit 18, input image data via the delay circuit 17 is supplied. The time series conversion circuit 12, the class classification circuit 14, the coefficient memory 15, and the estimated value generation circuit 16 constitute a local decoder. The subtraction circuit 18 generates a difference value between the true value (actual data) and the estimated value.
[0030]
This difference value is encoded by an encoder 19 for compression encoding, and an encoded output (code) is taken out to an output terminal 20. As an example of the compression encoding, after the number of bits is reduced by adaptive quantization, entropy encoding is performed using a Huffman code obtained in advance based on the probability of occurrence. Further, the pixel value itself is supplied to the encoder 19 for refreshing, and the pixel value is inserted for each predetermined transmission data. Other types of compression encoding can be employed. For example, after blocking the difference values, orthogonal transformation such as DCT transformation may be performed, and entropy coding may be performed. The compression encoded output is transmitted or recorded.
[0031]
In the example of FIG. 3, versatile coefficients obtained by learning performed in advance are used. The encoder shown in FIG. 4 has a configuration in which the coefficient can be updated in association with the input image. That is, the same least-squares arithmetic circuit 13 as that for learning is provided, and the coefficient memory 15 can be updated with the coefficient from the arithmetic circuit 13. More specifically, the index from the class classification circuit 14 is supplied to the arithmetic circuit 13 and the coefficient memory 15, the input image data is supplied to the arithmetic circuit 13, and the definite coefficient from the arithmetic circuit 13 is stored in the coefficient memory 15. Supplied. The configuration may be such that the coefficient is updated based on the result of learning not only for each frame of the input image but also for a considerably large number of frames. Alternatively, a coefficient previously determined by learning may be stored in the coefficient memory of FIG. 4 and may be changed according to the input image. In the example of FIG. 4, since the content of the coefficient memory 15 changes, it is necessary to transmit the coefficient data taken out to the output terminal 21 together with the code. In the configuration of FIG. 4, the arithmetic circuit 13 of the least squares method may be selectively operated.
[0032]
Next, a more detailed configuration of each circuit used in learning and in the encoder will be described. FIG. 5 is an example of the classifying circuits 4 and 14. Input image data (data of four pixels) is sequentially supplied to the 1-bit ADRC circuit 27. The ADRC circuit 27 detects the maximum value and the minimum value of the values of the four pixels, and detects the dynamic range DR that is the difference between the maximum value and the minimum value. The value of each pixel is divided by the dynamic range DR. The quotient is compared with 0.5, and a code of `1` is formed when the quotient is 0.5 or more, and a code of` 0` is formed when the quotient is less than 0.5.
[0033]
The ADRC circuit 27 compresses the value of each pixel into one bit (`0 'or` 1'). The output of the ADRC circuit 27 is serial-parallel converted by the shift register 28. One-bit L1, L2, L3, and L4 from the shift register 28 are stored in the register 29. These 4 bits (L1, L2, L3, L4) are an index.
[0034]
FIG. 6 shows a more detailed configuration of the arithmetic circuits 3 and 13 of the least squares method. Input digital image signal is supplied, data constituting the space-time model, namely, in time series conversion circuit 31 for synchronizing the data x i to be used for actual data y and linear combination of the target pixel is provided I have. Data from the time series conversion circuit 31 is supplied to the multiplier array 32. An addition memory 33 is connected to the multiplier array 32. The index is supplied to the decoder 35, and the class information from the decoder 35 is supplied to the addition memory 33. The multiplier array 32 and the addition memory 33 constitute a normal equation generation circuit.
[0035]
The multiplier array 32 multiplies each pixel, and the addition memory 33 includes an adder array to which the multiplication result from the multiplier array 32 is supplied and a memory array. FIG. 7 shows a specific configuration of the multiplier array 32. In FIG. 7, as one of them is shown in an enlarged manner, a square cell represents a multiplier. In the multiplier array 32, multiplication of each pixel is performed, and the result is supplied to the addition memory 33.
[0036]
As shown in FIG. 8, the addition memory 33 includes an adder array 33a and a memory (or register, hereinafter the same) array 33b. A parallel circuit of the memory arrays 33b having the same number as the number of classes is connected to the adder array 33a. One memory array 33b is selected in response to the output (class) from the index decoder 35. The output of the memory array 33b is fed back to the adder array 33a. A product-sum operation is performed by the multiplier array 32, the adder array 33a, and the memory array 33b. A memory array is selected for each class determined by the index, and the contents of the memory array are updated according to the result of the product-sum operation.
[0037]
In addition, looking at the term of the product-sum operation concerning w i in the above-described normal equation (7), when the term in the upper right is inverted, the term becomes the same as that in the lower left. Therefore, equation (7) may be diagonally divided by a line from upper left to lower right, and only the terms included in the upper triangular portion may be calculated. From this point, the multiplier array 32, the adder array 33a, and the memory array 33b are, as shown in FIGS. 7 and 8, a multiplier cell or a memory required to calculate a term included in the upper triangular portion. It has a cell.
[0038]
As described above, the product-sum operation is performed as the input image arrives, and a normal equation is generated. The result of each term of the normal equation for each class is stored in the memory array 33b corresponding to each class. Next, as shown in FIG. 6, each term of this normal equation is sent to the CPU arithmetic circuit 34 of the sweeping method. Is calculated. The normal equation (simultaneous equation) is solved by the calculation using the CPU, and the coefficient that is the most probable value is obtained. This coefficient is output.
[0039]
FIG. 9 shows an example of the configuration of the coefficient memory 15 and the estimated value generation circuit 16. The coefficient memory 15 stores a coefficient set of each class, and outputs a coefficient set selected by the class identification signal from the index decoder 36. The coefficient sets w 1 to w n are supplied as one input to multipliers 37 1 to 37 n via registers. As the other inputs of the multipliers 37 1 to 37 n , pixel data x 1 to x n compiled by the time series conversion circuit 38 are supplied. The output of the multiplier 37 1 to 37 n are added by an adder 39. From the adder 39, an estimated value y (= x 1 w 1 + x 2 w 2 +... + X n w n ) is obtained.
[0040]
The data encoded as described above is received or reproduced, and the received data is supplied to the decoder shown in FIG. A reception code from an input terminal indicated by 41 is supplied to a decoder 43 for compression encoding, and a reception coefficient from an input terminal indicated by 42 is supplied to a coefficient memory 44. The coefficient memory 44 outputs a coefficient corresponding to the class in response to the index from the class classification circuit 45. When the coefficient obtained by learning is not changed, the contents of the coefficient memory 44 are not changed. The contents of the coefficient memory 44 need to be the same as those on the transmitting side. The coefficients are supplied to the estimated value generation circuit 46.
[0041]
Decoded difference data is obtained from the decoder 43 and supplied to the adder 47. The pixel value inserted for refreshing is supplied to the estimated value generation circuit 46 and used for generating an estimated value. The adder 47 adds the decoded difference value and the estimated value from the estimated value generation circuit 46 to generate a decoded value. The decoded value is supplied to time series conversion circuits 48 and 49. The time series conversion circuit 48 collects a plurality of pieces of decoded pixel data necessary for the estimation. The time-series conversion circuit 49 converts the order of the decoded data into the order of raster scanning of the television. Decoded data is generated at the output terminal 50.
[0042]
The decoded pixel data from the time series conversion circuit 48 is supplied to the estimated value generation circuit 46, and the decoded pixel data necessary for class classification is supplied to the class classification circuit 45. As described above, the class classification circuit 45 has a configuration of a 1-bit ADRC circuit, and an index from the ADRC circuit is supplied to the coefficient memory 44. The configuration of each circuit in the decoder shown in FIG. 10 is the same as that described for the encoder, and a description thereof will be omitted.
[0043]
In the present invention, the spatiotemporal model is not limited to the one shown in FIG. By increasing the number of taps of the linear linear combination, the spatial spread increases, and the error can be reduced. However, there is a problem that the increase in the number of taps increases the calculation time.
[0044]
【The invention's effect】
As is clear from the above description, in the present invention, a class is formed according to the pattern of past data, a coefficient corresponding to this class is calculated, and a linear linear combination of this coefficient and past data is formed. Creates an estimate. Therefore, since an optimum estimated value can be formed for each class, the estimation accuracy is improved, and the coding efficiency and the image quality can be improved.
[Brief description of the drawings]
FIG. 1 is a schematic diagram illustrating a spatiotemporal model according to an embodiment of the present invention.
FIG. 2 is a block diagram showing an example of a configuration for learning performed to determine coefficients of a predictive coding circuit according to the present invention.
FIG. 3 is a block diagram of an example of a predictive coding circuit according to the present invention.
FIG. 4 is a block diagram of another example of the predictive coding circuit according to the present invention.
FIG. 5 is a block diagram illustrating an example of a class classification circuit.
FIG. 6 is a block diagram showing a configuration of an arithmetic circuit of the least squares method.
FIG. 7 is a schematic diagram for explaining a multiplier array included in a least-squares method operation circuit;
FIG. 8 is a schematic diagram for explaining an adder array and a memory array included in a least-squares method operation circuit;
FIG. 9 is a block diagram illustrating an example of an estimated value generation circuit.
FIG. 10 is a block diagram of an example of a decoding device according to the present invention.
[Explanation of symbols]
3, 13 Least-squares arithmetic circuit 4, 14, 45 Class classification circuit 5, 15, 44 Coefficient memory

Claims (6)

入力ディジタル画像信号の過去のディジタル画像信号に基づいて符号化を行なう符号化装置において、
上記入力ディジタル画像信号の過去のディジタル画像信号のパターン分布に応じたクラスを形成し、上記クラスに対応した所定の方式で、到来する上記入力ディジタル画像信号の推定値を生成する推定手段と、
上記推定値と上記到来する入力ディジタル画像信号との間の差分値を形成する差分手段と、
上記差分値を少なくとも含む符号化データを生成するデータ符号化手段とを有し、
上記推定手段は、
予め用意されたディジタル画像信号に基づいて上記クラス毎の学習により算出された、上記各クラスに応じた係数を出力する係数出力手段と、
上記係数と上記入力ディジタル画像信号との演算により、上記推定値を生成する生成手段とを有することを特徴とする符号化装置。
In an encoding device that performs encoding based on a past digital image signal of an input digital image signal,
Estimating means for forming a class according to the pattern distribution of past digital image signals of the input digital image signal, and generating an estimated value of the incoming input digital image signal in a predetermined manner corresponding to the class;
Difference means for forming a difference value between the estimated value and the incoming input digital image signal,
Data encoding means for generating encoded data including at least the difference value,
The estimating means includes:
Coefficient output means for outputting a coefficient corresponding to each class, calculated by learning for each class based on a digital image signal prepared in advance,
A coding device, comprising: generating means for generating the estimated value by calculating the coefficient and the input digital image signal.
上記学習は、最小二乗法によって上記各クラス応じた係数を算出することを特徴とする請求項1に記載の符号化装置。The encoding device according to claim 1, wherein the learning calculates a coefficient corresponding to each of the classes by a least square method. 上記データ符号化手段は、
上記係数と上記差分値とを少なくとも含む符号化データを生成することを特徴とする請求項1に記載の符号化装置。
The data encoding means includes:
The encoding device according to claim 1, wherein encoded data including at least the coefficient and the difference value is generated.
入力ディジタル画像信号の過去のディジタル画像信号に基づいて符号化を行なう符号化装置において、
上記入力ディジタル画像信号の過去のディジタル画像信号のパターン分布に応じたクラスを形成し、上記クラスに対応した所定の方式で、到来する上記入力ディジタル画像信号の推定値を生成する推定手段と、
上記推定値と上記到来する入力ディジタル画像信号との間の差分値を形成する差分手段と、
上記差分値を少なくとも含む符号化データを生成するデータ符号化手段とを有し、
上記推定手段は、
上記入力ディジタル画像信号に基づいて上記クラス毎の学習により算出された、上記各クラスに応じた係数を出力する係数出力手段と、
上記係数と上記入力画像信号との演算により、上記推定値を生成する生成手段とを有することを特徴とする符号化装置。
In an encoding device that performs encoding based on a past digital image signal of an input digital image signal,
Estimating means for forming a class according to the pattern distribution of past digital image signals of the input digital image signal, and generating an estimated value of the incoming input digital image signal in a predetermined manner corresponding to the class;
Difference means for forming a difference value between the estimated value and the incoming input digital image signal,
Data encoding means for generating encoded data including at least the difference value,
The estimating means includes:
Coefficient output means for outputting a coefficient corresponding to each class, calculated by learning for each class based on the input digital image signal,
An encoding device comprising: a generation unit configured to generate the estimated value by calculating the coefficient and the input image signal.
上記データ符号化手段は、
上記係数と上記差分値とを少なくとも含む符号化データを生成することを特徴とする請求項4に記載の符号化装置。
The data encoding means includes:
The encoding device according to claim 4, wherein encoded data including at least the coefficient and the difference value is generated.
入力ディジタル画像信号をその特徴に応じて複数のクラスの一つに分類し、上記入力ディジタル画像信号に基づき上記クラスに対応した所定の方式で未来のディジタル画像信号の推定値を生成し、上記推定値と未来の上記入力ディジタル画像信号の値との差分値を生成し、上記差分値と特定の上記ディジタル画像信号を少なくとも用いることで生成された符号化データを復号する復号装置において、
上記特定された入力画像信号と復号化された上記ディジタル画像信号とに基づいて、上記特定された入力画像信号と復号化された上記ディジタル画像信号のパターンに応じたクラスを生成し、上記クラスに応じた、学習により定められた所定の方式により、上記推定値の位置に相当する画像信号の値を生成値として生成する生成手段と、
上記生成値と上記差分値に基づいて、復号画像を生成する復号手段とを有することを特徴とする復号装置。
Classifying the input digital image signal into one of a plurality of classes according to its characteristics, generating an estimated value of a future digital image signal by a predetermined method corresponding to the class based on the input digital image signal, and A decoding device that generates a difference value between the value and the value of the input digital image signal in the future, and decodes the encoded data generated by using at least the difference value and the specific digital image signal.
Based on the specified input image signal and the decoded digital image signal, a class corresponding to the specified input image signal and the pattern of the decoded digital image signal is generated. Generating means for generating a value of the image signal corresponding to the position of the estimated value as a generated value, according to a predetermined method determined by learning,
A decoding device, comprising: decoding means for generating a decoded image based on the generated value and the difference value.
JP18443493A 1993-06-29 1993-06-29 Encoding device and its decoding device Expired - Lifetime JP3543339B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP18443493A JP3543339B2 (en) 1993-06-29 1993-06-29 Encoding device and its decoding device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP18443493A JP3543339B2 (en) 1993-06-29 1993-06-29 Encoding device and its decoding device

Publications (2)

Publication Number Publication Date
JPH0785287A JPH0785287A (en) 1995-03-31
JP3543339B2 true JP3543339B2 (en) 2004-07-14

Family

ID=16153091

Family Applications (1)

Application Number Title Priority Date Filing Date
JP18443493A Expired - Lifetime JP3543339B2 (en) 1993-06-29 1993-06-29 Encoding device and its decoding device

Country Status (1)

Country Link
JP (1) JP3543339B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69719740T2 (en) * 1996-12-26 2004-02-05 Sony Corp. DEVICE AND METHOD FOR IMAGE SIGNAL ENCODING AND DECODING AND RECORDING MEDIUM
JP4591767B2 (en) * 2005-02-28 2010-12-01 ソニー株式会社 Encoding apparatus and method, decoding apparatus and method, image processing system, recording medium, and program
JP4662171B2 (en) * 2005-10-20 2011-03-30 ソニー株式会社 Encoding apparatus and method, decoding apparatus and method, program, and recording medium

Also Published As

Publication number Publication date
JPH0785287A (en) 1995-03-31

Similar Documents

Publication Publication Date Title
KR0171118B1 (en) Apparatus for encoding video signal
KR0178231B1 (en) Method and apparatus for detecting motion vectors based on hierarchical motion estimation
KR100209793B1 (en) Apparatus for encoding/decoding a video signals by using feature point based motion estimation
EP0734165A2 (en) Image processing system using pixel-by-pixel motion estimation and frame decimation
JP3572632B2 (en) Anomaly detection device
JP4552261B2 (en) Digital information conversion apparatus and method, and image information conversion apparatus and method
JPH0795591A (en) Digital picture signal processing unit
JP3543339B2 (en) Encoding device and its decoding device
JP3946781B2 (en) Image information conversion apparatus and method
JPH07154642A (en) Digital picture signal processor
JP3271095B2 (en) High-efficiency encoder and decoder for digital image signal
JP3175914B2 (en) Image encoding method and image encoding device
JP3703034B2 (en) Image signal processing method and image signal transmission apparatus
JP3759537B2 (en) Image signal transmission apparatus and image signal transmission method
JPH04248789A (en) Method of estimating movement in image-sensed picture
JP3743077B2 (en) Image signal conversion apparatus and method
JP4140091B2 (en) Image information conversion apparatus and image information conversion method
JP3759538B2 (en) Image signal processing method and image signal transmission apparatus
JP3271096B2 (en) Digital image signal processing device
JP4552262B2 (en) Noise reduction apparatus and method
JP3627258B2 (en) High-efficiency encoding and decoding apparatus for digital image signals
KR0152014B1 (en) Method and apparauts for moving estimation in image data compression
JP3480015B2 (en) Apparatus and method for generating image data
JP2001231017A (en) Absolute image quality evaluation method using electronic watermark, coding method for it, and coder
JP3695006B2 (en) Signal processing apparatus and method

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20031218

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20031225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040316

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040329

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080416

Year of fee payment: 4

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090416

Year of fee payment: 5

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090416

Year of fee payment: 5

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100416

Year of fee payment: 6

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100416

Year of fee payment: 6

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110416

Year of fee payment: 7

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120416

Year of fee payment: 8

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120416

Year of fee payment: 8

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130416

Year of fee payment: 9

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130416

Year of fee payment: 9

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140416

Year of fee payment: 10

EXPY Cancellation because of completion of term