JPH06164902A - ニューラルネットワークによる画像の圧縮再生 - Google Patents

ニューラルネットワークによる画像の圧縮再生

Info

Publication number
JPH06164902A
JPH06164902A JP4307355A JP30735592A JPH06164902A JP H06164902 A JPH06164902 A JP H06164902A JP 4307355 A JP4307355 A JP 4307355A JP 30735592 A JP30735592 A JP 30735592A JP H06164902 A JPH06164902 A JP H06164902A
Authority
JP
Japan
Prior art keywords
neuron
equation
neural network
image
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4307355A
Other languages
English (en)
Inventor
Munemitsu Ikegami
宗光 池上
Mamoru Tanaka
衞 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP4307355A priority Critical patent/JPH06164902A/ja
Publication of JPH06164902A publication Critical patent/JPH06164902A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/002Image coding using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

(57)【要約】 【目的】 スパースなホップフィールド(H)型ニュー
ラルネットによる画像の圧縮再生処理に関し、復号され
た画像の質を高めることを目的とする。 【構成】 各ニューロンが複数レベルの出力を持つニュ
ーラルネットであって、あるニューロンの近傍ニューロ
ンの出力値の加重平均量を、そのニューロンに入力する
変数量にダイナミックに近付けるダイナミック量子化手
段と、その符号化用のニューラルネットから出力される
情報に対して、各ニューロンは周囲の前記情報の加重平
均値を出力して画像を復号化する手段を有する。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、生物の脳や神経と同様
な情報処理プロセスを人工的に実現しようとするニュー
ロコンピュータに係り、さらに詳しくは、スパースなホ
ップフィールド(H)型ニューラルネットによる画像の
圧縮再生処理に関する。
【0002】
【従来の技術】従来、濃淡画像を2値化する方法とし
て、ディザ法と誤差拡散法があったが、例えば、ピクセ
ルあたり8ビットの濃淡画像であれば、これらの方法
は、静止画を対象とし、圧縮率は、1/8とする方式で
ある。
【0003】最近、画像処理にニューラルネットを使う
試みが出てきた。ニューロコンピュータを実現するため
の基本回路網が、ニューラルネットワーク(NN)であ
る。一般に、NNのダイナミクスの基本式は、 x(t+1)=f(Σ W x(t)) で表現される。ここで、xはニューロンの状態ベクト
ル,Wは重み行列,fは非線形関数である。
【0004】ホップフィールド(H)型ニューラルネッ
ト(NN)では、ニューロンが他の全てのニューロンと
結合しているため、結合行列(重み行列)はほぼ密行列
となる。連想の対象となるプローブベクトルが初期状態
として外部から与えられると、ネットワークは上式に従
って変化し、ある状態に収束したときこのベクトルが連
想されたベクトルになる。
【0005】スパースなニューラルネットでは、局所記
憶、すなわち、内部に認知細胞を空間的に分離するよう
に2次元的にニューロンを並べてできる神経場のダイナ
ミクスで興味深い情報処理、例えば、濃淡画像を2値化
し、そしてまた、濃淡に再生する処理を行うことが重要
となる。
【0006】
【発明が解決しようとする課題】従来のホップフィール
ド型では、ニューロン間が予め完全グラフで接続され、
配線が複雑となる。
【0007】そこで、本発明は、スパースなH型ネット
とその双対ネットの局所記憶に基づく連想ダイナミクス
を積極的に利用して興味深い画像処理を行うものであ
る。画像の圧縮側において、あるニューロンの近傍ニュ
ーロンの出力の2値の平均的な量を、そのニューロンに
入力する変数量にダイナミックに近付けるダイナミック
量子化による圧縮手段を用いて高度に動画または静止画
を圧縮(例えば、ピクセルあたり8ビットの濃淡画像で
あれば、圧縮率は、1/8)し、再生側で、その圧縮さ
れた情報を用いて加重平均を求めることにより画像を再
生する。
【0008】本発明では、復号された画像の質を高める
ことを目的とする。
【0009】
【課題を解決するための手段】本発明は、各ニューロン
が複数レベルの出力を持つニューラルネットであって、
あるニューロンの近傍ニューロンの出力値の加重平均量
を、そのニューロンに入力する変数量にダイナミックに
近付けるダイナミック量子化手段と、その符号化用のニ
ューラルネットから出力される情報に対して、各ニュー
ロンは周囲の前記情報の加重平均値を出力して画像を復
号化する手段を有する。
【0010】
【作用】1つのニューロンに複数の状態を与えることに
より、ニューロンに離散値を表現させる。ここで述べる
ネットワークは、各ニューロンが複数レベルの出力を持
つ多値ニューラルネットワークにおけるニューロンの出
力yは、[−1,1]の区間内のn(>=2)レベルの
離散値で、各レベルは等間隔とする。各ニューロンを次
のアルゴリズムにしたがってランダムかつ非同期に動作
させる。
【0011】
【数2】
【0012】行列A=[Ai j ]は対称で、安定の為、
対角成分Ai i は0とする。f(x)はxをn個の離散
値レベルに変換する非線形関数である。
【0013】
【実施例】<ニューラルネットワーク>接続が対称なニ
ューラルネットワークは非線形出力関数を用いたニュー
ロンにより構成されており、エネルギー関数を単調に減
少させながら、常に安定状態に収束する。この性質を用
いて、ニューラルネットワークにより最適化問題を解く
ことができる。ネットワークにはニューロンの出力関数
にステップ関数を用いたOriginal Model
とシグモイド関数を用いたContinuosMode
lが、ホップフィールドにより提案されている。Ori
ginal Modelはニューロンの出力が2つの値
に限定されており、安定のため、各ニューロンを非同期
で動作させる必要がある。
【0014】それに対して、Continuos Mo
delでは出力が連続値を取るため、Original
Modelに比べて、幾つかの局所解を避けることが
でき、より良い解に収束する。しかし、ニューロンの相
互作用がスパースであれば、Original Mod
elでも、十分な解が得られる。ここでは、多値ニュー
ラルネットワークの拡張のため、OriginalMo
delについて説明するが、ニューロンの出力を2値に
限定する限り、どちらのModelを用いてもよい。
【0015】Original modelでは、ニュ
ーロンの出力は2つの値{y0,y1}のみをとる。次
のアルゴリズムにしたがって、各ニューロンをランダム
かつ非同期に(1)(2)式にしたがって動作させる。
【0016】
【数3】
【0017】ニューロンiからニューロンjへの重みを
あらわしている行列A=[Ai j ]は対称で、安定の
為、対角成分Ai i は0とする。このモデルのエネルギ
ー関数は(3)式で定義される。
【0018】
【数4】
【0019】行列Aが対称で、対角成分が0であれば、
ネットワークは常にある局所解に収束することが証明さ
れている。より良い解に収束させるため、ニューロンの
初期値はランダムに与える。
【0020】ニューラルネットワークを最適化問題に適
用する場合、与えられた問題のコスト関数をニューラル
ネットワークのエネルギー関数の形で表現し、係数を比
較することにより、ネットワークのパラメータを決定す
ることができる。例えば、(4)式のようなコスト関数
を定義した場合、入力uは定数であるから、dist
(y, u)の最小化すべき量は、(5)式のようにな
る。
【0021】
【数5】
【0022】また、ニューラルネットワークのエネルギ
ー関数を同様に表記すると(6)式であるから、(5)
式と(6)式の係数を比較することにより、ネットワー
クのパラメータを(7)(8)(9)式で決定すること
ができる。
【0023】
【数6】
【0024】ここで、d=diag{T(Q)Q}とす
る。T()は、転置を表す。コスト関数dist(y,
u)における行列T(Q)Qの対角成分は0でないにも
かかわらず、安定のため、ネットワークの行列Aの対角
成分を、強制的に0にする必要がある。このようにして
も、ネットワークはエネルギー関数E(t)を単調減少
させるとともにdist(y,u)も単調に減少させ
る。 証明:(6)式に(9)式のネットワークのパラメータ
を代入して、変形すると、(10)式となる。
【0025】
【数7】
【0026】ニューロンの2つの出力yが{α,−α}
であれば、式(10)の最終項−(1/2)δT(y)
yは常に定数であるから、任意のQ及びRについて、d
ist(y,u)(5)式も単調減少であるといえる。 証明終 もし、yは、aあるいは、0を値としてとる場合には、
式(10)の最終項は常に定数とならない。この場合に
は、出力yがどちらの値をとったとしてもE(t)が変
化しないように式を変更する必要がある((11)
式)。
【0027】
【数8】
【0028】この場合には、ネットワークにI=−(1
/2)δαのバイアスをかける。この考え方は、Con
tinuous Modelで、出力を両端の値に収束
させるために用いられるものであるが、Origina
l Modelにおいても必要となる。 <Multi−value Neural Netwo
rk>ホップフィールド型のニューラルネットワークに
より最適化問題を解く場合において、コスト関数におけ
る離散値を表現するには、普通、発火しているニューロ
ンの数などを用いる。ここでは、1つのニューロンに複
数の状態を与えることにより、ニューロンに離散値を表
現させることができることを示す。
【0029】ここで述べるネットワークは、各ニューロ
ンが複数レベルの出力を持ち、ここでは、これを多値ニ
ューラルネットワークと呼ぶことにする。ニューロンの
非線形出力関数を除いては、基本的に前のセクションで
述べたOriginal Modelと同様である。
【0030】多値ニューラルネットワークにおけるニュ
ーロンの出力yは、[−1,1]の区間内のn(>=
2)レベルの離散値で、各レベルは等間隔とする((1
1a)式)。
【0031】
【数9】
【0032】例えば、n=4の時、yは(11b)式の
ようになる。
【0033】
【数10】
【0034】各ニューロンを(12)式のアルゴリズム
にしたがってランダムかつ非同期に動作させる。
【0035】
【数11】
【0036】行列A=[Ai j ]は対称で、安定の為、
対角成分Ai i は0とする。f(x)はxをn個の離散
値レベルに変換する非線形関数で、(13)(14)式
で表される。
【0037】
【数12】
【0038】ここで、関数g(x)は量子化ステップを
Dとする一様(直線)量子化関数であり、δ={(n−
1)/2}D、δ0=(n/2)Δ[ ]は、ガウス記
号である。図1と図2に、それぞれ、n=3とn=4の
場合のf(x)を示す。したがって、1つ1つのニュー
ロンをA/D変換器とみなすこともできる。
【0039】多値ニューラルネットワークでは、ニュー
ロンの出力が多数の状態を持つためエネルギー関数とし
てLyapunov functionを適用すること
はできない。そこで、多値ニューラルネットワークのエ
ネルギー関数E(t)を(15)式のように定義する。
【0040】
【数13】
【0041】δは、非線形関数f(x)の定義に用いら
れたパラメータである。Lyapunov funct
ionでは、行列{A}の対角成分は0であるが、ここ
でのエネルギー関数E(t)は、Lyapunov f
unctionに大きさδの対角成分を加えた形になっ
ている。
【0042】E(t)が単調減少な関数であることを証
明する。時刻tにおいて、ニューロンiの状態y
i (t)が変化したとする。その時の変化量は、Δyi
=yi (t)−yi (t−1)。ニューロンiが変化し
たことによるE(t)の変化量ΔEは(16)式であ
る。
【0043】
【数14】
【0044】ここで、関数E(t)の最終項については
(17)式である。
【0045】
【数15】
【0046】(16式)式において{yi (t−1)+
(1/2)Δyi }は,ニューロンiの出力が、y
i (t−1)→yi (t)に変位するちょうど中間点で
あり、これをx軸上に写像したものが、δ{yi (t−
1)+(1/2)Δyi }である。Δyi <0の時、ア
ルゴリズムに従えば、(16)式の括弧内は負となる
((17a)式)。
【0047】
【数16】
【0048】同様に、Δyi >0の時は、括弧内は正と
なる。よって、ΔE<=0であり、E(t)は常に単調
減少となる。E(t)が有界で、単調減少な関数である
ことから、多値ニューラルネットワークは常に安定状態
に収束する。したがって、ネットワークを多値に拡張し
ても、常に単調減少となるエネルギー関数を定義するこ
とができるので、これを最適化問題に適用することが可
能である。前のセクションで述べたOriginal
Modelも、n=2の場合の多値ニューラルネットワ
ークと考えることができる。
【0049】多値ニューラルネットワークを最適化問題
に適用する場合のパラメータの決め方は次のようにな
る。最適化問題におけるコスト関数を(18)式のよう
に定義する。
【0050】
【数17】
【0051】dist(y,u)における最小化すべき
量は(19)式であり、式(18)と式(19)を比較
することによりネットワークの各パラメータを決定す
る。
【0052】
【数18】
【0053】d=diag{T(Q)Q}とすると、
(20)(21)(22)(23)式のようになる。
【0054】
【数19】
【0055】Original Modelでは、コス
ト関数の対角成分を強制的に0とするだけで、常にコス
ト関数が単調減少となったが、多値ニューラルネットワ
ークでは、最小化すべきコスト関数dist(y,u)
の対角成分を、量子化関数f(x)におけるxiの値と
して使用する必要がある。この時、エネルギー関数E
(t)とコスト関数dist(y,u)は同値となり、
ネットワークが安定状態に収束した時、コスト関数di
st(y,u)を小さくする出力yを得ることができ
る。
【0056】もし、量子化レベルに{0,1}の範囲の
yを用いる場合には、(23a)式のようになる。
【0057】
【数20】
【0058】Original Modelの場合と同
様に、ネットワークにI=−(1/2)δのバイアスを
かけ、さらに、量子化関数f(x)を、(24)(2
5)式のようにする。
【0059】
【数21】
【0060】<Image Coding and D
ecoding>データ圧縮としての静止画像の符号化
について考える。ここでの符号化は、元の信号とデジタ
ル信号との間での何らかの歪み関数を定義し、これが最
小化されるデジタル信号の組合せを求めることにより行
なう。そこで、出力されるデジタル画像yに線形フィル
ターHを畳み込んだものと元の濃淡画像uとの平均自乗
誤差、つまり、(26)式のような歪関数を定義する。
【0061】
【数22】
【0062】この歪み関数dist(y,u)が最小化
された時、(27)式のようになることより、(28)
式により、元の濃淡画像uに近い復号画像Uを求めるこ
とができる。
【0063】
【数23】
【0064】歪み関数を最小化した時の値が0でない場
合には、完全に元の画像を復号することはできないが、
この値を小さい値に抑えることにより、良質の符号化を
行なうことができる。したがって、ここでの符号化は、
この歪み関数の最小値がより小さくなるように線形フィ
ルターHを選ぶことが重要となる。歪み関数を最小化す
る量子化レベルの組合せを求めることは、一種の最適化
問題であり、この最適化問題を解くのに多値ニューラル
ネットワークを使用する。
【0065】濃淡画像が、M×Nの大きさである時、M
×N個のニューロンを画素と同様に2次元の格子状に配
置し、濃淡画像の各画素値を、[−1,1]の区間内の
対応する値に正規化して、ニューロンの入力uに与え
る。ニューロンの入力をui j(0<=i<M;0<=
j<N)、出力をyi j (0<=i<M;0<=j<
N)とすると、2次元の場合のニューロンの動作は(2
9)式のように定義される。
【0066】
【数24】
【0067】(26)式の歪み関数dist(y,u)
において、最小化すべき量は(31)式であるから、ネ
ットワークのパラメータは(32)(33)(34)
(35)式のようになる。
【0068】
【数25】
【0069】ここで、T(H)Hは、H=
[hi j m n ]自身のコンボリューションで、(36)
式で表される。
【0070】
【数26】
【0071】<Another Distortion
for Image Halftoning>我々は
ここで、別の歪み関数(36)式を定義する。歪み関数
dist(y,u)が最小化された時、(37)式とな
るので、元の入力画像uに近い復号画像Uを(38)式
により得ることができる。
【0072】
【数27】
【0073】線形フィルターHは任意の行列Q自身を畳
み込んで得られるものでなくてはならない。この時、d
ist(y,u)の最小化すべき量が、(40)式であ
るから、ネットワークのパラメータは(41)(42)
(43)(44)式のようになる。
【0074】
【数28】
【0075】行列Bは単位行列Iとなる。ネットワーク
が収束した時、ニューロン(i,j)について、次の2
つの誤差を定義する((45)(46)(47)式)。
【0076】
【数29】
【0077】ニューロンはei j を非線形関数f(x)
により出力yに変換する。また、e′i j は、復号画像
Hyと元の画像uとの各ニューロンでの誤差となるの
で、各ニューロンにおいて|e′i j |が小さくなるよ
うに出力yが決めれるべきである。−δ0<ei j <δ
0ならば、非線形関数f(x)の定義により、(48)
式であるから、g(x)が一様量子化関数であることよ
り、誤差e′は量子化ステップDの半分に抑えられてい
ることになる((49)式)。
【0078】
【数30】
【0079】<Template synthesis
>濃淡画像の2値化は、2値しか表示できないディスプ
レイやプリンターに疑似濃淡を表示する場合に必要とな
る。このような用途においては、歪み関数のフィルター
Hは、人間の視覚特性にしたがって決定されるべきであ
る。
【0080】しかし、データ圧縮のための濃淡画像の符
号化においては、元の信号を復号する必要があるため、
ネットワークの収束時における歪み関数dist(y,
u)の最小値がより小さくなるようなフィルターHを定
義する必要がある。ネットワークが収束した時、復号画
像Uと元の画像uの間に生じる誤差の要因は2つ考えら
れる。
【0081】1つは、yが離散値であるための量子化誤
差であり、もう1つは、線形フィルターHの帯域幅によ
り生じる誤差で、復号画像Uを元画像uに近付けるため
に、どのようなyの組み合わせを選んだとしても、線形
フィルターHが通さない周波数成分は表すことができな
い。前のセクションで、各ニューロンが|Hy−u|を
最小化する方向に動作していることを述べた。しかし、
各ニューロンは量子化を行なっているので、最終的に量
子化誤差が残る。この量子化誤差を抑えるには、量子化
ステップDを小さくするために、できるだけd=dia
g{H}に小さな値を選ぶ必要があり、そのためには、
当然、分布の広い線形フィルターHを用いる必要があ
る。
【0082】また、ネットワークは、復号画像Hyが元
の画像にuに近付くようにデジタル信号yを変化させ
る。デジタル信号は、−1<=y<=1の範囲でしか変
化できないので、線形フィルターHの帯域幅をこえる周
波数成分を含むエッジなどは、どのようなyの組み合わ
せを選んだとしても表すことができない。言い換える
と、ニューロンは誤差eを打ち消すようにデジタル信号
yを決定するので、|ei j |<δ0である場合には、
|e′i j |を量子化誤差の範囲に抑えることができ
る。
【0083】しかし、|ei j |>δ0の場合には、|
e′i j |は、量子化誤差の上限Δ/2を越えてしま
う。したがって、入力画像に応じて、線形フィルターH
を選ばなければならない。量子化誤差は、入力画像に依
存せず、確実に生じるものであり、分布の広い線形フィ
ルターHを用いることにより抑えることができる。
【0084】それに対して、フィルターHの帯域幅によ
る誤差は、フィルターHの帯域幅を越える周波数成分を
含んでいる部分において、量子化誤差よりも優勢になっ
てしまうので、それを抑えるためには、フィルターHの
帯域幅を広げる必要がある。そのためには、フィルター
Hの分布を狭くする必要がある。よって、入力画像に高
い周波数成分を含んでいる場合には、前者と後者は、ト
レードオフの関係となる。
【0085】また、線形フィルターHが、低域通過フィ
ルターで、近傍においてのみ値を持ち、近傍から離れる
にしたがって、急激に値が減少していくようなフィルタ
ーであれば、影響が少ないと思われる小さな値を0に近
似することにより、ネットワークをスパースにすること
ができる。
【0086】ネットワークをスパースにすることができ
れば、収束を速めることができ、局所解を避けられると
いう意味で解の質も良くなる。これはハードウェアを作
製する場合の大きな利点にもなる。線形フィルターH
は、これらの条件を考慮した上で決定されるべきであ
る。
【0087】どちらの歪関数を用いる場合でも、dis
t(y,u)を最小化する出力画像yを得ることができ
るが、例えば、Hに3x3の大きさのフィルターを用い
ると仮定するならば、(41)式を用いた場合のネット
ワークの接続は、フィルターHの広がりを持つ。
【0088】それに対して、(32)式を用いた場合、
ネットワークの接続は、自分自身のコンボリューション
をとるので、5×5の大きさとなり、ネットワークの接
続が広くなってしまう。したがって、(37)式による
ネットワークの方がスパースにできる。復号画像の質か
ら考えても、先に述べた量子化誤差により、ほとんど同
程度の出力画像しか得られないので、ネットワークをス
パースにできる意味で、(37)式の歪関数を用いたネ
ットワークの方が良いといえる。 <Simlation>後者の歪み関数を用いた場合の
符号化と復号化の結果を示す。
【0089】2つの多階調画像をシミュレーションに用
いた。1つは階調変化が滑らかな画像’slope’。
もう1つは標準画像’SIDBA−girl’で、とも
に、256×256,8bitsである。ネットワーク
の重みとして2次元のガウス分布を用いている。ガウス
分布は中央から離れるに従ってその値が減少する。そこ
で、中央から距離r以上離れたニューロンへの重みを0
に近似している((50)(51)式)。
【0090】
【数31】
【0091】こうすることによりネットワークをスパー
スにすることができる。’slope’を用いて符号化
を行った場合の歪み関数の変化を図3に示す。また、2
つのテスト画像について、u−xとu−Uの特性を図5
〜図11に示す。
【0092】さらに、復号画像の評価のためPSNR
(最高信号対雑音比)を図12〜図13に示す((5
2)式)。
【0093】
【数32】
【0094】<Multi−value Neural
Network with Bilevel Neu
ron>ここで示した多値ニューラルネットワークにお
けるニューロンの出力は多値であるが、基本的には、A
/D変換器である。そこで、出力がnレベルある多値ニ
ューロンをn個の2値ニューロンに置き換えることがで
きる。つまり、n個のニューロンが1つのA/D変換器
を構成していることになる。 <Coding and Decoding with
SequencialOperation>ここで使
用しているニューラルネットワークは接続がスパースで
あるため、解が比較的ローカルに決定されていると考え
ることができる。そこで、多値ニューラルネットワーク
の端の方から逐次出力を決めていったとしても、ある程
度の解を得ることができると予想される。
【0095】また、(53)式の歪関数を用いた多値ニ
ューラルネットワークでは、各ニューロンが誤差U−u
を最小化するようにその出力yを決定していることに着
目し、これを逐次的な処理により行うことにする。
【0096】
【数33】
【0097】ここでの処理は、誤差拡散法と似たところ
がある。入力濃淡画像をui j (0<=i<M; 0<
=j<N),出力多値画像をyi j (0<=i<M;
0<=j<N)とすると、誤差拡散法は、(54)(5
5)式の方程式により定義される。
【0098】
【数34】
【0099】誤差拡散法との違いは、誤差を参照するの
ではなく、既に決定された出力画素を参照する点にあ
る。ここでの処理は、誤差拡散法と同様に、画像の左上
を出発点とし、逐次、(56)式の方程式に従って出力
yを決定していく。
【0100】
【数35】
【0101】ここで、f(x)は、多値ニューラルネッ
トワークで用いた、量子化関数である。フィルターH
が、(58)式で表される場合、重みWi j は、(5
9)式を用いる。
【0102】
【数36】
【0103】また、量子化関数f(x)のδ=diag
{H}とする。この時、(60)式により復号画像を得
ることができる。
【0104】
【数37】
【0105】
【発明の効果】以上説明したように、本発明によれば、
ニューロンに複数のレベルを持たせることにより、量子
化誤差を抑え、良質の復号画像を得ることができる。
【図面の簡単な説明】
【図1】本発明の多値ニューラルネットで使用される関
数f(x)(n=3)を示す図である。
【図2】本発明の多値ニューラルネットで使用される関
数f(x)(n=4)を示す図である。
【図3】歪み関数が単調減少関数であることを示す図で
ある。
【図4】フィルターの広がりとPSNRの関係(’sl
ope’)を示す図である。
【図5】フィルターの広がりとPSNRの関係(’SI
DBA−girl’)を示す図である。

Claims (5)

    【特許請求の範囲】
  1. 【請求項1】 各ニューロンが複数レベルの出力を持つ
    ニューラルネットであり、あるニューロンの近傍ニュー
    ロンの出力値の加重平均量を、そのニューロンに入力す
    る変数量にダイナミックに近付けるダイナミック量子化
    手段を有することを特徴とするニューラルネットによる
    画像処理。
  2. 【請求項2】 前記ダイナミック量子化手段は、入力変
    数ui を基にした値とするとき、各ニューロンは、周囲
    のニューロンの状態を入力とし、その積和と前記入力値
    とを比較し、次の状態を 【数1】 で決めるようにダイナミック動作を行うことを特徴とす
    る請求項1記載のニューラルネットによる画像処理。
  3. 【請求項3】 符号化用のニューラルネットから出力さ
    れる情報に対して、各ニューロンは周囲の前記情報の加
    重平均値を出力して画像を復号化することを特徴とする
    復号用のニューラルネットを有する画像の圧縮再生方
    式。
  4. 【請求項4】 請求項1記載のニューロンの動作を画像
    の左上から逐次に行い、各ニューロンは、積和を求める
    際に、既に符号化を行ったニューロンの情報のみを参照
    することを特徴とするニューラルネットによる画像処
    理。
  5. 【請求項5】 各ニューロンは、符号化用のニューラル
    ネットから出力された情報を、符号化時に参照したのと
    同じニューロンに対して参照し、その加重平均値を出力
    して画像を復号化することを特徴とする復号用のニュー
    ラルネットを有する画像の圧縮再生方式。
JP4307355A 1992-11-17 1992-11-17 ニューラルネットワークによる画像の圧縮再生 Pending JPH06164902A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4307355A JPH06164902A (ja) 1992-11-17 1992-11-17 ニューラルネットワークによる画像の圧縮再生

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4307355A JPH06164902A (ja) 1992-11-17 1992-11-17 ニューラルネットワークによる画像の圧縮再生

Publications (1)

Publication Number Publication Date
JPH06164902A true JPH06164902A (ja) 1994-06-10

Family

ID=17968103

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4307355A Pending JPH06164902A (ja) 1992-11-17 1992-11-17 ニューラルネットワークによる画像の圧縮再生

Country Status (1)

Country Link
JP (1) JPH06164902A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5638125A (en) * 1994-07-08 1997-06-10 Samsung Electronics Co., Ltd. Quantization step size control apparatus using neural networks
CN110880194A (zh) * 2019-12-03 2020-03-13 山东浪潮人工智能研究院有限公司 一种基于卷积神经网络的图像压缩方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5638125A (en) * 1994-07-08 1997-06-10 Samsung Electronics Co., Ltd. Quantization step size control apparatus using neural networks
CN110880194A (zh) * 2019-12-03 2020-03-13 山东浪潮人工智能研究院有限公司 一种基于卷积神经网络的图像压缩方法

Similar Documents

Publication Publication Date Title
US5495542A (en) Binary to multi-level image restoration using neural network
Burt et al. The Laplacian pyramid as a compact image code
EP0414505B1 (en) Edge enhanced error diffusion algorithm and method of image encoding.
EP0778696B1 (en) Method and apparatus for providing halftoning processing of color images by means of a neural network
US6072909A (en) Image coding devise and image decoding devise using with image disassembly
JPH11239274A (ja) 画像処理方法および装置
Son Inverse halftoning through structure-aware deep convolutional neural networks
Sadeeq et al. Image compression using neural networks: a review
US5841904A (en) Image processing method and apparatus
US6141450A (en) Image compression system using halftoning and inverse halftoning to produce base and difference layers while minimizing mean square errors
Huang et al. Neural network based method for image halftoning and inverse halftoning
JPH06164902A (ja) ニューラルネットワークによる画像の圧縮再生
JP3743077B2 (ja) 画像信号変換装置および方法
Sun et al. Neural network approaches to fractal image compression and decompression
Pelcastre-Jimenez et al. An inverse halftoning algorithm based on neural networks and UP (x) atomic function
JP3209763B2 (ja) 画像信号処理方式
Nasrabadi et al. Vector quantization of images based upon a neural-network clustering algorithm
JP2021179891A (ja) 画像処理装置
JPH08279899A (ja) ニューラルネットワークによる静止画及び動画の低ビット中間調表現
JPH10327319A (ja) 画像処理方法および装置
Rizvi et al. Finite-state residual vector quantization using a tree-structured competitive neural network
Mironov Local Adaptive Image Processing
JPH0350960A (ja) 画像信号処理装置
JP4491701B2 (ja) データ処理装置およびデータ処理方法、並びに記録媒体
CN114286113A (zh) 基于多头异构卷积自编码器的图像压缩恢复方法及***