JPH06164902A - Compression and reproduction of picture by neural network - Google Patents

Compression and reproduction of picture by neural network

Info

Publication number
JPH06164902A
JPH06164902A JP4307355A JP30735592A JPH06164902A JP H06164902 A JPH06164902 A JP H06164902A JP 4307355 A JP4307355 A JP 4307355A JP 30735592 A JP30735592 A JP 30735592A JP H06164902 A JPH06164902 A JP H06164902A
Authority
JP
Japan
Prior art keywords
neuron
equation
neural network
image
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4307355A
Other languages
Japanese (ja)
Inventor
Munemitsu Ikegami
宗光 池上
Mamoru Tanaka
衞 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP4307355A priority Critical patent/JPH06164902A/en
Publication of JPH06164902A publication Critical patent/JPH06164902A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/002Image coding using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

PURPOSE:To suppress a quantization error and to obtain a decoded picture with excellent quality by providing a quantization means approximating dynamically a weight mean of outputs of neurons in the vicinity of a neuron having an output of plural levels to a variable inputted to the neuron. CONSTITUTION:The system is provided with a quantization means approximating dynamically a weight mean of outputs of neurons in the vicinity of a neuron(Nr) having an output of plural levels to a variable inputted to the neuron(Nr) and with a means outputting a weight mean of surrounding information with respect to information outputted from a coding neural network(NN). An output (y) of each Nr in a multi-value processing NN is a discrete value of n=3 level within an interval of -1, 1, each level is set at an equal interval and each Nr is operated asynchronously at random according to the algorithm shown in equation. Thus, the quantization error is suppressed and a decoded picture with excellent quality is obtained.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、生物の脳や神経と同様
な情報処理プロセスを人工的に実現しようとするニュー
ロコンピュータに係り、さらに詳しくは、スパースなホ
ップフィールド(H)型ニューラルネットによる画像の
圧縮再生処理に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a neurocomputer that artificially realizes an information processing process similar to that of the brain and nerves of an organism, and more specifically, it uses a sparse Hopfield (H) neural network. The present invention relates to image compression and reproduction processing.

【0002】[0002]

【従来の技術】従来、濃淡画像を2値化する方法とし
て、ディザ法と誤差拡散法があったが、例えば、ピクセ
ルあたり8ビットの濃淡画像であれば、これらの方法
は、静止画を対象とし、圧縮率は、1/8とする方式で
ある。
2. Description of the Related Art Conventionally, as a method of binarizing a grayscale image, there are a dither method and an error diffusion method. For example, in the case of a grayscale image of 8 bits per pixel, these methods target a still image. And the compression rate is 1/8.

【0003】最近、画像処理にニューラルネットを使う
試みが出てきた。ニューロコンピュータを実現するため
の基本回路網が、ニューラルネットワーク(NN)であ
る。一般に、NNのダイナミクスの基本式は、 x(t+1)=f(Σ W x(t)) で表現される。ここで、xはニューロンの状態ベクト
ル,Wは重み行列,fは非線形関数である。
Recently, attempts have been made to use a neural network for image processing. A basic circuit network for realizing a neuro computer is a neural network (NN). In general, the basic equation of NN dynamics is expressed by x (t + 1) = f (Σ W x (t)). Here, x is a state vector of the neuron, W is a weight matrix, and f is a non-linear function.

【0004】ホップフィールド(H)型ニューラルネッ
ト(NN)では、ニューロンが他の全てのニューロンと
結合しているため、結合行列(重み行列)はほぼ密行列
となる。連想の対象となるプローブベクトルが初期状態
として外部から与えられると、ネットワークは上式に従
って変化し、ある状態に収束したときこのベクトルが連
想されたベクトルになる。
In the Hopfield (H) type neural network (NN), since the neuron is connected to all the other neurons, the connection matrix (weight matrix) is almost a dense matrix. When a probe vector to be associated is given from the outside as an initial state, the network changes according to the above equation, and when it converges to a certain state, this vector becomes the associated vector.

【0005】スパースなニューラルネットでは、局所記
憶、すなわち、内部に認知細胞を空間的に分離するよう
に2次元的にニューロンを並べてできる神経場のダイナ
ミクスで興味深い情報処理、例えば、濃淡画像を2値化
し、そしてまた、濃淡に再生する処理を行うことが重要
となる。
In a sparse neural network, interesting information processing by local memory, that is, neural field dynamics formed by arranging neurons two-dimensionally so as to spatially separate cognitive cells inside, for example, a grayscale image is binarized It is important to carry out a process of converting to dark and light.

【0006】[0006]

【発明が解決しようとする課題】従来のホップフィール
ド型では、ニューロン間が予め完全グラフで接続され、
配線が複雑となる。
In the conventional Hopfield type, neurons are connected in advance by a complete graph,
Wiring becomes complicated.

【0007】そこで、本発明は、スパースなH型ネット
とその双対ネットの局所記憶に基づく連想ダイナミクス
を積極的に利用して興味深い画像処理を行うものであ
る。画像の圧縮側において、あるニューロンの近傍ニュ
ーロンの出力の2値の平均的な量を、そのニューロンに
入力する変数量にダイナミックに近付けるダイナミック
量子化による圧縮手段を用いて高度に動画または静止画
を圧縮(例えば、ピクセルあたり8ビットの濃淡画像で
あれば、圧縮率は、1/8)し、再生側で、その圧縮さ
れた情報を用いて加重平均を求めることにより画像を再
生する。
Therefore, the present invention positively utilizes the associative dynamics based on the local memory of the sparse H-type net and its dual net to perform interesting image processing. On the compression side of an image, a dynamic means or a still image is used to highly compress a moving image or a still image by dynamically compressing the binary average value of the output of a neuron in the vicinity of a neuron into a variable amount input to the neuron. The image is reproduced by performing compression (for example, in the case of a grayscale image of 8 bits per pixel, the compression ratio is 1/8), and the reproducing side obtains a weighted average using the compressed information.

【0008】本発明では、復号された画像の質を高める
ことを目的とする。
An object of the present invention is to improve the quality of a decoded image.

【0009】[0009]

【課題を解決するための手段】本発明は、各ニューロン
が複数レベルの出力を持つニューラルネットであって、
あるニューロンの近傍ニューロンの出力値の加重平均量
を、そのニューロンに入力する変数量にダイナミックに
近付けるダイナミック量子化手段と、その符号化用のニ
ューラルネットから出力される情報に対して、各ニュー
ロンは周囲の前記情報の加重平均値を出力して画像を復
号化する手段を有する。
SUMMARY OF THE INVENTION The present invention is a neural network in which each neuron has a plurality of levels of output,
Each neuron responds to the dynamic quantization means that dynamically approximates the weighted average amount of the output values of the neighboring neurons of a certain neuron to the variable amount input to that neuron, and the information output from the neural net for encoding. It has means for decoding the image by outputting a weighted average value of the surrounding information.

【0010】[0010]

【作用】1つのニューロンに複数の状態を与えることに
より、ニューロンに離散値を表現させる。ここで述べる
ネットワークは、各ニューロンが複数レベルの出力を持
つ多値ニューラルネットワークにおけるニューロンの出
力yは、[−1,1]の区間内のn(>=2)レベルの
離散値で、各レベルは等間隔とする。各ニューロンを次
のアルゴリズムにしたがってランダムかつ非同期に動作
させる。
[Function] By giving a plurality of states to one neuron, the neuron is made to express a discrete value. In the network described here, the output y of a neuron in a multi-valued neural network in which each neuron has multiple levels of output is a discrete value of n (> = 2) levels within the interval [-1,1] Are evenly spaced. Each neuron is operated randomly and asynchronously according to the following algorithm.

【0011】[0011]

【数2】 [Equation 2]

【0012】行列A=[Ai j ]は対称で、安定の為、
対角成分Ai i は0とする。f(x)はxをn個の離散
値レベルに変換する非線形関数である。
Since the matrix A = [A ij ] is symmetric and stable,
The diagonal component A ii is 0. f (x) is a non-linear function that transforms x into n discrete value levels.

【0013】[0013]

【実施例】<ニューラルネットワーク>接続が対称なニ
ューラルネットワークは非線形出力関数を用いたニュー
ロンにより構成されており、エネルギー関数を単調に減
少させながら、常に安定状態に収束する。この性質を用
いて、ニューラルネットワークにより最適化問題を解く
ことができる。ネットワークにはニューロンの出力関数
にステップ関数を用いたOriginal Model
とシグモイド関数を用いたContinuosMode
lが、ホップフィールドにより提案されている。Ori
ginal Modelはニューロンの出力が2つの値
に限定されており、安定のため、各ニューロンを非同期
で動作させる必要がある。
[Embodiment] <Neural network> A symmetric neural network is composed of neurons using a non-linear output function and always converges to a stable state while monotonically decreasing the energy function. Using this property, an optimization problem can be solved by a neural network. Original Model using step function as output function of neuron for network
And ContinuosMode using sigmoid function
l has been proposed by Hopfield. Ori
In the final model, the output of the neuron is limited to two values, and it is necessary to operate each neuron asynchronously for stability.

【0014】それに対して、Continuos Mo
delでは出力が連続値を取るため、Original
Modelに比べて、幾つかの局所解を避けることが
でき、より良い解に収束する。しかし、ニューロンの相
互作用がスパースであれば、Original Mod
elでも、十分な解が得られる。ここでは、多値ニュー
ラルネットワークの拡張のため、OriginalMo
delについて説明するが、ニューロンの出力を2値に
限定する限り、どちらのModelを用いてもよい。
In contrast, Continuos Mo
Since the output of del is a continuous value, Original
Compared to the Model, some local solutions can be avoided and they will converge to a better solution. However, if the neuron interaction is sparse, the Original Mod
Even with el, a sufficient solution can be obtained. Here, OriginalMo is used to expand the multivalued neural network.
Although del will be described, either Model may be used as long as the output of the neuron is limited to binary.

【0015】Original modelでは、ニュ
ーロンの出力は2つの値{y0,y1}のみをとる。次
のアルゴリズムにしたがって、各ニューロンをランダム
かつ非同期に(1)(2)式にしたがって動作させる。
In the Original model, the output of the neuron takes only two values {y0, y1}. According to the following algorithm, each neuron is operated randomly and asynchronously according to the equations (1) and (2).

【0016】[0016]

【数3】 [Equation 3]

【0017】ニューロンiからニューロンjへの重みを
あらわしている行列A=[Ai j ]は対称で、安定の
為、対角成分Ai i は0とする。このモデルのエネルギ
ー関数は(3)式で定義される。
Since the matrix A = [A ij ] representing the weight from the neuron i to the neuron j is symmetric and is stable, the diagonal component A ii is set to 0. The energy function of this model is defined by equation (3).

【0018】[0018]

【数4】 [Equation 4]

【0019】行列Aが対称で、対角成分が0であれば、
ネットワークは常にある局所解に収束することが証明さ
れている。より良い解に収束させるため、ニューロンの
初期値はランダムに与える。
If the matrix A is symmetric and the diagonal elements are 0, then
It has been proved that networks always converge to some local solution. In order to converge to a better solution, the initial values of neurons are given randomly.

【0020】ニューラルネットワークを最適化問題に適
用する場合、与えられた問題のコスト関数をニューラル
ネットワークのエネルギー関数の形で表現し、係数を比
較することにより、ネットワークのパラメータを決定す
ることができる。例えば、(4)式のようなコスト関数
を定義した場合、入力uは定数であるから、dist
(y, u)の最小化すべき量は、(5)式のようにな
る。
When a neural network is applied to an optimization problem, the parameters of the network can be determined by expressing the cost function of the given problem in the form of the energy function of the neural network and comparing the coefficients. For example, when a cost function such as equation (4) is defined, the input u is a constant, so dist
The amount of (y, u) to be minimized is as shown in equation (5).

【0021】[0021]

【数5】 [Equation 5]

【0022】また、ニューラルネットワークのエネルギ
ー関数を同様に表記すると(6)式であるから、(5)
式と(6)式の係数を比較することにより、ネットワー
クのパラメータを(7)(8)(9)式で決定すること
ができる。
Similarly, the energy function of the neural network is expressed by equation (6), so that (5)
The parameters of the network can be determined by the equations (7), (8) and (9) by comparing the equations with the coefficients of the equation (6).

【0023】[0023]

【数6】 [Equation 6]

【0024】ここで、d=diag{T(Q)Q}とす
る。T()は、転置を表す。コスト関数dist(y,
u)における行列T(Q)Qの対角成分は0でないにも
かかわらず、安定のため、ネットワークの行列Aの対角
成分を、強制的に0にする必要がある。このようにして
も、ネットワークはエネルギー関数E(t)を単調減少
させるとともにdist(y,u)も単調に減少させ
る。 証明:(6)式に(9)式のネットワークのパラメータ
を代入して、変形すると、(10)式となる。
Here, let d = diag {T (Q) Q}. T () represents transposition. Cost function dist (y,
Although the diagonal component of the matrix T (Q) Q in u) is not 0, it is necessary to force the diagonal component of the matrix A of the network to 0 for stability. Even in this way, the network monotonically decreases the energy function E (t) and also monotonically decreases dist (y, u). Proof: By substituting the network parameters of equation (9) into equation (6) and transforming, equation (10) is obtained.

【0025】[0025]

【数7】 [Equation 7]

【0026】ニューロンの2つの出力yが{α,−α}
であれば、式(10)の最終項−(1/2)δT(y)
yは常に定数であるから、任意のQ及びRについて、d
ist(y,u)(5)式も単調減少であるといえる。 証明終 もし、yは、aあるいは、0を値としてとる場合には、
式(10)の最終項は常に定数とならない。この場合に
は、出力yがどちらの値をとったとしてもE(t)が変
化しないように式を変更する必要がある((11)
式)。
Two outputs y of the neuron are {α, -α}
Then, the last term of the equation (10) − (1/2) δT (y)
Since y is always a constant, for any Q and R d
It can be said that the ist (y, u) (5) equation also decreases monotonically. End of proof If y takes a or 0 as a value,
The last term in equation (10) is not always a constant. In this case, it is necessary to change the equation so that E (t) does not change regardless of which value the output y takes ((11)).
formula).

【0027】[0027]

【数8】 [Equation 8]

【0028】この場合には、ネットワークにI=−(1
/2)δαのバイアスをかける。この考え方は、Con
tinuous Modelで、出力を両端の値に収束
させるために用いられるものであるが、Origina
l Modelにおいても必要となる。 <Multi−value Neural Netwo
rk>ホップフィールド型のニューラルネットワークに
より最適化問題を解く場合において、コスト関数におけ
る離散値を表現するには、普通、発火しているニューロ
ンの数などを用いる。ここでは、1つのニューロンに複
数の状態を与えることにより、ニューロンに離散値を表
現させることができることを示す。
In this case, I =-(1
/ 2) Bias δα. This idea is Con
The Origin Model, which is used to converge the output to the values at both ends.
It is also required in l Model. <Multi-value Neural Network
When solving an optimization problem with a rk> Hopfield neural network, the number of firing neurons is usually used to represent discrete values in a cost function. Here, it is shown that a neuron can be made to express a discrete value by giving one neuron a plurality of states.

【0029】ここで述べるネットワークは、各ニューロ
ンが複数レベルの出力を持ち、ここでは、これを多値ニ
ューラルネットワークと呼ぶことにする。ニューロンの
非線形出力関数を除いては、基本的に前のセクションで
述べたOriginal Modelと同様である。
In the network described here, each neuron has a plurality of levels of outputs, and this is called a multi-valued neural network here. Except for the nonlinear output function of the neuron, it is basically the same as the Original Model described in the previous section.

【0030】多値ニューラルネットワークにおけるニュ
ーロンの出力yは、[−1,1]の区間内のn(>=
2)レベルの離散値で、各レベルは等間隔とする((1
1a)式)。
The output y of the neuron in the multi-valued neural network is n (> =) in the interval [-1, 1].
2) Levels are discrete values, and each level is equally spaced ((1
Formula 1a)).

【0031】[0031]

【数9】 [Equation 9]

【0032】例えば、n=4の時、yは(11b)式の
ようになる。
For example, when n = 4, y is given by equation (11b).

【0033】[0033]

【数10】 [Equation 10]

【0034】各ニューロンを(12)式のアルゴリズム
にしたがってランダムかつ非同期に動作させる。
Each neuron is operated randomly and asynchronously according to the algorithm of equation (12).

【0035】[0035]

【数11】 [Equation 11]

【0036】行列A=[Ai j ]は対称で、安定の為、
対角成分Ai i は0とする。f(x)はxをn個の離散
値レベルに変換する非線形関数で、(13)(14)式
で表される。
Since the matrix A = [A ij ] is symmetric and stable,
The diagonal component A ii is 0. f (x) is a non-linear function that transforms x into n discrete value levels and is expressed by equations (13) and (14).

【0037】[0037]

【数12】 [Equation 12]

【0038】ここで、関数g(x)は量子化ステップを
Dとする一様(直線)量子化関数であり、δ={(n−
1)/2}D、δ0=(n/2)Δ[ ]は、ガウス記
号である。図1と図2に、それぞれ、n=3とn=4の
場合のf(x)を示す。したがって、1つ1つのニュー
ロンをA/D変換器とみなすこともできる。
Here, the function g (x) is a uniform (straight line) quantization function having a quantization step D, and δ = {(n-
1) / 2} D, δ0 = (n / 2) Δ [] is a Gauss symbol. 1 and 2 show f (x) when n = 3 and n = 4, respectively. Therefore, each neuron can be regarded as an A / D converter.

【0039】多値ニューラルネットワークでは、ニュー
ロンの出力が多数の状態を持つためエネルギー関数とし
てLyapunov functionを適用すること
はできない。そこで、多値ニューラルネットワークのエ
ネルギー関数E(t)を(15)式のように定義する。
In a multi-valued neural network, the Lyapunov function cannot be applied as an energy function because the output of the neuron has many states. Therefore, the energy function E (t) of the multivalued neural network is defined as in equation (15).

【0040】[0040]

【数13】 [Equation 13]

【0041】δは、非線形関数f(x)の定義に用いら
れたパラメータである。Lyapunov funct
ionでは、行列{A}の対角成分は0であるが、ここ
でのエネルギー関数E(t)は、Lyapunov f
unctionに大きさδの対角成分を加えた形になっ
ている。
Δ is a parameter used to define the nonlinear function f (x). Lyapunov funct
In ion, the diagonal element of the matrix {A} is 0, but the energy function E (t) here is Lyapunov f
It has a shape in which a diagonal component of size δ is added to the unction.

【0042】E(t)が単調減少な関数であることを証
明する。時刻tにおいて、ニューロンiの状態y
i (t)が変化したとする。その時の変化量は、Δyi
=yi (t)−yi (t−1)。ニューロンiが変化し
たことによるE(t)の変化量ΔEは(16)式であ
る。
Prove that E (t) is a monotonically decreasing function. At time t, the state y of the neuron i
Suppose i (t) has changed. The amount of change at that time is Δy i
= Y i (t) -y i (t-1). The change amount ΔE of E (t) due to the change of the neuron i is expressed by the equation (16).

【0043】[0043]

【数14】 [Numerical equation 14]

【0044】ここで、関数E(t)の最終項については
(17)式である。
Here, the final term of the function E (t) is the equation (17).

【0045】[0045]

【数15】 [Equation 15]

【0046】(16式)式において{yi (t−1)+
(1/2)Δyi }は,ニューロンiの出力が、y
i (t−1)→yi (t)に変位するちょうど中間点で
あり、これをx軸上に写像したものが、δ{yi (t−
1)+(1/2)Δyi }である。Δyi <0の時、ア
ルゴリズムに従えば、(16)式の括弧内は負となる
((17a)式)。
In equation (16), {y i (t-1) +
(1/2) Δy i } is that the output of the neuron i is y
It is just the middle point of displacement from i (t-1) to y i (t), and a map of this on the x-axis is δ {y i (t-
1) + (1/2) Δy i }. When Δy i <0, according to the algorithm, the inside of the parentheses of the expression (16) becomes negative (expression (17a)).

【0047】[0047]

【数16】 [Equation 16]

【0048】同様に、Δyi >0の時は、括弧内は正と
なる。よって、ΔE<=0であり、E(t)は常に単調
減少となる。E(t)が有界で、単調減少な関数である
ことから、多値ニューラルネットワークは常に安定状態
に収束する。したがって、ネットワークを多値に拡張し
ても、常に単調減少となるエネルギー関数を定義するこ
とができるので、これを最適化問題に適用することが可
能である。前のセクションで述べたOriginal
Modelも、n=2の場合の多値ニューラルネットワ
ークと考えることができる。
Similarly, when Δy i > 0, parentheses are positive. Therefore, ΔE <= 0, and E (t) always decreases monotonically. Since E (t) is a bounded and monotonically decreasing function, the multivalued neural network always converges to a stable state. Therefore, even if the network is expanded to multiple values, it is possible to define an energy function that always decreases monotonically, and this can be applied to the optimization problem. Original mentioned in the previous section
The Model can also be considered as a multi-valued neural network when n = 2.

【0049】多値ニューラルネットワークを最適化問題
に適用する場合のパラメータの決め方は次のようにな
る。最適化問題におけるコスト関数を(18)式のよう
に定義する。
The method of determining the parameters when applying the multi-valued neural network to the optimization problem is as follows. The cost function in the optimization problem is defined as in equation (18).

【0050】[0050]

【数17】 [Numerical formula 17]

【0051】dist(y,u)における最小化すべき
量は(19)式であり、式(18)と式(19)を比較
することによりネットワークの各パラメータを決定す
る。
The quantity to be minimized in dist (y, u) is the equation (19), and each parameter of the network is determined by comparing the equations (18) and (19).

【0052】[0052]

【数18】 [Equation 18]

【0053】d=diag{T(Q)Q}とすると、
(20)(21)(22)(23)式のようになる。
If d = diag {T (Q) Q},
Equations (20), (21), (22), and (23) are obtained.

【0054】[0054]

【数19】 [Formula 19]

【0055】Original Modelでは、コス
ト関数の対角成分を強制的に0とするだけで、常にコス
ト関数が単調減少となったが、多値ニューラルネットワ
ークでは、最小化すべきコスト関数dist(y,u)
の対角成分を、量子化関数f(x)におけるxiの値と
して使用する必要がある。この時、エネルギー関数E
(t)とコスト関数dist(y,u)は同値となり、
ネットワークが安定状態に収束した時、コスト関数di
st(y,u)を小さくする出力yを得ることができ
る。
In the Original Model, the cost function is always monotonically reduced by forcibly setting the diagonal component of the cost function to 0. However, in the multi-valued neural network, the cost function dist (y, u) to be minimized. )
The diagonal component of must be used as the value of xi in the quantization function f (x). At this time, the energy function E
(T) and the cost function dist (y, u) have the same value,
When the network converges to a stable state, the cost function di
It is possible to obtain the output y that reduces st (y, u).

【0056】もし、量子化レベルに{0,1}の範囲の
yを用いる場合には、(23a)式のようになる。
If y in the range of {0, 1} is used as the quantization level, the equation (23a) is obtained.

【0057】[0057]

【数20】 [Equation 20]

【0058】Original Modelの場合と同
様に、ネットワークにI=−(1/2)δのバイアスを
かけ、さらに、量子化関数f(x)を、(24)(2
5)式のようにする。
As in the case of the Original Model, the network is biased by I =-(1/2) δ, and the quantization function f (x) is set to (24) (2).
Follow the formula 5).

【0059】[0059]

【数21】 [Equation 21]

【0060】<Image Coding and D
ecoding>データ圧縮としての静止画像の符号化
について考える。ここでの符号化は、元の信号とデジタ
ル信号との間での何らかの歪み関数を定義し、これが最
小化されるデジタル信号の組合せを求めることにより行
なう。そこで、出力されるデジタル画像yに線形フィル
ターHを畳み込んだものと元の濃淡画像uとの平均自乗
誤差、つまり、(26)式のような歪関数を定義する。
<Image Coding and D
encoding> Consider still image coding as data compression. The encoding here is performed by defining some distortion function between the original signal and the digital signal, and finding a combination of the digital signals that minimizes the distortion function. Therefore, the mean square error between the output digital image y to which the linear filter H is convoluted and the original grayscale image u, that is, the distortion function as in Expression (26) is defined.

【0061】[0061]

【数22】 [Equation 22]

【0062】この歪み関数dist(y,u)が最小化
された時、(27)式のようになることより、(28)
式により、元の濃淡画像uに近い復号画像Uを求めるこ
とができる。
When the distortion function dist (y, u) is minimized, the equation (27) is obtained.
The decoded image U close to the original gray image u can be obtained from the equation.

【0063】[0063]

【数23】 [Equation 23]

【0064】歪み関数を最小化した時の値が0でない場
合には、完全に元の画像を復号することはできないが、
この値を小さい値に抑えることにより、良質の符号化を
行なうことができる。したがって、ここでの符号化は、
この歪み関数の最小値がより小さくなるように線形フィ
ルターHを選ぶことが重要となる。歪み関数を最小化す
る量子化レベルの組合せを求めることは、一種の最適化
問題であり、この最適化問題を解くのに多値ニューラル
ネットワークを使用する。
If the value when the distortion function is minimized is not 0, the original image cannot be completely decoded,
By suppressing this value to a small value, good quality encoding can be performed. Therefore, the encoding here is
It is important to select the linear filter H so that the minimum value of this distortion function becomes smaller. Finding the combination of quantization levels that minimizes the distortion function is a kind of optimization problem, and a multi-valued neural network is used to solve this optimization problem.

【0065】濃淡画像が、M×Nの大きさである時、M
×N個のニューロンを画素と同様に2次元の格子状に配
置し、濃淡画像の各画素値を、[−1,1]の区間内の
対応する値に正規化して、ニューロンの入力uに与え
る。ニューロンの入力をui j(0<=i<M;0<=
j<N)、出力をyi j (0<=i<M;0<=j<
N)とすると、2次元の場合のニューロンの動作は(2
9)式のように定義される。
When the grayscale image has a size of M × N, M
The × N neurons are arranged in a two-dimensional grid like the pixels, and each pixel value of the grayscale image is normalized to the corresponding value in the interval [-1,1], and is input to the neuron input u. give. The input of the neuron is u ij (0 <= i <M; 0 <=
j <N) and outputs y ij (0 <= i <M; 0 <= j <
N), the behavior of the neuron in the two-dimensional case is (2
It is defined as in equation 9).

【0066】[0066]

【数24】 [Equation 24]

【0067】(26)式の歪み関数dist(y,u)
において、最小化すべき量は(31)式であるから、ネ
ットワークのパラメータは(32)(33)(34)
(35)式のようになる。
Distortion function dist (y, u) of equation (26)
In the above, since the amount to be minimized is the equation (31), the network parameters are (32) (33) (34).
It becomes like the formula (35).

【0068】[0068]

【数25】 [Equation 25]

【0069】ここで、T(H)Hは、H=
[hi j m n ]自身のコンボリューションで、(36)
式で表される。
Here, T (H) H is H =
[H ijmn ] With his own convolution, (36)
It is represented by a formula.

【0070】[0070]

【数26】 [Equation 26]

【0071】<Another Distortion
for Image Halftoning>我々は
ここで、別の歪み関数(36)式を定義する。歪み関数
dist(y,u)が最小化された時、(37)式とな
るので、元の入力画像uに近い復号画像Uを(38)式
により得ることができる。
<Another Distortion
for Image Halftoning> We now define another distortion function equation (36). When the distortion function dist (y, u) is minimized, the equation (37) is obtained, so that the decoded image U close to the original input image u can be obtained by the equation (38).

【0072】[0072]

【数27】 [Equation 27]

【0073】線形フィルターHは任意の行列Q自身を畳
み込んで得られるものでなくてはならない。この時、d
ist(y,u)の最小化すべき量が、(40)式であ
るから、ネットワークのパラメータは(41)(42)
(43)(44)式のようになる。
The linear filter H must be obtained by convolving the arbitrary matrix Q itself. At this time, d
Since the amount of ist (y, u) to be minimized is the equation (40), the network parameters are (41) and (42).
Expressions (43) and (44) are obtained.

【0074】[0074]

【数28】 [Equation 28]

【0075】行列Bは単位行列Iとなる。ネットワーク
が収束した時、ニューロン(i,j)について、次の2
つの誤差を定義する((45)(46)(47)式)。
The matrix B becomes the unit matrix I. When the network converges, for neuron (i, j)
Two errors are defined (Equations (45), (46), and (47)).

【0076】[0076]

【数29】 [Numerical formula 29]

【0077】ニューロンはei j を非線形関数f(x)
により出力yに変換する。また、e′i j は、復号画像
Hyと元の画像uとの各ニューロンでの誤差となるの
で、各ニューロンにおいて|e′i j |が小さくなるよ
うに出力yが決めれるべきである。−δ0<ei j <δ
0ならば、非線形関数f(x)の定義により、(48)
式であるから、g(x)が一様量子化関数であることよ
り、誤差e′は量子化ステップDの半分に抑えられてい
ることになる((49)式)。
The neuron uses e ij as a non-linear function f (x)
To output y. Since e ′ ij is an error in each neuron between the decoded image Hy and the original image u, the output y should be determined so that | e ′ ij | becomes small in each neuron. −δ0 <e ij
If it is 0, (48) is defined by the definition of the nonlinear function f (x).
Since it is an expression, since the g (x) is a uniform quantization function, the error e ′ is suppressed to half of the quantization step D (Expression (49)).

【0078】[0078]

【数30】 [Numerical formula 30]

【0079】<Template synthesis
>濃淡画像の2値化は、2値しか表示できないディスプ
レイやプリンターに疑似濃淡を表示する場合に必要とな
る。このような用途においては、歪み関数のフィルター
Hは、人間の視覚特性にしたがって決定されるべきであ
る。
<Template synthesis
> Binarization of a grayscale image is necessary when displaying a pseudo grayscale on a display or a printer that can display only binary. In such an application, the distortion function filter H should be determined according to the human visual characteristics.

【0080】しかし、データ圧縮のための濃淡画像の符
号化においては、元の信号を復号する必要があるため、
ネットワークの収束時における歪み関数dist(y,
u)の最小値がより小さくなるようなフィルターHを定
義する必要がある。ネットワークが収束した時、復号画
像Uと元の画像uの間に生じる誤差の要因は2つ考えら
れる。
However, in encoding a grayscale image for data compression, it is necessary to decode the original signal.
Distortion function dist (y,
It is necessary to define a filter H such that the minimum value of u) becomes smaller. When the network converges, there are two possible causes of error between the decoded image U and the original image u.

【0081】1つは、yが離散値であるための量子化誤
差であり、もう1つは、線形フィルターHの帯域幅によ
り生じる誤差で、復号画像Uを元画像uに近付けるため
に、どのようなyの組み合わせを選んだとしても、線形
フィルターHが通さない周波数成分は表すことができな
い。前のセクションで、各ニューロンが|Hy−u|を
最小化する方向に動作していることを述べた。しかし、
各ニューロンは量子化を行なっているので、最終的に量
子化誤差が残る。この量子化誤差を抑えるには、量子化
ステップDを小さくするために、できるだけd=dia
g{H}に小さな値を選ぶ必要があり、そのためには、
当然、分布の広い線形フィルターHを用いる必要があ
る。
One is a quantization error because y is a discrete value, and the other is an error caused by the bandwidth of the linear filter H. In order to bring the decoded image U closer to the original image u, Even if such a combination of y is selected, the frequency component that the linear filter H does not pass cannot be represented. In the previous section, it was stated that each neuron operates in the direction of minimizing | Hy-u |. But,
Since each neuron is performing quantization, a quantization error remains eventually. In order to suppress this quantization error, in order to reduce the quantization step D, d = dia
We need to choose a small value for g {H}, and
Naturally, it is necessary to use the linear filter H having a wide distribution.

【0082】また、ネットワークは、復号画像Hyが元
の画像にuに近付くようにデジタル信号yを変化させ
る。デジタル信号は、−1<=y<=1の範囲でしか変
化できないので、線形フィルターHの帯域幅をこえる周
波数成分を含むエッジなどは、どのようなyの組み合わ
せを選んだとしても表すことができない。言い換える
と、ニューロンは誤差eを打ち消すようにデジタル信号
yを決定するので、|ei j |<δ0である場合には、
|e′i j |を量子化誤差の範囲に抑えることができ
る。
Further, the network changes the digital signal y so that the decoded image Hy approaches u to the original image. Since the digital signal can change only in the range of -1 <= y <= 1, edges including frequency components exceeding the bandwidth of the linear filter H can be expressed by selecting any y combination. Can not. In other words, the neuron determines the digital signal y so as to cancel the error e, so if | e i j | <δ0,
| E ′ ij | can be suppressed within the range of the quantization error.

【0083】しかし、|ei j |>δ0の場合には、|
e′i j |は、量子化誤差の上限Δ/2を越えてしま
う。したがって、入力画像に応じて、線形フィルターH
を選ばなければならない。量子化誤差は、入力画像に依
存せず、確実に生じるものであり、分布の広い線形フィ
ルターHを用いることにより抑えることができる。
However, if | e ij |> δ0, then |
e ′ ij | exceeds the upper limit Δ / 2 of the quantization error. Therefore, depending on the input image, the linear filter H
Must be selected. The quantization error does not depend on the input image and certainly occurs, and can be suppressed by using the linear filter H having a wide distribution.

【0084】それに対して、フィルターHの帯域幅によ
る誤差は、フィルターHの帯域幅を越える周波数成分を
含んでいる部分において、量子化誤差よりも優勢になっ
てしまうので、それを抑えるためには、フィルターHの
帯域幅を広げる必要がある。そのためには、フィルター
Hの分布を狭くする必要がある。よって、入力画像に高
い周波数成分を含んでいる場合には、前者と後者は、ト
レードオフの関係となる。
On the other hand, the error due to the bandwidth of the filter H becomes dominant over the quantization error in the portion including the frequency component exceeding the bandwidth of the filter H. , It is necessary to widen the bandwidth of the filter H. For that purpose, it is necessary to narrow the distribution of the filter H. Therefore, when the input image contains high frequency components, the former and the latter have a trade-off relationship.

【0085】また、線形フィルターHが、低域通過フィ
ルターで、近傍においてのみ値を持ち、近傍から離れる
にしたがって、急激に値が減少していくようなフィルタ
ーであれば、影響が少ないと思われる小さな値を0に近
似することにより、ネットワークをスパースにすること
ができる。
Further, if the linear filter H is a low-pass filter, which has a value only in the vicinity and decreases rapidly as it moves away from the vicinity, the effect is considered to be small. The network can be made sparse by approximating small values to zero.

【0086】ネットワークをスパースにすることができ
れば、収束を速めることができ、局所解を避けられると
いう意味で解の質も良くなる。これはハードウェアを作
製する場合の大きな利点にもなる。線形フィルターH
は、これらの条件を考慮した上で決定されるべきであ
る。
If the network can be made sparse, the quality of the solution can be improved in the sense that the convergence can be accelerated and the local solution can be avoided. This is also a great advantage when making hardware. Linear filter H
Should be decided in consideration of these conditions.

【0087】どちらの歪関数を用いる場合でも、dis
t(y,u)を最小化する出力画像yを得ることができ
るが、例えば、Hに3x3の大きさのフィルターを用い
ると仮定するならば、(41)式を用いた場合のネット
ワークの接続は、フィルターHの広がりを持つ。
Whichever distortion function is used, dis
An output image y that minimizes t (y, u) can be obtained, but assuming that a filter having a size of 3 × 3 is used for H, for example, the network connection using equation (41) Has a filter H spread.

【0088】それに対して、(32)式を用いた場合、
ネットワークの接続は、自分自身のコンボリューション
をとるので、5×5の大きさとなり、ネットワークの接
続が広くなってしまう。したがって、(37)式による
ネットワークの方がスパースにできる。復号画像の質か
ら考えても、先に述べた量子化誤差により、ほとんど同
程度の出力画像しか得られないので、ネットワークをス
パースにできる意味で、(37)式の歪関数を用いたネ
ットワークの方が良いといえる。 <Simlation>後者の歪み関数を用いた場合の
符号化と復号化の結果を示す。
On the other hand, when the equation (32) is used,
Since the network connection takes its own convolution, the size is 5 × 5, and the network connection becomes wide. Therefore, the network according to equation (37) can be made sparser. Even considering the quality of the decoded image, almost the same output image can be obtained due to the quantization error described above. Therefore, in the sense that the network can be sparse, It can be said that it is better. <Simulation> The results of encoding and decoding using the latter distortion function are shown.

【0089】2つの多階調画像をシミュレーションに用
いた。1つは階調変化が滑らかな画像’slope’。
もう1つは標準画像’SIDBA−girl’で、とも
に、256×256,8bitsである。ネットワーク
の重みとして2次元のガウス分布を用いている。ガウス
分布は中央から離れるに従ってその値が減少する。そこ
で、中央から距離r以上離れたニューロンへの重みを0
に近似している((50)(51)式)。
Two multi-tone images were used in the simulation. One is an image'slope 'with a smooth gradation change.
The other is the standard image “SIDBA-girl”, which has 256 × 256, 8 bits. A two-dimensional Gaussian distribution is used as the weight of the network. The value of the Gaussian distribution decreases as it moves away from the center. Therefore, the weight for a neuron that is more than r away from the center is set to 0
(Equations (50) and (51)).

【0090】[0090]

【数31】 [Equation 31]

【0091】こうすることによりネットワークをスパー
スにすることができる。’slope’を用いて符号化
を行った場合の歪み関数の変化を図3に示す。また、2
つのテスト画像について、u−xとu−Uの特性を図5
〜図11に示す。
By doing so, the network can be made sparse. FIG. 3 shows a change in the distortion function when the encoding is performed using the “slope”. Also, 2
Figure 5 shows the characteristics of u-x and u-U for one test image.
~ Shown in FIG.

【0092】さらに、復号画像の評価のためPSNR
(最高信号対雑音比)を図12〜図13に示す((5
2)式)。
Furthermore, the PSNR is used for evaluation of the decoded image.
(Maximum signal-to-noise ratio) is shown in FIGS. 12 to 13 ((5
2) Expression).

【0093】[0093]

【数32】 [Equation 32]

【0094】<Multi−value Neural
Network with Bilevel Neu
ron>ここで示した多値ニューラルネットワークにお
けるニューロンの出力は多値であるが、基本的には、A
/D変換器である。そこで、出力がnレベルある多値ニ
ューロンをn個の2値ニューロンに置き換えることがで
きる。つまり、n個のニューロンが1つのA/D変換器
を構成していることになる。 <Coding and Decoding with
SequencialOperation>ここで使
用しているニューラルネットワークは接続がスパースで
あるため、解が比較的ローカルに決定されていると考え
ることができる。そこで、多値ニューラルネットワーク
の端の方から逐次出力を決めていったとしても、ある程
度の解を得ることができると予想される。
<Multi-value Neural
Network with Bilevel Neu
ron> The output of the neuron in the multivalued neural network shown here is multivalued, but basically A
It is a / D converter. Therefore, it is possible to replace a multi-valued neuron having an n-level output with n binary neurons. That is, n neurons form one A / D converter. <Coding and Decoding with
Sequential Operation> Since the connection of the neural network used here is sparse, it can be considered that the solution is relatively locally determined. Therefore, it is expected that some solution can be obtained even if the output is sequentially determined from the end of the multi-valued neural network.

【0095】また、(53)式の歪関数を用いた多値ニ
ューラルネットワークでは、各ニューロンが誤差U−u
を最小化するようにその出力yを決定していることに着
目し、これを逐次的な処理により行うことにする。
In the multi-valued neural network using the distortion function of equation (53), each neuron has an error U-u.
Paying attention to the fact that the output y is determined so as to minimize, this will be performed by sequential processing.

【0096】[0096]

【数33】 [Numerical equation 33]

【0097】ここでの処理は、誤差拡散法と似たところ
がある。入力濃淡画像をui j (0<=i<M; 0<
=j<N),出力多値画像をyi j (0<=i<M;
0<=j<N)とすると、誤差拡散法は、(54)(5
5)式の方程式により定義される。
The processing here is similar to the error diffusion method. The input grayscale image is represented by u ij (0 <= i <M; 0 <
= J <N), the output multi-valued image is y ij (0 <= i <M;
If 0 <= j <N, the error diffusion method is (54) (5
It is defined by the equation (5).

【0098】[0098]

【数34】 [Equation 34]

【0099】誤差拡散法との違いは、誤差を参照するの
ではなく、既に決定された出力画素を参照する点にあ
る。ここでの処理は、誤差拡散法と同様に、画像の左上
を出発点とし、逐次、(56)式の方程式に従って出力
yを決定していく。
The difference from the error diffusion method is that instead of referring to the error, the output pixel which has already been determined is referred to. In the process here, similarly to the error diffusion method, the upper left of the image is used as a starting point, and the output y is sequentially determined according to the equation (56).

【0100】[0100]

【数35】 [Equation 35]

【0101】ここで、f(x)は、多値ニューラルネッ
トワークで用いた、量子化関数である。フィルターH
が、(58)式で表される場合、重みWi j は、(5
9)式を用いる。
Here, f (x) is a quantization function used in the multivalued neural network. Filter H
Is expressed by Equation (58), the weight W ij is (5
Equation 9) is used.

【0102】[0102]

【数36】 [Equation 36]

【0103】また、量子化関数f(x)のδ=diag
{H}とする。この時、(60)式により復号画像を得
ることができる。
Further, δ = diag of the quantization function f (x)
Let {H}. At this time, the decoded image can be obtained by the equation (60).

【0104】[0104]

【数37】 [Equation 37]

【0105】[0105]

【発明の効果】以上説明したように、本発明によれば、
ニューロンに複数のレベルを持たせることにより、量子
化誤差を抑え、良質の復号画像を得ることができる。
As described above, according to the present invention,
By providing the neuron with a plurality of levels, it is possible to suppress the quantization error and obtain a good quality decoded image.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の多値ニューラルネットで使用される関
数f(x)(n=3)を示す図である。
FIG. 1 is a diagram showing a function f (x) (n = 3) used in a multi-valued neural network of the present invention.

【図2】本発明の多値ニューラルネットで使用される関
数f(x)(n=4)を示す図である。
FIG. 2 is a diagram showing a function f (x) (n = 4) used in the multi-valued neural network of the present invention.

【図3】歪み関数が単調減少関数であることを示す図で
ある。
FIG. 3 is a diagram showing that the distortion function is a monotonically decreasing function.

【図4】フィルターの広がりとPSNRの関係(’sl
ope’)を示す図である。
FIG. 4 shows the relationship between filter spread and PSNR ('sl
It is a figure which shows ope ').

【図5】フィルターの広がりとPSNRの関係(’SI
DBA−girl’)を示す図である。
FIG. 5 shows the relationship between filter spread and PSNR ('SI
It is a figure which shows DBA-girl '.

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 各ニューロンが複数レベルの出力を持つ
ニューラルネットであり、あるニューロンの近傍ニュー
ロンの出力値の加重平均量を、そのニューロンに入力す
る変数量にダイナミックに近付けるダイナミック量子化
手段を有することを特徴とするニューラルネットによる
画像処理。
1. A neuron is a neural net in which each neuron has a plurality of levels of output, and has dynamic quantizing means for dynamically approximating a weighted average amount of output values of neighboring neurons of a neuron to a variable amount input to the neuron. Image processing by a neural network characterized by the following.
【請求項2】 前記ダイナミック量子化手段は、入力変
数ui を基にした値とするとき、各ニューロンは、周囲
のニューロンの状態を入力とし、その積和と前記入力値
とを比較し、次の状態を 【数1】 で決めるようにダイナミック動作を行うことを特徴とす
る請求項1記載のニューラルネットによる画像処理。
2. When the dynamic quantizing means takes a value based on an input variable u i , each neuron receives the states of surrounding neurons as inputs, and compares its sum of products with the input value, Next state is [Equation 1] 2. The image processing by the neural network according to claim 1, wherein the dynamic operation is performed as determined by.
【請求項3】 符号化用のニューラルネットから出力さ
れる情報に対して、各ニューロンは周囲の前記情報の加
重平均値を出力して画像を復号化することを特徴とする
復号用のニューラルネットを有する画像の圧縮再生方
式。
3. A neural network for decoding, wherein each neuron outputs a weighted average value of the surrounding information with respect to the information output from the neural net for encoding to decode an image. A method of compressing and reproducing an image having.
【請求項4】 請求項1記載のニューロンの動作を画像
の左上から逐次に行い、各ニューロンは、積和を求める
際に、既に符号化を行ったニューロンの情報のみを参照
することを特徴とするニューラルネットによる画像処
理。
4. The operation of the neuron according to claim 1 is sequentially performed from the upper left of the image, and each neuron refers only to the information of the already encoded neuron when obtaining the product sum. Image processing by neural network.
【請求項5】 各ニューロンは、符号化用のニューラル
ネットから出力された情報を、符号化時に参照したのと
同じニューロンに対して参照し、その加重平均値を出力
して画像を復号化することを特徴とする復号用のニュー
ラルネットを有する画像の圧縮再生方式。
5. Each neuron refers to the information output from the neural network for encoding, to the same neuron referred to at the time of encoding, and outputs the weighted average value to decode the image. An image compression / reproduction method having a decoding neural network characterized by the above.
JP4307355A 1992-11-17 1992-11-17 Compression and reproduction of picture by neural network Pending JPH06164902A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4307355A JPH06164902A (en) 1992-11-17 1992-11-17 Compression and reproduction of picture by neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4307355A JPH06164902A (en) 1992-11-17 1992-11-17 Compression and reproduction of picture by neural network

Publications (1)

Publication Number Publication Date
JPH06164902A true JPH06164902A (en) 1994-06-10

Family

ID=17968103

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4307355A Pending JPH06164902A (en) 1992-11-17 1992-11-17 Compression and reproduction of picture by neural network

Country Status (1)

Country Link
JP (1) JPH06164902A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5638125A (en) * 1994-07-08 1997-06-10 Samsung Electronics Co., Ltd. Quantization step size control apparatus using neural networks
CN110880194A (en) * 2019-12-03 2020-03-13 山东浪潮人工智能研究院有限公司 Image compression method based on convolutional neural network

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5638125A (en) * 1994-07-08 1997-06-10 Samsung Electronics Co., Ltd. Quantization step size control apparatus using neural networks
CN110880194A (en) * 2019-12-03 2020-03-13 山东浪潮人工智能研究院有限公司 Image compression method based on convolutional neural network

Similar Documents

Publication Publication Date Title
US5495542A (en) Binary to multi-level image restoration using neural network
Burt et al. The Laplacian pyramid as a compact image code
EP0414505B1 (en) Edge enhanced error diffusion algorithm and method of image encoding.
EP0778696B1 (en) Method and apparatus for providing halftoning processing of color images by means of a neural network
US6072909A (en) Image coding devise and image decoding devise using with image disassembly
JPH11239274A (en) Image processing method and device
Son Inverse halftoning through structure-aware deep convolutional neural networks
Sadeeq et al. Image compression using neural networks: a review
US5841904A (en) Image processing method and apparatus
US6141450A (en) Image compression system using halftoning and inverse halftoning to produce base and difference layers while minimizing mean square errors
Huang et al. Neural network based method for image halftoning and inverse halftoning
JPH06164902A (en) Compression and reproduction of picture by neural network
JP3743077B2 (en) Image signal conversion apparatus and method
Sun et al. Neural network approaches to fractal image compression and decompression
Pelcastre-Jimenez et al. An inverse halftoning algorithm based on neural networks and UP (x) atomic function
JP3209763B2 (en) Image signal processing method
Nasrabadi et al. Vector quantization of images based upon a neural-network clustering algorithm
JP2021179891A (en) Image processing apparatus
JPH08279899A (en) Low bit intermediate tone expression for still image and moving image by neural network
JPH10327319A (en) Image processing method and unit
Rizvi et al. Finite-state residual vector quantization using a tree-structured competitive neural network
Mironov Local Adaptive Image Processing
JPH0350960A (en) Picture signal processing unit
JP4491701B2 (en) Data processing apparatus, data processing method, and recording medium
CN114286113A (en) Image compression recovery method and system based on multi-head heterogeneous convolution self-encoder