Hintergrund der Erfindung
1. Gebiet der Erfindung
-
Die vorliegende Erfindung betrifft eine Vorrichtung zum Codieren eines Bildsignales.
2. Beschreibung des Standes der Technik
-
Bei einer Vorrichtung zum Empfangen eines Manuskripts als ein digitales Bildsignal
und zum Anwenden eines Editierprozesses oder dergleichen auf das digitale
Manuskript-Bildsignal ist ein Seitenspeicher erforderlich, der zum vorübergehenden
Speichern der Daten des Bildes verwendet wird.
-
In den letzten Jahren nahm die Kapazität des Seitenspeichers immer mehr zu, da auch
die Auflösung des zu verarbeitenden Bildes und die Anzahl der Farben des Bildes
zunahmen. Dies führt zu den folgenden beiden Problemen.
-
Das eine Problem besteht darin, daß sich der Preis des Seitenspeichers erhöht, während
das andere Problem darin besteht, daß sich die zum Auslesen eines Bildes aus dem
Seitenspeicher benötigte Zeit sowie die zum Einschreiben des Bildes in den
Seitenspeicher benötigte Zeit verlängert.
-
Um diese Probleme zu lösen, wurde eine Bildcodiertechnik vorgeschlagen, welche auf
eine Reduzierung des Seitenspeichers abzielt, wie es in der am 5.3.1993
veröffentlichten, ungeprüften japanischen Patentveröffentlichung No. Hei. 5-56282
offenbart ist.
-
Das in der oben erwähnten ungeprüften japanischen Patentveröffentlichung
No. Hei. 5-56282 offenbarte Verfahren zielt im wesentlichen darauf ab, die folgenden
drei Erfordernisse zu erfüllen.
-
Eines der Erfordernisse sieht vor, daß ein Bild mit einer einheitlichen Kompressibilität
unabhängig von dem Bild codiert werden kann.
-
Ein zweites Erfordernis besteht darin, daß ein in eine vorgegebene Anzahl von
Einheiten unterteiltes Bild mit einer vorgegebenen Menge von Codes codiert werden
kann.
-
Ein drittes Erfordernis besteht darin, daß die Codier-/Decodierverarbeitung mit hoher
und konstanter Geschwindigkeit ausgeführt werden kann.
-
Nachfolgend wird eine Bildcodiervorrichtung beschrieben, die in der oben erwähnten
ungeprüften japanischen Patentveröffentlichung No. Hei. 5-56282 offenbart ist.
-
Fig. 12 zeigt ein Blockschaltbild der Struktur der Bildcodiereinrichtung. In Fig. 12
bezeichnet das Bezugszeichen 1 ein Eingangsbild, welches durch einen in Fig. 13
gezeigten Rasterscanvorgang eingegeben wird, 3 bezeichnet einen Eingangsblock, der
aus mxn Pixeln oder Bildpunkten besteht, die mit Hilfe eines Blockungsabschnitts 2 wie
in Fig. 13 gezeigt umgewandelt oder transformiert werden, 5 bezeichnet eine
Mittelwertinformation, die von einem Mittelwertabtrenner 4 berechnet wird, 6
bezeichnet einen Mittelwert-Abtrennungsblock, der durch Subtrahieren eines
Mittelwerts von dem Eingangsblock 3 durch den Mittelwertabtrenner 4 erhalten wird, 8
bezeichnet einen Näherungsparameter oder eine Modusinformation, der oder die von
einem Modusunterscheider 7 erhalten wird, 10 bezeichnet einen Näherungsblock, der
erhalten wird, wenn ein adaptiver Näherungscodierer 9 eine Auflösungsnäherung und
eine Gradationsnäherung auf den Mittelwert-Abtrennungsblock 6 anwendet, und 12
bezeichnet Codierdaten, die von einem. Multiplexer 11 gemultiplext werden. Der
Blockungsabschnitt 2 wird verwendet, um die Abtastreihenfolge des Eingangsbilds 1
wie in Fig. 13 gezeigt von einem Rasterscanformat in ein Blockformat umzuwandeln,
der Mittelwertabtrenner 4 wird verwendet, um den Mittelwert des Eingangsblocks 3 zu
berechnen und den Mittelwert von dem Eingangsblock 3 zu subtrahieren, der
Modusunterscheider 7 wird verwendet, um die statistischen und räumlichen Eigenwerte
des Mittelwert-Abtrennungsblocks 6 zu analysieren und durch eine Näherungscodierung
in Übereinstimmung mit den Ergebnissen der Analyse einen Näherungsparameter zu
erhalten, der adaptive Näherungscodierer 9 führt eine Auflösungsnäherung und eine
Gradationsnäherung aus, und der Multiplexer 11 wird verwendet, um die
Mittelwertinformation 5 und die Modusinformation 8 sowie den Näherungsblock 10 zu
multiplexen.
-
In Fig. 14 ist nun ein Blockschaltbild der Struktur des in Fig. 12 gezeigten
Modusunterscheiders 7 dargestellt. In Fig. 14 bezeichnet das Bezugszeichen 16 einen
Vektorindex, welcher einen von einer Musteranpassungsanordnung 15 ausgewählten
repräsentativen Vektor anzeigt, 18 bezeichnet einen Parameterkandidatenwert, d. h. eine
Signalforminformation, die sich auf eine von, einer Signalform-Abbildungstabelle 17
auszugebende Auflösungsnäherung bezieht, 23 bezeichnet einen Varianzwert, der von
einem Varianzberechner 22 ausgegeben wird, 25 bezeichnet eine
Histogramminformation, die von einem Histogrammzähler 24 ausgegeben wird, 27
bezeichnet einen Parameterkandidatenwert, d. h. eine Gewinninformation, welche sich
auf die Gradationsnäherung bezieht, und 14 bezeichnet einen Signalformanalysator, der
zum Analysieren der Signalforminformation der statistischen und räumlichen
Eigenwerte wie in Fig. 15 gezeigt eingesetzt wird. Die Musteranpassungsanordnung
15 wird verwendet, um eine Musteranpassung zwischen der Menge der repräsentativen
Vektoren, die repräsentative Signalforminformationen aufweisen, und dem aus mxn
Pixeln bestehenden Mittelwert-Abtrennungsblock 6 durchzuführen, um auf diese Weise
einen repräsentativen Vektor mit der nächstenliegenden Signalforminformation
auszuwählen, die Signalform-Abbildungstabelle 17 erhält einen
Parameterkandidatenwert infolge der Auflösungsnäherung des Vektorindex 16, der
Gewinnanalysator 20 wird verwendet, um die in dem aus mxn Pixeln bestehenden und
in Fig. 13 gezeigten Block enthaltene Gewinninformation in den statistischen und
räumlichen Eigenwerten zu analysieren, der Varianzberechner 22 wird verwendet, um
den Varianzwert des Werts der mxn Pixel des Mittelwert-Abtrennungsblocks 6 zu
berechnen, der Histogrammzähler 24 zählt die Frequenzverteilung des Werts der mxn
Pixel des Mittelwert-Abtrennungsblocks 6, eine Gewinnabbildungstabelle 26 erhält in
Folge der auf den Varianzwert 22 und die Histogramminformation 25 angewendete
Gradationsnäherung einen Parameterkandidatenwert, und eine
Modusbeurteilungsanordnung 21 erhält ausgehend von der Signalforminformation 18
und der Gewinninformation 27 die Modusinformation 8, d. h. einen
Näherungsparameter.
-
Es wird nunmehr auf Fig. 16 Bezug genommen, wobei ein Blockschaltbild der
Struktur des in Fig. 12 gezeigten adaptiven Näherungscodierers 9 dargestellt ist. In
Fig. 16 bezeichnet das Bezugszeichen 33 einen Unterabtastungsblock, der von einem
adaptiven Unterabtaster 32 einer Unterabtastung unterzogen wird, und 30 bezeichnet
einen Unterabtastungsmustergenerator, der in Übereinstimmung mit dem durch die
Auflösungsnäherung der Modusinformation 8 erhaltenen Parameter ein
Unterabtastungsmuster 31 zum Steuern eines auf die Auflösungsnäherung
anzuwendenden Unterabtastungsvorgangs erhält. Der adaptive Unterabtaster 32
unterzieht die mxn Pixel des Mittelwert-Abtrennungsblocks 6 in Übereinstimmung mit
dem von dem Unterabtastungsmustergenerator 30 auszugebenden
Unterabtastungsmuster 31 einer Unterabtastung, und ein adaptiver Quantisierer 34 führt
einen Gradationsnäherungsvorgang aus, d. h. quantisiert die Gradationsnäherung in
Übereinstimmung mit dem Parameter der Gradationsnäherung der Modusinformation 8.
-
Nachfolgend wird unter Bezugnahme auf die Fig. 12, 14 und 16 der Betrieb der
oben erwähnten Bildcodiervorrichtung beschrieben. Wie in Fig. 13 gezeigt ist, wird
das durch den Rasterscanvorgang eingegebene Eingangsbild 1 durch eine
Abtastungsumsetzung des Blockungsabschnitts 2 in den Eingangsblock 3, der die mxn
Pixel umfaßt, umgesetzt. Anschließend werden sämtliche Codiervorgänge unabhängig
voneinander in Form von Blöcken durchgeführt, wobei der Eingangsblock 3 als eine
Einheit dient.
-
Der in Fig. 12 gezeigte Mittelwertabtrenner 4 berechnet den Mittelwert u des Werts
Sij (i = 1, 2, ---, m, j = 1, 2, ---, n) der den Eingangsblock 3 bildenden mxn Pixel, d. h.
die Mittelwertinformation 5, und subtrahiert anschließend den Mittelwert u von den
entsprechenden Pixelwerten der den Eingangsblock 3 bildenden mxn Pixeln und
berechnet anhand der Werte Xij (i = 1, 2, ---, m, j = 1, 2, ---, n) der mxn Pixel, die dem
Mittelwert-Abtrennungsvorgang unterzogen worden sind, den Mittelwert-
Abtrennungsblock 6. Dabei können Sij, u und Xij durch die folgende mathematische
Gleichung ausgedrückt werden:
-
u = ( Sij)/(mxn)
-
Xij = Sij - u
-
Der in Fig. 12 gezeigte Modusunterscheider 7 analysiert die statistischen und
räumlichen Eigenwerten des Mittelwert-Abtrennungsblocks 6 und gibt in
Übereinstimmung mit den Analyseergebnissen die Modusinformation 8, d. h. den
Näherungsparameter aus. Wie in Fig. 14 gezeigt ist, analysiert der
Signalformanalysator 14, der einen Bestandteil des Modusunterscheiders 7 darstellt, die
Signalforminformation, um den Kandidatenwert des Auflösungs-Näherungsparameters
zu erhalten. Auf ähnliche Weise analysiert der Gewinnanalysator 20 die
Gewinninformation, um auf diese Weise den Kandidatenwert des
Gradationsnäherungsparameters zu erhalten. Auf ähnliche Weise erhält die
Modusbeurteilungsanordnung 21 den Näherungsparameter, d. h. die Modusinformation
8, anhand des Kandidatenwerts des Auflösungs-Näherungsparameters und des
Kandidatenwerts des Gradationsnäherungsparameters.
-
Der in Fig. 14 gezeigte Signalformanalysator 14 analysiert die Signalforminformation,
welche die zweidimensionale Ausrichtung und Komplexität der
Gradationsveränderungen des Mittelwert-Abtrennungsblocks 6 darstellt, und erhält
anhand der Ergebnisse dieser Analyse einen Kandidatenwert des
Auflösungsnäherungsparameters für die Näherung der Auflösung des Mittelwert-
Abtrennungsblocks 6.
-
Die in Fig. 14 gezeigte Musteranpassungsanordnung 15 unterzieht, wie in Fig. 15
gezeigt ist, beispielsweise eine Menge von repräsentativen Vektoren, welche zuvor
bereitgestellte repräsentative Signalforminformationen enthält, einer Musteranpassung in
Bezug auf einen (nachfolgend als Analyseblock bezeichneten) Analysezielblock, d. h.
den Mittelwert-Abtrennungsblock 6, um auf diese Weise eine
Signalforminformationanalyse durchzuführen. Somit kann mit Hilfe der Analyse der
Signalforminformation die Richtung und Komplexität der Gradationsschwankungen des
Analyseblocks erhalten werden, während der Vektorindex 16 durch den Index des
repräsentativen Vektors erhalten werden kann. Wird ein aus mxn Pixeln bestehender
Analyseblock durch x = {Xj i = 1, 2, ---, mxn} und eine aus k repräsentativen Vektoren
bestehende Menge von repräsentativen Vektoren durch Y = {yi i = 1, 2, ---, k}
ausgedrückt, kann eine Musteranpassung durch die folgende Gleichung definiert
werden.
-
Für jedes i gilt d(x,yp) = min{d(x,yi)} (i = 1, 2, ---, k), wobei d(x, yi) ein
Verzerrungsmaß darstellt und durch eine Quadratverzerrung oder dergleichen definiert
werden kann. p entspricht dem Index eines repräsentativen Vektors, d. h. dem
Vektorindex 16, und dadurch wird angezeigt, daß ein durch p bezeichneter
repräsentativer Vektor xp, als derjenige repräsentative Vektor ausgewählt worden ist, der
die dem Analyseblock nächstkommende Signalforminformation enthält.
-
Die in Fig. 14 gezeigte Signalform-Abbildungstabelle 17 erhält anhand des
Vektorindex 16 einen Auflösungs-Näherungsparameter-Kandidatenwert, d. h. die
Signalforminformation 18. Der Auflösungsnäherungsparameter-Kandidatenwert besteht
aus der die zweidimensionale Richtung der Gradationsschwankungen darstellenden
Richtung v(p) des Analyseblocks sowie einer die Komplexität der
Gradationsschwankungen darstellenden Unterabtastrate r(p).
-
Der in Fig. 14 gezeigte Gewinnanalysator 20 analysiert die Gewinninformation,
welche die Frequenzverteilung der Amplituden und Pixelwerte des Mittelwert-
Abtrennungsblocks darstellt, und erhält anhand der Ergebnisse dieser Analyse einen
Gradationsnäherungsparameter-Kandidatenwert für die Näherung der Gradation des
Mittelwert-Abtrennungsblocks 6. Die Analyse der Gewinninformation kann dadurch
ausgeführt werden, daß der Varianzwert σ² der Werte der den Mittelwert-
Abtrennungsblocks bildenden mxn Pixeln sowie deren Histogramm gezählt wird.
-
Der in Fig. 14 gezeigte Varianzberechner 22 berechnet den Varianzwert σ² der Werte
der den Mittelwert-Abtrennungsblock 6 bildenden mxn Pixeln, d. h. er berechnet den
Varianzwert 23. Der Varianzwert der mxn Pixel, von denen der Mittelwert abgetrennt
worden ist, kann durch die folgende Gleichung definiert werden.
-
σ² = ( X²ij)/(mxn)
-
Oder der Varianzwert σ kann wie folgt dargestellt werden.
-
σ = ( Xij )/(mxn)
-
Der in Fig. 14 gezeigte Histogrammzähler 24 unterzieht, wie in Fig. 17 gezeigt ist,
den Mittelwert-Abtrennungsblock 6 mit Hilfe des Varianzwertes σ einer
Schwellenwertverarbeitung, um auf diese Weise die Frequenz zu zählen. Das heißt, als
Schwellenwerte werden ± σ/a gewählt, und die Frequenz wird in drei Bereichen,
nämlich dem Bereich kleiner als -σ/a, dem Bereich zwischen -σ/a und σ/a und dem
Bereich größer als σ/a, gezählt. Dabei ist a eine reelle Zahl größer oder gleich 1, und
im vorliegenden Ausführungsbeispiel ist beispielsweise a = 3. Die in den drei Bereichen
gezählten Frequenzwerte werden mit H&submin;&sub1;, H&sub0; bzw. H&sub1; bezeichnet. Wie in Fig. 17
gezeigt ist, wird anhand der Werte für H&submin;&sub1;, H&sub0; und H&sub1; beurteilt, ob das Histogramm
einer einmodigen Verteilung oder einer zweimodigen Verteilung entspricht, und das
Ergebnis dieser Beurteilung wird in Form der Histogramminformation 25 erhalten. Gilt
beispielsweise H&submin;&sub1; ≤ H&sub0; und H&sub0; ≥ H&sub1;, wird das Histogramm als einmodige Verteilung
beurteilt, während in den anderen Fällen das Histogramm als zweimodige Verteilung
beurteilt wird.
-
Die in Fig. 14 gezeigte Gewinnabbildungstabelle 26 erhält anhand des Varianzwerts 23
und der Histogramminformation 26 einen Gradationsnäherungsparameter-
Kandidatenwert, d. h. die Gewinninformation 27. Der Gradationsnäherungsparameter-
Kandidatenwert besteht aus einer Gradationsnäherung, d. h. der
Quantisierungskenngröße c und der Pegelanzahl 1.
-
Die in Fig. 14 gezeigte Modusbeurteilungsanordnung 21 ermittelt anhand des
Auflösungsnäherungsparameter-Kandidatenwerts und des
Gradationsnäherungsparameter-Kandidatenwerts einen Näherungsparameter, d. h. die Modusinformation 8.
Bei der Durchführung einer Codierung mit fester Länge, um für jeden der mxn Pixel
die Codemenge auf eine vorgegebene Menge einzustellen, indem die Unterabtastrate r
des Auflösungsnäherungsparameter-Kandidatenwerts zusammen mit der Codemenge
und der Pegelanzahl 1 des Gradationsnäherungsparameter-Kandidatenwerts verarbeitet
wird, wird die Datenmenge des Näherungsblocks 10 auf eine bestimmte Menge
eingestellt. Im vorliegenden Fall ist die Datenmenge des Näherungsblocks 10
proportional zu p · log&sub2; 1, so daß der Wert p · log&sub2; 1 auf einen vorgegebenen Wert
eingestellt werden kann. Die auf diese Weise gesteuerten
Auflösungsnäherungsparameter und Gradationsnäherungsparameter werden miteinander
kombiniert und anschließend als Modusinformation 8 ausgegeben. Werden der jeweilige
Auflösungsnäherungsparameter-Kandidatenwert und Gradationsnäherungsparameter-
Kandidatenwert unverändert als Modusinformation 8 verwendet, kann zudem die
Qualität des wiedergegebenen Bildes auf einem vorgegebenen Niveau gehalten werden.
-
Der in Fig. 12 gezeigte adaptive Näherungscodierer 9 führt in Übereinstimmung mit
der Modusinformation 8 die Näherung der Auflösung sowie die Näherung der
Gradation durch.
-
Der in Fig. 16 gezeigte Unterabtastungsmustergenerator 30 ermittelt in
Übereinstimmung mit dem Gradationsnäherungsparameter der Modusinformation 8 das
Muster 31 für die Unterabtastung des Mittelwert-Abtrennungsblocks 6, d. h. sowohl die
Analyseblockrichtung v, welche die zweidimensionale Richtung der
Gradationsschwankungen darstellt, als auch die Unterabtastungsrate r, welche die
Komplexität der Gradationsschwankungen darstellt. Das Muster 31 wird durch
Kombination der Richtung v mit der Rate r festgelegt. Das Muster 31 enthält
beispielsweise ein Muster, bei dem ein aus mxn Pixeln bestehender Block lediglich in
seiner Längsrichtung auf 1/2 ausgedünnt ist, oder ein Muster, bei dem der Block
lediglich in seiner Querrichtung auf 1/2 ausgedünnt ist, oder ein Muster, bei dem der
Block sowohl in seiner Längs- als auch Querrichtung auf 1/2 ausgedünnt ist usw.
-
Der in Fig. 16 gezeigte adaptive Unterabtaster 32 unterzieht den Mittelwert-
Abtrennungsblock 6 in Übereinstimmung mit dem Unterabtastungsmuster 31 einer
Unterabtastung.
-
Der in Fig. 16 gezeigte adaptive Quantisierer 34 quantisiert den Unterabtastungsblock
33 in Übereinstimmung mit dem Gradationsnäherungsparameter der Modusinformation
8, d. h. der Quantisierungskenngröße c und der Anzahl 1 der Quantisierungsschritte. Wie
in Fig. 17 gezeigt ist, wird ein ideal für eine einmodige Verteilung geeigneter
Quantisierer ausgewählt, falls die Quantisierungskenngröße c einer einmodigen
Verteilung entspricht, und es wird ein ideal für eine zweimodige Verteilung geeigneter
Quantisierer ausgewählt, falls die Quantisierungskenngröße c eine zweimodige
Verteilung anzeigt. Dabei kann als Quantisierer beispielsweise ein nicht-linearer
Quantisierer, wie z. B. ein Optimalquantisierer, verwendet werden, der für jede
Verteilung eine Quantisierung angesichts des Maximalwerts der Verteilung durchführt.
Die Quantisierer sollten in Übereinstimmung mit den jeweiligen Kombinationen der
Quantisierungskenngröße c und der Anzahl 1 der Quantisierungsschritte vorgesehen
werden.
-
Der in Fig. 12 gezeigte Multiplexer 11 multiplext wie in Fig. 18 gezeigt die
Modusinformation 8, die Mittelwertinformation 5 und den Näherungsblock 10, um auf
diese Weise die Codierdaten 12 zu erhalten.
-
Als ein höchsteffektives Codierverfahren für Kommunikations- und Speicherzwecke ist
andererseits ein Codierverfahren bekannt, welches auf Grundlage einer (nachfolgend als
DCT abgekürzten) diskreten Cosinustransformation, welche eine orthogonale
Transformationsart darstellt, durchgeführt wird (Hideo Hashimoto: Introduction to
Image Compression "Image Encoding Algorithm II -Transformation Encoding-", The
Journal of the Institute of Television Engineers of Japan, Vol. 43, No. 10, 1989, Seiten
1145-1152.)
-
Nachfolgend wird die orthogonale Transformation beschrieben.
-
Für ein Bildsignal wird eine zweidimensionale orthogonale Transformation eingesetzt,
welche eine Kombination zwischen horizontalen und vertikalen Richtungen verwendet.
Es wird ein Pixelblock konstruiert, der M Pixel in horizontaler bzw. N Pixel in
vertikaler Richtung aufweist, und es werden unabhängig voneinander eindimensionale
orthogonale Tranformationen in horizontaler und vertikaler Richtung ausgeführt. Diese
Verarbeitungsvorgänge können durch die folgende Gleichung (1) ausgedrückt werden:
-
Y = ANXATM (1)
-
Dabei bezeichnet X einen Pixelblock bestehend aus N Zeilen und M Spalten, Y
bezeichnet einen Transformationskoeffizienten, und AN bzw. AM stellt eine orthogonale
Transformationsmatrix der Ordnung N bzw. M dar.
-
Es sind verschiedene Arten von orthogonalen Transformationsverfahren verfügbar,
wobei in Anbetracht der Codiereffektivität im allgemeinen das DCT-Verfahren
verwendet wird. Eine zweidimensionale DCT der Ordnung n kann beispielsweise durch
die folgende Gleichung (2) dargestellt werden, während deren inverse Transformation
durch die folgende Gleichung (3) ausgedrückt werden kann.
-
Dabei bezeichnet X(j, k) die entsprechenden Elemente des Pixelblocks 102, und j, k
bezeichnen die jeweilige Position der Elemente. Y(u, v) repräsentiert die entsprechenden
Elemente der Transformationskoeffizienten, und u, v drücken die Positionen der
Elemente aus.
-
Für ein als natürliches Bild bezeichnetes Bildsignal, wie z. B. bei einer Person, einem
Hintergrund oder dergleichen, ist bekannt, daß gegenseitig benachbarte Pixel dazu
neigen, ähnliche Pixelwerte anzunehmen, und eine hohe Korrelativität zu besitzen. Ein
derartiges Signal hoher Korrelativität bedeutet, daß die elektrische Leistung eines
Signals auf der Frequenzachse betrachtet kollektiv auf eine bestimmte
Frequenzkomponente verteilt wird. Durch Codieren lediglich des Koeffizienten
derjenigen Komponente, auf die die Signalleistung kollektiv aufgeteilt wird, kann der
Gesamtinformationsumfang reduziert werden. Bei Anwendung des DCT-Verfahrens
wird bei einem natürlichen Bild der größte Anteil der Signalleistung auf einen
Niederfrequenzbereich konzentriert.
-
Bei dem DCT-Verfahren sind jedoch die Probleme bekannt, daß sich die
Codiereffektivität verschlechtert, falls in dem Bild eine Kante enthalten ist, und daß in
der Nähe der Kante eines decodierten Bildes eine bestimmte
Bildqualitätsverschlechterung auftritt. Dies deshalb, da bei einem eine Kante
aufweisenden Pixelblock die Signalleistung nicht auf einem bestimmten Koeffizienten
konzentriert, sondern über einen breiten Koeffizientenbereich verteilt wird. In der
ungeprüften japanischen Patentveröffentlichung No. Hei. 5-63989 ist ein Verfahren
zum Verringern der Bildqualitätsverschlechterung offenbart, wenn ein derartiges eine
Kante aufweisendes Bild gemäß dem DCT-Verfahren codiert wird.
-
Bei dem in der ungeprüften japanischen Patentveröffentlichung No. Hei. 5-63989
offenbarten Verfahren wird zunächst durch Verwendung einer
Musterübereinstimmungs- und Varianzberechnung die Signalform des Pixelblocks
analysiert. Anschließend werden anhand der Ergebnisse der Analyse
Maskeninformationen ausgewählt, welche die Signifikanz/Insignifikanz der DCT-
Koeffizienten festlegen. Ein Koeffizient der DCT-Koeffizienten, der für eine Position
vorgesehen ist, bei der die Maskeninformation Insignifikanz anzeigt, wird zwangsweise
auf 0 gesetzt. Nach der obigen Auswahl der Koeffizienten wird eine Entropiecodierung
durchgeführt.
-
Das in der oben erwähnten ungeprüften japanischen Patentveröffentlichung No. Hei.
5-56282 offenbarte Verfahren weist jedoch die beiden folgenden Probleme auf:
-
Zunächst treten in einem Bild lokal vorhandene Schwankungen, beispielsweise
hinsichtlich der Zeichenbereiche, der Leerraumbereiche und dergleichen auf, die
statistische Eigenschaften besitzen. Bei dem in der obigen ungeprüften japanischen
Patentveröffentlichung No. Hei. 5-56282 offenbarten Verfahren wird jedoch das in eine
vorgegebene Anzahl von Unterabschnittseinheiten aufgeteilte Bild mit einer konstanten
Codemenge codiert, um eine zweidimensionale Positionbeziehung zwischen den Bild-
und den Codierdaten beizubehalten. Aus diesem Grunde ist in den codierten Daten
Redundanz enthalten. Zweitens ist das Verfahren nicht kompatibel zu anderen
Codierverfahren, welche extern von der Codiervorrichtung verwendet werden, da das
Verfahren hauptsächlich für die interne Verwendung in der Codiervorrichtung
entwickelt worden ist.
-
Wird das in der obigen ungeprüften japanischen Patentveröffentlichung No. Hei. 5-
56282 offenbarte Verfahren für Kommunikations- und Speicherzwecke verwendet, wird
daher erwartet, daß die in Übereinstimmung mit dem Verfahren codierten Codierdaten
einmalig codiert und anschließend die decodierten Daten wieder mit hoher Effektivität
codiert werden.
-
Aufgrund der Tatsache, daß das in der obigen ungeprüften japanischen
Patentveröffentlichung No. Hei. 5-56282 offenbarte Verfahren einen auf der
Blocknäherungscodierung basierenden Algorithmus verwendet, wird jedoch eine in dem
decodierten Bild enthaltene Kante durch eine geringe Anzahl von repräsentativen
Gradationen angenähert, was als Ergebnis zur Folge hat, daß die Kante verstärkt wird.
Aus diesem Grunde ist es im Hinblick auf die Effektivität und Bildqualität nicht
empfehlenswert, das decodierte Bild nochmals direkt gemäß dem DCT-Verfahren zu
codieren.
-
Die EP-A-0 434 429 offenbart eine Bildverarbeitungsvorrichtung, welche zur
Faxkommunikation in einer Bilddatenbasis oder dergleichen eingesetzt wird. Eines der
wesentlichen Probleme, mit denen ein Bildcodiersystem bei der Anwendung von
orthogonalen Transformationen, wie beispielsweise der DCT, konfrontiert wird, ist die
Tatsache, daß eine DCT-Transformation gut für natürliche Bilder geeignet ist, im Falle
von Zeichen jedoch eine Qualitätsverschlechterung auftritt. Der Grund hierfür sind die
aufgrund der Kanten eines Zeichens auftretenden Hochfrequenzkomponenten. In
Anbetracht dieser Tatsache klassifiziert zunächst die Vorrichtung gemäß der
EP-A-0434429 einen N · M Pixel aufweisenden Block abhängig davon, ob der Block
einen natürlichen Bildabschnitt oder einen Zeichenbildabschnitt aufweist. Enthält der
Block eine Kante (Zeichenabschnitt), wird der Block zunächst durch eine BTC (Block
Truncation Coding) codiert. Anschließend wird die Differenz zwischen dem
ursprünglichen Block und dem rekonstruierten (decodierten) BTC-Block berechnet. In
dem auf diese Weise konstruierten Differenzblock ist die Kante nicht mehr enthalten.
Mit anderen Worten, die Hochfrequenzkomponenten wurden entfernt. Der
Differenzblock wird nunmehr einer DCT-Transformation unterzogen. Die übertragenen
codierten Daten enthalten daher die Musterinformation und die Mittelwertinformation
(diese beiden Informationen bilden den BCT-Codierteil, d. h. die codierte
Kanteninformation) sowie den DCT-codierten Teil.
-
Insbesondere verwendet das Verfahren gemäß der EP-A-0434429 zwei Codierverfahren
parallel, d. h. der Block wird mathematisch in zwei Blöcke gleicher Größe aufgeteilt,
wobei der eine die Hochfrequenzkomponenten des ursprünglichen Pixelblocks und der
andere den Niederfrequenzanteil des ursprünglichen Blocks enthält. Der
Hochfrequenzblock wird im Pixelbereich mit Hilfe eines BTC-Verfahrens codiert,
während der Niederfrequenzblock im Frequenzbereich mit Hilfe eines DCT-Verfahrens
codiert wird. Diese beiden codierten Teile werden gemultiplext und übertragen, wobei
jedoch im Prinzip diese beiden codierten Blöcke vollständig unabhängig voneinander
sind.
-
Demzufolge benötigt die Decodiereinheit zum Decodieren der übertragenen Daten eine
Vielzahl von Informationen, um den Decodierprozess ausführen und einen
rekonstruierten Pixelblock erzeugen zu können. Insbesondere benötigt die
Decodiereinheit für die inverse DCT-Decodierung die Musterinformation, die
Mittelwertinformation und die Quantisierungsinformation. Anschließend müssen die
beiden daraus resultierenden decodierten Blöcke addiert werden, um den rekonstruierten
Block zu erhalten. Daher ist die Decodiereinheit relativ kompliziert aufgebaut und
erfordert einen großen Berechnungsaufwand.
Zusammenfassung der Erfindung
-
Der vorliegenden Erfindung liegt daher die Aufgabe zugrunde, eine Bildsignal-
Codiervorrichtung und ein Verfahren zum Codieren eines Bildsignales bereitzustellen,
wobei Codierdaten erzeugt werden, die mit einer verbesserten Effektivität decodiert
werden können.
-
Diese Aufgabe wird durch die Gegenstände des Anspruches 1 und des Anspruches 7
gelöst. Bevorzugte Ausführungsbeispiele sind Gegenstand der abhängigen Ansprüche.
-
Erfindungsgemäß wird eine Bildsignal-Codiervorrichtung bereitgestellt, die umfaßt:
Aufteilungsmittel zum Aufteilen eines Bildsignals in eine Vielzahl von rechteckigen
Pixelblöcken, Mittelwert-Abtrennungsmittel zum Berechnen eines Pixel-Mittelwerts
jedes Pixelblocks und zum Subtrahieren des Mittelwerts von jedem einzelnen Pixelwert
des Pixelblocks, um einen Mittelwert-Abtrennungspixelblock zu bilden,
Modusunterscheidungsmittel zum Analysieren von Eigenschaften von Auflösungs- und
Gradationsveränderungen des Mittelwert-Abtrennungspixelblocks und zum Ausgeben
einer Modusinformation, die in Übereinstimmung mit den Eigenschaften der
Pixelverteilung in dem Mittelwert-Abtrennungspixelblock definiert ist, erste
Codiermittel zum Codieren des Mittelwert-Abtrennungspixelblocks mit Hilfe eines
Codiervorgangs in dem durch die Modusinformation definierten Pixelbereich unter
Verwendung eines adaptiven Näherungscodierers, wobei der Mittelwert-
Abtrennungspixelblock durch einen Unterabtastungsvorgang unter Verwendung eines an
die Modusinformation angepaßten Unterabtastungsmusters mit einer nachfolgenden
adaptiven Quantisierung unter Verwendung eines an die Modusinformation angepaßten
adaptiven Quantisierers und durch Ausgeben eines Näherungsblocks angenähert wird,
wobei die Vorrichtung weiterhin umfaßt: Lokaldecodiermittel zum lokalen Decodieren
des Näherungsblocks mit Hilfe eines Decodiervorgangs unter Verwendung der
Modusinformation und der Mittelwertinformation und zum Ausgeben eines
lokaldecodierten rekonstruierten Pixelblocks und zwei Decodiermittel zum Codieren des
lokal decodierten rekonstruierten Pixelblocks mit Hilfe eines der Modusinformation
entsprechenden Codiervorgangs unter Verwendung einer orthogonalen Transformation
und zum Ausgeben von zweiten Codierdaten.
-
Des weiteren wird erfindungsgemäß ein Verfahren zum Codieren eines Bildsignals
bereitgestellt, welches die Schritte umfaßt: Aufteilen eines Bildsignals in eine Vielzahl
von rechteckigen Pixelblöcken, Berechnen eines Pixel-Mittelwerts jedes Pixelblocks
und Subtrahieren des Mittelwerts von jedem einzelnen Pixelwert des Pixelblocks, um
einen Mittelwert-Abtrennungspixelblock zu bilden, analysieren von Eigenschaften von
Auflösungs- und Gradationsveränderungen in dem Mittelwert-Abtrennungspixelblock
und Erzeugen einer die Eigenschaften umfassenden Modusinformation, Codieren des
Mittelwert-Abtrennungspixelblocks mit Hilfe eines Codiervorgangs in dem durch die
Modusinformation definierten Pixelbereich unter Verwendung eines adaptiven
Näherungscodierers, wobei der Mittelwert-Abtrennungspixelblock durch einen
Unterabtastungsvorgang unter Verwendung eines an die Modusinformation angepaßten
Unterabtastungsmusters mit einer nachfolgenden adaptiven Quantisierung unter
Verwendung eines an die Modusinformation angepaßten adaptiven Quantisierers
angenähert wird, wobei das Verfahren weiterhin die Schritte umfaßt: lokales
Decodieren des codierten Mittelwert-Abtrennungsblocks mit Hilfe eines
Decodiervorgangs unter Verwendung der Modusinformation und der
Mittelwertinformation und Ausgeben eines lokal decodierten rekonstruierten Pixelblocks
und Codieren des lokal decodierten rekonstruierten Pixelblocks mit Hilfe eines der
Modusinformation entsprechenden Codiervorgangs unter Verwendung einer
orthogonalen Transformation und Ausgeben von zweiten Codierdaten.
Kurze Beschreibung der Zeichnung
-
Fig. 1 ist ein Blockschaltbild, welches die Struktur eines ersten Ausführungsbeispiels
einer erfindungsgemäßen Bildsignal-Codiervorrichtung zeigt,
-
Fig. 2 ist ein Blockschaltbild, welches die Struktur einer in dem ersten
erfindungsgemäßen Ausführungsbeispiel eingesetzten Codetransformationseinheit zeigt,
-
Fig. 3 ist ein Blockschaltbild, welches die Struktur einer in dem ersten
erfindungsgemäßen Ausführungsbeispiel eingesetzten lokalen Decodiereinheit zeigt,
-
Fig. 4 ist ein Blockschaltbild, welches die Struktur einer in dem ersten
erfindungsgemäßen Ausführungsbeispiel eingesetzten zweiten Codiereinheit zeigt,
-
Fig. 5 ist eine Darstellung, welches die Abtasttransformation darstellt,
-
Fig. 6 ist eine Tabelle, welche Beispiele der Verteilung von Pixelwerten in einem
Block sowie der Verteilung von DCT-Koeffizienten darstellt,
-
Fig. 7 ist eine Darstellung zur Erläuterung der Koeffizientenauswahl für den Fall einer
zweidimensionalen orthogonalen Transformation der Ordnung 8,
-
Fig. 8 zeigt eine Darstellung eines Transformationskoeffizientenblocks und einer
Koeffizientenabtastfolge,
-
Fig. 9 zeigt eine Tabelle, in der Gruppen dargestellt sind, welche Unterschiede
zwischen Gleichstromanteilen umfassen,
-
Fig. 10 zeigt eine Tabelle, in welcher Codiersymbole in Wechselstromanteilen
dargestellt sind,
-
Fig. 11 ist ein Blockschaltbild, welches die Struktur eines zweiten erfindungsgemäßen
Ausführungsbeispiels der Bildsignal-Codiervorrichtung zeigt,
-
Fig. 12 ist ein Blockschaltbild, welches die Struktur einer vorgeschlagenen Bildsignal-
Codiervorrichtung zeigt,
-
Fig. 13 ist eine erläuternde Darstellung der Abtasttransformation eines Bildes,
-
Fig. 14 ist ein Blockschaltbild, welches die Struktur eines in der vorgeschlagenen
Bildsignal-Codiervorrichtung eingesetzten Modusunterscheiders zeigt,
-
Fig. 15 ist eine Darstellung zur Erläuterung der Signalforminformationanalyse,
-
Fig. 16 ist ein Blockschaltbild, welches die Struktur eines in der vorgeschlagenen
Bildsignal-Codiervorrichtung eingesetzten adaptiven Näherungscodierers zeigt,
-
Fig. 17 ist eine Darstellung zur Erläuterung der Gewinninformationsanalyse, und
-
Fig. 18 ist eine erläuternde Darstellung, welche die Codestruktur zeigt.
Beschreibung der bevorzugten Ausführungsbeispiele
-
Fig. 1 ist ein Blockschaltbild, welches die Struktur eines ersten erfindungsgemäßen
Ausführungsbeispiels einer Bildsignal-Codiervorrichtung zeigt. In Fig. 1 sind
diejenigen Abschnitte, welche denen der in Fig. 12 gezeigten vorgeschlagenen
Vorrichtung entsprechen, mit denselben Bezugszeichen versehen.
-
Das Bezugszeichen 1 bezeichnet ein Eingangsbild, welches mit Hilfe des in Fig. 13
gezeigten Rasterscanvorgangs eingegeben wird, 12 bezeichnet Codierdaten, welche von
einer Bildsignal-Codiereinheit 100 codiert werden, und 102 bezeichnet zweite
Codierdaten, welche von einer Codetransformationseinheit 101 transformiert werden.
Die Bildsignal-Codiereinheit 100 codiert das Eingangsbild 1 in Übereinstimmung mit
dem Verfahren, welches bereits zuvor in der vorliegenden Spezifikation in der
Beschreibung zum Stand der Technik erläutert worden ist, und gibt die Codierdaten 12
aus, und die Codiertransformationseinheit 101 decodiert lokal die Codierdaten 12 und
codiert anschließend erneut die decodierten Daten gemäß einem anderen Algorithmus
als die Bildsignal-Codiereinheit 100, um auf diese Weise deren Code zu transformieren,
und gibt anschließend die Codierdaten 102 aus.
-
Die in Fig. 1 gezeigte Signal-Codiereinheit 100 ist identisch zu derjenigen, die bereits
zuvor in der vorliegenden Spezifikation in der Beschreibung zu dem Stand der Technik
erläutert worden ist, so daß auf eine Beschreibung von ihr an dieser Stelle verzichtet
wird.
-
Fig. 2 ist ein Blockschaltbild, welches die Struktur der in Fig. 1 gezeigten
Codetransformationseinheit 101 darstellt. In Fig. 2 bezeichnet das Bezugszeichen 5
eine Mittelwertinformation, welche mit Hilfe einer Abtrenneinheit 200 von den
Codierdaten 12 abgetrennt wird, 10 bezeichnet einen Näherungsblock, der mit Hilfe der
Abtrenneinheit 200 von den Codierdaten 12 abgetrennt wird, 8 bezeichnet eine
Modusinformation, welche mit Hilfe der Abtrenneinheit 200 von den Codierdaten 12
abgetrennt wird, und 205 bezeichnet einen lokal decodierten Pixelblock, der mit Hilfe
der lokalen Decodiereinheit 204 decodiert wird. Die Abtrenneinheit 200 trennt die
Mittelwertinformation 5, den Näherungsblock 10 und die Modusinformation 8 von den
Codierdaten 12 ab, die lokale Decodiereinheit 204 decodiert den lokal decodierten
Pixelblock 205 anhand der Mittelwertinformation 5, des Näherungsblocks 10 und der
Modusinformation 8, und eine zweite Codiereinheit 206 codiert erneut den
lokaldecodierten Pixelblock 205 in Übereinstimmung mit der Modusinformation 8 und gibt
anschließend zweite Decodierdaten 102 aus.
-
Fig. 3 ist ein Blockschaltbild, welches die Struktur der in Fig. 2 gezeigten lokalen
Decodiereinheit 204 zeigt.
-
In Fig. 3 bezeichnet das Bezugszeichen 211 eine Rückquantisierung-
Steuerinformation, welche von einer Modusinterpretiereinheit 210 ausgegeben wird, um
die Rückquantisierungskennlinie einer Rückquantisierungseinheit 213 zu steuern, 212
bezeichnet eine Interpolationssteuerinformation, welche von der
Modusinterpretiereinheit 210 ausgegeben wird, um die Interpolationskennlinie einer
Interpolationseinheit 215 zu steuern, 214 bezeichnet einen decodierten
Unterabtastungsblock, welcher von der Rückquantisierungseinheit 213 ausgegeben
wird, und 216 bezeichnet einen decodierten Mittelwertinformation-Abtrennungsblock,
welcher von der Interpolationseinheit 215 ausgegeben wird. Die
Modusinterpretiereinheit 210 interpretiert die Modusinformation 8 und gibt die
Rückquantisierung-Steuerinformation 211 und die Interpolationssteuerinformation 212
aus, die Rückquantisierungseinheit 213 unterzieht den Näherungsblock 10 in
Übereinstimmung mit der Rückquantisierung-Steuerinformation 211 einem
Rückquantisierungsvorgang, die Interpolationseinheit 215 unterzieht den decodierten
Unterabtastungsblock 214 in Übereinstimmung mit der Interpolationssteuerinformation
212 einem Interpolationsvorgang, und eine Mittelwertinformation-Addiereinheit 217
addiert die Mittelwertinformation 5 zu dem decodierten Mittelwert-Abtrennungsblock
216, um auf diese Weise den lokal decodierten Block 205 auszugeben.
-
Fig. 4 ist ein Blockschaltbild, welches die Struktur der in Fig. 2 eingesetzten zweiten
Codiereinheit 206 zeigt.
-
In Fig. 4 bezeichnet das Bezugszeichen 221 einen transformierten Koeffizientenblock,
der von einer Orthogonaltransformationseinheit 220 ausgegeben wird, 223 bezeichnet
eine Maskeninformation, welche von einer Maskeninformation-Erzeugungseinheit 222
ausgegeben und zur Beurteilung der Bedeutung/Bedeutungslosigkeit
(Signifikanz/Insignifikanz) des transformierten Koeffizientenblocks 221 verwendet
wird, 225 bezeichnet einen ausgewählten Koeffizientenblock, der hinsichtlich seiner
Signifikanz/Insignifikanz von einer Koeffizientenauswahleinheit 224 beurteilt wird, und
227 bezeichnet einen quantisierten Koeffizientenblock, der von einer
Quantisierungseinheit 226 quantisiert wird. Die Orthogonaltranformationseinheit 220
unterzieht den lokal decodierten Pixelblock 205 einer orthogonalen Transformation und
gibt den transformierten Koeffizientenblock 221 aus, die Maskeninformation-
Erzeugungseinheit 222 gibt die Maskeninformation 223 aus, welche in
Übereinstimmung mit der Modusinformation 8 für jede Koeffizientenposition die
Signifikanz/Insignifikanz des Koeffizienten anzeigt, die Koeffizientenauswahleinheit
224 gibt den ausgewählten Koeffizientenblock 225 aus, wobei der Koeffizient an
derjenigen Koeffizientenposition, welche durch die Maskeninformation 223 als
insignifikant beurteilt worden ist, durch 0 ausgedrückt wird, die Quantisierungseinheit
226 teilt die Koeffizienten des ausgewählten Koeffizientenblocks 225 gemäß
Quantisierungsschritten, die zuvor für jede Koeffizientenposition festgelegt worden
sind, und gibt den quantisierten Koeffizientenblock 227 aus, und eine
Entropiecodiereinheit 228 unterzieht den quantisierten Koeffizientenblock 227 einer
Entropiecodierung, um auf diese Weise die zweiten Codierdaten 102 zu erhalten.
-
Nachfolgend wird das erste Ausführungsbeispiel der. Erfindung unter Bezugnahme auf
die Fig. 1, 2, 3 und 4 erläutert. Der Betrieb der Bildsignal-Codiereinheit 100 wurde
jedoch bereits zuvor in der vorliegenden Spezifikation in der Beschreibung zu dem
Stand der Technik erläutert, so daß an dieser Stelle auf Ihre Beschreibung verzichtet
wird.
-
Wie in Fig. 18 gezeigt ist, bestehen die von der Bildsignal-Codiereinheit 100
ausgegebenen Codierdaten 12 aus der Modusinformation 8, der Mittelwertinformation 5
und dem Näherungsblock 10. Des weiteren ist die Modusinformation 8 aus der
Signalforminformation 18 und der Gewinninformation 27 zusammengesetzt. Die
Modusinformation 8, die Mittelwertinformation 5 und der Näherungsblock 10 werden
in der Abtrenneinheit 200 getrennt.
-
In der in Fig. 3 gezeigten Modusinterpretiereinheit 210 wird die
Signalforminformation 18 der Modusinformation 8, welche einen
Auflösungsnäherungsparameter darstellt, von der Gewinninformation 27 der
Modusinformation 8, welche einen Gradationsnäherungparameter darstellt, getrennt.
Anhand der Signalforminformation 8 kann eindeutig in Übereinstimmung mit einem
Unterabtastungsmuster bei der Codierung eine Interpolationsrichtung festgestellt
werden. Es wird die Interpolationssteuerinformation 212 erhalten, welche den
Interpolationsbetrieb der Interpolationseinheit 215 in Übereinstimmung mit der
Interpolationsrichtung steuert. Ebenso kann anhand der Gewinninformation 27 der
Modusinformation 8 die Kennlinie und die Anzahl der Rückquantisierungsschritte der
Rückquantisierung eindeutig entsprechend der Anzahl der Quantisierungsschritte
bestimmt werden. Es wird die Rückquantisierung-Steuerinformation 211 erhalten, um
den Rückquantisierungsbetrieb der Rückquantisierungseinheit 213 in Übereinstimmung
mit der Kennlinie der Rückquantisierung und der Anzahl der Rückquantisierungsschritte
zu steuern.
-
In der in Fig. 3 gezeigten Rückquantisierungseinheit 213 wird der Näherungsblock 10
unter Verwendung der Rückquantisierungskennlinie und der
Rückquantisierungsschrittanzahl, welche durch die Rückquantisierung-
Steuerinformation 211 mitgeteilt werden, einer Rückquantisierung unterzogen, und es
wird der decodierte Unterabtastungsblock 214 ausgegeben. Die Kennlinie der
Rückquantisierung und die Anzahl der Rückquantisierungsschritte werden jeweils
gemäß dem in Fig. 16 gezeigten adaptiven Quantisierer 34 bereitgestellt.
-
In der in Fig. 3 gezeigten Interpolationseinheit 215 wird der decodierte
Unterabtastungsblock 214 mit Hilfe eines Interpolationsvorgangs, der durch die
Interpolationssteuerinformation 212 mitzuteilen ist, interpoliert, und es wird der
decodierte Mittelwert-Abtrennungsblock 216 ausgegeben. Es werden Kombinationen
von Interpolationsvorgängen in Übereinstimmung mit den Unterabtastungsmustern des
in Fig. 16 gezeigten adaptiven Unterabtasters 32 bereitgestellt.
-
In der in Fig. 3 gezeigten Mittelwert-Addiereinheit 217 wird die
Mittelwertinformation 5 zu den entsprechenden Pixelwerten des decodierten Mittelwert-
Abtrennungsblocks 216 hinzuaddiert, um auf diese Weise den lokal ecodierten
Pixelblock 205 mit mxn Pixeln auszugeben. Dabei wird der lokal-decodierte Pixelblock
205 gemäß einer in Fig. 5 gezeigten Blockabtastungsfolge ausgegeben.
-
Als nächstes wird nachfolgend die zweite Decodiereinheit 206 unter Verwendung von
Fig. 4 beschrieben.
-
In der Orthogonaltransformationseinheit 220 wird der lokal-decodierte Pixelblock 205
mit den mxn Pixeln einer zweidimensionalen orthogonalen Transformation unterzogen,
und es wird der transformierte Koeffizientenblock 221 ausgegeben. In Fig. 6 sind
Beispiele von einzugebenden Pixelblöcken und transformierten Koeffizientenblöcken
dargestellt. Die Zahlenwerte der Pixelblöcke stellen jeweils die Pixelwerte dar, und die
Zahlenwerte der transformierten Koeffizientenblöcke stellen jeweils die Werte der
transformierten Koeffizienten dar.
-
Die Maskeninformation-Erzeugungseinheit 222 gibt in Übereinstimmung mit der den
Auflösungsnäherungsparameter darstellenden Signalforminformation 18 sowie der den
Gradationsnäherungsparameter darstellenden Gewinninformation 27, die jeweils in der
Modusinformation 8 enthalten sind, die Maskeninformation 223 aus, welche die
Signifikanz/Insignifikanz der entsprechenden Koeffizienten des transformierten
Koeffizientenblocks 221 anzeigt. Dies entspricht einem Prozeß, bei dem die
Signalverteilung eines Frequenzbereichs anhand der räumlichen Eigenschaften des
Bildsignals, d. h. des Ergebnisses der Analyse der Auflösung und Gradation des
Bildsignals, abgeschätzt wird.
-
Wie in Fig. 6(A) gezeigt ist, wird beispielsweise bei einem Pixelblock, dessen
Gradation in horizontaler Richtung schwankt, die elektrische Leistung der Koeffizienten
nach der orthogonalen Transformation wie in Fig. 6(a) gezeigt auf die erste Zeile
konzentriert. Des weiteren wird bei einem Pixelblock, dessen Gradation in vertikaler
Richtung schwankt, wie es in Fig. 6(B) gezeigt ist, die Koeffizientenleistung nach der
orthogonalen Transformation auf die erste Spalte konzentriert, wie es in Fig. 6(B)
gezeigt ist. Derartige gleichförmige Gradationsschwankungen, wie sie in Fig. 6(A)
und (B) gezeigt sind, sind selten, und die Leistung wird genauso auf andere
Koeffizienten verteilt. Überwiegen jedoch die horizontalen und vertikalen
Gradationsschwankungen, sind die Koeffizienten in der Nähe der ersten Zeile oder der
ersten Spalte jeweils bei der Wiedergabe für die Bildqualität von Bedeutung. Ist
andererseits, wie in Fig. 6(C) gezeigt ist, eine schrägverlaufende Kante vorhanden,
wird die Leistung über einen breiten Bereich verteilt und konzentriert sich um die
diagonalen Komponenten des transformierten Koeffizientenblocks, wie es in Fig. 6(C)
gezeigt ist. In diesem Fall wird bei der Wiedergabe der Bildqualität die Anzahl der
auszuwählenden Koeffizienten im Vergleich zu den in Fig. 6(A) und 6(B) gezeigten
Fällen erhöht.
-
Anhand der Richtung der Unterabtastung, d. h. anhand der direktionalen Eigenschaften
der Beziehungen zwischen den Pixeln in den Pixelblöcken, können Kenntnisse darüber
gewonnen werden, ob die Verteilung der elektrischen Leistung in dem transformierten
Koeffizientenblock 221 in Richtung einer Zeile, in Richtung einer Spalte oder in
diagonaler Richtung verläuft. Aufgrund der Tatsache, daß die Unterabtastrate die
Intensität der Zwischenbeziehung anzeigt, ist zudem verständlich, daß die elektrische
Leistung mit zunehmender Unterabtastrate insgesamt stärker auf bestimmte
Koeffizienten in einem Niederfrequenzbereich konzentriert wird. Ausgehend von der
Quantisierungskenngröße und dem Quantisierungsgrad kann das Vorhandensein und die
Größe der Kante in dem Pixelblock abgeschätzt werden.
-
Wie oben beschrieben worden ist, wird in der Maskeninformation-Erzeugungseinheit
222 die Maskeninformation 223, welche die Position der für die Reproduktion der
Bildqualität erforderlichen Koeffizienten anzeigt, ausgehend von der
Unterabtastungsrichtung, der Unterabtastrate, der Quantisierungskennlinie und dem
Quantisierungsgrad, die jeweils durch die Modusinformation 8 erhalten werden,
bestimmt und an die Koeffizientenauswahleinheit 224 ausgegeben.
-
Nachfolgend wird der Betrieb der Koeffizientenauswahleinheit 224 unter Verwendung
von Fig. 7 beschrieben.
-
Die Maskeninformation 223 zeigt mit Hilfe von binären "1"- oder "0"-Informationen
für jede Koeffizientenposition an, ob der entsprechende Koeffizient in dem
transformierten Koeffizientenblock 221 signifikant oder insignifikant ist. Wie in Fig. 7
gezeigt ist, werden von dem Koeffizientenblock 221 lediglich diejenigen Koeffizienten
ausgewählt, die an den einer "1" in der Maskeninformation 223 entsprechenden
Positionen vorhanden sind, wodurch der ausgewählte Koeffizientenblock 225 gebildet
wird.
-
Die Quantisierungseinheit 226 quantisiert die entsprechenden Koeffizienten des
ausgewählten Koeffizientenblocks 225 und gibt den quantisierten Koeffizientenblock
227 aus. Der Quantisierungsprozeß kann durch die folgende Gleichung ausgedrückt
werden:
-
Dabei entspricht F(u, v) dem ausgewählten Koeffizientenblock 225, Q(u, v) entspricht
den Quantisierungsschritten, C(u, v) entspricht dem quantisierten Koeffizientenblock
227 bzw. u, v entspricht einer Position in dem Block.
-
Die Entropiecodiereinheit 228 codiert den quantisierten Koeffizientenblock 227 mit
Hilfe einer Entropiecodierung, wie beispielsweise einer Huffman-Codierung, einer
arithmetischen Codierung oder dergleichen und gibt die zweiten Codierdaten 102 aus.
In Fig. 8 ist der quantisierte Koeffizientenblock 227 dargestellt. Die in dem Block 227
enthaltenen Koeffizienten werden innerhalb der Matrix zickzackartig abgetastet, wie es
durch durchgezogene Pfeile in Fig. 8 angedeutet ist, um auf diese Weise eine
eindimensionale Koeffizientenlinie zu erhalten, und es wird ein Codiervorgang in dieser
Reihenfolge durchgeführt.
-
Bei der Entropiecodierung werden zunächst Codiersymbole gebildet, welche als Ziele
für eine Codezuordnung dienen. Die Symbole werden individuell durch Komponenten
in Übereinstimmung mit dem Unterschied zwischen den statistischen Eigenschaften der
Gleichstromkomponente und der Wechselstromkomponente gebildet. Auch bei der
Codezuordnung wird die Codierung individuell zugeführt. Wird beispielsweise die
Huffman-Codierung durchgeführt, werden individuelle Codetabellen, wie z. B. eine
Tabelle für Gleichstromkomponenten, eine Tabelle für Wechselstromkomponenten und
dergleichen, bereitgestellt.
-
Nachfolgend wird ein Verfahren zum Bilden von Symbolen für die
Gleichstromkomponenten erläutert. Im Falle von Gleichstromkomponenten wird
zunächst der Unterschied zwischen den Gleichstromkomponenten eines vorhergehenden
Blocks und eines augenblicklichen Blocks ermittelt, und die sich daraus ergebenden
Werte werden in Übereinstimmung mit Fig. 9 in Gruppen eingeteilt. Die Nummern
der auf diese Weise klassifizierten Gruppen dienen als Codiersymbole. Ebenso wird die
Zuordnung der auf diese Weise ermittelten Differenzwerte zu den Nummern der
Gruppe durch einen Bitstring (ein zusätzliches Bit) dargestellt, welcher dieselbe
Nummer wie die Gruppennummer besitzt.
-
Nachfolgend wird ein Verfahren zum Bilden der Symbole für die
Wechselstromkomponenten erläutert. Wie in Fig. 8 gezeigt ist, werden die
Wechselstromkomponenten mit Ausnahme der Gleichstromkomponente innerhalb des
Blocks zickzackartig abgetastet. In diesem Fall werden die Codiersymbole durch eine
Kombination einer Länge (Null-Lauf), in der ungültige Koeffizienten (Null-
Koeffizienten) ununterbrochen vorhanden sind, bis ein gültiger Koeffizient (dessen Wert
nicht Null ist) auftritt, und der Gruppennummer, wenn die gültigen Koeffizienten
ähnlich zu den Gleichstromkomponenten in Gruppen eingeteilt werden (wobei jedoch
nicht die Gruppe 0 verwendet werden darf), gebildet. Ist die maximale Länge des Null-
Laufs auf 15 begrenzt, und ist auch die Gruppennummer auf 15 begrenzt, kann, wie in
Fig. 10 gezeigt ist, eine Tabelle mit 256 Codiersymbolen gebildet werden. Ähnlich zu
dem Fall der Gleichstromkomponenten wird die tatsächliche Zugehörigkeit der
Koeffizientenwerte zu der Gruppennummer durch ein zusätzliches Bit angezeigt.
-
Wird die Huffman-Codierung verwendet, werden die zweiten Codierdaten 102 gebildet,
indem Codes in Übereinstimmung mit der Wahrscheinlichkeit des Auftretens der in den
oben erwähnten Prozeduren gebildeten Symbole zugeordnet werden.
-
Fig. 11 ist ein Blockschaltbild, welches die Struktur eines zweiten erfindungsgemäßen
Ausführungsbeispiels der Bildsignal-Codiervorrichtung zeigt. In Fig. 11 ist eine
Speichereinheit 103 zwischen der Bildsignal-Codiereinheit 100 und der
Codetransformationseinheit 101 vorgesehen, um die Codierdaten 12 temporär zu
speichern.
-
Aufgrund des Vorhandenseins der Speichereinheit 103 kann lediglich der Teil des
Eingangsbilds 1 in die zweiten Codierdaten transformiert werden. Ebenso ist es
möglich, in der Speichereinheit 103 die Codierdaten 12 einem Editiervorgang zu
unterziehen.
-
Wie zuvor beschrieben worden ist, können mit Hilfe der vorliegenden Erfindung die
folgenden Wirkungen erzielt werden.